• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 275
  • 249
  • 38
  • 25
  • 24
  • 11
  • 6
  • 5
  • 4
  • 3
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 727
  • 198
  • 183
  • 147
  • 128
  • 115
  • 101
  • 97
  • 80
  • 74
  • 72
  • 70
  • 61
  • 56
  • 55
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
261

Smart city platforms: designing a module to visualize information for real estate companies

Savinov, Valeriy January 2018 (has links)
This thesis is a study with focus on real estate companies for one of several sub-projects under “Stadens kontrollrum” initiative in Västerås. “Stadens kontrollrum” is a concept that brought together expertise from various fields of industry, research and government to create a platform that will aggregate data from different stakeholders and proposed services to achieve the goal of making Västerås a smart and sustainable city. Our project aims to extend “Stadens kontrollrum” platform in order to make it beneficial for real estate companies. In this case study, we applied expert driven methodology, i.e. with domain experts. A detailed literature review has been performed. We identified user requirements based on the information gathered during workshops with nine participants from real estate and utility companies; interviews with three experts from Mälarenergi. During the study, we identified that data visualisation, predictive maintenance and big data analysis for decision making are the main tools, among others, that should be applied to facilitate user needs. Based on user requirements, we have suggested an architecture of a module for the “Stadens kontrollrum” platform that includes those features. To verify feasibility of the solution, a prototype was built and evaluated with a group of four experts from Mälarenergi. The prototype is going to serve as a live demo in workshops and further discussions with the potential users later in the project. A full prototype of the solution is planned to be implemented in the next stage of the project.
262

Robustesse et visualisation de production de mélanges / Robustness and visualization of blend's production

Aguilera Cabanas, Jorge Antonio 28 October 2011 (has links)
Le procédé de fabrication de mélanges (PM) consiste à déterminer les proportions optimales à mélanger d'un ensemble de composants de façon que le produit obtenu satisfasse un ensemble de spécifications sur leurs propriétés. Deux caractéristiques importantes du problème de mélange sont les bornes dures sur les propriétés du mélange et l'incertitude répandue dans le procédé. Dans ce travail, on propose une méthode pour la production de mélanges robustes en temps réel qui minimise le coût de la recette et la sur-qualité du mélange. La méthode est basée sur les techniques de l'Optimisation Robuste et sur l'hypothèse que les lois des mélange sont linéaires. On exploite les polytopes sous-jacents pour mesurer, visualiser et caractériser l'infaisabilité du PM et on analyse la modification des bornes sur les composants pour guider le procédé vers le ``meilleur`` mélange robuste. On propose un ensemble d'indicateurs et de visualisations en vue d'offrir une aide à la décision. / The oil blending process (BP) consists in determining the optimal proportions to blend from a set of available components such that the final product fulfills a set of specifications on their properties. Two important characteristics of the blending problem are the hard bounds on the blend's properties and the uncertainty pervading the process. In this work, a real-time optimization method is proposed for producing robust blends while minimizing the blend quality giveaway and the recipe's cost. The method is based on the Robust Optimization techniques and under the assumption that the components properties blend linearly. The blending intrinsic polytopes are exploited in order to measure, visualize and characterize the infeasibility of the BP. A fine analysis of the components bounds modifications is conducted to guide the process towards the ``best`` robust blend. A set of indices and visualizations provide a helpful support for the decision maker.
263

Visualisation interactive de grands volumes de données incertaines : pour une approche perceptive / Interactive scientific visualization of high-volume, uncertain data : for a perceptual approach

Coninx, Alexandre 22 May 2012 (has links)
Les études scientifiques et d'ingénierie actuelles font de plus en plus souvent appel à des techniques de simulation numérique pour étudier des phénomènes physiques complexes. La visualisation du résultat de ces simulations sur leur support spatial, souvent nécessaire à leur bonne compréhension, demande la mise en place d'outils adaptés, permettant une restitution fidèle et complète de l'information présente dans un jeu de données. Une telle visualisation doit donc prendre en compte les informations disponibles sur la qualité du jeu de données et l'incertitude présente. Cette thèse a pour but d'améliorer les méthodes de visualisation des champs de données scalaires de façon à intégrer une telle information d'incertitude. Les travaux présentés adoptent une approche perceptive, et utilisent les méthodes expérimentales et les connaissances préalables obtenues par la recherche sur la perception visuelle pour proposer, étudier et finalement mettre en oeuvre des nouvelles techniques de visualisation. Une revue de l'état de l'art sur la visualisation de données incertaines nous fait envisager l'utilisation d'un bruit procédural animé comme primitive pour la représentation de l'incertitude. Une expérience de psychophysique nous permet d'évaluer des seuils de sensibilité au contraste pour des stimuli de luminance générés par l'algorithme de bruit de Perlin, et de déterminer ainsi dans quelles conditions ces stimuli seront perçus. Ces résultats sont validés et étendus par l'utilisation d'un modèle computationnel de sensibilité au contraste, que nous avons réimplémenté et exécuté sur nos stimuli. Les informations obtenues nous permettent de proposer une technique de visualisation des données scalaires incertaines utilisant un bruit procédural animé et des échelles de couleur, intuitive et efficace même sur des géométries tridimensionnelles complexes. Cette technique est appliquée à deux jeux de données industriels, et présentée à des utilisateurs experts. Les commentaires de ces utilisateurs confirment l'efficacité et l'intérêt de notre technique et nous permettent de lui apporter quelques améliorations, ainsi que d'envisager des axes de recherche pour des travaux futurs. / Current scientific and engineering works make an increasingly frequent use of numerical simulation techniques to study complex physical phenomenons. Visualizing these simulations' results on their geometric structure is often necessary in order to understand and analyze the simulated system. Such a visualization requires specific software tools in order to achieve a comprehensive and accurate depiction of the information present in the dataset. This includes taking into account the available information about dataset quality and data uncertainty. The goal of this thesis is to improve the visualization techniques for scalar data fields in order to integrate uncertainty information to the result. Our work follows a perceptual approach, using knowledge and experimental methods from visual perception research to put forward, study and implement new visualization techniques. A review of the state of the art on uncertainty visualization make us suggest to use an animated procedural noise as a visual primitive to show uncertainty. We set up a psychophysics experiment to evaluate contrast sensitivity thresholds for luminance stimuli generated using Perlin's noise algorithm, and therefore understand under which conditions such noise patterns can be perceived. These results are validated and extended by using a computational model of contrast sensitiviy, which we reimplemented and ran on our stimuli. The resulting information allow us to put forward a new technique for visualizing uncertain scalar data using an animated procedural noise and color maps. The resulting visualization is intuitive and efficient even for datasets with a complex tridimensional geometry. We apply this new technique to two industrial datasets, and demonstrate it to expert users. Their feedback uphold the usabiliy and efficiency of our technique, and allows us to add a few more improvements and to orient our future work.
264

Apparence multi-échelles pour le rendu réaliste et efficace des surfaces complexes / Appearance of multi-scale surfaces

Heitz, Eric 26 September 2014 (has links)
Le rendu, à la fois réaliste et efficace des scènes complexes, est un défi majeur de l'image de synthèse.Dans le domaine du rendu photo-réaliste, l'image est calculée en simulant les interactions physiques entre la lumière et le contenu de la scène.Mais, aujourd'hui, les studios de production ne créent plus, pour leurs films, de simples scènes, mais des mondes entiers, à la fois gigantesques et détaillés.La complexité a crue de manière exponentielle, entraînant un problème de scalabilité.La masse de données et la complexité des interactions sont telles que le calcul de l'image est devenu déraisonnablement coûteux, et ce, même sur des serveurs de calcul très puissants.Dans le domaine du rendu temps-réel, l'objectif de photo-réalisme est moins poussé.Le problème posé par la complexité est alors celui de la quantité de détails sous-pixel qui sont source d'artefacts visuels comme l'aliasing, le popping, et l'incohérence de l'apparence avec les changements de distance.Les détails sous-pixel ont une influence sur l'apparence au niveau du pixel et ne peuvent donc être simplement omis. De fait, réaliser un rendu multi-échelles en traitant séparément les détails vus de loin comme des matériaux est une solution naturelle à ce problème. Cependant, les modèles multi-échelles existants, souvent empiriques ou analysés avec force approximations, sont peu précis ou, du moins, n'ont pas été conçus pour représenter des situations complexes et échouent à préserver l'apparence des objets et donc à garantir la qualité photo-réaliste de l'image, ce qui les rend inutilisables avec les exigences de qualité en production. Nous soutenons la thèse qu'il est possible, en passant par une modélisation rigoureuse du problème de l'apparence au niveau des pixels, de mettre au point des algorithmes de rendu multi-échelles efficaces qui calculent des images de qualité. Nous explorons cette idée dans le cas des surfaces détaillées pour lesquelles nous utilisons et revisitons la théorie des micro-facettes comme fond théorique.La première partie de ce mémoire est dédiée à la mise au point du modèle physique à micro-facettes qui décrit les interactions entre la lumière et une surface multi-échelles. Nous commençons par revisiter les fondements de la théorie des micro-facettes. En partant de la conservation de l'aire projetée visible des micro-facettes, nous redérivons et unifions les principaux modèles existants. Ensuite, nous étendons la théorie pour la rendre compatible avec un paradigme de rendu multi-échelles. La compréhension acquise sur le modèle nous permet aussi de dériver de nouveaux résultats. En particulier, nous montrons comment certaines propriétés d'invariance permettent de dériver simplement des résultats pour des micro-surfaces anisotropes. Enfin, nous proposons une métrique de validation pour les modèles à micro-facettes, que nous utilisons pour valider les résultats existants ainsi que les nouveaux que nous proposons.Dans la seconde partie, nous montrons comment utiliser ces résultats théoriques pour mettre au point des applications de rendu de surfaces multi-échelles.En pratique, il faut choisir une représentation pour les surfaces multi-échelles et leurs matériaux, et calculer leurs interactions avec l'éclairage.Nous utilisons une représentation mémoire simple et légère pour les surfaces et montrons comment la rendre compatible avec l'animation des modèles, afin de ne pas avoir à la recalculer pour chaque image d'une séquence animée. Lorsque les attributs géométriques et optiques du matériau sont corrélés, ils doivent être représentés et évalués d'une manière qui dépend de leur visibilité, à la fois pour la caméra et pour la lumière. Nous montrons que ce problème peut toujours s'exprimer comme un problème de color mapping dont nous dérivons la solution ainsi qu'une manière efficace de la calculer. Enfin, nous décrivons des algorithmes d'intégration numérique de l'éclairage incident dédiés au rendu temps-réel et offline. / Efficient rendering of realistic and complex scenes is a major challenge for image synthesis.In the field of photorealistic rendering, the image is computed by simulating the physical interactions between the light and the content of the scene.Nowadays, production studios don't create simple scenes for their movies, but gigantic and extremely detailed worlds.This exponential rise of complexity is responsible for scalability problems.The amount of data and the complexity of the interactions are such that computing the image has become unreasonably costly, and this even on the most powerful computers.In the field of real-time rendering, the objective of photorealism is less pushed on, but the problem posed by the complexity resides in the amount of subpixel details.They are the source of artefacts like aliasing, popping and inconsistent changes of appearances.Subpixel details influence appearance at the level of the pixel and cannot just be removed.Indeed, the transition from pixel to subpixel during a zoom requires recovering the emerging visual effects with high accuracy.Hence, using a multi-scale strategy, in which subpixel details are represented like surface material, is a natural solution to this scalability problem.However, existing multi-scale models are mostly empirical and approximate.They are not designed to handle complex scenes and fail at recovering the correct appearance; they don't satisfy the requirements for photorealistic quality demanded in production.We claim that it is possible to design efficient and high-quality multi-scale rendering algorithms.This can be done by modeling rigorously the problem of filtering the appearance at the level of the pixels.We explore this idea in the case of detailed surfaces, for which we use and revisit the theoretical background provided by microfacet theory.In the first part of this manuscript, we design the physical microfacet-based model, which describes the interactions between light and a multi-scale surface.We start by revisiting the foundations of microfacet theory.Starting from the conservation of the visible projected area, we derive and unify existing results.Then, we extend the theory and make it compatible with multi-scale rendering paradigms.The understanding acquired from the model also allows us to derive new results.For instance, we show how invariance properties can be used to derive results in the case of anisotropic microsurfaces, for which anisotropy is due to stretched micro-geometry, the typical case which occurs with animated surfaces.We also propose a metric that we use to validate microfacet-based models.In the second part, we show how to use these theoretical results to design multi-scale rendering applications for detailed surfaces.In practice, one needs to choose a representation for multi-scale surfaces and their materials, and compute how they interact with the incident light.We use a lightweight memory representation and show how to make it compatible with the animation of the models, so that there is no need to initialize it again for each image of an animated sequence.When the geometrical and optical attributes of the material are correlated, they have to be represented and evaluated in a way that depends on their visibility for the camera and the light source directions.We show that this problem can always be expressed as a color mapping problem. We derive its solution and an efficient way to evaluate it.Finally, we describe numerical integration schemes for the incident light dedicated to real-time and offline rendering.In particular, we propose a new importance sampling technique for microfacet-based materials that can be used in a typical Monte Carlo renderer.
265

How to pinpoint energy-inefficient Buildings? An Approach based on the 3D City model of Vienna

Skarbal, B., Peters-Anders, J., Faizan Malik, A., Agugiaro, G. January 2017 (has links) (PDF)
This paper describes a methodology to assess the energy performance of residential buildings starting from the semantic 3D city model of Vienna. Space heating, domestic hot water and electricity demand are taken into account. The paper deals with aspects related to urban data modelling, with particular attention to the energy-related topics, and with issues related to interactive data exploration/visualisation and management from a plugin-free web-browser, e.g. based on Cesium, a WebGL virtual globe and map engine. While providing references to existing previous works, only some general and introductory information is given about the data collection, harmonisation and integration process necessary to create the CityGML-based 3D city model, which serves as the central information hub for the different applications developed and described more in detail in this paper. The work aims, among the rest, at developing urban decision making and operational optimisation software tools to minimise non-renewable energy use in cities. The results obtained so far, as well as some comments about their quality and limitations, are presented, together with the discussion regarding the next steps and some planned improvements.
266

Visualisation interactive de simulations à grand nombre d'atomes en physique des matériaux / Interactive visualization of material physics simulations with large number of atoms

Latapie, Simon 07 April 2009 (has links)
Afin de répondre au besoin croissant de puissance de calcul qui intéresse les applications scientifiques, des architectures de calculateurs de plus en plus parallèles se répandent, de type cluster, MPP, ou autre, avec de plus en plus d’unités de calcul. Les codes de calcul, en s’adaptant à ce parallélisme, produisent de fait des résultats de plus en plus volumineux. Dans le domaine plus spécifique de la dynamique moléculaire appliquée à la physique des matériaux, le nombre de particules d’un système étudié est aujourd’hui de l’ordre de quelques millions à quelques centaines de millions, ce qui pose d’importants problèmes d’exploitation des données produites. Les solutions de visualisation utilisées auparavant ne sont plus capables de traiter une telle quantité d’information de façon interactive. Le but de cette thèse est de concevoir et d’implémenter une solution de manipulation de données composées d’un très grand nombre de particules, formant un ensemble .dense. ( par exemple, une simulation en dynamique moléculaire de quelques dizaines de millions d’atomes ). Cette solution devra être adaptative pour pouvoir fonctionner non seulement sur un poste de bureau de type .desktop., mais aussi dans des environnements collaboratifs et immersifs simples, par exemple de type mur d’image, avec éventuellement des éléments de réalité virtuelle (écrans stéréo, périphériques 3D). De plus, elle devra augmenter l’interactivité, c’est-à-dire rendre le système plus apte à réagir avec l’utilisateur, afin d’effectuer des phases d’exploration des données plus efficaces. Nous proposons une solution répondant à ces besoins de visualisation particulaire dense, en apportant des améliorations : – à l’interaction, par un système permettant une exploration simple et efficace d’une simulation scientifique. A cette fin, nous avons conçu, développé, et testé le .FlowMenu3D., une extension tridimensionnelle du .FlowMenu., un menu octogonal utilisé en environnement 2D. – à l’interactivité, par une architecture optimisée pour le rendu de systèmes particulaires denses. Cette dernière, intégrée au framework de visualisation VTK, est conçue sur le principe d’un rendu parallèle hybride sort-first/sort-last, dans lequel le système sort-last Ice-T est couplé à des extensions de partitionnement spatial des données, d’occlusion statistique par une méthode de Monte-Carlo, mais aussi de programmation GPU à base de shaders pour améliorer la performance et la qualité du rendu des sphères représentant les données. / The need for more computing power for scientific applications leads supercomputer manufacturers to rely on more and more parallel architectures, such as cluster or MPP systems, increasing the number of processing units. The correlative adjustment of computing software - simulation codes - to massive parallelism leads to larger and larger datasets. More specifically, in molecular dynamics simulations applied to material physics, particle sets are typically composed of millions to hundreds of millions of particles, which raises important postprocessing issues. Most current visualization solutions do not scale up to interactively handle such an amount of information. The goal of this thesis is to design and implement a post-processing solution which is able to handle .dense. sets with a very large number of particles (for example, a molecular dynamics simulation result with several millions of atoms). This solution will have to be adaptive enough to run either on a desktop environment, or on a simple collaborative and immersive configuration, such as a tiled display, possibly with some virtual reality devices (such as stereo displays and 3D interaction peripherals). Moreover, this solution will have to maximize the interactivity, i.e. to increase the reactivity of the system against the user commands, to improve data exploration stages. We propose a solution optimized for dense particle systems visualization, improving both interaction and interactivity : – regarding interaction, a new simple and efficient way of exploring a scientific simulation is proposed. We developed and tested .FlowMenu3D., a 3D extension of the .FlowMenu. concept, an octagonal menu previously designed for 2D environments. – regarding interactivity, we propose an optimized architecture for dense particle systems rendering. The system relies on VTK visualization framework and a parallel hydrid sort-first/sort-last renderer. The existing Ice-T component is augmented with spatial data partitioning as well as statistical (Monte Carlo) occlusion mechanisms. GPU shaders eventually improve the performance and quality of rendering, using spheres as basic primitives.
267

Enhancing User Interaction with Business Intelligence Dashboards / Amélioration de l’interaction des utilisateurs avec des dashboards de Business Intelligence

Elias, Micheline 11 October 2012 (has links)
L’objectif de cette thèse est d’améliorer les tableaux de bord (dashboard) de visualisation afin d’aider à la prise de décision et d’analyse BI, et les rendre accessibles à un public plus large. Nous identifions les tendances actuelles et pratiques d’utilisation des dashboards de visualisation dans le domaine BI, et après une approche de conception centreé, nous proposons des améliorations et des solutions. Plus précisément, nous relevons les défis suivants: faire la construction du dashboard et d’utiliser accessible aux novices de visualisation, l’amélioration des dashboards avec des capacités d’annotation pour aider les analystes BI dans le processus d’analyse, et ajouter des fonctionnalités du storytelling pour aider à la communication entre les analystes et les décideurs. Notre approche centrée-utilisateur consiste à recueillir les besoins des utilisateurs (grâce à la recherche de fond, des entrevues en profondeur ou des séances de prototypage avec des experts BI), le développement itératif des prototypes, et l’évaluation des prototypes issus avec des utilisateurs représentatifs. Dans la première étape, notre travail rapporte idées recueillies au sujet des pratiques des utilisateurs novices sur Exploation Views (EV), un système qui permet aux utilisateurs novices de visualisation à créer facilement des dashboards et les personnaliser, mais fournit également des fonctionnalités nécessaires aux les experts. Nous avons évalué EV à la fois d’experts et des utilisateurs novices de visualisation, et constaté des différences dans la façon dont les experts et les utilisateurs novices interagissent avec l’interface. En se basant sur ces observations nous proposons de nouvelles lignes directrices, qui augmentent les travaux antérieurs, sur la conception pour les novices, dans le contexte des systèmes de visualisation interactifs sous forme de dashboard. Les analystes BI utilisant des dashboards (experts ou novices) ont besoin d’aide dans la tenue des dossiers de leur analyse, de leurs découvertes et des idées recueillies des données. Ce soutien fait défaut dans la plupart des systèmes de visualisation de dashboard. Nous avons effectué des entretiens approfondis avec des experts en analyse BI, qui ont révélé de nouveaux besoins d’annotation pour les systèmes de visualisation multi-graphiques (tels que des dashboard), sur lesquels nous avons basé la conception d’un prototype de tableau de bord qui gère les données et les annotations contextuels, qui peuvent être partagées à travers visualisations et des ensembles duel données. Nous nous sommes concentrés en particulier sur les aspects d’annotation innovantes, tels que les annotations multi-cibles, la transparence des annotations à travers des graphiques, ainsi que les annotations qui peuvent être partagées entre les différentes sources de données et des applications de BI. Nous avons identifié et fourni des solutions aux problèmes en utilisant les annotations contextuels, notamment les questions qui se posent lorsque le contexte de l’annotation change (par exemple les données annotées sont supprimés ou modifiés). Notre prototype a été évaluée avec des experts, utilisateurs BI, qui ont réussi d’effectuer facilement plusieurs tâches qu’ils estiment importants dans leur travail. / The goal of this thesis is to improve visualization dashboards in order to help decision making and Business Intelligence (BI) analysis, and make them accessible to a larger user audience. We identify current trends and use practices of visualization dashboards in the BI domain, and following a user-cantered design approach we provide enhancements and solutions. More specifically we address the following challenges: making dashboard construction and use accessible to visualization novices, enhancing dashboards with advanced annotation capabilities to help BI analysts in the analysis process, and add storytelling functionality to dashboards to help the communication between analysts and decision makers. Our user-centered approach consists of gathering user requirements (through background search, in-depth interviews or prototyping sessions with BI experts), iterative prototype development, and evaluation of our prototypes with representative users. First, our work reports gathered insights regarding novice user practices on Exploration Views (EV), a system that allows novice visualization users to easily build and customize BI information dashboards, but also provides functionality needed by experts. We evaluated EV with both expert and novice visualization users, and found differences in how experts and novice users interact with the interface. Based on those observations we provide new guidelines that augment previous work on designing for visualization novices, in the context of interactive visualization systems in the form of dashboards. BI analysts using dashboards (experts or novices) need support in record-keeping of their analysis, their data discoveries and gathered insights. This support is lacking in most dashboard visualization systems. We conducted in-depth interviews with BI experts that led to new annotation needs for multi-chart visualization systems (such as dashboards), on which we based the design of a dashboard prototype that supports data and context aware annotations, shared across visualizations and datasets. We focused particularly on novel annotation aspects, such as multi-target annotations, annotation transparency across charts, and annotations that can be shared among different data-sources and BI applications. We identified and provided solutions to challenges in using context aware annotations, notably issues arising when the annotation’s ”context” changes (e.g. annotated data are deleted or changed). Our prototype was evaluated with BI experts that were able to easily perform several tasks that they deemed important in their work. To increase the value of an analysis, recorded insights and knowledge need to be organized and communicated to others, and made available for future analysts to learn from. This communication step is very important, as often the analyst of data and the decision maker are two different people. To achieve this we need an easy insight organization and sharing mechanism to facilitate the transfer of knowledge, experiences, and stories, to decision makers and other analysts. We interviewed BI analysis experts and collected new requirements related to BI visual storytelling. Based on these requirements we designed and implemented a storytelling prototype that is integrated in a dashboard analysis tool, and allows easy transition from analysis to story creation and sharing. Our system was identified by experts as having great potential for training other analysts. Moreover, it can help BI analysis authors organize and communicate their findings faster to decision makers, and they can reach a broader audience since the results of a data analysis presented in the storytelling tool can be read with little to no training.
268

Visualisation of data from IoT systems : A case study of a prototyping tool for data visualisations / Visualisering av data från sakernas internet system

Anderson, Jonathan January 2017 (has links)
The client in this study, Attentec, has seen an increase in the demand for services connected to Internet of things systems. This study is therefore examining if there is a tool that can be a used to build fast prototype visualisations of data from IoT systems to use as a tool in their daily work. The study started with an initial phase with two parts. The first part was to get better knowledge of Attentec and derive requirements for the tool and the second part was a comparison of prototyping tools for aiding in development of data visualisations. Apache Zeppelin was chosen as the most versatile and suitable tool matching the criteria defined together with Attentec. Following the initial phase a pre-study containing interviews to collect empirical data on how visualisations and IoT projects had been implemented previously at Attentec were performed. This lead to the conclusion that geospatial data and NoSQL databases were common for IoT projects. A technical investigation was conducted on Apache Zeppelin to answer if there were any limits in using the tool for characteristics common in IoT system. This investigation lead to the conclusion that there was no support for plotting data on a map. The first implementation phase implemented support for geospatial data by adding a visualisation plug-in that plotted data on a map. The implementation phase was followed by an evaluation phase in which 5 participants performed tasks with Apache Zeppelin to evaluate the perceived usability of the tool. The evaluation was performed using a System Usability Scale and a Summed Usability Metric as well as interviews with the participants to find where improvements could be made. From the evaluation three main problems were discovered, the import and mapping of data, more feature on the map visualisation plug-in and the creation of database queries. The first two were chosen for the second iteration where a script for generating the code to import data was developed as well as improvements to the geospatial visualisation plug-in. A second evaluation was performed after the changes were made using similar tasks as in the first to see if the usability was improved between the two evaluations. The results of the Summed Usability Metric improved on all tasks and the System Usability Scale showed no significant change. In the interviews with the participants they all responded that the perceived usability had improved between the two evaluations suggesting some improvement.
269

Graphically visualising large hierarchies of information / Grafisk visualisering av stora informationshierarkier

Molin, Gustaf January 2001 (has links)
The age of information means too much information. Users want relief from information overload. They need the ability to navigate and explore large data sets without getting buried. The challenge for application developers is to provide both an overview of huge data sets and a useful interface for drilling down to access details of interest. The use of new techniques for graphical visualisation of large hierarchies of information provides a solution to these problems. These new techniques apply knowledge gained from cognitive psychology and put them into practice. All to improve usability and lucidity for the user. In this thesis a case study has been conducted in order to provide proof to the above statement. An application was developed using the Visual tree studio from inxight. The application explored the Hyperbolic tree. The case study was connected to the theoretical part of the thesis and the conclusion is that using the hyperbolic tree when visualising large hierarchies of information will improve lucidity and usability.
270

Designing and evaluating a digital tool to support online search of Swedish food recipes : facilitating the search process for the users

Strågefors, Linnea January 2017 (has links)
Searching for food recipes online is a common task for many people in an increasingly digitalised society. Sweden has, as many countries, local recipes, seasonal products, cultural dinners and measurement and weight standards that can differ from other coun- tries. However general searches for Swedish recipes at common search engines can pose several difficulties. For example that users can’t filter the search results by recipes and that there can be difficulties with ambiguous semantic evaluations of the users’ search queries. Aspects considered in this thesis are also how the user search process could be facilitated by using recipe labels and graphical visualisations of the information. The ambition of this thesis is investigate how online recipe search can be made more effi- cient for people looking for Swedish recipes in Swedish. An initial user survey with a questionnaire was conducted to understand the po- tential requirements for the development of a tool to support online search of Swedish recipes. More specifically, the survey inquired about users’ current search experience and tried to identify useful search criteria. The results showed that 82.4% of the par- ticipants prefer to search for recipes online via a search engine, compared with other alternatives such as searching at specific recipe sites. The main difficulty the partici- pants experienced with that search approach was that many of the search results were not recipes but other types of search results. Most participants preferred to see more in- formative recipe items in the search results list. However at the same time, some recipe labels that were present were not actually noticed by most participants. The survey also investigated further what information that could be more appropriate to show about the recipes. Based on the outcomes from the survey study, a prototype application was then developed that targets for Swedish recipe search. The purpose of the prototype is to im- plement the search criteria identified from the survey and to provide enhancements. By developing this prototype, the search criteria could be tested by users on the prototype. A second user survey with a questionnaire was then conducted, evaluating the usabil- ity of the prototype. The prototype shows to offer improvements in filtering the search results to only show Swedish recipes, presenting more relevant recipe information and also improvements in visualising the information in the recipes in the search result list.

Page generated in 0.08 seconds