• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 275
  • 249
  • 38
  • 25
  • 24
  • 11
  • 6
  • 5
  • 4
  • 3
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 727
  • 198
  • 183
  • 147
  • 128
  • 115
  • 101
  • 97
  • 80
  • 74
  • 72
  • 70
  • 61
  • 56
  • 55
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
281

Mise en oeuvre de méthodes optiques de vélocimétries 2D et 3D appliquées à l’étude de l’effet Marangoni autour d’une bulle unique / Using optical velocimetry methods applied to the study of the Marangoni effect around a single bubble

Carvalho, Victor 18 December 2014 (has links)
La convection de Marangoni est un phénomène hydrodynamique qui apparaît en présence d'un gradient de tension de surface le long d'une interface entre deux fluides non miscibles. Il est possible de voir apparaître cette convection, dans les échangeurs de chaleur avec changement de phase, autour des bulles de vapeur. Cependant, la convection de Marangoni a longtemps été négligée devant les autres phénomènes intervenant dans le transfert de chaleur. A l'ère de la miniaturisation, il devient impossible de négliger cette micro convection. Le but de la thèse est donc de caractériser la dynamique d'écoulement de la convection de Marangoni autour d'une bulle. La première partie présente la résultats 2D obtenus autour d'une bulle d'air en présence d'un gradient de température. Ce cas est plus simple à mettre en oeuvre et permet ainsi de se familiariser avec la convection de Marangoni. La seconde partie porte cette fois-ci sur l'étude bidimensionnelle de cette convection autour d'une bulle de vapeur. Les résultats ont montré que le phénomène devenait très rapidement tridimensionnel . La dernière partie présente donc une méthode de mesure optique 3D innovatrice qui permet de connaître la dynamique de l'écoulement dans les trois dimensions et les trois composantes. / The Marangoni convection is a phenomenon that appears in the presence of a tension surface gradient along an interface between two immiscible fluids. It is possible to observe that appear convection around vapor bubbles in the heat exchangers with the phase change. However, the Marangoni convection has been neglected to other phenomena involved in the heat transfer. In the age of miniaturization, it becomes impossible to overlook this micro convection. The aim of this thesis si to characterize the dynamics of Marangoni convection around a bubble. The first part deals with the 2D results around an air bubble in the presence of a temperature gradient. This case is easier to implement and allows having a better knowledge with the Marangoni convection. The second part focuses on the two-dimensional study of the convection around a vapor bubble The results showed that the phenomenon quickly became three-dimensional. The last section therefore presents a method for measuring optical innovative 3D3C.
282

Analysis and design of BI Reporting and Dashboards Survey / Analýza a návrh průzkumu trhu ohledně BI reportingu a dashboardů

Andiľová, Alexandra January 2013 (has links)
The main objective of the diploma thesis called "Analysis and design of BI Reporting and Dashboards Survey" is to analyze the main principles of Business Intelligence and Corporate Performance Management approach with a focus on performance reporting and dashboards, and to design a survey form for BI Reporting and Dashboards Survey which will focus on the current state of the reporting and dashboards in European enterprises. The final design of the market survey form is based on the identified key areas of the topic and is created by using the basic principles of statistics which help to compose successful market surveys. It represents the main input for the conduct of the quantitative market survey planned to be realized in the summer of 2014. The first part of the diploma thesis represents the theoretical baseline for the analysis of the key areas of the survey's content. This part includes introduction to the BI and CPM principles (chapter 2) followed by the identification and definition of key elements of successful BI reporting and dashboards (chapter 3). The last chapter of this part (chapter 4) summarizes the key principles of statistics leading to beneficial composition of market surveys. The second, practical part of the diploma thesis (chapter 5), presents the overall design of the BI Reporting and Dashboards Survey. This design includes scope, objectives of the survey, profile of respondents, and specification of the question form with predefined range of possible answers to each individual question. The final design of the question form is also available in Appendix 1 in MS Excel file. This diploma thesis emphasizes the importance of the effective performance reporting and the beneficial use of dashboards in organizations and outlines the key areas of those topics which business representatives should focus on. Another benefit of this thesis is the prepared question form itself which might bring interesting and valuable findings about the current state of BI reporting and dashboards implemented and used among the European countries.
283

Porovnání nástrojů pro Data Discovery / Data Discovery Tools Comparison

Kopecký, Martin January 2012 (has links)
Diploma thesis focuses on Data Discovery tools, which have been growing in im-portance in the Business Intelligence (BI) field during the last few years. Increasing number of companies of all sizes tend to include them in their BI environments. The main goal of this thesis is to compare QlikView, Tableau and PowerPivot using a defined set of criteria. The comparison is based on development of human resources report, which was modeled on a real life banking sector business case. The main goal is supported by a number of minor goals, namely: analysis of existing comparisons, definition of a new set of criteria, basic description of the compared platforms, and documentation of the case study. The text can be divided into two major parts. The theoretical part describes elemental BI architecture, discusses In-memory databases and data visualisation in context of a BI solution, and analyses existing comparisons of Data Discovery tools and BI platforms in general. Eight different comparisons are analysed in total, including reports of consulting companies and diploma theses. The applied part of the thesis builds upon the previous analysis and defines comparison criteria divided into five groups: Data import, transformation and storage; Data analysis and presentation; Operations criteria; User friendliness and support; Business criteria. The subsequent chapter describes the selected platforms, their brief history, component architecture, available editions and licensing. Case study chapter documents development of the report in each of the platforms and pinpoints their pros and cons. The final chapter applies the defined set of criteria and uses it to compare the selected Data Discovery platforms to fulfil the main goal of this thesis. The results are presented both numerically, utilising the weighted sum model, and verbally. The contribution of the thesis lies in the transparent confrontation of three Data Discovery tools, in the definition of a new set of comparison criteria, and in the documentation of the practical testing. The thesis offers an indirect answer to the question: "Which analytical tool should we use to supplement our existing BI solution?"
284

Data-intensive interactive workflows for visual analytics / Données en masse et workflows interactifs pour la visualisation analytique

Khemiri, Wael 12 December 2011 (has links)
L'expansion du World Wide Web et la multiplication des sources de données (capteurs, services Web, programmes scientifiques, outils d'analyse, etc.) ont conduit à la prolifération de données hétérogènes et complexes. La phase d'extraction de connaissance et de recherche de corrélation devient ainsi de plus en plus difficile.Typiquement, une telle analyse est effectuée en utilisant les outils logiciels qui combinent: des techniques de visualisation, permettant aux utilisateurs d'avoir une meilleure compréhension des données, et des programmes d'analyse qui effectuent des opérations d'analyses complexes et longues.La visualisation analytique (visual analytics) vise à combiner la visualisation des donnéesavec des tâches d'analyse et de fouille. Etant donnée la complexité et la volumétrie importante des données scientifiques (par exemple, les données associées à des processus biologiques ou physiques, données des réseaux sociaux, etc.), la visualisation analytique est appelée à jouer un rôle important dans la gestion des données scientifiques.La plupart des plateformes de visualisation analytique actuelles utilisent des mécanismes en mémoire centrale pour le stockage et le traitement des données, ce qui limite le volume de données traitées. En outre, l'intégration de nouveaux algorithmes dans le processus de traitement nécessite du code d'intégration ad-hoc. Enfin, les plate-formes de visualisation actuelles ne permettent pas de définir et de déployer des processus structurés, où les utilisateurs partagent les données et, éventuellement, les visualisations.Ce travail, à la confluence des domaines de la visualisation analytique interactive et des bases de données, apporte deux contributions. (i) Nous proposons une architecture générique pour déployer une plate-forme de visualisation analytique au-dessus d'un système de gestion de bases de données (SGBD). (ii) Nous montrons comment propager les changements des données dans le SGBD, au travers des processus et des visualisations qui en font partie. Notre approche permet à l'application de visualisation analytique de profiter du stockage robuste et du déploiement automatique de processus à partir d'une spécification déclarative, supportés par le SGBD.Notre approche a été implantée dans un prototype appelé EdiFlow, et validée à travers plusieurs applications. Elle pourrait aussi s'intégrer dans une plate-forme de workflow scientifique à usage intensif de données, afin d'en augmenter les fonctionnalités de visualisation. / The increasing amounts of electronic data of all forms, produced by humans (e.g. Web pages, structured content such as Wikipedia or the blogosphere etc.) and/or automatic tools (loggers, sensors, Web services, scientific programs or analysis tools etc.) leads to a situation of unprecedented potential for extracting new knowledge, finding new correlations, or simply making sense of the data.Visual analytics aims at combining interactive data visualization with data analysis tasks. Given the explosion in volume and complexity of scientific data, e.g., associated to biological or physical processes or social networks, visual analytics is called to play an important role in scientific data management.Most visual analytics platforms, however, are memory-based, and are therefore limited in the volume of data handled. Moreover, the integration of each new algorithm (e.g. for clustering) requires integrating it by hand into the platform. Finally, they lack the capability to define and deploy well-structured processes where users with different roles interact in a coordinated way sharing the same data and possibly the same visualizations.This work is at the convergence of three research areas: information visualization, database query processing and optimization, and workflow modeling. It provides two main contributions: (i) We propose a generic architecture for deploying a visual analytics platform on top of a database management system (DBMS) (ii) We show how to propagate data changes to the DBMS and visualizations, through the workflow process. Our approach has been implemented in a prototype called EdiFlow, and validated through several applications. It clearly demonstrates that visual analytics applications can benefit from robust storage and automatic process deployment provided by the DBMS while obtaining good performance and thus it provides scalability.Conversely, it could also be integrated into a data-intensive scientific workflow platform in order to increase its visualization features.
285

Aide à l'exploration des propriétés structurelles d'un réseau de transport : conception d'un modèle pour l'analyse, la visualisation et l'exploration d'un réseau de transport / Support for exploration of the structural properties of transportation network : designing a model for analysis, visualization and exploration of a transportation network

Mermet, Eric 04 March 2011 (has links)
Un réseau de transport est un objet géographique complexe possédant plusieurs dimensions : géométrique, topologique, métrique et relationnelle. À partir de ces dimensions, il est possible d'effectuer une analyse se situant entre l'analyse descriptive des composantes issues des bases de données et l'analyse fonctionnelle reposant sur des paramètres anthropiques. Cette analyse dite structurelle permet de mettre en évidence certaines propriétés du réseau sans contexte d'usage. Elle est basée sur la construction et l'analyse d'indicateurs basés sur les relations proposées par le réseau : les indicateurs relationnels. Ils mettent en évidence ses potentialités relationnelles ; c'est à dire en quoi celui-ci par sa structure etl'organisation spatiale et topologique de ses composantes prédispose à la mise en relation plus ou moins aisée de lieux de l'espace. Notre travail consiste en la conception d'un modèle pour l'analyse et l'exploration des propriétés structurelles d'un réseau de transport. Ce type d'analyse engendre une complexité combinatoire liée au nombre de relations sur le réseau, une complexité algorithmique liée aux calculs des indicateurs et une complexité visuelle liée à la difficulté de mettre en valeur des informations. Le modèle proposé vise à faciliter à l'utilisateur l'analyse exploratoire des propriétés structurelles du réseau par la création de cartes exploratoires. Notre modèle comprend deux parties. La première permet de réaliser des cartes statiques d'exploration. La seconde permet la combinaison visuelle de cartes en s'appuyant sur un langage graphique. Les deux aspects du modèle ont été développés dans un prototype logiciel baptisé GeoGraphLab / A transportation network is a complex spatial system characterized by four dimension types : geometric, topological, metric and relational. Thanks to these dimensions, it is possible to perform analysis situated in between the descriptive analysis of components from databases and functional analysis based on anthropogenic parameters. This analysis called structural helps to emphasize some properties of the network without usage context. It is established on the construction and analysis of indicators based on the relationship generated by the network: the relational indicators. They highlight their relational possibilities ; ie how their structure and spatial organization and topology of their components predispose to connect places in space in more or less easy way. Our work consists of designing a model for analysis and exploration of the structural properties of a transportation network. This type of analysis leads to a combinatorial complexity related to the number of relationships within the network, algorithmic complexity related to the calculation of indicators and visual complexity related to the difficulty to emphasize information. The proposed model aims to supply the user with the exploratory analysis of structural properties of the network by creating exploratory maps. Our model is composed of two parts. The first one allows to prepare static maps of exploration. The second one enables the visual combination of maps based on a graphic language. Both aspects of the model were developed in a prototype software called GeoGraphLab
286

"Die Freude an der Gestalt" : méthodes, figures et pratiques de la géométrie au début du dix-neuvième siècle / "Die Freude an der Gestalt" : methods, figures and practices in early nineteenth century geometry

Lorenat, Jemma 10 April 2015 (has links)
L'histoire standard de la géométrie projective souligne l'opposition au 19e siècle entre méthodes analytiques et synthétiques. Nous nous interrogeons sur la manière dont les géomètres du 19e siècle ont vraiment opéré ou non des distinctions entre leurs méthodes et dans quelle mesure cette géométrie était "moderne'' comme le clamaient ses praticiens, et plus tard leurs historiens. Poncelet insistait sur le rôle central de la figure, qui selon lui pourrait être obscurci par les calculs de l'algèbre. Nous étudions son argument en action dans des problèmes de construction résolus par plusieurs auteurs différents -comme la construction d'une courbe du second ordre ayant un contact d'ordre trois avec une courbe plane donnée, dont cinq solutions paraissent entre 1817 et 1826. Nous montrons que l'attention visuelle est au coeur de la résolution, indépendamment de la méthode suivie, qu'elle n'est pas réservée aux figures, et que les débats sont aussi un moyen de signaler de nouvelles zones de recherche à un public en formation. Nous approfondissons ensuite la réception des techniques nouvelles et l'usage des figures dans les travaux de deux mathématiciens décrits d'ordinaire comme opposés, l'un algébriste, Plücker, et l'autre défendant l'approche synthétique, Steiner. Nous examinons enfin les affirmations de modernité dans les manuels français de géométrie publiés pendant le premier tiers du dix-neuvième siècle. Tant Gergonne et Plücker que Steiner ont développé des formes de géométrie qui ne se pliaient pas en fait à une caractérisation dichotomique, mais répondaient de manière spécifique aux pratiques mathématiques et aux modes d'interaction de leur temps. / The standard history of nineteenth century geometry began with Jean Victor Poncelet's contributions which then spread to Germany alongside an opposition between Julius Plücker, an analytic geometer, and Jakob Steiner, a synthetic geometer. Our questions centre on how geometers distinguished methods, when opposition arose, in what ways geometry disseminated from Poncelet to Plücker and Steiner, and whether this geometry was "modern'' as claimed.We first examine Poncelet's argument that within pure geometry the figure was never lost from view, while it could be obscured by the calculations of algebra. Our case study reveals visual attention within constructive problem solving, regardless of method. Further, geometers manipulated and represented figures through textual descriptions and coordinate equations. We also consider the debates involved as a medium for communicating geometry in which Poncelet and Gergonne in particular developed strategies for introducing new geometry to a conservative audience. We then turn to Plücker and Steiner. Through comparing their common research, we find that Plücker practiced a "pure analytic geometry'' that avoided calculation, while Steiner admired "synthetic geometry'' because of its organic unity. These qualities contradict usual descriptions of analytic geometry as computational or synthetic geometry as ad-hoc.Finally, we study contemporary French books on geometry and show that their methodological divide was grounded in student prerequisites, where "modern'' implied the use of algebra. By contrast, research publications exhibited evolving forms of geometry that evaded dichotomous categorization.The standard history of nineteenth century geometry began with Jean Victor Poncelet's contributions which then spread to Germany alongside an opposition between Julius Plücker, an analytic geometer, and Jakob Steiner, a synthetic geometer. Our questions centre on how geometers distinguished methods, when opposition arose, in what ways geometry disseminated from Poncelet to Plücker and Steiner, and whether this geometry was "modern'' as claimed.We first examine Poncelet's argument that within pure geometry the figure was never lost from view, while it could be obscured by the calculations of algebra. Our case study reveals visual attention within constructive problem solving, regardless of method. Further, geometers manipulated and represented figures through textual descriptions and coordinate equations. We also consider the debates involved as a medium for communicating geometry in which Poncelet and Gergonne in particular developed strategies for introducing new geometry to a conservative audience. We then turn to Plücker and Steiner. Through comparing their common research, we find that Plücker practiced a "pure analytic geometry'' that avoided calculation, while Steiner admired "synthetic geometry'' because of its organic unity. These qualities contradict usual descriptions of analytic geometry as computational or synthetic geometry as ad-hoc.Finally, we study contemporary French books on geometry and show that their methodological divide was grounded in student prerequisites, where "modern'' implied the use of algebra. By contrast, research publications exhibited evolving forms of geometry that evaded dichotomous categorization.
287

Digital Maritime Sights : Digital visual documentation and communication in Scandinavian contract maritime archaeology

Enqvist, Delia Ni Chiobhain January 2018 (has links)
This licentiate thesis investigates the use of digital visualisations for knowledge production and communication of maritime heritage located underwater. The archaeological practice that takes place in response to development, contract archaeology, is the field that is being investigated. Much of the practical and administrative aspects of contract maritime work involves the survey, excavation and interpretation of archaeological remains. In addition, shifts in heritage policy emphasise that the results of this work move beyond their own value to provide access and democratic participation to heritage and be of benefit to society (e.g. Faro Convention, 2005). Since the inaccessibility of maritime archaeology underwater makes outreach especially challenging, digital, and in particular 3D, technologies have been recognised as having great potential to meet the needs of both maritime archaeological researchers and public audiences. Advances in methodologies for digitally documenting and visualising archaeological sites, both on land and underwater, are providing a range of innovative and multidisciplinary solutions for both archaeological analysis and outreach activities. The aim of this research is to understand current uses of digital visualisation for knowledge production and communication of maritime archaeology located underwater, in order to identify knowledge gaps that would benefit from future research. This aim is met through a study drawn primarily from the fields of digital archaeology, maritime archaeology and heritage studies, as well as discourse and thematic analysis of the factors that influence the use of these technologies in the sector. The case study is the contract maritime archaeology sector in Scandinavia, with a primary focus on the practice in Sweden and also including perspectives from the Danish and Norwegian sectors. The results show that an emphasis on efficiency within the contract sector shapes the understanding and use of digital technologies, in some instances limiting their potential for archaeological interpretation and communication. While the maritime sector was found to be partly defined and restricted by a distinct identity, at times operating independently from mainstream archaeology, it was also found to be open to innovation. This represents great potential for digital workflows aimed at enhancing both interpretation and communication to be applied to the maritime archaeological sector in the future.
288

Restructuration interactive des programmes / Interactive Program Restructuring

Zinenko, Oleksandr 25 November 2016 (has links)
Le développement des logiciels et leur restructuration deviennent de plus en plus complexes à cause de l'adoption massive des architectures parallèles, ce qui nécessite une expertise considérable de la part des développeurs. Bien que des nombreux modèles et langages de programmation permettent de créer des programmes efficaces, ils n'offrent pas de support spécifique à la restructuration des programmes existants afin d'en augmenter l'efficacité. En même temps, les approches automatiques sont trop conservatives et insuffisamment précises pour atteindre une partie substantielle de la performance du système sans que le développeur aie à fournir des informations sémantiques supplémentaires. Pour répondre à ces défis, nous adoptons l'approche de la restructuration interactive des programmes qui lie la manipulation semi-automatique des programmes avec la visualisation des logiciels. Dans cette thèse, l'approche de restructuration interactive est illustrée par l'extension du modèle polyédrique - une représentation des programmes moderne et puissante - pour permettre la manipulation de haut niveau ainsi que par la conception et l'évaluation d'une interface visuelle à manipulation directe pour la restructuration des programmes. Cette interface visualise l'information qui n'était pas immédiatement accessible dans la représentation textuelle et permet de manipuler des programmes sans en réécrire le code. Nous proposons également une représentation de l'optimisation de programme, calculée automatiquement, telle que le développeur puisse la comprendre et réutiliser facilement ainsi que la modifier d'une manière textuelle ou visuelle dans le cadre du partenariat homme-machine. Afin de représenter plusieurs aspects de la restructuration des programmes, nous concevons et évaluons une nouvelle interaction qui permet de communiquer l'information supplémentaire et non-cruciale pour la tâche à accomplir. Après une étude empirique de la distribution d'attention des développeurs face aux représentations textuelles et visuelles des programmes, nous discutons des implications pour la conception des outils d'aide à la programmation dans le cadre du modèle d'interaction instrumentale. La restructuration interactive des programmes est supposée faciliter la manipulation des programmes dans le but d'optimisation, la rendre plus efficace et plus largement adopté. / Software development and program manipulation become increasingly complex with the massive adoption of parallel architectures, requiring significant expertise from developers. While numerous programming models and languages allow for creating efficient programs, they fall short at helping developers to restructure existing programs for more effective execution. At the same time, automatic approaches are overly conservative and imprecise to achieve a decent portion of the systems' performance without supplementary semantic information from the developer. To answer these challenges, we propose the interactive program restructuring approach, a bridge between semi-automatic program manipulation and software visualization. It is illustrated in this thesis by, first, extending a state-of-the-art polyhedral model for program representation so that it supports high-level program manipulation and, second, by designing and evaluating a direct manipulation visual interface for program restructuring. This interface provides information about the program that was not immediately accessible in the code and allows to manipulate programs without rewriting. We also propose a representation of an automatically computed program optimization in an understandable form, easily modifiable and reusable by the developer both visually and textually in a sort of human-machine partnership. To support different aspects of program restructuring, we design and evaluate a new interaction to communicate supplementary information, not critical for the task at hand. After an empirical study of developers' attention distribution when faced with visual and textual program representation, we discuss the implications for design of program manipulation tools in the instrumental interaction paradigm. We expect interactive program restructuring to make program manipulation for optimization more efficient and widely adopted.
289

Encodage visuel composite pour les séries temporelles / Composite visual mapping for time series visualization

Jabbari, Ali 04 July 2018 (has links)
Les séries temporelles sont l'un des types de données les plus courants dans divers domaines scientifiques, industriels et financiers. Selon le contexte, l'analyse des séries temporelles est effectuée à diverses fins: prévision, estimation, classification et détection des tendances et des événements. Grâce aux capacités exceptionnelles de la perception visuelle humaine, la visualisation reste l'un des outils les plus puissants pour l'analyse de données, en particulier pour les données temporelles. Avec la croissance de volume et de la complexité des jeux de données, de nouvelles techniques de visualisation sont clairement nécessaires pour améliorer l'analyse des données. Elles visent à faciliter l'analyse visuelle dans le cas où des situations ou des tâches sont bien spécifiées, ou à favoriser l'analyse exploratoire non guidée.La visualisation est basée sur le "mapping visuel", un processus qui consiste à associer les valeurs de données aux canaux visuels comme la position, la taille et la couleur des éléments graphiques. A cet égard, la forme la plus connue de visualisation des séries temporelles, c'est-à-dire les graphiques linéaires ("line charts" en anglais), consiste en une mise en correspondance des valeurs de données avec la position verticale de la ligne. Cependant, un seul mapping visuel ne convient pas à toutes les situations et objectifs analytiques.Notre but est d'introduire des alternatives au mapping visuel conventionnel et de trouver des situations dans lesquelles, la nouvelle approche compense la simplicité et la familiarité des techniques existantes. Nous présentons une revue de l'état de l'art sur la visualisation des séries chronologiques, puis nous nous concentrons sur les approches existantes du mapping visuel.Ensuite, nous présentons nos contributions. Notre première contribution est une étude systématique d'un «mapping visuelle composite» qui consiste à utiliser des combinaisons de canaux visuels pour communiquer différentes facettes d'une série temporelle. Au moyen de plusieurs expériences avec des utilisateurs, nous comparons les nouveaux mappings visuels à une technique de référence existante et nous mesurons la vitesse et la précision des utilisateurs dans différentes tâches analytiques. Nos résultats montrent que les nouvelles conceptions visuelles conduisent à des performances analytiques proches de celles des techniques existantes sans être inutilement complexes ou nécessiter un entraînement. De plus, certains mappings proposés surpassent les techniques existantes dans les situations de contraintes spatiales. L'efficacité spatiale est d'une grande importance pour la visualisation simultanée de grands volumes de données ou de visualisation sur de petits écrans. Les deux scénarios font partie des défis actuels de la visualisation de l'information. / Time series are one of the most common types of recorded data in various scientific, industrial, and financial domains. Depending on the context, time series analysis are used for a variety of purposes: forecasting, estimation, classification, and trend and event detection. Thanks to the outstanding capabilities of human visual perception, visualization remains one of the most powerful tools for data analysis, particularly for time series. With the increase in data sets' volume and complexity, new visualization techniques are clearly needed to improve data analysis. They aim to facilitate visual analysis in specified situations, tasks, or for unguided exploratory analysis.Visualization is based upon visual mapping, which consists in association of data values to visual channels, e.g. position, size, and color of the graphical elements. In this regard, the most familiar form of time series visualization, i.e. line charts, consists in a mapping of data values to the vertical position of the line. However, a single visual mapping is not suitable for all situations and analytical objectives.Our goal is to introduce alternatives to the conventional visual mapping and find situations in which, the new approach compensate for the simplicity and familiarity of the existing techniques. We present a review of the existing literature on time series visualization and then, we focus on the existing approaches to visual mapping.Next, we present our contributions. Our first contribution is a systematic study of a "composite" visual mapping which consists in using combinations of visual channels to communicate different facets of a time series. By means of several user studies, we compare our new visual mappings with an existing reference technique and we measure users' speed and accuracy in different analytical tasks. Our results show that the new visual designs lead to analytical performances close to those of the existing techniques without being unnecessarily complex or requiring training. Also, some of the proposed mappings outperform the existing techniques in space constraint situations. Space efficiency is of great importance to simultaneous visualization of large volumes of data or visualization on small screens. Both scenarios are among the current challenges in information visualization.
290

New methods of multiscale chemical space analysis : visualization of structure-activity relationships and structural pattern extraction / Nouvelles méthodes d'analyse multi-échelle de l'espace chimique : visualisation de relations structure-activité et l'extraction des motifs structuraux

Kayastha, Shilva 19 September 2017 (has links)
Cette thèse est dédiée à l’analyse systématique de l’espace chimique, et des relations structure-activité (SAR) en particulier. L’ouvrage présente des nouveaux protocoles d’analyse combinant des méthodes classiques et originales, dans le but d’analyser les SAR à l’échelle globale ainsi que locale. L’analyse globale des espaces chimiques repose sur la recherche des motifs structuraux privilégiés par cartographie topographique générative (GTM), ainsi que par analyse classique des « châssis » moléculaires. La cartographie a été ensuite couplée avec l’analyse de réseaux chimiques (CSN), permettant une transition de la vue globale vers l’analyse locale de SAR. L’optimisation mutiobjectif des propriétés de potentiels médicaments a été adressé par la méthode « star coordinates ». L’analyse locale des SAR inclut des nouvelles stratégies pour prédire les discontinuités dans le paysage structure-activité biologique, et une étude de l’impact de la structure sur l’ionisation des molécules. Des matrices SAR ont servi pour monitorer le progrès dans l’optimisation de nouveaux principes actifs. / This thesis presents studies devoted to aid in systematic analysis of chemical spaces, focusing on mining and visualization of structure-activity relationships (SARs). It reports some new analysis protocols, combining both existing and on-purpose developed novel methodology to address both large-scale and local SAR analysis. Large-scale analysis featured both generative topographic mapping (GTM)-based extraction of privileged structural motifs and scaffold analysis. GTM was combined with chemical space network (CSN) to develop a visualization tool providing global-local views of SAR in large data sets. We also introduce star coordinates (STC) to visualize multi-property space and prioritize drug-like subspaces. Local SAR monitoring includes new strategies to predict activity cliffs using support vector machine models and a study of structural modifications on ionization state of compounds. The SAR matrix methodology was applied to objectively evaluate SAR progression during lead optimization.

Page generated in 0.1002 seconds