• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • 6
  • 2
  • 2
  • Tagged with
  • 20
  • 20
  • 9
  • 9
  • 7
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Etude des capacités en vision périphérique chez le sujet sain et contribution de la pathologie (maculopathies) / The capabilities of peripheral vision in healthy subjects and in pathologies inducing central vision loss

Thibaut, Miguel 22 September 2015 (has links)
Contrairement à la vision fovéale qui assure une perception détaillée de notre environnement visuelle, la périphérie ne permet qu’une vision globale. C’est pourquoi, nous bougeons nos yeux en permanence afin que l’image visuelle soit localisée sur la fovéa, où la résolution spatiale est la meilleure. Cependant, certaines pathologies sont à l’origine d’une perte de la vision centrale et provoquent de nombreuses difficultés dans la vie quotidienne notamment pour lire, conduire, identifier un visage, un objet ou encore naviguer dans l’espace. Contrairement à la lecture, peu d’études ont été réalisées sur la perception des objets et de l’espace dans ces maculopathies où ne persiste que la vision périphérique. Nous nous sommes intéressés à l’étude des capacités de la vision périphérique dans la perception des scènes et des objets.Dans un premier temps, nous avons étudié les capacités de la vision périphérique chez le sujet sain. Nous avons montré qu’en dépit de sa faible résolution spatiale, il était possible de reconnaître des objets et des scènes même à grande excentricité.Dans un second temps, nous nous sommes focalisés sur les effets de la perte de la vision centrale sur la reconnaissance des objets et des scènes. Nous montrons que l’absence de vision centrale induit une plus faible stabilité de fixation associée à un déficit marqué sur l’identification des objets et des scènes, ainsi que sur la recherche visuelle, notamment en condition d’encombrement.Ces études contribuent à comprendre la contribution de la vision centrale et de la vision périphérique sur la reconnaissance des objets et des scènes mais aussi sur le rôle de l’information contextuelle et comment les patients ayant perdu la vision centrale perçoivent le monde réel. / Unlike foveal vision that allows a detailed perception of our visual environment, the periphery only allows a coarse vision. This is why we have to move our eyes all the time in order to localize the image on the fovea, where spatial resolution is better. However, some diseases induce a loss of central vision and cause many difficulties in everyday life especially in reading, driving, face recognition and spatial cognition in general. Unlike word and face perception scene and object perception have had litte investigations in maculopathies in which people have to rely on peripheral vision. This thesis is based on the study of the capabilities of peripheral vision in scenes and objects perception.In the first part we studied scne perception at very large eccentricities in normally sighted young people. We show that, in spite of its low resolution, peripheral vision is efficient to recognize objects and scenes even at very large eccentricities (above 50°).In the second part, we investigated on effects of central vision loss on object and scene perception in identification and visual search tasks on small or realistic panoramic displays. We report a series of experiments showing that central vision loss induced a lower fixation stability which had a strong impact on object and scene and on visual search, especially in crowded conditions.These studies contribute to the understanding of the contribution of central and peripheral vision on object and scene gist recognition but also on the role of contextual information and how patients with central vision loss perceive real-world scenes.
12

Méthodologie de traitement conjoint des signaux EEG et oculométriques : applications aux tâches d'exploration visuelle libre / Methodology for EEG signal and eye tracking joint processing : applications on free visual exploration tasks

Kristensen, Emmanuelle 12 June 2017 (has links)
Nos travaux se sont articulés autour du problème de recouvrement temporel rencontré lors de l'estimation des potentiels évoqués. Il constitue, plus particulièrement, une limitation majeure pour l'estimation des potentiels évoqués par les fixations ou saccades oculaires lors d'une expérience en enregistrement conjoint EEG et oculométrie. En effet, la méthode habituellement utilisée pour estimer ces potentiels évoqués, la méthode par simple moyennage du signal synchronisé sur l'évènement d'intérêt, suppose qu'il y a un seul potentiel évoqué par essai. Or selon les intervalles inter-stimuli, cette hypothèse n'est pas toujours vérifiée. Ceci est d'autant plus vrai dans le contexte des potentiels évoqués par fixations ou saccades oculaires, les intervalles entre ceux-ci n'étant pas contrôlés par l'expérimentateur et pouvant être plus courts que les latences des potentiels d'intérêt. Le fait que cette hypothèse ne soit pas vérifiée donne une estimation biaisée du potentiel évoqué du fait des recouvrements entre les potentiels évoqués.Nous avons donc utilisé le Modèle Linéaire Général (GLM), méthode de régression linéaire bien connue, pour estimer les potentiels évoqués par les mouvements oculaires afin de répondre à ce problème de recouvrement. Tout d'abord, nous avons introduit, dans ce modèle, un terme de régularisation au sens de Tikhonov dans l'optique d'améliorer le rapport signal sur bruit de l'estimation pour un faible nombre d'essais. Nous avons ensuite comparé le GLM à l'algorithme ADJAR dans un contexte d'enregistrement conjoint EEG et oculométrie lors d'une tâche d'exploration visuelle de scènes naturelles. L'algorithme ADJAR ("ADJAcent Response") est un algorithme classique d'estimation itérative des recouvrements temporels développé en 1993 par M. Woldorff. Les résultats ont montré que le GLM était un modèle plus flexible et robuste que l'algorithme ADJAR pour l'estimation des potentiels évoqués par les fixations oculaires. Puis, deux configurations du GLM ont été comparées pour l'estimation du potentiel évoqué à l'apparition du stimulus et du potentiel évoqué par les fixations au début de l'exploration. Toutes deux prenaient en compte les recouvrements entre potentiels évoqués mais l'une distinguait également le potentiel évoqué par la première fixation de l'exploration du potentiel évoqué par les fixations suivantes. Il est apparu que le choix de la configuration du GLM était un compromis entre la qualité de l'estimation des potentiels et les hypothèses émises sur les processus cognitifs sous-jacents.Enfin, nous avons conduit de bout en bout une expérience d'envergure en enregistrement conjoint EEG et oculométrie portant sur l'exploration des expressions faciales émotionnelles naturelles statiques et dynamiques. Nous avons présenté les premiers résultats pour la modalité statique. Après avoir discuté de la méthode d'estimation des potentiels évoqués selon l'impact des mouvements oculaires sur leur fenêtre de latence, nous avons étudié l'effet du type d'émotion. Nous avons trouvé des modulations du potentiel différentiel EPN (Early Posterior Negativity), entre 230 et 350 ms après l'apparition du stimulus et du potentiel LPP (Late Positivity Potential), entre 400 et 600 ms après l'apparition du stimulus. Nous avons également observé des variations du potentiel évoqué par les fixations oculaires. Pour le potentiel LPP, qui est un marqueur de la reconnaissance consciente de l'émotion, nous avons montré qu'il était important de dissocier l'information qui est immédiatement encodée à l'apparition du stimulus émotionnel, de celle qui est apportée à l'issue de la première fixation. Cela met en évidence un motif d'activation différencié pour les stimuli émotionnels à valence négative ou à valence positive. Cette différenciation est en accord avec l'hypothèse d'un traitement plus rapide des stimuli émotionnels à valence négative que des stimuli émotionnels à valence positive. / Our research focuses on the issue of overlapping for evoked potential estimation. More specifically, this issue is a significant limitation for Eye-Fixation Related Potentials and Eye-Saccade Related Potentials estimations during a joint EEG and eye-tracking recording. Indeed, the usual estimation, by averaging the signal time-locked to the event of interest, is based on the assumption that a single evoked potential occurs during a trial. However, depending on the inter-stimulus intervals, this assumption is not always verified. This is especially the case in the context of Eye-Fixation Related Potentials and Eye-Saccade Related Potentials, given the fact that the intervals between fixations (or saccades) are not controlled by the experimenter and can be shorter than the latencies of the potentials of interest.The fact that this assumption is not verified gives a distorted estimate of the evoked potential due to overlaps between the evoked potentials.We have therefore used the Linear Model (GLM), a well-known linear regression method, to estimate the potentials evoked by ocular movements in order to take into account overlaps. First, we decided to introduce a term of Tikhonov regularization into this model in order to improve the signal-to-noise ratio of the estimate for a small number of trials. Then, we compared the GLM to the ADJAR algorithm in a context of joint EEG and eye-tracking recording during a task of visual exploration of natural scenes. The ADJAR ("ADJAcent Response") algorithm is an algorithm for iterative estimation of temporal overlaps developed in 1993 by M. Woldorff. The results showed that the GLM model was more flexible and robust than the ADJAR algorithm in estimating Eye-Fixation Related Potentials. Further, two GLM configurations were compared in their estimation of evoked potential at the onset of the stimulus and the eye-fixation related potential at the beginning of the testing. Both configurations took into account the overlaps between evoked potentials, but one additionally distinguished the potential evoked by the first fixation of the exploration from the potential evoked by the following fixations. It became clear that the choice of the GLM configuration was a compromise between the estimation quality of the potentials and the assumptions about the underlying cognitive processes.Finally, we conducted an extensive joint EEG and eye-tracking experiment on the exploration of static and dynamic natural emotional facial expressions. We presented the first results for the static modality. After discussing the estimation method of the evoked potentials according to the impact of the ocular movements on their latency window, we studied the influence of the type of emotion. We found modulations of the differential EPN (Early Posterior Negativity) potential, between 230 and 350 ms after the stimulus onset and the Late Positivity Potential (LPP) , between 400 and 600 ms after the stimulus onset. We also observed variations for the Eye-Fixation Related Potentials. Regarding the LPP component, a marker of conscious recognition of emotion, we have shown that it is important to dissociate information that is immediately encoded at the onset of the emotional stimulus from information encoded at the first fixations. This shows a differentiated pattern of activation according to the emotional stimulus valence. This differentiation is in agreement with the hypothesis of a faster treatment of negative emotional stimuli than of positive emotional stimuli.
13

Etude longitudinale des compétences sociales chez les enfants avec TSA d'âge préscolaire : articulation entre approches expérimentale et écologique / A longitudinal study of social skills in preschool children with Autism Spectrum Disorder (ASD) : Comparison between experimental and ecological approches

Garry, Cécile 06 December 2018 (has links)
L’objectif de ce travail est d’évaluer le développement des compétences sociales chez les enfants avec TSA d’âge préscolaire. 19 enfants (âge moyen au début de l’étude = 52,44 mois ; écart-type = 10,07) scolarisés en Unités d’Enseignement en Maternelle ont été suivis pendant 10 mois. En référence au modèle de Yeates et collaborateurs (2007), les compétences sociales sont appréhendées selon 2 composantes parmi 3, le traitement de l’information sociale et les comportements d’interaction sociale. Le traitement de l’information sociale est évalué au moyen de l’exploration visuelle de scènes sociales dans un paradigme d’eye-tracking. Les comportements d’interaction sociale sont observés en situation écologique, en milieu scolaire. De façon attendue, les principaux résultats montrent que la sévérité des troubles et le niveau socio-communicatif au début de l’étude des enfants influencent le développement de leurs compétences sociales dans ces deux composantes. Toutefois, ceci est à moduler en fonction du contexte. Les patterns d’exploration des scènes sociales sont relativement stables au cours de l’année scolaire. En revanche, des progrès sont notables au niveau des comportements sociaux en classe. De plus, des liens peuvent être faits entre le développement du traitement de l’information sociale et des comportements d’interaction sociale en classe. L’analyse des profils individuels démontre une variété de trajectoires individuelles de développement des compétences sociales pouvant être mise en lien avec les profils cliniques des enfants. / The purpose of this work is to assess the development of social skills in preschool childrenwith ASD. 19 children (mean age at baseline = 52.44 months, SD = 10.07) enrolled in Kindergarten special schools were followed for 10 months. Based on the model of Yeates et al. (2007), social skills are apprehended according to two of three components, the social information processing and the social interaction behaviors. The social information processing is evaluated by the visual exploration of social scenes in an eye-tracking paradigm. The social interaction behaviors are observed in ecological situation at school. Expectedly, the main results show that the severity of the disorders and the socio-communicative level at the beginning of the study influence the development of children’s social skills in these two components. However, this need to be modulated according to the context. Patterns of social scenes exploration are relatively stable during the school year. On the other hand, a progress is notable in terms of social behavior in the classroom. In addition, links can be made between the development of social information processing and social interaction behaviors in the classroom. The analysis of individual profiles demonstrates a variety of individual social skills development trajectories that can be linked to the clinical profiles of children.
14

Visuelle Exploration multidimensionaler Informationsräume: Ein Interface-Baukasten für die Produktsuche

Keck, Mandy 05 July 2019 (has links)
Suchmaschinen bieten Zugang zu großen Datenmengen und viele Möglichkeiten, die Nutzeranfragen zu interpretieren und mit Korrekturen oder Empfehlungen zu unterstützen. Neben diesen technologischen Vorteilen, hat sich am Suchparadigma selbst in den letzten Jahren nicht viel geändert. Die meisten Suchinterfaces bestehen auch heute noch aus den typischen Eingabemasken und linearen Ergebnislisten. Jedoch ist es besonders für Nutzer mit wenig Erfahrung in der aktuellen Suchdomäne oder mit einem sehr unscharfen Informationsbedürfnis schwierig, ihre vagen Vorstellungen in eine spezifische Suchanfrage zu transformieren. Die herkömmlichen eindimensionalen Ergebnislisten bieten oft nur eine einfache Sortierfunktion. Verschiedene Techniken der Informationsvisualisierung bieten jedoch weitaus mehr Möglichkeiten, um multidimensionale Datensätze zu visualisieren und vergleichbar zu machen. Ziel der Arbeit ist es, den Suchprozess am Beispiel der Produktsuche aus der Nutzerperspektive zu analysieren und Anforderungen zu formulieren, welche verschiedene Strategien und Phasen der Suche unterstützen. Die Anwendungsfälle stützen sich dabei vor allem auf komplexere Suchaufgaben mit einem vagen Informationsbedürfnis wie der Planung eines Urlaubs oder dem Finden einer passenden Finanzierungsmöglichkeit. Weiterhin werden verschiedene Techniken der Informationsvisualisierung untersucht, um sowohl die visuelle Exploration und Analyse der multidimensionalen Datenmengen als auch eine schnelle Interpretation und den Vergleich der gefundenen Suchergebnisse zu ermöglichen. Die Betrachtung verschiedener verwandter Arbeiten aus dem kommerziellen und akademischen Bereich führen zu fünf verschiedenen Suchmusterkategorien, die in explorativen Suchszenarien miteinander kombiniert werden können, um den Suchraum einzugrenzen oder aufzufächern. Unter Berücksichtigung der Suchmusterkategorien der schlagwortbasierten Suche, der Ähnlichkeitssuche, der Facettennavigation, der empfehlungsbasierten Suche und des Browsing in strukturierten Inhalten werden verschiedene Lösungsansätze entwickelt, welche die Exploration unterschiedlicher Produktdatenmengen ermöglichen. Basierend auf diesen Fallbeispielen wird ein Baukasten für visuelle Suchinterfaces vorgeschlagen, der vorwärtsgerichtet oder rückwärtsgerichtet im Sinne des Reverse-Engineering angewandt werden kann. Die Bausteine geben einen Gestaltungsraum vor, der den Designer vor allem in der Konzeptionsphase unterstützt. Durch die Kombination verschiedener Bausteine werden der Entwurf neuer Interfacekonzepte und deren Variation ermöglicht. Weiterhin können erprobte Lösungen in Entwurfsmuster überführt werden, welche die Wiederverwendung in ähnlichen Problemkontexten erlauben. Durch das Reverse-Engineering können bekannte Interfaces in einzelne Bestandteile zerlegt und innere Strukturen sowie Zusammenhänge analysiert werden.:1 Einleitung 1.1 Motivation 1.2 Problemdarstellung und Zielsetzung 1.3 Aufbau der Arbeit 2 Interdisziplinäre Grundlagenbetrachtung 2.1 Informationssuche 2.1.1 Informationsbedürfnis 2.1.2 Modelle der Informationssuche 2.1.3 Suchstrategien 2.2 Informationsvisualisierung 2.2.1 Visualisierungsprozess 2.2.2 Datenstrukturen 2.2.3 Visuelle Strukturen 2.2.4 Visualisierungstechniken 2.2.5 Interaktionstechniken 2.3 Entwurfsproblematik in der Mensch-Computer-Interaktion 2.3.1 Entwurfsprozess 2.3.2 Entwurfsmuster und -prinzipien 2.3.3 Baukastensysteme 2.3.4 Semiotik 2.4 Zusammenfassung 3 Suchmuster im Kontext der Produktsuche 3.1 Schlüsselwortsuche 3.1.1 Kommerzielle Anwendungen 3.1.2 Akademische Arbeiten 3.2 Ähnlichkeitssuche 3.2.1 Kommerzielle Anwendungen 3.2.2 Akademische Arbeiten 3.3 Facettennavigation 3.3.1 Kommerzielle Anwendungen 3.3.2 Akademische Arbeiten 3.4 Empfehlungsbasierte Suche 3.4.1 Kommerzielle Anwendungen 3.4.2 Akademische Arbeiten 3.5 Browsing in strukturierten Inhalten 3.5.1 Kommerzielle Anwendungen 3.5.2 Akademische Arbeiten 3.6 Zusammenfassung 4 Motivbasierte Suche 4.1 Nutzerbefragung 4.2 Aspekte der motivbasierten Suche 4.2.1 Exploration 4.2.2 Recherche 4.2.3 Evaluation 4.3 Zusammenfassung 5 Schlagwortbasierte Suche 5.1 Datengrundlage 5.1.1 Klassifikationsschema 5.1.2 Datenanalyse 5.2 DelViz 5.2.1 Konzept für die Explorative Suche 5.2.2 Analysekonzept 5.2.3 Browsing-Konzept 5.2.4 Prototyp 5.3 TagCircus 5.4 Facettice 5.5 Zusammenfassung 6 Ähnlichkeitssuche 6.1 Glyphdarstellungen 6.1.1 Many-to-One-Mapping 6.1.2 One-to-One-Mapping 6.2 Nutzerstudien 6.2.1 Evaluation von Differenzglyphen 6.2.2 Evaluation von Star-Plots und Flower-Glyphen 6.3 Ähnlichkeitssuche mittels Glyphen 6.3.1 Beispielbasierte Suche 6.3.2 Exploration multidimensionaler Datenmengen 6.4 Zusammenfassung 7 Facettennavigation 7.1 Datengrundlage 7.2 Basiskonzept 7.2.1 Interaktion mit den Achsen 7.2.2 Facettenfilter 7.2.3 Ergebnisliste 7.2.4 Suchhistorie 7.3 Parallele Koordinaten 7.3.1 Vergleich 7.3.2 Unscharfer Filter 7.4 Parallel Sets 7.5 Prototyp 7.6 Nutzerstudie 7.6.1 Methodik 7.6.2 Ergebnisse 7.6.3 Diskussion 7.7 Adaption des Konzepts 7.8 Zusammenfassung 8 Empfehlungsbasierte Suche 8.1 Get Inspired 8.1.1 Datengrundlage 8.1.2 Konzeption 8.1.3 Prototyp 8.1.4 Nutzerstudie 8.2 Motbasi 8.2.1 Prototyp 8.2.2 Nutzertest 8.3 Movie-Recommender 8.4 Findr 8.5 Zusammenfassung 9 Baukasten für visuelle Suchinterfaces 9.1 Bausteine 9.2 Baumuster 9.3 Baumusterpläne 9.3.1 Verbindungselemente 9.3.2 Referenzbausteine 9.4 Semiotische Aspekte des Baukastens 9.5 Anwendungsszenarien 9.5.1 Mustererstellung zur Wiederverwendbarkeit 9.5.2 Variantenerzeugung 9.5.3 Inspiration im Entwurfsprozess 9.5.4 Design- und Lehrmethodik 9.6 Zusammenfassung 10 Zusammenfassung 10.1 Zusammenfassung der Kapitel 10.2 Diskussion 10.3 Ausblick Anhang Glossar Abkürzungsverzeichnis Literatur Eigene Veröffentlichungen Betreute studentische Arbeiten Forschungsprojekte Abbildungsverzeichnis Tabellenverzeichnis Verzeichnis der Code-Beispiele
15

Prototype of a Virtual Experiment Information System for the Mont Terri Underground Research Laboratory

Gräbling, Nico, Sen, Özgur Ozan, Bilke, Lars, Cajuhi, Tuanny, Naumov, Dmitri, Wang, Wenqing, Ziefle, Gesa, Jaeggi, David, Maßmann, Jobst, Scheuermann, Gerik, Kolditz, Olaf, Rink, Karsten 03 November 2023 (has links)
Underground Research Laboratories (URLs) allow geoscientific in-situ experiments at large scale. At the Mont Terri URL in Switzerland, international research groups conduct numerous experiments in parallel. The measured and simulated data as well as research results obtained from them are highly relevant as they improve the general understanding of geological processes, for example in the context of radioactive waste disposal. Unfortunately, the data obtained at the test site is often only available to researchers who are directly involved in a particular experiment. Furthermore, typical visualisation techniques of such data by domain scientists often lack spatial context and accessing and exploring the data requires prior technical knowledge and a high level of effort.We created a digital replica of the Mont Terri URL and thereby implemented a prototype of a Virtual Experiment Information System that integrates highly heterogeneous data from several different sources. It allows accessing and exploring the relevant data embedded in its spatial context without much prior technical knowledge. Both, simulation results and observation data are displayed within the same system. The 4D visualisation approach focuses on three exemplary experiments conducted at Mont Terri and is easily transferable to other experiments or even other URLs. The Unity Game Engine has been used to develop the prototype. This allowed to build the application for various output devices like desktop computers or Virtual Reality hardware without much additional effort. The implemented system reduces the technical effort required to access and explore highly relevant research data and lowers the cognitive effort usually needed to gain insights from measurements, simulation models and context data. Moreover, it promotes exchange among research groups by enabling interactive visualisations embedded in the URL’s spatial context. In addition, a future use of the system for the communication of scientific methods and results to stakeholders or the general public is plausible.
16

Corrigendum: Prototype of a virtual experiment information system for the Mont Terri underground research laboratory

Gräbeling, Nico, Sen, Özgür Ozan, Bilke, Lars, Cajuhi, Tuanny, Naumov, Dmitri, Wang, Wenqing, Ziefle, Gesa, Jaeggi, David, Maßmann, Jobst, Scheuermann, Gerik, Kolditz, Olaf, Rink, Karsten 25 January 2024 (has links)
In the published article, there was an error concerning the FE Experiment. Incorrect information was used regarding the heaters’ power and temperature. A correction has been made to Chapter 3: Visualisation of Selected Experiments, Sub-section 3.3 “Full- Scale Emplacement Experiment”, Paragraph 1. The sentence previously stated: “They work with up to 1,500W each and emit heat up to 195°C.” The corrected sentence now states: “They work with up to 1,350W each and emit heat up to 135°C.” The authors apologize for this error and state that this does not change the scientific conclusions of the article in any way. The original article has been updated.
17

Physical and tangible information visualization

Jansen, Yvonne 10 March 2014 (has links) (PDF)
Visualizations in the most general sense of external, physical representations of information are older than the invention of writing. Generally, external representations promote external cognition and visual thinking, and humans developed a rich set of skills for crafting and exploring them. Computers immensely increased the amount of data we can collect and process as well as diversified the ways we can represent it visually. Computer-supported visualization systems, studied in the field of information visualization (infovis), have become powerful and complex, and sophisticated interaction techniques are now necessary to control them. With the widening of technological possibilities beyond classic desktop settings, new opportunities have emerged. Not only display surfaces of arbitrary shapes and sizes can be used to show richer visualizations, but also new input technologies can be used to manipulate them. For example, tangible user interfaces are an emerging input technology that capitalizes on humans' abilities to manipulate physical objects. However, these technologies have been barely studied in the field of information visualization. A first problem is a poorly defined terminology. In this dissertation, I define and explore the conceptual space of embodiment for information visualization. For visualizations, embodiment refers to the level of congruence between the visual elements of the visualization and their physical shape. This concept subsumes previously introduced concepts such as tangibility and physicality. For example, tangible computing aims to represent virtual objects through a physical form but the form is not necessarily congruent with the virtual object. A second problem is the scarcity of convincing applications of tangible user interfaces for infovis purposes. In information visualization, standard computer displays and input devices are still widespread and considered as most effective. Both of these provide however opportunities for embodiment: input devices can be specialized and adapted so that their physical shape reflects their functionality within the system; computer displays can be substituted by transformable shape changing displays or, eventually, by programmable matter which can take any physical shape imaginable. Research on such shape-changing interfaces has so far been technology-driven while the utility of such interfaces for information visualization remained unexploited. In this thesis, I suggest embodiment as a design principle for infovis purposes, I demonstrate and validate the efficiency and usability of both embodied visualization controls and embodied visualization displays through three controlled user experiments. I then present a conceptual interaction model and visual notation system that facilitates the description, comparison and criticism of various types of visualization systems and illustrate it through case studies of currently existing point solutions. Finally, to aid the creation of physical visualizations, I present a software tool that supports users in building their own visualizations. The tool is suitable for users new to both visualization and digital fabrication, and can help to increase users' awareness of and interest in data in their everyday live. In summary, this thesis contributes to the understanding of the value of emerging physical representations for information visualization.
18

Améliorer les compétences communicatives dans l’autisme en ralentissant les informations auditives et visuelles : une étude longitudinale et comportementale avec l’oculométrie

Charrier, Aurore 12 December 2014 (has links)
Des anomalies du traitement des informations sensorielles sont observées dans l'autisme, notamment, les signaux dynamiques semblent trop rapides et/ou complexes pour être convenablement traités par les personnes avec TSA. Aussi, ralentir ces signaux (Gepner, 2001, 2005) pourrait les aider à les percevoir et faciliterait leur compréhension aux interactions sociales. Nous avons proposé des enfants avec TSA, âgés de 3 à 8 ans, pendant un an des séances hebdomadaires d'orthophonie impliquant l'utilisation d'un logiciel ralentissant le son et les images des vidéos (Logiral(TM)). Un groupe contrôle d'enfants avec TSA, bénéficiant de séances d'orthophonie mais sans l'utilisation de Logiral(TM), a également été constitué. Nous avons comparé l'évolution des compétences socio-communicatives des deux groupes ainsi que les comportements d'exploration visuelle lors de la présentation du visage d'une narratrice racontant une histoire. Nos résultats montrent une amélioration significative de la capacité à imiter et diminution des comportements inadaptés uniquement pour les enfants du groupe expérimental. Après un an d'utilisation de Logiral(TM), ces enfants regardent davantage le visage et ses caractéristiques internes (yeux et bouche). / Sensory processing abnormalities are observed in autism, in particular dynamic signals involved in interactions seem too fast and/or too complex to be adequately treated by people with ASD. Also, slow down the speed of these signals (Gepner, 2001, 2005; Gepner et al, 2001, 2002, 2005) could help them to perceive informations and could facilitate their understanding in social interactions. We proposed to children with ASD, aged from 3 to 8 years, speech therapy weekly for a year with the use of a software (Logiral(TM)) to slow down sound and pictures. A control group of children with ASD, receiving speech therapy without the use of Logiral (TM) was also set up. We compared the evolution of the social communication skills of the two groups and their visual exploration behavior during the presentation of the face of a narrator telling a story. Our results show a significant improvement in the ability to imitate and a decrease in inappropriate behaviors, and this, only for the children in the experimental group. After a year of using Logiral(TM), these children watch more facial and internal features (eyes and mouth) which is no observed for children in the control group.
19

Physical and tangible information visualization / Visualisation physique et tangible de l'information

Jansen, Yvonne 10 March 2014 (has links)
Les visualisations, dans le sens général de représentations externes et physiques de données, sont plus anciennes que l'invention de l'écriture. De manière générale, les représentations externes encouragent la cognition et la pensée visuelle, et nous avons développé des savoir-faire pour les créer et les exploiter. La révolution informatique a augmenté la quantité de données qu'il est possible de collecter et de traiter, et a diversifié les façons de les représenter visuellement. Les systèmes de visualisation assistés par ordinateur, et étudiés dans le domaine de la visualisation d'information, sont aujourd'hui si puissants et complexes que nous avons besoin de techniques d'interaction très sophistiqués. Grâce au développement des possibilités technologiques au-delà des ordinateurs de bureau, un large éventail d'utilisations émerge. Non seulement des surfaces d'affichage de formes et de tailles variées permettent de montrer des visualisations plus riches, mais aussi des dispositifs d'entrée de nouvelle génération peuvent être utilisés qui exploitent les aptitudes humaines à manipuler les objets physiques. Cependant, ces technologies sont peu étudiées dans le contexte de la visualisation d'information. Tout d'abord, un premier problème découle d'une terminologie insuffisante. Dans cette thèse, je définis et étudie entre autres le concept de corporalisation (embodiment) pour la visualisation d'information. Concernant les visualisations, la corporalisation réfère à la congruence entre les éléments visuels d'une visualisation et leurs formes physiques. Ce concept intègre des concepts déjà connus tels que la tangibilité. Par exemple, l'interaction tangible s'attache à la représentation d'objets virtuels par des objets physiques. Mais en réalité, leur forme physique n'est pas nécessairement congruente avec l'objet virtuel. Un second problème découle du peu d'exemples convaincants d'interfaces tangibles appliquées à la visualisation d'information. Dans le domaine de la visualisation d'information, les écrans standard et les dispositifs d'entrée génériques tels que la souris, sont toujours les plus courants et considérés comme les plus efficaces. Cependant, aussi bien la partie affichage que la partie contrôle fournit des possibilités de corporalisation : les dispositifs d'entrée peuvent être spécialisés et adaptés de façon à ce que leur forme physique ressemble à leur fonction; les écrans peuvent être rendus déformables ou, dans l'avenir, être composés d'une matière programmable capable de prendre n'importe quelle forme imaginable. Mais la recherche sur les écrans et matières déformables est pour l'instant principalement dirigée par l'innovation technologique sans tenir compte des applications possibles à la visualisation d'information. Dans cette thèse, j'propose la corporalisation comme principe de conception pour la visualisation d'information. Je démontre l'efficacité et l'utilisabilité des dispositifs d'entrée corporalisés ainsi que des affichages corporalisés, en présentant trois expériences contrôlées. Par la suite, je présente un modèle d'interaction conceptuel et un système de notation visuelle pour décrire, comparer et critiquer différents types de systèmes de visualisation, et j'illustre l'utilisation de ce modèle à partir d'études de cas. Enfin, je présente un outil de conception pour aider à la création de visualisations physiques. Cet outil s'adresse à des utilisateurs novices en visualisation d'information et en fabrication numérique, et peut contribuer à sensibiliser ces utilisateurs à l'intérêt d'explorer des données qui les concernent dans leur vie quotidienne. En résumé, cette thèse contribue à la compréhension de la valeur ajoutée des interfaces physiques pour la visualisation d'information. / Visualizations in the most general sense of external, physical representations of information are older than the invention of writing. Generally, external representations promote external cognition and visual thinking, and humans developed a rich set of skills for crafting and exploring them. Computers immensely increased the amount of data we can collect and process as well as diversified the ways we can represent it visually. Computer-supported visualization systems, studied in the field of information visualization (infovis), have become powerful and complex, and sophisticated interaction techniques are now necessary to control them. With the widening of technological possibilities beyond classic desktop settings, new opportunities have emerged. Not only display surfaces of arbitrary shapes and sizes can be used to show richer visualizations, but also new input technologies can be used to manipulate them. For example, tangible user interfaces are an emerging input technology that capitalizes on humans' abilities to manipulate physical objects. However, these technologies have been barely studied in the field of information visualization. A first problem is a poorly defined terminology. In this dissertation, I define and explore the conceptual space of embodiment for information visualization. For visualizations, embodiment refers to the level of congruence between the visual elements of the visualization and their physical shape. This concept subsumes previously introduced concepts such as tangibility and physicality. For example, tangible computing aims to represent virtual objects through a physical form but the form is not necessarily congruent with the virtual object. A second problem is the scarcity of convincing applications of tangible user interfaces for infovis purposes. In information visualization, standard computer displays and input devices are still widespread and considered as most effective. Both of these provide however opportunities for embodiment: input devices can be specialized and adapted so that their physical shape reflects their functionality within the system; computer displays can be substituted by transformable shape changing displays or, eventually, by programmable matter which can take any physical shape imaginable. Research on such shape-changing interfaces has so far been technology-driven while the utility of such interfaces for information visualization remained unexploited. In this thesis, I suggest embodiment as a design principle for infovis purposes, I demonstrate and validate the efficiency and usability of both embodied visualization controls and embodied visualization displays through three controlled user experiments. I then present a conceptual interaction model and visual notation system that facilitates the description, comparison and criticism of various types of visualization systems and illustrate it through case studies of currently existing point solutions. Finally, to aid the creation of physical visualizations, I present a software tool that supports users in building their own visualizations. The tool is suitable for users new to both visualization and digital fabrication, and can help to increase users' awareness of and interest in data in their everyday live. In summary, this thesis contributes to the understanding of the value of emerging physical representations for information visualization.
20

The Shades of Styles : A human search for words communicating all aspects of styles.

Hellerslien, Erlend January 2021 (has links)
This research is an investigative attempt on the concept of style´s development to potentially noticing our diverse human history on viewing the aspect of styles, starting (in the part one) by looking into the problem of the development of styles and its characteristic of representation in terms of its messages, realties, semiotics, and human collaboration. Leading towards the human search in seeing style more commonly neutral for a more meaningful dialog. The research shows then (in the part two) the potential to build a Digital Style Dictionary and A Digital Visual Compass: A Human-Centric Guide on The Aspect of Seeing Reality’s that can support identifying aspects of multiple realities (core reality, abstract reality, surreal reality and artificial reality) — where two cases (in the part three) of visual styles get analyzed, discussed, reframed, and presented (Transpace and Swisch). Fundamentally this paper looks to provoke a discussion on what we humans want the point to be in seeing styles. The complexity is as grand as our diversity, but still, this research highlights the hope to respectfully identify the distinctive shades of styles for the sake of a more significant human dialog and inclusion. The research´s grand ambition is knowingly bigger than what it itself can grasp to complete right now (2021) fully. It proposes an idea for the near future to shape a Digital Style Dictionary and a Digital Visual Compass that works for the common human aspect of seeing styles. This research is a first attempt towards shaping the fundamental frame towards a spectrum of the style´s, that we can respectfully continue to articulate for the sake to include better human communication on the aspect of seeing distinctiveness, not that style´s stands in a capital value program between something “high” or “low.” Instead, we can now start to collaborate in shaping and building these potential tools as A Digital Style Dictionary and A Digital Visual Compass in sharing a more human-centric spectrum of styles to push the human evolution of knowledge further.

Page generated in 0.0972 seconds