• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 19
  • 5
  • 5
  • 4
  • 3
  • 1
  • Tagged with
  • 40
  • 12
  • 11
  • 9
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Automatische Generalisierungsverfahren zur Vereinfachung von Kartenvektordaten unter Berücksichtigung der Topologie und Echtzeitfähigkeit / Automatic generalisation methods for the simplification for map vector data with regards on topology and real-time performance

Hahmann, Stefan 21 September 2010 (has links) (PDF)
Die mapChart GmbH bietet einen Softwaredienst an, der es ermöglicht, auf der Grundlage von teilweise kundenspezifischen Basisgeometrien vektorbasierte Karten zu erstellen. Primäres Ausgabemedium ist dabei die Bildschirmkarte des JAVA-Clients im Webbrowser. PDF-Export und Druck sind ebenso möglich. Bei der Kartenerstellung ist der Anwender nicht an vorgegebene Maßstäbe gebunden, sondern kann frei wählen, welches Gebiet in welcher Größe dargestellt werden soll. Hierdurch ergeben sich komplexe Aufgabenstellungen für die kartografische Generalisierung. Diese Probleme und deren bisherige Lösungen durch das Unternehmen werden im ersten Teil der Arbeit diskutiert, wobei verschiedene wissenschaftliche Arbeiten für spezielle Teilaufgaben der Generalisierung kurz vorgestellt werden. Selektion und Formvereinfachung gelten als die wichtigsten Generalisierungsschritte. Während die Selektion mit den vorhandenen Methoden von Geodatenbanken relativ problemlos realisiert werden kann, stellt die Formvereinfachung ein umfangreiches Problem dar. Das Hauptaugenmerk der Arbeit richtet sich deswegen auf die rechnergestützte Liniengeneralisierung verbunden mit dem Ziel, überflüssige Stützpunkte mit Hilfe von Algorithmen zur Linienvereinfachung einzusparen. Ergebnis sind schnellere Übertragungszeiten der Kartenvektordaten zum Anwender sowie eine Beschleunigung raumbezogener Analysen, wie z. B. Flächenverschneidungen. Des weiteren werden Verbesserungen in der Darstellung angestrebt. Ein geeigneter Algorithmus zeichnet sich durch eine geringe Beanspruchung der Ressourcen Zeit und Speicherbedarf aus. Weiterhin spielt der erreichbare Grad der Verringerung der Stützpunktmenge bei akzeptabler Kartenqualität eine entscheidende Rolle. Nicht zuletzt sind topologische Aspekte und der Implementierungsaufwand zu beachten. Die Arbeit gibt einen umfassenden Überblick über vorhandene Ansätze zur Liniengeneralisierung und leitet aus der Diskussion der Vor- und Nachteile zwei geeignete Algorithmen für die Implementierung mit der Programmiersprache JAVA ab. Die Ergebnisse der Verfahren nach Douglas-Peucker und Visvalingam werden hinsichtlich der Laufzeiten, des Grades der Verringerung der Stützpunktmenge sowie der Qualität der Kartendarstellung verglichen, wobei sich für die Visvalingam-Variante leichte Vorteile ergeben. Eine Parameterkonfiguration für den konkreten Einsatz der Vereinfachungsmethode in das GIS der mapChart GmbH wird vorgeschlagen. Die Vereinfachung von Polygonnetzen stellt eine Erweiterung des Problems der Liniengeneralisierung dar. Hierbei müssen topologische Aspekte beachtet werden, was besonders schwierig ist, wenn die Ausgangsdaten nicht topologisch strukturiert vorliegen. Für diese Aufgabe wurde ein neuer Algorithmus entwickelt und ebenfalls in JAVA implementiert. Die Implementierung dieses Algorithmus und damit erreichbaren Ergebnisse werden anhand von zwei Testdatensätzen vorgestellt, jedoch zeigt sich, dass die wichtige Bedingung der Echtzeitfähigkeit nicht erfüllt wird. Damit ergibt sich, dass der Algorithmus zur Netzvereinfachung nur offline benutzt werden sollte. / MapChart GmbH offers a software service, which allows users to create customized, vector-based maps using vendor as well as customer geometric and attributive data. Target delivery media is the on-screen map of the JAVA client within the web browser. PDF export and print are also supported. Map production is not limited to specific scales. The user can choose which area at which scale is shown. This triggers complex tasks for cartographic generalization. Current solutions by the company are discussed and scientific work for selected tasks will be presented shortly. Selection and Simplification are known as the most important steps of generalization. While selection can be managed sufficiently by geo databases, simplification poses considerably problems. The main focus of the thesis is the computational line generalization aiming on reducing the amount of points by simplification. Results are an increased speed of server to client communication and better performance of spatial analysis, such as intersection. Furthermore enhancements for the portrayal of maps are highlighted. An appropriate algorithm minimizes the demands for the resources time and memory. Furthermore the obtainable level of simplification by still producing acceptable map quality plays an important role. Last but not least efforts for the implementation of the algorithm and topology are important. The thesis discusses a broad overview of existing approaches to line simplification. Two appropriate algorithms for the implementation using the programming language JAVA will be proposed. The results of the methods of Visvalingam and Douglas-Peucker will be discussed with regards to performance, level of point reduction and map quality. Recommended parameters for the implementation in the software of MapChart GmbH are derived. The simplification of polygon meshes will be an extension of the line generalization. Topological constraints need to be considered. This task needs a sophisticated approach as the raw data is not stored in a topological structure. For this task a new algorithm was developed. It was also implemented using JAVA. The results of the testing scenario show that the constraint of real-time performance cannot be fulfilled. Hence it is recommended to use the algorithm for the polygon mesh simplification offline only.
22

Visualisation and Generalisation of 3D City Models

Mao, Bo January 2011 (has links)
3D city models have been widely used in various applications such as urban planning, traffic control, disaster management etc. Efficient visualisation of 3D city models in different levels of detail (LODs) is one of the pivotal technologies to support these applications. In this thesis, a framework is proposed to visualise the 3D city models online. Then, generalisation methods are studied and tailored to create 3D city scenes in different scales dynamically. Multiple representation structures are designed to preserve the generalisation results on different level. Finally, the quality of the generalised 3D city models is evaluated by measuring the visual similarity with the original models.   In the proposed online visualisation framework, City Geography Makeup Language (CityGML) is used to represent city models, then 3D scenes in Extensible 3D (X3D) are generated from the CityGML data and dynamically updated to the user side for visualisation in the Web-based Graphics Library (WebGL) supported browsers with X3D Document Object Model (X3DOM) technique. The proposed framework can be implemented at the mainstream browsers without specific plugins, but it can only support online 3D city model visualisation in small area. For visualisation of large data volumes, generalisation methods and multiple representation structures are required.   To reduce the 3D data volume, various generalisation methods are investigated to increase the visualisation efficiency. On the city block level, the aggregation and typification methods are improved to simplify the 3D city models. On the street level, buildings are selected according to their visual importance and the results are stored in the indexes for dynamic visualisation. On the building level, a new LOD, shell model, is introduced. It is the exterior shell of LOD3 model, in which the objects such as windows, doors and smaller facilities are projected onto walls.  On the facade level, especially for textured 3D buildings, image processing and analysis methods are employed to compress the texture.   After the generalisation processes on different levels, multiple representation data structures are required to store the generalised models for dynamic visualisation. On the city block level the CityTree, a novel structure to represent group of buildings, is tested for building aggregation. According to the results, the generalised 3D city model creation time is reduced by more than 50% by using the CityTree. Meanwhile, a Minimum Spanning Tree (MST) is employed to detect the linear building group structures in the city models and they are typified with different strategies. On the building level and the street level, the visible building index is created along the road to support building selection. On facade level the TextureTree, a structure to represent building facade texture, is created based on the texture segmentation.   Different generalisation strategies lead to different outcomes. It is critical to evaluate the quality of the generalised models. Visually salient features of the textured building models such as size, colour, height, etc. are employed to calculate the visual difference between the original and the generalised models. Visual similarity is the criterion in the street view level building selection. In this thesis, the visual similarity is evaluated locally and globally. On the local level, the projection area and the colour difference between the original and the generalised models are considered. On the global level, the visual features of the 3D city models are represented by Attributed Relation Graphs (ARG) and their similarity distances are calculated with the Nested Earth Mover’s Distance (NEMD) algorithm.   The overall contribution of this thesis is that 3D city models are generalised in different scales (block, street, building and facade) and the results are stored in multiple representation structures for efficient dynamic visualisation, especially for online visualisation. / QC 20111116 / ViSuCity
23

Speed of word retrieval across neurotypical and aphasic participants : an investigation of novel assessment and treatment methods

Sotiropoulou Drosopoulou, Christina January 2016 (has links)
Word finding difficulties (WFD) and slowing down both in linguistic comprehension and production are standard characteristics of people as they grow older. WFD also commonly occur in aphasia and are considered one of the most pervasive symptoms affecting stroke participants’ everyday communication. Research on older adults’ WFD has traditionally focused on production of single words when completing picture naming tasks, while very little is known about how much these WFD can compromise connected speech. Similarly, while picture naming tasks have typically been used for assessing and treating word finding problems in clinical practice, there is a dearth of studies in the aphasiological literature investigating the relationship between confrontation naming and connected speech tasks. The thesis investigated whether a newly-developed method/treatment targeting both speed and accuracy (‘repeated increasingly speeded presentation’ - RISP) in picture naming was more effective in (a) speeding up participants without compromising accuracy, and (b) improving the use of the trained/treated names in connected speech, compared to a standard method/therapy (‘standard presentation’ - SP) which targeted accuracy alone. English-speaking, elderly participants (n=27 at Chapter 3, n= 21 at Chapter 4) and participants with aphasia of varying severity and subtype (n=5 at Chapter 5 and n=20 at Chapter 6) were asked to carry out picture naming tasks/picture naming treatments and composite picture description tasks where the composite pictures included the trained/treated items. As for the neurotypical participants, words which were retrieved more quickly in picture naming tasks were also those which were more readily available and produced in connected speech tasks. Compared to SP, RISP was found to be significantly more effective in significantly reducing picture naming latencies without inducing a speed-accuracy trade-off and with lasting effects. Finally, SP was as effective in promoting retrieval in connected speech as RISP. As for the clinical population, compared to SP, RISP was significantly more effective in improving picture naming accuracy and in maintaining the reduced RTs in the long term. In comparison to the SP, RISP crucially led to significantly higher carry-over of targeted items to connected speech. The thesis findings underlined the effectiveness of a more demanding single word training method/treatment in improving lexical retrieval in confrontation naming for neurotypical participants and in enhancing connected speech for participants with aphasia.
24

Automatische Generalisierungsverfahren zur Vereinfachung von Kartenvektordaten unter Berücksichtigung der Topologie und Echtzeitfähigkeit

Hahmann, Stefan 15 September 2006 (has links)
Die mapChart GmbH bietet einen Softwaredienst an, der es ermöglicht, auf der Grundlage von teilweise kundenspezifischen Basisgeometrien vektorbasierte Karten zu erstellen. Primäres Ausgabemedium ist dabei die Bildschirmkarte des JAVA-Clients im Webbrowser. PDF-Export und Druck sind ebenso möglich. Bei der Kartenerstellung ist der Anwender nicht an vorgegebene Maßstäbe gebunden, sondern kann frei wählen, welches Gebiet in welcher Größe dargestellt werden soll. Hierdurch ergeben sich komplexe Aufgabenstellungen für die kartografische Generalisierung. Diese Probleme und deren bisherige Lösungen durch das Unternehmen werden im ersten Teil der Arbeit diskutiert, wobei verschiedene wissenschaftliche Arbeiten für spezielle Teilaufgaben der Generalisierung kurz vorgestellt werden. Selektion und Formvereinfachung gelten als die wichtigsten Generalisierungsschritte. Während die Selektion mit den vorhandenen Methoden von Geodatenbanken relativ problemlos realisiert werden kann, stellt die Formvereinfachung ein umfangreiches Problem dar. Das Hauptaugenmerk der Arbeit richtet sich deswegen auf die rechnergestützte Liniengeneralisierung verbunden mit dem Ziel, überflüssige Stützpunkte mit Hilfe von Algorithmen zur Linienvereinfachung einzusparen. Ergebnis sind schnellere Übertragungszeiten der Kartenvektordaten zum Anwender sowie eine Beschleunigung raumbezogener Analysen, wie z. B. Flächenverschneidungen. Des weiteren werden Verbesserungen in der Darstellung angestrebt. Ein geeigneter Algorithmus zeichnet sich durch eine geringe Beanspruchung der Ressourcen Zeit und Speicherbedarf aus. Weiterhin spielt der erreichbare Grad der Verringerung der Stützpunktmenge bei akzeptabler Kartenqualität eine entscheidende Rolle. Nicht zuletzt sind topologische Aspekte und der Implementierungsaufwand zu beachten. Die Arbeit gibt einen umfassenden Überblick über vorhandene Ansätze zur Liniengeneralisierung und leitet aus der Diskussion der Vor- und Nachteile zwei geeignete Algorithmen für die Implementierung mit der Programmiersprache JAVA ab. Die Ergebnisse der Verfahren nach Douglas-Peucker und Visvalingam werden hinsichtlich der Laufzeiten, des Grades der Verringerung der Stützpunktmenge sowie der Qualität der Kartendarstellung verglichen, wobei sich für die Visvalingam-Variante leichte Vorteile ergeben. Eine Parameterkonfiguration für den konkreten Einsatz der Vereinfachungsmethode in das GIS der mapChart GmbH wird vorgeschlagen. Die Vereinfachung von Polygonnetzen stellt eine Erweiterung des Problems der Liniengeneralisierung dar. Hierbei müssen topologische Aspekte beachtet werden, was besonders schwierig ist, wenn die Ausgangsdaten nicht topologisch strukturiert vorliegen. Für diese Aufgabe wurde ein neuer Algorithmus entwickelt und ebenfalls in JAVA implementiert. Die Implementierung dieses Algorithmus und damit erreichbaren Ergebnisse werden anhand von zwei Testdatensätzen vorgestellt, jedoch zeigt sich, dass die wichtige Bedingung der Echtzeitfähigkeit nicht erfüllt wird. Damit ergibt sich, dass der Algorithmus zur Netzvereinfachung nur offline benutzt werden sollte.:1 Einleitung 2 Kartografische Generalisierung 3 Algorithmen zur Liniengeneralisierung 4 Implementierung 5 Ergebnisse 6 Ausblick 7 Zusammenfassung / MapChart GmbH offers a software service, which allows users to create customized, vector-based maps using vendor as well as customer geometric and attributive data. Target delivery media is the on-screen map of the JAVA client within the web browser. PDF export and print are also supported. Map production is not limited to specific scales. The user can choose which area at which scale is shown. This triggers complex tasks for cartographic generalization. Current solutions by the company are discussed and scientific work for selected tasks will be presented shortly. Selection and Simplification are known as the most important steps of generalization. While selection can be managed sufficiently by geo databases, simplification poses considerably problems. The main focus of the thesis is the computational line generalization aiming on reducing the amount of points by simplification. Results are an increased speed of server to client communication and better performance of spatial analysis, such as intersection. Furthermore enhancements for the portrayal of maps are highlighted. An appropriate algorithm minimizes the demands for the resources time and memory. Furthermore the obtainable level of simplification by still producing acceptable map quality plays an important role. Last but not least efforts for the implementation of the algorithm and topology are important. The thesis discusses a broad overview of existing approaches to line simplification. Two appropriate algorithms for the implementation using the programming language JAVA will be proposed. The results of the methods of Visvalingam and Douglas-Peucker will be discussed with regards to performance, level of point reduction and map quality. Recommended parameters for the implementation in the software of MapChart GmbH are derived. The simplification of polygon meshes will be an extension of the line generalization. Topological constraints need to be considered. This task needs a sophisticated approach as the raw data is not stored in a topological structure. For this task a new algorithm was developed. It was also implemented using JAVA. The results of the testing scenario show that the constraint of real-time performance cannot be fulfilled. Hence it is recommended to use the algorithm for the polygon mesh simplification offline only.:1 Einleitung 2 Kartografische Generalisierung 3 Algorithmen zur Liniengeneralisierung 4 Implementierung 5 Ergebnisse 6 Ausblick 7 Zusammenfassung
25

Automatische Generalisierungsverfahren zur Vereinfachung von Kartenvektordaten unter Berücksichtigung der Topologie und Echtzeitfähigkeit

Hahmann, Stefan 15 September 2006 (has links)
Die mapChart GmbH bietet einen Softwaredienst an, der es ermöglicht, auf der Grundlage von teilweise kundenspezifischen Basisgeometrien vektorbasierte Karten zu erstellen. Primäres Ausgabemedium ist dabei die Bildschirmkarte des JAVA-Clients im Webbrowser. PDF-Export und Druck sind ebenso möglich. Bei der Kartenerstellung ist der Anwender nicht an vorgegebene Maßstäbe gebunden, sondern kann frei wählen, welches Gebiet in welcher Größe dargestellt werden soll. Hierdurch ergeben sich komplexe Aufgabenstellungen für die kartografische Generalisierung. Diese Probleme und deren bisherige Lösungen durch das Unternehmen werden im ersten Teil der Arbeit diskutiert, wobei verschiedene wissenschaftliche Arbeiten für spezielle Teilaufgaben der Generalisierung kurz vorgestellt werden. Selektion und Formvereinfachung gelten als die wichtigsten Generalisierungsschritte. Während die Selektion mit den vorhandenen Methoden von Geodatenbanken relativ problemlos realisiert werden kann, stellt die Formvereinfachung ein umfangreiches Problem dar. Das Hauptaugenmerk der Arbeit richtet sich deswegen auf die rechnergestützte Liniengeneralisierung verbunden mit dem Ziel, überflüssige Stützpunkte mit Hilfe von Algorithmen zur Linienvereinfachung einzusparen. Ergebnis sind schnellere Übertragungszeiten der Kartenvektordaten zum Anwender sowie eine Beschleunigung raumbezogener Analysen, wie z. B. Flächenverschneidungen. Des weiteren werden Verbesserungen in der Darstellung angestrebt. Ein geeigneter Algorithmus zeichnet sich durch eine geringe Beanspruchung der Ressourcen Zeit und Speicherbedarf aus. Weiterhin spielt der erreichbare Grad der Verringerung der Stützpunktmenge bei akzeptabler Kartenqualität eine entscheidende Rolle. Nicht zuletzt sind topologische Aspekte und der Implementierungsaufwand zu beachten. Die Arbeit gibt einen umfassenden Überblick über vorhandene Ansätze zur Liniengeneralisierung und leitet aus der Diskussion der Vor- und Nachteile zwei geeignete Algorithmen für die Implementierung mit der Programmiersprache JAVA ab. Die Ergebnisse der Verfahren nach Douglas-Peucker und Visvalingam werden hinsichtlich der Laufzeiten, des Grades der Verringerung der Stützpunktmenge sowie der Qualität der Kartendarstellung verglichen, wobei sich für die Visvalingam-Variante leichte Vorteile ergeben. Eine Parameterkonfiguration für den konkreten Einsatz der Vereinfachungsmethode in das GIS der mapChart GmbH wird vorgeschlagen. Die Vereinfachung von Polygonnetzen stellt eine Erweiterung des Problems der Liniengeneralisierung dar. Hierbei müssen topologische Aspekte beachtet werden, was besonders schwierig ist, wenn die Ausgangsdaten nicht topologisch strukturiert vorliegen. Für diese Aufgabe wurde ein neuer Algorithmus entwickelt und ebenfalls in JAVA implementiert. Die Implementierung dieses Algorithmus und damit erreichbaren Ergebnisse werden anhand von zwei Testdatensätzen vorgestellt, jedoch zeigt sich, dass die wichtige Bedingung der Echtzeitfähigkeit nicht erfüllt wird. Damit ergibt sich, dass der Algorithmus zur Netzvereinfachung nur offline benutzt werden sollte.:1 Einleitung 2 Kartografische Generalisierung 3 Algorithmen zur Liniengeneralisierung 4 Implementierung 5 Ergebnisse 6 Ausblick 7 Zusammenfassung / MapChart GmbH offers a software service, which allows users to create customized, vector-based maps using vendor as well as customer geometric and attributive data. Target delivery media is the on-screen map of the JAVA client within the web browser. PDF export and print are also supported. Map production is not limited to specific scales. The user can choose which area at which scale is shown. This triggers complex tasks for cartographic generalization. Current solutions by the company are discussed and scientific work for selected tasks will be presented shortly. Selection and Simplification are known as the most important steps of generalization. While selection can be managed sufficiently by geo databases, simplification poses considerably problems. The main focus of the thesis is the computational line generalization aiming on reducing the amount of points by simplification. Results are an increased speed of server to client communication and better performance of spatial analysis, such as intersection. Furthermore enhancements for the portrayal of maps are highlighted. An appropriate algorithm minimizes the demands for the resources time and memory. Furthermore the obtainable level of simplification by still producing acceptable map quality plays an important role. Last but not least efforts for the implementation of the algorithm and topology are important. The thesis discusses a broad overview of existing approaches to line simplification. Two appropriate algorithms for the implementation using the programming language JAVA will be proposed. The results of the methods of Visvalingam and Douglas-Peucker will be discussed with regards to performance, level of point reduction and map quality. Recommended parameters for the implementation in the software of MapChart GmbH are derived. The simplification of polygon meshes will be an extension of the line generalization. Topological constraints need to be considered. This task needs a sophisticated approach as the raw data is not stored in a topological structure. For this task a new algorithm was developed. It was also implemented using JAVA. The results of the testing scenario show that the constraint of real-time performance cannot be fulfilled. Hence it is recommended to use the algorithm for the polygon mesh simplification offline only.:1 Einleitung 2 Kartografische Generalisierung 3 Algorithmen zur Liniengeneralisierung 4 Implementierung 5 Ergebnisse 6 Ausblick 7 Zusammenfassung
26

Figural pattern generalisation - the role of rhythm

Samson, Duncan, Schäfer, Marc 20 March 2012 (has links)
No description available.
27

Révision automatique des connaissances guidant l'exploration informée d'arbres d'états : application au contexte de la généralisation de données géographiques / Automatic revision of knowledge guiding informed search tree exploration : application to the context of geographic data generalisation

Taillandier, Patrick 02 December 2008 (has links)
Cette thèse traite de la révision automatique des connaissances contenues dans les systèmes fonctionnant par exploration informée d'arbres d'états. Ces systèmes, de par leur performance, sont employés dans de nombreux domaines applicatifs. En particulier, des travaux ont proposés d’utiliser cette approche dans le cadre de l'automatisation de la généralisation de données géographiques. La généralisation de données géographique s'intéresse à la dérivation, à partir de données géographiques détaillées, de données moins détaillées adaptées à un besoin particulier (e.g. changement d'échelle). Son automatisation, enjeu majeur pour les agences cartographiques telles que l'Institut Géographique National (IGN), est particulièrement complexe. Les performances des systèmes basés sur l’exploration informée d'arbres d'états sont directement dépendantes de la qualité de leurs connaissances (heuristiques). Or, la définition et la mise à jour de ces dernières s'avèrent généralement fastidieuses. Dans le cadre de cette thèse, nous proposons une approche de révision hors ligne des connaissances basée sur le traçage du système et sur l'analyse de ces traces. Ces traces sont ainsi utilisées par un module de révision qui est chargé d'explorer l'espace des connaissances possibles et d'en modifier en conséquence les connaissances du système. Des outils de diagnostic en ligne de la qualité des connaissances permettent de déterminer quand déclencher le processus de révision hors ligne des connaissances. Pour chaque méthode et approche que nous présentons, une mise en oeuvre est détaillée et expérimentée dans le cadre de l'automatisation de la généralisation de données géographiques / This work deals with automatic knowledge revision in systems based on an informed tree search strategy. Because of their efficiency, these systems are used in numerous fields. In particular, some literature work uses this approach for the automation of geographic data generalisation. Geographic data generalisation is the process that derives data adapted to specific needs (e.g. map scale) from too detailed geographic data. Its automation, which is a major issue for national mapping agencies like Institut Géographique National (IGN), is particularly complex. The performances of systems based on informed tree search are directly dependant on their knowledge (heuristics) quality. Unfortunately, most of the time, knowledge definition and update are fastidious. In this work, we propose an offline knowledge revision approach based on the system logging and on the analysis of these logs. Thus, the logs are used by a revision module which is in charge of the system knowledge revision by knowledge space exploration. Tools for online knowledge quality diagnosis allow to determine when the offline knowledge process should be activated. For each method and each approach presented, an implementation is proposed in the context of geographic data generalisation
28

Representation and interaction of sensorimotor learning processes

Sadeghi, Mohsen January 2018 (has links)
Human sensorimotor control is remarkably adept at utilising contextual information to learn and recall systematic sensorimotor transformations. Here, we investigate the motor representations that underlie such learning, and examine how motor memories acquired based on different contextual information interact. Using a novel three-dimensional robotic manipulandum, the 3BOT, we examined the spatial transfer of learning across various movement directions in a 3D environment, while human subjects performed reaching movements under velocity-dependent force field. The obtained pattern of generalisation suggested that the representation of dynamic learning was most likely defined in a target-based, rather than an extrinsic, coordinate system. We further examined how motor memories interact when subjects adapt to force fields applied in orthogonal dimensions. We found that, unlike opposing fields, learning two spatially orthogonal force fields led to the formation of separate motor memories, which neither interfered with nor facilitated each other. Moreover, we demonstrated a novel, more general aspect of the spontaneous recovery phenomenon using a two-dimensional force field task: when subjects learned two orthogonal force fields consecutively, in the following phase of clamped error feedback, the expression of adaptation spontaneously rotated from the direction of the second force field, towards the direction of the first force field. Finally, we examined the interaction of sensorimotor memories formed based on separate contextual information. Subjects performed reciprocating reaching and object manipulation tasks under two alternating contexts (movement directions), while we manipulated the dynamics of the task in each context separately. The results suggested that separate motor memories were formed for the dynamics of the task in different contexts, and that these motor memories interacted by sharing error signals to enhance learning. Importantly, the extent of interaction was not fixed between the context-dependent motor memories, but adaptively changed according to the task dynamics to potentially improve overall performance. Together, our experimental and theoretical results add to the understanding of mechanisms that underlie sensorimotor learning, and the way these mechanisms interact under various tasks and different dynamics.
29

An ontologies and agents based approach for undersea feature characterisation and generalisation / Une approche fondée sur les ontologies et les agents pour la caractérisation et la généralisation de formes de relief sous-marines

Yan, Jingya 10 December 2014 (has links)
Une carte marine est un type de carte utilisé pour décrire la morphologie du fond marin et du littoral adjacent. Un de ses principaux objectifs est de garantir la sécurité de la navigation maritime. En conséquence, la construction d'une carte marine est contrainte par des règles très précises. Le cartographe doit choisir et mettre en évidence les formes du relief sous-marin en fonction de leur intérêt pour la navigation. Au sein d'un processus automatisé, le système doit être en mesure d'identifier et de classifier ces formes de relief à partir d’un modèle de terrain.Un relief sous-marin est une individuation subjective d'une partie du fond océanique. La reconnaissance de la morphologie du fond sous-marin est une tâche difficile, car les définitions des formes de relief reposent généralement sur une description qualitative et floue. Obtenir la reconnaissance automatique des formes de relief nécessite donc une définition formelle des propriétés des reliefs et de leur modélisation. Dans le domaine maritime, l'Organisation Hydrographique Internationale a publié une terminologie standard des noms des formes de relief sous-marines qui formalise un ensemble de définitions principalement pour des objectifs de communication. Cette terminologie a été utilisée ici comme point de départ pour la classification automatique des formes de relief sous-marines d'un modèle numérique de terrain.Afin d'intégrer les connaissances sur le relief sous-marin et sa représentation sur une carte nautique, cette recherche vise à définir des ontologies du relief sous-marin et des cartes marines. Les ontologies sont ensuite utilisées à des fins de généralisation de carte marine. Nos travaux de recherche sont structurés en deux parties principales. Dans la première partie de la recherche, une ontologie est définie afin d'organiser la connaissance géographique et cartographique pour la représentation du relief sous-marin et la généralisation des cartes marines. Tout d'abord, une ontologie de domaine du relief sous-marin présente les différents concepts de formes de relief sous-marines avec leurs propriétés géométriques et topologiques. Cette ontologie est requise pour la classification des formes de relief. Deuxièmement, une ontologie de représentation est présentée, qui décrit la façon dont les entités bathymétriques sont représentées sur la carte.Troisièmement, une ontologie du processus de généralisation définit les contraintes et les opérations usitées pour la généralisation de carte marine. Dans la deuxième partie de la recherche, un processus de généralisation fondé sur l'ontologie est conçu en s'appuyant sur un système multi-agents (SMA). Quatre types d'agents (isobathe, sonde, forme de relief et groupe de formes de relief) sont définis pour gérer les objets cartographiques sur la carte. Un modèle de base de données a été généré à partir de l'ontologie. Les données bathymétriques et l'ontologie sont stockées dans une base de données de type ``triple store'', et sont connectées à un système d'information implémenté en Java et C++. Le système proposé classe automatiquement les formes de relief sous-marines extraites à partir de la bathymétrie, et évalue les contraintes cartographiques. Dans un premier temps, les propriétés géométriques décrivant une forme de relief sont calculées à partir des sondes et des isobathes et sont utilisées pour la classification des formes de relief. Ensuite, les conflits de distance et de superficie sont évalués dans le SMA et des plans de généralisation sont proposés au cartographe. Des tests ont été réalisés avec des données bathymétriques du monde réel montrant ainsi l'intérêt de la recherche dans le domaine de la cartographie nautique. / A nautical chart is a kind of map used to describe the seafloor morphology and the shoreline of adjacent lands. One of its main purposes is to guaranty safety of maritime navigation. As a consequence, construction of a nautical chart follows very specific rules. The cartographer has to select and highlight undersea features according to their relevance to navigation. In an automated process, the system must be able to identify and classify these features from the terrain model.An undersea feature is a subjective individuation of a part of the seafloor. Landform recognition is a difficult task because its definition usually relies on a qualitative and fuzzy description. Achieving automatic recognition of landforms requires a formal definition of the landforms properties and their modelling. In the maritime domain, the International Hydrographic Organisation published a standard terminology of undersea feature names which formalises a set of definitions mainly for naming features and communication purpose. This terminology is here used as a starting point for the automatic classification of the features from a terrain model.In order to integrate knowledge about the submarine relief and its representation on the chart, this research aims to define ontologies of the submarine relief and nautical chart. Then, the ontologies are applied to generalisation of nautical chart. It includes two main parts. In the first part of the research, an ontology is defined to organize geographical and cartographic knowledge for undersea feature representation and nautical chart generalisation. First, a domain ontology of the submarine relief introduces the different concepts of undersea features with their geometric and topological properties. This ontology is required for the classification of features. Second, a representation ontology is presented, which describes how bathymetric entities are portrayed on the map. Third, a generalisation process ontology defines constraints and operations in nautical chart generalisation. In the second part, a generalisation process based on the ontology is designed relying on a multi-agent system. Four kinds of agents (isobath, sounding, feature and group of features) are defined to manage cartographic objects on the chart. A database model was generated from the ontology. The bathymetric data and the ontology are stored in a triplestore database, and are connected to an interface in Java and C++ to automatically classify the undersea features extracted from the bathymetry, and evaluate the cartographic constraints. At first, geometrical properties describing the feature shape are computed from soundings and isobaths and are used for feature classification. Then, conflicts are evaluated in a MAS and generalisation plans are provided.
30

Experimentos de física para a abordagem do tema gerador energia e suas transformações: contribuições da psicologia histórico-cultural

Rebello, Soraia Berbat 03 October 2017 (has links)
Submitted by Maria Bernadete Dos Santos (mariabpds@id.uff.br) on 2017-09-27T17:28:12Z No. of bitstreams: 3 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertação Soraia.pdf: 15388267 bytes, checksum: ed5bcd114d7bf850906847160d092841 (MD5) Produto Soraya.pdf: 3350491 bytes, checksum: 40b293510c3d3dde49ce1e6d70745c72 (MD5) / Approved for entry into archive by Biblioteca Central do Valonguinho Biblioteca Central do Valonguinho (bcv@ndc.uff.br) on 2017-10-03T22:44:32Z (GMT) No. of bitstreams: 3 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertação Soraia.pdf: 15388267 bytes, checksum: ed5bcd114d7bf850906847160d092841 (MD5) Produto Soraya.pdf: 3350491 bytes, checksum: 40b293510c3d3dde49ce1e6d70745c72 (MD5) / Made available in DSpace on 2017-10-03T22:44:32Z (GMT). No. of bitstreams: 3 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertação Soraia.pdf: 15388267 bytes, checksum: ed5bcd114d7bf850906847160d092841 (MD5) Produto Soraya.pdf: 3350491 bytes, checksum: 40b293510c3d3dde49ce1e6d70745c72 (MD5) / Esta Dissertação teve por objetivo elaborar um modelo de Laboratório de Física para o Ensino Médio. Para tanto, foi realizada uma pesquisa qualitativa com análise de dados secundários e com a análise de uma observação com intervenção. O aporte teórico foi a Teoria da Psicologia Histórico-Cultural de Vigotski, que afirma a complementação entre concepção prévia e o conceito científico, entre a contextualização e a generalização. Foi possível concluir que o experimento pode ser considerado como um meio de desenvolver o pensamento abstrato, uma vez que evolui de formas simples e elementares para outras mais complexas. No entanto, é a metodologia de ensino que é determinante. / This dissertation aims at elaborating a model for a Laboratory of Physics for Secondary education. For such, a qualitative research with the analysis of complementary data and of observation with interventions was undertaken. The theoretical basis was Vygotsky’s Theory of Historic-Cultural Psychology, in which he affirms the complementation between previous conception and the scientific concept, between pontextualisation and generalisation. It was concluded that the experiment can be considered as a means of developing abstract thinking , since evolves simple and elementary forms to more complex. However, it is the teaching methodology that is decisive.

Page generated in 0.11 seconds