• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • 6
  • 4
  • 1
  • Tagged with
  • 31
  • 31
  • 15
  • 15
  • 11
  • 8
  • 7
  • 7
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Modèle joint pour le traitement automatique de la langue : perspectives au travers des réseaux de neurones / Join model for NLP : a DNN framework

Tafforeau, Jérémie 20 November 2017 (has links)
Les recherches en Traitement Automatique des Langues (TAL) ont identifié différents niveaux d'analyse lexicale, syntaxique et sémantique. Il en découle un découpage hiérarchique des différentes tâches à réaliser afin d'analyser un énoncé. Les systèmes classiques du TAL reposent sur des analyseurs indépendants disposés en cascade au sein de chaînes de traitement (pipelines). Cette approche présente un certain nombre de limitations : la dépendance des modèles à la sélection empirique des traits, le cumul des erreurs dans le pipeline et la sensibilité au changement de domaine. Ces limitations peuvent conduire à des pertes de performances particulièrement importantes lorsqu'il existe un décalage entre les conditions d'apprentissage des modèles et celles d'utilisation. Un tel décalage existe lors de l'analyse de transcriptions automatiques de parole spontanée comme par exemple les conversations téléphoniques enregistrées dans des centres d'appels. En effet l'analyse d'une langue non-canonique pour laquelle il existe peu de données d'apprentissage, la présence de disfluences et de constructions syntaxiques spécifiques à l'oral ainsi que la présence d'erreurs de reconnaissance dans les transcriptions automatiques mènent à une détérioration importante des performances des systèmes d'analyse. C'est dans ce cadre que se déroule cette thèse, en visant à mettre au point des systèmes d'analyse à la fois robustes et flexibles permettant de dépasser les limitations des systèmes actuels à l'aide de modèles issus de l'apprentissage par réseaux de neurones profonds. / NLP researchers has identified different levels of linguistic analysis. This lead to a hierarchical division of the various tasks performed in order to analyze a text statement. The traditional approach considers task-specific models which are subsequently arranged in cascade within processing chains (pipelines). This approach has a number of limitations: the empirical selection of models features, the errors accumulation in the pipeline and the lack of robusteness to domain changes. These limitations lead to particularly high performance losses in the case of non-canonical language with limited data available such as transcriptions of conversations over phone. Disfluencies and speech-specific syntactic schemes, as well as transcription errors in automatic speech recognition systems, lead to a significant drop of performances. It is therefore necessary to develop robust and flexible systems. We intend to perform a syntactic and semantic analysis using a deep neural network multitask model while taking into account the variations of domain and/or language registers within the data.
22

Analyse sémantique de nuages de points 3D dans le milieu urbain : sol, façades, objets urbains et accessibilité / Semantic analysis of 3D point clouds from urban environments : ground, facades, urban objects and accessibility

Serna Morales, Andrés Felipe 16 December 2014 (has links)
Les plus grandes villes au monde disposent de plans 2D très détaillés des rues et des espaces publics. Ces plans contiennent des informations relatives aux routes, trottoirs, façades et objets urbains tels que, entre autres, les lampadaires, les panneaux de signalisation, les poteaux, et les arbres.De nos jours, certaines autorités locales, agences nationales de cartographie et sociétés privées commencent à adjoindre à leurs cartes de villes des informations en 3D, des choix de navigation et d'accessibilité.En comparaison des premiers systèmes de scanning en 3D d'il y a 30 ans, les scanners laser actuels sont moins chers, plus rapides et fournissent des nuages de points 3D plus précis et plus denses.L'analyse de ces données est difficile et laborieuse, et les méthodes semi-automatiques actuelles risquent de ne pas être suffisamment précises ni robustes. C'est en ce sens que des méthodes automatiques pour l'analyse urbaine sémantique en 3D sont nécessaires.Cette thèse constitue une contribution au domaine de l'analyse sémantique de nuages de points en 3D dans le cadre d'un environnement urbain.Nos méthodes sont basées sur les images d'élévation et elles illustrent l'efficacité de la morphologie mathématique pour développer une chaîne complète de traitement en 3D, incluant 6 étapes principales:i)~filtrage et pré-traitement;ii)~segmentation du sol et analyse d'accessibilité;iii)~segmentation des façades;iv)~détection d'objets;v)~segmentation d'objets;vi)~classification d'objets.De plus, nous avons travaillé sur l'intégration de nos résultats dans une chaîne de production à grande échelle.Ainsi, ceux-ci ont été incorporés en tant que ``shapefiles'' aux Systèmes d'Information Géographique et exportés en tant que nuages de points 3D pour la visualisation et la modélisation.Nos méthodes ont été testées d'un point de vue qualitatif et quantitatif sur plusieurs bases de données issues de l'état de l'art et du projet TerraMobilita.Nos résultats ont montré que nos méthodes s'avèrent précises, rapides et surpassent les travaux décrits par la littérature sur ces mêmes bases.Dans la conclusion, nous abordons également les perspectives de développement futur. / Most important cities in the world have very detailed 2D urban plans of streets and public spaces.These plans contain information about roads, sidewalks, facades and urban objects such as lampposts, traffic signs, bollards, trees, among others.Nowadays, several local authorities, national mapping agencies and private companies have began to consider justifiable including 3D information, navigation options and accessibility issues into urban maps.Compared to the first 3D scanning systems 30 years ago, current laser scanners are cheaper, faster and provide more accurate and denser 3D point clouds.Urban analysis from these data is difficult and tedious, and existing semi-automatic methods may not be sufficiently precise nor robust.In that sense, automatic methods for 3D urban semantic analysis are required.This thesis contributes to the field of semantic analysis of 3D point clouds from urban environments.Our methods are based on elevation images and illustrate how mathematical morphology can be exploited to develop a complete 3D processing chain including six main steps:i)~filtering and preprocessing;ii)~ground segmentation and accessibility analysis;iii)~facade segmentation,iv)~object detection;v)~object segmentation;and, vi)~object classification.Additionally, we have worked on the integration of our results into a large-scale production chain. In that sense, our results have been exported as 3D point clouds for visualization and modeling purposes and integrated as shapefiles into Geographical Information Systems (GIS).Our methods have been qualitative and quantitative tested in several databases from the state of the art and from TerraMobilita project.Our results show that our methods are accurate, fast and outperform other works reported in the literature on the same databases.Conclusions and perspectives for future work are discussed as well.
23

Découverte et analyse des communautés implicites par une approche sémantique en ligne : l'outil WebTribe / Discovery and analysis of implicit communities using an online semantic approach : the WebTribe tool

Leprovost, Damien 30 November 2012 (has links)
Avec l’essor du Web 2.0 et des technologies collaboratives qui y sont rattachées,le Web est aujourd’hui devenu une vaste plate-forme d’échanges entre internautes.La majeure partie des sites Web sont actuellement soit dédiés aux interactionssociales de leurs utilisateurs, soit proposent des outils pour développer ces interactions.Nos travaux portent sur la compréhension de ces échanges, ainsi que desstructures communautaires qui en découlent, au moyen d’une approche sémantique.Pour répondre aux besoins de compréhension propres aux analystes de siteWeb et autres gestionnaires de communautés, nous analysons ces structures communautairespour en extraire des caractéristiques essentielles comme leurs centresthématiques et contributeurs centraux. Notre analyse sémantique s’appuie notammentsur des ontologies légères de référence pour définir plusieurs nouvelles métriques,comme la centralité sémantique temporelle et la probabilité de propagationsémantique. Nous employons une approche « en ligne » afin de suivre l’activitéutilisateur en temps réel, au sein de notre outil d’analyse communautaire Web-Tribe. Nous avons implémenté et testé nos méthodes sur des données extraites desystèmes réels de communication sociale sur le Web / With the rise of Web 2.0 and collaborative technologies that are attached to,the Web has now become a broad platform of exchanges between users. The majorityof websites is now dedicated to social interactions of their users, or offerstools to develop these interactions. Our work focuses on the understanding of theseexchanges, as well as emerging community structures arising, through a semanticapproach. To meet the needs of web analysts, we analyze these community structuresto identify their essential characteristics as their thematic centers and centralcontributors. Our semantic analysis is mainly based on reference light ontologiesto define several new metrics such as the temporal semantic centrality and thesemantic propagation probability. We employ an online approach to monitor useractivity in real time in our community analysis tool WebTribe. We have implementedand tested our methods on real data from social communication systemson the Web
24

Les chercheurs, leur discipline, leurs publics: l’orientation de la recherche en sciences sociales et humaines

Landry, Julien 01 1900 (has links)
Réalisé en association avec le Centre interuniversitaire de recherche sur la science et la technologie (CIRST). / Inspirée par les débats portant sur la typologie de la recherche proposée par Michael Burawoy (2005b) et fondée sur une analyse qualitative de vingt-cinq entrevues auprès de professeurs en histoire, en économie et en sociologie, notre investigation a comme but d’identifier et de décrire l’organisation sociale du sens de la recherche en fonction de ses auditoires et ses visées cognitives. À partir d’une analyse sémantique du langage et des repères construits par les acteurs dans leurs expériences de production et de diffusion de connaissances, nous étudions premièrement l’organisation des pratiques de recherche dans l’espace académique, puis l’extension de ces pratiques vers d’autres champs d’activités sociales. Cette analyse nous permet de revenir sur la typologie de Burawoy et d’apporter quelques corrections quant aux distinctions entre les connaissances professionnelle, critique, appliquée et publique. À cet égard, nous proposons que ces « types » de recherche doivent être décomposés en de multiples postures qui s’inscrivent d’une part dans une différenciation des espaces discursifs académiques et d’autre part à l’interface de différents modes d’intervention extra-académique. / Our study of the orientation of research in the social sciences and humanities is a response to Micheal Burawoy’s typology of knowledge production. The objective of this investigation is to identify and describe the social organisation of the meaning of research as scholars attempt to reach different audiences and as their investigations are routed towards particular cognitive aims. Having conducted twenty-five in-depth interviews with historians, sociologists and economists, we analysed their interpretations of research practices in relation to the social space of academia and in regards to the extension of academic activities towards other social spaces. This analysis is then mobilised to comment on Michael Burawoy’s typology of research as we attempt to correct some of the distinctions he makes between professional, critical, policy and public knowledge. Notably, we suggest that these “types” should be broken down into multiple postures understood in relation to a segmentation of academic discursive fields and a differentiation of extra-academic modes of intervention.
25

Modélisation sémantique des bases de données d'inventaires en cycle de vie / Semantic modelling of life cycle inventory databases

Bertin, Benjamin 25 June 2013 (has links)
L'analyse des impacts environnementaux de la production de biens et de services est aujourd'hui devenue un enjeu majeur. L'analyse en cycle de vie est la méthode consacrée pour modéliser les impacts environnementaux des activités humaines. L'inventaire en cycle de vie, qui est l'une des étapes de cette méthode, consiste à décomposer les activités économiques en processus interdépendants. Chaque processus a des impacts environnementaux et la composition de ces processus nous donne l'impact cumulé des activités étudiées. Plusieurs entreprises et agences gouvernementales fournissent des bases de données d'inventaires en cycle de vie pour que les experts puissent réutiliser des processus déjà étudiés lors de l'analyse d'un nouveau système. L'audit et la compréhension de ces inventaires nécessite de s'intéresser à un très grand nombre de processus et à leurs relations d'interdépendance. Ces bases de données peuvent comporter plusieurs milliers de processus et des dizaines de milliers de relations de dépendance. Pour les experts qui utilisent les bases de données d'inventaire en cycle de vie, deux problèmes importants sont clairement identifiés : - organiser les processus pour avoir une meilleure compréhensibilité du modèle ; - calculer les impacts d'une modélisation (composition de processus) et, le cas échéant, détecter les raisons de la non convergence du calcul. Dans cette thèse, nous : - mettons en évidence de l'existence de similarités sémantiques entre les processus et leurs relations d'interdépendance et proposons une nouvelle approche pour modéliser les relations d'interdépendance entre les processus d'une base de données d'inventaire. Elle se base sur un étiquetage sémantique des processus à l'aide d'une ontologie et une modélisation multi-niveaux des relations d'interdépendance entre les processus. Nous étudions aussi deux approches déclaratives d'interaction avec ce modèle multi-niveau. - étudions les différentes méthodes de calcul des impacts basées sur des notions classiques d'algèbre linéaire et de théorie des graphes. Nous étudions aussi les conditions de non convergence de ces méthodes en présence de cycle dans le modèle des relations de dépendances. Un prototype implémentant cette approche a montré des résultats probants sur les cas étudiés. Nous avons réalisé une étude de cas de ce prototype sur les processus de production d'électricité aux États-Unis extraits de la base de données d'inventaire en cycle de vie de l'agence environnementale américaine. Ce prototype est à la base d'une application opérationnelle utilisée par l'entreprise. / Environmental impact assessment of goods and services is nowadays a major challenge for both economic and ethical reasons. Life Cycle Assessment provides a well accepted methodology for modeling environmental impacts of human activities. This methodology relies on the decomposition of a studied system into interdependent processes in a step called Life Cycle Inventory. Every process has several environmental impacts and the composition of those processes provides the cumulated environmental impact for the studied human activities. Several organizations provide processes databases containing several thousands of processes with their interdependency links that are used by LCA practitioners to do an LCA study. Understanding and audit of those databases requires to analyze a huge amount of processes and their dependency relations. But those databases can contain thousands of processes linked together. We identified two problems that the experts faces using those databases: - organize the processes and their dependency relations to improve the comprehensibility; - calculate the impacts and, if it is not possible, find why it is not feasible. In this thesis, we: - show that there are some semantic similarities between the processes and their dependency relations and propose a new way to model the dependency relations in an inventory database. In our approach, we semantically index the processes using an ontology and we use a multi-layers model of the dependency relations. We also study a declarative approach of this multi-layers approach; - propose a method to calculate the environmental impacts of the processes based on linear algebra and graph theory, and we study the conditions of the feasibility of this calculation when we have a cyclic model. We developed a prototype based on this approach that showed some convincing results on different use cases. We tested our prototype on a case study based on a data set extracted from the National Renewable Energy restricted to the electricity production in the United-States.
26

Les chercheurs, leur discipline, leurs publics: l’orientation de la recherche en sciences sociales et humaines

Landry, Julien 01 1900 (has links)
Inspirée par les débats portant sur la typologie de la recherche proposée par Michael Burawoy (2005b) et fondée sur une analyse qualitative de vingt-cinq entrevues auprès de professeurs en histoire, en économie et en sociologie, notre investigation a comme but d’identifier et de décrire l’organisation sociale du sens de la recherche en fonction de ses auditoires et ses visées cognitives. À partir d’une analyse sémantique du langage et des repères construits par les acteurs dans leurs expériences de production et de diffusion de connaissances, nous étudions premièrement l’organisation des pratiques de recherche dans l’espace académique, puis l’extension de ces pratiques vers d’autres champs d’activités sociales. Cette analyse nous permet de revenir sur la typologie de Burawoy et d’apporter quelques corrections quant aux distinctions entre les connaissances professionnelle, critique, appliquée et publique. À cet égard, nous proposons que ces « types » de recherche doivent être décomposés en de multiples postures qui s’inscrivent d’une part dans une différenciation des espaces discursifs académiques et d’autre part à l’interface de différents modes d’intervention extra-académique. / Our study of the orientation of research in the social sciences and humanities is a response to Micheal Burawoy’s typology of knowledge production. The objective of this investigation is to identify and describe the social organisation of the meaning of research as scholars attempt to reach different audiences and as their investigations are routed towards particular cognitive aims. Having conducted twenty-five in-depth interviews with historians, sociologists and economists, we analysed their interpretations of research practices in relation to the social space of academia and in regards to the extension of academic activities towards other social spaces. This analysis is then mobilised to comment on Michael Burawoy’s typology of research as we attempt to correct some of the distinctions he makes between professional, critical, policy and public knowledge. Notably, we suggest that these “types” should be broken down into multiple postures understood in relation to a segmentation of academic discursive fields and a differentiation of extra-academic modes of intervention. / Réalisé en association avec le Centre interuniversitaire de recherche sur la science et la technologie (CIRST).
27

Analyse lexicale, morphologique et syntaxique du Thaï en vue de la traduction automatique appliquée au domaine de l'administration publique

Kiattibutra-Anantalapochai, Raksi 13 September 2011 (has links) (PDF)
Cette recherche présente une méthode d'analyse micro-systémique des mots composés thaïs. Le but denotre étude est de trouver une réponse au questionnement suivant " existe-t- il une voie qui permette de traduireautomatiquement les mots thaïs vers le français avec un résultat parfait ? ". Ce travail est divisé en cinqchapitres. La première partie concerne une histoire brève de la traduction automatique dont celle du thaï. Lespoints de vue des autres travaux sont étudiés. Le deuxième chapitre présente les caractéristiques de la langue thaïe qui possède une forme d'écriture typique sans espacement et peut entrainer des difficultés en termes d'ambiguïté dans la traduction. Certaines divergences entre le thaï et le français sont soulignées à l'aide de la théorie micro-systémique du Centre Tesnière. Le troisième chapitre fait l'étude des mots composés thaïs en utilisant une méthode hybride de l'analyse morphosyntaxique et notre système à base de règles conformes à notre modèle d'analyse de données. Le quatrième chapitre met en évidence un contrôle modélisé des unités lexicales codées syntaxiquement et sémantiquement afin d'en définir des algorithmes efficaces. Le dernier chapitre conclut sur les résultats des nouveaux algorithmes par leur informatisation. Sont enfin énoncées les perspectives ouvertes par cette nouvelle recherche. Cette étude est présentée comme un travail fiable à l'élimination des ambiguïtés. Fondée sur une méthode hybride, elle nous a permis d'atteindre notre objectif et de trouver ainsi une voie efficace qui nous autorise à traduire automatiquement les mots thaïs vers le français. Le résultat place cet outil comme l'un des plus accessibles à la recherche internationale où le thaï et le français prennent leurs places de choix
28

Knowledge-based support for surgical workflow analysis and recognition / Assistance fondée sur les connaissances pour l'analyse et la reconnaissance du flux de travail chirurgical

Dergachyova, Olga 28 November 2017 (has links)
L'assistance informatique est devenue une partie indispensable pour la réalisation de procédures chirurgicales modernes. Le désir de créer une nouvelle génération de blocs opératoires intelligents a incité les chercheurs à explorer les problèmes de perception et de compréhension automatique de la situation chirurgicale. Dans ce contexte de prise de conscience de la situation, un domaine de recherche en plein essor adresse la reconnaissance automatique du flux chirurgical. De grands progrès ont été réalisés pour la reconnaissance des phases et des gestes chirurgicaux. Pourtant, il existe encore un vide entre ces deux niveaux de granularité dans la hiérarchie du processus chirurgical. Très peu de recherche se concentre sur les activités chirurgicales portant des informations sémantiques vitales pour la compréhension de la situation. Deux facteurs importants entravent la progression. Tout d'abord, la reconnaissance et la prédiction automatique des activités chirurgicales sont des tâches très difficiles en raison de la courte durée d'une activité, de leur grand nombre et d'un flux de travail très complexe et une large variabilité. Deuxièmement, une quantité très limitée de données cliniques ne fournit pas suffisamment d'informations pour un apprentissage réussi et une reconnaissance précise. À notre avis, avant de reconnaître les activités chirurgicales, une analyse soigneuse des éléments qui composent l'activité est nécessaire pour choisir les bons signaux et les capteurs qui faciliteront la reconnaissance. Nous avons utilisé une approche d'apprentissage profond pour évaluer l'impact de différents éléments sémantiques de l'activité sur sa reconnaissance. Grâce à une étude approfondie, nous avons déterminé un ensemble minimum d'éléments suffisants pour une reconnaissance précise. Les informations sur la structure anatomique et l'instrument chirurgical sont de première importance. Nous avons également abordé le problème de la carence en matière de données en proposant des méthodes de transfert de connaissances à partir d'autres domaines ou chirurgies. Les méthodes de ''word embedding'' et d'apprentissage par transfert ont été proposées. Ils ont démontré leur efficacité sur la tâche de prédiction d'activité suivante offrant une augmentation de précision de 22%. De plus, des observations pertinentes / Computer assistance became indispensable part of modern surgical procedures. Desire of creating new generation of intelligent operating rooms incited researchers to explore problems of automatic perception and understanding of surgical situations. Situation awareness includes automatic recognition of surgical workflow. A great progress was achieved in recognition of surgical phases and gestures. Yet, there is still a blank between these two granularity levels in the hierarchy of surgical process. Very few research is focused on surgical activities carrying important semantic information vital for situation understanding. Two important factors impede the progress. First, automatic recognition and prediction of surgical activities is a highly challenging task due to short duration of activities, their great number and a very complex workflow with multitude of possible execution and sequencing ways. Secondly, very limited amount of clinical data provides not enough information for successful learning and accurate recognition. In our opinion, before recognizing surgical activities a careful analysis of elements that compose activity is necessary in order to chose right signals and sensors that will facilitate recognition. We used a deep learning approach to assess the impact of different semantic elements of activity on its recognition. Through an in-depth study we determined a minimal set of elements sufficient for an accurate recognition. Information about operated anatomical structure and surgical instrument was shown to be the most important. We also addressed the problem of data deficiency proposing methods for transfer of knowledge from other domains or surgeries. The methods of word embedding and transfer learning were proposed. They demonstrated their effectiveness on the task of next activity prediction offering 22% increase in accuracy. In addition, pertinent observations about the surgical practice were made during the study. In this work, we also addressed the problem of insufficient and improper validation of recognition methods. We proposed new validation metrics and approaches for assessing the performance that connect methods to targeted applications and better characterize capacities of the method. The work described in this these aims at clearing obstacles blocking the progress of the domain and proposes a new perspective on the problem of surgical workflow recognition.
29

3D urban cartography incorporating recognition and temporal integration / Cartographie urbaine 3D avec reconnaissance et intégration temporelle

Aijazi, Ahmad Kamal 15 December 2014 (has links)
Au cours des dernières années, la cartographie urbaine 3D a suscité un intérêt croissant pour répondre à la demande d’applications d’analyse des scènes urbaines tournées vers un large public. Conjointement les techniques d’acquisition de données 3D progressaient. Les travaux concernant la modélisation et la visualisation 3D des villes se sont donc intensifiés. Des applications fournissent au plus grand nombre des visualisations efficaces de modèles urbains à grande échelle sur la base des imageries aérienne et satellitaire. Naturellement, la demande s’est portée vers des représentations avec un point de vue terrestre pour offrir une visualisation 3D plus détaillée et plus réaliste. Intégrées dans plusieurs navigateurs géographiques comme Google Street View, Microsoft Visual Earth ou Géoportail, ces modélisations sont désormais accessibles et offrent une représentation réaliste du terrain, créée à partir des numérisateurs mobiles terrestres. Dans des environnements urbains, la qualité des données obtenues à partir de ces véhicules terrestres hybrides est largement entravée par la présence d’objets temporairement statiques ou dynamiques (piétons, voitures, etc.) dans la scène. La mise à jour de la cartographie urbaine via la détection des modifications et le traitement des données bruitées dans les environnements urbains complexes, l’appariement des nuages de points au cours de passages successifs, voire la gestion des grandes variations d’aspect de la scène dues aux conditions environnementales constituent d’autres problèmes délicats associés à cette thématique. Plus récemment, les tâches de perception s’efforcent également de mener une analyse sémantique de l’environnement urbain pour renforcer les applications intégrant des cartes urbaines 3D. Dans cette thèse, nous présentons un travail supportant le passage à l’échelle pour la cartographie 3D urbaine automatique incorporant la reconnaissance et l’intégration temporelle. Nous présentons en détail les pratiques actuelles du domaine ainsi que les différentes méthodes, les applications, les technologies récentes d’acquisition des données et de cartographie, ainsi que les différents problèmes et les défis qui leur sont associés. Le travail présenté se confronte à ces nombreux défis mais principalement à la classification des zones urbaines l’environnement, à la détection automatique des changements, à la mise à jour efficace de la carte et l’analyse sémantique de l’environnement urbain. Dans la méthode proposée, nous effectuons d’abord la classification de l’environnement urbain en éléments permanents et temporaires. Les objets classés comme temporaire sont ensuite retirés du nuage de points 3D laissant une zone perforée dans le nuage de points 3D. Ces zones perforées ainsi que d’autres imperfections sont ensuite analysées et progressivement éliminées par une mise à jour incrémentale exploitant le concept de multiples passages. Nous montrons que la méthode d’intégration temporelle proposée permet également d’améliorer l’analyse sémantique de l’environnement urbain, notamment les façades des bâtiments. Les résultats, évalués sur des données réelles en utilisant différentes métriques, démontrent non seulement que la cartographie 3D résultante est précise et bien mise à jour, qu’elle ne contient que les caractéristiques permanentes exactes et sans imperfections, mais aussi que la méthode est également adaptée pour opérer sur des scènes urbaines de grande taille. La méthode est adaptée pour des applications liées à la modélisation et la cartographie du paysage urbain nécessitant une mise à jour fréquente de la base de données. / Over the years, 3D urban cartography has gained widespread interest and importance in the scientific community due to an ever increasing demand for urban landscape analysis for different popular applications, coupled with advances in 3D data acquisition technology. As a result, in the last few years, work on the 3D modeling and visualization of cities has intensified. Lately, applications have been very successful in delivering effective visualizations of large scale models based on aerial and satellite imagery to a broad audience. This has created a demand for ground based models as the next logical step to offer 3D visualizations of cities. Integrated in several geographical navigators, like Google Street View, Microsoft Visual Earth or Geoportail, several such models are accessible to large public who enthusiastically view the real-like representation of the terrain, created by mobile terrestrial image acquisition techniques. However, in urban environments, the quality of data acquired by these hybrid terrestrial vehicles is widely hampered by the presence of temporary stationary and dynamic objects (pedestrians, cars, etc.) in the scene. Other associated problems include efficient update of the urban cartography, effective change detection in the urban environment and issues like processing noisy data in the cluttered urban environment, matching / registration of point clouds in successive passages, and wide variations in environmental conditions, etc. Another aspect that has attracted a lot of attention recently is the semantic analysis of the urban environment to enrich semantically 3D mapping of urban cities, necessary for various perception tasks and modern applications. In this thesis, we present a scalable framework for automatic 3D urban cartography which incorporates recognition and temporal integration. We present in details the current practices in the domain along with the different methods, applications, recent data acquisition and mapping technologies as well as the different problems and challenges associated with them. The work presented addresses many of these challenges mainly pertaining to classification of urban environment, automatic change detection, efficient updating of 3D urban cartography and semantic analysis of the urban environment. In the proposed method, we first classify the urban environment into permanent and temporary classes. The objects classified as temporary are then removed from the 3D point cloud leaving behind a perforated 3D point cloud of the urban environment. These perforations along with other imperfections are then analyzed and progressively removed by incremental updating exploiting the concept of multiple passages. We also show that the proposed method of temporal integration also helps in improved semantic analysis of the urban environment, specially building façades. The proposed methods ensure that the resulting 3D cartography contains only the exact, accurate and well updated permanent features of the urban environment. These methods are validated on real data obtained from different sources in different environments. The results not only demonstrate the efficiency, scalability and technical strength of the method but also that it is ideally suited for applications pertaining to urban landscape modeling and cartography requiring frequent database updating.
30

Analyse lexicale, morphologique et syntaxique du Thaï en vue de la traduction automatique appliquée au domaine de l'administration publique / The lexical morpho-syntactic analysis of Thai machine translation applied to the domain of public adminstration

Kiattibutra-Anantalapochai, Raksi 13 September 2011 (has links)
Cette recherche présente une méthode d'analyse micro-systémique des mots composés thaïs. Le but denotre étude est de trouver une réponse au questionnement suivant « existe-t- il une voie qui permette de traduireautomatiquement les mots thaïs vers le français avec un résultat parfait ? ». Ce travail est divisé en cinqchapitres. La première partie concerne une histoire brève de la traduction automatique dont celle du thaï. Lespoints de vue des autres travaux sont étudiés. Le deuxième chapitre présente les caractéristiques de la langue thaïe qui possède une forme d’écriture typique sans espacement et peut entrainer des difficultés en termes d’ambiguïté dans la traduction. Certaines divergences entre le thaï et le français sont soulignées à l’aide de la théorie micro-systémique du Centre Tesnière. Le troisième chapitre fait l’étude des mots composés thaïs en utilisant une méthode hybride de l’analyse morphosyntaxique et notre système à base de règles conformes à notre modèle d'analyse de données. Le quatrième chapitre met en évidence un contrôle modélisé des unités lexicales codées syntaxiquement et sémantiquement afin d’en définir des algorithmes efficaces. Le dernier chapitre conclut sur les résultats des nouveaux algorithmes par leur informatisation. Sont enfin énoncées les perspectives ouvertes par cette nouvelle recherche. Cette étude est présentée comme un travail fiable à l’élimination des ambiguïtés. Fondée sur une méthode hybride, elle nous a permis d’atteindre notre objectif et de trouver ainsi une voie efficace qui nous autorise à traduire automatiquement les mots thaïs vers le français. Le résultat place cet outil comme l’un des plus accessibles à la recherche internationale où le thaï et le français prennent leurs places de choix / This thesis presents a method of Micro-Systemic Linguistic Analysis of Thai compound words. The aim of our study is to find out: “Is there any method which allows us to translate Thai words into French automatically with a perfect result?” Our work is divided into five chapters as follows : The first chapter concerns a brief a history of machine translation including that of the Thai. Some notable points of view are discussed. The second chapter identifies some essential characteristics of the Thai language such as a non-space writing style resulted in ambiguity in machine translation. Different entities between Thai and French languages are underlined by means of the micro-systematic theory of the Centre Tesnière. The third chapter analyses Thai compound words using a hybrid method involving morpho-syntactic parsing and a rule-based system corresponding to our model of data analysis. The fourth chapter employs a technique of lexical-syntactic and semantic control enabling the definition of efficient algorithms. The final chapter concludes our work with some future perspectives. This study is presented as a reliable approach which enhances the elimination of word ambiguities in machine translation. This hybrid method allows us to reach our objective and to find an effective way to translate Thai to French automatically. The result could be an accessible tool for international research in the Thai and French languages

Page generated in 0.0687 seconds