• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 16
  • 3
  • Tagged with
  • 48
  • 48
  • 18
  • 18
  • 16
  • 12
  • 9
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Effet de la maladie de Parkinson sur la conduite automobile : Implication des fonctions exécutives / Effect of Parkinson ‘s disease on driving- Implication of executive functions

Ranchet, Maud 30 November 2011 (has links)
L’objectif de cette thèse était d’étudier les fonctions exécutives dans la maladie de Parkinson et leurs implications dans la conduite automobile. Nous avons mesuré séparément les fonctions de flexibilité mentale et de mise à jour par des tests neuropsychologiques et des tâches sur simulateur de conduite. Nous avons fait l’hypothèse que ces fonctions étaient plus altérées chez les patients et que leurs déficits influençaient la performance de conduite. Trois études ont été réalisées : les deux premières sur simulateur et la dernière sur route avec un véhicule instrumenté. Les résultats de la première étude ont montré un déficit de la fonction de mise à jour chez les patients par rapport aux contrôles. La deuxième étude consistait à tester une seconde fois les conducteurs deux ans après la première étude. En deux ans, la fonction de flexibilité s’est dégradée chez les patients, suggérant que les deux fonctions étudiées ont évolué différemment : la mise à jour étant atteinte plus précocement dans la maladie. Les patients déclaraient également avoir restreint leur conduite. Les résultats de la troisième étude sur route ont permis d’identifier les conducteurs parkinsoniens à « risque » d'être dangereux, i.e. ceux ayant le plus de difficultés en conduite (évaluation conjointe de l’expérimentateur et du moniteur d’auto-école). Les conducteurs à « risque » avaient des performances plus faibles aux tests de mise à jour et de flexiblité par rapport aux conducteurs parkinsoniens sécuritaires. L’ensemble de ces travaux mettent en évidence le rôle essentiel de la mise à jour et de la flexibilité mentale dans la conduite automobile chez des personnes atteintes de la maladie de Parkinson. / The objective of this thesis was to investigate executive functions in Parkinson’s disease and their implications on driving. We have chosen to separately assess mental flexibility and updating information in working memory by neuropsychological tests and driving simulator tasks. We tested the hypothesis that these two executive functions were impaired in patients and that their deficits influenced the driving performance. Three studies were realised: the first two used the driving simulator and the last was performed on-road with an instrumented vehicle. Results of the first study have shown an updating impairment in patients compared to controls. The second study consisted of assessing the drivers a second time two years after the first study. In two years, the flexibility function declined in patients, suggesting that the two selected functions did not change in a similar way: updating is affected earlier in the disease than mental flexibility. Also, patients declared to have restricted their driving. Results of the third on-road study allowed us to identify “at-risk” drivers with Parkinson’s disease, that is to say those having the most driving difficulties (assessment from both experimenter and a driving instructor). At-risk drivers had poorer performances in updating and flexibility tasks compared to “safe” drivers. All of these studies emphasised the essential role of updating and mental flexibility in driving in people with Parkinson’s disease.
22

Les grammaires attribuées pour la conception et l'assemblage de langages dédiés

Fotsing, Bernard 21 December 2010 (has links) (PDF)
La Programmation Orientée Langage est un paradigme de programmation qui tente, par la technique de méta-programmation, de changer les habitudes des développeurs de systèmes informatiques en leur permettant de "travailler en termes de concepts et notions du problème à résoudre, au lieu d'être toujours obligés de traduire leurs idées aux notions qu'un langage généraliste est capable de comprendre" (Ward et Sergey). Le développement de logiciels passe de ce fait par la conception de langages dédiés : on définit un ou plusieurs langages qui capturent les caractéristiques du domaine étudié, puis on écrit les applications visées en utilisant ces langages. Dans cette thèse, nous proposons une démarche méthodologique de développement logiciel reposant sur ce concept. Il s'agit de conduire la même démarche méthodologique au niveau des langages que ce qui est classiquement fait au niveau des composants logiciels. En l'occurrence, nous utilisons le formalisme des grammaires attribuées pour tenter de répondre à la question suivante : comment peut-on créer de nouveaux langages par composition de langages réutilisables existants ? Nous tirons profit de leur traduction en algèbres de combinateurs fonctionnels pour définir des spécifications exécutables de langages dédiés (vus comme composants logiciels), plongés dans le langage fonctionnel pur Haskell. \' partir d'exemples significatifs d'extension et de réutilisation de langages dédiés (par stratification de ceux-ci, ou par changement de monade), nous proposons un typage de langages dédiés en vue de leur assemblage et leur réutilisation. Pour illustrer cette démarche, nous décrivons un langage dédié (bibliothèque de combinateurs) pour l'édition de documents structurés. Un document y est représenté par un zipper attribué, une structure arborescente localisable, représentant un arbre et son contexte, et caractérisée par une grammaire attribuée. L'édition consiste alors à la modification interactive de cette structure ; ce qui entraîne une réévaluation totale ou partielle des attributs. L'édition peut aussi être réalisée à travers une vue abstraite obtenue par projection de la structure concrète. Ce qui pose le problème de \textit, un problème familier de la communauté des bases de données, auquel nous donnons une solution grâce à nos combinateurs d'éditeurs.
23

Mises à jour de réseaux d'automates

Noual, Mathilde 22 June 2012 (has links) (PDF)
Cette thèse s'intéresse aux évènements et aux ordonnancements d'évènements se produisant au sein de réseaux d'éléments conceptuels prédéterminés. Dans ces réseaux, les éléments, appelés plutôt "automates", s'incitent les uns les autres à changer d'état en accord avec des règles prédéfinies qui, précisément, définissent le (fonctionnement du) réseau. Lorsqu'un automate se conforme effectivement aux influences qu'il reçoit de la part des autres, on dit que son état est mis à jour. Les évènements élémentaires considérés sont les changements d'états des automates. Définir un mode de mise à jour pour l'ensemble des automates d'un réseau permet de sélectionner certains évènements parmi l'ensemble de ceux qui sont a priori possibles. Cela permet aussi d'organiser et d'ordonner les évènements les uns par rapport aux autres de façon, par exemple, à imposer que des évènements indépendants se produisent simultanément ou simplement, de manière assez rapprochée pour qu'aucun autre événement ne puisse se produire pendant leur occurrence. Informellement, les modes de mise à jour peuvent donc être interprétés comme l'expression d'influences extérieures au réseau interdisant certains changements, ou alors comme la formalisation d'une version relâchée et relative de l'écoulement de temps. Cette thèse propose d'étudier leur influence sur le comportement des réseaux. Et afin de distinguer cette influence de celle de la structure des réseaux, elle commence par mettre en évidence le rôle de certains motifs structurels. Après ça, elle s'intéresse en particulier à l'information "encodée" dans une séquence de mises à jour et à l'impact du synchronisme dans celles-ci.
24

Evaluation et développement d'un modèle de la mémoire épisodique reposant sur un processus de mise à jour égocentrée / Assessment and development of an episodic memory model based on the egocentric updating with self-motion process

Cerles, Mélanie 27 April 2015 (has links)
La mémoire épisodique donne la capacité de voyager mentalement dans son propre passé. En cela,elle permet de faire fi du temps qui passe pour pouvoir revivre des événements passés. Ce travail dethèse évalue l’hypothèse selon laquelle la mémoire épisodique et la sensation de revivre un événementpassé (i.e., conscience autonoëtique) sont basées sur une fluence dans la reconstruction de l’épisode,reconstruction impliquant une mise à jour égocentrée. Cette proposition est développée dans le modèlede Gomez et collaborateurs (Gomez, Rousset & Baciu, 2009) qui propose que la mise à jourégocentrée permette de ré-instancier un point de vue spatialisé égocentré sur l’évènement remémoré.Ce travail de thèse a amené de nouveaux arguments en faveur de ce modèle, en évaluant à la foisl’approche attributionnelle de la mémoire épisodique et le lien fonctionnel entre la mise à jourégocentrée en ligne et la mémoire épisodique. Une première série d’études met en évidence uneinfluence de la fluence du processus de mise à jour égocentrée sur la conscience autonoëtique.L’augmentation artificielle de la fluence de mise à jour égocentrée, lors de la reconnaissance,augmente le sentiment de conscience autonoëtique et ce uniquement lorsque la reconnaissanceimplique une reconstruction. Une seconde série d’études permet de mettre en évidence un effetd’interférence du processus de mise à jour égocentrée en ligne sur la récupération épisodique.Actualiser sa position dans l’espace lors d’un déplacement a beau être un processus automatique, celaralentit spécifiquement le rappel de source. Enfin, une étude impliquant des patients atteints de lamaladie d’Alzheimer, met en évidence une dissociation entre les compétences en mise à jourégocentrée chez ces patients. Ces résultats sont discutés dans le cadre du modèle de Gomez etcollaborateurs et en regard d’une conception incarnée et située de la cognition. / Episodic memory makes it possible to mentally travel back in our own past; it breaks the law of theunidirectionality of time, and allows us to mentally relive past events. The main goal of this work wasto investigate whether episodic memory and the subjective feeling of reliving a past event (i.e.,autonoetic consciousness) arise from the fluency of the reconstruction process of the event. Thisreconstruction would involve the process of egocentric spatial updating with self-motion. Thishypothesis was first developed in Gomez and colleagues' model (Gomez, Rousset, & Baciu, 2009) thatsuggests that egocentric updating re-instances an egocentric spatial point of view on the rememberedevent. The present work brings additional behavioral evidences to this model by assessing both theconception of attributional episodic memory and the functional link between online egocentricupdating with self-motion and episodic memory. A first set of studies showed that enhancingartificially the fluency of the egocentric updating process, during the recognition phase, increasedautonoetic consciousness. Moreover, such phenomenon only happened when recognition involved areconstruction process. A second set of studies showed that performing an online egocentric updatingwith self-motion interfered with remembering. Although the updating of its own position though selfmotionis automatic, it specifically slows down source recall. Finally, a last study showed adissociation between preservations of and deficits of egocentric spatial updating abilities in patientssuffering from Alzheimer's disease. The results of these studies are discussed in the context of Gomezand colleagues' model, and in terms of embodied and situated cognition.
25

Evaluation et développement d'un modèle de la mémoire épisodique reposant sur un processus de mise à jour égocentrée / Assessment and development of an episodic memory model based on the egocentric updating with self-motion process

Cerles, Mélanie 27 April 2015 (has links)
La mémoire épisodique donne la capacité de voyager mentalement dans son propre passé. En cela,elle permet de faire fi du temps qui passe pour pouvoir revivre des événements passés. Ce travail dethèse évalue l’hypothèse selon laquelle la mémoire épisodique et la sensation de revivre un événementpassé (i.e., conscience autonoëtique) sont basées sur une fluence dans la reconstruction de l’épisode,reconstruction impliquant une mise à jour égocentrée. Cette proposition est développée dans le modèlede Gomez et collaborateurs (Gomez, Rousset & Baciu, 2009) qui propose que la mise à jourégocentrée permette de ré-instancier un point de vue spatialisé égocentré sur l’évènement remémoré.Ce travail de thèse a amené de nouveaux arguments en faveur de ce modèle, en évaluant à la foisl’approche attributionnelle de la mémoire épisodique et le lien fonctionnel entre la mise à jourégocentrée en ligne et la mémoire épisodique. Une première série d’études met en évidence uneinfluence de la fluence du processus de mise à jour égocentrée sur la conscience autonoëtique.L’augmentation artificielle de la fluence de mise à jour égocentrée, lors de la reconnaissance,augmente le sentiment de conscience autonoëtique et ce uniquement lorsque la reconnaissanceimplique une reconstruction. Une seconde série d’études permet de mettre en évidence un effetd’interférence du processus de mise à jour égocentrée en ligne sur la récupération épisodique.Actualiser sa position dans l’espace lors d’un déplacement a beau être un processus automatique, celaralentit spécifiquement le rappel de source. Enfin, une étude impliquant des patients atteints de lamaladie d’Alzheimer, met en évidence une dissociation entre les compétences en mise à jourégocentrée chez ces patients. Ces résultats sont discutés dans le cadre du modèle de Gomez etcollaborateurs et en regard d’une conception incarnée et située de la cognition. / Episodic memory makes it possible to mentally travel back in our own past; it breaks the law of theunidirectionality of time, and allows us to mentally relive past events. The main goal of this work wasto investigate whether episodic memory and the subjective feeling of reliving a past event (i.e.,autonoetic consciousness) arise from the fluency of the reconstruction process of the event. Thisreconstruction would involve the process of egocentric spatial updating with self-motion. Thishypothesis was first developed in Gomez and colleagues' model (Gomez, Rousset, & Baciu, 2009) thatsuggests that egocentric updating re-instances an egocentric spatial point of view on the rememberedevent. The present work brings additional behavioral evidences to this model by assessing both theconception of attributional episodic memory and the functional link between online egocentricupdating with self-motion and episodic memory. A first set of studies showed that enhancingartificially the fluency of the egocentric updating process, during the recognition phase, increasedautonoetic consciousness. Moreover, such phenomenon only happened when recognition involved areconstruction process. A second set of studies showed that performing an online egocentric updatingwith self-motion interfered with remembering. Although the updating of its own position though selfmotionis automatic, it specifically slows down source recall. Finally, a last study showed adissociation between preservations of and deficits of egocentric spatial updating abilities in patientssuffering from Alzheimer's disease. The results of these studies are discussed in the context of Gomezand colleagues' model, and in terms of embodied and situated cognition.
26

Système prototype pour le suivi des changements de l'occupation du sol en milieu urbain fondé sur les images du satellite RADARSAT-1

Fiset, Robert January 2005 (has links)
No description available.
27

Mise à jour d’une base de données d’occupation du sol à grande échelle en milieux naturels à partir d’une image satellite THR / Updating large-scale land-use database on natural environments from a VHR satellite image

Gressin, Adrien 12 December 2014 (has links)
Les base de données (BD) d'Occupation du Sol (OCS) sont d'une grande utilité, dans divers domaines. Les utilisateurs recherchent des niveaux de détails tant géométriques que sémantiques très fins. Ainsi, une telle BD d'OCS à Grande Échelle (OCS-GE) est en cours de constitution à l'IGN. Cependant, pour répondre aux besoins des utilisateurs, cette BD doit être mise à jour le plus régulièrement possible, avec une notion de millésime. Ainsi, des méthodes automatiques de mise à jour doivent être mises en place, afin de traiter rapidement des zones étendues. Par ailleurs, les satellites d'observation de la terre ont fait leurs preuves dans l'aide à la constitution de BD d'OCS à des échelles comparables à celle de CLC. Avec l'arrivée de nouveaux capteurs THR, comme celle du satellite Pléiades, la question de la pertinence de ces images pour la mise à jour de BD d'OCS-GE se pose naturellement. Ainsi, l'objet de cette thèse est de développer une méthode automatique de mise à jour de BDs d'OCS-GE, à partir d'une image satellite THR monoscopique (afin de réduire les coûts d'acquisition), tout en garantissant la robustesse des changements détectés. Le cœur de la méthode est un algorithme d'apprentissage supervisés multi-niveaux appelé MLMOL, qui permet de prendre en compte au mieux les apparences, éventuellement multiples, de chaque thème de la BD. Cet algorithme, complètement indépendant du choix du classifieur et des attributs extraits de l'image, peut être appliqué sur des jeux de données très variés. De plus, la multiplication de classifications permet d'améliorer la robustesse de la méthode, en particulier sur des thèmes ayant des apparences multiples (e,g,. champs labourés ou non, bâtiments de type maison ou hangar industriel, ...). De plus, l'algorithme d'apprentissage est intégré dans une chaîne de traitements (LUPIN) capable, d'une part de s'adapter automatiquement aux différents thèmes de la BD pouvant exister et, d'autre part, d'être robuste à l'existence de thèmes in-homogènes. Par suite, la méthode est appliquée avec succès à une image Pléiades, sur une zone à proximité de Tarbes (65) couverte par la BD OCS-GE constituée par IGN. Les résultats obtenus montrent l'apport des images Pléiades tant en terme de résolution sub-métrique que de dynamique spectrale. D'autre part, la méthode proposée permet de fournir des indicateurs pertinents de changements sur la zone. Nous montrons par ailleurs que notre méthode peut fournir une aide précieuse à la constitution de BD d'OCS issues de la fusion de différentes BDs. En effet, notre méthode a la capacité de prise de décisions lorsque la fusion de BDs génère des zones de recouvrement, phénomène courant notamment lorsque les données proviennent de différentes sources, avec leur propre spécification. De plus, notre méthode permet également de compléter d'éventuels lacunes dans la zone de couverture de la BD générée, mais aussi d'étendre cette couverture sur l'emprise d'une image couvrant une étendue plus large. Enfin, la chaîne de traitements LUPIN est appliquée à différents jeux de données de télédétection afin de valider sa polyvalence et de juger de la pertinence de ces données. Les résultats montrent sa capacité d'adaptation aux données de différentes résolutions utilisées (Pléiades à 0,5m, SPOT 6 à 1,5m et RapidEye à 5m), ainsi que sa capacité à utiliser les points forts des différents capteurs, comme par exemple le canal red-edge de RapidEye pour la discrimination du thème forêts, le bon compromis de résolution que fournit SPOT 6 pour le thème zones bâties et l'apport de la THR de Pléiades pour discriminer des thèmes précis comme les routes ou les haies. / Land-Cover geospatial databases (LC-BDs) are mandatory inputs for various purposes such as for natural resources monitoring land planning, and public policies management. To improve this monitoring, users look for both better geometric, and better semantic levels of detail. To fulfill such requirements, a large-scale LC-DB is being established at the French National Mapping Agency (IGN). However, to meet the users needs, this DB must be updated as regularly as possible while keeping the initial accuracies. Consequently, automatic updating methods should be set up in order to allow such large-scale computation. Furthermore, Earth observation satellites have been successfully used to the constitution of LC-DB at various scales such as Corine Land Cover (CLC). Nowadays, very high resolution (VHR) sensors, such as Pléiades satellite, allow to product large-scale LC-DB. Consequently, the purpose of this thesis is to propose an automatic updating method of such large-scale LC-DB from VHR monoscopic satellite image (to limit acquisition costs) while ensuring the robustness of the detected changes. Our proposed method is based on a multilevel supervised learning algorithm MLMOL, which allows to best take into account the possibly multiple appearances of each DB classes. This algorithm can be applied to various images and DB data sets, independently of the classifier, and the attributes extracted from the input image. Moreover, the classifications stacking improves the robustness of the method, especially on classes having multiple appearances (e.g., plowed or not plowed fields, stand-alone houses or industrial warehouse buildings, ...). In addition, the learning algorithm is integrated into a processing chain (LUPIN) allowing, first to automatically fit to the different existing DB themes and, secondly, to be robust to in-homogeneous areas. As a result, the method is successfully applied to a Pleiades image on an area near Tarbes (southern France) covered by the IGN large-scale LC-DB. Results show the contribution of Pleiades images (in terms of sub-meter resolution and spectral dynamics). Indeed, thanks to the texture and shape attributes (morphological profiles, SFS, ...), VHR satellite images give good classification results, even on classes such as roads, and buildings that usually require specific methods. Moreover, the proposed method provides relevant change indicators in the area. In addition, our method provides a significant support for the creation of LC-DB obtain by merging several existing DBs. Indeed, our method allows to take a decision when the fusion of initials DBs generates overlapping areas, particularly when such DBs come from different sources with their own specification. In addition, our method allows to fill potential gaps in the coverage of such generating DB, but also to extend the data to the coverage of a larger image. Finally, the proposed workflow is applied to different remote sensing data sets in order to assess its versatility and the relevance of such data. Results show that our method is able to deal with such different spatial resolutions data sets (Pléiades at 0.5 m, SPOT 6 at 1.5 m and RapidEye at 5 m), and to take into account the strengths of each sensor, e.g., the RapidEye red-edge channel for discrimination theme forest, the good balance of the SPOT~6 resolution for built-up areas classes and the capability of VHR of Pléiades images to discriminate objects of small spatial extent such as roads or hedge.
28

Mise à jour de la Base de Données Topographiques du Québec à l'aide d'images à très haute résolution spatiale et du progiciel Sigma0 : le cas des voies de communication

Bélanger, Jean 12 1900 (has links)
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus. / In order to optimize and reduce the cost of road map updating, the Ministry of Natural Resources and Wildlife is considering exploiting high definition color aerial photography within a global automatic detection process. In that regard, Montreal based SYNETIX Inc, teamed with the University of Montreal Remote Sensing Laboratory (UMRSL) in the development of an application indented for the automatic detection of road networks on complex radiometric high definition imagery. This application named SIGMA-ROUTES is a derived module of a software called SIGMA0 earlier developed by the UMRSL for optic and radar imagery of 5 to 10 meter resolution. SIGMA-ROUTES road detections relies on a map guided filtering process that enables the filter to be driven along previously known road vectors and tagged them as intact, suspect or lost depending on the filtering responses. As for the new segments updating, the process first implies a detection of potential starting points for new roads within the filtering corridor of previously known road to which they should be connected. In that respect, it is a very challenging task to emulate the human visual filtering process and further distinguish potential starting points of new roads on complex radiometric high definition imagery. In this research, we intend to evaluate the application’s efficiency in terms of total linear distances of detected roads as well as the spatial location of inconsistencies on a 2.8 km2 test site containing 40 km of various road categories in a semi-urban environment. As specific objectives, we first intend to establish the impact of different resolutions of the input imagery and secondly establish the potential gains of enhanced images (segmented and others) in a preemptive approach of better matching the image property with the detection parameters. These results have been compared to a ground truth reference obtained by a conventional visual detection process on the bases of total linear distances and spatial location of detection. The best results with the most efficient combination of resolution and pre-processing have shown a 78% intact detection in accordance to the ground truth reference when applied to a segmented resample image. The impact of image resolution is clearly noted as a change from 84 cm to 210 cm resolution altered the total detected distances of intact roads of around 15%. We also found many roads segments ignored by the process and without detection status although they were directly liked to intact neighbours. By revising the algorithm and optimizing the image pre-processing, we estimate a 90% intact detection performance can be reached. The new segment detection is non conclusive as it generates an uncontrolled networks of false detections throughout other entities in the images. Related to these false detections of new roads, we were able to identify numerous cases of new road detections parallel to previously assigned intact road segments. We conclude with a proposed procedure that involves enhanced images as input combined with human interventions at critical level in order to optimize the final product.
29

Changement de croyances dans des fragments de la logique propositionnelle / Belief change within fragments of propositional logic

Ktari, Raïda 27 May 2016 (has links)
Cette thèse s'inscrit dans le domaine de la représentation des connaissances et du raisonnement en Intelligence Artificielle. Elle traite divers aspects du changement de croyances dans le cadre de fragments de la logique propositionnelle.Dans un premier temps, nous nous intéressons à la complexité du problème de vérification de modèle pour des opérateurs de révision de bases de croyances dans le cadre général de la logique propositionnelle et dans le cadre restreint des formules de Horn et des formules de Krom.Notre contribution principale porte ensuite sur le raffinement des opérateurs de changement de croyances afin que ceux-ci opèrent dans des fragments de la logique propositionnelle. Nous examinons en particulier les opérations de révision, de mise-à-jour et de contraction. Cette approche permet, dans chacun des cas, d'obtenir des opérateurs concrets, dont nous étudions les propriétés logiques en terme de de satisfaction de postulats que doivent satisfaire les opérateurs de changement de croyances rationnels. Divers fragments de la logique propositionnelle sont considérés, notamment les fragment de Horn et de Krom. / This thesis takes place in the field of knowledge representation and reasoning in Artificial Intelligence.It deals with various issues of belief change within fragments of propositional logic.First we focus on the complexity of model-checking for different revision operators within the general framework of propositional logic and within the framework of Horn and Krom fragments.Second, our main contribution is the study of the refinement of belief change operators in such a way that they act within fragments of propositional logic. In particular, we address refinement of revision, update and contraction operators. In each case this approach allows us to define concrete operators, for which we study logical properties in terms of satisfaction of postulates that should hold for any rational belief change operator. Various propositional fragments of propositional logic are considered, such as Horn and Krom fragments.
30

Etude des codes en graphes pour le stockage de données / Study of Sparse-Graph for Distributed Storage Systems

Jule, Alan 07 March 2014 (has links)
Depuis deux décennies, la révolution technologique est avant tout numérique entrainant une forte croissance de la quantité de données à stocker. Le rythme de cette croissance est trop importante pour les solutions de stockage matérielles, provoquant une augmentation du coût de l'octet. Il est donc nécessaire d'apporter une amélioration des solutions de stockage ce qui passera par une augmentation de la taille des réseaux et par la diminution des copies de sauvegarde dans les centres de stockage de données. L'objet de cette thèse est d'étudier l'utilisation des codes en graphe dans les réseaux de stockage de donnée. Nous proposons un nouvel algorithme combinant construction de codes en graphe et allocation des noeuds de ce code sur le réseau. Cet algorithme permet d'atteindre les hautes performances des codes MDS en termes de rapport entre le nombre de disques de parité et le nombre de défaillances simultanées pouvant être corrigées sans pertes (noté R). Il bénéficie également des propriétés de faible complexité des codes en graphe pour l'encodage et la reconstruction des données. De plus, nous présentons une étude des codes LDPC Spatiallement-Couplés permettant d'anticiper le comportement de leur décodage pour les applications de stockage de données.Il est généralement nécessaire de faire des compromis entre différents paramètres lors du choix du code correcteur d'effacement. Afin que ce choix se fasse avec un maximum de connaissances, nous avons réalisé deux études théoriques comparatives pour compléter l'état de l'art. La première étude s'intéresse à la complexité de la mise à jour des données dans un réseau dynamique établi et déterminons si les codes linéaires utilisés ont une complexité de mise à jour optimale. Dans notre seconde étude, nous nous sommes intéressés à l'impact sur la charge du réseau de la modification des paramètres du code correcteur utilisé. Cette opération peut être réalisée lors d'un changement du statut du fichier (passage d'un caractère hot à cold par exemple) ou lors de la modification de la taille du réseau. L'ensemble de ces études, associé au nouvel algorithme de construction et d'allocation des codes en graphe, pourrait mener à la construction de réseaux de stockage dynamiques, flexibles avec des algorithmes d'encodage et de décodage peu complexes. / For two decades, the numerical revolution has been amplified. The spread of digital solutions associated with the improvement of the quality of these products tends to create a growth of the amount of data stored. The cost per Byte reveals that the evolution of hardware storage solutions cannot follow this expansion. Therefore, data storage solutions need deep improvement. This is feasible by increasing the storage network size and by reducing data duplication in the data center. In this thesis, we introduce a new algorithm that combines sparse graph code construction and node allocation. This algorithm may achieve the highest performance of MDS codes in terms of the ratio R between the number of parity disks and the number of failures that can be simultaneously reconstructed. In addition, encoding and decoding with sparse graph codes helps lower the complexity. By this algorithm, we allow to generalize coding in the data center, in order to reduce the amount of copies of original data. We also study Spatially-Coupled LDPC (SC-LDPC) codes which are known to have optimal asymptotic performance over the binary erasure channel, to anticipate the behavior of these codes decoding for distributed storage applications. It is usually necessary to compromise between different parameters for a distributed storage system. To complete the state of the art, we include two theoretical studies. The first study deals with the computation complexity of data update and we determine whether linear code used for data storage are update efficient or not. In the second study, we examine the impact on the network load when the code parameters are changed. This can be done when the file status changes (from a hot status to a cold status for example) or when the size of the network is modified by adding disks. All these studies, combined with the new algorithm for sparse graph codes, could lead to the construction of new flexible and dynamical networks with low encoding and decoding complexities.

Page generated in 0.0271 seconds