Spelling suggestions: "subject:"disision para ordinateur)"" "subject:"decisision para ordinateur)""
401 |
Une approche computationnelle de la complexité linguistique par le traitement automatique du langage naturel et l'oculométrieLoignon, Guillaume 05 1900 (has links)
Le manque d'intégration des sciences cognitives et de la psychométrie est régulièrement déploré – et ignoré. En mesure et évaluation de la lecture, une manifestation de ce problème est l’évitement théorique concernant les sources de difficulté linguistiques et les processus cognitifs associés à la compréhension de texte. Pour faciliter le rapprochement souhaité entre sciences cognitives et psychométrie, nous proposons d’adopter une approche computationnelle. En considérant les procédures informatiques comme des représentations simplifiées et partielles de théories cognitivistes, une approche computationnelle facilite l’intégration d’éléments théoriques en psychométrie, ainsi que l’élaboration de théories en psychologie cognitive. La présente thèse étudie la contribution d’une approche computationnelle à la mesure de deux facettes de la complexité linguistique, abordées à travers des perspectives complémentaires. La complexité intrinsèque du texte est abordée du point de vue du traitement automatique du langage naturel, avec pour objectif d'identifier et de mesurer les attributs (caractéristiques mesurables) qui modélisent le mieux la difficulté du texte. L'article 1 présente ALSI (pour Analyseur Lexico-syntaxique intégré), un nouvel outil de traitement automatisé du langage naturel qui extrait une variété d'attributs linguistiques, principalement issus de la recherche en psycholinguistique et en linguistique computationnelle. Nous évaluons ensuite le potentiel des attributs pour estimer la difficulté du texte. L'article 2 emploie ALSI et des méthodes d’apprentissage statistique pour estimer la difficulté de textes scolaires québécois. Dans le second volet de la thèse, la complexité associée aux processus de lecture est abordée sous l'angle de l'oculométrie, qui permet de faire des inférences quant à la charge cognitive et aux stratégies d’allocation de l’attention visuelle en lecture. L'article 3 décrit une méthodologie d'analyse des enregistrements d’oculométrie mobile à l'aide de techniques de vision par ordinateur (une branche de l'intelligence artificielle); cette méthodologie est ensuite testée sur des données de simulation. L'article 4 déploie la même méthodologie dans le cadre d’une expérience pilote d’oculométrie comparant les processus de lecture de novices et d'experts répondant à un test de compréhension du texte argumentatif. Dans l’ensemble, nos travaux montrent qu’il est possible d’obtenir des résultats probants en combinant des apports théoriques à une approche computationnelle mobilisant des techniques d’apprentissage statistique. Les outils créés ou perfectionnés dans le cadre de cette thèse constituent une avancée significative dans le développement des technologies numériques en mesure et évaluation de la lecture, avec des retombées à anticiper en contexte scolaire comme en recherche. / The lack of integration of cognitive science and psychometrics is commonly deplored - and ignored. In the assessment of reading, one manifestation of this problem is a theoretical avoidance regarding sources of text difficulty and cognitive processes underlying text comprehension. To facilitate the desired integration of cognitive science and psychometrics, we adopt a computational approach. By considering computational procedures as simplified and partial representations of cognitivist models, a computational approach facilitates the integration of theoretical elements in psychometrics, as well as the development of theories in cognitive psychology. This thesis studies the contribution of a computational perspective to the measurement of two facets of linguistic complexity, using complementary perspectives. Intrinsic text complexity is approached from the perspective of natural language processing, with the goal of identifying and measuring text features that best model text difficulty. Paper 1 introduces ISLA (Integrated Lexico-Syntactic Analyzer), a new natural language processing tool that extracts a variety of linguistic features from French text, primarily taken from research in psycholinguistics and computational linguistics. We then evaluate the features’ potential to estimate text difficulty. Paper 2 uses ISLA and statistical learning methods to estimate difficulty of texts used in primary and secondary education in Quebec. In the second part of the thesis, complexity associated with reading processes is addressed using eye-tracking, which allows inferences to be made about cognitive load and visual attention allocation strategies in reading. Paper 3 describes a methodology for analyzing mobile eye-tracking recordings using computer vision techniques (a branch of artificial intelligence); this methodology is then tested on simulated data. Paper 4 deploys the same methodology in the context of an eye-tracking pilot experiment comparing reading processes in novices and experts during an argumentative text comprehension test. Overall, our work demonstrates that it is possible to obtain convincing results by combining theoretical contributions with a computational approach using statistical learning techniques. The tools created or perfected in the context of this thesis constitute a significant advance in the development of digital technologies for the measurement and evaluation of reading, with easy-to-identify applications in both academic and research contexts.
|
402 |
Cartographier l’envahisseur : télédétection précoce du roseau commun (Phragmites australis) à l’aide des drones et de l’intelligence artificielleCaron-Guay, Antoine 04 1900 (has links)
Combiner les drones et l’intelligence artificielle afin de cartographier la végétation représente une nouvelle approche prometteuse susceptible d’améliorer la détection des espèces végétales exotiques envahissantes (EVEE). La résolution au sol élevée atteignable avec les drones et les innovations récentes en vision par ordinateur, notamment avec les réseaux neuronaux convolutifs, laissent penser qu'une détection précoce des EVEE serait possible, favorisant ainsi leur gestion. Dans cette étude, nous avons évalué la pertinence de cette approche pour cartographier l’emplacement du roseau commun (Phragmites australis subsp. australis) à l’intérieur d'un parc national situé dans le sud du Québec, Canada. Nous avons collecté des données à six dates distinctes durant la saison de croissance, couvrant des environnements présentant différents niveaux d'envahissement par le roseau. De façon générale, la performance du modèle était élevée pour les différentes dates et zones, surtout au niveau du rappel (moyenne globale de 0.89). Les résultats ont montré une augmentation de la performance pour atteindre un sommet à la suite de l’apparition de l’inflorescence en septembre (F1-score le plus haut à 0.98). De plus, une diminution de la résolution spatiale affectait négativement le rappel (diminution de 18% entre une résolution au sol de 0,15 cm pixel-1 et 1,50 cm pixel-1), mais n’avait pas un impact important sur la précision (diminution de 2%). Malgré des défis associés à la cartographie du roseau commun dans un contexte de gestion post-traitement, l'utilisation de drones et de l'apprentissage profond montre un grand potentiel pour la détection des EVEE lorsque appuyé par un jeu de données adapté. Nos résultats montrent que, d'un point de vue opérationnel, cette approche pourrait être un outil efficace pour accélérer le travail des biologistes sur le terrain et assurer une meilleure gestion des EVEE. / The combination of unoccupied aerial vehicles (UAVs) and artificial intelligence to map vegetation represents a promising new approach to improve the detection of invasive alien plant species (IAPS). The high spatial resolution achievable with UAVs and recent innovations in computer vision, especially with convolutional neural networks, suggest that early detection of IAPS could be possible, thus facilitating their management. In this study, we evaluated the suitability of this approach for mapping the location of common reed (Phragmites australis subsp. australis) within a national park located in southern Quebec, Canada. We collected data on six distinct dates during the growing season, covering environments with different levels of reed invasion. Overall, model performance was high for the different dates and zones, especially for recall (mean of 0.89). The results showed an increase in performance, reaching a peak following the appearance of the inflorescence in September (highest F1-score at 0.98). Furthermore, a decrease in spatial resolution negatively affected recall (18% decrease between a spatial resolution of 0.15 cm pixel-1 and 1.50 cm pixel-1) but did not have a strong impact on precision (2% decrease). Despite challenges associated with common reed mapping in a post-treatment monitoring context, the use of UAVs and deep learning shows great potential for IAPS detection when supported by a suitable dataset. Our results show that, from an operational point of view, this approach could be an effective tool for speeding up the work of biologists in the field and ensuring better management of IAPS.
|
403 |
Méta-modèles de positionnement spatial pour la reconnaissance de tracés manuscritsDelaye, Adrien 09 December 2011 (has links) (PDF)
L'essor des interfaces homme-machine permettant la saisie d'informations à l'aide d'un stylo électronique est accompagné par le développement de méthodes automatiques pour interpréter des données de plus en plus riches et complexes : texte manuscrit, mais aussi expressions mathématiques, schémas, prise de notes libre... Pour interpréter efficacement ces documents manuscrits, il est nécessaire de considérer conjointement les formes des objets qui les constituent et leur positionnement spatial. Nos recherches se concentrent sur la modélisation du positionnement spatial entre des objets manuscrits, en partant du constat qu'il n'est pas exploité dans toute sa richesse par les méthodes actuelles. Nous introduisons le concept de méta-modèle spatial, une modélisation générique pour décrire des relations spatiales entre des objets de nature, complexité et formes variables. Ces modèles, qui peuvent être appris à partir de données, offrent une richesse et une précision inédite car ils autorisent la conduite d'un raisonnement spatial directement dans l'espace image. L'appui sur le cadre de la théorie des sous-ensembles flous et de la morphologie mathématique permet la gestion de l'imprécision et offre une description des relations spatiales conforme à l'intuition. Un méta-modèle est doté d'un pouvoir de prédiction qui permet de décrire la relation spatiale modélisée au sein de l'image, par rapport à un objet de référence. Cette capacité rend possible la visualisation des modèles et fournit un outil pour segmenter les tracés en fonction de leur contexte. En exploitant ces modèles, nous proposons une représentation pour des objets manuscrits à la structure complexe. Cette représentation repose uniquement sur la modélisation de leurs informations spatiales, afin de démontrer l'importance de ces informations pour l'interprétation d'objets manuscrits structurés. La segmentation des tracés en primitives structurelles est guidée par les modèles de positionnement, via leur capacité de prédiction. Les résultats expérimentaux, portant sur des objets de complexité et de natures diverses (caractères chinois, gestes d'édition, symboles mathématiques, lettres), confirment la bonne qualité de description du positionnement offerte par les méta-modèles. Les tests de reconnaissance de symboles par l'exploitation de leur information spatiale attestent d'une part de l'importance de cette information et valident d'autre part la capacité des méta-modèles à la représenter avec une grande précision. Ces résultats témoignent donc de la richesse de l'information spatiale et du potentiel des méta-modèles spatiaux pour l'amélioration des techniques de traitement du document manuscrit.
|
404 |
Ondelettes et Estimation de Mouvements de FluideDérian, Pierre 07 November 2012 (has links) (PDF)
Ces travaux se situent dans la problématique d'élaboration d'outils de mesure adaptés aux caractéristiques des écoulements fluides. Le développement de l'imagerie digitale, associée à l'utilisation de techniques de visualisation d'écoulements en mécanique des fluides, permet d'envisager l'extraction, à l'aide de méthodes de vision par ordinateur, du mouvement d'écoulements perçu dans des séquences d'images. L'objectif consiste ici à proposer une nouvelle approche de type " flux optique " pour l'estimation multiéchelle de mouvements de fluides, en s'appuyant sur une représentation en ondelettes du mouvement recherché. Cette formulation en ondelettes introduit un formalisme multiéchelle, intéressant tant du point de vue de l'estimation du flux optique que de la représentation de champs de vitesse turbulents. Elle permet en outre la construction de bases à divergence nulle, respectant ainsi une contrainte issue de la physique des fluides. Plusieurs types de régularisation sont présentés; la plus simple procède par troncature de la base aux petites échelles, la plus complexe utilise les coefficients de connexion de la base d'ondelette pour construire des schémas d'ordre élevé. Les approches proposées sont évaluées sur des images synthétiques dans un premier temps, puis sur des images expérimentales d'écoulements caractéristiques. Les résultats obtenus sont comparés à ceux fournis par la méthode usuelle des " corrélations croisées ", mettant en avant les intérêts et les limites de l'estimateur.
|
405 |
Quantification de la qualité d'un geste chirurgical à partir de connaissances a prioriWolf, Rémi 17 June 2013 (has links) (PDF)
Le développement de la chirurgie laparoscopique entraîne de nouveaux défis pour le chirurgien, sa perception visuelle et tactile du site opératoire étant modifiée par rapport à son expérience antérieure. De nombreux dispositifs ont été développés autour de la procédure chirurgicale afin d'aider le chirurgien à réaliser le geste avec la meilleure qualité possible. Ces dispositifs visent à permettre au chirurgien de mieux percevoir le contexte dans lequel il intervient, à planifier de façon optimale la stratégie opératoire et à l'assister lors de la réalisation de son geste. La conception d'un système d'analyse de la procédure chirurgicale, permettant d'identifier des situations à risque et d'améliorer la qualité du geste, est un enjeu majeur du domaine des Gestes Médico-Chirurgicaux Assistés par Ordinateur. L'évaluation de la qualité du geste explore plusieurs composantes de sa réalisation : les habiletés techniques du chirurgien, ainsi que ses connaissances théoriques et sa capacité de jugement. L'objectif de cette thèse était de développer une méthode d'évaluation de la qualité technique des gestes du chirurgien à partir de connaissances à priori, qui soit adaptée aux contraintes spécifiques du bloc opératoire sans modifier l'environnement du chirurgien. Cette évaluation s'appuie sur la définition de métriques prédictives de la qualité du geste chirurgical, dérivées des trajectoires des instruments au cours de la procédure. La première étape de ce travail a donc consisté en la mise au point d'une méthode de suivi de la position des instruments laparoscopiques dans la cavité abdominale au cours de la chirurgie, à partir des images endoscopiques et sans ajout de marqueurs. Ce suivi combine des modèles géométriques de la caméra, de l'instrument et de son orientation, ainsi que des modèles statistiques décrivant les évolutions de cette dernière. Cette méthode permet le suivi de plusieurs instruments de laparoscopie dans des conditions de banc d'entraînement, en temps différé pour le moment. La seconde étape a consisté à extraire des trajectoires des paramètres prédictifs de la qualité du geste chirurgical, à partir de régressions aux moindres carrés partiels et de classifieurs k-means. Plusieurs nouvelles métriques ont été identifiées, se rapportant à la coordination des mains du chirurgien ainsi qu'à l'optimisation de son espace de travail. Ce dispositif est destiné à s'intégrer dans un système plus large, permettant d'apporter au chirurgien, en temps réel, des informations contextualisées concernant son geste, en fusionnant par exemple les données issues de la trajectoire à des données multi-modales d'imagerie per-opératoire.
|
406 |
Méthodes variationnelles pour la segmentation d'images à partir de modèles : applications en imagerie médicalePrevost, Raphaël 21 October 2013 (has links) (PDF)
La segmentation d'images médicales est depuis longtemps un sujet de recherche actif. Cette thèse traite des méthodes de segmentation basées modèles, qui sont un bon compromis entre généricité et capacité d'utilisation d'informations a priori sur l'organe cible. Notre but est de construire un algorithme de segmentation pouvant tirer profit d'une grande variété d'informations extérieures telles que des bases de données annotées (via l'apprentissage statistique), d'autres images du même patient (via la co-segmentation) et des interactions de l'utilisateur. Ce travail est basé sur la déformation de modèle implicite, une méthode variationnelle reposant sur une représentation implicite des formes. Après avoir amélioré sa formulation mathématique, nous montrons son potentiel sur des problèmes cliniques difficiles. Nous introduisons ensuite différentes généralisations, indépendantes mais complémentaires, visant à enrichir le modèle de forme et d'apparence utilisé. La diversité des applications cliniques traitées prouve la généricité et l'efficacité de nos contributions.
|
407 |
Quantitative Analysis of Open Curves in Brain Imaging: Applications to White Matter Fibers and SulciMani, Meenakshi 31 January 2011 (has links) (PDF)
Il y a dans le cerveau humain environ 100 sillons corticaux, et plus de 100 milliards de faisceaux de matière blanche. Si le nombre, la configuration et la fonction de ces deux structures anatomiques diffèrent, elles possèdent toutefois une propriété géométrique commune: ce sont des courbes ouvertes continues. Cette thèse se propose d'étudier comment les caractéristiques des courbes ouvertes peuvent être exploitées afin d'analyser quantitativement les sillons corticaux et les faisceaux de matière blanche. Les quatre caractéristiques d'une courbe ouverte-forme, taille, orientation et position- ont des propriétés différentes, si bien que l'approche usuelle est de traiter chacune séparément à l'aide d'une métrique ad hoc. Nous introduisons un cadre riemannien adapté dans lequel il est possible de fusionner les espaces de caractéristiques afin d'analyser conjointement plusieurs caractéristiques. Cette approche permet d'apparier et de comparer des courbes suivant des distances géodésiques. Les correspondances entre courbes sont établies automatiquement en utilisant une métrique élastique. Dans cette thèse, nous validerons les métriques introduites et nous montrerons leurs applications pratiques, entre autres dans le cadre de plusieurs problèmes cliniques importants. Dans un premier temps, nous étudierons spécifiquement les fibres du corps calleux, afin de montrer comment le choix de la métrique influe sur le résultat du clustering. Nous proposons ensuite des outils permettant de calculer des statistiques sommaires sur les courbes, ce qui est un premier pas vers leur analyse statistique. Nous représentons les groupes de faisceaux par la moyenne et la variance de leurs principales caractéristiques, ce qui permet de réduire le volume des données dans l'analyse des faisceaux de matière blanche. Ensuite, nous présentons des méthodes permettant de détecter les changements morphologiques et les atteintes de la matière blanche. Quant aux sillons corticaux, nous nous intéressons au problème de leur labellisation.
|
408 |
Vers un système de vision auto-adaptatif à base de systèmes multi-agentsMahdjoub, Jason 15 December 2011 (has links) (PDF)
Il existe une multitude de traitements d'images dans la littérature, chacun étant adapté à un ensemble plus ou moins grand de cadres d'application. La généralisation ou la mise en collaboration de ces traitements pour un système plus complet et plus robuste est un problème mal posé. Les traitements d'images sont fondamentalement trop différents les uns par rapport aux autres pour être mis en commun de façon naturelle. De plus, ces derniers sont trop rigides pour pouvoir s'adapter d'eux-mêmes lorsqu'un problème non prévu à l'avance par le concepteur apparaît. Or la vision est un phénomène autoadaptatif, qui sait traiter en temps réel des situations singulières, en y proposant des traitements particuliers et adaptés. Elle est aussi un traitement complexe des informations, tant ces dernières ne peuvent être réduites à des représentations réductionnistes et simplifiantes sans être mutilées. Dans cette thèse, un système de vision est entrepris comme un tout où chaque partie est adaptée à l'autre, mais aussi où chaque partie ne peut s'envisager sans l'autre dans les tensions les plus extrêmes générées par la complexité et l'intrication des informations. Puisque chaque parcelle d'information joue un rôle local dans la vision, tout en étant dirigée par un objectif global peu assimilable à son niveau, nous envisageons la vision comme un système où chaque agent délibère selon une interférence produite par le potentiel décisionnel de chacun de ses voisins. Cette délibération est entreprise comme le résultat produit par l'interférence d'une superposition de solutions. De cette manière, il émerge du système à base d'agents une décision commune qui dirige les actions locales faites par chaque agent ou chaque partie du système. En commençant par décrire les principales méthodes de segmentation ainsi que les descripteurs de formes, puis en introduisant les systèmes multi-agents dans le domaine de l'image, nous discutons d'une telle approche où la vision est envisagée comme un système multi-agent apte à gérer la complexité inhérente de l'information visuelle tant en représentation qu'en dynamisme systémique. Nous ancrons dans ces perspectives deux modèles multi-agents. Le premier modèle traite de la segmentation adaptative d'images sans calibration manuelle par des seuils. Le deuxième modèle traite de la représentation de formes quelconques à travers la recherche de coefficients d'ondelettes pertinents. Ces deux modèles remplissent des critères classiques liés au traitement d'images, et à la reconnaissance de formes, tout en étant des cas d'études à développer pour la recherche d'un système de vision auto-adaptatif tel que nous le décrivons.
|
409 |
Détection de comportements à travers des modèles multi-agents collaboratifs, appliquée à l'évaluation de la situation, notamment en environnement asymétrique avec des données imprécises et incertainesPatrix, Jérémy 12 December 2013 (has links) (PDF)
Ce manuscrit de thèse présente une méthode innovante brevetée pour la détection de comportements collectifs. En utilisant des procédés de fusion sur les données issues d'un réseau multi-capteurs, les récents systèmes de surveillance obtiennent les séquences d'observations des personnes surveillées. Ce bas niveau d'évaluation de la situation a été mesuré insuffisant pour aider les forces de sécurité lors des événements de foule. Afin d'avoir une plus haute évaluation de la situation dans ces environnements asymétriques, nous proposons une approche multi-agents qui réduit la complexité du problème par des agents sur trois niveaux - macro, méso et micro - d'observations. Nous utilisons un nouvel état relatif dans les approches de l'état de l'art pour nous permettre la détection, en temps réel, des groupes, de leurs comportements, objectifs et intentions. Dans le cadre de projets européens, nous avons utilisé un serious game simulant une foule dans des scénarios asymétriques. Les résultats montrent un meilleur accord avec les prédictions théoriques et une amélioration significative des travaux précédents. Le travail présenté ici pourrait être utilisé dans de futures études de détection de comportements multi-agents et pourrait un jour aider à résoudre les problèmes liés aux événements catastrophiques de foules incontrôlables.
|
Page generated in 0.1159 seconds