Spelling suggestions: "subject:"transférase""
1 |
Segmentation du masque capillaire dans un visageRousset, Cedric 12 October 2010 (has links) (PDF)
Cette thèse porte sur la segmentation du masque capillaire dans un visage. Nous présentons dans ce manuscrit une étude sur la localisation et la caractérisation d'une chevelure dans une image. L'objectif de ces travaux est de proposer une méthode permettant de définir automatiquement la zone capillaire avec la meilleure fiabilité possible afin de prendre en compte la grande variabilité de la représentation d'une chevelure. La segmentation est effectuée par un traitement "Matting" qui est une méthode de segmentation par approche "régions". Cet algorithme sépare une image en deux plans : un plan d'information qui représente la chevelure et un plan de fond. Il est initialisé par la définition de marqueurs qui vont être diffusés dans l'ensemble de l'image. L'obtention d'une bonne segmentation dépend directement de la précision dans le placement de ces marqueurs. Nous définissons leurs positions par une analyse conjointe de trois paramètres caractéristiques d'une chevelure : sa texture, sa teinte et sa position. Dans un premier temps, nous avons mis en place une analyse fréquentielle pour caractériser la texture. Nous utilisons un filtrage de l'image par un filtre passe-bande gaussien isotrope. Nous modélisons un masque de localisation des zones fréquentielles similaires à la chevelure. Dans un second temps, nous avons mis en place une analyse couleur pour caractériser la teinte. Nous utilisons un classifieur couleur qui représente la distribution du modèle couleur par une distribution gaussienne sur chaque composante de chrominance dans l'espace couleur YCbCr. Une première information commune de localisation d'une chevelure est définie et est combinée par une méthode de fusion de données basée sur le modèle des fonctions de croyances transférables. Cette approche permet notamment la prise en compte de différents degrés d'ignorance par la modélisation d'un état d'"incertitude". L'ajout de ce nouvel état est particulièrement adapté à notre algorithme de segmentation puisqu'il permet de contrôler la position des pixels dont l'état est estimé pendant le traitement "Matting". Cette approche est ensuite optimisée par l'ajout d'une fonction d'affaiblissement basée sur la caractérisation de la localisation d'une chevelure autour du visage qui est le troisième paramètre capillaire caractéristique. Cette fonction permet de pondérer la fiabilité de nos sources de données par rapport à l'éloignement du visage. En effet plus un pixel est loin d'un visage moins il a de probabilité d'appartenir au masque capillaire. La segmentation capillaire est évaluée grâce à une analyse quantitative de la définition d'un masque de chevelure en comparaison avec une base de référence obtenue par une segmentation semi-manuelle. Enfin le masque capillaire est caractérisé par trois descripteurs, un pour chaque paramètre capillaire. Cette classification permet la description d'une chevelure par une approche similaire à une description cognitive faite par un observateur humain.
|
2 |
L'encadrement juridique de "Documents Transférables Électroniques" / The Legal Frame of the "Electronic Transferable Records"Gamal Eldine, Nabil 19 January 2017 (has links)
L’intérêt de la présente recherche est d'étudier d’une manière générale les communications électroniques dans le commerce international, et puis à titre particulier d’interpeler les nouveaux défis qui relèveraient de l’utilisation des "documents transférables électroniques", en réfléchissant sur les différentes approches et les méthodes à adopter afin de remédier aux éventuelles déficiences technologiques, identifier puis combler les lacunes juridiques qui se révéler lors de ces échanges. Il s’agirait donc d’une enquête sur les questions juridiques liées à la création, à l’utilisation et à l’exécution du "document transférable électronique" ; il s’agit d’un terme crée par la CNUDCI, ce qui renvoie d’une manière générale à l’équivalent électronique d’un instrument transférable négociable ou d’un document titre. Nous identifions principalement les trois grands axes. Premièrement, la protection des données personnelles. Elle fait l’objet de plusieurs réformes législatives. La plus récente est le Règlement européen 2016/679 du 27 avril 2016 qui vise à promouvoir l’utilisation de l’outil informatique, tout en accordant la protection appropriée aux données à caractère personnel. Deuxièmement, l'exigence d’unicité d’un document transférable (« Garantie de singularité »). La garantie de l’unicité d’un document exige qu’il soit le seul qui existe ou bien, que toute copie soit clairement identifiable comme telle. Les conséquences éventuelles de la reproduction non autorisée de tout document transférable électronique donnant au porteur ou au bénéficiaire le droit de demander la remise de marchandises ou le paiement d’une somme d’argent rendent nécessaire l’élaboration de mécanismes pour garantir l’unicité de ces instruments. Troisièmement, la possession du ‘document transférable électronique’ et la notion de contrôle pour l’identification du porteur. Outre le traitement de la question de l’exigence de la singularité, la recherche d’un mécanisme fonctionnellement applicable et équivalent pour satisfaire à l’exigence de la possession matérielle du document papier constitue un défi majeur. Dans la plupart des modèles juridiques régissant les documents transférables électroniquement, la notion de “contrôle” d’un document électronique est utilisée en tant qu’équivalent fonctionnel de la possession ; cela signifie que la personne qui exerce le contrôle du document transférable électronique est considérée comme le porteur habilité à s’en prévaloir. Ces documents électroniques sont gérés par des prestataires de confiance qualifiés pour garantir leur sécurité. / The interest of this research is to study in general, the electronic communications in an international context, and then to focus on the ongoing challenges that occur on the field of "electronic transferable documents"; for this we shall perceive the methods that have been adopted for the purpose of using such documents, in order to prevent eventual technological deficiencies, identifying and filling the legal gaps revealed throughout our study of these new challenges.Therefore we shall comprehend and defy the legal boundaries, in order to create, use and transfer "electronic transferable documents". It is a pre-requisite to clearly identify the subject of this study, which is the term 'electronic transferable record, a concept created by UNCITRAL, which refers generally to ' Electronic equivalent of a transferable record (negotiable or non-negotiable) or a document of a legal right.We shall identify the three following main topics:I. The protection of personal data and privacy has been subject to several legislative reforms. The most recent one is the European Regulation 2016/679 dated April 27th, 2016. This reform aims to promote the use of the IT (Information Technology) tools, while granting the appropriate protection to the personal data. These electronic records are managed by qualified services providers.II. Requirement for uniqueness of the record ("Guarantee of uniqueness")The guarantee of the uniqueness of the document is to ensure that there is only one possible holder and owner of that document, as in the case of paper document, and that any copy is clearly identifiable as such. As a result of an unauthorized reproduction of any electronic transferable record, any such holder or beneficiary shall have the right to request delivery of goods or the payment of a certain sum of money; thus the need to insure the uniqueness of these electronic records.III. The possession of an electronic transferable record.In addition to the above, the need to identify a functional equivalent approach to satisfy the requirement of possession in the case of electronic transferable document, which is a major challenge.IV. Concept of control and identification of the holderIn most legal models governing electronic transferable records, the definition of "control" of an electronic document is used as a functional equivalent to possession. That is, the person who controls the electronic transferable record is deemed to be the holder and the one entitled to use it.
|
3 |
Approche crédibiliste pour la fusion multi capteurs décentralisée / Credibilist and decentralized approach for fusion in a multi sensors systemAndré, Cyrille 10 December 2013 (has links)
La fusion de données consiste à combiner plusieurs observations d'un environnement ou d'un phénomène afin de produire une description plus robuste, plus précise ou plus complète. Parmi les nombreux domaines d'application, les systèmes de surveillance multi capteurs étudiés dans ce travail occupent une place importante. Notre objectif est de fusionner les informations afin de compter le nombre de cibles, d'affiner la localisation et suivre les pistes en mouvement. D'un point de vue théorique, le problème a été abordé dans le contexte spécifique de la théorie des fonctions de croyance. Cette représentation qui constitue la première contribution originale de ce travail offre plusieurs avantages déterminants. Elle permet tout d'abord de modéliser des détections caractérisées par des incertitudes de géométries très différentes. Le modèle permet également d'intégrer des a priori topographiques en les modélisant par des BBAs spécifiques. Cette méthode d'intégration d'a priori constitue le deuxième élément orignal de ce travail. La troisième contribution concerne la définition d'un critère d'association entre les pistes et les détections à partir de la même représentation crédibiliste des localisations. Ce critère, maximisant la probabilité pignistique jointe des associations permet de réaliser de manière cohérente l'ensemble des traitements relatifs à la fusion sans avoir à définir un nouveau cadre de discernement. Malgré ces avantages, la taille du cadre de discernement exceptionnellement grande constitue un obstacle à l'exploitation de la théorie des croyances transférables. Pour contourner cette difficulté, chaque détection est projetée sur un cadre de discernement de plus petit cardinal grâce à une opération de conditionnement et de grossissement. De plus, le nombre d'éléments focaux peut augmenter considérablement en raison du caractère itératif de la fusion dans notre application. Afin de garder des temps de calcul raisonnables, il est donc impératif de simplifier régulièrement les BBAs. Ce point a fait l'objet d'une étude particulière à partir de laquelle une méthode de simplification reposant sur la décomposition canonique a été proposée. Enfin, au niveau système nous avons proposé une architecture décentralisée pour la réalisation de l'ensemble des traitements. Chaque nœud collabore alors avec ses voisins afin que les informations envoyées au poste de supervision forment un ensemble complet et cohérent. La validation du système de fusion a constitué une part importante de ce travail. Certains choix ont ainsi pu être justifiés en comparant les performances de différentes solutions envisageables au moyen de simulations. Parallèlement, la fusion a été testée lors de scénarios réels grâce à l'implantation d'un module dans le système de détection SmartMesh. Ces expériences ont été nécessaires d'une part pour quantifier de manière réaliste les erreurs relatives à chaque capteur mais aussi pour intégrer dans le plan de validation les difficultés liées aux interfaces avec les autres composants. / Data fusion combines several observations in order to produce a more accurate and complete description of the studied phenomenon. In this scope, the multi sensors detection system is a key element. In this work, we aim at merging information pieces from various sensors in order to count the objects or targets in the scene, localize and track the moving targets. In addition, when several targets are simultaneously present, we aim at managing multiple targets. In term of theoretic framework, the problem was addressed in the specific context of the belief functions theory. This choice implies the development of a credibilistic representation of the localization uncertainties such that each detection is modeled by a basic belief assignment (BBA) defined on a discrete paving of the scene. This model, which is the first contribution, allows us to represent the uncertainties about target location, respecting their specific geometric forms of imprecision, e.g. corresponding either to omnidirectional sensors or to directional sensors. As a second contribution, we propose to define a specific BBA, to represent and take into account some a priori knowledge such as topographic information pieces: obstacles partially occulting the vision or roads on which the target presence is more plausible. These BBAs are then merged with the detections to improve the localization. Based on the available belief model on target location, we also proposed (third contribution) a method for data association between tracks and detections. The new function to maximize is derived from the joint pignistic probability of associations. This criterion allows us to perform all processing in the same frame of discernment. Belief function theory main drawback for our application derives from the size of the frame of discernment. To address this issue, we have defined an adaptive discernment frame using conditioning and coarsening operators. Moreover, since the number of focal elements can also dramatically increase due to the iterative nature of our application, the BBAs should be regularly simplified. To address this issue, we have proposed a new method based on the canonical decomposition. Finally, the developed fusion system was implemented in a decentralized architecture. Each node cooperates with its neighbors to produce a coherent set of targets. Validation was the last but not least part of our work. Firstly, simulations were used to evaluate the proposed solutions versus the already existing methods. Secondly, the fusion process was tested in real-life scenarios by implementing a module in the SmartMesh surveillance system. These experiments were necessary both to quantify the errors for each sensor and to integrate difficulties related to interfaces with other components.
|
4 |
Structuration de collections d'images par apprentissage actif crédibilisteGoëau, Hervé 25 May 2009 (has links) (PDF)
L'indexation des images est une étape indispensable pour valoriser un fond d'archive professionnel ou des collections d'images personnelles. Le "documentaliste" se doit de décrire précisément chaque document collecté dans la perspective de le retrouver. La difficulté est alors d'interpréter les contenus visuels et de les associer entre eux afin de couvrir différentes catégories qui peuvent être souvent très subjectives. Dans ce travail, nous nous inspirons du principe de l'apprentissage actif pour aider un utilisateur dans cette tâche de structuration de collections d'images. A partir de l'analyse des contenus visuels des images, différentes stratégies de sélection active sont développées afin d'aider un utilisateur à identifier et cerner des catégories pertinentes selon son point de vue. Nous proposons d'exprimer ce problème de classification d'images avec apprentissage actif dans le cadre du Modèle des Croyances Transférables (MCT). Ce formalisme facilite la combinaison, la révision et la représentation des connaissances que l'on peut extraire des images et des classes existantes à un moment donné. La méthode proposée dans ce cadre permet ainsi une représentation détaillée de la connaissance, notamment en représentant explicitement les cas d'appartenances à aucune ou à de multiples catégories, tout en quantifiant l'incertitude (liée entre autre au fossé sémantique) et le conflit entrainé par l'analyse des images selon différentes modalités (couleurs, orientations). Une interface homme-machine a été développée afin de valider notre approche sur des jeux de tests de référence, des collections d'images personnelles et des photographies professionnelles issues de l'Institut National de l'Audiovisuel. Une évaluation a été conduite auprès d'utilisateurs professionnels et a montré des résultats très positifs en termes d'utilité, d'utilisabilité et de satisfaction.
|
5 |
Evaluation de situations dynamiques multicibles par fusion de données spatio-temporellesPollard, Evangeline 15 October 2010 (has links) (PDF)
Cette thèse, réalisée en coopération avec l'Onera, s'inscrit dans le domaine de la surveillance du champ de bataille. L'objectif des travaux est d'étudier et de développer une technique qui fusionne différentes sources d'informations, afin d'évaluer la situation tactique sur une large zone d'observation, ceci de manière semi-automatique en temps quasi-réel. Cette évaluation est réalisée en deux étapes. La première réalise une évaluation globale de la situation en utilisant une nouvelle technique de trajectographie (ou pistage) multicible par hybridation du filtre GM-CPHD et du MHT sous contrainte routière à partir des données GMTI (Ground Moving Target Indicator). Ce nouvel algorithme est adapté au pistage de cibles proches. Ensuite, la deuxième étape réalise une évaluation plus fine de la situation en détectant des objets dit d'intérêt tels que des convois par l'intégration d'autres types de données (SAR, vidéo). La détection se base sur l'utilisation des réseaux bayésiens ainsi que leur version crédibiliste.
|
6 |
METHODES DE RESUME DE VIDEO A PARTIR D'INFORMATIONS BAS NIVEAU, DU MOUVEMENT DE CAMERA OU DE L'ATTENTION VISUELLEGuironnet, Mickael 12 October 2006 (has links) (PDF)
Le volume grandissant de vidéos a suscité le besoin de nouveaux outils d'aide à l'indexation. Un des outils possibles est le résumé de vidéo qui permet de fournir un aperçu rapide à l'usager. L'objectif de cette thèse est d'extraire, à partir d'informations visuelles, un résumé de vidéo contenant le « message » de la vidéo. Nous avons choisi d'étudier trois nouvelles méthodes de résumé de vidéo utilisant différentes informations visuelles.<br />La première méthode de résumé repose sur des caractéristiques de bas niveau (couleur, orientation et mouvement). La combinaison de ces index qui s'appuie sur un système d'inférence floue a permis de construire un résumé hiérarchique. Nous avons montré l'intérêt d'un tel résumé dans une application de la recherche par l'exemple.<br />La deuxième méthode de résumé est construite à partir du mouvement de caméra. Cette caractéristique de plus haut niveau sémantique est réfléchie par le réalisateur et induit une information sur le contenu. Une méthode de classification des mouvements basée sur le Modèle des Croyances Transférables est élaborée. La méthode de résumé est alors établie selon des règles sur l'amplitude et l'enchaînement des mouvements de caméra identifiés.<br />La troisième méthode de résumé est développée à partir de l'attention visuelle. Connaître les endroits où le regard se porte lors du visionnage de la vidéo est une information de plus haut niveau sémantique et pertinente pour créer le résumé. Un modèle spatio-temporel d'attention visuelle est proposé, puis utilisé pour détecter le changement de contenu au cours du temps afin de construire le résumé.
|
7 |
Approche crédibiliste pour la fusion multi capteurs décentraliséeAndré, Cyrille 10 December 2013 (has links) (PDF)
La fusion de données consiste à combiner plusieurs observations d'un environnement ou d'un phénomène afin de produire une description plus robuste, plus précise ou plus complète. Parmi les nombreux domaines d'application, les systèmes de surveillance multi capteurs étudiés dans ce travail occupent une place importante. Notre objectif est de fusionner les informations afin de compter le nombre de cibles, d'affiner la localisation et suivre les pistes en mouvement. D'un point de vue théorique, le problème a été abordé dans le contexte spécifique de la théorie des fonctions de croyance. Cette représentation qui constitue la première contribution originale de ce travail offre plusieurs avantages déterminants. Elle permet tout d'abord de modéliser des détections caractérisées par des incertitudes de géométries très différentes. Le modèle permet également d'intégrer des a priori topographiques en les modélisant par des BBAs spécifiques. Cette méthode d'intégration d'a priori constitue le deuxième élément orignal de ce travail. La troisième contribution concerne la définition d'un critère d'association entre les pistes et les détections à partir de la même représentation crédibiliste des localisations. Ce critère, maximisant la probabilité pignistique jointe des associations permet de réaliser de manière cohérente l'ensemble des traitements relatifs à la fusion sans avoir à définir un nouveau cadre de discernement. Malgré ces avantages, la taille du cadre de discernement exceptionnellement grande constitue un obstacle à l'exploitation de la théorie des croyances transférables. Pour contourner cette difficulté, chaque détection est projetée sur un cadre de discernement de plus petit cardinal grâce à une opération de conditionnement et de grossissement. De plus, le nombre d'éléments focaux peut augmenter considérablement en raison du caractère itératif de la fusion dans notre application. Afin de garder des temps de calcul raisonnables, il est donc impératif de simplifier régulièrement les BBAs. Ce point a fait l'objet d'une étude particulière à partir de laquelle une méthode de simplification reposant sur la décomposition canonique a été proposée. Enfin, au niveau système nous avons proposé une architecture décentralisée pour la réalisation de l'ensemble des traitements. Chaque nœud collabore alors avec ses voisins afin que les informations envoyées au poste de supervision forment un ensemble complet et cohérent. La validation du système de fusion a constitué une part importante de ce travail. Certains choix ont ainsi pu être justifiés en comparant les performances de différentes solutions envisageables au moyen de simulations. Parallèlement, la fusion a été testée lors de scénarios réels grâce à l'implantation d'un module dans le système de détection SmartMesh. Ces expériences ont été nécessaires d'une part pour quantifier de manière réaliste les erreurs relatives à chaque capteur mais aussi pour intégrer dans le plan de validation les difficultés liées aux interfaces avec les autres composants.
|
8 |
Que faut-il choisir entre une gestion centralisée et un système d’autogestion base sur des mécanismes de marché pour réduire le trafic illégal des espèces faunistiques sauvages : analyse comparative économique et institutionnelle appliquée aux tortues marines en Colombie / Is command and control regulation more efficient than market-based and community based mechanisms to reduce illegal traffic of wildlife species ? : a comparative economic and institutional analysis applied to sea turtles in ColombiaHernandez Perez, Sara 19 December 2012 (has links)
Depuis plus de 30 ans, la Colombie construit sa politique de préservation des espèces faunistiques et de lutte contre le trafic illégal de ces espèces. Ce cadre institutionnel national s’est vu renforcé par la ratification de la convention CITES (Convention sur le commerce international des espèces de la flore et de la faune sauvages menacées d’extinction) en 1981. Pourtant, ce cadre institutionnel ne suffit pas à infléchir sur le trafic illégal des tortues marines en Colombie. L’analyse des failles du mode de régulation de type « commande et contrôle » montre les limites de l’intervention de l’Etat comme seul modèle possible à gérer le trafic illicite de tortues marines. D’où ma proposition de concevoir et mettre en place un mécanisme de quotas négociables de tortues marines décroissants dans le temps, renforcé par arrangements contractuels. Cette thèse a pour objectif de comparer l’efficacité de ces deux modes de gouvernance à réduire le trafic illégal de tortues marines, du point de vue la performance environnementale, de l’efficacité économique et de l’équité sociale. J’ai évalué les coûts de transactions pour démontrer que la variation dans la structure des coûts de transactions et la distribution de ces coûts auprès des acteurs concernés influent sur la performance finale du cadre institutionnel. Une analyse coûts-avantage a été réalisée pour justifier d’un changement institutionnel, en complément de l’analyse des coûts de transactions. Cette étude s’est situe au nord de la Colombie, sur un territoire de 30 km, territoire des indigènes Wayùu, étant le plus concerné par le trafic illégal de tortues vertes (Chelonia mydas) et tortues à écailles (Eretmochelys imbricata). / For over 30 years, Colombia built its national policy to protect wildlife species against the illegal traffic. The national institutional framework was strengthened by the ratification of the CITES (Convention on International Trade in Endangered Species of flora and fauna threatened with extinction) in 1981. However, this institutional framework is not sufficient to curb the illegal trade of marine turtles species. Despite some success to protect and recover some species, what really matters is the effectiveness of the national policy to conserve wildlife species. Hence my proposal to design and implement a cap and trade system based on transferable quotas decreasing in time, reinforced by contractual arrangements. This self-organized system aims at having zero catches level and enhance conformity and cooperation within the environmental regulation. This thesis aims to compare the efficacy of these two modes of governance to reduce the illegal trade of sea turtles based on the following criteria: the environmental performance, economic efficiency and social equity. I pursuit by estimating the corresponding transaction costs to show that the variation in the structure of transaction costs and the distribution of these costs among stakeholders affect the final performance of the institutional framework. Cost-benefit analysis was performed to justify institutional change, in addition to the analysis of transaction costs. This study is located in the north of Colombia, an area of 30 km, indigenous Wayuu territory, being more concerned with the illegal green turtles (Chelonia mydas) and hawksbill (Eretmochelys imbricata).
|
9 |
Reconnaissance de scénario par les Modèles de Markov Cachés Crédibilistes : Application à l'interprétation automatique de séquences vidéos médicales / Scenario recognition by evidentials hidden Markov models : Application for the automatic interpretation of medical video sequencesAhouandjinou, Arnaud 16 December 2014 (has links)
Les travaux de recherche développés dans cette thèse concernent la mise en oeuvre d'un système de vidéo surveillance intelligente en milieu hospitalier. Dans le contexte d'une application en unité de soins intensifs médicale, nous introduisons la notion originale de Boite Noire Médicale et nous proposons un nouveau système de monitoring visuel de Détection Automatique de Situations à risque et d'Alerte (DASA) basé sur un système de vidéosurveillance multi-caméra intelligent. L'objectif étant d'interpréter les flux d'informations visuelles et de détecter en temps réel les situations à risque afin de prévenir l'équipe médicale et ensuite archiver les évènements dans une base de donnée vidéo qui représente la Boite Noire Médicale. Le système d'interprétation est basé sur des algorithmes de reconnaissance de scénarios qui exploitent les Modèles de Markovs Cachés (MMCs). Une extension du modèle MMC standard est proposé afin de gérer la structure hiérarchique interne des scénarios et de contrôler la durée de chaque état du modèle markovien. La contribution majeure de ce travail repose sur l'intégration d'un raisonnement de type évènementiel, pour gérer la décision de reconnaissance en tenant compte des imperfections des informations disponibles. Les techniques de reconnaissance de scénarios proposées ont été testées et évaluées sur une base de séquences vidéo médicales et comparés aux modèles de Markov cachés probabilistiques classiques. / This thesis focuses on the study and the implementation of an intelligent visual monitoring system in hospitals. In the context of an application for patient monitoring in mediacal intensive care unit, we introduce an original concept of the Medical Black Box and we propose a new system for visual monitoring of Automatic Detection of risk Situations and Alert (DASA) based on a CCTV system with network smart camera. The aim is to interpret the visual information flow and to detect at real-time risk situations to prevent the mediacl team and then archive the events in a video that is based Medical Black Box data. The interpretation system is based on scenario recognition algorithms that exploit the Hidden Markov Models (HMM). An extension of the classic model of HMM is proposed to handle the internal reporting structure of the scenarios and to control the duration of each state of the Markov model. The main contribution of this work relies on the integration of an evidential reasoning, in order to manage the recognition decision taking into account the imperfections of available information. The proposed scenarios recognition method have been tested and assessed on database of medical video sequences and compared to standard probabilistic Hidden Markov Models.
|
10 |
Reconnaissance de séquences d'états par le Modèle des Croyances Transférables. Application à l'analyse de vidéos d'athlétisme.Ramasso, Emmanuel 05 December 2007 (has links) (PDF)
Cette thèse porte sur la problématique de reconnaissance automatique de systèmes dynamiques. Une méthodologie basée sur des modèles de séquences d'états est employée : les états permettent de décrire le système à un instant particulier tandis que des transitions permettent au système d'évoluer au cours du temps. Dans le cadre de la thèse, deux nouvelles méthodes de représentation et de reconnaissance de séquences d'états basées sur le Modèle des Croyances Transférables, modèle non probabiliste de raisonnement incertain basé sur les fonctions de croyance, sont proposées. La première méthode est déterministe et inspirée des travaux en Intelligence Artificielle, la seconde est stochastique et basée sur une généralisation aux fonctions de croyance des modèles de Markov cachés initialement développés dans la théorie des probabilités. Ces algorithmes, dont le cadre formel est générique, ont été intégrés dans un système de reconnaissance de mouvements humains dans les vidéos d'athlétisme que nous avons mis en place en collaboration avec l'Université de Crète dans le cadre du Réseau d'Excellence Européen SIMILAR. Les méthodes de reconnaissance de séquences ont été évaluées sur une base de 74 vidéos et comparées aux modèles de Markov cachés probabilistes.
|
Page generated in 0.0695 seconds