• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 105
  • 65
  • 27
  • 1
  • Tagged with
  • 199
  • 199
  • 122
  • 99
  • 98
  • 92
  • 91
  • 76
  • 75
  • 71
  • 62
  • 56
  • 53
  • 45
  • 44
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Améliorations de la Transformée de Hough en traitement d'images / Enhanced Hough transforms for image processing

Tu, Chunling 23 September 2014 (has links)
Les travaux effectués dans le cadre de la présente thèse concernent l'analyse et les améliorations apportées à la transformée de Hough Standard (SHT), utilisée en traitement d'image comme simple outil de détection de segments de lignes droites. La transformée de Hough a reçu, depuis sa proposition en 1962, une attention particulière de la part de la communauté. La HT est considérée comme une méthode robuste, dont le principe repose sur la transformation le problème initial de détection de segments de lignes droites en un problème de section de sommets dans l'espace des paramètres, appelé aussi espace HT ou espace de Hough. Les points candidats dans l'espace image sont mis en correspondance points dans l'espace de Hough, en utilisant Le principe avancé par la transformée de Hough est qu'il existe un nombre infini de lignes qui passent par un point, dont la seule différence est l'orientation (l'angle). La transformée de Hough permet de déterminer lesquelles de ces lignes passent au plus près du domaine d'intérêt. Les cellules dans l'espace de Hough échantillonné obtiennent des votes des points candidats. Les maxima locaux, correspondant aux sommets sont construit lorsque les cellules considérées obtiennent plus de votes que les cellules voisines. Les sommets détectés alors dans l'espace des paramètres sont transformée dans l'espace image pour validation. Malheureusement, les opérations les opérations de transformation directe, de l'espace image vers l'espace des paramètres, et inverse engendrent des opérations d'approximation, ce qui est la source de plusieurs problèmes de la transformée de Hough, qui affectent les aspects de robustesse, précision et résolution. On se propose de résoudre ces problèmes dans le cadre des travaux engagés dans le cadre de la thèse. Les contributions, détaillées ci-dessous, ont pu être proposées. A) Pour adresser le problème de limitation en termes de résolution de la SHT, les points concernent la sélection d'une bonne résolution, l'extension de la résolution de la SHT et l'utilisation des techniques de super-résolution pour la HT ont été couverts et de nouvelles propositions ont été faites et qui sont d'une utilité certaine pour les applications de traitement d'image.- la relation entre la performance de la HT et la résolution est proposée, ce qui permet de garantir le bon choix.- Une technique de super-résolution ets proposée en s'appuyant sur le principe de la HT- Une auto-similarité dans les échantillons HT a été découverte et a été utilisée pour obtenir une résolution supérieure de la HT avec un grande fidélité. B) Pour adresser le problème de la précision de la SHT, les erreurs de la HT ont été analysées, lorsque l'on fait subir des transformations géométriques à l'image source. Les erreurs ainsi détectées ont été utilisées pour compenser le manque de précision de la SHT, aboutissant ainsi à une HT plus précise. Afin de permettre l'évaluation de performance des approches proposées dan sel cadre de la thèse, une transformée de Hough idéale est proposée comme référence / The thesis addresses the improvements of the Standard Hough Transform (SHT) for image processing applications. As a common tool for straight line segment detection, the Hough Transform (HT) has received extensive attention since its proposal in 1962. HT is robust since it converts the straight line detection problem to a peak seeking problem in the parameter space (also called HT space or Hough space). Feature points in the image space are mapped to the parameter space, according to the normal formulation of the possible straight lines crossing them. The cells in the digitalised parameter space obtain votes from the feature points. The local maxima, corresponding to peaks are built when corresponding cells obtain more votes than the ones around them. The peaks detected in the parameter space are then mapped back to the image space for validation. Unfortunately, when mapping feature points in the image space to the parameter space in conjunction with the voting process, rounding operations are employed, which leads to several problems of HT. The robustness, accuracy and resolution are all affected. This thesis aims to solve these problems, and the following contributions were made towards this goal : A) Because of the resolution limitation of SHT, the topics of how to select a “good” resolution, how to extend the resolutions of SHT and how to employ the super-resolution technique in HT are covered. In the research of these topics, several outputs are obtained, which are helpful to image processing applications. These include:- The map of HT performance versus resolutions is drawn, according to which “good” choices of resolutions can be found.- HT resolutions are extended by geometrical analysis of the HT butterflies.- Super resolution HT is proposed with consideration to the features of HT.- Self-similarity of the HT butterflies is discovered and employed to obtain high resolution HT with high reliability. B) For the accuracy defect of SHT, the error system of HT is studied when the image is shifted in the image space. The detection errors are employed to compensate for the defect, and an accurate HT is proposed. In order to evaluate existing HT varieties, an ideal HT is proposed as a standard
82

Modélisation probabiliste de classifieurs d’ensemble pour des problèmes à deux classes / Probabilistic modeling of ensemble classifiers for two classes problems

Dong, Yuan 08 July 2013 (has links)
L'objectif de cette thèse est d'améliorer ou de préserver les performances d'un système décisionnel quand l’environnement peut impacter certains attributs de l'espace de représentation à un instant donné ou en fonction de la position géographique de l’observation. S'inspirant des méthodes d'ensemble, notre approche a consisté à prendre les décisions dans des sous-espaces de représentation résultant de projections de l'espace initial, espérant ainsi travailler dans des sous-espaces non impactés. La décision finale est alors prise par fusion des décisions individuelles. Dans ce contexte, trois méthodes de classification (one-class SVM, Kernel PCA et Kernel ECA) ont été testées en segmentation d'images texturées qui constitue un support applicatif parfaitement adéquat en raison des ruptures de modèle de texture aux frontières entre deux régions. Ensuite, nous avons proposé une nouvelle règle de fusion reposant sur un test du rapport de vraisemblance pour un ensemble de classifieurs indépendants. Par rapport au vote majoritaire, cette règle de fusion a montré de meilleures performances face à l'altération de l'espace de représentation. Enfin, nous avons établi un modèle conjoint pour l’ensemble des variables décisionnelles de Bernoulli corrélées associées aux décisions des classifieurs individuels. Cette modélisation doit permettre de lier les performances des classifieurs individuels à la performance de la règle de décision globale et d’étudier et de maîtriser l'impact des changements de l'espace initial sur la performance globale / The objective of this thesis is to improve or maintain the performance of a decision-making system when the environment can impact some attributes of the feature space at a given time or depending on the geographical location of the observation. Inspired by ensemble methods, our approach has been to make decisions in representation sub-spaces resulting of projections of the initial space, expecting that most of the subspaces are not impacted. The final decision is then made by fusing the individual decisions. In this context, three classification methods (one-class SVM, Kernel PCA and Kernel ECA) were tested on a textured images segmentation problem which is a perfectly adequate application support because of texture pattern changes at the border between two regions. Then, we proposed a new fusion rule based on a likelihood ratio test for a set of independent classifiers. Compared to the majority vote, this fusion rule showed better performance against the alteration of the performance space. Finally, we modeled the decision system using a joint model for all decisions based on the assumption that decisions of individual classifiers follow a correlated Bernoulli law. This model is intended to link the performance of individual classifiers to the performance of the overall decision rule and to investigate and control the impact of changes in the original space on the overall performance
83

Système d'identification à partir de l'image d'iris et détermination de la localisation des informations / Iris identification system and determination of characteristics location

Hilal, Alaa 21 October 2013 (has links)
Le système d’identification d’iris est considéré comme l’une des meilleures technologies biométriques. Toutefois, des problèmes liés à la segmentation de l’iris et à la normalisation de la texture de l’iris sont généralement signalés comme principales origines des reconnaissances incorrectes. Dans notre travail, trois contributions principales sont proposées pour améliorer le système d’identification d’iris. Une nouvelle méthode de segmentation est développée. Elle détecte la frontière externe de l’iris par un contour circulaire et la pupille, d’une manière précise, à l’aide d’un modèle de contour actif. Ensuite, une nouvelle méthode de normalisation est proposée. Elle assure une représentation plus robuste et un meilleur échantillonnage de la texture de l’iris comparée aux méthodes traditionnelles. Enfin en utilisant le système d’identification d’iris proposé, la localisation des caractéristiques discriminantes dans une région d’iris est identifiée. Nous vérifions que l’information la plus importante de la région de l’iris se trouve à proximité de la pupille et que la capacité discriminante de la texture diminue avec la distance à la pupille. Les méthodes de segmentation et de normalisation développées sont testées et comparées à un système de référence sur une base de données contenant 2639 images d’iris. Une amélioration des performances de reconnaissance valide l’efficacité du système proposé / Iris identification system is considered among the best biometric technologies. However problems related to the segmentation of the iris and to the normalization of iris templates are generally reported and induce loss of recognition performance. In this work three main contributions are made to the progress of the iris identification system. A new segmentation method is developed. It approximates the outer iris boundary with a circle and segments accurately the inner boundary of the iris by use of an active contour model. Next, a new normalization method is proposed. It leads to a more robust characterization and a better sampling of iris textures compared to traditional normalization methods. Finally using the proposed iris identification system, the location of discriminant characteristics along iris templates is identified. It appears that the most discriminant iris characteristics are located in inner regions of the iris (close to the pupil boundary) and that the discriminant capabilities of these characteristics decreases as outer regions of the iris are considered. The developed segmentation and normalization methods are tested and compared to a reference iris identification system over a database of 2639 iris images. Improvement in recognition performance validates the effectiveness of the proposed system
84

Reconstruction de modèles CAO de scènes complexes à partir de nuages de points basés sur l’utilisation de connaissances a priori / Reconstruction of CAD model of industrial scenes using a priori knowledge

Bey, Aurélien 25 June 2012 (has links)
Certaines opérations de maintenance sur sites industriels nécessitent une planification à partir de modèles numériques 3D des scènes où se déroulent les interventions. Pour permettre la simulation de ces opérations, les modèles 3D utilisés doivent représenter fidèlement la réalité du terrain. Ces représentations virtuelles sont habituellement construites à partir de nuages de points relevés sur le site, constituant une description métrologique exacte de l’environnement sans toutefois fournir une description géométrique de haut niveau.Il existe une grande quantité de travaux abordant le problème de la reconstruction de modèles 3D à partir de nuages de points, mais peu sont en mesure de fournir des résultats suffisamment fiables dans un contexte industriel et cette tâche nécessite en pratique l’intervention d’opérateurs humains.Les travaux réalisés dans le cadre de cette thèse visent l’automatisation de la reconstruction,avec comme principal objectif la fiabilité des résultats obtenus à l’issu du processus. Au vu de la complexité de ce problème, nous proposons d’exploiter des connaissances et données a priori pour guider la reconstruction. Le premier a priori concerne la compositiondes modèles 3D : en Conception Assistée par Ordinateur (CAO), les scènes industrielles sont couramment décrites comme des assemblages de primitives géométriques simples telles que les plans, sphères, cylindres, cônes, tores, etc. Nous hiérarchisons l’analyse en traitant dans un premier temps les plans et les cylindres, comme un préalable à la détection de stores. On obtient ainsi une description fiable des principaux composants d’intérêt dans les environnements industriels. Nous proposons en outre d’exploiter un certain nombre de règles régissant la manière dont ces primitives s’assemblent en un modèle CAO, basées surdes connaissances ”métier” caractérisant les scènes industrielles que nous traitons. De plus,nous tirons parti d’un modèle CAO existant d´ecrivant une scène similaire à celle que nous souhaitons reconstruire, provenant typiquement de la reconstruction antérieure d’un site semblable au site d’intérêt. Bien que semblables en théorie, ces scènes peuvent présenterdes différences significatives qui s’accentuent au cours de leur exploitation.La méthode que nous développons se fonde sur une formulation Bayésienne du problème de reconstruction : il s’agit de retrouver le modèle CAO le plus probable vis à visdes différentes attentes portées par les données et les a priori sur le modèle à reconstruire. Les diverses sources d’a priori s’expriment naturellement dans cette formulation. Pour permettre la recherche du modèle CAO optimal, nous proposons une approche basée surdes tentatives d’insertion d’objets générés aléatoirement. L’acceptation ou le rejet de ces objets repose ensuite sur l’am´elioration systématique de la solution en cours de construction. Le modèle CAO se construit ainsi progressivement, par ajout et suppression d’objets, jusqu’à obtention d’une solution localement optimale. / 3D models are often used in order to plan the maintenance of industrial environments.When it comes to the simulation of maintenance interventions, these 3D models have todescribe accurately the actual state of the scenes they stand for. These representationsare usually built from 3D point clouds that are huge set of 3D measurements acquiredin industrial sites, which guarantees the accuracy of the resulting 3D model. Althoughthere exists many works addressing the reconstruction problem, there is no solution toour knowledge which can provide results that are reliable enough to be further used inindustrial applications. Therefore this task is in fact handled by human experts nowadays.This thesis aims at providing a solution automating the reconstruction of industrialsites from 3D point clouds and providing highly reliable results. For that purpose, ourapproach relies on some available a priori knowledge and data about the scene to beprocessed. First, we consider that the 3D models of industrial sites are made of simpleprimitive shapes. Indeed, in the Computer Aided Design (CAD) field, this kind of scenesare described as assemblies of shapes such as planes, spheres, cylinders, cones, tori, . . . Ourown work focuses on planes, cylinders and tori since these three kind of shapes allow thedescription of most of the main components in industrial environment. Furthermore, weset some a priori rules about the way shapes should be assembled in a CAD model standingfor an industrial facility, which are based on expert knowledge about these environments.Eventually, we suppose that a CAD model standing for a scene which is similar to theone to be processed is available. This a priori CAO model typically comes from the priorreconstruction of a scene which looks like the one we are interested in. Despite the factthat they are similar theoretically, there may be significant differences between the sitessince each one has its own life cycle.Our work first states the reconstruction task as a Bayesian problem in which we haveto find the most probable CAD Model with respect to both the point cloud and the a prioriexpectations. In order to reach the CAD model maximizing the target probability, wepropose an iterative approach which improves the solution under construction each time anew randomly generated shape is tried to be inserted in it. Thus, the CAD model is builtstep by step by adding and removing shapes, until the algorithm gets to a local maximumof the target probability.
85

Détection de personnes pour des systèmes de videosurveillance multi-caméra intelligents / People detection methods for intelligent multi-Camera surveillance systems

Mehmood, Muhammad Owais 28 September 2015 (has links)
La détection de personnes dans les vidéos est un défi bien connu du domaine de la vision par ordinateur avec un grand nombre d'applications telles que le développement de systèmes de surveillance visuels. Même si les détecteurs monoculaires sont plus simples à mettre en place, ils sont dans l’incapacité de gérer des scènes complexes avec des occultations, une grande densité de personnes ou des scènes avec beaucoup de profondeur de champ menant à une grande variabilité dans la taille des personnes. Dans cette thèse, nous étudions la détection de personnes multi-vues et notamment l'utilisation de cartes d'occupation probabilistes créées en fusionnant les différentes vues grâce à la connaissance de la géométrie du système. La détection à partir de ces cartes d'occupation amène cependant des fausses détections (appelées « fantômes ») dues aux différentes projections. Nous proposons deux nouvelles techniques afin de remédier à ce phénomène et améliorer la détection des personnes. La première utilise une déconvolution par un noyau dont la forme varie spatialement tandis que la seconde est basée sur un principe de validation d’hypothèse. Ces deux approches n'utilisent volontairement pas l'information temporelle qui pourra être réintroduite par la suite dans des algorithmes de suivi. Les deux approches ont été validées dans des conditions difficiles présentant des occultations, une densité de personnes plus ou moins élevée et de fortes variations dans les réponses colorimétriques des caméras. Une comparaison avec d'autres méthodes de l’état de l'art a également été menée sur trois bases de données publiques, validant les méthodes proposées pour la surveillance d'une gare et d'un aéroport / People detection is a well-studied open challenge in the field of Computer Vision with applications such as in the visual surveillance systems. Monocular detectors have limited ability to handle occlusion, clutter, scale, density. Ubiquitous presence of cameras and computational resources fuel the development of multi-camera detection systems. In this thesis, we study the multi-camera people detection; specifically, the use of multi-view probabilistic occupancy maps based on the camera calibration. Occupancy maps allow multi-view geometric fusion of several camera views. Detection with such maps create several false detections and we study this phenomenon: ghost pruning. Further, we propose two novel techniques in order to improve multi-view detection based on: (a) kernel deconvolution, and (b) occupancy shape modeling. We perform non-temporal, multi-view reasoning in occupancy maps to recover accurate positions of people in challenging conditions such as of occlusion, clutter, lighting, and camera variations. We show improvements in people detections across three challenging datasets for visual surveillance including comparison with state-of-the-art techniques. We show the application of this work in exigent transportation scenarios i.e. people detection for surveillance at a train station and at an airport
86

Segmentation and indexation of complex objects in comic book images / Segmentation et indexation d'objets complexes dans les images de bandes dessinées

Rigaud, Christophe 11 December 2014 (has links)
Dans ce manuscrit de thèse, nous détaillons et illustrons les différents défis scientifiques liés à l'analyse automatique d'images de bandes dessinées, de manière à donner au lecteur tous les éléments concernant les dernières avancées scientifiques en la matière ainsi que les verrous scientifiques actuels. Nous proposons trois approches pour l'analyse d'image de bandes dessinées. La première approche est dite "séquentielle'' car le contenu de l'image est décrit progressivement et de manière intuitive. Dans cette approche, les extractions se succèdent, en commençant par les plus simples comme les cases, le texte et les bulles qui servent ensuite à guider l'extraction d'éléments plus complexes tels que la queue des bulles et les personnages au sein des cases. La seconde approche propose des extractions indépendantes les unes des autres de manière à éviter la propagation d'erreur due aux traitements successifs. D'autres éléments tels que la classification du type de bulle et la reconnaissance de texte y sont aussi abordés. La troisième approche introduit un système fondé sur une base de connaissance a priori du contenu des images de bandes dessinées. Ce système permet de construire une description sémantique de l'image, dirigée par les modèles de connaissances. Il combine les avantages des deux approches précédentes et permet une description sémantique de haut niveau pouvant inclure des informations telles que l'ordre de lecture, la sémantique des bulles, les relations entre les bulles et leurs locuteurs ainsi que les interactions entre les personnages. / In this thesis, we review, highlight and illustrate the challenges related to comic book image analysis in order to give to the reader a good overview about the last research progress in this field and the current issues. We propose three different approaches for comic book image analysis that are composed by several processing. The first approach is called "sequential'' because the image content is described in an intuitive way, from simple to complex elements using previously extracted elements to guide further processing. Simple elements such as panel text and balloon are extracted first, followed by the balloon tail and then the comic character position in the panel. The second approach addresses independent information extraction to recover the main drawback of the first approach : error propagation. This second method is called “independent” because it is composed by several specific extractors for each elements of the image without any dependence between them. Extra processing such as balloon type classification and text recognition are also covered. The third approach introduces a knowledge-driven and scalable system of comics image understanding. This system called “expert system” is composed by an inference engine and two models, one for comics domain and another one for image processing, stored in an ontology. This expert system combines the benefits of the two first approaches and enables high level semantic description such as the reading order of panels and text, the relations between the speech balloons and their speakers and the comic character identification.
87

Aide à la détection et à la reconnaissance de défauts structurels dans les pipelines par analyse automatique des images XtraSonic / Helping Smart Detection and Recognition of pipeline structure failures based on automatic "XTraSonic Images" Processing and Analysis

Fouquet, Clément 13 June 2014 (has links)
TRAPIL est une société Française ayant à charge l'exploitation et l'entretien de pipelines d'hydrocarbures. L'entretien de pipelines enterrés nécessite le passage de racleurs équipés de sondes ultrasons réalisant une cartographie de la structure du pipeline, qui est ensuite analysée à la main afin de détecter et d'identifier les différents défauts pouvant apparaître ou évoluer.L'objectif de ce travail de thèse est d'apporter une solution algorithmique permettant d'accélérer et de compléter le travail des analystes à l'aide des méthodes modernes de traitement d'images et du signal.Notre approche suit le mode opératoire des experts et est découpée en trois partie.Tout d'abord nous réalisons une détection des soudures d'aboutage permettant de séparer le pipelines en les différents tubes qui le composent. Les signaux de sondes représentant la circonférence du tube sont regroupés et compressés dans une détection de rupture par comparaison de moyenne à court et long terme, puis les signaux résultants sont fusionnés à l'aide d'une pondération unique permettant une augmentation majeure du contraste entre bruit et soudure, offrant une détection et une localisation presque sans faille.Les tubes subissent ensuite une première segmentation visant à éliminer le plus grand nombre de pixels sains. Usant de modélisation d'histogramme des valeurs d'épaisseur par un algorithme EM initialisé pour notre problématique, l'algorithme suit un principe récursif comparable aux méthodes de type split and merge pour détecter et isoler les zones dangereuses.Enfin, Les zones dangereuses sont identifiées à l'aide d'une foret aléatoire, apprise sur un grand nombre d'exemples de défauts. Cette troisième partie est centrée sur l'étude de différentes méthodes de reconnaissance de forme appliquées à notre nouvelle problématique.Au travers de ces différentes étapes, les solutions que nous avons apportées permettent à TRAPIL un gain de temps significatif sur les tâches les plus fastidieuses du processus d'analyse (par exemple 30% sur la détection de soudures) et leur offre de nouvelles possibilités commerciales, par exemple la possibilité de fournir un pré-rapport à leur clientèle en quelques jours pendant que l'analyse manuelle est réalisée pouvant prendre plus d'un mois. / TRAPIL is a French society who is in charge of exploitation and maintenance of oil pipelines. Maintenance of buried pipeline implies the use of ultrasonic sensor-equipped devices, providing thickness and structural maps of the pipe, which are analysed by experts in order to detect and identify defects that may appear or evolve.The objective of this work is to provide an algoritmic solution allowing to accelerate and aid the experts's work with modern image and signal processing methods.Our approach follows the experts's operating mode and is divided in three sections.First, a weld detection is realized allowing to split the pipe in tubes. The signals of probes representing the circumference of the pipe are regrouped and compressed through an abrupt change detection, using short and long-term average comparison, then the resulting signals are merged using a unique weightening function allowing a massive increase of the contrast between welds and noise, offering near-perfect detection and localization.The tubes then undergoes a first segmentation aiming at eliminating a large amount of sane pixels. Using histogram modelization through an EM algorithm tuned specially for our purpose, the algorithm follows a recursive approach comparable to split and merge methods to detect and isolate dangerous areas.Finally, those dangerous areas are identified with a Random Forest, which has been learnt on a large amount of defect examples. This third part is greatly focused on the study of different pattern recognition methods applied on our new problematic.Through those different steps, the solution we brought allows TRAPIL to save a lot of time on the most tedious tasks of the analysis process (for example 30% of gain in processing time for the weld detection) and offers new commercial possibilities, like for example the possibility to provide their clients a first report in a matter of days, while the manual analysis is completed, which can take more than a month.
88

Comportements d'agents en mouvement : une approche cognitive pour la reconnaissance d'intentions / Moving agents behaviours : a cognitive approach for intention recognition

Vidal, Nicolas 28 September 2014 (has links)
Dans un contexte applicatif de surveillance de zone maritime, nous voulons fournir à un opérateur humain des informations sémantiquement riches et dynamiques relatives aux comportements des entités sous surveillance. Réussir à relier les mesures brutes en provenance d’un système de capteurs aux descriptions abstraites de ces comportements est un problème difficile. Ce dernier est d’ailleurs en général traité en deux temps: tout d’abord, réaliser un prétraitement sur les données hétérogènes, multidimensionnelles et imprécises pour les transformer en un flux d’évènements symbolique, puis utiliser des techniques de reconnaissance de plans sur ces mêmes évènements. Ceci permet de décrire des étapes de plans symboliques de haut niveau sans avoir à se soucier des spécificités des capteurs bas niveau. Cependant, cette première étape est destructrice d’information et de ce fait génère une ambigüité supplémentaire dans le processus de reconnaissance. De plus, séparer les tâches de reconnaissance de comportements est générateur de calculs redondants et rend l’écriture de la bibliothèque de plans plus ardue. Ainsi, nous proposons d’aborder cette problématique sans séparer en deux le processus de reconnaissance. Pour y parvenir, nous proposons un nouveau modèle hiérarchique, inspiré de la théorie des langages formels, nous permettant de construire un pont au-dessus du fossé sémantique séparant les mesures des capteurs des intentions des entités. Grâce à l’aide d’un ensemble d’algorithmes manipulant ce modèle, nous sommes capables, à partir d’observations, de déduire les plausibles futures évolutions de la zone sous surveillance, tout en les justifiant des explications nécessaires. / In a maritime area supervision context, we seek providing a human operator with dynamic information on the behaviors of the monitored entities. Linking raw measurements, coming from sensors, with the abstract descriptions of those behaviors is a tough challenge. This problem is usually addressed with a two-stepped treatment: filtering the multidimensional, heterogeneous and imprecise measurements into symbolic events and then using efficient plan recognition techniques on those events. This allows, among other things, the possibility of describing high level symbolic plan steps without being overwhelmed by low level sensor specificities. However, the first step is information destructive and generates additional ambiguity in the recognition process. Furthermore, splitting the behavior recognition task leads to unnecessary computations and makes the building of the plan library tougher. Thus, we propose to tackle this problem without dividing the solution into two processes. We present a hierarchical model, inspired by the formal language theory, allowing us to describe behaviors in a continuous way, and build a bridge over the semantic gap between measurements and intents. Thanks to a set of algorithms using this model, we are able, from observations, to deduce the possible future developments of the monitored area while providing the appropriate explanations.
89

Suivi et catégorisation multi-objets par vision artificielle. Applications au suivi de personnes et de véhicules

Bardet, François 30 October 2009 (has links) (PDF)
Cette thèse présente une méthode de suivi et de classification conjoints en temps réel d'un nombre variable d'objets tels que des piétons et/ou des véhicules, sous conditions d'illumination variables au cours du temps. La méthode retenue entre dans le champ du suivi Multi-Objets par Filtre Particulaire, dont la clé de voûte est l'échantillonnage des particules. Nous examinons deux familles de filtres particulaires : les Filtres Particulaires Partitionnés, et les Filtres Particulaires par Chaîne de Markov (FP MCMC). Nous comparons ensuite leurs performances sur des données de synthèse. Les résultats obtenus montrent la supériorité du Filtre Particulaire MCMC. Un système de suivi et classification conjoints en temps réel d'un nombre variable d'ojets tels que des piétons et/ ou des véhicules, sous illumination variable, est ensuite présenté. La mesure est délivrée par une ou plusieurs caméras statiques. Nous avons délibérément choisi d'alimenter le filtre avec une observation pauvre, reposant uniquement sur une segmentation binaire avant-plan / arrière-plan basée sur un modèle de l'arrière-plan mis à jour en ligne à chaque image. Pour résister aux variations d'illumination, les ombres sont modélisées et le filtre est étendu afin de suivre conjointement le soleil et les objets. Les résultats de suivi et classification en temps réel sont présentés et discutés sur des séquences réelles et sur des séquences de synthèse, impliquant plusieurs catégories d'utilisateurs tels que des piétons, des voitures, des camionettes et des poids lourds.
90

BetaSAC et OABSAC, deux nouveaux 'echantillonnages conditionnels pour RANSAC

Méler, Antoine 31 January 2013 (has links) (PDF)
L'algorithme RANSAC est l'approche la plus commune pour l'estimation robuste des paramètres d'un modèle en vision par ordinateur. C'est principalement sa capacité à traiter des données contenant potentiellement plus d'erreurs que d'information utile qui fait son succès dans ce domaine où les capteurs fournissent une information très riche mais très difficilement exploitable. Depuis sa création, il y a trente ans, de nombreuses modifications ont été proposées pour améliorer sa vitesse, sa précision ou sa robustesse. Dans ce travail, nous proposons d'accélérer la résolution d'un problème par RANSAC en utilisant plus d'information que les approches habituelles. Cette information, calculée à partir des données elles-même ou provenant de sources complémentaires de tous types, nous permet d'aider RANSAC à générer des hypothèses plus pertinentes. Pour ce faire, nous proposons de distinguer quatre degrés de qualité d'une hypothèse: la "non contamination", la "cohésion", la "cohérence" et enfin la "pertinence". Puis nous montrons à quel point une hypothèse non contaminée par des données erronées est loin d'être pertinente dans le cas général. Dès lors, nous nous attachons à concevoir un algorithme original qui, contrairement aux méthodes de l'état de l'art, se focalise sur la génération d'échantillons "pertinents" plutôt que simplement "non contaminés". Notre approche consiste à commencer par proposer un modèle probabiliste unifiant l'ensemble des méthodes de réordonnancement de l'échantillonnage de RANSAC. Ces méthodes assurent un guidage du tirage aléatoire des données tout en se prémunissant d'une mise en échec de RANSAC. Puis, nous proposons notre propre algorithme d'ordonnancement, BetaSAC, basé sur des tris conditionnels partiels. Nous montrons que la conditionnalité du tri permet de satisfaire des contraintes de cohérence des échantillons formés, menant à une génération d'échantillons pertinents dans les premières itérations de RANSAC, et donc à une résolution rapide du problème. L'utilisation de tris partiels plutôt qu'exhaustifs, quant à lui, assure la rapidité et la randomisation, indispensable à ce type de méthodes. Dans un second temps, nous proposons une version optimale de notre méthode, que l'on appelle OABSAC (pour Optimal and Adaptative BetaSAC), faisant intervenir une phase d'apprentissage hors ligne. Cet apprentissage a pour but de mesurer les propriétés caractéristiques du problème spécifique que l'on souhaite résoudre, de façon à établir automatiquement le paramétrage optimal de notre algorithme. Ce paramétrage est celui qui doit mener à une estimation suffisamment précise des paramètres du modèle recherché en un temps (en secondes) le plus court. Les deux méthodes proposées sont des solutions très générales qui permettent d'intégrer dans RANSAC tout type d'information complémentaire utile à la résolution du problème. Nous montrons l'avantage de ces méthodes pour le problème de l'estimation d'homographies et de géométries épipolaires entre deux photographies d'une même scène. Les gains en vitesse de résolution du problème peuvent atteindre un facteur cent par rapport à l'algorithme RANSAC classique.

Page generated in 0.1033 seconds