• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 3
  • 1
  • Tagged with
  • 36
  • 36
  • 11
  • 11
  • 10
  • 10
  • 10
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Modélisation et interprétation d'images à l'aide de graphes

Lerallut, Romain 13 September 2006 (has links) (PDF)
L'analyse et la comparaison intelligentes d'images sont parmi les sujets suscitant le plus d'intérêt dans les milieux académiques autant qu'industriels. Décrire et comparer automatiquement les images est en effet un enjeu critique pour le plein développement de la «société de l'information». Les moteurs de recherche fonctionnant sur le texte ont prouvé leur utilité de façon éclatante mais à l'heure actuelle il n'existe aucun système équivalent fonctionnant uniquement sur les images. Une explication possible est que nous ne disposons pas de langage permettant de décrire les images et que les comparaisons pertinentes sont ainsi beaucoup plus difficiles que dans le cas du texte. Cependant, le cas du texte nous montre qu'il n'est pas nécessaire que les machines comprennent ce qu'elles analysent pour renvoyer des résultats pertinents. Des méthodes simples d'analyse syntaxique associées à des règles de composition suffisent à piloter des moteurs de recherche d'une grande efficacité. Pour permettre à des machines de simuler l'interprétation des images, il faudrait donc créer des descripteurs faisant office de mots et des règles pour les regrouper, ce qui permettrait de comparer des scènes comme on compare des phrases. On dispose d'ores et déjà de nombreuses méthodes pour détecter automatiquement de petits objets et des régions dans des images, par leur couleur commune, leur mouvement identique, etc. Poursuivant l'analogie, on pourrait comparer ces petits objets à des syllabes. La difficulté consiste à les grouper en mots, puis en phrases et comparer celles-ci, tout en étant robuste face aux perturbations. Pour ce faire, nous utilisons des graphes pour stocker ces objets et leurs relations. Ces relations peuvent être de voisinage ou d'inclusion, ce qui conduit les graphes à être respectivement des graphes plans ou des arbres. Nous verrons ainsi plusieurs méthodes permettant de construire l'un ou l'autre type de représentation, ainsi que leurs avantages et inconvénients. Dans une première étape, nous avons utilisé les algorithmes d'appariement de graphes développés par Cristina Gomila à la fin de sa thèse au CMM (1998-2001). Profitant du projet européen MASCOT étudiant l'utilisation de «métadonnées» pour faciliter le codage vidéo, nous avons étudié en détail les forces et faiblesses de cette approche. Nous avons d'abord testé le remplacement de l'algorithme au coeur de l'appariement de graphes. Nous avons obtenu une légère amélioration de la stabilité et également de meilleurs temps de calcul. Puis nous avons cherché à améliorer notre robustesse face aux variations de segmentation en utilisant une projection dans le domaine spectral. Malgré de bons résultats sur des images simples, nos essais sur des images plus difficiles n'ont pas été couronnés de succès. Pour pallier cette fragilité dès que les graphes ne sont plus similaires, nous avons préféré revenir à notre matériau source, les images. La seconde étape de ce travail a porté sur le développement de techniques basées sur l'image pour réduire la sensibilité de nos algorithmes de segmentation au bruit et aux petites variations. Pour ce faire, nous avons développé une classe d'opérateurs de filtrage adaptatifs, les «amibes morphologiques », extrêmement efficaces pour réduire le bruit dans les images. Par ailleurs, nous avons également développé un opérateur de gradient couleur robuste permettant de mieux détecter les contours dans les images bruitées. Ces deux opérateurs ont amélioré de façon parfois impressionnante la stabilité de nos modélisations, puis de nos graphes et donc des résultats globaux. L'étape suivante dans ce travail a porté sur le développement de modélisations d'objets indépendamment du reste de l'image. La motivation derrière cette approche est de considérer que, dans certains scénarios, le contenu de l'image, hors de certains objets bien définis, n'est pas informatif. Il faut donc analyser directement et de la façon la plus précise possible les objets eux-mêmes. Nous avons dans un premier temps supposé que les segmentations des objets étaient connues, afin de nous concentrer sur le calcul d'une signature robuste de chaque objet. Pour l'obtenir, nous avons modifié un algorithme de ligne de partage des eaux pour effectuer une resegmentation «top-down» d'un espace d'échelle morphologique basé sur des nivellements. Ceci a donné lieu à une nouvelle modélisation robuste utilisant des arbres de régions imbriquées. Nous avons également développé une distance entre ces arbres et nous l'avons testée sur une base d'images classique dans le domaine de l'indexation. La dernière étape est centrée sur l'aspect applicatif. En premier lieu en comparant les différentes approches présentées dans ce travail, notamment aux niveaux de leur robustesse et de leur vitesse d'exécution. Enfin, nous avons cherché la meilleure combinaison de techniques pour concevoir une application de vidéosurveillance. En particulier, nous avons développé des techniques rapides et robustes de segmentation dans le cadre du projet PS26-27 «Environnement Intelligent» en collaboration avec ST Microelectronics et le groupe ORION de l'INRIA. Ce projet visait à construire un démonstrateur de technologies de vidéosurveillance appliquées à la détection d'accidents dans les cadres domestique et hospitalier. Notre part du travail consistait à la mise au point d'algorithmes de détection de silhouettes en mouvement dans des séquences vidéo. Ainsi, en couplant ces techniques à nos descripteurs d'objets par arbres, nous avons pu définir des signatures robustes de personnes, qui pourront être utilisées avec un grande efficacité dans des systèmes automatisés de vidéosurveillance.
12

Mouvement et vidéo : estimation, compression et filtrage morphologique

Laveau, Nicolas 12 December 2005 (has links) (PDF)
Le travail de thèse développé dans ce mémoire porte sur le traitement des séquences vidéos. Ceci inclut la compression pour une grande partie de la thèse, mais également le filtrage spatio-temporel et la segmentation vidéo. Un des outils d'analyse récurrent dans chacune de ces applications est la mesure du mouvement, c'est-à-dire la description de la cohérence temporelle d'une séquence vidéo. Un système de compression vidéo comprend généralement les trois composantes suivantes : estimation du mouvement, transformations temporelle et spatiale, quantification et codage des coefficients. Nous nous intéressons successivement à chacune de ces composantes. Dans un premier temps, nous essayons d'adapter une méthode d'estimation par projection du flot optique sur une base d'ondelettes à valeur complexe à la compression vidéo. Le champ obtenu étant dense et sensible au bruit, nous introduisons dans la résolution un élément de régularisation afin de diminuer son coût de codage. En dépit d'une nette amélioration apportée par nos modifications, la technique d'estimation par projection sur une base d'ondelettes n'est pas compétitive face au block-matching qui constitue l'algorithme de référence pour la compression vidéo. Cela illustre bien le fait que le choix et la conception d'une méthode sont étroitement liés à l'usage qui en est fait : des mé- thodes d'estimation de mouvement optimisées pour des applications aussi diverses que la compression vidéo, le filtrage et la segmentation, ou encore l'analyse de scènes 3D ont peu de chances d'être les mêmes. Dans ces expériences, nous avons utilisé une méthode visant à satisfaire un critère qui est équivalent à un critère d'appariement optimal pour la compression sous des conditions théoriques qui ne sont en général pas vérifiées. Une telle approche est donc visiblement sous-optimale. Forts de cette observation, nous avons ensuite développé une méthode de mesure de mouvement qui repose sur une paramétrisation du champ bilinéaire par morceaux, et qui minimise cette fois directement l'erreur quadratique moyenne qui est notre critère d'évaluation. Nous montrons qu'il est possible d'obtenir de bons résultats quand les paramètres du champ sont épars. Un codage vidéo avec une prédiction temporelle suppose de coder des données aussi hétérogènes que des champs de mouvement ou des images d'erreur. Nous avons travaillé sur l'allocation de débit entre images d'erreur et de manière moins approfondie entre image d'erreur et champ de mouvement. Nous avons adapté un modèle de planification de débit introduit par Mallat et Falzon qui a été initialement conçu pour des images statiques et qui est actuellement utilisé pour la compression au ot d'images satellitales. Cette approche se révèle meilleure que des approches plus classiquement utilisées en compression vidéo. Pour pouvoir effectuer un codage par transformée du champ et des images d'erreur, nous avons cherché à concevoir de nouvelles transformations en sous-bandes non-linéaires. Pour cela, nous avons utilisé le schéma de lifting, qui garantit l'inversibilité formelle des transformations qu'il peut réaliser, que celles-ci soient linéaires ou non. Nous avons construit deux nouvelles décompositions non-linéaires. La première vise à réduire un artéfact communément appelé e et de Gibbs. Cette première décomposition consiste à utiliser un prédicteur de Deslauriers-Dubuc modifié de manière à réduire ces artéfacts. La modification introduite permet effectivement de réduire les oscillations autour de discontinuités en échange d'un surcoût modeste en terme d'efficacité de représentation dans les sections régulières du signal représenté. La formulation évite le mécanisme de transition d'un filtre à l'autre relativement habituel dans ce genre d'approche en recourant à des opérateurs continus de type min et max, qui permettent de garantir la continuité de la transformation et donc sa stabilité après quantification. L'autre se propose d'améliorer la décomposition en ondelettes du champ de mouvement en utilisant l'information qu'apporte chacune de ses composantes sur l'autre. En effet, l'intuition nous incite à penser que les discontinuités sont présentes au même endroit dans chacune des composantes du mouvement. Nous nous servons de cette co-occurrence des discontinuités pour choisir le filltre de prédiction. Dans les deux cas, les méthodes mises au point donnent des résultats positifs sur des signaux de synthèse mais perdent en efficacité sur des signaux réels. Une des grandes difficultés est de mettre au point un étage de mise-à-jour dans le schéma de lifting. Par ailleurs, le schéma linéaire le plus efficace est un schéma à 4 étages pour lequel il est difficile de concevoir un concurrent non-linéaire dans la mesure où ses propriétés sont difficilement lisibles sur les étages individuels du schéma de lifting. Nfin transposé des idées rencontrées en compression vidéo pour dé nir des opérations de filtrage morphologique vidéo intégrant la mesure du mouvement, utilisant des éléments structurants qui suivent le mouvement. L'application de ces idées donne des résultants probants en filltrage et en segmentation, en particulier grâce à une forte cohérence spatio-temporelle introduite dans les voisinages : cette approche donne des résultats de segmentation plus stables puisqu'elle impose une cohérence temporelle beaucoup plus forte aux frontières des régions que les méthodes itératives en temps. Nous discutons ensuite des possibilités d'utilisation de champs de mouvement à précision sous-pixellique.
13

Segmentation interactive d'images fixes et de séquences vidéo basée sur des hiérarchies de partitions

Zanoguera Tous, Maria Fransisca 13 December 2001 (has links) (PDF)
La grande variété des images et séquences vidéo rencontrées dans le domaine multimédia rendent tout projet de segmentation automatique extrêmement complexe. Notre approche cherche à obtenir une segmentation efficace au prix d'un minimum d'interaction. Pour permettre une grande flexibilité et des temps de réponse rapides, le contenu de la séquence est représenté en forme de partitions emboitées. Tous les contours possibles dans l'image sont détectés chacun avec un indice indiquant sa force. L'étape de segmentation proprement dite offrira à l'utilisateur divers mécanismes de sélection finale des contours qui réellement l'intéressent. Ainsi de multiples segmentations sont possibles sur cette représentation hiérarchique, sans nécessiter de nouveaux calculs. Dans un premier temps, différentes hiérarchies associées aux inondations morphologiques sont étudiées, ainsi que plusieurs mécanismes permettant l'introduction de connaissances à priori quand elles sont disponibles. Dans un deuxième temps, les notions présentées pour les images fixes sont étendues aux séquences vidéo en utilisant une approche 3D-récursive.Ainsi, une unique hiérarchie associée à une séquence vidéo complète est calculée. Des outils d'interaction sont proposés permettant à l'utilisateur de manipuler la hiérarchie de manière intuitive. Grâce aux représentations en forme d'arbre utilisées, la manipulation de la hiérarchie se fait avec un très faible coût de calcul et les résultats de l'interaction sont perçus par l'utilisateur comme étant immédiats.
14

Quantification de la progression virale dans les rétinopathies à CMV par des techniques d'analyse d'images fondées sur des méthodes d'apprentissage par l'exemple

Brahmi, Djamel. Fertil, Bernard. January 2001 (has links)
Thèse doctorat : Médecine : Paris 5 : 2001. / Bibliogr. p. 171-176.
15

Reconstruction d'images en tomographie scintigraphique cardiaque par fusion de données

Coutand, Frédérique 06 December 1996 (has links) (PDF)
La méthode proposée dans ce manuscrit consiste a utiliser la fusion de données anatomiques pour améliorer la quantification des images reconstruites en tomographie d'émission monophotonique (t.e.m.p.). Les données anatomiques (déduites d'autres modalités) sont utilisées afin d'obtenir une modélisation paramétrique (par des fonctions spline) des organes de la coupe a reconstruire. Dans la pratique, on utilise deux types d'images: premièrement des images en transmission qui servent a obtenir les contours des organes tels que le thorax et les poumons. Deuxièmement, des images en émission qui donnent une prelocalisation de l'activité et une première estimation des contours du ventricule gauche, qui sont améliorés au cours du processus de reconstruction. Le modèle géométrique nous permet de mieux caractériser la formation des données scintigraphiques et ainsi d'améliorer le problème direct. Les principales originalités de ces travaux consistent a restreindre le champ de la reconstruction uniquement aux régions actives et d'utiliser un maillage adapte aux contours des régions a reconstruire (pour éviter des erreurs de volume partiel). La réduction du nombre d'inconnus permet de mieux conditionner le problème inverse et ainsi de réduire le nombre de projections nécessaires à la reconstruction. La méthode de reconstruction qui est proposée repose sur une double estimation ; estimation de la distribution de radioactivité a l'intérieur de notre modèle géométrique, et estimation des paramètres optimaux de ce modèle. les reconstructions 2D à partir de données simulées puis enregistrées sur fantôme, ont permis de valider le principe de la méthode et montrent une nette amélioration de la quantification des images scintigraphiques
16

Etudes et évaluations d'architectures de pré-synthétiseurs d'images réalistes : HELIOS / GETRIS

Chibane, K. 13 November 1986 (has links) (PDF)
A travers l'étude du système de synthèse d'images réalistes HELIOS, le lecteur pourra au fil des chapitres mesurer la progression technique d'une version du terminal a une autre: HELIOS-I: configuration calculateur satellite, HELIOS-II et III: configuration Console évoluée, GETRIS: configuration station de travail et version commercialisée par la société grenobloise GETRIS-IMAGES. Une attention particulière est portée sur l'impact du choix de conception d'une architecture par rapport aux performances obtenues en temps réel pour des images réalistes en trois dimensions (processeurs, interface de communication, type de mémoires etc)
17

Contributions aux méthodes directes d'estimation et de commande basées sur la vision

Silveira Filho, Geraldo 29 October 2008 (has links) (PDF)
Dans leur grande majorité les techniques d'estimation et de contrôle basées sur la vision s'appuient sur l'extraction d'informations géométriques dans les images. L'objectif de cette thèse est de développer une nouvelle approche exploitant directement l'intensité des pixels dans l'image en s'affranchissant de l'étape d'extraction de ces informations. Nous espèrons montrer que le fait d'utiliser toute l'information contenue dans l'image permet en outre d'augmenter la précision et le domaine d'application. Dans ce but, nous proposons un modèle générique de transformation prenant à la fois en compte les aspects géométriques et photométriques que l'on associe à une méthode efficace d'optimisation pour le recalage d'images, qui est valide pour des modes d'acquisition variés (incluant les images couleurs) et pour des classes d'objets rigides ou déformables. En particulier, le nouveau modèle photométrique assure une robustes aux variations d'éclairage quelconques, et il est indépendants des attributs des objets et des caractéristiques de la caméra. Ce cadre méthodologique est formulé, dans le cas d'un modèle sténopé, à la fois dans le cas calibré et non calibré, les différences portant principalement sur la nature de la paramétrisation choisie. Une méthode robuste de suivi visuel est proposée permettant le recalage d'une image de référence tout au long de la séquence. A partir des paramètres estimés liant l'image de référence à l'image courante, nous proposons une nouvelle stratégie d'asservissement visuel permettant de contrôler les six degrés de liberté du mouvement de la caméra pour l'amener dans la pose où a été acquise l'image de référence. Cette nouvelle approche ne nécessite pas de connaissance précise sur les paramètres de la caméra ni sur la géométrie de l'objet observé, permettant ainsi d'obtenir une méthode générique et fiable. Dans le cas de l'utilisation d'une caméra calibrée, la méthode de suivi robuste permet d'accéder directement à la pose de la caméra et à la structure géométrique de la scène. Elle peut donc être appliquée pour proposer une nouvelle solution au problème de SLAM (Simultaneous Localization and Mapping) visuel. Enfin, nous présentons une méthode d'asservissement visuel intégrant directement les estimées fournies par la méthode de suivi et permettant ainsi la navigation autonome de robot dans un environnement inconnu a priori. Les méthodes développées tout au long de cette thèse ont été confrontées aux approches classiques de la littérature, et ont montré des avantages certains. Elles ont également été testée en condition réelle sur des séquences caractéristiques de différentes applications et dans des conditions variées. Les conditions et compromis à faire pour obtenir performances temps réel et précision, sont également discutés dans le document.
18

Visibilité tridimensionnelle : étude analytique et apllications

Durand, Frédo 12 July 1999 (has links) (PDF)
Les problèmes de visibilité sont centraux pour bien des applications en synthèse d'images. Les exemples les plus classiques sont le calcul de vue, les limites d'ombres, la visibilité mutuelle de paires de points, etc. Nous présentons tout d'abord une étude théorique des propriétés de visibilité tridimensionnelle dans l'espace des rayons lumineux. Nous regroupons les rayons qui voient le même objet, ce qui définit le complexe de visibilité 3D. Les frontières de ces groupes de rayons décrivent les événements visuels de la scène (limites d'ombres, apparition d'objets lors du déplacement d'un observateur, etc.). Nous simplifions le complexe de visibilité en un graphe de l'espace des droites que nous appelons le squelette de visibilité. Les événements visuels sont les arcs de ce graphe, et notre algorithme de construction évite le traitement complexe des ensembles 1D de droites correspondants. Nous calculons uniquement les extrémités (droites à 0 degré de liberté) de ces ensembles, et les événements visuels sont déduits topologiquement grâce à un catalogue d'adjacences. Notre implémentation montre que le squelette est plus robuste, plus général et plus efficace que les structures antérieures. Nous avons appliqué le squelette de visibilité à la simulation de l'éclairage, où il permet des calculs plus précis de manière plus rapide. Nous avons également développé un précalcul pour l'affichage de scènes très complexes. Nous calculons l'ensemble des objets potentiellement visibles depuis un volume de l'espace. Notre méthode est la première qui prend en compte l'occultation due à la conjonction de plusieurs bloqueurs dans ce contexte. Nos tests d'occultation sont effectués grâce à des projections étendues sur des plans, ce qui les rend simples, efficaces et robustes. Nous proposons enfin un vaste tour d'horizon des travaux sur la visibilité dans différents domaines.
19

Architectures flot de données dédiées au traitement d'images par morphologie mathématique

Clienti, Christophe 30 September 2009 (has links) (PDF)
Nous abordons ici la thématique des opérateurs et processeurs flot de données dédiés au traitement d'images et orientés vers la morphologie mathématique. L'objectif principal est de proposer des architectures performantes capables de réaliser les opérations simples de ce corpus mathématique afin de proposer des opérateurs morphologiques avancés. Ces dernières années, des algorithmes astucieux ont été proposés avec comme objectif de réduire la quantité des calculs nécessaires à la réalisation de transformations telle que la ligne de partage des eaux. Toutefois, les mises en œuvre proposées font souvent appel à des structures de données complexes qui sont difficiles à employer sur des machines différentes des processeurs généralistes monocœurs. Les processeurs standard poursuivant aujourd'hui leur évolution vers une augmentation du parallélisme, ces implémentations ne nous permettent pas d'obtenir les gains de performance escomptés à chaque nouvelle génération de machine. Nous proposons alors des mises en œuvre rapides des opérations complexes de la morphologie mathématique par des machines exploitant fortement le parallélisme intrinsèque des opérations basiques. Nous étudions dans une première partie les processeurs de voisinage travaillant directement sur un flot de pixels et nous proposons différentes méthodologies de conception rapide de pipelines dédiés à une application. Nous proposons également une structure de pipeline programmable via l'utilisation de processeurs vectoriels avec différentes possibilités de chaînage. Enfin, une étude avec des machines est proposée afin d'observer la pertinence de notre approche.
20

Traitement d'image appliqué aux images d'autofluorescence dans le cadre de la Dégénérescence Maculaire Liée à l'Âge (DMLA)

Chaudhry, Adnan Rashid 07 December 2009 (has links) (PDF)
La Dégénérescence Maculaire Liée à l'Age (DMLA) est la principale cause de cécité chez les personnes de plus de 55 ans. Dans ses premiers stades, les patients peuvent ne pas ressentir de déficience visuelle. Aux stades avancés, la forme humide et la forme sèche doivent être distinguées. La forme humide est définie par la croissance de nouveaux vaisseaux sous la rétine. La forme sèche se caractérise par des atrophies souvent appelées atrophies géographiques des photorécepteurs et de l'épithélium pigmentaire de la rétine. Dans les deux formes, la rétine centrale peut être détruite par une dégénérescence substantielle des photorécepteurs accompagnée d'une perte de vision importante. Au cours des dernières années, l'autofluorescence du fond d'œil (Fundus AutoFluorescence (FAF)) a montré que l'imagerie pouvait être utile pour la DMLA, en particulier pour la DMLA de type sec au niveau du diagnostic, de la documentation des changements, de l'identification de la progression de la maladie, et du suivi des nouvelles thérapies. Les images autofluorescentes de la rétine sont obtenues avec un angiographe équipé d'un laser de 488 nm de longueur d'onde (ophtalmoscope à balayage laser (Scanning Laser Ophthalmoscope (SLO)). L'autofluorescence est émise par la présence d'un pigment (lipofuscine), qui est un bon indicateur de l'activité de la rétine. Les images FAF sont capturées avec un SLO dans une séquence de 15-20 images, chacune ayant un faible rapport signal / bruit et un faible contraste. L'objectif de la thèse est le développement d'outils pour le traitement automatique des images FAF. Ces outils apporteront une aide importante aux spécialistes dans le diagnostic et le suivi de la maladie.

Page generated in 2.3984 seconds