• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 3
  • 1
  • Tagged with
  • 36
  • 36
  • 11
  • 11
  • 10
  • 10
  • 10
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Dans le cadre de CLOVIS un logiciel pilote du terminal de synthèse d'images réalistes HELIOS /

Boulze, Alain. Martinez, F.. January 2008 (has links)
Reproduction de : Mémoire d'ingénieur : informatique : Grenoble, CNAM : 1984. / Titre provenant de l'écran-titre. Bibliogr. p. 197-199.
2

Adéquation algorithme - architecture pour le traitement multimédia embarqué

Roux, S. 22 January 2002 (has links) (PDF)
Cette thèse traite de la faisabilité de l'intégration d'un service de visiophonie sur les terminaux mobiles de prochaine génération au travers d'une méthodologie de conception des<br />systèmes multimedia embarqués. <br />Nous commençons par situer le contexte de l'étude, les réseaux 3G, les terminaux mobiles, les processeurs pour le codage vidéo, ainsi que les normes de codage des groupes ISO/MPEG et UIT-T. Puis, nous proposons une méthodologie de conception au niveau système prenant en compte les contraintes de l'embarqué, en particulier, l'autonomie du terminal que nous appliquons au<br />codeur vidéo H.263 (recommandation UIT-T). Cette méthodologie s'articule autour de deux axes: algorithmique (spécification système et analyse de performance) et architectural (partitionnement matériel / logiciel et analyse de l'efficacité de l'implémentation). <br />Face aux contraintes de la visiophonie embarquée, nous proposons un nouveau schéma de compression vidéo exploitant l'information sémantique de l'image vidéo, dans l'esprit de la norme MPEG-4 (codage objet). Nous proposons ainsi, à la fois un algorithme adaptatif pour l'extraction du visage, et un nouveau schéma de codage pour la compression vidéo à très bas débit.
3

Mise en correspondance de partitions en vue du suivi d'objets

Gomila, Cristina 12 September 2001 (has links) (PDF)
Dans le domaine des applications multimédia, les futurs standards vont permettre de créer de nouvelles voies de communication, d'accès et de manipulation de l'information audiovisuelle qui vont bien au-delà de la simple compression à laquelle se limitaient les standards de codage précédents. Parmi les nouvelles fonctionnalités, il est espéré que l'utilisateur pourra avoir accès au contenu des images par édition et manipulation des objets présents. Néanmoins, la standardisation ne couvre que la représentation et le codage de ces objets, en laissant ouvert un large champ de développement pour ce qui concerne la probl ématique liée à leur extraction et à leur suivi lorsqu'ils évoluent au long d'une séquence vidéo. C'est précisément sur ce point que porte cette thèse. Dans un premier temps, nous avons procédé à l' étude et à la mise au point d'algorithmes de filtrage et de segmentation à caractère générique, car ces outils sont à la base de tout système d'analyse du contenu d'une image ou d'une séquence. Plus concr ètement, nous avons étudié en détail une nouvelle classe de filtres morphologiques connus sous le nom de nivellements ainsi qu'une variation des algorithmes de segmentation basée sur l'inondation contrainte d'une image gradient. Les techniques de segmentation ont pour but de produire une partition de l'image aussi proche que possible de celle faite par l' oeil humain, en vue de la reconnaissance postérieure des objets. Néanmoins, dans la plupart des cas, cette dernière tâche ne peut être faite que par interaction humaine et, pourtant, lorsqu'on veut retrouver un objet dans une large collection d'images, ou suivre son évolution au long d'une s équence, la surveillance de chacune des partitions devient impossible. S'impose alors le développement d'algorithmes de mise en correspondance capables de propager l'information dans une série d'images, en limitant l'interaction humaine à une seule étape d'initialisation. En faisant le passage des images fixes aux séquences, la partie centrale de cette thèse est consacrée à l' étude du problème de la mise en correspondance de partitions. La méthode que nous avons développée, nommée technique de Segmentation et Appariement Conjoint (SAC), peut être définie comme étant de nature hybride. Elle combine des algorithmes classiques de mise en correspondance de graphes avec de nouvelles techniques d' édition, basées sur les hiérarchies de partitions fournies par la segmentation morphologique. Cette combinaison a donné lieu à un algorithme très robuste, malgré l'instabilité typiquement associée aux processus de segmentation. La segmentation de deux images peut différer fortement si on la considère du seul point de vue d'une partition unique ; néanmoins nous avons montré qu'elle est beaucoup plus stable si on considère des hiérarchies de partitions emboîtées, dans lesquelles tous les contours présents apparaissent, chacun avec une valuation indiquant sa force. Les résultats obtenus par la technique SAC ont fait d'elle une approche très prometteuse. Souple et puissante, elle est capable de reconnaître un objet lorsqu'il réapparaît après occultation grâce à la gestion d'un graphe de mémoire. Bien que nous nous soyons int éressés tout particulièrement à la problématique du suivi, les algorithmes mis au point ont un champ d'application beaucoup plus vaste dans le domaine de l'indexation, en particulier pour la recherche d'objets dans une base de données d'images ou de séquences. Finalement, dans le cadre du projet européen M4M (MPEG f(o)ur mobiles) nous avons abordé la mise en oeuvre d'un démonstrateur de segmentation en temps réel capable de détecter, segmenter et suivre un personnage dans des séquences de vidéophonie. Dans le cadre de cette application, la contrainte du temps réel est devenue le grand d éfi à surmonter, en nous obligeant a simplifier et à optimiser nos algorithmes. L'int erêt principal en termes des nouveaux services est double : d'un côté le détourage automatique du locuteur permettrait d'adapter le codage à l'objet, économisant du débit sans perte de qualité sur les régions d'int erêt ; d'un autre côté il permettrait de faire l' édition personnalisée des séquences en changeant la composition de la scène, par exemple en introduisant un nouveau fond, ou en disposant plusieurs locuteurs dans une salle de conférence virtuelle.
4

Filtrage, réduction de dimension, classification et segmentation morphologique hyperspectrale

Noyel, Guillaume 22 September 2008 (has links) (PDF)
Le traitement d'images hyperspectrales est la généralisation de l'analyse des images couleurs, à trois composantes rouge, vert et bleu, aux images multivariées à plusieurs dizaines ou plusieurs centaines de composantes. Dans un sens général, les images hyperspectrales ne sont pas uniquement acquises dans le domaine des longueurs d'ondes mais correspondent à une description d'un pixel par un ensemble de valeurs : c'est à dire un vecteur. Chacune des composantes d'une image hyperspectrale constitue un canal spectral, et le vecteur associé à chaque pixel est appelé spectre. Pour valider la généralité de nos méthodes de traitement, nous les avons appliquées à plusieurs types d'imagerie correspondant aux images hyperspectrales les plus variées : des photos avec quelques dizaines de composantes acquises dans le domaine des longueurs d'ondes, des images satellites de télédétection, des séries temporelles d'imagerie par résonance dynamique (DCE-MRI) et des séries temporelles d'imagerie thermique. Durant cette thèse, nous avons développé une chaîne complète de segmentation automatique des images hyperspectrales par des techniques morphologiques. Pour ce faire, nous avons mis au point une méthode efficace de débruitage spectral, par Analyse Factorielle des Correspondances (AFC), qui permet de conserver les contours spatiaux des objets, ce qui est très utile pour la segmentation morphologique. Puis nous avons fait de la réduction de dimension, par des méthodes d'analyse de données ou par modélisation des spectres, afin d'obtenir un autre représentation de l'image avec un nombre restreint de canaux. A partir de cette image de plus faible dimension, nous avons effectué une classification (supervisée ou non) pour grouper les pixels en classes spectralement homogènes. Cependant, les classes obtenues n'étant pas homogènes spatialement, i.e. connexes, une étape de segmentation s'est donc avérée nécessaire. Nous avons démontré que la méthode récente de la Ligne de Partage des Eaux Probabiliste était particulièrement adaptée à la segmentation des images hyperspectrales. Elle utilise différentes réalisations de marqueurs aléatoires, conditionnés par la classification spectrale, pour obtenir des réalisations de contours par Ligne de Partage des Eaux (LPE). Ces réalisations de contours permettent d'estimer une fonction de densité de probabilité de contours (pdf) qui est très facile à segmenter par une LPE classique. En définitive, la LPE probabiliste est conditionnée par la classification spectrale et produit donc des segmentations spatio-spectrales dont les contours sont très lisses. Cette chaîne de traitement à été mise en œuvre sur des séquences d'imagerie par résonance magnétique dynamique (DCE-MRI) et a permis d'établir une méthode automatique d'aide au diagnostic pour la détection de tumeurs cancéreuses. En outre, d'autres techniques de segmentation spatio-spectrales ont été développées pour les images hyperspectrales : les régions η-bornées et les boules µ-géodésiques. Grâce à l'introduction d'information régionale, elles améliorent les segmentations par zones quasi-plates qui n'utilisent quant à elles que de l'information locale. Enfin, nous avons mis au point une méthode très efficace de calcul de toutes les paires de distances géodésiques d'une image, puisqu'elle permet de réduire jusqu'à 50 % le nombre d'opérations par rapport à une approche naïve et jusqu'à 30 % par rapport aux autres méthodes. Le calcul efficace de ce tableau de distances offre des perspectives très prometteuses pour la réduction de dimension spatio-spectrale.
5

Détection de textes enfouis dans des bases d'images généralistes : un descripteur sémantique pour l'indexation

Retornaz, Thomas 23 October 2007 (has links) (PDF)
Les bases de données multimédia, aussi bien personnelles que professionnelles, se développent considérablement et les outils automatiques pour leur gestion efficace deviennent indispensables. L'effort des chercheurs pour développer des outils d'indexation basés sur le contenu sont très importants, mais le fossé sémantique est difficile à franchir : les descripteurs de bas niveau généralement utilisés montrent leurs limites dans des cadres applicatifs de plus en plus ouverts. Le texte présent dans les images est souvent relié au contexte sémantique et constitue un descripteur pertinent. Dans cette thèse nous proposons un système de localisation de texte dans des bases d'images génériques, qui tend à être robuste au changement d'échelle et aux déformations usuelles du texte enfoui. Notre système est basé sur un opérateur résiduel numérique, l'ouvert ultime. Dans une première partie nous étudions le comportement de cet opérateur sur des images réelles, et proposons des solutions pour pallier certaines limitations. Dans une seconde partie l'opérateur est inclus dans une chaîne de traitement et complété par différents outils de caractérisation du texte. Les performances de notre approche sont évaluées sur deux bases d'images. Premièrement, nous avons pris part à la campagne d'évaluation ImagEval, remportant la première place dans la catégorie "localisation de texte". Deuxièmement pour situer notre approche par rapport à l'état de l'art, nous avons effectué des tests avec la base d'évaluation I.C.D.A.R. Enfin, un démonstrateur a été réalisé pour EADS. Pour des raisons de confidentialité, ces travaux n'ont pas pu être intégrés à ce manuscrit.
6

Segmentation dynamique d'images tridimensionnelles

Leitner, François 27 September 1993 (has links) (PDF)
Ce travail traite de la segmentation d'images médicales: ce type de problème est difficile à résoudre à cause de la piètre qualité du signal, et de la fréquente nécessité d'avoir une connaissance spécifique. Aussi se restreint-on à des objets de type volumique courants, tels que les os ou des organes massifs. On modélise une surface fermée à l'aide de produits tensoriels de B-splines (utilisés en CAO), et on propose deux formes de représentation: soit un cylindre à pôles, défini par une seule grille de contrôle, soit un graphe de contrôle, reliant continûment plusieurs grilles. Ces représentations sont adaptées aux déformations globales ou locales, et aux changements de topologie. La déformation d'une telle surface est modélisée par le dégonflage d'un ballon: partant d'une forme englobant la scène, on laisse se dégonfler la surface pour atteindre successivement l'enveloppe convexe, puis l'enveloppe localement convexe, et enfin la surface externe de la scène. L'apport principal de cette méthode consiste en la possibilité d'appréhender un objet complexe, par sa topologie, ou par le nombre de ses composantes connexes. La méthode de segmentation utilise alors cette technique sur l'ensemble des indices de contours détectés dans les images. On peut voir cette méthode comme un outil modélisant l'interpolation naturelle de l'œil. Ce travail se place ainsi parmi les opérateurs de niveau intermédiaire, en apportant la mise en cohérence de certaines propriétés géométriques de la fonction densité associée aux images. Ceci ne résoud cependant pas le problème de connaissance a priori, une interface utilisateur pouvant y remédier dans les cas critiques
7

Etude et réalisation d'un synthétiseur d'images basé sur une architecture banalisée

Zarate Silva, Victor Hugo 04 November 1985 (has links) (PDF)
L'objet de cette thèse est l'étude d'opérateurs de synthèse adaptés à une architecture banalisée. Une attention particulière a été accordée aux opérateurs améliorant l'aspect réaliste des objets synthétisés. Ce travail a abouti à la réalisation d'opérateurs cablés (calcul d'éclairage, apposition des textures) fonctionnant en temps réel. Cette réalisation confère au système une grande interactivité alliée à un haut degré de réalisme
8

Architecture dédiée au traitement d'image base sur les équations aux dérivées partielles

Dejnozkova, Eva January 2004 (has links) (PDF)
Les méthodes de traitement d'images fondées sur les équations aux dérivées partielles (EDP) bénéficient d'une attention particulière de la part de la communauté scientifique. Le nombre d'applications a considérablement augmenté après la formulation du problème sous forme d'ensembles de niveaux. Les EDPs s'appliquent dans de nombreux domaines tels le filtrage des images (diffusion non-linéaire), les contours actifs utilisés pour la segmentation des images statiques (graphe de Voronoï, Ligne de Partage des Eaux, plus court chemin, détection d'objets), aussi bien que des séquences d'images (suivi d'objets) ou encore des méthodes plus récentes tel le shape-from-shading. Les applications industrielles de ces méthodes sont néanmoins très limitées, d'une part par une complexité considérable de calculs (nombre d'itérations très élevé, par ex.), d'autre part par des difficultés rencontrées lors d'implantation embarquées (consommation d'énergie, exigences mémoire). Quelques expériences temps-réel ont été publiées avec des super-calculateurs ou des accélérateurs graphiques. Quant aux applications embarquées, elles sont à notre connaissance quasi-inexistantes. Notre but est de proposer une architecture dédiée, facilitant tant l'implantation temps-réel qu'embarquée. En vue de cet objectif nous proposons un nouvel algorithme de solution de l'équation Eikonale/calcul de fonction distance qui procède en parallèle, élimine l'usage des files d'attente hiérarchiques et permet d'obtenir la solution sur la totalité ou seulement sur une partie de l'image (le narrow band). La complexité de cet algorithme, nommé Massive Marching, est linéaire. Nous estimons que l'impact de Massive Marching est d'autant plus important pour la communauté de Morphologie Mathématique, qu'il s'agit du premier algorithme permettant d'obtenir en parallèle la ligne de partage des eaux non-biaisée. Ensuite, nous proposons deux types d'architecture (i) SIMD et (ii) plusieurs coeurs de processeurs embarqués implantant Massive Marching en parallèle ou semi-parallèle. Ces mêmes types d'architecture peuvent être utilisés pour implanter un filtrage aussi bien que des méthodes à évolution d'interface. La même architecture peut donc être utilisée pour implanter une application complète, composée de différents types d'algorithmes comme par exemple filtrage suivi par segmentation.
9

Interprétation géologique de données sismiques par une méthode supervisée basée sur la vision cognitive

Verney, Philippe 17 September 2009 (has links) (PDF)
L'objectif de ce travail est de réaliser une nouvelle plateforme d'interprétation sismique 3D semi-automatique basée sur la connaissance géologique employée aujourd'hui par les experts du domaine. A l'heure actuelle, la majeure partie des solutions sont basées sur les traitements d'image et l'utilisation de quantités d'attributs sismiques. Elles fournissent un résultat interprétable par un expert qui réalise alors une correspondance informelle entre la nouvelle image obtenue et des objets géologiques. Nous désirons explorer une nouvelle méthodologie mettant en avant la formalisation de la connaissance utilisée dans l'interprétation sismique comme la vision cognitive le permet et le conseille. Ainsi, nous caractérisons le résultat des traitements d'images opérés sur le bloc sismique grâce à des concepts et à relations visuelles provenant d'une ontologie dédiée. Ces caractéristiques nous permettent alors de formaliser l'interprétation d'objets géologiques à partir de ces instances et ainsi de proposer de manière automatique des solutions d'interprétation d'un bloc sismique, que l'expert pourra choisir de valider. Dans ce travail, nous avons à coeur de nous concentrer sur l'identification de deux premiers objets géologiques à identifier dans une image sismique : les horizons et les failles. Une ontologie de ce domaine d'étude est proposée afin de servir de base pour la création de la plateforme.
10

Analyse morphologique d'images pour la modélisation d'environnements urbains

Hernández Londoño, Jorge Eduardo 14 December 2009 (has links) (PDF)
La modélisation d'environnements urbains permet le développement de nombreuses applications telles que la navigation 3D, la planification de l'aménagement urbain ou la création de scenarii pour le cinéma. L'enjeu technologique est de réduire le temps nécessaire pour une modélisation réaliste et fidèle à la réalité. Cette thèse s'inscrit dans le cadre du projet TerraNumerica dont l'objectif est de développer une plateforme de production et d'exploitation d'environnements synthétiques urbains. Dans ce contexte, nous sommes confrontés à des problèmes de segmentation de scènes urbaines. Dans une première partie, nous montrons l'intérêt de l'opérateur d'ouverture ultime en tant qu'opérateur de segmentation générique. Ensuite nous avons proposé plusieurs améliorations qui le rendent plus robuste à des problèmes de masquage et d'images floues. L'efficacité de ces améliorations est démontrée dans le contexte de l'étude mais aussi pour la segmentation de texte enfoui et de cellules. La deuxième partie est consacrée à l'analyse de façades. Leur modélisation est réalisée à l'échelle du bâtiment. Néanmoins, lors de l'acquisition, plusieurs bâtiments apparaissent dans une même image. Nous proposons une méthode capable de séparer automatiquement les différentes façades contenues dans l'image. Ensuite, nous détectons les étages, les travées, les fenêtres... afin d'alimenter un modèle de bâtiment fidèle à la réalité. La troisième partie de cette thèse est consacrée à l'analyse des données tridimensionnelles. Pour une modélisation de la scène, il est nécessaire d'introduire des éléments du mobilier urbain ainsi que le trottoir. Nous présentons des outils pour la détection et la classification d'artefacts. Ces outils permettent 1- le filtrage de données facilitant la modélisation et 2- la réintroduction d‘éléments tels que les lampadaires, améliorant le réalisme de la scène modélisée. Nous proposons également une méthode automatique pour la segmentation du trottoir.

Page generated in 0.1159 seconds