• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 2
  • Tagged with
  • 10
  • 10
  • 6
  • 6
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Restauration automatique de films anciens

Decencière, Étienne 09 December 1997 (has links) (PDF)
La plus grande partie des films tournés avant les années cinquante ont été tirés sur des pellicules dont la durée de vie est assez courte. Ils ont déjà subi d'importants dommages et ils continuent à se dégrader. Il est nécessaire et même urgent de les restaurer. Par ailleurs, grâce au développement considérable des marchés audiovisuels si ces films sont remis en état, ils peuvent connaître une deuxième jeunesse. Les méthodes physico-chimiques existantes permettent de corriger un certain nombre de types de dégradations mais pas toutes. Les outils informatiques occupent aujourd'hui une place de plus en plus importante dans l'industrie de la restauration cinématographique et vidéo. Cependant la plupart des techniques employées traitent les images, une par une, à la main ce qui certes permet d'obtenir une qualité excellente mais qui est très coûteux en temps et par conséquent en argent. Pour pouvoir restaurer un plus grand nombre de films anciens, il faut développer des méthodes plus rapides. Cette thèse est parmi les premières à proposer des techniques de restauration automatique de films anciens. Il suffit qu'un opérateur choisisse les paramètres de la restauration tels que les types de défauts à considérer pour que nos algorithmes traitent sans intervention extérieure des séquences entières d'images. Cette approche permet d'accélérer considérablement la vitesse de traitement. Nous donnons dans ce qui suit une liste des défauts que nous traitons ainsi qu'un très court résumé de la méthode de restauration employée. Pompage: Ce défaut se caractérise par une variation indésirable de l'éclairage de la scène au cours du temps. Nous le traitons en limitant les variations de l'histogramme entre deux images consécutives tout en autorisant une certaine dérive pour ne pas interdire les variations naturelles de l'éclairage. Vibrations: Nous proposons une méthode pour mesurer la translation du fond de la scène entre images consécutives. Ensuite nous filtrons la suite des translations pour estimer les vibrations parasites et les corriger. Rayures verticales: Les rayures verticales blanches ou noires sont très courantes dans les films anciens. Nous les détectons en utilisant des opérateurs morphologiques tels que le chapeau haut de forme puis nous récupérons l'information perdue grâce à des interpolations. Tâches et autres défauts aléatoires: Dans cette catégorie nous classons tous les défauts qui apparaissent rarement à la même position sur deux images consécutives du film. Nous les détectons en appliquant des critères de connexité spatio- temporels mis en oeuvre grâce à des ouvertures et des fermetures par reconstruction. Lorsque le mouvement dans la scène est important, les critères de connexité peuvent être pris à défaut. Pour palier cet inconvénient, nous avons mis au point un algorithme de compensation de mouvement. Il est basé sur une segmentation de l'image de référence et utilise le krigeage pour interpoler et filtrer le champ de vecteurs de déplacement. Nous proposons plusieurs méthodes certaines spatiales d'autres temporelles pour interpoler les textures dans les zones endommagées Nous avons bâti un système de restauration réunissant ces différents algorithmes et nous l'avons appliqué à de nombreux cas pratiques obtenant de bons résultats
2

Application de la morphologie mathématique à l'analyse des conditions d'éclairage des images couleur

Risson, Valéry 17 December 2001 (has links) (PDF)
Cette thèse présente des outils d'analyse d'images couleur visant à extraire des informations pertinentes sur les conditions d'éclairage dans lesquelles ont été prises les photos. A travers ces outils, nous cherchons à comprendre le contenu sémantique d'une image en étudiant sa composante lumineuse. Ces connaissances sont utiles dans divers domaines d'imagerie tels que la réalité augmentée, la post-production cinématographique, l'indexation d'image et la reconnaissance des formes. L'information intrinsèque à la composante lumineuse n'est pas directement disponible à travers les données image. L'information contenue dans une image numérisée est le résultat de l'intégration et de la numérisation du flux spectral incident qui est modifié par les caractéristiques géométriques et spectrales des objets composant la scène. Nous identifions donc des objets sémantiques d'intérêt dans le cadre de notre problématique et nous développons les outils nécessaires pour les analyser. Dans ce but, nous nous appuyons sur des modèles physiques d'illumination pour décrire les phénomènes de réflexion lumineuse et comprendre comment ils se traduisent dans les données image. Dans un premier temps, nous présentons une approche photométrique de l'analyse des conditions d'éclairage qui s'articule autour d'un outil de détection des ombres dans les images couleur. L'information contenue dans les ombres permet de mesurer le contraste de luminance global sur les images, ce qui donne une indication sur le rapport entre la lumière directe et la lumière ambiante. Pour afiner l'analyse, nous présentons aussi un outil de détection de ciel qui permet d'identifier les conditions météorologiques au moment de la prise de vue. Selon que le ciel soit couvert, dégagé ou nuageux, les conditions d'éclairage varient et modifient l'aspect de l'image. Dans un deuxième temps, nous présentons une méthode de détection de la chrominance de l'illuminant. Cet outil reprend le principe de convergence chromatique basé sur le modèle de réflexion dichromatique. La convergence observée sur les surfaces inhomogènes est utilisée pour identifier la chrominance de l'illuminant. Les problèmes inhérents aux méthodes de détection existantes, liés à la nature statistique des traitements mis en oeuvre, trouvent une solution dans l'emploi de la segmentation morphologique couleur. Elle permet d'effectuer un découpage de l'image en zones homogènes en couleur et en luminance ; chaque région correspond à une réflectance spectrale particulière. Ensuite, un filltrage des régions est introduit pour éliminer celles qui ne vérifient pas les hypothèses de base du modèle de réflexion dichromatique. Enfin, les droites de convergences chromatiques calculées sur chaque région sont reportées sur le plan chromatique où est déterminée l'intersection entre le faisceau des droites et le locus des radiateurs de Planck. C'est le point correspondant aux coordonnées chromatiques de la chrominance de l'illuminant.
3

Segmentation et structuration d'un document vidéo pour la caractérisation et l'indexation de son contenu sémantique

Demarty, Claire-Hélène 24 January 2000 (has links) (PDF)
La multitude de documents multimédia déjà existants ou créés chaque jour nous confronte au problème de la recherche d' informations au sein de bases de données gigantesques qui rendent toute volonté d'indexation entièrement manuelle impossible. Dans ce contexte il est devenu nécessaire de concevoir et de construire des outils capables sinon d' extraire tout le contenu sémantique d'un document donné du moins d' en élaborer une première structuration de manière automatique. En se restreignant aux documents vidéo, cette thèse se propose donc de bâtir des outils automatiques réalisant une structuration en deux étapes. Tout d'abord linéaire, elle aboutit à un découpage d'un document vidéo en entités allant de la scène à l'image en passant par la prise de vue et le morceau de prise de vue. Puis relationnelle, elle consiste en l'extraction de relations par la mise en évidence de liens syntaxiques ou sémantiques de tout ordre entre deux entités de types quelconques. En plus de leur caractère général et automatique, l'ensemble des outils que nous présentons sont, en outre, conçus dans le respect d'une méthodologie précise. Cette dernière consiste à n'utiliser que des critères simples et de bas niveau de traitements d'images et tout particulièrement de morphologie mathématique qui combinés entre eux et avec des règles logiques de décision permettent déjà d'atteindre une structuration cohérente efficace et représentative d'un contenu informationnel de niveau sémantique élevé. Ce choix induit de plus une grande rapidité de nos outils puisque dans leur ensemble leur temps d'exécution est inférieur au temps réel. Leur validation est obtenue au travers de nombreux exemples et applications appartenant essentiellement à la classe des journaux télévisés.
4

Morphologie mathématique et graphes : application à la segmentation interactive d'images médicales

Stawiaski, Jean 13 October 2008 (has links) (PDF)
La recherche en imagerie médicale est une des disciplines les plus actives du traitement d'images. La segmentation et l'analyse d'images dans un contexte clinique reste un problème majeur de l'imagerie médicale. La multiplicité des modalités d'imagerie, ainsi que les fortes variabilités des structures et pathologies à analyser rendent cette tâche fastidieuse. Dans la plupart des cas, la supervision de spécialistes, tels que des radiologistes, est nécessaire pour valider ou interpréter les résultats obtenus par analyse d'images. L'importante quantité de données, ainsi que les nombreuses applications liées à l'imagerie médicale, nécessitent des outils logiciels de très haut niveau combinant des interfaces graphique complexe avec des algorithmes interactifs rapides. Les récentes recherches en segmentation d'images ont montré l'intérêt des méthodes à base de graphes. L'intérêt suscité dans la communauté scientifique a permis de développer et d'utiliser rapidement ces techniques dans de nombreuses applications. Nous avons étudié les arbres de recouvrement minimaux, les coupes minimales ainsi que les arbres de chemins les plus courts. Notre étude a permis de mettre en lumière des liens entre ces structures a priori très différentes. Nous avons prouvé que les forêts des chemins les plus courts, ainsi que les coupes minimales convergent toutes les deux, en appliquant une transformation spécifique du graphe, vers une structure commune qui n'est autre qu'une forêt de recouvrement minimale. Cette étude nous a aussi permis de souligner les limitations et les possibilités de chacune de ces techniques pour la segmentation d'images. Dans un deuxième temps, nous avons proposé des avancées théoriques et pratiques sur l'utilisation des coupe minimales. Cette structure est particulièrement intéressante pour segmenter des images à partir de minimisation d'énergie. D'une part, nous avons montré que l'utilisation de graphes de régions d'une segmentation morphologique permet d'accélérer les méthodes de segmentation à base de coupe minimales. D'autre part nous avons montré que l'utilisation de graphes de régions permet d'étendre la classe d'énergie pouvant être minimisée par coupe de graphes. Ces techniques ont toutes les caractéristiques pour devenir des méthodes de référence pour la segmentation d'images médicales. Nous avons alors étudié qualitativement et quantitativement nos méthodes de segmentation à travers des applications médicales. Nous avons montré que nos méthodes sont particulièrement adaptées à la détection de tumeurs pour la planification de radiothérapie, ainsi que la création de modèles pour la simulation et la planification de chirurgie cardiaque. Nous avons aussi mené une étude quantitative sur la segmentation de tumeurs du foie. Cette étude montre que nos algorithmes offrent des résultats plus stables et plus précis que de nombreuses techniques de l'état de l'art. Nos outils ont aussi été comparés à des segmentations manuelles de radiologistes, prouvant que nos techniques sont adaptées à être utilisée en routine clinique. Nous avons aussi revisité une méthode classique de segmentation d'images : la ligne de partages des eaux. La contribution de notre travail se situe dans la re-définition claire de cette transformation dans le cas des graphes et des images multi spectrales. Nous avons utilisé les algèbres de chemins pour montrer que la ligne de partages des eaux correspond à des cas particuliers de forêt des chemins les plus courts dans un graphe. Finalement, nous proposons quelques extensions intéressantes du problème des coupes minimales. Ces extensions sont basées sur l'ajout de nouveaux types de contraintes. Nous considérons particulièrement les coupes minimales contraintes à inclure un ensemble prédéfini d'arêtes, ainsi que les coupes minimales contraintes par leur cardinalité et leur aires. Nous montrons comment ces problèmes peuvent être avantageusement utilisé pour la segmentation d'images.
5

Extraction de caractéristiques, segmentation d'image et morphologie mathématique

Vachier, Corinne 18 December 1995 (has links) (PDF)
Cette thèse se propose d'explorer de nouvelles méthodes morphologiques permettant d'extraire les caractéristiques des régions qui composent une image. Ces méthodes sont en- suite destinées à être appliquées au problème de la segmentation d'image. Nous présentons tout d'abord deux approches classiques du problème de l'extraction de caractéristiques : celles basées sur les granulométries (opérations de tamisage) et celles basées sur l' étude des extrema des images numériques, en consacrant une attention particulière à la notion de dynamique. La dynamique value les extrema d'une image selon le contraste des régions qu'ils marquent ; nous montrons qu'elle équivaut à une opération de tamisage en contraste et que son principe rejoint celui des granulométries. Nous nous concentrons ensuite sur une généralisation du principe de la dynamique. Nous basons notre approche sur les opérateurs morphologiques connexes. Ces opérateurs ont pour spécificité d'agir sur les images en fusionnant leurs zones plates. Lorsqu'on ap- plique des opérateurs connexes de plus en plus sélectifs, des régions de l'image disparais- sent progressivement. Le niveau pour lequel une région disparaît caractérise la région au sens du critère du filtrage (en forme, en taille, en contraste, en volume...). Ceci nous conduit à introduire une nouvelle classe de transformations morphologiques, les fonctions d'extinction, qui valuent les extrema des images numériques selon les caractéristiques des régions qu'ils marquent. Une particularité importante des fonctions d'extinction, mise en évidence par l'algorithme de calcul efficace que nous proposons, est de fournir une descrip- tion hiérarchique des régions de l'image. Ceci se traduit, dans le calcul algorithmique, par la construction d'un arbre de fusion des extrema de l'image. Les fonctions d'extinction peuvent être utilisées pour sélectionner les régions perti- nentes d'une image et sont donc de grand intérêt dans les applications de filtrage et surtout de segmentation d'image (pour extraire les marqueurs des régions avant le cal- cul de la ligne de partage des eaux). Ce dernier point fait l'objet d'une étude appro- fondie. Nous donnons de nombreux exemples permettant d'illustrer leur intérêt pour la segmentation d'images complexes. Les résultats obtenus par cette méthode sont com- parés à ceux déduits de méthodes de marquage plus traditionnelles. L'apport le plus significatif des fonctions d'extinction pour la segmentation d'image est de systématiser et de simplifier considérablement la mise au point des algorithmes. Notamment, elles perme- ttent de mettre en oeuvre des processus rapides de segmentation hi érarchique interactive.
6

Images, stratégies perceptives et stratégies cognitives d'analyse

Garbay, Catherine 23 June 1986 (has links) (PDF)
L'objectif est le développement de systèmes susceptibles d'appréhender et de rendre accessibles des données cohérentes vis à vis des références humaines d'appréciaciation des images. Une présentation des formes iconiques d'expression des unités observées et de leur signification fonctionnelle est ainsi effectuée, et suivie d'une systhèse des modes humains de perception et d'interprétation des images. Parallèlement à ceci, un chapitre est consacré à l'investigation des moyens informatiques de représentation et d'analyse d'images, et à leurs limites. La confrontation de ces différents éléments conduit à envisager la prise en compte de connaissances spécifiques du domaine d'application, à approfondir leur forme de représentation et à étudier les stratégies possibles de leur exploitation. Les concepts introduits sont illustrés par leur application à la segmentation d'images cytologiques et à l'interprétation d'images histologiques (diagnostic du cancer du sein).
7

Contributions aux méthodes directes d'estimation et de commande basées sur la vision

Silveira Filho, Geraldo 29 October 2008 (has links) (PDF)
Dans leur grande majorité les techniques d'estimation et de contrôle basées sur la vision s'appuient sur l'extraction d'informations géométriques dans les images. L'objectif de cette thèse est de développer une nouvelle approche exploitant directement l'intensité des pixels dans l'image en s'affranchissant de l'étape d'extraction de ces informations. Nous espèrons montrer que le fait d'utiliser toute l'information contenue dans l'image permet en outre d'augmenter la précision et le domaine d'application. Dans ce but, nous proposons un modèle générique de transformation prenant à la fois en compte les aspects géométriques et photométriques que l'on associe à une méthode efficace d'optimisation pour le recalage d'images, qui est valide pour des modes d'acquisition variés (incluant les images couleurs) et pour des classes d'objets rigides ou déformables. En particulier, le nouveau modèle photométrique assure une robustes aux variations d'éclairage quelconques, et il est indépendants des attributs des objets et des caractéristiques de la caméra. Ce cadre méthodologique est formulé, dans le cas d'un modèle sténopé, à la fois dans le cas calibré et non calibré, les différences portant principalement sur la nature de la paramétrisation choisie. Une méthode robuste de suivi visuel est proposée permettant le recalage d'une image de référence tout au long de la séquence. A partir des paramètres estimés liant l'image de référence à l'image courante, nous proposons une nouvelle stratégie d'asservissement visuel permettant de contrôler les six degrés de liberté du mouvement de la caméra pour l'amener dans la pose où a été acquise l'image de référence. Cette nouvelle approche ne nécessite pas de connaissance précise sur les paramètres de la caméra ni sur la géométrie de l'objet observé, permettant ainsi d'obtenir une méthode générique et fiable. Dans le cas de l'utilisation d'une caméra calibrée, la méthode de suivi robuste permet d'accéder directement à la pose de la caméra et à la structure géométrique de la scène. Elle peut donc être appliquée pour proposer une nouvelle solution au problème de SLAM (Simultaneous Localization and Mapping) visuel. Enfin, nous présentons une méthode d'asservissement visuel intégrant directement les estimées fournies par la méthode de suivi et permettant ainsi la navigation autonome de robot dans un environnement inconnu a priori. Les méthodes développées tout au long de cette thèse ont été confrontées aux approches classiques de la littérature, et ont montré des avantages certains. Elles ont également été testée en condition réelle sur des séquences caractéristiques de différentes applications et dans des conditions variées. Les conditions et compromis à faire pour obtenir performances temps réel et précision, sont également discutés dans le document.
8

Observations microstructurales et modélisation statistique des propriétés diélectriques de composites

Le Coent, Anthony 29 March 1995 (has links) (PDF)
Les campagnes de recherche - comprenant la conception de nouveaux matériaux, la prospection, la réalisation de composites et leur caractérisation - sont longues. Pour l'ingénieur ou le chercheur, relier la microstructure et les propriétés physiques macroscopiques des matériaux le plus en amont, permet de réduire la durée et le coût de ces études. Nous nous intéressons aux propriétés diélectriques d'un composite particulier, formé d'une matrice époxy contenant des inclusions d'agrégats de noir de carbone. Nous détaillons le processus global, de la réalisation du composite à sa modélisation. Des échantillons de composite sont réalisés en faisant varier des paramètres de préparation. Des mesures diélectriques, électriques et d'autres mesures physiques situent le niveau des propriétés macroscopiques des échantillons. L'observation du composite par microscopie électronique à transmission à plusieurs grandissement permet d'appréhender sa morphologie. Les micrographies sont traitées par analyse d'images pour caractériser la géométrie du composite en quelques grandeurs. Les lois statistiques de changement d'échelle permettent, à partir de données sur la microstructure, d'obtenir un encadrement de la permittivité de composites. Les lois statistiques de changement d'échelle sont une méthode de modélisation récente, elles permettent en particulier :
9

Assimilation de données images pour la personnalisation d'un modèle électromécanique du coeur

Billet, Florence 19 July 2010 (has links) (PDF)
Les données cliniques disponibles pour le diagnostic et la planification de thérapies sont de plus en plus variées et complexes, ce qui apporte des informations plus riches, mais rend la tâche du médecin difficile. Les modèles informatiques de cœur peuvent intégrer et analyser ces données en s'adaptant à chaque patient de manière à proposer au médecin une vue intégrée ainsi que des paramètres intrinsèques. Cependant, il faut pour cela mettre en place des méthodes d'ajustement automatique de ces modèles mathématiques aux données du patient. Dans cette thèse, nous proposons une méthodologie pour personnaliser un modèle électromécanique à partir de séquences temporelles d'images volumiques telles que des séquences ciné-IRM ou scanner. Cette personnalisation consiste en l'estimation de l'état (position/vitesse) et des paramètres électriques et mécaniques du modèle électromécanique. Nous nous intéressons ici à l'estimation du mouvement cardiaque et des paramètres de contractilité du modèle électromécanique. Dans un premier temps, la modélisation des différentes phases cardiaques a été améliorée et une étude de sensibilité a été effectuée. Puis, les approches de segmentation et de suivi du mouvement par modèles déformables ont été généralisées en couplant un modèle déformable proactif avec des séquences d'images 3D. Cette méthode est évaluée sur des données synthétiques et appliquée à des séquences ciné-IRM ou scanner. Enfin, une méthode d'estimation automatique des paramètres de contractilité à partir de séquences d'images 3D est proposée, la principale difficulté provenant des non-linéarités liées aux changements de phases. La méthode proposée est fondée sur l'assimilation de données variationnelle et le gradient du critère d'erreur est calculé à l'aide de la méthode de l'état adjoint. Cette méthode est évaluée sur des données synthétiques avant d'être appliquée à des ciné-IRM cliniques. Cette thèse pose des bases de la personnalisation du modèle électromécanique du cœur et ouvre des perspectives pour l'optimisation des traitements selon le patient considéré.
10

Recherche d'une méthode optimale de prévision de pluie par radar en hydrologie urbaine

Einfalt, Thomas 02 May 1988 (has links) (PDF)
Cette thèse a pour objet le premier développement d'une méthode de prévision de pluie par radar adaptée aux objectifs de l'hydrologie urbaine. Une revue des travaux effectués sur la prévision de pluie dans les vingt dernières années a été accomplie. Les algorithmes prometteurs utilisés dans les études précédentes ont été sélectionnés et améliorés en vue des objectifs de l'application envisagée : - concentration sur les fortes pluies ; temps de calcul inférieur a 60 secondes sur mini-ordinateur ; contrôle de qualité de la prévision. De cette analyse a émergé une nouvelle méthode de prévision. Une comparaison détaillée sur 94 images radar et une comparaison globale sur 1068 images ont montré la fiabilité de la méthode pour la prévision hydrologique. La pluie la plus importante de ces quatre dernières années en région parisienne a été étudiée particulièrement. De plus, deux paramètres liés seulement à la structure de l'image, peuvent servir d'indice de fiabilité, calculable a priori, de chaque prévision. Finalement, la méthode a été implantée sur les ordinateurs du service d'assainissement de Seine-Saint-Denis.

Page generated in 0.0684 seconds