• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 30
  • 23
  • 17
  • Tagged with
  • 72
  • 72
  • 57
  • 56
  • 53
  • 52
  • 48
  • 45
  • 25
  • 20
  • 18
  • 17
  • 15
  • 15
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Impact des transformations algorithmiques sur la synthèse de haut niveau : application au traitement du signal et des images

Ye, Haixiong 20 May 2014 (has links) (PDF)
La thèse porte sur l'impact d'optimisations algorithmiques pour la synthèse automatique HLS pour ASIC. Ces optimisations algorithmiques sont des transformations de haut niveau, qui de part leur nature intrinsèque restent hors de porter des compilateurs modernes, même les plus optimisants. Le but est d'analyser l'impact des optimisations et transformations de haut niveau sur la surface, la consommation énergétique et la vitesse du circuit ASIC. Les trois algorithmes évalués sont les filtres non récursifs, les filtres récursifs et un algorithme de détection de mouvement. Sur chaque exemple, des gains ont été possibles en vitesse et/ou en surface et/ou en consommation. Le gain le plus spectaculaire est un facteur x12.6 de réduction de l'énergie tout en maitrisant la surface de synthèse et en respectant la contrainte d'exécution temps réel. Afin de mettre en perspective les résultats (consommation et vitesse), un benchmark supplémentaire a été réalisé sur un microprocesseur ST XP70 avec extension VECx, un processeur ARM Cortex avec extension Neon et un processeur Intel Penryn avec extensions SSE.
42

Déformations homotopiques dans les images digitales n-aires

Mazo, Loïc 01 December 2011 (has links) (PDF)
De nombreux domaines applicatifs utilisent des techniques de traitement d'images basées sur l'analyse de la topologie des images discrètes, en particulier pour des opérations devant préserver cette topologie. Si beaucoup de travaux théoriques et méthodologiques ont été menés dans le cadre des images binaires, les questions relatives à la modélisation et à la gestion simultanées des propriétés topologiques de plusieurs éléments sémantiques dans une même image discrète reste à l'heure actuelle un problème peu exploré. Dans cette thèse, nous avons porté notre attention sur la définition de déformations homotopiques compatibles avec la présence de plusieurs éléments non hiérarchisés dont les relations spatiales peuvent être significatives. Après avoir décrit le cadre théorique retenu pour les images binaires, et après avoir montré sa compatibilité avec les approches les plus fréquentes en imagerie, nous proposons des modélisations des images n-aires appuyées sur ce cadre théorique et dont les objets d'intérêts forment un sous-treillis de l'ensemble des parties de la partition initiale en régions de sémantiques distinctes. Ainsi, nous sommes en mesure de décrire quelques transformations élémentaires des images n-aires respectueuses non seulement des topologies individuelles des différents objets mais aussi des topologies "collectives" qui traduisent les inter-relations des objets.
43

Estimation and Processing of Ensemble Average Propagator and Its Features in Diffusion MRI

Cheng, Jian 30 May 2012 (has links) (PDF)
L'IRM de diffusion est a ce jour la seule technique a meme d'observer in vivo et de fac¸on non-invasive les structures fines de la mati'ere blanche, en modelisant la diffusion des molecules d'eau. Le propagateur moyen (EAP pour Ensemble average Propagator en anglais) et la fonction de distribution d'orientation (ODF pour Orientation Distribution Function en anglais) sont les deux fonctions de probabilites d'int'erˆet pour caracteriser la diffusion des molecules d'eau. Le probleme central en IRM de diffusion est la reconstruction et le traitement de ces fonctions (EAP et ODF); c'est aussi le point de depart pour la tractographie des fibres de la mati'ere blanche. Le formalisme du tenseur de diffusion (DTI pour Diffusion Tensor Imaging en anglais) est le modele le plus couramment utilise, et se base sur une hypothese de diffusion gaussienne. Il existe un cadre riemannien qui permet d'estimer et de traiter correctement les images de tenseur de diffusion. Cependant, l'hypothese d'une diffusion gaussienne est une simplification, qui ne permet pas de d'écrire les cas ou la structure microscopique sous-jacente est complexe, tels que les croisements de faisceaux de fibres. L'imagerie 'a haute resolution angulaire (HARDI pour High Angular Resolution Diffusion Imaging en anglais) est un ensemble de methodes qui permettent de contourner les limites du modele tensoriel. La plupart des m'ethodes HARDI 'a ce jour, telles que l'imagerie spherique de l'espace de Fourier (QBI pour Q-Ball Imaging en anglais) se basent sur des hypoth'eses reductrices, et prennent en compte des acquisitions qui ne se font que sur une seule sphere dans l'espace de Fourier (sHARDI pour single-shell HARDI en anglais), c'est-a-dire une seule valeur du coefficient de ponderation b. Cependant, avec le developpement des scanners IRM et des techniques d'acquisition, il devient plus facile d'acquerir des donn'ees sur plusieurs sph'eres concentriques. Cette th'ese porte sur les methodes d'estimation et de traitement de donnees sur plusieurs spheres (mHARDI pour multiple-shell HARDI en anglais), et de facon generale sur les methodes de reconstruction independantes du schema d'echantillonnage. Cette these presente plusieurs contributions originales. En premier lieu, nous developpons l'imagerie par transformee de Fourier en coordonnees spheriques (SPFI pour Spherical Polar Fourier Imaging en anglais), qui se base sur une representation du signal dans une base de fonctions a parties radiale et angulaire separables (SPF basis pour Spherical Polar Fourier en anglais). Nous obtenons, de fac¸on analytique et par transformations lineaires, l'EAP ainsi que ses caracteristiques importantes : l'ODF, et des indices scalaires tels que l'anisotropie fractionnelle generalisee (GFA pour Generalized Fractional Anisotropy en anglais). En ce qui concerne l'implementation de SPFI, nous presentons deux methodes pour determiner le facteur d'echelle, et nous prenons en compte le fait que E(0) = 1 dans l'estimation. En second lieu, nous presentons un nouveau cadre pour une transformee de Fourier analytique en coordonnees spheriques (AFT-SC pour Analytical Fourier Transform in Spherical Coordinate en anglais), ce qui permet de considerer aussi bien les methodes mHARDI que sHARDI, d'explorer les relations entre ces methodes, et de developper de nouvelles techniques d'estimation de l'EAP et de l'ODF. Nous presentons en troisieme lieu d'importants crit'eres de comparaison des differentes methodes HARDI, ce qui permet de mettre en lumiere leurs avantages et leurs limites. Dans une quatrieme partie, nous proposons un nouveau cadre riemannien invariant par diffeomorphisme pour le traitement de l'EAP et de l'ODF. Ce cadre est une generalisation de la m'ethode riemannienne precedemment appliquee au tenseur de diffusion. Il peut etre utilise pour l'estimation d'une fonction de probabilite representee par sa racine carree, appelee fonction d'onde, dans une base de fonctions orthonormale. Dans ce cadre riemannien, les applications exponentielle et logarithmique, ainsi que les geodesiques ont une forme analytique. La moyenne riemannienne ponderee ainsi que la mediane existent et sont uniques, et peuvent etre calculees de facon efficace par descente de gradient. Nous developpons egalement un cadre log-euclidien et un cadre affine-euclidien pour un traitement rapide des donnees. En cinquieme partie, nous comparons, theoriquement et sur un plan exp'erimental, les metriques euclidiennes et riemanniennes pour les tenseurs, l'ODF et l'EAP. Finalement, nous proposons l'anisotropie geodesique (GA pour Geodesic Anisotropy en anglais) pour mesurer l'anisotropie de l'EAP; une parametrisation par la racine carrée (SRPE pour Square-Root Parameterized Estimation en anglais) pour l'estimation d'un EAP et d'une ODF positifs; la mediane et la moyenne riemanniennes ponderees pour l'interpolation, le lissage et la construction d'atlas bas'es sur l'ODF et de l'EAP. Nous introduisons la notion de valeur moyenne raisonnable pour l'interpolation de fonction de probabilites en general.
44

Propagation de fronts et p-laplacien normalisé sur graphes : algorithmes et applications au traitement d'images et de données.

Desquesnes, Xavier 07 December 2012 (has links) (PDF)
Cette thèse s'intéresse à la transcription d'équations aux dérivées partielles vers des domaines discrets en exploitant le formalisme des équations aux différences partielles définies sur des graphes pondérés. Dans une première partie, nous proposons une transcription de l'opérateur p-laplacien normalisé au domaine des graphes comme une combinaison linéaire entre le laplacien infini non-local et le laplacien normalisé (ces deux opérateurs étant discrets). Cette adaptation peut être considérée comme une nouvelle classe d'opérateurs p-laplaciens sur graphes, qui interpolent entre le laplacien infini non-local et le laplacien normalisé. Dans une seconde partie, nous nous intéressons aux équations de propagation de fronts sur des graphes de topologie arbitraire. Ces équations sont obtenues par la transcription de la méthode des ensembles de niveaux, définie en continu, vers une formulation discrète définie sur le domaine des graphes. Au delà de la transcription en elle-même, nous proposons une formulation générale et des algorithmes efficaces pour la propagation simultanées de plusieurs fronts évoluant sur un graphe. Les approches proposées dans ces deux premières parties donnent lieu à de nombreuses applications en segmentation d'images et classification de données que nous illustrons dans ce manuscrit. Enfin, dans une troisième partie, nous présentons une application à l'aide au diagnostic informatisé concrétisant l'emploi des différents outils proposés dans les deux premières parties. Nous présentons également le logiciel Antarctic développé au cours de cette thèse.
45

Pyramides irrégulières descendantes pour la segmentation de grandes images histologiques

Goffe, Romain 14 September 2011 (has links) (PDF)
Différents modes d'acquisition permettent d'obtenir des images de plusieurs gigaoctets. L'analyse de ces grandes images doit faire face à deux problèmes majeurs. Premièrement, le volume de données à traiter ne permet pas une analyse globale de l'image, d'où la difficulté d'en construire une partition. Deuxièmement, une approche multi-résolution est nécessaire pour distinguer les structures globales à faible résolution. Par exemple, dans le cadre des images d'histologie, les récentes améliorations des scanners permettent d'observer les structures cellulaires sur l'ensemble de la lame. En contrepartie, les images produites représentent jusqu'à 18 Go de données. De plus, l'agencement de ces cellules en tissus correspond à une information globale qui ne peut être observée qu'à faible résolution. Ces images combinent donc un aspect multi-échelle et multi-résolution. Dans ce manuscrit, nous définissons un modèle topologique et hiérarchique adapté à la segmentation de grandes images. Nos travaux sont fondés sur les modèles existants de carte topologique et de pyramide combinatoire. Nous présentons le modèle de carte tuilée pour la représentation de grandes partitions ainsi qu'une extension hiérarchique, la pyramide descendante tuilée, qui représente la dualité des informations multi-échelle et multi-résolution. Enfin, nous utilisons notre modèle pour la segmentation de grandes images en histologie.
46

Description locale d'images fixes dans le domaine compressé

Tonnin, François 12 June 2006 (has links) (PDF)
L'augmentation des bandes passantes a modifié la conception des standards d'images. Il est désormais intéressant de définir des standards offrant une large gamme de services, quitte à ce qu'ils soient moins performants en compression. Mes travaux consistent à transposer dans le domaine compressé les techniques de description locale utilisées dans de nombreuses applications visuelles. La compression scalable et la description requièrent toutes deux la transformation préalable de l'image dans un espace-échelle. Néanmoins les transformées à échantillonnage critique comme celles utilisées dans le standard JPEG2000 sont fortement variantes aux similitudes et donc inadaptées au problème de description. Des représentations redondantes sont donc investiguées. Parmi celles-ci, les représentations directionnelles sont d'un intérêt particulier car permettent la transposition du descripteur SIFT, faisant aujourd'hui référence. La robustesse du descripteur est évaluée en fonction du niveau de compression. La méthode est validée dans un schéma de détection automatique de copies dans le domaine compressé
47

Modélisation 4D à partir de plusieurs caméras

Letouzey, Antoine 30 July 2012 (has links) (PDF)
Les systèmes multi-caméras permettent de nos jours d'obtenir à la fois des flux d'images couleur mais aussi des flux de modèles 3D. Ils permettent ainsi l'étude de scènes complexes à la fois de par les éléments qui la composent mais aussi de par les mouvements et les déformations que subissent ces éléments au fil du temps. Une des principales limitations de ces données est le manque de cohérence temporelle entre les observations obtenues à deux instants de temps successifs. Les travaux présentés dans cette thèse proposent des pistes pour retrouver cette cohérence temporelle. Dans un premier temps nous nous sommes penchés sur le problème de l'estimation de champs de déplacement denses à la surface des objets de la scène. L'approche que nous proposons permet de combiner efficacement des informations photométriques provenant des caméras avec des informations géométriques. Cette méthode a été étendue, par la suite, au cas de systèmes multi-caméras hybrides composés de capteurs couleurs et de profondeur (tel que le capteur kinect). Dans un second temps nous proposons une méthode nouvelle permettant l'apprentissage de la vraie topologie d'une scène dynamique au fil d'une séquence de données 4D (3D + temps). Ces travaux permettent de construire au fur et à mesure des observations un modèle de référence de plus en plus complet de la scène observée.
48

De la synergie des images satellitaires SPOT/ERS au travers de deux exemples de fusion

Castagnas, Luce 05 December 1995 (has links) (PDF)
Les domaines du spectre électromagnétique utilisés par les capteurs imageurs satellitaires (passifs ou actifs) s'étendent aujourd'hui de l'optique aux hyperfréquences. Il est très vite apparu intéressant d'étudier la synergie Issue du regroupement de ces images multisource. Le travail présenté, porte sur la fusion d'images SPOT /ERS et plus particulièrement sur l'étude de différentes stratégies de fusion. L'application à laquelle sont destinées les images est prépondérante car elle spécifie le conditionnement et la stratégie à suivre pour les associer. Deux applications visant à démontrer l'apport de l'imagerie radar, d'une part dans le domaine de l'agronomie, et d'autre part dans le domaine de l'enneigement, ont été étudiées. Le premier exemple abordé porte sur la fusion d'attribut; celle-ci est réalisée au sein d'un modèle numérique de croissance végétale. L'accent est mis sur l'interprétation thématique effectuée sur des attributs qui sont extraits à partir des mesures. Une première exigence : justifier la prise en compte des mesures radar en quantifiant le gain apporté par l'opération de fusion. L'expérience acquise pour l'interprétation des mesures optique sert de référence pour analyser les conclusions tirées de l'interprétation des mesures radar. On évalue aussi l'apport d'une mesure vis-à-vis d'une autre mesure de nature différente. Un premier test utilisant des mesures mixtes contemporaines a permis de comparer les conclusions tirées des deux jeux de mesures traités en parallèle. A l'issue de ce travail, les mesures radar ayant montré leur intérêt, un nouveau test a été effectué avec des données mixtes non-contemporaines. L'assimilation des données mixtes (optique/radar) est gérée par le paramètre temps et le suivi de la croissance du végétal est amélioré par une répartition temporelle plus fine due à la multiplicité des mesures. De plus comme l'aptitude d'une mesure à rendre compte du stade de croissance de la culture varie au cours du temps, il est possible de choisir la mieux adaptée pour un instant donné. Le second exemple concerne la fusion au niveau du pixel. Dans ce cas on s'intéresse à l'interprétation pixel par pixel de la scène, ce qui demande une superposition exacte des différentes images et des données extérieures prises en comptes au sein du processus de fusion. L'étendue des applications faisant appel à ce type de fusion est considérable. Cependant, dans certaines régions, le relief très accidenté limite l'utilisation de l'imagerie radar. On constate un manque d'outils adaptés pour traiter les déformations géométriques et radiométriques rencontrées dans ce cas. Une chaîne de traitement pour construire des ortho-images a été élaborée. Ainsi la modélisation géométrique et la modélisation radiométrique d'une mesure SAR ont été traitées. Certaines étapes ont été spécialement travaillées : la détection des points d'appuis et le ré-échantillonnage d'une grille irrégulière. L'amélioration de ces deux points a été possible grâce à une collaboration multicapteur. En effet, la fusion est mise à profit dès le départ, lors du conditionnement des images, et non plus réservée pour l'analyse finale effectuée sur les informations déjà superposées. Ainsi, des ortho-images SAR acquises en phase ascendante et descendante sur la région de Briançon ont été construites pour une application dont l'objectif est d'identifier l'apport du SAR pour cartographier le manteau neigeux. La reconnaissance de l'apport des images radar, au sein des applications thématiques, favorisent leur utilisation. L'analyse conjointe des images multispectrale optique/hyperfréquence offre de nouvelles perspectives quant à la réalisation de certaines applications. La création de processus de fusion permet d'exploiter au mieux la synergie qui découle de tels regroupements. Des stratégies adaptées sont développées pour satisfaire aux spécificités de l'ensemble des données, et pourvoir à la mise à jour de résultats originaux.
49

Sources of contrast and acquisition methods in functional MRI of the human brain

Denolin, Vincent 08 October 2002 (has links)
<p align="justify">L'Imagerie fonctionnelle par Résonance Magnétique (IRMf) a connu un développement important depuis sa découverte au début des années 1990. Basée le plus souvent sur l'effet BOLD (Blood Oxygenation Level Dependent), cette technique permet d'obtenir de façon totalement non-invasive des cartes d'activation cérébrale, avec de meilleures résolutions spatiale et temporelle que les méthodes préexistantes telles que la tomographie par émission de positrons (TEP). Facilement praticable au moyen des imageurs par RMN disponible dans les hôpitaux, elle a mené à de nombreuses applications dans le domaine des neurosciences et de l'étude des pathologies cérébrales.</p><p><p align="justify">Il est maintenant bien établi que l'effet BOLD est dû à une augmentation de l'oxygénation du sang veineux dans les régions du cerveau où se produit l'activation neuronale, impliquant une diminution de la différence de susceptibilité magnétique entre le sang et les tissus environnants (la déoxyhémoglobine étant paramagnétique et l'oxyhémoglobine diamagnétique), et par conséquent un augmentation du signal si la méthode d'acquisition est sensible aux inhomogénéités de champ magnétique. Cependant, il reste encore de nombreuses inconnues quant aux mécanismes liant les variations d'oxygénation, de flux et de volume sanguin à l'augmentation de signal observée, et la dépendance du phénomène en des paramètres tels que l'intensité du champ, la résolution spatiale, et le type de séquence de RMN utilisée. La première partie de la thèse est donc consacrée à l'étude de l'effet BOLD, dans le cas particulier des contributions dues aux veines de drainage dans les séquences de type écho de gradient rendues sensibles au mouvement par l'ajout de gradients de champ. Le modèle développé montre que, contrairement au comportement suggéré par de précédentes publications, l'effet de ces gradients n'est pas une diminution monotone de la différence de signal lorsque l'intensité des gradients augmente. D'importantes oscillations sont produites par l'effet de phase dû au déplacement des spins du sang dans les gradients additionnels, et par la variation de cette phase suite à l'augmentation du flux sanguin. La validation expérimentale du modèle est réalisée au moyen de la séquence PRESTO (Principles of Echo-Shifting combined with a Train of Observations), c'est-à-dire une séquence en écho de gradient où des gradients supplémentaires permettent d'augmenter la sensibilité aux inhomogénéités de champ, et donc à l'effet BOLD. Un accord qualitatif avec la théorie est établi en montrant que la variation de signal observée peut augmenter lorsqu'on intensifie les gradients additionnels.</p><p><p align="justify">Un autre source de débat continuel dans le domaine de l'IRMf réside dans l'optimalisation des méthodes d'acquisition, au point de vue notamment de leur sensibilité à l'effet BOLD, leurs résolutions spatiale et temporelle, leur sensibilité à divers artefacts tels que la perte de signal dans les zones présentant des inhomogénéités de champ à grande échelle, et la contamination des cartes d'activation par les contributions des grosses veines, qui peuvent être distantes du lieu d'activation réel. Les séquences en écho de spin sont connues pour être moins sensibles à ces deux derniers problèmes, c'est pourquoi la deuxième partie de la thèse est consacrée à une nouvelle technique permettant de donner une pondération T2 plutôt que T2* aux images. Le principe de base de la méthode n'est pas neuf, puisqu'il s'agit de la « Préparation T2 » (T2prep), qui consiste à atténuer l'aimantation longitudinale différemment selon la valeur du temps de relaxation T2, mais il n’avait jamais été appliqué à l’IRMf. Ses avantages par rapport à d’autres méthodes hybrides T2 et T2* sont principalement le gain en résolution temporelle et en dissipation d’énergie électromagnétique dans les tissus. Le contraste généré par ces séquences est étudié au moyen de solutions stationnaires des équations de Bloch. Des prédictions sont faites quant au contraste BOLD, sur base de ces solutions stationnaires et d’une description simplifiée de l’effet BOLD en termes de variations de T2 et T2*. Une méthode est proposée pour rendre le signal constant au travers du train d’impulsions en faisant varier l’angle de bascule d’une impulsion à l’autre, ce qui permet de diminuer le flou dans les images. Des expériences in vitro montrent un accord quantitatif excellent avec les prédictions théoriques quant à l’intensité des signaux mesurés, aussi bien dans le cas de l’angle constant que pour la série d’angles variables. Des expériences d’activation du cortex visuel démontrent la faisabilité de l’IRMf au moyen de séquences T2prep, et confirment les prédictions théoriques quant à la variation de signal causée par l’activation.</p><p><p align="justify"> La troisième partie de la thèse constitue la suite logique des deux premières, puisqu’elle est consacrée à une extension du principe de déplacement d’écho (echo-shifting) aux séquences en écho de spin à l’état stationnaire, ce qui permet d’obtenir une pondération T2 et T2* importante tout en maintenant un temps de répétition court, et donc une bonne résolution temporelle. Une analyse théorique approfondie de la formation du signal dans de telles séquences est présentée. Elle est basée en partie sur la technique de résolution des équations de Bloch utilisée dans la deuxième partie, qui consiste à calculer l’aimantation d’état stationnaire en fonction des angles de précession dans le plan transverse, puis à intégrer sur les isochromats pour obtenir le signal résultant d’un voxel (volume element). Le problème est aussi envisagé sous l’angle des « trajectoires de cohérence », c’est-à-dire la subdivision du signal en composantes plus ou moins déphasées, par l’effet combiné des impulsions RF, des gradients appliqués et des inhomogénéités du champ magnétique principal. Cette approche permet d’interpréter l’intensité du signal dans les séquences à écho déplacé comme le résultat d’interférences destructives entre diverses composantes physiquement interprétables. Elle permet de comprendre comment la variation de la phase de l’impulsion d’excitation (RF-spoiling) élimine ces interférences. Des expériences in vitro montrent un accord quantitatif excellent avec les calculs théoriques, et la faisabilité de la méthode in vivo est établie. Il n’est pas encore possible de conclure quant à l’applicabilité de la nouvelle méthode dans le cadre de l’IRMf, mais l’approche théorique proposée a en tout cas permis de revoir en profondeur les mécanismes de formation du signal pour l’ensemble des méthodes à écho déplacé, puisque le cas de l’écho de gradient s’avère complètement similaire au cas de l’écho de spin.</p><p><p align="justify">La thèse évolue donc progressivement de la modélisation de l’effet BOLD vers la conception de séquences, permettant ainsi d’aborder deux aspects fondamentaux de la physique de l’IRMf.</p><p> / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
50

Stéréophotométrie non-calibrée de surfaces non-Lambertiennes. Application à la reconstruction de surface de colonies microbiennes

Kyrgyzova, Khrystyna 22 July 2014 (has links) (PDF)
La thèse est dédiée au problème de la stéréophotométrie non-Lambertienne sans connaissance a priori sur les conditions d'illumination et son application aux images de boîte de Pétri. Pour obtenir une bonne reconstruction de surfaces non-Lambertiennes, il est proposé de traiter une séquence d'entrée en deux étapes: premièrement il faut supprimer les effets spéculaires et obtenir ainsi des images de surface 'pseudo-Lambertienne'. Ensuite dans une deuxième étape à partir de ces images une reconstruction stéréophotométrique Lambertienne sans aucune information préalable sur les directions d'illumination est effectuée. Dans ce travail nous proposons deux méthodes originales respectivement pour la suppression de spécularités et la reconstruction de surface sans information a priori. Les méthodes proposées sont appliquées pour la caractérisation des colonies microbiennes.La spécularités est un effet optique lié à la nature physique complexe des objets. Il est utile pour la perception humaine des objets 3D mais il gêne le processus de traitement automatique d'images. Pour pouvoir appliquer le modèle Lambertien à la stéréophotométrie, les spécularités doivent être supprimées des images d'entrée. Nous proposons donc une méthode originale pour la correction des zones spéculaires adaptée pour une reconstruction ultérieure. L'algorithme proposé est capable de détecter les spécularités comme des valeurs anormalement élevées d'intensité dans une image de la séquence d'entrée, et de les corriger en utilisant les informations des autres images de la séquence et une fonction de correction continue. Cette méthode permet de faire la suppression des spécularités en préservant toutes les autres particularités de distribution de lumière qui sont importantes pour la reconstruction de surface.Après nous proposons une technique de reconstruction stéréophotométrique de surface Lambertienne sans connaissance a priori sur l'illumination. Le modèle mis en œuvre consiste en quatre composantes, deux composantes (albédo et normales) permettent de d'écrire des propriétés de surface et deux autres (intensités des sources de lumière et leurs directions) décrivent illumination. L'algorithme proposé de reconstruction utilise le principe de l'optimisation alternée. Chaque composante du modèle est trouvée itérativement en fixant toutes les variables sauf une et en appliquant des contraintes de structures, valeurs et qualité pour la fonction d'optimisation. Un schéma original de résolution permet de séparer les différents types d'information inclus dans les images d'entrée. Grâce à cette factorisation de matrices, la reconstruction de surface est faite sans connaissance préalable sur les directions de lumière et les propriétés de l'objet reconstruit. L'applicabilité de l'algorithme est prouvée pour des donnés artificielles et des images de bases publiques pour lesquelles la vérité terrain sur les surfaces des objets est disponible.La dernière partie de la thèse est dédiée à l'application de la chaine complète proposée pour le traitement d'images de boîte de Pétri. Ces images sont obtenues en utilisant les sources de lumières complexes qui sont supposées être inconnues pour le processus de reconstruction. L'évaluation de surfaces de colonies microbiennes s'est révélée être une étape importante pour l'analyse visuelle et automatique des colonies. La chaine proposée est efficace pour ce type de données et permet de compléter les informations d'images par de la surface 3D.

Page generated in 0.0852 seconds