• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 11
  • Tagged with
  • 25
  • 25
  • 10
  • 10
  • 8
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Analyse de textures dans l'espace hyperspectral par des méthodes probabilistes

Rellier, Guillaume 08 November 2002 (has links) (PDF)
Dans cette thèse, on aborde le problème de l'analyse de texture pour l'étude des zones urbaines. La texture est une notion spatiale désignant ce qui, en dehors de la couleur ou du niveau de gris, caractérise l'homogénéité visuelle d'une zone donnée d'une image. Le but de cette étude est d'établir un modèle qui permette une analyse de texture prenant en compte conjointement l'aspect spatial et l'aspect spectral, à partir d'images hyperspectrales. Ces images sont caractérisées par un nombre de canaux largement supérieur à celui des images multispectrales classiques. On désire tirer parti de l'information spectrale pour améliorer l'analyse spatiale. Les textures sont modélisées par un champ de Markov gaussien vectoriel, qui permet de prendre en compte les relations spatiales entre pixels, mais aussi les relations inter-bandes à l'intérieur d'un même pixel. Ce champ est adapté aux images hyperspectrales par une simplification évitant l'apparition de problèmes d'estimation statistique dans des espaces de grande dimension. Dans le but d'éviter ces problèmes, on effectue également une réduction de dimension des données grâce à un algorithme de poursuite de projection. Cet algorithme permet de déterminer un sous-espace de projection dans lequel une grandeur appelée indice de projection est optimisée. L'indice de projection est défini par rapport à la modélisation de texture proposée, de manière à ce que le sous-espace optimal maximise la distance entre les classes prédéfinies, dans le cadre de la classification. La méthode d'analyse de texture est testée dans le cadre d'une classification supervisée. Pour ce faire, on met au point deux algorithmes que l'on compare avec des algorithmes classiques utilisant ou non l'information de texture. Des tests sont réalisés sur des images hyperspectrales AVIRIS.
12

Compréhension, modélisation et détection de tumeurs cérébrales : modèles graphiques et méthodes de recalage/segmentation simultanés

Parisot, Sarah 18 November 2013 (has links) (PDF)
L'objectif principal de cette thèse est la modélisation, compréhension et segmentation automatique de tumeurs diffuses et infiltrantes appelées Gliomes Diffus de Bas Grade. Deux approches exploitant des connaissances a priori de l'ordre spatial et anatomique ont été proposées. Dans un premier temps, la construction d'un atlas probabiliste qui illustre les positions préférentielles des tumeurs dans le cerveau est présentée. Cet atlas représente un excellent outil pour l'étude des mécanismes associés à la genèse des tumeurs et fournit des indications sur la position probable des tumeurs. Cette information est exploitée dans une méthode de segmentation basée sur des champs de Markov aléatoires, dans laquelle l'atlas guide la segmentation et caractérise la position préférentielle de la tumeur. Dans un second temps, nous présentons une méthode pour la segmentation de tumeur et le recalage avec absence de correspondances simultanés. Le recalage introduit des informations anatomiques qui améliorent les résultats de segmentation tandis que la détection progressive de la tumeur permet de surmonter l'absence de correspondances sans l'introduction d'un à priori. La méthode est modélisée comme un champ de Markov aléatoire hiérarchique et à base de grille sur laquelle les paramètres de segmentation et recalage sont estimés simultanément. Notre dernière contribution est une méthode d'échantillonnage adaptatif guidé par les incertitudes pour de tels modèles discrets. Ceci permet d'avoir une grande précision tout en maintenant la robustesse et rapidité de la méthode. Le potentiel des deux méthodes est démontré sur de grandes bases de données de gliomes diffus de bas grade hétérogènes. De par leur modularité, les méthodes proposées ne se limitent pas au contexte clinique présenté et pourraient facilement être adaptées à d'autres problèmes cliniques ou de vision par ordinateur.
13

Développement et évaluation de nouvelles méthodes de classification spatiale-spectrale d’images hyperspectrales / Development and evaluation of new spatial-spectral classification methods of hyperspectral images

Roussel, Guillaume 10 July 2012 (has links)
L'imagerie hyperspectrale, grâce à un nombre élevé de bandes spectrales très fines et contigües, est capable d'associer àchaque pixel d'une image une signature spectrale caractéristique du comportement réflectif du matériau ou du mélange dematériaux présents dans ce pixel. La plupart des algorithmes de classification tirent profit de cette grande profusiond'information spectrale mais exploitent très peu l'information contextuelle existant entre les pixels appartenant à un mêmevoisinage. L'objectif de cette thèse est de réaliser de nouveaux algorithmes utilisant simultanément les informations spectraleet spatiale à des fins de classification et d'étudier la complémentarité de ces deux types d'information dans divers contextes.Dans cette optique nous avons développé trois scénarios de classification sensiblement différents, chacun étant adapté à untype d'application particulier.Nous avons tout d'abord développé un procédé d'extraction puis de classification vectorielle d'un ensemble de caractéristiquesspectrales et spatiales. Les caractéristiques spectrales sont extraites au moyen de méthodes visant à réduire la dimension desimages hyperspectrales tout en conservant une majorité de l'information utile. Les caractéristiques spatiales sont quant àelles produites par l'intermédiaire d'outils de caractérisation de la texture (matrices de co-occurrence et spectres de texture)ou de la forme (profils morphologiques). Nous nous sommes ensuite intéressés à la modélisation markovienne et avonsentrepris d'adapter un algorithme de classification de type Conditional Random Field à un contexte hyperspectral. Notretroisième et dernière approche s'appuie sur une segmentation préalable de l'image afin de réaliser une classification parzones et non plus par pixels.L'information spectrale pure permet de regrouper efficacement des pixels présentant des signatures spectrales similaires etsuffit généralement dans le cadre de problèmes de classification ne faisant intervenir que des classes sémantiquement trèsprécises, liées à un unique type de matériau. Les classes plus générales (utilisées par exemple pour des applicationsd'aménagement des sols) se composent en revanche de plusieurs matériaux parfois communs à plusieurs classes et agencésselon des motifs qui se répètent. Caractérisables à la fois spatialement et spectralement, ces classes sont susceptibles d'êtreplus complètement décrites par une utilisation simultanée de ces deux types d'information. Pour conclure cette étude, nousavons effectué une comparaison des trois méthodes d'intégration de l'information spatiale au processus de classification selonles trois critères sont la précision de classification, la complexité algorithmique et la robustesse / Thanks to a high number of thin and contiguous spectral bands, the hyperpectral imagery can associate to each pixel of animage a spectral signature representing the reflective behaviour of the materials composing the pixel. Most of theclassification algorithms use this great amount of spectral information without noticing the contextual information betweenthe pixels that belong to the same neighborhood. This study aims to realize new algorithms using simultaneously the spectraland spatial informations in order to classify hyperspectral images, and to study their complementarity in several contexts. Forthis purpose, we have developped three different classification scenarios, each one adapted to a particular type of application.The first scenario consists in a vectorial classification processus. Several spectral and spatial characteristics are extracted andmerged in order to form a unique data set, which is classified using a Support Vector Machine method or a Gaussian MixingModel algorithm. The spectral characteristics are extracted using dimension reduction method, such as PCA or MNF, while thespatial characteristics are extracted using textural characterization tools (co-occurrence matrices and texture spectra) ormorphological tools (morphological profiles). For the second scenario, we adapted a Conditional Random Field algorithm tothe hyperspectral context. Finally, the last scenario is an area-wise classification algorithm relying on a textural segmentationmethod as a pre-processing step.The spectral information is generally sufficient to deal with semantically simple classes, linked to a unique type of material.Complex classes (such as ground amenagment classes) are composed of several materials which potentially belong to morethan one class. Those classes can be characterized both spectrally and spatially, which means that they can be morecompletly described using both spectral and spatial informations. To conclude this study, we compared the threespectral/spatial classification scenarios using three criterions : classification accuracy, algorithmic complexity and strength.
14

Méthodes Bayésiennes pour le démélange d'images hyperspectrales / Bayesian methods for hyperspectral image unmixing

Eches, Olivier 14 October 2010 (has links)
L’imagerie hyperspectrale est très largement employée en télédétection pour diverses applications, dans le domaine civil comme dans le domaine militaire. Une image hyperspectrale est le résultat de l’acquisition d’une seule scène observée dans plusieurs longueurs d’ondes. Par conséquent, chacun des pixels constituant cette image est représenté par un vecteur de mesures (généralement des réflectances) appelé spectre. Une étape majeure dans l’analyse des données hyperspectrales consiste à identifier les composants macroscopiques (signatures) présents dans la région observée et leurs proportions correspondantes (abondances). Les dernières techniques développées pour ces analyses ne modélisent pas correctement ces images. En effet, habituellement ces techniques supposent l’existence de pixels purs dans l’image, c’est-à-dire des pixels constitué d’un seul matériau pur. Or, un pixel est rarement constitué d’éléments purs distincts l’un de l’autre. Ainsi, les estimations basées sur ces modèles peuvent tout à fait s’avérer bien loin de la réalité. Le but de cette étude est de proposer de nouveaux algorithmes d’estimation à l’aide d’un modèle plus adapté aux propriétés intrinsèques des images hyperspectrales. Les paramètres inconnus du modèle sont ainsi déduits dans un cadre Bayésien. L’utilisation de méthodes de Monte Carlo par Chaînes de Markov (MCMC) permet de surmonter les difficultés liées aux calculs complexes de ces méthodes d’estimation. / Hyperspectral imagery has been widely used in remote sensing for various civilian and military applications. A hyperspectral image is acquired when a same scene is observed at different wavelengths. Consequently, each pixel of such image is represented as a vector of measurements (reflectances) called spectrum. One major step in the analysis of hyperspectral data consists of identifying the macroscopic components (signatures) that are present in the sensored scene and the corresponding proportions (concentrations). The latest techniques developed for this analysis do not properly model these images. Indeed, these techniques usually assume the existence of pure pixels in the image, i.e. pixels containing a single pure material. However, a pixel is rarely composed of pure spectrally elements, distinct from each other. Thus, such models could lead to weak estimation performance. The aim of this thesis is to propose new estimation algorithms with the help of a model that is better suited to the intrinsic properties of hyperspectral images. The unknown model parameters are then infered within a Bayesian framework. The use of Markov Chain Monte Carlo (MCMC) methods allows one to overcome the difficulties related to the computational complexity of these inference methods.
15

Exploiter l'approche hiérarchique bayésienne pour la modélisation statistique de structures spatiales: application en écologie des populations

Ancelet, Sophie 01 July 2008 (has links) (PDF)
Dans la plupart des questions écologiques, les phénomènes aléatoires d'intérêt sont spatialement structurés et issus de l'effet combiné de multiples variables aléatoires, observées ou non, et inter-agissant à diverses échelles. En pratique, dès lors que les données de terrain ne peuvent être directement traitées avec des structures spatiales standards, les observations sont généralement considérées indépendantes. Par ailleurs, les modèles utilisés sont souvent basés sur des hypothèses simplificatrices trop fortes par rapport à la complexité des phénomènes étudiés. Dans ce travail, la démarche de modélisation hiérarchique est combinée à certains outils de la statistique spatiale afin de construire des structures aléatoires fonctionnelles "sur-mesure" permettant de représenter des phénomènes spatiaux complexes en écologie des populations. L'inférence de ces différents modèles est menée dans le cadre bayésien avec des algorithmes MCMC. Dans un premier temps, un modèle hiérarchique spatial (Geneclust) est développé pour identifier des populations génétiquement homogènes quand la diversité génétique varie continûment dans l'espace. Un champ de Markov caché, qui modélise la structure spatiale de la diversité génétique, est couplé à un modèle bivarié d'occurrence de génotypes permettant de tenir compte de l'existence d'unions consanguines chez certaines populations naturelles. Dans un deuxième temps, un processus de Poisson composé particulier,appelé loi des fuites, est présenté sous l'angle de vue hiérarchique pour décrire le processus d'échantillonnage d'organismes vivants. Il permet de traiter le délicat problème de données continues présentant une forte proportion de zéros et issues d'échantillonnages à efforts variables. Ce modèle est également couplé à différents modèles sur grille (spatiaux, régionalisés) afin d'introduire des dépendances spatiales entre unités géographiques voisines puis, à un champ géostatistique bivarié construit par convolution sur grille discrète afin de modéliser la répartition spatiale conjointe de deux espèces. Les capacités d'ajustement et de prédiction des différents modèles hiérarchiques proposés sont comparées aux modèles traditionnellement utilisés à partir de simulations et de jeux de données réelles (ours bruns de Suède, invertébrés épibenthiques du Golfe-du-Saint-Laurent (Canada)).
16

Minimisation multi-étiquette d'énergies markoviennes par coupe-minimum sur graphe: application à la reconstruction de la phase interférométrique en imagerie RSO

Shabou, Aymen 09 November 2010 (has links) (PDF)
Les approches markoviennes en imagerie et vision par ordinateur offrent un cadre mathématique élégant pour résoudre certains problèmes complexes. Le plus souvent, la fonction d'énergie globale modélisant le problème demeure difficile à minimiser. La première contribution de cette thèse consiste alors à proposer des algorithmes d'optimisation efficace de la classe d'énergies markoviennes multi-étiquettes de premier ordre ayant une attache aux données quelconque et un a priori convexe. Les algorithmes proposés reposent sur la technique de coupe-minimum sur graphe et des stratégies d'optimisation itérative par des nouveaux mouvements de partitions larges et multi-étiquettes, qui permettent d'avoir un compromis entre la qualité de l'optimum atteint et la complexité algorithmique. Le cadre applicatif principal de cette thèse est la reconstruction du relief par interférométrie radar à synthèse d'ouverture. Cette méthode de calcul de modèles numériques de terrain est confrontée le plus souvent à la nature très bruitée des données radar et aussi à la complexité des scènes naturelles et urbaines à reconstruire et à leur grande dimension. Ainsi, la seconde contribution de ces travaux de thèse consiste à proposer des modèles markoviens robustes face à la diversité des scènes à reconstruire dans le cas général et des algorithmes d'optimisation qui leur sont appropriés. L'approche générale est testée et validée sur un jeu de données radar synthétiques et réelles (ERS et ESAR).
17

Modèles markoviens graphiques pour la fusion de données individuelles et d'interactions : application à la classification de gènes

Vignes, Matthieu 30 October 2007 (has links) (PDF)
Les recherches que nous présentons dans ce mémoire s'inscrivent dans le cadre de l'intégration statistique de données post-génomiques hétérogènes. La classification non supervisée de gènes vise à regrouper en ensembles significatifs les gènes d'un organisme, vu comme un système complexe, conformément aux données expérimentales afin de dégager des actions concertées de ces gènes dans les mécanismes biologiques mis en jeu. <br /><br />Nous basons notre approche sur des modèles probabilistes graphiques. Plus spécifiquement, nous utilisons l'outil de champs de Markov cachés qui permet la prise en compte simultanée de données propres à chacun des gènes grâce a des distributions de probabilités et de données traduisant un réseau d'interaction au sein de l'organisme à l'aide d'un graphe non-orienté entre les gènes. <br /><br />Apres avoir présenté la problématique et le contexte biologique, nous décrivons le modèle utilisé ainsi que les stratégies algorithmiques d'estimation des paramètres (i.e. approximations de type champ moyen). Puis nous nous intéresserons à deux particularités des données auxquelles nous avons été confrontés et qui amènent des développements du modèle utilisé, notamment la prise en compte de l'absence de certaines observations et la haute dimensionnalité de celles-ci. Enfin nous présenterons des expériences sur données simulées ainsi que sur données réelles sur la levure qui évaluent le gain apporté par notre travail. Notamment, nous avons voulu mettre l'accent sur des interprétations biologiques plausibles des résultats obtenus.
18

Modèles et inférence pour des systèmes stochastiques structurés

Forbes, Florence 07 December 2010 (has links) (PDF)
Le contexte de mon travail est la mise au point d'outils statistiques pour le dévelopement et l'analyse de modèles stochastiques structurés. L'idée sous-jacente à la notion de structure est qu'il est souvent possible à l'aide d'hypothèses locales simples combinées de manière cohérente de rendre compte de phénomènes globaux potentiellement complexes. Cette idée de construction du local vers le global guide ainsi la modélisation, l'estimation et l'interprétation. Cette approche se révèle utile dans des domaines variés tels que le traitement du signal et de l'image, les neurosciences, la génomique, l'épidémiologie, etc. Inversement les besoins de ces domaines ont pu susciter en retour des développements théoriques importants. Par ailleurs, beaucoup de techniques statistiques sont encore limitées par des d'hypothèses restrictives pouvant conduire à des analyses imprécises voire erronées. Différentes sources de complexité peuvent mettre en défaut les approches classiques. Souvent les données exhibent une structure de dépendance non triviale, due par exemple à des répétitions, des groupements, des méthodes d'échantillonnage particulières, des associations dans l'espace ou le temps. Une seconde source de complexité est liée au processus de mesure qui peut impliquer l'utilisation d'instruments physiquement très différents, qui produisent des données hétérogènes, en grandes dimensions et potentiellement de manière défaillante de sorte qu'une partie des données peut être manquante. La plupart de mes objectifs de recherche sont centrés sur la mise au point de modèles et d'outils d'inférence pouvant faire face à ce genre de complications fréquentes dans les données modernes et contribuer ainsi au développement de nouvelles méthodes statistiques. En ce qui concerne la notion de dépendance et de localité, un concept central est celui d'indépendance conditionnelle. Les propriétés de Markov et les modèles markoviens permettent d'énoncer de telles indépendances conditionnelles et ce thème est central dans ma recherche. Pour ce qui est des données manquantes ou incomplètes, les modèles de mélanges sont une approche classique. Ces modèles conduisent plus généralement à la notion de modèles à structure manquantes. Ces derniers sont également utiles pour rendre compte d'hétérogénéités dans les données. Ils trouvent de nombreux échos en statistique: modèles de mélanges finis, modèles de Markov cachés, modèles à effet aléatoire, etc. La présence de données incomplètes induit cependant généralement des difficultés pour ce qui est de l'estimation des paramètres et de l'évaluation des performances. Modèles markoviens et modèles de mélanges sont mes deux principaux thèmes de recherche avec cette idée unificatrice de structure dans les modèles mais aussi dans les données. J'ai pu montrer que ces deux thèmes pouvaient être reliés utilement en traitant des problèmes difficiles dans diverses applications. Plus précisément, j'ai developpé des modèles à structure cachée essentiellement dans le but de résoudre des problèmes de classifications inhérents à certaines questions. J'ai souvent abordé le problème de l'estimation de ces modèles à partir de l'algorithme EM et développé des variantes permettant d'apporter des solutions satisfaisantes lorsque les outils classiques faisaient défaut. J'ai tenté également d'apporter des résultats sur les propriétés théoriques, e.g. convergence et vitesse, de ces algorithmes. Enfin, j'ai abordé la question de la sélection de modèles essentiellement en cherchant à proposer des critères de sélection dans les cas où les critères classiques n'étaient pas calculables.
19

Méthodes d'inférence statistique pour champs de Gibbs / Statistical inference methods for Gibbs random fields

Stoehr, Julien 29 October 2015 (has links)
La constante de normalisation des champs de Markov se présente sous la forme d'une intégrale hautement multidimensionnelle et ne peut être calculée par des méthodes analytiques ou numériques standard. Cela constitue une difficulté majeure pour l'estimation des paramètres ou la sélection de modèle. Pour approcher la loi a posteriori des paramètres lorsque le champ de Markov est observé, nous remplaçons la vraisemblance par une vraisemblance composite, c'est à dire un produit de lois marginales ou conditionnelles du modèle, peu coûteuses à calculer. Nous proposons une correction de la vraisemblance composite basée sur une modification de la courbure au maximum afin de ne pas sous-estimer la variance de la loi a posteriori. Ensuite, nous proposons de choisir entre différents modèles de champs de Markov cachés avec des méthodes bayésiennes approchées (ABC, Approximate Bayesian Computation), qui comparent les données observées à de nombreuses simulations de Monte-Carlo au travers de statistiques résumées. Afin de pallier l'absence de statistiques exhaustives pour ce choix de modèle, des statistiques résumées basées sur les composantes connexes des graphes de dépendance des modèles en compétition sont introduites. Leur efficacité est étudiée à l'aide d'un taux d'erreur conditionnel original mesurant la puissance locale de ces statistiques à discriminer les modèles. Nous montrons alors que nous pouvons diminuer sensiblement le nombre de simulations requises tout en améliorant la qualité de décision, et utilisons cette erreur locale pour construire une procédure ABC qui adapte le vecteur de statistiques résumés aux données observées. Enfin, pour contourner le calcul impossible de la vraisemblance dans le critère BIC (Bayesian Information Criterion) de choix de modèle, nous étendons les approches champs moyens en substituant la vraisemblance par des produits de distributions de vecteurs aléatoires, à savoir des blocs du champ. Le critère BLIC (Block Likelihood Information Criterion), que nous en déduisons, permet de répondre à des questions de choix de modèle plus large que les méthodes ABC, en particulier le choix conjoint de la structure de dépendance et du nombre d'états latents. Nous étudions donc les performances de BLIC dans une optique de segmentation d'images. / Due to the Markovian dependence structure, the normalizing constant of Markov random fields cannot be computed with standard analytical or numerical methods. This forms a central issue in terms of parameter inference or model selection as the computation of the likelihood is an integral part of the procedure. When the Markov random field is directly observed, we propose to estimate the posterior distribution of model parameters by replacing the likelihood with a composite likelihood, that is a product of marginal or conditional distributions of the model easy to compute. Our first contribution is to correct the posterior distribution resulting from using a misspecified likelihood function by modifying the curvature at the mode in order to avoid overly precise posterior parameters.In a second part we suggest to perform model selection between hidden Markov random fields with approximate Bayesian computation (ABC) algorithms that compare the observed data and many Monte-Carlo simulations through summary statistics. To make up for the absence of sufficient statistics with regard to this model choice, we introduce summary statistics based on the connected components of the dependency graph of each model in competition. We assess their efficiency using a novel conditional misclassification rate that evaluates their local power to discriminate between models. We set up an efficient procedure that reduces the computational cost while improving the quality of decision and using this local error rate we build up an ABC procedure that adapts the summary statistics to the observed data.In a last part, in order to circumvent the computation of the intractable likelihood in the Bayesian Information Criterion (BIC), we extend the mean field approaches by replacing the likelihood with a product of distributions of random vectors, namely blocks of the lattice. On that basis, we derive BLIC (Block Likelihood Information Criterion) that answers model choice questions of a wider scope than ABC, such as the joint selection of the dependency structure and the number of latent states. We study the performances of BLIC in terms of image segmentation.
20

Recalage/Fusion d'images multimodales à l'aide de graphes d'ordres supérieurs / Registration/Fusion of multimodal images using higher order graphs

Fécamp, Vivien 12 January 2016 (has links)
L’objectif principal de cette thèse est l’exploration du recalage d’images à l’aide de champs aléatoires de Markov d’ordres supérieurs, et plus spécifiquement d’intégrer la connaissance de transformations globales comme une transformation rigide, dans la structure du graphe. Notre cadre principal s’applique au recalage 2D-2D ou 3D-3D et utilise une approche hiérarchique d’un modèle de champ de Markov dont le graphe est une grille régulière. Les variables cachées sont les vecteurs de déplacements des points de contrôle de la grille.Tout d’abord nous expliciterons la construction du graphe qui permet de recaler des images en cherchant entre elles une transformation affine, rigide, ou une similarité, tout en ne changeant qu’un potentiel sur l’ensemble du graphe, ce qui assure une flexibilité lors du recalage. Le choix de la métrique est également laissée à l’utilisateur et ne modifie pas le fonctionnement de notre algorithme. Nous utilisons l’algorithme d’optimisation de décomposition duale qui permet de gérer les hyper-arêtes du graphe et qui garantit l’obtention du minimum exact de la fonction pourvu que l’on ait un accord entre les esclaves. Un graphe similaire est utilisé pour réaliser du recalage 2D-3D.Ensuite, nous fusionnons le graphe précédent avec un autre graphe construit pour réaliser le recalage déformable. Le graphe résultant de cette fusion est plus complexe et, afin d’obtenir un résultat en un temps raisonnable, nous utilisons une méthode d’optimisation appelée ADMM (Alternating Direction Method of Multipliers) qui a pour but d’accélérer la convergence de la décomposition duale. Nous pouvons alors résoudre simultanément recalage affine et déformable, ce qui nous débarrasse du biais potentiel issu de l’approche classique qui consiste à recaler affinement puis de manière déformable. / The main objective of this thesis is the exploration of higher order Markov Random Fields for image registration, specifically to encode the knowledge of global transformations, like rigid transformations, into the graph structure. Our main framework applies to 2D-2D or 3D-3D registration and use a hierarchical grid-based Markov Random Field model where the hidden variables are the displacements vectors of the control points of the grid.We first present the construction of a graph that allows to perform linear registration, which means here that we can perform affine registration, rigid registration, or similarity registration with the same graph while changing only one potential. Our framework is thus modular regarding the sought transformation and the metric used. Inference is performed with Dual Decomposition, which allows to handle the higher order hyperedges and which ensures the global optimum of the function is reached if we have an agreement among the slaves. A similar structure is also used to perform 2D-3D registration.Second, we fuse our former graph with another structure able to perform deformable registration. The resulting graph is more complex and another optimisation algorithm, called Alternating Direction Method of Multipliers is needed to obtain a better solution within reasonable time. It is an improvement of Dual Decomposition which speeds up the convergence. This framework is able to solve simultaneously both linear and deformable registration which allows to remove a potential bias created by the standard approach of consecutive registrations.

Page generated in 0.4508 seconds