• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 44
  • 19
  • 6
  • Tagged with
  • 67
  • 27
  • 22
  • 21
  • 18
  • 16
  • 12
  • 12
  • 11
  • 11
  • 11
  • 10
  • 10
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Modélisation d'objets déformables avec un système de particules orientées

Lombardo, Jean-Christophe 10 January 1996 (has links) (PDF)
L'étude présentée se situe dans un contexte de création d'animations par ordinateur à l'aide de modèles dits "générateurs". Nous présentons un nouveau modèle d'objet déformables basé sur l'utilisation d'un système de particules orientées. Nous présentons également une méthode permettant de créer semi-automatiquement ces objets déformable à partir d'une définition volumique de la géometrie des objets. Les systèmes de particules, crées pour pallier les lacunes de la modélisation géométrique classique, ont aujourd'hui un vaste domaine d'application. Le concept de particule orientée a été développé en tant qu'outil pour la modélisation de surfaces tridimensionnelles quelconques. Après avoir proposé une solution originale au problème des oscillations inhérent à la modélisation par système de particules (orientées ou non), nous présentons des nouvelles lois d'interaction anisotrope qui nous permettent de spécifier les propriétés des surfaces modélisées (telles que les courbures) et par la même d'obtenir un modèle d'objet déformable. Une extension de cette technique utilisant une enveloppe définie par des surfaces implicites est aussi présentée. Nous proposons ensuite un algorithme de reconstruction d'objets avec des particules orientées a partir de données tridimensionnelles. L'espace est le lieu d'un champ scalaire, et la surface de l'objet est définie par une valeur remarquable de ce champ. A partir de quelques paramètres-utilisateur spécifiant la densité d'échantillonnage voulue, nous construisons automatiquement un modèle déformable de la surface de l'objet. L'utilisation de particules orientées nous permet aussi de définir un échantillonnage adapté en fonction de la courbure locale directionnelle de l'objet. Les interactions entre les particules sont automatiquement définies, ne laissant à l'utilisateur que quelques paramètres simples à régler pour spécifier le comportement dynamique de l'objet. Finalement, nous présentons les bases d'une approche innovante de modélisation de muscle. Les lois d'interaction entre les particules orientées sont définies et devront être modifiées de façon à copier le comportement du muscle, aussi bien dans ses variations de forme que dans les forces exercées.
32

Reconstruction géométrique de formes - Application à la géologie

Nullans, Stéphane 14 December 1998 (has links) (PDF)
Cette thèse s'articule autour de la reconstruction géométrique de formes. Plusieurs méthodes, basées sur les diagrammes de Voronoï, sont proposées pour la reconstruction automatique d'objets naturels. L'application principale est la modélisation et l'imagerie géologique. Une première méthode permet la reconstruction de volumes et surfaces géologiqu- es à partir de données incomplètes et hétérogènes : données ponctuelles sur des affleurements, portions de contours cartographiques, sondages, coupes incomplètes ou interprétées, modèles numériques de terrains... L'idée majeure de la méthode consiste à assembler les objets différents selon leurs proximités, en utilisant le diagramme de Voronoï de ces objets. Les diagrammes de Voronoï sont des structures géométriques permettant de partitionner l'espace en régions d'influence. En pratique toutes les données sont discrétisées en un ensemble de points colorés, les couleurs représentant ici les caractéristiques géologiques ou géophysiques des données, que nous souhaitons imager. La partition "colorée" de ces points nous donne une première solution topologique au problème de reconstruction. Elle nous fournit en outre, une représentation du bord de l'objet géologique et de son intérieur. L'utilisation de courbes et de surfaces déformables sous contraintes (tension, courbure et respect de la topologie initiale) permet ensuite d'obtenir des interfaces plus lisses et plus conformes. Une étape particulière permet de prendre en compte des surfaces de discontinui- té comme les failles. Afin de représenter un objet S, non plus par des éléments discrets (polyèdres de Voronoi), mais par les valeurs positives d'une fonction continue, nous avons introduit une nouvelle méthode. L'objectif de la méthode est de définir une fonction interpolante s telle que l'ensemble des zéros de s passe exactement par les données de départ et soit une approximation cohérente et lisse de S par ailleurs. Dans un premier temps nous définissons, une fonction caractéristique locale en chaque donnée (point, contour...) et l'objet volumique final résulte alors d'une interpolation de ces fonctions.
33

Modélisation 3D à partir d'images : contributions en reconstruction photométrique à l'aide de maillages déformables

Delaunoy, Amael 02 December 2011 (has links) (PDF)
Comprendre, analyser et modéliser l'environment 3D à partir d'images provenant de caméras et d'appareils photos est l'un des défis majeurs actuel de recherche en vision par ordinateur. Cette thèse s'interesse à plusieurs aspects géométriques et photometriques liés à la reconstruction de surface à partir de plusieurs caméras calibrées. La reconstruction 3D est vue comme un problème de rendu inverse, et vise à minimiser une fonctionnelle d'énergie afin d'optimiser un maillage triangulaire représentant la surface à reconstruire. L'énergie est définie via un modèle génératif faisant naturellement apparaître des attributs tels que la visibilité ou la photométrie. Ainsi, l'approche présentée peut indifférement s'adapter à divers cas d'application tels que la stéréovision multi-vues, la stéréo photométrique multi-vues ou encore le "shape from shading" multi-vues. Plusieurs approches sont proposées afin de résoudre les problèmes de correspondances de l'apparence pour des scènes non Lambertiennes, dont l'apparence varie en fonction du point de vue. La segmentation, la stéréo photométrique ou encore la réciprocité d'Helmholtz sont des éléments étudiés afin de contraindre la reconstruction. L'exploitation de ces contraintes dans le cadre de reconstruction multi-vues permet de reconstruire des modèles complets 3D avec une meilleure qualité.
34

Modèles déformables et Multirésolution pour la détection de contours en traitement d'images

El Omary, Youssef 24 October 1994 (has links) (PDF)
Les modèles déformables ou les contours actifs sont utilisés pour extraire les caractéristiques visuelles dans une image, en particulier les contours d'objets.<br />Notre propos dans cette thèse, est d'étudier ces modèles dans un environnement multirésolution.<br />Commençant par une étude des contours actifs à haute résolution, nous démontrons un théorème d'existence pour les contours actifs fermés et les contours actifs à extrémités libres. Nous présentons ensuite un nouveau modèle appelé la bulle déformable, qui a l'avantage d'avoir une représentation discrète, d'être relativement robuste au bruit et à la texture et d'agir par faibles déformations.<br />Ensuite nous étudions quelques techniques de multirésolution, en présentant les avantages et les inconvénients de chacune. A travers une proposition que nous avons montrée, nous établissons le lien entre la multirésolution et la notion de minimisation d'énergie.<br />Enfin, nous terminons par une proposition originale qui consiste à faire coopérer les contours actifs et la multirésolution. Cette coopération s'agrémente de plusieurs approches pour faire passer le contour du haut de la pyramide vers sa base. Elle associe entre autres une factorisation du modèle des contours actifs, d'une part selon une démarche de type membrane effectuée à basse résolution, et d'autre part selon une démarche de type plaque mince au travers des différentes résolutions supérieures permettant de réajuster le contour détecté jusqu'à la résolution initiale.
35

Développement d'un simulateur haptique pour la cacaractérisation et la microinjection cellulaires / Haptic simulator for cell characterization and microinjection

Ladjal, Hamid 26 May 2010 (has links)
L'objectif fondamental de cette thèse est de développer et de mettre en oeuvre un outil interactif desimulation des techniques de micromanipulation biologiques de cellules. Au moyen de cet outil, l'opérateurpourra se former, s'entraîner et améliorer sa maîtrise en développant une gestuelle proche de celle exécutéeen réalité. La conception d'un tel environnement de simulation en temps-réel nécessite de trouver uncompromis entre le réalisme des modèles de comportement biomécanique utilisés, la précision et la stabilitédes algorithmes des méthodes de résolution et de rendu haptique utilisées ainsi que la vitesse de calcul. Lamodélisation mécanique retenue repose sur l'utilisation du modèle hyperélastique de St Venant-Kirchhoff etune formulation dynamique explicite éléments-finis du type masses-tenseurs. Le bien-fondé de cettemodélisation est vérifié sur des essais de microindentation par Microscopie à Force Atomique (AFM) decellules souches embryonnaires de souris et de microinjection d'ovocytes. Nous avons développé etimplémenté des modèles d'interaction en temps-réel qui s'articulent autour de la détection et la gestionrapide des collisions entre outil/cellule.La synthèse du rendu haptique fourni à l'opérateur est également proposée par l'intermédiaire d'un couplagevirtuel. Pour chaque application, nous avons justifié nos choix méthodologiques et Algorithmiques qui sontguidés par les contraintes de "réalisme+précision" "temps-réel". Les différents modèles proposés ont étéintégrés dans le simulateur SIMIC que nous avons développé pendant cette thèse. Ce dernier est dédié à lasimulation interactive pour l'aide à l'apprentissage du geste de microinjection et de nanoindentationcellulaire. / The fundamental objective of this thesis is to develop and implementing an interactive simulation techniquesfor micromanipulation biological cells. Using this tool, the operator can form, train and improve its control bydeveloping a gesture similar to that performed in reality. The design of such a simulation environment in realtime requires a compromise between the realism of biomechanical models used the accuracy and stability ofalgorithms and solution methods used haptic rendering and computational speed. Modeling Mechanicalrestraint involves the use of hyperelastic model of St Venant-Kirchhoff formulation and explicit dynamic finiteelement-type mass tensors. The validity of this model is tested on microindentation tests by Atomic ForceMicroscopy (AFM) of mouse embryonic stem cells and microinjection of oocytes. We have developed andimplemented models of real-time interaction that revolve around the detection and management of rapidcollisions between tool / cell.The synthesis of the haptic feedback provided to the operator is also available through a virtual coupling. Foreach application, we have justified our methodological choices and Algorithms that are guided by theconstraints of realism + precision "" real time ". The various proposed models have been integrated into thesimulator SIMIC that we developed during this thesis. This is dedicated to interactive simulation to supportlearning of gesture microinjection and cell nanoindentation.
36

Suivi d’objets dans des séquences d’images de scènes déformables : de l’importance des points d’intérêt et du maillage 2D / Objects tracking in video of non rigid scenes : importance of interest points and 2D mesh

Parisot, Pascaline 23 January 2009 (has links)
Nous abordons le suivi d’objets dans des séquences d’images de scènes déformables selon deux axes de recherche. Il s’agit de déterminer les transformations d’un objet, d’une image à l’autre, lorsque celui-ci s’est éventuellement déformé ou déplacé et lorsque le point de vue de la caméra a éventuellement été modifié (déplacement, zoom...). Pour cela, nous nous sommes inspirés de l’algorithme de Jurie et Dhome qui permet de suivre un objet plan indéformable. D’une part, nous en améliorons les performances. D’autre part, nous le généralisons au cas d’objets déformables. Le premier axe de recherche consiste à améliorer les performances de l’algorithme de Jurie et Dhome en termes de précision et robustesse. Le suivi s’appuie sur un ensemble de points d’intérêt, dont dépendent fortement les performances. Ces points d’intérêt sont issus d’une sélection des points obtenus par des détecteurs reconnus, à savoir SIFT, KLT, SUSAN, HARRIS et MORAVEC. Nous avons étudié et mis en oeuvre, sur différentes classes d’images, des heuristiques de sélection fondées sur des approches statistique et algébrique. Nous montrons : – qu’il n’existe pas de détecteur universel, – que l’approche statistique est à privilégier dans tous les cas. Le second axe de recherche est une proposition d’un nouvel algorithme de suivi s’appuyant sur le maillage 2D des images de la séquence. Cet algorithme généralise celui de Jurie et Dhome aux scènes déformables. Il repose sur : – des transformations élémentaires (nodales) du maillage, directes et inverses, que nous avons caractérisées tant d’un point de vue géométrique qu’analytique, – l’utilisation des coordonnées barycentriques généralisées pour approcher la composition de deux transformations d’un maillage. Cet algorithme donne des résultats similaires à celui d’appariement hexagonal de Nakaya et Harashima tout en étant plus rapide. / We deal with object tracking in videos of non-rigid scenes with two main purposes. We aim at determining the transformations of an object, from one frame to the next, when it may be distorted or moved and when the camera focus may change (movement, zoom...). To do this, we were inspired by the Jurie and Dhome algorithm, which enables the tracking of plane rigid objects. On the one hand, we improve its performance. On the other hand, we generalize it to non-rigid objects. The first goal consists in improving the performance of the Jurie and Dhome algorithm, in terms of accuracy and robustness. The tracking is based on a set of interest points, which has a great effect on the algorithm’s performance. These interest points come from a selection among the points extracted with some common detectors: SIFT, KLT, SUSAN, HARRIS, and MORAVEC.With various pictures classes, we have studied and implemented some selection heuristics based on statistical or algebraic approaches. We show that : • there is no universal detector, • the statistical approach is the best in all cases. The second goal is a proposal of a new tracking algorithm based on a 2D mesh of the video frames. This algorithm generalizes the Jurie and Dhome one for non-rigid scenes. It is based on : • elementary (nodal), direct or inverse, mesh transformations that we geometrically and analytically characterize, • generalized barycentric coordinates to approximate the composition of two mesh transformations. This algorithm gives similar results to the hexagonal matching algorithm of Nakaya and Harashima while being faster.
37

Amélioration de connectivité fonctionnelle par utilisation de modèles déformables dans l'estimation de décompositions spatiales des images de cerveau / Enhancement of functional brain connectome analysis by the use of deformable models in the estimation of spatial decompositions of the brain images.

Dohmatob, Elvis 26 September 2017 (has links)
Cartographier la connectivité fonctionnelle du cerveau à partir des donnés d'IRMf est devenu un champ de recherche très actif. Cependant, les outils théoriques et pratiques sont limités et plusieurs tâches importantes, telles que la définition empirique de réseaux de connexion cérébrale, restent difficiles en l’absence d'un cadre pour la modélisation statistique de ces réseaux. Nous proposons de développer au niveau des populations, des modèles joints de connectivité anatomique et fonctionnelle et l'alignement inter-sujets des structures du cerveau. Grâce à une telle contribution, nous allons développer des nouvelles procédures d'inférence statistique afin de mieux comparer la connectivité fonctionnelle entre différents sujets en présence du bruit (bruit scanner, bruit physiologique, etc.). / Mapping the functions of the human brain using fMRI data has become a very active field of research. However, the available theoretical and practical tools are limited and many important tasks like the empirical definition of functional brain networks, are difficult to implement due to lack of a framework for statistical modelling of such networks. We propose to develop at the population level, models that jointly perform estimation of functional connectivity and alignment the brain data across the different individuals / subjects in the population. Building upon such a contribution, we will develop new methods for statistical inference to help compare functional connectivity across different individuals in the presence of noise (scanner noise, physiological noise, etc.).
38

Imagerie optique à très haut contraste : une approche instrumentale optimale / High-contrast imaging : an optimum instrumental approach

Beaulieu, Mathilde 15 June 2017 (has links)
Cette thèse vise à investiguer des moyens d'optimiser les performances de l'imagerie à haut contraste dans l'optique et le proche infrarouge pour la détection d'exo-planètes. L'étude principale a été menée sur le contraste à faible séparation permettant l'imagerie d'exo-planètes dans leur zone habitable. Cette détection directe est rendue possible par le développement des futurs grands télescopes et de coronographes de plus en plus performants à faible séparation. L'approche retenue permet de créer une zone sombre à haut contraste grâce à la coronographie et au « wavefront shaping » (contrôle de l'amplitude et de la phase avec 2 miroirs déformables), mais qui est limité par les effets de propagation de Fresnel. Les résultats obtenus ont déterminé les limitations de configuration optique pour le « wavefront shaping ». Grâce à une approche semi-analytique soutenue par des simulations numériques et une approche Monte-Carlo, ces limitations ont été analysées et quantifiées pour extraire les configurations optimales. Les résultats ont été appliqués au banc SPEED dont l'objectif est d'optimiser et de tester le haut contraste à faible séparation. Une deuxième étude a été une contribution à une étude générale de stabilité, en traitant la stabilité temporelle comme un paramètre indispensable dans la conception en amont d'instrument haut contraste. Un travail préliminaire a été initié sur la stabilité des instruments de mesure eux-mêmes à travers l'étude thermique d'un système de métrologie. Enfin, un dernier volet a été une étude de simulation de performances d'un nouveau concept d'imagerie différentielle basé sur l'acquisition d'images réalisées avec différentes tailles de pupilles. / This thesis aims to optimize high-contrast imaging performance in visible and near infrared for exoplanet detection. The main study focuses on high-contrast at small separation, to image exoplanets in their habitable zone. This direct detection is achievable with the next Extremely Large Telescopes and with the development of coronagraph providing high performance at small separation. The approach adopted for this study creates a high-contrast region (a dark hole) with the combination of coronagraphy and wavefront shaping (wavefront control of both phase and amplitude with 2 deformable mirrors) but is limited by the Fresnel propagation of phase aberrations. The goal of this work is to define the wavefront shaping limitation in optical configuration (deformable mirrors location, component optical quality, beam diameter). A semi-analytic approach followed by a Monte-Carlo analysis of numerical end-to-end simulations is studied, resulting in the definition of the optimal configuration. Results are then applied to SPEED, a test bench to optimize and test high-contrast imaging at small separation with a segmented pupil. Another aspect of this thesis is a contribution to a stability study to treat the temporal stability as a crucial parameter in high-contrast imaging instrumentation, at the conception level. A preliminary work is initiated during the thesis to analyse the stability of the measuring instrument itself. A metrology tool and its thermal behaviour are thus studied. Finally, the last part of this thesis is a performance analysis of a new differential imaging technique, developed to improve high contrast with observations with different diaphragm sizes.
39

Multi-Object modelling of the face / Modélisation Multi-Objet du visage

Salam, Hanan 20 December 2013 (has links)
Cette thèse traite la problématique liée à la modélisation du visage dans le but de l’analyse faciale.Dans la première partie de cette thèse, nous avons proposé le Modèle Actif d’Apparence Multi-Objet. La spécificité du modèle proposé est que les différentes parties du visage sont traités comme des objets distincts et les mouvements oculaires (du regard et clignotement) sont extrinsèquement paramétrées.La deuxième partie de la thèse porte sur l'utilisation de la modélisation de visage dans le contexte de la reconnaissance des émotions.Premièrement, nous avons proposé un système de reconnaissance des expressions faciales sous la forme d’Action Units. Notre contribution porte principalement sur l'extraction des descripteurs de visage. Pour cela nous avons utilisé les modèles AAM locaux.Le second système concerne la reconnaissance multimodale des quatre dimensions affectives :. Nous avons proposé un système qui fusionne des caractéristiques audio, contextuelles et visuelles pour donner en sortie les quatre dimensions émotionnelles. Nous contribuons à ce système en trouvant une localisation précise des traits du visage. En conséquence, nous proposons l’AAM Multi-Modèle. Ce modèle combine un modèle global extrinsèque du visage et un modèle local de la bouche. / The work in this thesis deals with the problematic of face modeling for the purpose of facial analysis.In the first part of this thesis, we proposed the Multi-Object Facial Actions Active Appearance Model (AAM). The specificity of the proposed model is that different parts of the face are treated as separate objects and eye movements (gaze and blink) are extrinsically parameterized. This increases the generalization capabilities of classical AAM.The second part of the thesis concerns the use of face modeling in the context of expression and emotion recognition. First we have proposed a system for the recognition of facial expressions in the form of Action Units (AU). Our contribution concerned mainly the extraction of AAM features of which we have opted for the use of local models.The second system concerns multi-modal recognition of four continuously valued affective dimensions. We have proposed a system that fuses audio, context and visual features and gives as output the four emotional dimensions. We contribute to the system by finding the precise localization of the facial features. Accordingly, we propose the Multi-Local AAM. This model combines extrinsically a global model of the face and a local one of the mouth through the computation of projection errors on the same global AAM.
40

Efficient inference and learning in graphical models for multi-organ shape segmentation / Inférence efficace et apprentissage des modèles graphiques pour la segmentation des formes multi-organes

Boussaid, Haithem 08 January 2015 (has links)
Cette thèse explore l’utilisation des modèles de contours déformables pour la segmentation basée sur la forme des images médicales. Nous apportons des contributions sur deux fronts: dans le problème de l’apprentissage statistique, où le modèle est formé à partir d’un ensemble d’images annotées, et le problème de l’inférence, dont le but est de segmenter une image étant donnée un modèle. Nous démontrons le mérite de nos techniques sur une grande base d’images à rayons X, où nous obtenons des améliorations systématiques et des accélérations par rapport à la méthode de l’état de l’art. Concernant l’apprentissage, nous formulons la formation de la fonction de score des modèles de contours déformables en un problème de prédiction structurée à grande marge et construisons une fonction d’apprentissage qui vise à donner le plus haut score à la configuration vérité-terrain. Nous intégrons une fonction de perte adaptée à la prédiction structurée pour les modèles de contours déformables. En particulier, nous considérons l’apprentissage avec la mesure de performance consistant en la distance moyenne entre contours, comme une fonction de perte. L’utilisation de cette fonction de perte au cours de l’apprentissage revient à classer chaque contour candidat selon sa distance moyenne du contour vérité-terrain. Notre apprentissage des modèles de contours déformables en utilisant la prédiction structurée avec la fonction zéro-un de perte surpasse la méthode [Seghers et al. 2007] de référence sur la base d’images médicales considérée [Shiraishi et al. 2000, van Ginneken et al. 2006]. Nous démontrons que l’apprentissage avec la fonction de perte de distance moyenne entre contours améliore encore plus les résultats produits avec l’apprentissage utilisant la fonction zéro-un de perte et ce d’une quantité statistiquement significative.Concernant l’inférence, nous proposons des solveurs efficaces et adaptés aux problèmes combinatoires à variables spatiales discrétisées. Nos contributions sont triples: d’abord, nous considérons le problème d’inférence pour des modèles graphiques qui contiennent des boucles, ne faisant aucune hypothèse sur la topologie du graphe sous-jacent. Nous utilisons un algorithme de décomposition-coordination efficace pour résoudre le problème d’optimisation résultant: nous décomposons le graphe du modèle en un ensemble de sous-graphes en forme de chaines ouvertes. Nous employons la Méthode de direction alternée des multiplicateurs (ADMM) pour réparer les incohérences des solutions individuelles. Même si ADMM est une méthode d’inférence approximative, nous montrons empiriquement que notre implémentation fournit une solution exacte pour les exemples considérés. Deuxièmement, nous accélérons l’optimisation des modèles graphiques en forme de chaîne en utilisant l’algorithme de recherche hiérarchique A* [Felzenszwalb & Mcallester 2007] couplé avec les techniques d’élagage développés dans [Kokkinos 2011a]. Nous réalisons une accélération de 10 fois en moyenne par rapport à l’état de l’art qui est basé sur la programmation dynamique (DP) couplé avec les transformées de distances généralisées [Felzenszwalb & Huttenlocher 2004]. Troisièmement, nous intégrons A* dans le schéma d’ADMM pour garantir une optimisation efficace des sous-problèmes en forme de chaine. En outre, l’algorithme résultant est adapté pour résoudre les problèmes d’inférence augmentée par une fonction de perte qui se pose lors de l’apprentissage de prédiction des structure, et est donc utilisé lors de l’apprentissage et de l’inférence. [...] / This thesis explores the use of discriminatively trained deformable contour models (DCMs) for shape-based segmentation in medical images. We make contributions in two fronts: in the learning problem, where the model is trained from a set of annotated images, and in the inference problem, whose aim is to segment an image given a model. We demonstrate the merit of our techniques in a large X-Ray image segmentation benchmark, where we obtain systematic improvements in accuracy and speedups over the current state-of-the-art. For learning, we formulate training the DCM scoring function as large-margin structured prediction and construct a training objective that aims at giving the highest score to the ground-truth contour configuration. We incorporate a loss function adapted to DCM-based structured prediction. In particular, we consider training with the Mean Contour Distance (MCD) performance measure. Using this loss function during training amounts to scoring each candidate contour according to its Mean Contour Distance to the ground truth configuration. Training DCMs using structured prediction with the standard zero-one loss already outperforms the current state-of-the-art method [Seghers et al. 2007] on the considered medical benchmark [Shiraishi et al. 2000, van Ginneken et al. 2006]. We demonstrate that training with the MCD structured loss further improves over the generic zero-one loss results by a statistically significant amount. For inference, we propose efficient solvers adapted to combinatorial problems with discretized spatial variables. Our contributions are three-fold:first, we consider inference for loopy graphical models, making no assumption about the underlying graph topology. We use an efficient decomposition-coordination algorithm to solve the resulting optimization problem: we decompose the model’s graph into a set of open, chain-structured graphs. We employ the Alternating Direction Method of Multipliers (ADMM) to fix the potential inconsistencies of the individual solutions. Even-though ADMMis an approximate inference scheme, we show empirically that our implementation delivers the exact solution for the considered examples. Second,we accelerate optimization of chain-structured graphical models by using the Hierarchical A∗ search algorithm of [Felzenszwalb & Mcallester 2007] couple dwith the pruning techniques developed in [Kokkinos 2011a]. We achieve a one order of magnitude speedup in average over the state-of-the-art technique based on Dynamic Programming (DP) coupled with Generalized DistanceTransforms (GDTs) [Felzenszwalb & Huttenlocher 2004]. Third, we incorporate the Hierarchical A∗ algorithm in the ADMM scheme to guarantee an efficient optimization of the underlying chain structured subproblems. The resulting algorithm is naturally adapted to solve the loss-augmented inference problem in structured prediction learning, and hence is used during training and inference. In Appendix A, we consider the case of 3D data and we develop an efficientmethod to find the mode of a 3D kernel density distribution. Our algorithm has guaranteed convergence to the global optimum, and scales logarithmically in the volume size by virtue of recursively subdividing the search space. We use this method to rapidly initialize 3D brain tumor segmentation where we demonstrate substantial acceleration with respect to a standard mean-shift implementation. In Appendix B, we describe in more details our extension of the Hierarchical A∗ search algorithm of [Felzenszwalb & Mcallester 2007] to inference on chain-structured graphs.

Page generated in 0.0687 seconds