• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 116
  • 65
  • 20
  • 1
  • Tagged with
  • 205
  • 93
  • 62
  • 61
  • 54
  • 52
  • 42
  • 39
  • 33
  • 28
  • 27
  • 26
  • 24
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Tomographie discrète, calcul quantique et ordonnancement

Dürr, Christoph 24 October 2006 (has links) (PDF)
Cette habilitation décrit mes travaux en tomographie discrète, calcul quantique et ordonnancement.
12

À l'intersection de la combinatoire des mots et de la géométrie discrète : palindromes, symétries et pavages

Blondin Massé, Alexandre 02 1900 (has links) (PDF)
Dans cette thèse, différents problèmes de la combinatoire des mots et de géométrie discrète sont considérés. Nous étudions d'abord l'occurrence des palindromes dans les codages de rotations, une famille de mots incluant entre autres les mots sturmiens et les suites de Rote. En particulier, nous démontrons que ces mots sont pleins, c'est-à-dire qu'ils réalisent la complexité palindromique maximale. Ensuite, nous étudions une nouvelle famille de mots, appelés mots pseudostandards généralisés, qui sont générés à l'aide d'un opérateur appelé clôture pseudopalindromique itérée. Nous présentons entre autres une généralisation d'une formule décrite par Justin qui permet de générer de façon linéaire et optimale un mot pseudostandard généralisé. L'objet central, le f-palindrome ou pseudopalindrome est un indicateur des symétries présentes dans les objets géométriques. Dans les derniers chapitres, nous nous concentrons davantage sur des problèmes de nature géométrique. Plus précisément, nous donnons la solution à deux conjectures de Provençal concernant les pavages par translation, en exploitant la présence dé palindromes et de périodicité locale dans les mots de contour. À la fin de plusieurs chapitres, différents problèmes ouverts et conjectures sont brièvement présentés. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Palindrome, pseudopalindrome, clôture pseudopalindromique itérée, codages de rotations, symétries, chemins discrets, pavages.
13

Contributions à l'analyse de figures discrètes en dimension quelconque

Lacasse, Annie January 2008 (has links) (PDF)
Les polyominos sont souvent représentés par des mots de quatre lettres ou des mots de changements de direction décrivant leur contour. La combinatoire des mots classique y joue donc un rôle descriptif important, particulièrement dans le choix d'un représentant canonique. Les mots de Lyndon fournissent, de façon naturelle, un tel représentant. Une approche systématique pour le calcul de propriétés des polyominos, basée sur une version originale d'une discrétisation du théorème de Green classique en calcul bivarié, est élaborée. Ceci nous a naturellement amené à analyser les propriétés géométriques d'ensembles du réseau discret de rondeur maximale. Pour une taille donnée, ces ensembles minimisent le moment d'inertie par rapport à un axe passant par leur centre de gravité. Nous introduisons la notion de quasi-disque et montrons entre autres que ces ensembles minimaux sont des poIyominos fortement-convexes. Nous développons également un algorithme permettant de les engendrer systématiquement. Un autre aspect concerne des propriétés sur les contours d'ensembles discrets donnant lieu à une nouvelle démonstration d'un résultat de Daurat et Nivat sur les points dits saillants et rentrants d'un polyomino. Nous présentons également une généralisation de ce résultat aux réseaux hexagonaux et montrons que le résultat est faux pour les autres réseaux semi-réguliers. Nous poursuivons par l'introduction d'opérations de mélange spéciaux sur des mots décrivant des chemins discrets selon la suite de leurs changements de direction. Ces opérations de mélange permettent d'engendrer des courbes fractales du type courbe de dragon et d'analyser certains de leurs invariants. Finalement, une généralisation aux dimensions supérieures des algorithmes précédents basés sur le théorème de Green discret, est présentée. Plus particulièrement, nous développons une version discrète du théorème de Stokes basée sur des familles de poids sur les hypercubes de dimension k dans l'espace discret Zn, k ≤ n. Quelques applications sont également décrites. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Géométrie discrète, Combinatoire des mots, Ensembles discrets, Polyominos, Quasi-disques, Chemins polygonaux, Courbes de dragon, Théorème de Green discret, Théorème de Stokes discret, Algorithmes.
14

Formalismes non classiques pour le traitement informatique de la topologie et de la géométrie discrète

Chollet, Agathe 07 December 2010 (has links) (PDF)
L'objet de ce travail est l'utilisation de certains formalismes non classiques (analyses non standard, analyses constructives) afin de proposer des bases théoriques nouvelles autour des problèmes de discrétisations d'objets continus. Ceci est fait en utilisant un modèle discret du système des nombres réels appelé droite d'Harthong-Reeb ainsi que la méthode arithmétisation associée qui est un processus de discrétisation des fonctions continues. Cette étude repose sur un cadre arithmétique non standard. Dans un premier temps, nous utilisons une version axiomatique de l'arithmétique non standard. Puis, dans le but d'améliorer le contenu constructif de notre méthode, nous utilisons une autre approche de l'arithmétique non standard découlant de la théorie des Ω-nombres de Laugwitz et Schmieden. Cette seconde approche amène à une représentation discrète et multi-résolution de fonctions continues.Finalement, nous étudions dans quelles mesures, la droite d'Harthong-Reeb satisfait les axiomes de Bridges décrivant le continu constructif.
15

Variabilités de la taille de portée des ovins / Study the variabilities the litter size in sheep

Fathallah, Samira 29 September 2015 (has links)
Ce travail de recherche a été mené dans l’équipe MODGEN du département GenPhySE, 1388 UMR de l’INRA. Il avait pour perspectives de modéliser les variabilités de la taille de portée des ovins pour une meilleure évaluation génétique et de proposer des modèles d’analyse adoptés à ce type de caractère.Les objectifs de l’étude étaient d'identifier, et d'analyser les facteurs environnementaux et génétiques des variabilités des tailles de portée des brebis et de proposer une méthode adaptée pour canaliser les caractères discrets qui prenne en compte conjointement des objectifs sur la moyenne et sur la variabilité du caractère. La thèse s’appuyait sur des données issues de la chaîne nationale de contrôle de performances en relation avec des organismes de sélection ovin qui sont particulièrement intéressés par les résultats de ces recherches (CORAM). Choix des races. Nous avons considéré trois races dont les fréquences de la taille de portée sont plus ou moins élevées. La race Romane connue par sa forte prolificité ainsi des effectifs contrôlés importants a permis des analyses précises. Les deux autres races choisies sont la race Suffolk et la race Rouge de l’Ouest qui ont servi à tester les modèles sur des populations comportant de moins en moins de portées multiples. La taille de portée des ovins considérée comme une variable continue. Au cours de l’étude, nous avons identifié et hiérarchisé les facteurs de variation environnementaux du niveau de prolificité et de de sa variance pour trois races ovines (Suffolk, Rouge de l’Ouest et Romane). Si les facteurs de variation environnementaux du niveau de prolificité étaient déjà bien connus, peu de données concernaient les facteurs de variation environnementaux de la variance. Nous avons également estimé les paramètres génétiques du niveau de prolificité et de sa variance, ils sont cohérents entre eux. Les héritabilités estimées sur la moyenne sont faibles, en cohérences entre les trois races et avec des études antérieures. La non homogénéité des corrélations estimées par le modèle à deux étapes peut s’expliquer par la relation structurelle entre la moyenne et la variance sur l’échelle observée qui n'est pas prise en compte dans ce type d'analyse. A l'échelle d'une race, cette relation dépend de l’écart spécifique entre les seuils; elle est différente de la relation moyenne – variance observée pour l’ensemble des races et qui est calculée sur des données brutes. La taille de portée des ovins considérée comme une variable discrète Nous avons montré l’existence d’une variabilité d’origine génétique dans les trois races étudiées et nous avons montré que le modèle à seuils homothétique [HTM] s’ajustait mieux aux données et qu'il permettait de calculer conjointement l’effet génétique sur la moyenne et sur la variance. Nous avons aussi montré les limites de ce modèle et nous avons proposé une solution afin de donner un cadre plus général à son utilisation et l’utiliser dans les évaluations génétiques. Nous avons également identifié un critère de sélection pertinent qui permet de sélectionner les individus de même moyenne ayant des variances différentes. Nous avons proposé le modèle à seuils indépendants [ITM] ou le modèle multi caractères avec contrainte, ce modèle considère que chaque réalisation est un caractère. Nous avons montré la faisabilité de ce modèle sur les trois races. Ceci nous a permis de mettre en évidence les problèmes liés à la convergence du programme utilisé, et nous avons proposé d’implémenter ce modèle en modifiant le programme TM. / This research work was conducted in the MODGEN team of GenPhySE department, 1388 UMR of INRA. The aim of the study was to model the range size variability of sheep for a better genetic evaluation and to propose models of analysis adopted for this type of character. The objectives of the study were to identify, and analyze the environmental and genetic factors of ewe range size variability and to propose a suitable method for channeling discrete traits that takes into account both mean and character variability objectives. The thesis was based on data from the national chain of performance control in relation to sheep breeding organizations that are particularly interested in the results of this research (CORAM). Choice of breeds We have considered three breeds whose litter size frequencies are higher or lower. The Romance breed known for its high prolificity and important controlled numbers allowed precise analyzes. The other two breeds selected are the Suffolk breed and the Western Red breed, which were used to test the models on populations with fewer and fewer litters. Sheep litter size considered a continuous variable During the study, we identified and prioritized the environmental variation factors of the level of prolificacy and its variance for three sheep breeds (Suffolk, Western Red, and Romane). ). While the environmental variation factors of the level of prolificacy were already well known, there was little data on the environmental variance factors of the variance. We have also estimated the genetic parameters of the level of prolificacy and its variance, they are coherent with each other. Heritabilities estimated on the mean are low, consistent between the three races and with previous studies. The non-homogeneity of the correlations estimated by the two-stage model can be explained by the structural relationship between the mean and the variance on the observed scale that is not taken into account in this type of analysis. At the scale of a race, this relation depends on the specific difference between the thresholds; it is different from the mean - variance relationship observed for all breeds and calculated on raw data. Sheep litter size considered a discrete variable We have shown the existence of genetic variability in the three races studied and we have shown that the homothetic threshold model [HTM] fits better with the data and that it allowed to calculate jointly the genetic effect on the mean and on the variance. We have also shown the limitations of this model and have proposed a solution to provide a more general framework for its use and use it in genetic evaluations. We have also identified a relevant selection criterion that makes it possible to select individuals of the same average with different variances. We proposed the model with independent thresholds [ITM] or the multi-character model with constraint, this model considers that each realization is a character. We have shown the feasibility of this model on the three races. This enabled us to highlight the problems related to the convergence of the program used, and we proposed to implement this model by modifying the TM program.
16

Extracting cell complexes from 4-dimensional digital images / Généralisation à dimension 4 des méthodes pour manipuler des images numériques binaires

Pacheco-Martínez, Ana María 10 July 2012 (has links)
Une image numérique peut être définie comme un ensemble de n-xels sur une grille constituée de n-cubes. La segmentation consiste à calculer une partition d'une image en régions. Les n-xels ayant des caractéristiques similaires (couleur, intensité, etc.) sont regroupés. Schématiquement, à chaque n-xel est attribuée une étiquette, et chaque région de l'image est constituée de n-xels de même étiquette. Les méthodes "de type" Marching cubes et Kenmochi et al. construisent des complexes représentant la topologie de la région d'intérêt d'une image numérique binaire de dimension 3. Dans la première méthode, l'algorithme construit un complexe simplicial, dont 0-cellules sont des points des arêtes de la grille duale. Dans la deuxième méthode, les auteurs construisent un complexe cellulaire sur une grille duale, c.a.d les 0-cellules du complexe sont des sommets de la grille duale. Afin de construire le complexe, Kenmochi et al. calculent (à rotations près) les différentes configurations de sommets blancs et noirs d'un cube, puis, ils construisent les enveloppes convexes des points noirs de ces configurations. Ces enveloppes convexes définissent les cellules du complexe, à rotations près. Le travail développé dans cette thèse étend la méthode de Kenmochi et al. en dimension 4. L'objectif est de construire un complexe cellulaire à partir d'une image numérique binaire définie sur une grille duale. Nous calculons d'abord les différentes configurations de sommets blancs et noirs d'un 4-cube (à isométries près), puis, nous construisons des enveloppes convexes définies par ces configurations. Ces enveloppes convexes sont construites par déformation du 4-cube d'origine, et nous distinguon / A digital image can be defined as a set of n-xels on a grid made up by n-cubes. Segmentation consists in computing a partition of an image into regions. The n-xels having similar characteristics (color, intensity, etc.) are regrouped. Schematically, each n-xel is assigned a label, and each region of the image is made up by n-xels with the same label. The methods "type" Marching cubes and Kenmochi et al. construct complexes representing the topology of the region of interest of a 3-dimensional binary digital image. In the first method, the algorithm constructs a simplicial complex, whose 0-cells are points of the edges of the dual grid. Inthe second one, the authors construct a cell complex on a dual grid, i.e. the 0-cells of the complex are vertices of the dual grid. In order to construct the complex, Kenmochi et al. compute (up to rotations) the different configurations of white and black vertices of a cube, and then, they construct the convex hulls of the black points of these configurations. These convex hulls define the cells of the complex, up to rotations. The work developed in this thesis extends Kenmochi et al. method todimension 4. The goal is to construct a cell complex from a binary digital image defined on a dual grid. First, we compute the different configurations of white and black vertices of a 4-cube, up to isometries, and then, we construct the convex hulls defined by these configurations. These convex hulls are constructed by deforming the original 4-cube, and we distinguishseveral basic construction operations (deformation, degeneracy of cells, etc.). Finally, we construct the cell complex corresponding to the dual image by assembling the cells so o / Una imagen digital puede ser definida como un conjunto de n–xeles en un mallado constituido de n–cubos. Los n–xeles pueden ser identificados con: (1) los n–cubos del mallado, o con (2) los puntos centrales de estos n–cubos. En el primer caso, trabajamos con un mallado primal, mientras que en el segundo, trabajamos con un mallado dual construido a partir del mallado primal. La segmentación consiste en calcular una partición de una imagen en regiones. Los n–xeles que tienen características similares (color, intensidad, etc.) son reagrupados. Esquemáticamente, a cada n–xel se le asocia una etiqueta, y cada región de la imagen está constituida de n–xeles con la misma etiqueta. En particular, si las únicas etiquetas permitidas para los n–xeles son “blanca” y “negra”, la segmentación se dice binaria: los n–xeles negros forman el primer plano (foreground) o región de interés en cuestión de análisis de la imagen, y los n–xeles blancos forman el fondo (background). Ciertos modelos, como los Grafos de Adyacencia de Regiones (RAGs), los Grafos Duales (DGs) y la carta topológica, han sido propuestos para representar las particiones en regiones, y en particular para representar la topología de estas regiones, es decir las relaciones de incidencia y/o adyacencia entre las diferentes regiones. El RAG [27] es un precursor de este tipo de modelos, y ha sido una fuente de inspiración de los DGs [18] y de la carta topológica [9, 10]. Un RAG representa una imagen primal etiquetada por un grafo: los vértices del grafo corresponden a regiones de la imagen, y las aristas del grafo representan las relaciones de adyacencia entre la regiones. Los DGs son un modelo que permite resolver ciertos inconvenientes de los RAGs para representar imágenes de dimensión 2. La carta topológica es una extensión de los modelos anteriores definida para manipular imágenes primales de dimensión 2 y 3, representando no solamente las relaciones topológicas, sino también las relaciones geométricas.
17

Critères de capacité nulle

Selezneff, Alexis 18 April 2018 (has links)
Savoir si un ensemble est de capacité nulle ou connaître sa dimension capacitaire est une question importante. De nombreux articles (tels que [3], [5], [6]) ont élucidé la question dans le cas de certains ensembles de Cantor. Les K-sets sont des ensembles de R. En particulier, les ensembles de Cantor les plus réguliers, pour lesquels on connaît une condition simple de capacité nulle, sont des K-sets. Ce mémoire a pour but de montrer l'efficacité d'une méthode dans le cadre des ensembles de Cantor et ses limites dans le cadre des K-sets. Il est principalement inspiré de l'article [8].
18

Rotations in 2D and 3D discrete spaces / Rotations dans les espaces discrets 2D et 3D

Thibault, Yohan 22 September 2010 (has links)
Cette thèse présente une étude sur les rotations dans les espaces discrets en 2 dimensions et en 3 dimensions. Dans le cadre de l'informatique, l'utilisation des nombres flottants n'est pas recommandée du fait des erreurs de calculs que cela implique. Nous avons donc fait le choix de nous concentrer sur les espaces discrets. Dans le domaine de la vision par ordinateur, la rotation est une transformation requise pour de nombreuses applications. L'utilisation de la rotation continue discrétisée donne des résultats de mauvaise qualité. Pour cette raison, il est nécessaire de développer de nouvelles méthodes de rotation adaptées aux espaces discrets. Nous nous sommes principalement intéressés aux angles charnières qui représentent la discontinuité de la rotation dans les espaces discrets. Dans ces espaces, deux rotations d'une image avec deux angles très proches peuvent donner le même résultat, ce qui est capturé par les angles charnières. L'utilisation de ces angles permet de décrire une rotation qui donne les mêmes résultats que la rotation continue discrétisée tout en n'utilisant que des nombres entiers. Ils permettent aussi de définir une rotation incrémentale qui décrit toutes les rotations possibles d'une image digitale donnée. Les angles charnières peuvent être étendus dans les espaces discrets en trois dimensions. Pour cela, on définit les multi-grilles qui sont des plans de rotations contenant trois ensembles de droites parallèles. Elles représentent les discontinuités de la rotation en 3D. Les multi-grilles permettent d'obtenir les mêmes résultats en 3D que ceux obtenus en 2D / This thesis presents a study on rotation in 2 dimensional and 3 dimensional discrete spaces. In computer science, using floating numbers is problematic due to computation errors. Thus we chose during this thesis to work only in discrete space. In the field of computer vision, the rotation is a transformation required for many applications. Using discretized Euclidean rotation gives bad results. Then, it is necessary to develop new rotation methods adapted to the discrete spaces. We mainly studied the hinge angles that represent the discontinuity of the rotation in the discrete space. Indeed, it is possible to perform two rotations of the same digital image with two angles that are slightly different and obtain the same result. This is captured by hinge angles. Using these angles allow us to describe a discrete rotation that gives the same results than the discretized Euclidean rotation without using floating numbers. They also allow describing an incremental rotation that performs all possible rotations of a given digital image. Using hinge angles can also be extended to the rotations in 3 dimensional discrete spaces. The extension requires the multi-grids that are rotation planes containing three sets of parallel lines. These parallel lines represent the discontinuities of the rotation in 3D discrete space. Thus they are useful to describe the hinge angles in rotation planes. Multi-grids allow obtaining the same results in 3D discrete rotations than the results obtained in 2D discrete rotations. This thesis presents a study on rotation in 2 dimensional and 3 dimensional discrete spaces. In computer science, using floating numbers is problematic due to computation errors. Thus we chose during this thesis to work only in discrete space. In the field of computer vision, the rotation is a transformation required for many applications. Using discretized Euclidean rotation gives bad results. Then, it is necessary to develop new rotation methods adapted to the discrete spaces. We mainly studied the hinge angles that represent the discontinuity of the rotation in the discrete space. Indeed, it is possible to perform two rotations of the same digital image with two angles that are slightly different and obtain the same result. This is captured by hinge angles. Using these angles allow us to describe a discrete rotation that gives the same results than the discretized Euclidean rotation without using floating numbers. They also allow describing an incremental rotation that performs all possible rotations of a given digital image. Using hinge angles can also be extended to the rotations in 3 dimensional discrete spaces. The extension requires the multi-grids that are rotation planes containing three sets of parallel lines. These parallel lines represent the discontinuities of the rotation in 3D discrete space. Thus they are useful to describe the hinge angles in rotation planes. Multi-grids allow obtaining the same results in 3D discrete rotations than the results obtained in 2D discrete rotations
19

Etude des courbes discrètes : applications en analyse d'images / Study of discrete curves : applications in image analysis

Nguyen, Thanh Phuong 30 September 2010 (has links)
Dans cette thèse, nous nous intéressons à l'étude des courbes discrètes et ses applications en analyse d'images. Nous avons proposé une amélioration de l'estimation de courbure reposant sur le cercle circonscrit. Celle-ci repose sur la notion de segment flou maximal d'épaisseur [nu] et sur la décomposition d'une courbe discrète en sa séquence de segments flous maximaux. Par la suite, nousavons appliqué cette idée en 3D afin d'estimer la courbure et la torsion discrète en chaque point d'une courbe 3D. Au niveau de l'application, nous avons développé une méthode rapide et fiable pour détecter les points dominants dans une courbe 2D. Un point dominant est un point dont la courbure est localement maximale. Les points dominants jouent un rôle très important dans la reconnaissance de formes. Notre méthode utilise un paramètre qui est l'épaisseur des segments flous maximaux. Reposant sur cette nouvelle méthode de détection des points dominants, nous avons développé des méthodes sans paramètres de détection des points dominants. Celles-ci se basent sur une approche multi-épaisseur. D'autre part, nous nous intéressons particulièrement au cercles et arcs discrets. Une méthode linéaire a été développé pour reconnaître des cercles et arcs discrets. Puisnous avons fait évoluer cette méthode afin de travailler avec des courbes bruitées en utilisant une méthode de détection du bruit. Nous proposons aussi une mesure de circularité. Une méthode linéaire qui utilise cette mesure a été aussi développée pour mesurer la circularité des courbes fermées. Par ailleurs, nous avons proposé une méthode rapide pour décomposer des courbes discrètes en arcs et en segments de droite. / In this thesis, we are interested in the study of discrete curves and its applications in image analysis. We have proposed an amelioration of curvature estimation based on circumcircle. This method is based on the notion of blurred segment of width [nu] and on the decomposition of a curve into the sequence of maximal blurred segment of width [nu]. Afterwards, we have applied this idea in 3D to estimate the discrete curvature and torsion at each point of a 3D curve. Concerning the applications, we have developed a rapid et reliable method to detect dominant points of a 2D curve. A dominant point is a point whose the curvature value is locally maximum. The dominant points play an important role in pattern recognition. Our method uses a parameter: the width of maximal blurred segments. Based on this novel method of dominant point detection, we proposed free-parameter methods for polygonal representation. They are based on a multi-width approach. Otherwise, we are interested in discrete arcs and circles. A linear method has been proposed for the recognition of arcs and circles. We then develop a new method for segmentation of noisy curves into arcs based on a method of noise detection. We also proposed a linear method to measure the circularity of closed curves. In addition, we have proposed a robust method to decompose a curve into arcs and line segments
20

Espaces non-euclidiens et analyse d'image : modèles déformables riemanniens et discrets, topologie et géométrie discrète

Lachaud, Jacques-Olivier 06 December 2006 (has links) (PDF)
Les travaux présentés dans ce mémoire d'habilitation correspondent à des recherches effectuées depuis mon arrivée à Bordeaux en septembre 1999. J'ai choisi d'y présenter celles qui ont trait aux approches non-euclidiennes pour l'analyse d'image, la clé de voûte en étant la segmentation par modèle déformable. D'autres travaux plus amonts comme la topologie des espaces subdivisés et les invariants topologiques ou plus avals comme la reconstruction de colonne vertébrale en imagerie radiographique ne seront qu'évoqués. Ce choix, s'il peut sembler restrictif par rapport à une synthèse exhaustive de mes travaux, présente néanmoins une plus grande cohérence, à la fois dans les résultats et dans la démarche suivie. Ce mémoire montre notamment que l'utilisation d'autres géométries que la géométrie euclidienne classique, les géométries riemannienne et discrète, présente un intérêt certain en analyse d'images. Les modèles déformables constituent une technique classique de segmentation et de reconstruction en analyse d'image. Dans ce cadre, le problème de la segmentation est exprimé sous forme variationnelle, où la solution est idéalement le minimum d'une fonctionnelle. Pendant ma thèse, je m'étais déjà intéressé aux modèles hautement déformables, qui ont la double caractéristique de se baser uniquement sur l'information image pour repérer ses composantes et de pouvoir extraire des formes de complexité arbitraire. Pour assurer l'initialisation du modèle déformable, j'avais aussi mis en évidence les liens entre surfaces discrètes et triangulations d'isosurfaces. Ces premiers travaux expliquent le cheminement que j'ai suivi depuis dans mes recherches. En voulant attaquer deux problématiques fondamentales des modèles déformables (la minimisation du nombre de paramètres et de la complexité, la recherche d'une solution plus proche de l'optimale), j'ai été amené à changer l'espace de travail classique : l'espace euclidien. Le Chapitre 1 résume les approches classiques des modèles déformables, leurs différentes formulations, ainsi que les problématiques spécifiques auxquelles je me suis intéressé. Il montre enfin en quoi la formulation des modèles déformables dans des espaces non-euclidiens ouvre des pistes intéressantes pour les résoudre. La première voie explorée et résumée dans le Chapitre 2 est d'introduire une métrique riemannienne, variable dans l'espace et dépendante de l'information image locale. L'utilisation d'une autre métrique permet de déformer virtuellement l'espace afin de concentrer l'effort de calcul sur les zones d'intérêt de l'image. Une métrique judicieusement choisie permet d'adapter le nombre de paramètres du modèle déformable à la géométrie de la forme recherchée. Le modèle pourra ainsi se déplacer très vite sur les zones homogènes, extraire les parties droites, planes ou peu courbées avec très peu de paramètres, et conserver une grande précision sur les contours significatifs très courbés. Une telle approche conserve voire améliore la qualité et la robustesse de la segmentation, et minimise à la fois la complexité en temps et le nombre d'itérations avant convergence. La deuxième voie explorée parallèlement est le remplacement de l'espace euclidien continu par la grille cellulaire discrète. L'espace des formes possibles est alors fini tout en restant adapté à l'échantillonnage de l'image. D'autres techniques d'optimisation sont dès lors envisageables, la solution est bien définie et les problèmes numériques liés à la convergence d'un processus ne sont plus présents. Le Chapitre 3 décrit le principe suivi pour discrétiser le modèle déformable sur la grille cellulaire Z^n. Il présente les premiers résultats obtenus avec un algorithme de segmentation a posteriori. Il met aussi en évidence les problématiques soulevées par le passage au discret, problématiques qui se sont révélées être des voies de recherche par elles-mêmes. D'une part, il faut mettre au point des structures de données et des outils pour représenter les surfaces discrètes, pour mesurer leurs paramètres géométriques, et pour les faire évoluer. Le Chapitre 4 synthétise les travaux menés en ce sens. Cela nous conduit à proposer un nouveau formalisme algébrique pour représenter ces surfaces en dimension quelconque. Une étude précise des estimateurs géométriques discrets de tangente, de normale, de longueur et de courbure est ensuite conduite. Nous avons notamment évalué quantitativement leurs performances à basse échelle et proposé de nouveaux estimateurs pour les améliorer. Leurs propriétés asymptotiques lorsque la discrétisation est de plus en plus fine sont enfin discutées. D'autre part, le modèle déformable discret doit approcher au mieux le comportement du modèle déformable euclidien à résolution donnée mais aussi simuler de plus en plus exactement ce comportement lorsque la résolution augmente asymptotiquement. Les estimateurs géométriques discrets se doivent dès lors d'être convergents. En analysant finement la décomposition des courbes discrètes en segments discrets maximaux, nous avons obtenu des théorèmes de convergence ou de non-convergence de certains estimateurs. Le Chapitre 5 résume cette étude de la géométrie des courbes discrètes 2D et des propriétés géométriques asymptotiques du bord d'une discrétisation. Le mémoire se conclut par une synthèse des principaux résultats obtenus et montre les perspectives de recherche ouvertes par ces travaux.

Page generated in 0.0243 seconds