Spelling suggestions: "subject:"contraintes dde forma"" "subject:"contraintes dde forms""
1 |
Analyse d'images multi-modales TEP-TDM du thorax. Application à l'oncologie : segmentation de tumeurs, d'organes à risque et suivi longitudinal pour la radiothérapieWojak, Julien 17 December 2010 (has links) (PDF)
En oncologie du thorax, les modalités d'imagerie de tomodensitométrie (TDM) et d'imagerie d'émission de positons (TEP) sont souvent utilisées conjointement, pour le diagnostic ou pour l'élaboration de plans de traitement. En effet, le développement d'appareils d'acquisition combinant ces deux modalités permet leur utilisation conjointe possible en routine clinique sans une difficulté préalable de recalage. Le premier objectif est de proposer des méthodes de segmentation automatiques de tumeurs ou ganglions à l'aide des deux modalités. La modalité TDM étant anatomiquement plus précise les segmentation sont réalisées dans cette modalité en utilisant l'imagerie TEP comme guide pour la localisation de la tumeur. Les organes à risque, devant être protégés des irradiations, nécessitent aussi d'être contourés. Un autre objectif est de proposer des algorithmes permettant leur segmentation. Ils s'appuient sur une connaissance a priori forte des distributions d'intensités des différents organes dans les images TDM et de connaissances a priori de formes des organes à segmenter. Un dernier objectif est de proposer une méthodologie pour la segmentation de tumeurs dans le cadre du suivi longitudinal des patients dans des images préalablement recalées. L'ensemble des méthodes de segmentation a été testé sur différents jeux de données, et lorsque des segmentations manuelles expertes sont disponibles, des résultats quantitatifs sont présentés, montrant l'intérêt des approches proposées et la précision des résultats obtenus.
|
2 |
Régression bayésienne sous contraintes de régularité et de forme. / Bayesian regression under shape and smoothness restriction.Khadraoui, Khader 08 December 2011 (has links)
Nous étudions la régression bayésienne sous contraintes de régularité et de forme. Pour cela,on considère une base de B-spline pour obtenir une courbe lisse et nous démontrons que la forme d'une spline engendrée par une base de B-spline est contrôlée par un ensemble de points de contrôle qui ne sont pas situés sur la courbe de la spline. On propose différents types de contraintes de forme (monotonie, unimodalité, convexité, etc). Ces contraintes sont prises en compte grâce à la loi a priori. L'inférence bayésienne a permis de dériver la distribution posteriori sous forme explicite à une constante près. En utilisant un algorithme hybride de type Metropolis-Hastings avec une étape de Gibbs, on propose des simulations suivant la distribution a posteriori tronquée. Nous estimons la fonction de régression par le mode a posteriori. Un algorithme de type recuit simulé a permis de calculer le mode a posteriori. La convergence des algorithmes de simulations et du calcul de l'estimateur est prouvée. En particulier, quand les noeuds des B-splines sont variables, l'analyse bayésienne de la régression sous contrainte devient complexe. On propose des schémas de simulations originaux permettant de générer suivant la loi a posteriori lorsque la densité tronquée des coefficients de régression prend des dimensions variables. / We investigate the Bayesian regression under shape and smoothness constraints. We first elicita Bayesian method for regression under shape restrictions and smoothness conditions. Theregression function is built from B-spline basis that controls its regularity. Then we show thatits shape can be controlled simply from its coefficients in the B-spline basis. This is achievedthrough the control polygon whose definition and some properties are given in this article.The regression function is estimated by the posterior mode. This mode is calculated by asimulated annealing algorithm which allows to take into account the constraints of form inthe proposal distribution. A credible interval is obtained from simulations using Metropolis-Hastings algorithm with the same proposal distribution as the simulated annealing algorithm.The convergence of algorithms for simulations and calculation of the estimator is proved. Inparticular, in the case of Bayesian regression under constraints and with free knots, Bayesiananalysis becomes complex. we propose original simulation schemes which allows to simulatefrom the truncated posterior distribution with free dimension.
|
3 |
Nouvelles méthodes de segmentation en imagerie tomographique volumique à faisceau conique dentaire / New segmentation methods for dental cone-beam computed tomographyEvain, Timothée 06 December 2017 (has links)
La tomographie à faisceau conique (CBCT) est devenue la modalité de référence pour les praticiens du domaine dentaire. Sa relative nouveauté et ses spécificités impliquent que le domaine du traitement de ces images est peu développé à l’heure actuelle. En partenariat industriel avec Carestream Dental, le premier volet de la thèse a conduit à développer une méthode de segmentation semi-automatique de chaque dent, reposant sur l’utilisation de contraintes de forme et d’intensité, et formulée comme un problème de minimisation d’énergie résolu par coupure de graphe. Les résultats montrent une bonne qualité de segmentation avec un coefficient de Dice moyen de 0, 958. Une application logicielle a été réalisée pour la mise en œuvre de la méthode de segmentation auprès des praticiens, en tenant compte des contraintes techniques et temporelles imposées par le contexte clinique, ainsi que du profil des utilisateurs. Un travail préliminaire d’extension de l’approche par coupure de graphe pour segmenter simultanément plusieurs dents à été réalisé, montrant la nécessité de rendre les contraintes de formes plus adaptées aux images et de modifier la méthode d’optimisation pour atteindre des temps de calcul compatibles avec la pratique clinique. Un second volet prospectif des travaux concerne la constitution d’un modèle structurel de la région maxillo-faciale pour formaliser les connaissances a priori sur les organes et leurs interactions. Ce modèle est un graphe conceptuel où sont représentés les concepts des structures et des relations. En particulier, les relations d’alignement et “le long de” ont été modélisées en 3D dans le cadre des ensembles flous. / Cone-Beam computed tomography (CBCT) is the new standard imaging method for dental practitioners. The image processing field of CBCT data is still underdeveloped due to the novelty of the method and its specificities compared to traditional CT. With Carestream Dental as industrial partner, the first part of this work is a new semi-automatic segmentation protocol for teeth, based on shape and intensity constraints, through a graph-cut optimization of an energy formulation. Results show a good quality of segmentation with an average Dice coefficient of 0.958. A fully functional implementation of the algorithm has led to a software available for dentists, taking into account the clinical context leading to temporal and technical difficulties. A preliminary extension to multi-objects segmentation showed the necessity to get more stringent shape constraints as well as a better optimization algorithm to get acceptable computation times. The second part of this thesis, more prospective, is about the creation of a structural model of the maxillo-facial space, to formalize the a priori knowledge on organs and theirs spatial relations. This model is a conceptual graph where structures and relationships are seen as concepts. In particular, the spatial relations “Along” and “Aligned”, modeled in a fuzzy set framework, have been extended to 3D objects.
|
4 |
Stochastic approximation and least-squares regression, with applications to machine learning / Approximation stochastique et régression par moindres carrés : applications en apprentissage automatiqueFlammarion, Nicolas 24 July 2017 (has links)
De multiples problèmes en apprentissage automatique consistent à minimiser une fonction lisse sur un espace euclidien. Pour l’apprentissage supervisé, cela inclut les régressions par moindres carrés et logistique. Si les problèmes de petite taille sont résolus efficacement avec de nombreux algorithmes d’optimisation, les problèmes de grande échelle nécessitent en revanche des méthodes du premier ordre issues de la descente de gradient. Dans ce manuscrit, nous considérons le cas particulier de la perte quadratique. Dans une première partie, nous nous proposons de la minimiser grâce à un oracle stochastique. Dans une seconde partie, nous considérons deux de ses applications à l’apprentissage automatique : au partitionnement de données et à l’estimation sous contrainte de forme. La première contribution est un cadre unifié pour l’optimisation de fonctions quadratiques non-fortement convexes. Celui-ci comprend la descente de gradient accélérée et la descente de gradient moyennée. Ce nouveau cadre suggère un algorithme alternatif qui combine les aspects positifs du moyennage et de l’accélération. La deuxième contribution est d’obtenir le taux optimal d’erreur de prédiction pour la régression par moindres carrés en fonction de la dépendance au bruit du problème et à l’oubli des conditions initiales. Notre nouvel algorithme est issu de la descente de gradient accélérée et moyennée. La troisième contribution traite de la minimisation de fonctions composites, somme de l’espérance de fonctions quadratiques et d’une régularisation convexe. Nous étendons les résultats existants pour les moindres carrés à toute régularisation et aux différentes géométries induites par une divergence de Bregman. Dans une quatrième contribution, nous considérons le problème du partitionnement discriminatif. Nous proposons sa première analyse théorique, une extension parcimonieuse, son extension au cas multi-labels et un nouvel algorithme ayant une meilleure complexité que les méthodes existantes. La dernière contribution de cette thèse considère le problème de la sériation. Nous adoptons une approche statistique où la matrice est observée avec du bruit et nous étudions les taux d’estimation minimax. Nous proposons aussi un estimateur computationellement efficace. / Many problems in machine learning are naturally cast as the minimization of a smooth function defined on a Euclidean space. For supervised learning, this includes least-squares regression and logistic regression. While small problems are efficiently solved by classical optimization algorithms, large-scale problems are typically solved with first-order techniques based on gradient descent. In this manuscript, we consider the particular case of the quadratic loss. In the first part, we are interestedin its minimization when its gradients are only accessible through a stochastic oracle. In the second part, we consider two applications of the quadratic loss in machine learning: clustering and estimation with shape constraints. In the first main contribution, we provided a unified framework for optimizing non-strongly convex quadratic functions, which encompasses accelerated gradient descent and averaged gradient descent. This new framework suggests an alternative algorithm that exhibits the positive behavior of both averaging and acceleration. The second main contribution aims at obtaining the optimal prediction error rates for least-squares regression, both in terms of dependence on the noise of the problem and of forgetting the initial conditions. Our new algorithm rests upon averaged accelerated gradient descent. The third main contribution deals with minimization of composite objective functions composed of the expectation of quadratic functions and a convex function. Weextend earlier results on least-squares regression to any regularizer and any geometry represented by a Bregman divergence. As a fourth contribution, we consider the the discriminative clustering framework. We propose its first theoretical analysis, a novel sparse extension, a natural extension for the multi-label scenario and an efficient iterative algorithm with better running-time complexity than existing methods. The fifth main contribution deals with the seriation problem. We propose a statistical approach to this problem where the matrix is observed with noise and study the corresponding minimax rate of estimation. We also suggest a computationally efficient estimator whose performance is studied both theoretically and experimentally.
|
Page generated in 0.072 seconds