• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 1
  • Tagged with
  • 6
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Problèmes de contrôle et équations hyperboliques non-linéaires

Vincent, Perrollaz 09 December 2011 (has links) (PDF)
Dans cette thèse nous étudierons plusieurs problèmes de la théorie du contrôle portant sur des modèles non-linéaires issus de la mécanique des fluides. Dans le chapitre un, nous étudions l'équation de Camassa-Holm sur un intervalle compact de R. Après avoir introduit de bonnes conditions aux bords et une notion de solution faible, nous montrons un théorème d'existence et un théorème d'unicité fort-faible pour le problème mixte. Dans une seconde partie nous fournissons une loi de retour pour les données aux bords qui nous permet de stabiliser asymptotiquement l'état stationnaire naturel de l'équation.\par Dans le chapitre deux, nous étudions le problème de la contrôlabilité exacte d'une loi de conservation scalaire à flux convexe, posée sur un intervalle compact et dans le cadre des solutions entropiques. On fournit des conditions suffisantes sur des fonctions de BV pour qu'elles soient atteignables en temps arbitraire depuis n'importe quelle donnée initiale. On contrôle l'équation via les données aux bords et aussi grâce à un terme source agissant uniformément en espace.\par Enfin le chapitre trois est consacré au problème de la stabilisation asymptotique des états stationnaires constants d'une loi de conservation scalaire à flux convexe, posée sur un intervalle compact et dans le cadre des solutions entropiques. On contrôle à nouveau l'équation via les données aux bords et un terme source agissant uniformément en espace. Nous fournissons deux lois de retour stationnaires (suivant que l'état à stabiliser est de vitesse critique ou non) qui nous permettent de montrer la stabilisation asymptotique globale.
2

Utilisation d'approches probabilistes basées sur les critères entropiques pour la recherche d'information sur supports multimédia

Coq, Guilhem 05 December 2008 (has links) (PDF)
Les problèmes de sélection de modèles se posent couramment dans un grand nombre de domaines applicatifs tels que la compression de données ou le traitement du signal et de l'image. Un des outils les plus utilisés pour résoudre ces problèmes se présente sous la forme d'une quantité réelle à minimiser appelée critère d'information ou critère entropique pénalisé.<br /><br />La principale motivation de ce travail de thèse est de justifier l'utilisation d'un tel critère face à un problème de sélection de modèles typiquement issu d'un contexte de traitement du signal. La justification attendue se doit, elle, d'avoir un solide fondement mathématique. <br /><br />Nous abordons ainsi le problème classique de la détermination de l'ordre d'une autorégression. La régression gaussienne, permettant de détecter les harmoniques principales d'un signal bruité, est également abordée. Pour ces problèmes, nous donnons un critère dont l'utilisation est justifiée par la minimisation du coût résultant de l'estimation obtenue. Les chaînes de Markov multiples modélisent la plupart des signaux discrets, comme les séquences de lettres ou les niveaux de gris d'une image. Nous nous intéressons au problème de la détermination de l'ordre d'une telle chaîne. Dans la continuité de ce problème nous considérons celui, a priori éloigné, de l'estimation d'une densité par un histogramme. Dans ces deux domaines, nous justifions l'utilisation d'un critère par des notions de codage auxquelles nous appliquons une forme simple du principe de Minimum Description Length.<br /><br />Nous nous efforçons également, à travers ces différents domaines d'application, de présenter des méthodes alternatives d'utilisation des critères d'information. Ces méthodes, dites comparatives, présentent une complexité d'utilisation moindre que les méthodes rencontrées habituellement, tout en permettant une description précise du modèle.
3

Approches variationnelles statistiques spatio-temporelles pour l'analyse quantitative de la perfusion myocardique en IRM

Hamrouni-Chtourou, Sameh 11 July 2012 (has links) (PDF)
L'analyse quantitative de la perfusion myocardique, i.e. l'estimation d'indices de perfusion segmentaires puis leur confrontation à des valeurs normatives, constitue un enjeu majeur pour le dépistage, le traitement et le suivi des cardiomyopathies ischémiques --parmi les premières causes de mortalité dans les pays occidentaux. Dans la dernière décennie, l'imagerie par résonance magnétique de perfusion (IRM-p) est la modalité privilégiée pour l'exploration dynamique non-invasive de la perfusion cardiaque. L'IRM-p consiste à acquérir des séries temporelles d'images cardiaques en incidence petit-axe et à plusieurs niveaux de coupe le long du grand axe du cœur durant le transit d'un agent de contraste vasculaire dans les cavités et le muscle cardiaques. Les examens IRM-p résultants présentent de fortes variations non linéaires de contraste et des artefacts de mouvements cardio-respiratoires. Dans ces conditions, l'analyse quantitative de la perfusion myocardique est confrontée aux problèmes complexes de recalage et de segmentation de structures cardiaques non rigides dans des examens IRM-p. Cette thèse se propose d'automatiser l'analyse quantitative de la perfusion du myocarde en développant un outil d'aide au diagnostic non supervisé dédié à l'IRM de perfusion cardiaque de premier passage, comprenant quatre étapes de traitement : -1.sélection automatique d'une région d'intérêt centrée sur le cœur; -2.compensation non rigide des mouvements cardio-respiratoires sur l'intégralité de l'examen traité; -3.segmentation des contours cardiaques; -4.quantification de la perfusion myocardique. Les réponses que nous apportons aux différents défis identifiés dans chaque étape s'articulent autour d'une idée commune : exploiter l'information liée à la cinématique de transit de l'agent de contraste dans les tissus pour discriminer les structures anatomiques et guider le processus de recalage des données. Ce dernier constitue le travail central de cette thèse. Les méthodes de recalage non rigide d'images fondées sur l'optimisation de mesures d'information constituent une référence en imagerie médicale. Leur cadre d'application usuel est l'alignement de paires d'images par appariement statistique de distributions de luminance, manipulées via leurs densités de probabilité marginales et conjointes, estimées par des méthodes à noyaux. Efficaces pour des densités jointes présentant des classes individualisées ou réductibles à des mélanges simples, ces approches atteignent leurs limites pour des mélanges non-linéaires où la luminance au pixel s'avère être un attribut trop frustre pour permettre une décision statistique discriminante, et pour des données mono-modal avec variations non linéaires et multi-modal. Cette thèse introduit un modèle mathématique de recalage informationnel multi-attributs/multi-vues générique répondant aux défis identifiés: (i) alignement simultané de l'intégralité de l'examen IRM-p analysé par usage d'un atlas, naturel ou synthétique, dans lequel le cœur est immobile et en utilisant les courbes de rehaussement au pixel comme ensemble dense de primitives; et (ii) capacité à intégrer des primitives image composites, spatiales ou spatio-temporelles, de grande dimension. Ce modèle, disponible dans le cadre classique de Shannon et dans le cadre généralisé d'Ali-Silvey, est fondé sur de nouveaux estimateurs géométriques de type k plus proches voisins des mesures d'information, consistants en dimension arbitraire. Nous étudions leur optimisation variationnelle en dérivant des expressions analytiques de leurs gradients sur des espaces de transformations spatiales régulières de dimension finie et infinie, et en proposant des schémas numériques et algorithmiques de descente en gradient efficace. Ce modèle de portée générale est ensuite instancié au cadre médical ciblé, et ses performances, notamment en terme de précision et de robustesse, sont évaluées dans le cadre d'un protocole expérimental tant qualitatif que quantitatif
4

Analysis and Geometry of RCD spaces via the Schrödinger problem / Analyse et géométrie des espaces RCD par le biais du problème de Schrödinger

Tamanini, Luca 29 September 2017 (has links)
Le but principal de ce manuscrit est celui de présenter une nouvelle méthode d'interpolation entre des probabilités inspirée du problème de Schrödinger, problème de minimisation entropique ayant des liens très forts avec le transport optimal. À l'aide de solutions au problème de Schrödinger, nous obtenons un schéma d'approximation robuste jusqu'au deuxième ordre et différent de Brenier-McCann qui permet d'établir la formule de dérivation du deuxième ordre le long des géodésiques Wasserstein dans le cadre de espaces RCD* de dimension finie. Cette formule était inconnue même dans le cadre des espaces d'Alexandrov et nous en donnerons quelques applications. La démonstration utilise un ensemble remarquable de nouvelles propriétés pour les solutions au problème de Schrödinger dynamique :- une borne uniforme des densités le long des interpolations entropiques ;- la lipschitzianité uniforme des potentiels de Schrödinger ;- un contrôle L2 uniforme des accélérations. Ces outils sont indispensables pour explorer les informations géométriques encodées par les interpolations entropiques. Les techniques utilisées peuvent aussi être employées pour montrer que la solution visqueuse de l'équation d'Hamilton-Jacobi peut être récupérée à travers une méthode de « vanishing viscosity », comme dans le cas lisse.Dans tout le manuscrit, plusieurs remarques sur l'interprétation physique du problème de Schrödinger seront mises en lumière. Cela pourra aider le lecteur à mieux comprendre les motivations probabilistes et physiques du problème, ainsi qu'à les connecter avec la nature analytique et géométrique de la dissertation. / Main aim of this manuscript is to present a new interpolation technique for probability measures, which is strongly inspired by the Schrödinger problem, an entropy minimization problem deeply related to optimal transport. By means of the solutions to the Schrödinger problem, we build an efficient approximation scheme, robust up to the second order and different from Brenier-McCann's classical one. Such scheme allows us to prove the second order differentiation formula along geodesics in finite-dimensional RCD* spaces. This formula is new even in the context of Alexandrov spaces and we provide some applications.The proof relies on new, even in the smooth setting, estimates concerning entropic interpolations which we believe are interesting on their own. In particular we obtain:- equiboundedness of the densities along the entropic interpolations,- equi-Lipschitz continuity of the Schrödinger potentials,- a uniform weighted L2 control of the Hessian of such potentials. These tools are very useful in the investigation of the geometric information encoded in entropic interpolations. The techniques used in this work can be also used to show that the viscous solution of the Hamilton-Jacobi equation can be obtained via a vanishing viscosity method, in accordance with the smooth case. Throughout the whole manuscript, several remarks on the physical interpretation of the Schrödinger problem are pointed out. Hopefully, this will allow the reader to better understand the physical and probabilistic motivations of the problem as well as to connect them with the analytical and geometric nature of the dissertation.
5

Méthodes en caractères pour le traitement automatique des langues

Denoual, Etienne 21 September 2006 (has links) (PDF)
Le traitement automatique des langues fondé sur les données a récemment assimilé de nombreuses techniques et perspectives héritées du domaine de la reconnaissance de parole. Parmi celles-ci, les méthodes qui utilisent le mot comme unité de traitement sont difficilement transposables aux systèmes d'écriture sans séparateur orthographique, et ne sont donc pas multilingues.<br />Le présent travail promeut l'utilisation de méthodes travaillant au niveau du signal de l'écrit: le caractère, unité immédiatement accessible dans toute langue informatisée, permet de se passer de segmentation en mots, étape actuellement incontournable pour des langues comme le chinois ou le japonais.<br /><br />Dans un premier temps, nous transposons et appliquons en caractères une méthode bien établie d'évaluation objective de la traduction automatique, BLEU.<br />Les résultats encourageants nous permettent dans un deuxième temps d'aborder d'autres tâches de traitement des données linguistiques. Tout d'abord, le filtrage de la grammaticalité; ensuite, la caractérisation de la similarité et de l'homogénéité des ressources linguistiques. Dans toutes ces tâches, le traitement en caractères obtient des résultats acceptables, et comparables à ceux obtenus en mots.<br />Dans un troisième temps, nous abordons des tâches de production de données linguistiques: le calcul analogique sur les chaines de caractères permet la production de paraphrases aussi bien que la traduction automatique.<br />Ce travail montre qu'on peut construire un système complet de traduction automatique ne nécessitant pas de segmentation, a fortiori pour traiter des langues sans séparateur orthographique.
6

Approches variationnelles statistiques spatio-temporelles pour l'analyse quantitative de la perfusion myocardique en IRM / Spatio-temporal statistical variational models for the quantitative assessment of myocardial perfusion in magnetic resonance imaging

Hamrouni-Chtourou, Sameh 11 July 2012 (has links)
L'analyse quantitative de la perfusion myocardique, i.e. l'estimation d'indices de perfusion segmentaires puis leur confrontation à des valeurs normatives, constitue un enjeu majeur pour le dépistage, le traitement et le suivi des cardiomyopathies ischémiques --parmi les premières causes de mortalité dans les pays occidentaux. Dans la dernière décennie, l'imagerie par résonance magnétique de perfusion (IRM-p) est la modalité privilégiée pour l'exploration dynamique non-invasive de la perfusion cardiaque. L'IRM-p consiste à acquérir des séries temporelles d'images cardiaques en incidence petit-axe et à plusieurs niveaux de coupe le long du grand axe du cœur durant le transit d'un agent de contraste vasculaire dans les cavités et le muscle cardiaques. Les examens IRM-p résultants présentent de fortes variations non linéaires de contraste et des artefacts de mouvements cardio-respiratoires. Dans ces conditions, l'analyse quantitative de la perfusion myocardique est confrontée aux problèmes complexes de recalage et de segmentation de structures cardiaques non rigides dans des examens IRM-p. Cette thèse se propose d'automatiser l’analyse quantitative de la perfusion du myocarde en développant un outil d'aide au diagnostic non supervisé dédié à l'IRM de perfusion cardiaque de premier passage, comprenant quatre étapes de traitement : -1.sélection automatique d'une région d'intérêt centrée sur le cœur; -2.compensation non rigide des mouvements cardio-respiratoires sur l'intégralité de l'examen traité; -3.segmentation des contours cardiaques; -4.quantification de la perfusion myocardique. Les réponses que nous apportons aux différents défis identifiés dans chaque étape s'articulent autour d'une idée commune : exploiter l'information liée à la cinématique de transit de l'agent de contraste dans les tissus pour discriminer les structures anatomiques et guider le processus de recalage des données. Ce dernier constitue le travail central de cette thèse. Les méthodes de recalage non rigide d'images fondées sur l'optimisation de mesures d'information constituent une référence en imagerie médicale. Leur cadre d'application usuel est l'alignement de paires d'images par appariement statistique de distributions de luminance, manipulées via leurs densités de probabilité marginales et conjointes, estimées par des méthodes à noyaux. Efficaces pour des densités jointes présentant des classes individualisées ou réductibles à des mélanges simples, ces approches atteignent leurs limites pour des mélanges non-linéaires où la luminance au pixel s’avère être un attribut trop frustre pour permettre une décision statistique discriminante, et pour des données mono-modal avec variations non linéaires et multi-modal. Cette thèse introduit un modèle mathématique de recalage informationnel multi-attributs/multi-vues générique répondant aux défis identifiés: (i) alignement simultané de l'intégralité de l'examen IRM-p analysé par usage d'un atlas, naturel ou synthétique, dans lequel le cœur est immobile et en utilisant les courbes de rehaussement au pixel comme ensemble dense de primitives; et (ii) capacité à intégrer des primitives image composites, spatiales ou spatio-temporelles, de grande dimension. Ce modèle, disponible dans le cadre classique de Shannon et dans le cadre généralisé d'Ali-Silvey, est fondé sur de nouveaux estimateurs géométriques de type k plus proches voisins des mesures d'information, consistants en dimension arbitraire. Nous étudions leur optimisation variationnelle en dérivant des expressions analytiques de leurs gradients sur des espaces de transformations spatiales régulières de dimension finie et infinie, et en proposant des schémas numériques et algorithmiques de descente en gradient efficace. Ce modèle de portée générale est ensuite instancié au cadre médical ciblé, et ses performances, notamment en terme de précision et de robustesse, sont évaluées dans le cadre d'un protocole expérimental tant qualitatif que quantitatif / Quantitative assessment of moycardium perfusion, i.e. computation of perfusion parameters which are then confronted to normative values, is a key issue for the diagnosis, therapy planning and monitoring of ischemic cardiomyopathies --the leading cause of death in Western countries. Within the last decade, perfusion magnetic resonance imaging (p-MRI) has emerged as a reference modality for reliably assessing myocardial perfusion in a noninvasive and accurate way. In p-MRI acquisitions, short-axis image sequences are captured at multiple slice levels along the long-axis of the heart during the transit of a vascular contrast agent through the cardiac chambers and muscle. Resulting p-MRI exams exhibit high nonlinear contrast variations and complex cardio-thoracic motions. Perfusion assessment is then faced with the complex problems of non rigid registration and segmentation of cardiac structures in p-MRI exams. The objective of this thesis is enabling an automated quantitative computer-aided diagnosis tool for first pass cardiac perfusion MRI, comprising four processing steps: -1.automated cardiac region of interest extraction; -2.non rigid registration of cardio-thoracic motions throughout the whole sequence; -3.cardiac boundaries segmentation; -4.quantification of myocardial perfusion. The answers we give to the various challenges identified in each step are based on a common idea: investigating information related to the kinematics of contrast agent transit in the tissues for discriminating the anatomical structures and driving the alignment process. This latter is the main work of this thesis. Non rigid image registration methods based on the optimization of information measures provide versatile solutions for robustly aligning medical data. Their usual application setting is the alignment of image pairs by statistically matching luminance distributions, handled using marginal and joint probability densities estimated via kernel techniques. Though efficient for joint densities exhibiting well-separated clusters or reducible to simple mixtures, these approaches reach their limits for nonlinear mixtures where pixelwise luminance appears to be a too coarse feature for allowing unambiguous statistical decisions, and for mono-modal with nonlinear variations and multi-modal data. This thesis presents a unified mathematical model for the information-theoretic multi-feature/multi-view non rigid registration, addressing the identified challenges : (i) simultaneous registration of the whole p-MRI exam, using a natural or synthetic atlas generated as a motion-free exam depicting the transit of the vascular contrast agent through cardiac structures and using local contrast enhancement curves as a feature set; (ii) can be easily generalized to richer feature spaces combining radiometric and geometric information. The resulting model is based on novel consistent k-nearest neighbors estimators of information measures in high dimension, for both classical Shannon and generalized Ali-Silvey frameworks. We study their variational optimization by deriving under closed-form their gradient flows over finite and infinite dimensional smooth transform spaces, and by proposing computationally efficient gradient descent schemas. The resulting generic theoretical framework is applied to the groupwise alignment of cardiac p-MRI exams, and its performances, in terms of accuracy and robustness, are evaluated in an experimental qualitative and quantitative protocol

Page generated in 0.0744 seconds