• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 25
  • 21
  • 5
  • Tagged with
  • 51
  • 21
  • 16
  • 13
  • 10
  • 9
  • 8
  • 8
  • 7
  • 7
  • 7
  • 7
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Quantification de l’hétérogénéité tumorale à partir de l’imagerie médicale. : Application à la classification de tumeurs rénales. / Quantifying tumoral heterogeneity thanks to medical images. : An application to classifying different subtypes of renal tumours.

Peretti, Agathe 20 December 2017 (has links)
Cette thèse présente des travaux de modélisation mathématique de la croissance tumorale. On détaille dans ce manuscrit la construction d’indicateurs de bio-imagerie, destinés à quantifier l’hétérogénéité tumorale. Un modèle d’équations aux dérivées partielles constitué de deux types de cellules tumorales est étudié par la suite. Le paramétrage de ce modèle est propre à chaque patient et à chaque lésion. Il est effectué grâce à des données d’imagerie médicale (IRM ou scanner), ce qui constitue une méthode non invasive pour le patient. Les indicateurs ainsi que le modèle décrit ont été utilisés dans le cadre du suivi des métastases des lésions rénales de 5 patients traités avec un médicament anti-angiogénique. Enfin, la dernière partie a pour objectif de distinguer différents types de lésions rénales (malignes ou non) grâce à l’imagerie afin de limiter les chirurgies inutiles. On s’est particulièrement attaché à distinguer les carcinomes rénaux à cellules claires des angiomyolipomes pauvres en graisse. / This document deals with mathematical modelling of tumour growth. Biological indicators based on medical images are constructed in order to quantify tumoral heterogeneity. In the first part, a partial differential equations model made of two distinct cell subtypes is being studied. The model’s parameters are unique for each patient and each lesion. They are computed thanks to medical images (MRI or scan), which is a non-invasive method for the patient. Both the indicators and the model described are used on the cases of 5 patients treated with an anti-angiogenic medicine. The last part of the document aims at distinguishing different renal tumour subtypes that can be malignant or benign. Angiomyolipomas and renal cells carcinomas were particulary studied in the last part of the document.
32

Elaboration d'un score de vieillissement : propositions théoriques / Development of a score of ageing : proposal for a mathematical theory

Sarazin, Marianne 21 May 2013 (has links)
Le vieillissement fait actuellement l’objet de toutes les attentions, constituant en effet un problème de santé publique majeur. Sa description reste cependant complexe en raison des intrications à la fois individuelles et collectives de sa conceptualisation et d’une dimension subjective forte. Les professionnels de santé sont de plus en plus obligés d’intégrer cette donnée dans leur réflexion et de proposer des protocoles de prise en charge adaptés. Le vieillissement est une évolution inéluctable du corps dont la quantification est établie par l’âge dépendant du temps dit « chronologique ». Ce critère âge est cependant imparfait pour mesurer l’usure réelle du corps soumise à de nombreux facteurs modificateurs dépendant des individus. Aussi, partant de réflexions déjà engagées et consistant à substituer cet âge chronologique par un critère composite appelé « âge biologique », aboutissant à la création d’un indicateur ou score de vieillissement et sensé davantage refléter le vieillissement individuel, une nouvelle méthodologie est proposée adaptée à la pratique de médecine générale. Une première phase de ce travail a consisté à sonder les médecins généralistes sur leur perception et leur utilisation des scores cliniques en pratique courante par l’intermédiaire d’une enquête qualitative et quantitative effectuée en France métropolitaine. Cette étude a montré que l’adéquation entre l’utilisation déclarée et la conception intellectualisée des scores restait dissociée. Les scores constituent un outil d’aide à la prise en charge utile pour cibler une approche systémique souvent complexe dans la mesure où ils sont simples à utiliser (peu d’items et items adaptés à la pratique) et à la validité scientifiquement comprise par le médecin. Par ailleurs, l’âge du patient a été cité comme un élément prépondérant influençant le choix adéquat du score par le médecin généraliste. Cette base de travail a donc servi à proposer une modélisation de l’âge biologique dont la réflexion a porté tant sur le choix du modèle mathématique que des variables constitutives de ce modèle. Une sélection de variables marqueurs du vieillissement a été effectuée à partir d’une revue de la littérature et tenant compte de leur possible intégration dans le processus de soin en médecine générale. Cette sélection a été consolidée par une approche mathématique selon un processus de sélection ascendant à partir d’un modèle régressif. Une population dite « témoin » au vieillissement considéré comme normal a été ensuite constituée servant de base comparative au calcul de l’âge biologique. Son choix a été influencé dans un premier temps par les données de la littérature puis secondairement selon un tri par classification utilisant la méthode des nuées dynamiques. Un modèle de régression linéaire simple a ensuite été construit mais avec de données normalisées selon la méthode des copules gaussiennes suivi d’une étude des queues de distribution marginales. Les résultats ainsi obtenus laissent entrevoir des perspectives intéressantes de réflexion pour approfondir le calcul d’un âge biologique et du score en découlant en médecine générale, sa validation par une étude de morbidité constituant l’étape ultime de ce travail / Ageing is nowadays a major public health problem. Its description remains complex, both individual and collective conceptualization being interlaced with a strong subjective dimension. Health professionals are increasingly required to integrate ageing and prevention into their thought and to create adapted protocol and new tools. Ageing characterizes unavoidable changes in the body. It is usually measured by the age dependent on time and called “chronological age”. However, the criterion « chronological age » reflects imperfectly the actual ageing of the body depending on many individual factors. Also, this criterion has for a long time been replaced by another composite criterion called « biological age » supposed to better reflect the ageing process. In order to build a score of ageing adapted to general practice, a new methodology is proposed suitable for general practitioners. First of all, a first phase of this work consisted in a qualitative and quantitative survey conducted among general practitioners in France. This survey was done to obtain data on the use of predictive scores by general practitioners in their daily practice and their appropriateness, as well as to know the reasons of their non-utilization. Results showed that predictive scores are useful tools in daily practice to target a complex systemic approach insofar as they are simple to use (few items, items suitable for general practice) and their scientific validity is easily understood. In addition, patient’s age has been cited as a major criterion influencing general practitioners use of a predictive score. Results of this first phase have been used to propose a model of biological ageing, with reflexion on mathematical model as well as on component variables of this model. A selection of variables as markers of ageing was carried out from a review of the literature, taking into account their capacity of integration in general practitioners’ daily practice. This selection was completed by a mathematical approach based on an ascending process on a regression model. A control sample, assumed to be "normal ageing" on the basis of current knowledge in general medicine, was then used. This sample was first carried out from a review of the literature and then from a K-means method that classified this sample into several groups. The statistical dependence of measured variables was modeled by a Gaussian copula (taking into account only linear correlations of pairs). A standardized biological age was defined explicitly from these correlation coefficients. The tails of marginal distribution (method of excess) were estimated to enhance the discriminating power of the model. Results suggest interesting possibilities for a biological ageing calculation, and the predictive score they provide, suitable for general practitioners’ daily practice. Its validation by a morbidity and mortality survey will constitute the final phase of this work
33

Fusion techniques for iris recognition in degraded sequences / Techniques de fusion pour la reconnaissance de personne par l’iris dans des séquences dégradées

Othman, Nadia 11 March 2016 (has links)
Parmi les diverses modalités biométriques qui permettent l'identification des personnes, l'iris est considéré comme très fiable, avec un taux d'erreur remarquablement faible. Toutefois, ce niveau élevé de performances est obtenu en contrôlant la qualité des images acquises et en imposant de fortes contraintes à la personne (être statique et à proximité de la caméra). Cependant, dans de nombreuses applications de sécurité comme les contrôles d'accès, ces contraintes ne sont plus adaptées. Les images résultantes souffrent alors de diverses dégradations (manque de résolution, artefacts...) qui affectent négativement les taux de reconnaissance. Pour contourner ce problème, il est possible d’exploiter la redondance de l’information découlant de la disponibilité de plusieurs images du même œil dans la séquence enregistrée. Cette thèse se concentre sur la façon de fusionner ces informations, afin d'améliorer les performances. Dans la littérature, diverses méthodes de fusion ont été proposées. Cependant, elles s’accordent sur le fait que la qualité des images utilisées dans la fusion est un facteur crucial pour sa réussite. Plusieurs facteurs de qualité doivent être pris en considération et différentes méthodes ont été proposées pour les quantifier. Ces mesures de qualité sont généralement combinées pour obtenir une valeur unique et globale. Cependant, il n'existe pas de méthode de combinaison universelle et des connaissances a priori doivent être utilisées, ce qui rend le problème non trivial. Pour faire face à ces limites, nous proposons une nouvelle manière de mesurer et d'intégrer des mesures de qualité dans un schéma de fusion d'images, basé sur une approche de super-résolution. Cette stratégie permet de remédier à deux problèmes courants en reconnaissance par l'iris: le manque de résolution et la présence d’artefacts dans les images d'iris. La première partie de la thèse consiste en l’élaboration d’une mesure de qualité pertinente pour quantifier la qualité d’image d’iris. Elle repose sur une mesure statistique locale de la texture de l’iris grâce à un modèle de mélange de Gaussienne. L'intérêt de notre mesure est 1) sa simplicité, 2) son calcul ne nécessite pas d'identifier a priori les types de dégradations, 3) son unicité, évitant ainsi l’estimation de plusieurs facteurs de qualité et un schéma de combinaison associé et 4) sa capacité à prendre en compte la qualité intrinsèque des images mais aussi, et surtout, les défauts liés à une mauvaise segmentation de la zone d’iris. Dans la deuxième partie de la thèse, nous proposons de nouvelles approches de fusion basées sur des mesures de qualité. Tout d’abord, notre métrique est utilisée comme une mesure de qualité globale de deux façons différentes: 1) comme outil de sélection pour détecter les meilleures images de la séquence et 2) comme facteur de pondération au niveau pixel dans le schéma de super-résolution pour donner plus d'importance aux images de bonnes qualités. Puis, profitant du caractère local de notre mesure de qualité, nous proposons un schéma de fusion original basé sur une pondération locale au niveau pixel, permettant ainsi de prendre en compte le fait que les dégradations peuvent varier d’une sous partie à une autre. Ainsi, les zones de bonne qualité contribueront davantage à la reconstruction de l'image fusionnée que les zones présentant des artéfacts. Par conséquent, l'image résultante sera de meilleure qualité et pourra donc permettre d'assurer de meilleures performances en reconnaissance. L'efficacité des approches proposées est démontrée sur plusieurs bases de données couramment utilisées: MBGC, Casia-Iris-Thousand et QFIRE à trois distances différentes. Nous étudions séparément l'amélioration apportée par la super-résolution, la qualité globale, puis locale dans le processus de fusion. Les résultats montrent une amélioration importante apportée par l'utilisation de la qualité globale, amélioration qui est encore augmentée en utilisant la qualité locale / Among the large number of biometric modalities, iris is considered as a very reliable biometrics with a remarkably low error rate. The excellent performance of iris recognition systems are obtained by controlling the quality of the captured images and by imposing certain constraints on users, such as standing at a close fixed distance from the camera. However, in many real-world applications such as control access and airport boarding these constraints are no longer suitable. In such non ideal conditions, the resulting iris images suffer from diverse degradations which have a negative impact on the recognition rate. One way to try to circumvent this bad situation is to use some redundancy arising from the availability of several images of the same eye in the recorded sequence. Therefore, this thesis focuses on how to fuse the information available in the sequence in order to improve the performance. In the literature, diverse schemes of fusion have been proposed. However, they agree on the fact that the quality of the used images in the fusion process is an important factor for its success in increasing the recognition rate. Therefore, researchers concentrated their efforts in the estimation of image quality to weight each image in the fusion process according to its quality. There are various iris quality factors to be considered and diverse methods have been proposed for quantifying these criteria. These quality measures are generally combined to one unique value: a global quality. However, there is no universal combination scheme to do so and some a priori knowledge has to be inserted, which is not a trivial task. To deal with these drawbacks, in this thesis we propose of a novel way of measuring and integrating quality measures in a super-resolution approach, aiming at improving the performance. This strategy can handle two types of issues for iris recognition: the lack of resolution and the presence of various artifacts in the captured iris images. The first part of the doctoral work consists in elaborating a relevant quality metric able to quantify locally the quality of the iris images. Our measure relies on a Gaussian Mixture Model estimation of clean iris texture distribution. The interest of our quality measure is 1) its simplicity, 2) its computation does not require identifying in advance the type of degradations that can occur in the iris image, 3) its uniqueness, avoiding thus the computation of several quality metrics and associated combination rule and 4) its ability to measure the intrinsic quality and to specially detect segmentation errors. In the second part of the thesis, we propose two novel quality-based fusion schemes. Firstly, we suggest using our quality metric as a global measure in the fusion process in two ways: as a selection tool for detecting the best images and as a weighting factor at the pixel-level in the super-resolution scheme. In the last case, the contribution of each image of the sequence in final fused image will only depend on its overall quality. Secondly, taking advantage of the localness of our quality measure, we propose an original fusion scheme based on a local weighting at the pixel-level, allowing us to take into account the fact that degradations can be different in diverse parts of the iris image. This means that regions free from occlusions will contribute more in the image reconstruction than regions with artefacts. Thus, the quality of the fused image will be optimized in order to improve the performance. The effectiveness of the proposed approaches is shown on several databases commonly used: MBGC, Casia-Iris-Thousand and QFIRE at three different distances: 5, 7 and 11 feet. We separately investigate the improvement brought by the super-resolution, the global quality and the local quality in the fusion process. In particular, the results show the important improvement brought by the use of the global quality, improvement that is even increased using the local quality
34

Modélisation et caractérisation de la croissance des axones à partir de données in vivo / Modelling and characterizing axon growth from in vivo data

Razetti, Agustina 13 April 2018 (has links)
La construction du cerveau et de ses connexions pendant le développement reste une question ouverte dans la communauté scientifique. Des efforts fructueux ont été faits pour élucider les mécanismes de la croissance axonale, tels que la guidance axonale et les molécules de guidage. Cependant, des preuves récentes suggèrent que d'autres acteurs seraient impliqués dans la croissance des neurones in vivo. Notamment, les axones se développent dans des environnements mécaniquement contraints. Ainsi, pour bien comprendre ce processus dynamique, il faut prendre en compte les mécanismes collectifs et les interactions mécaniques au sein des populations axonales. Néanmoins, les techniques pour mesurer directement cela à partir de cerveaux vivants sont aujourd'hui insuffisantes ou lourdes à mettre en œuvre. Cette thèse résulte d'une collaboration multidisciplinaire, pour faire la lumière sur le développement axonal in vivo et les morphologies complexes des axones adultes. Notre travail a été inspiré et validé à partir d'images d'axones y individuels chez la drosophile, de type sauvage et modifiés génétiquement, que nous avons segmentés et normalisés. Nous avons d'abord proposé un cadre mathématique pour l'étude morphologique et la classification des groupes axonaux. A partir de cette analyse, nous avons émis l'hypothèse que la croissance axonale dérive d'un processus stochastique et que la variabilité et la complexité des arbres axonaux résultent de sa nature intrinsèque, ainsi que des stratégies d'élongation développées pour surmonter les contraintes mécaniques du cerveau en développement. Nous avons conçu un modèle mathématique de la croissance d'un axone isolé fondé sur des chaînes de Markov gaussiennes avec deux paramètres, représentant la rigidité axonale et l'attraction du champ cible. Nous avons estimé les paramètres de ce modèle à partir de données réelles et simulé la croissance des axones à l'échelle de populations et avec des contraintes spatiales pour tester notre hypothèse. Nous avons abordé des thèmes de mathématiques appliquées ainsi que de la biologie, et dévoilé des effets inexplorés de la croissance collective sur le développement axonal in vivo. / How the brain wires up during development remains an open question in the scientific community across disciplines. Fruitful efforts have been made to elucidate the mechanisms of axonal growth, such as pathfinding and guiding molecules. However, recent evidence suggests other actors to be involved in neuron growth in vivo. Notably, axons develop in populations and embedded in mechanically constrained environments. Thus, to fully understand this dynamic process, one must take into account collective mechanisms and mechanical interactions within the axonal populations. However, techniques to directly measure this from living brains are today lacking or heavy to implement. This thesis emerges from a multidisciplinary collaboration, to shed light on axonal development in vivo and how adult complex axonal morphologies are attained. Our work is inspired and validated from images of single wild type and mutated Drosophila y axons, which we have segmented and normalized. We first proposed a mathematical framework for the morphological study and classification of axonal groups. From this analysis we hypothesized that axon growth derives from a stochastic process, and that the variability and complexity of axonal trees result from its intrinsic nature, as well as from elongation strategies developed to overcome the mechanical constraints of the developing brain. We designed a mathematical model of single axon growth based on Gaussian Markov Chains with two parameters, accounting for axon rigidity and attraction to the target field. We estimated the model parameters from data, and simulated the growing axons embedded in spatially constraint populations to test our hypothesis. We dealt with themes from applied mathematics as well as from biology, and unveiled unexplored effects of collective growth on axonal development in vivo.
35

Analyse harmonique sur les graphes et les groupes de Lie : fonctionnelles quadratiques, transformées de Riesz et espaces de Besov / Harmonic analysis on graphs and Lie groups : quadratic functionals, Riesz transforms and Besov spaces

Feneuil, Joseph 10 July 2015 (has links)
Ce mémoire est consacré à des résultats d'analyse harmonique réelle dans des cadres géométriques discrets (graphes) ou continus (groupes de Lie).Soit $\Gamma$ un graphe (ensemble de sommets et d'arêtes) muni d'un laplacien discret $\Delta=I-P$, où $P$ est un opérateur de Markov.Sous des hypothèses géométriques convenables sur $\Gamma$, nous montrons la continuité $L^p$ de fonctionnelles de Littlewood-Paley fractionnaires. Nous introduisons des espaces de Hardy $H^1$ de fonctions et de $1$-formes différentielles sur $\Gamma$, dont nous donnons plusieurs caractérisations, en supposant seulement la propriété de doublement pour le volume des boules de $\Gamma$. Nous en déduisons la continuité de la transformée de Riesz sur $H^1$. En supposant de plus des estimations supérieures ponctuelles (gaussiennes ou sous-gaussiennes) sur les itérées du noyau de l'opérateur $P$, nous obtenons aussi la continuité de la transformée de Riesz sur $L^p$ pour $1<p<2$.Nous considérons également l'espace de Besov $B^{p,q}_\alpha(G)$ sur un groupe de Lie unimodulaire $G$ muni d'un sous-laplacien $\Delta$. En utilisant des estimations du noyau de la chaleur associé à $\Delta$, nous donnons plusieurs caractérisations des espaces de Besov, et montrons une propriété d'algèbre pour $B^{p,q}_\alpha(G) \cap L^\infty(G)$, pour $\alpha>0$, $1\leq p\leq+\infty$ et $1\leq q\leq +\infty$. Les résultats sont valables en croissance polynomiale ou exponentielle du volume des boules. / This thesis is devoted to results in real harmonic analysis in discrete (graphs) or continuous (Lie groups) geometric contexts.Let $\Gamma$ be a graph (a set of vertices and edges) equipped with a discrete laplacian $\Delta=I-P$, where $P$ is a Markov operator.Under suitable geometric assumptions on $\Gamma$, we show the $L^p$ boundedness of fractional Littlewood-Paley functionals. We introduce $H^1$ Hardy spaces of functions and of $1$-differential forms on $\Gamma$, giving several characterizations of these spaces, only assuming the doubling property for the volumes of balls in $\Gamma$. As a consequence, we derive the $H^1$ boundedness of the Riesz transform. Assuming furthermore pointwise upper bounds for the kernel (Gaussian of subgaussian upper bounds) on the iterates of the kernel of $P$, we also establish the $L^p$ boundedness of the Riesz transform for $1<p<2$.We also consider the Besov space $B^{p,q}_\alpha(G)$ on a unimodular Lie group $G$ equipped with a sublaplacian $\Delta$.Using estimates of the heat kernel associated with $\Delta$, we give several characterizations of Besov spaces, and show an algebra property for $B^{p,q}_\alpha(G) \cap L^\infty(G)$ for $\alpha>0$, $1\leq p\leq+\infty$ and $1\leq q\leq +\infty$.These results hold for polynomial as well as for exponential volume growth of balls.
36

Fluctuations de densité dans des gaz de bosons ultafroids quasi-unidimensionnels / Density fluctuations in quasi-one dimensional ultracold bosonic gases

Armijo, Julien 02 May 2011 (has links)
Cette thèse présente la conception et l'implémentation d'une nouvelle génération de puces à atomes, ouvrant de nouvelles perspectives expérimentales dans des micropièges magnétiques très anisotropes. Les propriétés thermiques des puces en nitrure d'aluminium sont étudiées en détail. Le dispositif a été optimisé pour piéger de plus grands nombres d'atomes et améliorer la qualité de l'imagerie, notamment en fabriquant un miroir de planéité sub-λ/10 à la surface de la puce.Nous étudions des gaz quasi-1D grâce à des images in situ de profils fluctuants et des méthodes précises de calibration et d'analyse statistique. Nous mesurons des fluctuations non-gaussiennes, ce qui permet de tester sensiblement la thermodynamique du gaz et donne une mesure de corrélations à trois corps. Nous étudions précisément la transition de quasicondensation et mesurons pour la première fois sa loi d'échelle. En régime 3D, c'est une condensation transverse qui déclenche la quasicondensation longitudinale, tandis qu'en régime 1D, la formation d'un quasicondensat est gouvernée par les interactions répulsives et non par la dégénérescence quantique.Obtenant des températures record pour des gaz 1D, nous observons des fluctuations subpoissoniennes lorsque les corrélations atomiques sont déterminées, au moins localement, par les fluctuations quantiques qui dominent les fluctuations thermiques. Nous discutons également la thermalisation étonnamment rapide mesurée en régime 1D profond qui suggère que des collisions effectives à 3 corps brisent l'intégrabilité du système. / This thesis presents the design and implementation of a new generation of atom chips, that open novel experimental possibilities with very anisotropic magnetic microtraps. The thermal properties of aluminum nitride atom chips are studied in detail. We have optimized the set-up in order to trap more atoms and image the clouds as precisely as possible. In particular we have fabricated a miror of sub-λ/10 planeity on top of the chip surface.We study quasi-1D gases using in situ pictures of the fluctuating density pro_les and precise methods for their calibration and statistical analysis. We measure non-gaussian fluctuations, which provides a sensitive test of the thermodynamics of the system and gives a measure of three-body correlations. We study precisely the quasicondensation transition, measuring its scaling for the first time. In the 3D regime, a transverse condensation triggers the longitudinal quasicondensation. In the 1D regime, on the contrary, the appearance of a quasicondensate is governed by repulsive interactions only, and not by quantum degeneracy.Reaching record temperatures for 1D gases, we observe subpoissonian fluctuations which indicate that atomic correlations are determined at least locally by quantum rather than thermal fluctuations. We also discuss our observation of surprizingly e_fficient thermalization deep in the 1D regime, suggesting that e_ffective 3-body collisions break the integrability of the system.
37

Reconstitution de la parole par imagerie ultrasonore et vidéo de l'appareil vocal : vers une communication parlée silencieuse

Hueber, Thomas 09 December 2009 (has links) (PDF)
L'objectif poursuivi dans ce travail de thèse est la réalisation d'un dispositif capable d'interpréter une parole normalement articulée mais non vocalisée, permettant ainsi la " communication parlée silencieuse ". Destiné, à terme, à être léger et portatif, ce dispositif pourrait être utilisé d'une part, par une personne ayant subi une laryngectomie (ablation du larynx suite à un cancer), et d'autre part, pour toute communication, soit dans un milieu où le silence est requis (transport en commun, opération militaire, etc.), soit dans un environnement extrêmement bruité. Le dispositif proposé combine deux systèmes d'imagerie pour capturer l'activité de l'appareil vocal pendant " l'articulation silencieuse " : l'imagerie ultrasonore, qui donne accès aux articulateurs internes de la cavité buccale (comme la langue), et la vidéo, utilisée pour capturer le mouvement des lèvres. Le problème traité dans cette étude est celui de la synthèse d'un signal de parole " acoustique ", uniquement à partir d'un flux de données " visuelles " (images ultrasonores et vidéo). Cette conversion qualifiée ici de " visuo-acoustique ", s'effectue par apprentissage artificiel et fait intervenir quatre étapes principales : l'acquisition des données audiovisuelles, leur caractérisation, l'inférence d'une cible acoustique à partir de l'observation du geste articulatoire et la synthèse du signal. Dans le cadre de la réalisation du dispositif expérimental d'acquisition des données, un système de positionnement de la sonde ultrasonore par rapport à la tête du locuteur, basé sur l'utilisation combinée de deux capteurs inertiaux a tout d'abord été conçu. Un système permettant l'enregistrement simultané des flux visuels et du flux acoustique, basé sur la synchronisation des capteurs ultrasonore, vidéo et audio par voie logicielle, a ensuite été développé. Deux bases de données associant observations articulatoires et réalisations acoustiques, contenant chacune environ une heure de parole (continue), en langue anglaise, ont été construites. Pour la caractérisation des images ultrasonores et vidéo, deux approches ont été mises en œuvre. La première est basée sur l'utilisation de la transformée en cosinus discrète, la seconde, sur l'analyse en composantes principales (approche EigenTongues/EigenLips). La première approche proposée pour l'inférence des paramètres acoustiques, qualifiée de " directe ", est basée sur la construction d'une " fonction de conversion " à l'aide d'un réseau de neurones et d'un modèle par mélange de gaussiennes. Dans une seconde approche, qualifiée cette fois " d'indirecte ", une étape de décodage des flux visuels au niveau phonétique est introduite en amont du processus de synthèse. Cette étape intermédiaire permet notamment l'introduction de connaissances linguistiques a priori sur la séquence observée. Elle s'appuie sur la modélisation des gestes articulatoires par des modèles de Markov cachés (MMC). Deux méthodes sont enfin proposées pour la synthèse du signal à partir de la suite phonétique décodée. La première est basée sur une approche par concaténation d'unités ; la seconde utilise la technique dite de " synthèse par MMC ". Pour permettre notamment la réalisation d'adaptations prosodiques, ces deux méthodes de synthèse s'appuient sur une description paramétrique du signal de parole du type "Harmonique plus Bruit" (HNM).
38

Analyse du potentiel migratoire de cellules cancéreuses par prétraitement, segmentation et classification d'images

Syed, Tahir Qasim 13 December 2011 (has links) (PDF)
Ce travail de thèse s'insère dans un projet de recherche plus global dont l'objectif est d'analyser le potentiel migratoire de cellules cancéreuses. Dans le cadre de ce doctorat, on s'intéresse à l'utilisation du traitement des images pour dénombrer et classifier les cellules présentes dans une image acquise via un microscope. Les partenaires biologistes de ce projet étudient l'influence de l'environnement sur le comportement migratoire de cellules cancéreuses à partir de cultures cellulaires pratiqu ées sur différentes lignées de cellules cancéreuses. Le traitement d'images biologiques a déjà donné lieu à un nombre important de publications mais, dans le cas abordé ici et dans la mesure où le protocole d'acquisition des images acquises n'était pas figé, le défi a été de proposer une chaîne de traitements adaptatifs ne contraignant pas les biologistes dans leurs travaux de recherche. Quatre étapes sont détaillées dans ce mémoire. La première porte sur la définition des prétraitements permettant d'homogénéiser les conditions d'acquisition. Le choix d'exploiter l'image des écarts-type plutôt que la luminosité est un des résultats issus de cette première partie. La deuxième étape consiste à compter le nombre de cellules présentent dans l'image. Un filtre original, nommé filtre "halo", permettant de renforcer le centre des cellules afin d'en faciliter leur comptage, a été proposé. Une étape de validation statistique de ces centres permet de fiabiliser le résultat obtenu. L'étape de segmentation des images, sans conteste la plus difficile, constitue la troisième partie de ce travail. Il s'agit ici d'extraire des "vignettes", contenant une seule cellule. Le choix de l'algorithme de segmentation a été celui de la "Ligne de Partage des Eaux", mais il a fallu adapter cet algorithme au contexte des images faisant l'objet de cette étude. La proposition d'utiliser une carte de probabilités comme données d'entrée a permis d'obtenir une segmentation au plus près des bords des cellules. Par contre cette méthode entraine une sur-segmentation qu'il faut réduire afin de tendre vers l'objectif : "une région = une cellule". Pour cela un algorithme utilisant un concept de hiérarchie cumulative basée morphologie mathématique a été développé. Il permet d'agréger des régions voisines en travaillant sur une représentation arborescente de ces régions et de leur niveau associé. La comparaison des résultats iii obtenus par cette méthode à ceux proposés par d'autres approches permettant de limiter la sur-segmentation a permis de prouver l'efficacité de l'approche proposée. L'étape ultime de ce travail consiste dans la classification des cellules. Trois classes ont été définies : cellules allongées (migration mésenchymateuse), cellules rondes "blebbantes" (migration amiboïde) et cellules rondes "lisses" (stade intermédiaire du mode de migration). Sur chaque vignette obtenue à la fin de l'étape de segmentation, des caractéristiques de luminosité, morphologiques et texturales ont été calculées. Une première analyse de ces caractéristiques a permis d'élaborer une stratégie de classification, à savoir séparer dans un premier temps les cellules rondes des cellules allongées, puis séparer les cellules rondes "lisses" des "blebbantes". Pour cela on divise les paramètres en deux jeux qui vont être utilisés successivement dans ces deux étapes de classification. Plusieurs algorithmes de classification ont été testés pour retenir, au final, l'utilisation de deux réseaux de neurones permettant d'obtenir plus de 80% de bonne classification entre cellules longues et cellules rondes, et près de 90% de bonne classification entre cellules rondes "lisses" et "blebbantes".
39

Reconnaissance automatique du locuteur par des GMM à grande marge

Jourani, Reda 06 September 2012 (has links) (PDF)
Depuis plusieurs dizaines d'années, la reconnaissance automatique du locuteur (RAL) fait l'objet de travaux de recherche entrepris par de nombreuses équipes dans le monde. La majorité des systèmes actuels sont basés sur l'utilisation des Modèles de Mélange de lois Gaussiennes (GMM) et/ou des modèles discriminants SVM, i.e., les machines à vecteurs de support. Nos travaux ont pour objectif général la proposition d'utiliser de nouveaux modèles GMM à grande marge pour la RAL qui soient une alternative aux modèles GMM génératifs classiques et à l'approche discriminante état de l'art GMM-SVM. Nous appelons ces modèles LM-dGMM pour Large Margin diagonal GMM. Nos modèles reposent sur une récente technique discriminante pour la séparation multi-classes, qui a été appliquée en reconnaissance de la parole. Exploitant les propriétés des systèmes GMM utilisés en RAL, nous présentons dans cette thèse des variantes d'algorithmes d'apprentissage discriminant des GMM minimisant une fonction de perte à grande marge. Des tests effectués sur les tâches de reconnaissance du locuteur de la campagne d'évaluation NIST-SRE 2006 démontrent l'intérêt de ces modèles en reconnaissance.
40

Modélisation et utilisation des erreurs de pseudodistances GNSS en environnement transport pour l’amélioration des performances de localisation / Modeling and use of GNSS pseudorange errors in transport environment to enhance the localization performances

Viandier, Nicolas 07 June 2011 (has links)
Les GNSS sont désormais largement présents dans le domaine des transports. Actuellement, la communauté scientifique désire développer des applications nécessitant une grande précision, disponibilité et intégrité.Ces systèmes offrent un service de position continu. Les performances sont définies par les paramètres du système mais également par l’environnement de propagation dans lequel se propagent les signaux. Les caractéristiques de propagation dans l’atmosphère sont connues. En revanche, il est plus difficile de prévoir l’impact de l’environnement proche de l’antenne, composé d’obstacles urbains. L’axe poursuivit par le LEOST et le LAGIS consiste à appréhender l’environnement et à utiliser cette information en complément de l’information GNSS. Cette approche vise à réduire le nombre de capteurs et ainsi la complexité du système et son coût. Les travaux de recherche menés dans le cadre de cette thèse permettent principalement de proposer des modélisations d'erreur de pseudodistances et des modélisations de l'état de réception encore plus réalistes. Après une étape de caractérisation de l’erreur, plusieurs modèles d’erreur de pseudodistance sont proposés. Ces modèles sont le mélange fini de gaussiennes et le mélange de processus de Dirichlet. Les paramètres du modèle sont estimés conjointement au vecteur d’état contenant la position grâce à une solution de filtrage adaptée comme le filtre particulaire Rao-Blackwellisé. L’évolution du modèle de bruit permet de s'adapter à l’environnement et donc de fournir une localisation plus précise. Les différentes étapes des travaux réalisés dans cette thèse ont été testées et validées sur données de simulation et réelles. / Today, the GNSS are largely present in the transport field. Currently, the scientific community aims to develop transport applications with a high accuracy, availability and integrity. These systems offer a continuous positioning service. Performances are defined by the system parameters but also by signal environment propagation. The atmosphere propagation characteristics are well known. However, it is more difficult to anticipate and analyze the impact of the propagation environment close to the antenna which can be composed, for instance, of urban obstacles or vegetation.Since several years, the LEOST and the LAGIS research axes are driven by the understanding of the propagation environment and its use as supplementary information to help the GNSS receiver to be more pertinent. This approach aims to reduce the number of sensors in the localisation system, and consequently reduces its complexity and cost. The work performed in this thesis is devoted to provide more realistic pseudorange error models and reception channel model. After, a step of observation error characterization, several pseudorange error models have been proposed. These models are the finite gaussian mixture model and the Dirichlet process mixture. The model parameters are then estimated jointly with the state vector containing position by using adapted filtering solution like the Rao-Blackwellized particle filter. The noise model evolution allows adapting to an urban environment and consequently providing a position more accurate.Each step of this work has been tested and evaluated on simulation data and real data.

Page generated in 0.0467 seconds