• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 610
  • 255
  • 163
  • 2
  • Tagged with
  • 1033
  • 1033
  • 1033
  • 1012
  • 959
  • 952
  • 606
  • 590
  • 492
  • 399
  • 293
  • 288
  • 284
  • 144
  • 106
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Schémas de lifting vectoriels adaptatifs et applications à la compression d'images stéréoscopiques

Kaaniche, Mounir 02 December 2010 (has links) (PDF)
Dans une première partie, je me suis intéressé au développement et à l'analyse de nouveaux schémas de codage conjoint d'images stéréoscopiques reposant sur le concept du lifting vectoriel. En ce sens, contrairement aux méthodes classiques, les méthodes proposées ne génèrent aucune image résiduelle mais deux représentations multirésolution compactes de l'image gauche et l'image droite. De plus, elles sont adaptées au contenu intra et inter de la paire stéréo. Une analyse théorique en termes de performances statistiques a été menée pour mettre en évidence l'intérêt des structures proposées. Comme les méthodes de codage conjoint de ces vues reposent principalement sur l'étape de l'estimation et la compensation de la disparité afin d'exploiter les redondances inter-images, j'ai proposé par la suite d'intégrer une méthode récente d'estimation de disparité dans des applications de codage d'images stéréoscopiques. Cette technique d'estimation, qui se base sur une formulation ensembliste du problème de mise en correspondance, utilise différentes contraintes convexes caractérisant toute propriété a priori sur le champ de disparité à estimer. Ainsi, les contraintes utilisées permettent de produire un champ lisse tout en respectant les discontinuités (objets) présentes dans la scène. D'autre part, je me suis intéressé aux schémas 2D non séparables, afin de mieux exploiter le caractère bi-dimensionnel des images, tout en me focalisant sur les aspects d'optimisation des différents filtres mis en jeu. Dans ce contexte, j'ai d'eveloppé également une analyse théorique pour le cas d'un signal autorégressif d'ordre 2 afin de donner des formes explicites des coefficients de tous les filtres. Les expressions théoriques obtenues sont intéressantes en pratique puisqu'elles permettent de simplifier l'implémentation de la méthode d'optimisation proposée.
132

A probabilistic framework for point-based shape modeling in medical image analysis

Hufnagel, Heike 15 July 2010 (has links) (PDF)
This thesis enters on the development of a point-based statistical shape model relying on correspondence probabilities in a sound mathematical framework. Further focus lies on the integration of the model into a segmentation method where a novel approach is taken by combining an explicitly represented shape prior with an implicitly represented segmentation contour. In medical image analysis, the notion of shape is recognized as an important feature to distinguish and analyse anatomical structures. The modeling of shape realized by the concept of statistical shape models constitutes a powerful tool to facilitate the solutions to analysis, segmentation and reconstruction problems. A statistical shape model tries to optimally represent a set of segmented shape observations of any given organ via a mean shape and a variability model. A fundamental challenge in doing statistics on shapes lies in the determination of correspondences between the shape observations. The prevailing assumption of one-to-one point correspondences seems arguable due to uncertainties of the shape surface representations as well as the general di fficulty of pinpointing exact correspondences. In this thesis, the following solution to the point correspondence problem is derived: For all point pairs, a correspondence probability is computed which amounts to representing the shape surfaces by Mixtures of Gaussians. This approach allows to formulate the model computation in a generative framework where the shape observations are interpreted as randomly generated by the model. Based on that, the computation of the model is then treated as an optimization problem. An algorithm is proposed to optimize for model parameters and observation parameters through a single maximum a posteriori criterion which leads to a mathematically sound and unified framework. The method is evaluated and validated in a series of experiments on synthetic and real data. To do so, adequate performance measures and metrics are defined based on which the quality of the new model is compared to the qualities of a classical point-based model and of an established surface-based model that both rely on one-to-one correspondences. A segmentation algorithm is developed which employs the a priori shape knowledge inherent in the statistical shape model to constrain the segmentation contour to probable shapes. An implicit segmentation sheme is chosen instead of an explicit one, which is beneficial regarding topological exibility and implementational issues. The mathematically sound probabilistic shape model enables the challenging integration of an explicit shape prior into an implicit segmentation scheme in an elegant formulation. A maximum a posteriori estimation is developed of a level set function whose zero level set best separates the organ from the background under a shape constraint introduced by the model. This leads to an energy functional which is minimized with respect to the level set using an Euler-Lagrangian equation. Since both the model and the implicitly defined contour are well suited to represent multi-object shapes, an extension of the algorithm to multi-object segmentation is developed which is integrated into the same probabilistic framework. The novel method is evaluated on kidney and hip joint segmentation.
133

Contributions to Statistical Signal Processing with Applications in Biomedical Engineering

Nguyen, Quang Thang 23 November 2012 (has links) (PDF)
Cette étude présente des contributions en traitement statistique du signal avec des applications biomédicales. La thèse est divisée en deux parties. La première partie traite de la détection des hotspots à l'interface des protéines. Les hotspots sont les résidus dont les contributions énergétiques sont les plus importantes dans l'interaction entre protéines. Les forêts aléatoires (Random Forests) sont utilisées pour la classification. Une nouvelle famille de descripteurs de hotspot est également introduite. Ces descripteurs sont basés seulement sur la séquence primaire unidimensionnelle d'acides aminés constituant la protéine. Aucune information sur la structure tridimensionnelle de la protéine ou le complexe n'est nécessaire. Ces descripteurs, capitalisant les caractéristiques fréquentielle des protéines, nous permettent de savoir la façon dont la séquence primaire d'une protéine peut déterminer sa structure tridimensionnelle et sa fonction. Dans la deuxième partie, le RDT (Random Distortion Testing), un test robuste d'hypothèse, est considéré. Son application en détection du signal a montré que le RDT peut résister aux imperfections du modèle d'observation. Nous avons également proposé une extension séquentielle du RDT. Cette extension s'appelle le RDT Séquentiel. Trois problèmes classiques de détection d¿écart/distorsion du signal sont reformulés et résolus dans le cadre du RDT. En utilisant le RDT et le RDT Séquentiel, nous étudions la détection d'AutoPEEP (auto-Positive End Expiratory Pressure), une anomalie fréquente en ventilation mécanique. C'est la première étude de ce type dans la littérature. L'extension à la détection d'autres types d'asynchronie est également étudiée et discutée. Ces détecteurs d'AutoPEEP et d'asynchronies sont les éléments principaux de la plateforme de suivi de manière automatique et continue l'interface patient-ventilateur en ventilation mécanique.
134

Extraction d'information dans des documents manuscrits non contraints : application au traitement automatique des courriers entrants manuscrits

Thomas, S. 12 July 2012 (has links) (PDF)
Malgré l'entrée récente de notre monde dans l'ère du tout numérique, de nombreux documents manuscrits continuent à s'échanger, obligeant nos sociétés et administrations à faire face au traitement de ces masses de documents. Le traitement automatique de ces documents nécessite d'accéder à un échantillon inconnu mais pertinent de leur contenu et implique de prendre en compte trois points essentiels : la segmentation du document en entités comparable à l'information recherchée, la reconnaissance de ces entités recherchées et le rejet des entités non pertinentes. Nous nous démarquons des approches classiques de lecture complète de documents et de détection de mots clés en parallélisant ces trois traitements en une approche d'extraction d'information. Une première contribution réside dans la conception d'un modèle de ligne générique pour l'extraction d'information et l'implémentation d'un système complet à base de modèles de Markov cachés (MMC) construit autour de ce modèle. Le module de reconnaissance cherche, en une seule passe, à discriminer l'information pertinente, caractérisée par un ensemble de requêtes alphabétiques, numériques ou alphanumériques, de l'information non pertinente, caractérisée par un modèle de remplissage. Une seconde contribution réside dans l'amélioration de la discrimination locale des observations des lignes par l'utilisation d'un réseau de neurones profond. Ce dernier permet également d'inférer une représentation de haut niveau des observations et donc d'automatiser le processus d'extraction des caractéristiques. Il en résulte un système complet, générique et industrialisable, répondant à des besoins émergents dans le domaine de la lecture automatique de documents manuscrits : l'extraction d'informations complexes dans des documents non-contraints.
135

Apport de techniques de traitement du signal super et haute résolution à l'amélioration des performances du radar-chaussée

Le Bastard, Cédric 20 November 2007 (has links) (PDF)
Dans le domaine du génie civil, l'auscultation de couches minces de chaussée (de l'ordre de 2 cm d'épaisseur) est mal résolue par les techniques radar de Contrôle Non Destructif. Dans ce contexte, cette thèse a pour objectif d'améliorer, d'un facteur 3 à 6, la résolution temporelle des radars actuels par des techniques de traitement du signal dites super et haute résolution. Dans un premier temps, les méthodes super et haute résolution les plus connues de la littérature (LSMYW, MUSIC, ESPRIT, Min-Norm) sont évaluées à partir de signaux simulés. Les résultats montrent les variations de l'erreur quadratique moyenne sur l'épaisseur estimée de chaussée, en fonction du rapport signal sur bruit et du retard différentiel entre échos. Un critère de précision sur la mesure d'épaisseur permet de déduire la limite de résolution temporelle de chacun des algorithmes. Pour des échos fortement ou totalement corrélés, on propose une optimisation du paramétrage de la technique de moyennage en sous-bande de fréquences. Quel que soit le niveau de corrélation, la limite de résolution temporelle obtenue permet de montrer la faisabilité de l'application. Dans un second temps, le document se focalise sur l'amélioration de techniques haute résolution de complexité calculatoire plus réduite. Tout d'abord, une version généralisée de l'algorithme ESPRIT (G-ESPRIT) est proposée, pour tenir compte de la forme de l'impulsion radar et des caractéristiques d'un bruit quelconque. Ensuite, deux méthodes linéaires à sous-espaces (OPM et SWEDE) sont introduites. Une version polynomiale d'OPM (root-OPM) permettant d'accélérer la recherche des retards de propagation est proposée. La méthode SWEDE est transposée à l'estimation de retards ; une nouvelle procédure de blanchiment permettant d'améliorer ses performances est également suggérée (FBD-SWEDE). Puis, de nouveaux algorithmes sont développés, combinant les avantages calculatoires des algorithmes SWEDE et ESPRIT (ESPRITWED, AV-ESPRITWED, G-ESPRITWED). Enfin, les méthodes de traitement présentées dans ce document sont expérimentées sur des signaux d'un radar impulsionnel et à sauts de fréquence, mesurés sur un 'milieu-modèle' monocouche et bicouche. La mise en oeuvre des algorithmes est détaillée. Les résultats permettent d'une part de valider les résultats théoriques et de montrer la faisabilité de la mesure de couches minces de chaussée à l'aide d'un radar de 2 GHz de largeur de bande.
136

Contrôle de santé des matériaux et structures par analyse de la coda ultrasonore

ZHANG, Yuxiang 20 September 2013 (has links) (PDF)
La coda ultrasonore est constituée d'ondes ultrasonores ayant subi des diffusions multiples lors de leur propagation dans un milieu complexe (milieu hétérogène/milieu homogène ayant une géométrie complexe). La coda ultrasonore présente une haute sensibilité aux perturbations du milieu de propagation. L'analyse de la coda ultrasonore par la méthode dite d’interférométrie de la coda (CWI pour Coda Wave Interferometry) permet d'évaluer la variation de la vitesse de propagation dans un milieu à partir des signaux de coda ultrasonores avec une grande précision (0,001 % en relatif). Une telle variation de la vitesse de propagation peut être utilisée pour l'évaluation et le contrôle non destructif (ECND) d’un matériau ou d'une structure. Un essai expérimental est présenté au début de la thèse comme exemple d’utilisation de la CWI pour l’ECND du béton. Face aux problèmes expérimentaux inhérents au degré de précision de cet essai, nous présentons un protocole expérimental conçu pour améliorer la fiabilité des résultats CWI. Ce protocole a été validé expérimentalement dans une étude d’acousto-élasticité du béton. Les résultats vérifient que ce protocole peut 1) réduire les biais provenant non seulement des fluctuations de température ambiante, mais aussi des procédures expérimentales et 2) améliorer la répétabilité de l’essai. Avec ce protocole de contrôle des biais, une étude du comportement de béton sous un chargement uni-axial en traction directe a été effectuée en utilisant la CWI. Les comportements élastique (l’effet acoustoélastique) et anélastique (l’effet Kaiser) du béton sont observés via les résultats CWI. Un coefficient acoustoélastique effectif (Β) qui décrit le niveau de la non-linéarité élastique du béton a été déterminé et utilisé pour la détection d’un endommagement léger du béton. La CWI est ensuite utilisée pour la détection globale de défauts (fissures) dans un milieu initialement linéaire (verre). Un chargement acoustique (l’onde de pompe) est utilisé pour mettre en jeu les non-linéarités des défauts. L’onde de coda qui se propage simultanément dans le milieu sert comme onde de sonde est modulée non linéairement par l’onde de pompe. L’apparition de la modulation non linéaire est due à la présence des défauts et peut être détectée par la variation des résultats CWI en fonction de l’amplitude de l’onde de pompe. En utilisant une onde de pompe large bande, nous montrons expérimentalement que cette méthode permet la détection des défauts et d’évaluation du niveau d’endommagement (via le niveau effectif de la non-linéarité) d’une manière globale sans zone aveugle.
137

Multimodal Image Registration applied to Magnetic Resonance and Ultrasound Prostatic Images

Mitra, Jhimli 26 September 2012 (has links) (PDF)
This thesis investigates the employment of different deformable registration techniques to register pre-operative magnetic resonance and inter-operative ultrasound images during prostate biopsy. Accurate registration ensures appropriate biopsy sampling of malignant prostate tissues and reduces the rate of re-biopsies. Therefore, we provide comparisons and experimental results for some landmark- and intensity-based registration methods: thin-plate splines, free-form deformation with B-splines. The primary contribution of this thesis is a new spline-based diffeomorphic registration framework for multimodal images. In this framework we ensure diffeomorphism of the thin-plate spline-based transformation by incorporating a set of non-linear polynomial functions. In order to ensure clinically meaningful deformations we also introduce the approximating thin-plate splines so that the solution is obtained by a joint-minimization of the surface similarities of the segmented prostate regions and the thin-plate spline bending energy. The method to establish point correspondences for the thin-plate spline-based registration is a geometric method based on prostate shape symmetry but a further improvement is suggested by computing the Bhattacharyya metric on shape-context based representation of the segmented prostate contours. The proposed deformable framework is computationally expensive and is not well-suited for registration of inter-operative images during prostate biopsy. Therefore, we further investigate upon an off-line learning procedure to learn the deformation parameters of a thin-plate spline from a training set of pre-operative magnetic resonance and its corresponding inter-operative ultrasound images and build deformation models by applying spectral clustering on the deformation parameters. Linear estimations of these deformation models are then applied on a test set of inter-operative and pre-operative ultrasound and magnetic resonance images respectively. The problem of finding the pre-operative magnetic resonance image slice from a volume that matches the inter-operative ultrasound image has further motivated us to investigate on shape-based and image-based similarity measures and propose for slice-to-slice correspondence based on joint-maximization of the similarity measures.
138

Inversion acoustique articulatoire à partir de coefficients cepstraux

Busset, Julie 25 March 2013 (has links) (PDF)
L'inversion acoustique-articulatoire de la parole consiste à récupérer la forme du conduit vocal à partir d'un signal de parole. Ce problème est abordé à l'aide d'une méthode d'analyse par synthèse reposant sur un modèle physique de production de la parole contrôlé par un petit nombre de paramètres décrivant la forme du conduit vocal : l'ouverture de la mâchoire, la forme et la position de la langue et la position des lèvres et du larynx. Afin de s'approcher de la géométrie de notre locuteur, le modèle articulatoire est construit à l'aide de contours articulatoires issus d'images cinéradiographiques présentant une vue sagittale du conduit vocal. Ce synthétiseur articulatoire nous permet de créer une table formée de couples associant un vecteur articulatoire au vecteur acoustique correspondant. Nous n'utiliserons pas les formants (fréquences de résonance du conduit vocal) comme vecteur acoustique car leur extraction n'est pas toujours fiable provoquant des erreurs lors de l'inversion. Les coefficients cepstraux sont utilisés comme vecteur acoustique. De plus, l'effet de la source et les disparités entre le conduit vocal du locuteur et le modèle articulatoire sont pris en compte explicitement en comparant les spectres naturels à ceux produits par le synthétiseur car nous disposons des deux signaux.
139

Modèles de minimisation d'énergies discrètes pour la cartographie cystoscopique

Weibel, Thomas 09 July 2013 (has links) (PDF)
L'objectif de cette thèse est de faciliter le diagnostic du cancer de la vessie. Durant une cystoscopie, un endoscope est introduit dans la vessie pour explorer la paroi interne de l'organe qui est visualisée sur un écran. Cependant, le faible champ de vue de l'instrument complique le diagnostic et le suivi des lésions. Cette thèse présente des algorithmes pour la création de cartes bi- et tridimensionnelles à large champ de vue à partir de vidéo-séquences cystoscopiques. En utilisant les avancées récentes dans le domaine de la minimisation d'énergies discrètes, nous proposons des fonctions coût indépendantes des transformations géométriques requises pour recaler de façon robuste et précise des paires d'images avec un faible recouvrement spatial. Ces transformations sont requises pour construire des cartes lorsque des trajectoires d'images se croisent ou se superposent. Nos algorithmes détectent automatiquement de telles trajectoires et réalisent une correction globale de la position des images dans la carte. Finalement, un algorithme de minimisation d'énergie compense les faibles discontinuités de textures restantes et atténue les fortes variations d'illuminations de la scène. Ainsi, les cartes texturées sont uniquement construites avec les meilleures informations (couleurs et textures) pouvant être extraites des données redondantes des vidéo-séquences. Les algorithmes sont évalués quantitativement et qualitativement avec des fantômes réalistes et des données cliniques. Ces tests mettent en lumière la robustesse et la précision de nos algorithmes. La cohérence visuelle des cartes obtenues dépasse celles des méthodes de cartographie de la vessie de la littérature.
140

Estimation du temps de parcours d’un réseau urbain par fusion de données de boucles magnétiques et de véhicules traceurs : Une approche stochastique avec mise en oeuvre d’un filtre de Kalman sans parfum

Hage, Ré-Mi 25 September 2012 (has links) (PDF)
La notion de temps de parcours est une information simple à intégrer par les usagers des transports et a le potentiel, via des systèmes d’assistance, de réduire la congestion aussi bien de manière temporelle que spatiale. Cette thèse porte sur la problématique de l’estimation du temps de parcours en ville, où la circulation se caractérise par un débit variable et un flux significatif de/vers des voies transversales non équipées de capteurs de trafic, flux qui agit comme perturbation de l’équation de conservation des véhicules. La bibliographie présente des approches déterministes et stochastiques, utilisant, selon les situations expérimentales, soit des boucles inductives, soit des véhicules traceurs, soit les deux. Nous proposons une méthode stochastique du type filtrage de Kalman sans parfum. Son modèle dynamique est basé sur la méthode analytique classique des stocks qui considère le décalage temporel entre les cumuls de véhicules entrants et sortants dans chaque tronçon du réseau. La formulation de ce modèle n’est pas explicite, ce qui justifie l’utilisation d’un filtre sans parfum. Les observations utilisées sont à la fois les boucles magnétiques à la sortie des tronçons et les véhicules traceurs après map-matching sur le réseau. L’algorithme est applicable en temps réel, sans connaissance a priori des affectations aux carrefours, et sous conditions éventuelles de perturbation. En sortie de filtre, on dispose des variances d’estimation, ce qui mesure la confiance dans le temps de parcours estimé et permet de rejeter des mesures aberrantes. La validation a été montrée sur la base de simulations sur un réseau simple à trois intersections, avec des flux variables et des perturbations, et pour quelques pourcents de véhicules traceurs.

Page generated in 0.116 seconds