• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 365
  • 211
  • 190
  • Tagged with
  • 770
  • 770
  • 519
  • 397
  • 375
  • 349
  • 348
  • 335
  • 332
  • 314
  • 311
  • 301
  • 298
  • 93
  • 69
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Inversion Bayésienne : illustration sur des problèmes tomographiques et astrophysiques

Rodet, Thomas 20 November 2012 (has links) (PDF)
Nous nous intéressons ici aux problèmes inverses mal posés ainsi qu'à leur résolution dans un cadre bayésien. Dans un premier temps, nous décrirons la démarche que nous avons suivie lors de la résolution d'un problème inverse mal posé. Elle consiste à déterminer simultanément la paramétrisation de l'objet inconnu, le modèle " simplifié " décrivant le principe de formation des données, le choix du modèle de bruit et le choix de l'information a priori introduite. Ces différents choix sont souvent contraints par le temps de calcul nécessaire pour obtenir l'estimateur. On illustrera la démarche en résolvant des problèmes inverses variés dans le domaine de l'imagerie médicale (réduction des artéfacts métalliques) et de l'astrophysique (reconstruction 3D+T de la couronne solaire et reconstruction sur-résolue du rayonnement infra-rouge de l'univers). Dans deuxième temps, nous développerons un aspect plus méthodologique. En effet, nous avons constaté que les approches entièrement bayésiennes étaient difficilement applicables à des problèmes de grandes dimensions (plus d'un million d'inconnues) pour des raisons de coût calculatoire. Nous avons donc mis au point une nouvelle approche bayésienne variationnelle permettant de s'affranchir de ce problème. Pour obtenir notre algorithme, nous avons résolu un problème d'optimisation fonctionnelle dans l'espace des mesures à densité. Puis, nous avons appliqué notre approche sur l'inversion de problèmes linéaires de grandes tailles.
112

Apport de techniques de traitement du signal super et haute résolution à l'amélioration des performances du radar-chaussée

Le Bastard, Cédric 20 November 2007 (has links) (PDF)
Dans le domaine du génie civil, l'auscultation de couches minces de chaussée (de l'ordre de 2 cm d'épaisseur) est mal résolue par les techniques radar de Contrôle Non Destructif. Dans ce contexte, cette thèse a pour objectif d'améliorer, d'un facteur 3 à 6, la résolution temporelle des radars actuels par des techniques de traitement du signal dites super et haute résolution. Dans un premier temps, les méthodes super et haute résolution les plus connues de la littérature (LSMYW, MUSIC, ESPRIT, Min-Norm) sont évaluées à partir de signaux simulés. Les résultats montrent les variations de l'erreur quadratique moyenne sur l'épaisseur estimée de chaussée, en fonction du rapport signal sur bruit et du retard différentiel entre échos. Un critère de précision sur la mesure d'épaisseur permet de déduire la limite de résolution temporelle de chacun des algorithmes. Pour des échos fortement ou totalement corrélés, on propose une optimisation du paramétrage de la technique de moyennage en sous-bande de fréquences. Quel que soit le niveau de corrélation, la limite de résolution temporelle obtenue permet de montrer la faisabilité de l'application. Dans un second temps, le document se focalise sur l'amélioration de techniques haute résolution de complexité calculatoire plus réduite. Tout d'abord, une version généralisée de l'algorithme ESPRIT (G-ESPRIT) est proposée, pour tenir compte de la forme de l'impulsion radar et des caractéristiques d'un bruit quelconque. Ensuite, deux méthodes linéaires à sous-espaces (OPM et SWEDE) sont introduites. Une version polynomiale d'OPM (root-OPM) permettant d'accélérer la recherche des retards de propagation est proposée. La méthode SWEDE est transposée à l'estimation de retards ; une nouvelle procédure de blanchiment permettant d'améliorer ses performances est également suggérée (FBD-SWEDE). Puis, de nouveaux algorithmes sont développés, combinant les avantages calculatoires des algorithmes SWEDE et ESPRIT (ESPRITWED, AV-ESPRITWED, G-ESPRITWED). Enfin, les méthodes de traitement présentées dans ce document sont expérimentées sur des signaux d'un radar impulsionnel et à sauts de fréquence, mesurés sur un 'milieu-modèle' monocouche et bicouche. La mise en oeuvre des algorithmes est détaillée. Les résultats permettent d'une part de valider les résultats théoriques et de montrer la faisabilité de la mesure de couches minces de chaussée à l'aide d'un radar de 2 GHz de largeur de bande.
113

Contrôle de santé des matériaux et structures par analyse de la coda ultrasonore

ZHANG, Yuxiang 20 September 2013 (has links) (PDF)
La coda ultrasonore est constituée d'ondes ultrasonores ayant subi des diffusions multiples lors de leur propagation dans un milieu complexe (milieu hétérogène/milieu homogène ayant une géométrie complexe). La coda ultrasonore présente une haute sensibilité aux perturbations du milieu de propagation. L'analyse de la coda ultrasonore par la méthode dite d’interférométrie de la coda (CWI pour Coda Wave Interferometry) permet d'évaluer la variation de la vitesse de propagation dans un milieu à partir des signaux de coda ultrasonores avec une grande précision (0,001 % en relatif). Une telle variation de la vitesse de propagation peut être utilisée pour l'évaluation et le contrôle non destructif (ECND) d’un matériau ou d'une structure. Un essai expérimental est présenté au début de la thèse comme exemple d’utilisation de la CWI pour l’ECND du béton. Face aux problèmes expérimentaux inhérents au degré de précision de cet essai, nous présentons un protocole expérimental conçu pour améliorer la fiabilité des résultats CWI. Ce protocole a été validé expérimentalement dans une étude d’acousto-élasticité du béton. Les résultats vérifient que ce protocole peut 1) réduire les biais provenant non seulement des fluctuations de température ambiante, mais aussi des procédures expérimentales et 2) améliorer la répétabilité de l’essai. Avec ce protocole de contrôle des biais, une étude du comportement de béton sous un chargement uni-axial en traction directe a été effectuée en utilisant la CWI. Les comportements élastique (l’effet acoustoélastique) et anélastique (l’effet Kaiser) du béton sont observés via les résultats CWI. Un coefficient acoustoélastique effectif (Β) qui décrit le niveau de la non-linéarité élastique du béton a été déterminé et utilisé pour la détection d’un endommagement léger du béton. La CWI est ensuite utilisée pour la détection globale de défauts (fissures) dans un milieu initialement linéaire (verre). Un chargement acoustique (l’onde de pompe) est utilisé pour mettre en jeu les non-linéarités des défauts. L’onde de coda qui se propage simultanément dans le milieu sert comme onde de sonde est modulée non linéairement par l’onde de pompe. L’apparition de la modulation non linéaire est due à la présence des défauts et peut être détectée par la variation des résultats CWI en fonction de l’amplitude de l’onde de pompe. En utilisant une onde de pompe large bande, nous montrons expérimentalement que cette méthode permet la détection des défauts et d’évaluation du niveau d’endommagement (via le niveau effectif de la non-linéarité) d’une manière globale sans zone aveugle.
114

Multimodal Image Registration applied to Magnetic Resonance and Ultrasound Prostatic Images

Mitra, Jhimli 26 September 2012 (has links) (PDF)
This thesis investigates the employment of different deformable registration techniques to register pre-operative magnetic resonance and inter-operative ultrasound images during prostate biopsy. Accurate registration ensures appropriate biopsy sampling of malignant prostate tissues and reduces the rate of re-biopsies. Therefore, we provide comparisons and experimental results for some landmark- and intensity-based registration methods: thin-plate splines, free-form deformation with B-splines. The primary contribution of this thesis is a new spline-based diffeomorphic registration framework for multimodal images. In this framework we ensure diffeomorphism of the thin-plate spline-based transformation by incorporating a set of non-linear polynomial functions. In order to ensure clinically meaningful deformations we also introduce the approximating thin-plate splines so that the solution is obtained by a joint-minimization of the surface similarities of the segmented prostate regions and the thin-plate spline bending energy. The method to establish point correspondences for the thin-plate spline-based registration is a geometric method based on prostate shape symmetry but a further improvement is suggested by computing the Bhattacharyya metric on shape-context based representation of the segmented prostate contours. The proposed deformable framework is computationally expensive and is not well-suited for registration of inter-operative images during prostate biopsy. Therefore, we further investigate upon an off-line learning procedure to learn the deformation parameters of a thin-plate spline from a training set of pre-operative magnetic resonance and its corresponding inter-operative ultrasound images and build deformation models by applying spectral clustering on the deformation parameters. Linear estimations of these deformation models are then applied on a test set of inter-operative and pre-operative ultrasound and magnetic resonance images respectively. The problem of finding the pre-operative magnetic resonance image slice from a volume that matches the inter-operative ultrasound image has further motivated us to investigate on shape-based and image-based similarity measures and propose for slice-to-slice correspondence based on joint-maximization of the similarity measures.
115

Estimation du temps de parcours d’un réseau urbain par fusion de données de boucles magnétiques et de véhicules traceurs : Une approche stochastique avec mise en oeuvre d’un filtre de Kalman sans parfum

Hage, Ré-Mi 25 September 2012 (has links) (PDF)
La notion de temps de parcours est une information simple à intégrer par les usagers des transports et a le potentiel, via des systèmes d’assistance, de réduire la congestion aussi bien de manière temporelle que spatiale. Cette thèse porte sur la problématique de l’estimation du temps de parcours en ville, où la circulation se caractérise par un débit variable et un flux significatif de/vers des voies transversales non équipées de capteurs de trafic, flux qui agit comme perturbation de l’équation de conservation des véhicules. La bibliographie présente des approches déterministes et stochastiques, utilisant, selon les situations expérimentales, soit des boucles inductives, soit des véhicules traceurs, soit les deux. Nous proposons une méthode stochastique du type filtrage de Kalman sans parfum. Son modèle dynamique est basé sur la méthode analytique classique des stocks qui considère le décalage temporel entre les cumuls de véhicules entrants et sortants dans chaque tronçon du réseau. La formulation de ce modèle n’est pas explicite, ce qui justifie l’utilisation d’un filtre sans parfum. Les observations utilisées sont à la fois les boucles magnétiques à la sortie des tronçons et les véhicules traceurs après map-matching sur le réseau. L’algorithme est applicable en temps réel, sans connaissance a priori des affectations aux carrefours, et sous conditions éventuelles de perturbation. En sortie de filtre, on dispose des variances d’estimation, ce qui mesure la confiance dans le temps de parcours estimé et permet de rejeter des mesures aberrantes. La validation a été montrée sur la base de simulations sur un réseau simple à trois intersections, avec des flux variables et des perturbations, et pour quelques pourcents de véhicules traceurs.
116

Parole de locuteur : performance et confiance en identification biométrique vocale

Kahn, Juliette 19 December 2011 (has links) (PDF)
Ce travail de thèse explore l'usage biométrique de la parole dont les applications sont très nombreuses (sécurité, environnements intelligents, criminalistique, surveillance du territoire ou authentification de transactions électroniques). La parole est soumise à de nombreuses contraintes fonction des origines du locuteur (géographique, sociale et culturelle) mais également fonction de ses objectifs performatifs. Le locuteur peut être considéré comme un facteur de variation de la parole, parmi d'autres. Dans ce travail, nous présentons des éléments de réponses aux deux questions suivantes :- Tous les extraits de parole d'un même locuteur sont-ils équivalents pour le reconnaître ?- Comment se structurent les différentes sources de variation qui véhiculent directement ou indirectement la spécificité du locuteur ? Nous construisons, dans un premier temps, un protocole pour évaluer la capacité humaine à discriminer un locuteur à partir d'un extrait de parole en utilisant les données de la campagne NIST-HASR 2010. La tâche ainsi posée est difficile pour nos auditeurs, qu'ils soient naïfs ou plus expérimentés.Dans ce cadre, nous montrons que ni la (quasi)unanimité des auditeurs ni l'auto-évaluation de leurs jugements ne sont des gages de confiance dans la véracité de la réponse soumise.Nous quantifions, dans un second temps, l'influence du choix d'un extrait de parole sur la performance des systèmes automatiques. Nous avons utilisé deux bases de données, NIST et BREF ainsi que deux systèmes de RAL, ALIZE/SpkDet (LIA) et Idento (SRI). Les systèmes de RAL, aussi bienfondés sur une approche UBM-GMM que sur une approche i-vector montrent des écarts de performances importants mesurés à l'aide d'un taux de variation autour de l'EER moyen, Vr (pour NIST, VrIdento = 1.41 et VrALIZE/SpkDet = 1.47 et pour BREF, Vr = 3.11) selon le choix du fichier d'apprentissage utilisé pour chaque locuteur. Ces variations de performance, très importantes, montrent la sensibilité des systèmes automatiques au choix des extraits de parole, sensibilité qu'il est important de mesurer et de réduire pour rendre les systèmes de RAL plus fiables.Afin d'expliquer l'importance du choix des extraits de parole, nous cherchons les indices les plus pertinents pour distinguer les locuteurs de nos corpus en mesurant l'effet du facteur Locuteur sur la variance des indices (h2). La F0 est fortement dépendante du facteur Locuteur, et ce indépendamment de la voyelle. Certains phonèmes sont plus discriminants pour le locuteur : les consonnes nasales, les fricatives, les voyelles nasales, voyelles orales mi-fermées à ouvertes.Ce travail constitue un premier pas vers une étude plus précise de ce qu'est le locuteur aussi bien pour la perception humaine que pour les systèmes automatiques. Si nous avons montré qu'il existait bien une différence cepstrale qui conduisait à des modèles plus ou moins performants, il reste encore à comprendre comment lier le locuteur à la production de la parole. Enfin, suite à ces travaux, nous souhaitons explorer plus en détail l'influence de la langue sur la reconnaissance du locuteur. En effet, même si nos résultats indiquent qu'en anglais américain et en français, les mêmes catégories de phonèmes sont les plus porteuses d'information sur le locuteur, il reste à confirmer ce point et à évaluer ce qu'il en est pour d'autres langues
117

An Efficient Approach for Diagnosability and Diagnosis of DES Based on Labeled Petri Nets, Untimed and Timed Contexts

LIU, Baisi 17 April 2014 (has links) (PDF)
Cette thèse s'intéresse à l'étude des problèmes de diagnostic des fautes sur les systèmes à événements discrets dans des contextes atemporel et temporel sur la base de modèles réseau de Petri. Des techniques d'exploration incrémentale et à-la-volée sont développées pour combattre le problème de l'explosion de l'espace d'état. Dans le contexte atemporel, une représentation algébrique pour les réseaux de Petri labellisés (RdP-L) a été développée pour caractériser le comportement du système. La diagnosticabilité de modèles RdP-L est ensuite abordée par l'analyse d'une série de problèmes d'analyse de K -diagnosticabilité, où K peut être augmenté progressivement. Concrètement, l'analyse de la diagnosticabilité est effectuée sur la base de deux modèles nommés respectivement FM-graph et FM-set tree qui sont développés à-la-volée et qui contiennent les informations relatives aux fautes. Un diagnostiqueur peut facilement être dérivé à partir du FM-set tree pour le diagnostic en ligne. Dans le contexte temporel, une technique de fractionnement des intervalles de temps a été élaborée pour développer une représentation de l'espace d'état des réseaux de Petri labellisés et temporels (RdP-LT) pour laquelle des techniques d'analyse de la diagnosticabilité du contexte atemporel, peuvent être exploitées. Sur cette base, les conditions nécessaires et suffisantes pour la diagnosticabilité de RdP-LT ont été déterminées, et nous présentons la solution pour le délai minimum qui assure la diagnosticabilité. En pratique, l'analyse de la diagnosticabilité est effectuée sur la base de la construction à-la-volée d'une structure que l'on appelle ASG et qui contient des informations relatives à l'occurrence de fautes sur les états du RdP-LT. D'une manière générale, l'analyse effectuée sur la base des techniques à-la-volée et incrémentale permet de construire et explorer seulement une partie de l'espace d'état. Les résultats des analyses effectuées sur certains benchmarks montrent l'efficacité des techniques que nous avons développées en termes de temps et de mémoire par rapport aux approches traditionnelles basées sur l'énumération des états.
118

Documents, Graphes et Optimisation Multi-Objectifs

Adam, Sébastien 29 November 2011 (has links) (PDF)
Les travaux qui sont abordés dans cette habilitation sont à la confluence de plusieurs de ces domaines de recherche. Ils concernent deux aspects principaux. Le premier est relatif à la reconnaissance structurelle de formes, en proposant deux contributions liées respectivement à la classification supervisée de graphes et à la recherche d'isomorphismes de sous-graphes. Le second concerne la prise en compte d'objectifs multiples en analyse d'images de documents, tant pour l'évaluation des performances des systèmes que pour leur optimisation. Dans les deux cas, les travaux sont appliqués à des problèmes d'analyse de documents, pour la reconnaissance et la localisation de symboles et pour la reconnaissance de courriers manuscrits. Nous proposons dans ce mémoire de faire une synthèse de ces contributions et de nos perspectives dans ces domaines, en positionnant celles-ci par rapport à l'état de l'art des différentes problématiques abordées.
119

Estimation sous contraintes de communication : algorithmes et performances asymptotiques

Cabral farias, Rodrigo 17 July 2013 (has links) (PDF)
L'essor des nouvelles technologies de télécommunication et de conception des capteurs a fait apparaître un nouveau domaine du traitement du signal : les réseaux de capteurs. Une application clé de ce nouveau domaine est l'estimation à distance : les capteurs acquièrent de l'information et la transmettent à un point distant où l'estimation est faite. Pour relever les nouveaux défis apportés par cette nouvelle approche (contraintes d'énergie, de bande et de complexité), la quantification des mesures est une solution. Ce contexte nous amène à étudier l'estimation à partir de mesures quantifiées. Nous nous concentrons principalement sur le problème d'estimation d'un paramètre de centrage scalaire. Le paramètre est considéré soit constant, soit variable dans le temps et modélisé par un processus de Wiener lent. Nous présentons des algorithmes d'estimation pour résoudre ce problème et, en se basant sur l'analyse de performance, nous montrons l'importance de l'adaptativité de la dynamique de quantification pour l'obtention d'une performance optimale. Nous proposons un schéma adaptatif de faible complexité qui, conjointement, estime le paramètre et met à jour les seuils du quantifieur. L'estimateur atteint de cette façon la performance asymptotique optimale. Avec 4 ou 5 bits de résolution, nous montrons que la performance optimale pour la quantification uniforme est très proche des performances d'estimation à partir de mesures continues. Finalement, nous proposons une approche à haute résolution pour obtenir les seuils de quantification non-uniformes optimaux ainsi qu'une approximation analytique des performances d'estimation.
120

Etude de l'amplification non linéaire de signaux MIMO pour les terminaux radio-mobiles

Rihawi, Basel 20 March 2008 (has links) (PDF)
Les modulations multiporteuse (de type OFDM) ont des formes d'onde à fortes fluctuations d'amplitude (PAPR pour Peak-to-Average Power Ratio). Ainsi, de nombreux travaux ont pour objectif de décrire mathématiquement ces fluctuations puis de proposer des solutions visant à les réduire. Parallèlement, les systèmes de télécommunications ont tendance à se diversifier et se complexifier. Ainsi, l'ajout d'une ou plusieurs antennes en émission (MIMO) va modifier la configuration du signal reçu et donc son PAPR. La présence d'un amplificateur non linéaire (LNA) en réception impose alors de quantifier la valeur du PAPR. <br />L'objectif de cette thèse est de décrire le PAPR à la réception en prenant en compte l'influence des modifications du signal : filtrage de mise en forme, transposition RF et canal de propagation. Cette étude a été menée dans des contextes SISO puis MIMO, chacun d'entre eux étant décliné sous les aspects mono puis multiporteuse. Ensuite, deux méthodes de réduction du PAPR ont été proposées.

Page generated in 0.0966 seconds