• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 365
  • 211
  • 190
  • Tagged with
  • 770
  • 770
  • 519
  • 397
  • 375
  • 349
  • 348
  • 335
  • 332
  • 314
  • 311
  • 301
  • 298
  • 93
  • 69
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
651

Multi-dimensional Teager-Kaiser signal processing for improved characterization using white light interferometry / Traitement du signal Teager-Kaiser multi-dimensionel pour la caractérisation améliorée avec l'interférométrie en lumière blanche

Gianto, Gianto 14 September 2018 (has links)
L'utilisation de franges d'interférence en lumière blanche comme une sonde optique en microscopie interférométrique est d'une importance croissante dans la caractérisation des matériaux, la métrologie de surface et de l'imagerie médicale. L'Interférométrie en lumière blanche est une technique basée sur la détection de l'enveloppe de franges d'interférence. Il a été démontré antérieurement, la capacité des approches 2D à rivaliser avec certaines méthodes classiques utilisées dans le domaine de l'interférométrie, en termes de robustesse et de temps de calcul. En outre, alors que la plupart des méthodes tiennent compte seulement des données 1 D, il semblerait avantageux de prendre en compte le voisinage spatial utilisant des approches multidimensionnelles (2D/3D), y compris le paramètre de temps afin d'améliorer les mesures. Le but de ce projet de thèse est de développer de nouvelles approches n-D qui sont appropriées pour une meilleure caractérisation des surfaces plus complexes et des couches transparentes. / The use of white light interference fringes as an optical probe in microscopy is of growing importance in materials characterization, surface metrology and medical imaging. Coherence Scanning Interferometry (CSI, also known as White Light Scanning Interferometry, WSLI) is well known for surface roughness and topology measurement [1]. Full-Field Optical Coherence Tomography (FF-OCT) is the version used for the tomographic analysis of complex transparent layers. Both techniques generally make use of some sort of fringe scanning along the optical axis and the acquisition of a stack of xyz images. Image processing is then used to identify the fringe envelopes along z at each pixel in order to measure the positions of either a single surface or of multiple scattering objects within a layer.In CSI, the measurement of surface shape generally requires peak or phase extraction of the mono dimensional fringe signal. Most of the methods are based on an AM-FM signal model, which represents the variation in light intensity measured along the optical axis of an interference microscope [2]. We have demonstrated earlier [3, 4] the ability of 2D approaches to compete with some classical methods used in the field of interferometry, in terms of robustness and computing time. In addition, whereas most methods only take into account the 1D data, it would seem advantageous to take into account the spatial neighborhood using multidimensional approaches (2D, 3D, 4D), including the time parameter in order to improve the measurements.The purpose of this PhD project is to develop new n-D approaches that are suitable for improved characterization of more complex surfaces and transparent layers. In addition, we will enrich the field of study by means of heterogeneous image processing from multiple sensor sources (heterogeneous data fusion). Applications considered will be in the fields of materials metrology, biomaterials and medical imaging.
652

Caractérisation ultrasonore et vibroacoustique<br />de la santé mécanique des os humains

Ogam, Erick 12 June 2007 (has links) (PDF)
L'os humain est à la fois un matériau (tissu osseux) et une structure (e.g., le fémur). Les traumatismes engendrent des défaillances (fractures) structurelles évidentes de l'os, mais l'intégrité mécanique de celui-ci peut aussi être atteinte d'une manière insidieuse, et non moins dangereuse, par certaines maladies. Très schématiquement, on peut dire que les traumatismes sont la cause de macrofractures (à la structure-os), et les maladies la cause de microfractures (du matériau-os). Celles-ci se développent progressivement en macrofractures, et si des soins ne sont pas prodigués ou efficaces, l'os perd sa fonction de soutien. Cette thèse concerne essentiellement une des maladies de l'os : l'ostéoporose. Pour traiter cette maladie, et/ou prévenir les macrofractures dont elle est à terme la cause, il faut d'abord en faire le diagnostic. Ce problème est compliqué du fait qu'il s'agit d'une caractérisation (essentiellement mécanique) de matériau vivant et qu'il est impératif que le sondage soit de type non-destructif, surtout si l'examen doit se répéter souvent (notamment pour suivre les progrès d'un traitement). Le travail de cette thèse concerne donc le développement de nouvelles méthodes, et/ou l'amélioration de méthodes plus anciennes relatives à l'évaluation non-destructive (END) d'altérations mécaniques du tissu osseux en rapport avec l'ostéoporose. Comme l'END est aussi un terme employé pour la caractérisation de matériaux inertes, le domaine d'application de ce travail dépasse celui des matériaux vivants.
653

INSTRUMENTATION ULTRASONORE DES MILIEUX COMPLEXES : UNE APPROCHE NON LINÉAIRE POUR UNE CARACTÉRISATION ACOUSTIQUE SUB-LAMBDA

Serge, DOS SANTOS 14 November 2008 (has links) (PDF)
Les travaux présentés synthétisent l'activité de Recherche réalisée, depuis 1998, au Laboratoire Ultrasons Signaux et Instrumentation FRE2448 CNRS de l'Université François-Rabelais. Cette recherche expérimentale et théorique vise, en vue d'une imagerie sub-lambda, à exploiter le cadre de l'acoustique non linéaire ultrasonore pour progresser dans l'instrumentation électronique et dans la modélisation acoustique de l'analyse, de l'évaluation et du contrôle non destructif (END/CND) de milieux complexes dégradés ou fissurés issus de l'industrie aéronautique. La modélisation mécanique multi-échelles des matériaux dégradés est implémentée via l'introduction de lois de comportement non linéaires non classiques (approche hystérétique phénoménologique de type Preisach-Mayergoyz) et est étendue au cas 3D par le formalisme de Kelvin. Une analyse des symétries des équations générales de propagation acoustique (Burgers, KZ, équation hystérétique), utilisant le formalisme des groupes de Lie, a permis de mettre en place les bases d'une analyse systémique exploitant les invariants extraits, entre autres, à partir des conditions a priori d'excitation. Les propriétés d'invariance par retournement temporel et par réciprocité constituent l'ossature des techniques de localisation des nonlinéarités dans les milieux complexes. Un traitement du signal automatisé et synchronisé permet cette focalisation acoustique. En appliquant des méthodes de codage d'excitations, l'extraction de la nonlinéarité est effectuée sur le signal vibratoire mesuré par interférométrie laser. Des simulations numériques de type pseudo-spectrales préservant la description temporelle valident les concepts associés à ces techniques de localisation. Deux dispositifs expérimentaux de spectroscopie non linéaire élastique (NEWS) basés sur l'interaction paramétrique d'ondes acoustiques ont été réalisés afin de caractériser la nonlinéarité de milieux solides et liquides. Ces dispositifs permettent des caractérisations dites globales et locales des propriétés non linéaires des milieux. L'expérimentation globale présente l'avantage d'être associée à une métrologie fine, basée sur un principe d'auto-réciprocité et permet un étalonnage du paramètre non linéaire. L'objectif en terme d'imagerie de localisation de la nonlinéarité a nécessité la mise en ?uvre d'une extension de cette méthode par l'adjonction d'un processus de retournement temporel (TR) permettant la focalisation ultrasonore des ondes, et la création d'expérimentations innovantes NEWS-TR et TR-NEWS.
654

Analyse de l'activité électrique multi-sites du cortex auditif chez le cobaye

La Rota, Camilo 13 January 2003 (has links) (PDF)
La problématique qui a motivé cette étude est celle de la représentation et du traitement de l'information dans le néocortex. On s'intéresse en particulier à l'hypothèse selon laquelle l'information sensorielle est représentée par un "code" spatio-temporel dans l'activité coopérative des populations neuronales. Cette étude est fondamentale pour le développement de solutions technologiques à certains problèmes médicaux (e.g. neuroprothèses). La disponibilité de nouvelles techniques de mesure multi-sites qui permettent d'observer l'activité spatiotemporelle du cortex à de hautes résolutions, nous donne l'occasion d'aborder la notion "d'interaction neuronale" à des échelles mésoscopiques et d'étudier les mécanismes de la sensation et de la perception au niveau des aires fonctionnelles. Nous nous sommes intéressés à l'activité électrique du cortex auditif en réponse aux stimuli sonores, observée in vivo chez le cobaye à l'aide de colorants fluorescents potentiel-dépendants. Nous avons étudié des méthodes pour le traitement, l'analyse et la compression/intégration de l'information spatio-temporelle, adaptées à ce type de données. Une analyse descriptive nous a permit de caractériser les signaux recueillis, ainsi que leur variabilité et les erreurs qui nuisent à la mesure. Une étude théorique est venue compléter cette description et a permit d'interpréter nos données par rapport à l'activité neuronale sous-jacente. Le signal de fluorescence est difficile à traiter avec des techniques classiques de traitement du signal, nous avons donc utilisé des techniques basées sur la transformée en ondelettes afin d'estimer et de caractériser l'activité d'origine neuronale. Finalement, nous avons analysé quelques approches pour la modélisation spatio-temporelle de l'activité du cortex, et nous avons étudié l'adéquation de ces modèles à nos données. Des éléments de méthode pour l'étude de cette problématique et des perspectives pour les expériences futures sont avancés.
655

Etude et réalisation d'une chaine d'instrumentation numérique rapide pour l'identification des ions

Legou, Thierry 05 January 2002 (has links) (PDF)
Ce travail traite d'un système d'Identification Rapide des Ions et de Spectroscopie (IRIS), développé pour la recherche des noyaux de fusion super-lourds. La mesure de l'énergie du noyau, ainsi que l'enregistrement de sa chaîne de décroissance alpha, imposent à l'instrumentation des contraintes spécifiques. Celles-ci concernent la dynamique d'énergie que l'instrumentation doit accepter, mais aussi son temps de récupération après implantation du noyau de fusion dans le détecteur. Le système IRIS est placé en sortie d'un préamplificateur de charge, lui-même connecté à un détecteur (Si) de particule. Le principe du système consiste à numériser le signal de sortie du préamplificateur auquel deux traitements numériques du signal sont appliqués. Le premier traitement a pour but de détecter l'interaction de la particule avec le détecteur. Le second traitement permet de mesurer la charge créée dans le détecteur lors de l'interaction. Le caractère programmé des traitements autorise de nombreuses possibilités concernant tant le choix de la nature des traitements que celui des réglages de leurs paramètres de fonctionnement. Après avoir montré l'impossibilité d'utiliser une chaîne d'électronique conventionnelle pour la détection des noyaux de fusion, la structure d'IRIS est présentée ainsi que différents traitements numériques (étude et tests).
656

Apprentissage statistique pour le signal: applications aux interfaces cerveau-machine

Flamary, Rémi 06 December 2011 (has links) (PDF)
Les Interfaces Cerveau-Machine (ICM) nécessitent l'utilisation de méthodes d'apprentissage statistique pour la reconnaissance de signaux. Dans cette thèse, nous proposons une approche générale permettant d'intégrer des connaissances a priori dans le processus d'apprentissage. Cette approche consiste à apprendre de manière jointe le classifieur et la représentation des données lors d'une optimisation unique. Nous nous sommes plus particulièrement intéressés à des problèmes de sélection de capteurs et proposons plusieurs termes de régularisation adaptés pour ces problèmes. Notre première contribution est une méthode d'apprentissage supervisé de filtres: le filtrage vaste marge. Un filtrage maximisant la marge entre les échantillons est appris et permet de s'adapter automatiquement aux caractéristiques des signaux tout en restant interprétable. Une application ICM et une extension 2D du filtrage a été réalisée. La seconde contribution est une méthode d'apprentissage multitâche parcimonieuse. Elle permet de sélectionner de manière jointe un ensemble de noyaux pertinents pour l'ensemble des tâches de classification. Des algorithmes efficaces ont été proposés pour résoudre le problème d'optimisation et des expérimentations numériques ont montré l'intérêt de l'approche. Finalement, la troisième contribution est une application de l'apprentissage multitâche parcimonieux sur un ensemble de jeux de données ICM. Un terme de régularisation plus général permettant de promouvoir une similarité entre classifieurs est également proposé. Les résultats numériques ont montré qu'une réduction importante du temps de calibration peut être obtenue grâce à l'apprentissage multitâche proposé.
657

Nouvelles méthodes de synthèse de texture ; application à la prédiction et à l'inpainting d'images

Turkan, Mehmet 19 December 2011 (has links) (PDF)
Cette thèse présente de nouvelles méthodes de synthèse de texture basées sur l'exemple pour les problèmes de prédiction d'images (c'est à dire, codage prédictif) et d'inpainting d'images. Les principales contributions de cette étude peuvent aussi être vues comme des extensions du template matching. Cependant, le problème de synthèse de texture tel que nous le définissons ici se situe plutôt dans un contexte d'optimisation formalisée sous différentes contraintes. Le problème de prédiction d'images est d'abord situé dans un contexte de représentations parcimonieuses par l'approximation du template sous contraintes de parcimonie. La méthode de prédiction proposée avec les dictionnaires adaptés localement montrent de meilleures performances par rapport aux dictionnaires classiques (tels que la transformée en cosinus discrète (TCD)), et à la méthode du template matching. Le problème de prédiction d'images est ensuite placé dans un cadre d'apprentissage de dictionnaires en adaptant les méthodes traditionnelles d'apprentissage pour la prédiction de l'image. Les observations expérimentales montrent une meilleure performance comparativement à des méthodes de prédiction parcimonieuse et des prédictions intra de type H.264/AVC. Enfin un cadre neighbor embedding est proposé pour la prédiction de l'image en utilisant deux méthodes de réduction de dimensionnalité: la factorisation de matrice non négative (FMN) et le locally linear embedding (LLE). Ce cadre est ensuite étendu au problème d'inpainting d'images. Les évaluations expérimentales démontrent l'efficacité des idées sous-jacentes pour la compression via la prédiction d'images et l'inpainting d'images.
658

Reconstitution de la parole par imagerie ultrasonore et vidéo de l'appareil vocal : vers une communication parlée silencieuse

Hueber, Thomas 09 December 2009 (has links) (PDF)
L'objectif poursuivi dans ce travail de thèse est la réalisation d'un dispositif capable d'interpréter une parole normalement articulée mais non vocalisée, permettant ainsi la " communication parlée silencieuse ". Destiné, à terme, à être léger et portatif, ce dispositif pourrait être utilisé d'une part, par une personne ayant subi une laryngectomie (ablation du larynx suite à un cancer), et d'autre part, pour toute communication, soit dans un milieu où le silence est requis (transport en commun, opération militaire, etc.), soit dans un environnement extrêmement bruité. Le dispositif proposé combine deux systèmes d'imagerie pour capturer l'activité de l'appareil vocal pendant " l'articulation silencieuse " : l'imagerie ultrasonore, qui donne accès aux articulateurs internes de la cavité buccale (comme la langue), et la vidéo, utilisée pour capturer le mouvement des lèvres. Le problème traité dans cette étude est celui de la synthèse d'un signal de parole " acoustique ", uniquement à partir d'un flux de données " visuelles " (images ultrasonores et vidéo). Cette conversion qualifiée ici de " visuo-acoustique ", s'effectue par apprentissage artificiel et fait intervenir quatre étapes principales : l'acquisition des données audiovisuelles, leur caractérisation, l'inférence d'une cible acoustique à partir de l'observation du geste articulatoire et la synthèse du signal. Dans le cadre de la réalisation du dispositif expérimental d'acquisition des données, un système de positionnement de la sonde ultrasonore par rapport à la tête du locuteur, basé sur l'utilisation combinée de deux capteurs inertiaux a tout d'abord été conçu. Un système permettant l'enregistrement simultané des flux visuels et du flux acoustique, basé sur la synchronisation des capteurs ultrasonore, vidéo et audio par voie logicielle, a ensuite été développé. Deux bases de données associant observations articulatoires et réalisations acoustiques, contenant chacune environ une heure de parole (continue), en langue anglaise, ont été construites. Pour la caractérisation des images ultrasonores et vidéo, deux approches ont été mises en œuvre. La première est basée sur l'utilisation de la transformée en cosinus discrète, la seconde, sur l'analyse en composantes principales (approche EigenTongues/EigenLips). La première approche proposée pour l'inférence des paramètres acoustiques, qualifiée de " directe ", est basée sur la construction d'une " fonction de conversion " à l'aide d'un réseau de neurones et d'un modèle par mélange de gaussiennes. Dans une seconde approche, qualifiée cette fois " d'indirecte ", une étape de décodage des flux visuels au niveau phonétique est introduite en amont du processus de synthèse. Cette étape intermédiaire permet notamment l'introduction de connaissances linguistiques a priori sur la séquence observée. Elle s'appuie sur la modélisation des gestes articulatoires par des modèles de Markov cachés (MMC). Deux méthodes sont enfin proposées pour la synthèse du signal à partir de la suite phonétique décodée. La première est basée sur une approche par concaténation d'unités ; la seconde utilise la technique dite de " synthèse par MMC ". Pour permettre notamment la réalisation d'adaptations prosodiques, ces deux méthodes de synthèse s'appuient sur une description paramétrique du signal de parole du type "Harmonique plus Bruit" (HNM).
659

Vers une modélisation dynamique de l'activité cérébrale pour la conception d'interfaces cerveau-machines asynchrones

Gouy-Pailler, Cedric 01 October 2009 (has links) (PDF)
Les Interfaces Cerveau-Machines (ICMs) visent à établir un moyen de communication direct entre le cerveau humain et un système électronique. Si d'importantes avancées ont d'ores et déjà été réalisées depuis une vingtaine d'années dans le domaine, les systèmes existants s'avèrent lents et fastidieux, imposant aux utilisateurs le moment auquel ils doivent envoyer leur commande (systèmes synchrones). Nos travaux se sont concentrés sur le développement de systèmes asynchrones basés sur l'électroencéphalographie (EEG) : ce n'est pas l'ordinateur qui impose le moment de réalisation de la tâche mentale mais le sujet qui a la possibilité d'envoyer sa commande lorsque qu'il le désire. Ceci impose que le système soit capable d'analyser en temps réel l'activité cérébrale du sujet et de reconnaître la tâche mentale recherchée parmi les activités cérébrales mesurées. Nos travaux proposent des méthodes pour les problématiques suivantes : • permettre à l'utilisateur d'envoyer sa commande lorsqu'il le désire ; • augmenter les capacités du système à reconnaître correctement une tâche mentale ; • rendre le système robuste à certains changements qui peuvent s'opérer lors de l'utilisation du système, i.e., adapter le système aux possibles changements du sujet dans la manière dont celui-ci accomplit sa tâche mentale. Les méthodes proposées utilisent de manière conjointe les caractéristiques spatiales (zones cérébrales impliquées), fréquentielles (bandes de fréquences) et temporelles (succession des activations) des tâches mentales afin de pallier le faible rapport signal sur interférences. Différents jeux de données sont utilisés afin de valider ces approches.
660

Analyse temps-fréquence et modèles d'invariance d'échelle: Contribution à l'étude de systèmes complexes

Gonçalves, Paulo 29 March 2010 (has links) (PDF)
Manifeste depuis longtemps dans les sciences du vivant, le traitement du signal, apparaît plus tardivement dans la communauté réseaux. On est alors surpris de voir que deux systèmes complexes, aussi distants que le coeur et un réseau informatique, présentent du point de vue des lois d'échelle, des invariances très semblables. Sans dire qu'elles sont les signatures de structures comparables, ces propriétés font néanmoins appel aux mêmes outils d'analyse, d'estimation ou de modélisation, et c'est dans la conception de ceux-ci que se situe le travail présenté. Cette "unité méthodologique" est le fil conducteur qui m'a permis de décloisonner les différents domaines de recherche abordés. Dans une première partie je trace un bilan de mes différentes contributions aux sciences de l'information, classées selon deux grandes catégories: - Les représentations temps-fréquence dont l'objectif est un meilleur redéploiement de l'information contenue dans le signal pour mettre en évidence certaines organisations ou propriétés difficiles à identifier autrement; - Les outils statistiques qui, stimulés par les progrès accomplis sur les représentations en général et les ondelettes en particulier, augmentent en retour les possibilités d'exploitation de ces objets. Dans un deuxième temps, j'illustre avec les deux applications qui sont au centre de mon activité - étude des systèmes de communication et analyse du système cardiovasculaire - des résultats originaux et concrets issus de l'application de ces outils théoriques. Enfin, ces exemples me donnent l'occasion de conclure en défendant la vision d'une approche coopérative et globale de la complexité en vue d'une meilleure compréhension des mécanismes à l'origine des systèmes.

Page generated in 0.0896 seconds