• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 97
  • 39
  • 21
  • Tagged with
  • 157
  • 157
  • 71
  • 52
  • 40
  • 38
  • 34
  • 31
  • 30
  • 29
  • 28
  • 25
  • 25
  • 24
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Segmentation et indexation des signaux sonores musicaux

Rossignol, Stéphane 12 July 2000 (has links) (PDF)
Ce travail concerne la segmentation et l'indexation des signaux sonores musicaux. Trois niveaux de segmentation interdépendants sont définis, correspondant chacun à un niveau de description du son différent.<br /><br /><br />1) Le premier niveau de segmentation, appelé << sources >>, concerne la distinction entre la parole et la musique. Les sons considérés peuvent provenir par exemple de bandes-son de films ou d'émissions radiophoniques.<br /><br />Des fonctions d'observation sont étudiées, qui ont pour objectif de mettre en évidence les propriétés différentes du signal de parole et du signal de musique. Plusieurs méthodes de classification ont été étudiées. Les performances du système avec des signaux réels sont discutées.<br /><br /><br />2) Le deuxième niveau de segmentation, appelé << caractéristiques >>, concerne ce type d'index : silence/son, voisé/non voisé, harmonique/inharmonique, monophonique/polyphonique, avec vibrato/sans vibrato, avec trémolo/sans trémolo. La plupart de ces caractéristiques donnent lieu à des fonctions d'observation utilisées par le troisième niveau de segmentation.<br /><br />La détection du vibrato, l'estimation de ses paramètres (fréquence et amplitude) et sa suppression du trajet de la fondamentale ont été particulièrement étudiées. Un ensemble de techniques sont décrites. Les performances de ces techniques avec des sons réels sont discutées.<br /><br />Le vibrato est supprimé du trajet de la fondamentale original afin d'obtenir une ligne mélodique << lissée >>. Alors, ce nouveau trajet de la fondamentale peut être utilisé pour la segmentation en notes (troisième niveau de segmentation) des extraits musicaux, et peut aussi être utilisé pour des modifications de ces sons.<br /><br />La détection du vibrato est opérée seulement si, lors du premier niveau de segmentation, c'est la source << musique >> qui a été détectée.<br /><br /><br />3) Le troisième niveau de segmentation concerne la segmentation en << notes ou en phones ou plus généralement en parties stables >>, suivant la nature du son considéré : instrumental, voix chantée, parole, son percussif...<br /><br />L'analyse est composée de quatre étapes. La première consiste à extraire un grand nombre de fonctions d'observation. Une fonction d'observation est d'autant plus appropriée qu'elle présente des pics grands et fins quand des transitions surviennent et que sa moyenne et sa variance restent petites pendant les zones stables. Trois types de transitions existent : celles en fréquence fondamentale, celles en énergie et celles en contenu spectral. En deuxième lieu, chaque fonction d'observation est automatiquement seuillée. En troisième lieu, une fonction de décision finale, correspondant aux marques de segmentation, est construite à partir des fonctions d'observation seuillées. Finalement, pour les sons monophoniques et harmoniques, la transcription automatique est effectuée. Les performances du système avec des sons réels sont discutées.<br /><br /><br />Les données obtenues pour un certain niveau de segmentation sont utilisées par les niveaux de segmentation de numéro d'ordre supérieurs afin d'améliorer leurs performances. <br /><br />La longueur des segments donnés par le niveau de segmentation en << sources >> peut être de quelques minutes. La longueur des segments donnés par le niveau de segmentation en << caractéristiques >> est communément plus petite : elle est disons de l'ordre de quelques dizaines de secondes. La longueur des segments donnés par le niveau de segmentation en << zones stables >> est le plus souvent inférieure à une seconde.
42

Extraction d'éléments curvilignes guidée par des mécanismes attentionnels pour des images de télédétection: approche par fusion de données

Cotteret, Gilles 09 December 2005 (has links) (PDF)
L'extraction d'éléments curvilignes d'images de télédétection, surtout proches de la limite de résolution ou lorsqu'elles sont bruitées, représente toujours un défi important pour les algorithmes informatiques, alors que pour les interprètes humains c'est une tâche immédiate. Dans ce travail une méthode novatrice est présentée pour guider l'extraction d'éléments curvilignes (routes, cours d'eau, etc) d'images de télédétection. Cette méthode a pour but de mettre à jour les systèmes d'informations géographiques (SIG) grâce à un modèle inédit (ELECA) qui comporte trois parties. Le modèle ELECA tire avantage de deux idées principales. Les données utilisées ne sont pas seulement les images de télédétection mais également les données des SIG qui ne sont pas nécessairement à jour. Le modèle s'appuie également sur des progrès récents des sciences psycho-cognitives en imitant partiellement le mouvement des yeux durant une recherche visuelle.<br /><br />Ainsi les trois parties du modèle ELECA sont (1) une méthode de recherche de l'information locale qui utilise un œil virtuel pour ne se focaliser qu'aux lieux d'information probable, évitant ainsi un traitement global de l'image ; (2) une méthode simple et rapide d'extraction de l'information locale par une adaptation astucieuse d'une analyse en composantes connexes ; et (3) une méthode originale de fusion des informations locales qui s'appuie sur des travaux de reconstruction de l'espace global par raisonnement spatial qualitatif.<br /><br />Le modèle ELECA évite de cette manière certains pièges dans lesquels tombent souvent les méthodes courantes/classiques. En particulier, la technique proposée peut être mise en œuvre pour des images partiellement masquées ou de basse résolution pour lesquelles seulement des interprètes humains peuvent traiter l'image présentement. La méthode a été aussi élaborée pour être rapide et efficace afin de pouvoir réaliser des mises à jour de SIG très rapides lorsque nécessaire.<br /><br />La dernière partie de ce travail est consacrée à l'élaboration d'une solution informatique supportant le modèle ELECA. Une architecture logicielle souple et adaptative est mise en avant, permettant l'intégration de développements ultérieurs pour le modèle. Enfin un volet algorithmique montre concrètement que les solutions du modèle ELECA sont implantables en termes informatiques.
43

Mise en Correspondance Tridimensionnelle d'Images Multimodales<br /><br />Application aux Systèmes d'Imageries Projective et Tomographique d'Angiographie Cérébrale

Vermandel, Maximilien 16 October 2002 (has links) (PDF)
La mise en correspondance d'images multimodales est devenue un axe de recherche essentiel en traitement d'images quels que soient les domaines d'applications. Dans le cadre médical, de nombreuses modalités d'imagerie permettent d'explorer l'organisme mais la grande diversité des phénomènes physiques mis en jeu implique que les organes seront analysés selon des points de vue très différents, spécifiques à chacune des modalités. La fusion d'images multimodales permet de palier cette difficulté en exploitant la complémentarité des différentes modalités pour extraire des données nouvelles par la juxtaposition des données initiales et faisant ainsi de la mise en correspondance un élément d'analyse incontournable. La présente étude est orientée sur la recalage et la mise en correspondance de données issues de systèmes d'imageries projective et tomographique d'angiographie cérébrale. L'angiographie par rayons X (2D) est la référence actuelle pour l'étude des vaisseaux intracrâniens mais elle souffre d'un manque de flexibilité et d'absence d'informations tridimensionnelles. Le recalage et la mise en correspondance de cette modalité avec l'Imagerie par Résonance Magnétique permet, d'une part de compléter les données de l'image radiologique et, d'autre part, de valider les innovations technologiques apportées aux dernières générations d'imageurs. La méthode proposée se base sur un recalage automatique et rigide entre les deux modalités. L'originalité de l'approche réside en l'absence de marqueurs ou référentiels externes, basant ainsi le recalage uniquement sur les caractéristiques anatomiques individuelles. Les retombées médicales de ce travail sont multiples tant dans le domaine diagnostique que thérapeutique. A titres d'exemples, une information fine et précise de la vascularisation peut se révéler être décisive dans un cadre neurochirurgical et la mise en correspondance d'images acquises à des instants différents permet un suivi plus objectif d'une pathologie.
44

CARTOGRAPHIE DE LA POLLUTION PARTICULAIRE EN VILLE

Beaulant, Anne-Lise 27 September 2006 (has links) (PDF)
Le Haut Comité de Santé Publique donne des recommandations sur les moyens d'améliorer la connaissance des phénomènes liés à la pollution atmosphérique dans le but d'aider à l'évaluation de l'exposition des citadins. Les travaux de cette thèse s'inscrivent dans ce contexte global en s'orientant vers la cartographie de la concentration en particules en ville. Plusieurs outils existent aujourd'hui qui permettent de dériver des informations sur la qualité de l'air. Ce sont des cartes obtenues par des méthodes d'interpolation spatiale des mesures ponctuelles ou des modèles numériques. Ces deux approches ont des limitations. L'objectif de cette thèse est de contribuer à l'établissement d'une stratégie de cartographie de la pollution atmosphérique sur l'ensemble d'une agglomération à l'échelle de la rue (100 m) en s'appuyant notamment sur l'imagerie satellitaire. La stratégie de cartographie comprend deux méthodes. La méthode des champs typiques vise à améliorer la représentation de la pollution en appliquant des méthodes de fusion de données à des cartes de pollution déjà existantes. Les méthodes de fusion de données sont appliquées à la cartographie de la qualité de l'air. Une formalisation de la méthode des champs typiques est donnée et un essai sur un cas pratique est réalisé. La méthode de densification du réseau de mesure vise à créer des cartes de pollution en interpolant les valeurs de concentration mesurées par les stations. Des stations virtuelles s'ajoutent au stations réelles du réseau de mesure pour le rendre plus dense et améliorer ainsi l'interpolation. Ces stations virtuelles sont déterminées à partir d'une classification sur des éléments décrivant l'environnement des stations. Pour la ville de Strasbourg, 635 stations virtuelles sont ajoutées aux cinq stations réelles existantes. La cartographie par interpolation avec ces stations est améliorée qualitativement et quantitativement (jusqu'à 70 %). Pour valider la définition des stations virtuelles, l'imagerie satellitaire est utilisée. Les longueurs d'ondes autour de 815 nm sont les plus sensibles aux particules. La bande spectrale TM1 du capteur TM de Landsat5 est appropriée pour la détection des particules et est utilisée pour valider les stations virtuelles. 70 % des stations virtuelles ont été validées avec cette approche.
45

Reactive control and sensor fusion for mobile manipulators in human robot interaction

He, Wuwei 04 October 2013 (has links) (PDF)
Afin de partager un espace de travail avec les humains, les robots de services doivent être capable d'interagir dans des environnements peu structurés. Dans ce contexte, le robot doit réagir et adapter son comportement aux évolutions de l'environnement et aux activités des humains.L'utilisation de planificateur de mouvement ne permet pas au robot d'être suffisamment réactif, aussi nous proposons un controleur de trajectoire réactif capable de suivre une cible, de réagir aux changement d'atitudes des humains ou de prévenir les évènements et, en particulier, les collisions. Pour fiabiliser le contrôleur de trajectoire, nous utilisons des techniques de fusion de données récentes afin d'identifier les mouvements ou de détecter des forces associées à des évènements. Nous proposons d'utiliser un capteur de force six axes pour estimer les param'etres d'inertie des objets manipulés, puis d'utiliser ces paramètres pour compléter le contrôle visuel et calculer les forces de contact entre l'organe terminal du robot et son environnement. L'utilisation de technique d'apprentissage permet d'analyser et de classifier les forces de contact pour détecter différents évènements tels que la saisie de l'objet par un humain ou le contact entre le robot ou l'objet transporté et l'environnement. Ce travail a été intégré et testé sur les robots jido et PR2 du LAAS-CNRS dans le cadre des projets europ'eens DEXMART et SAPHARI et des projets ANR ASSIST et ICARO.
46

Réflectométrie appliquée à la détection de défauts non francs dans les torons de câbles

Franchet, Maud 12 September 2012 (has links) (PDF)
Ces travaux de thèse portent sur la détection de défauts non francs dans des structures filaires particulières : les lignes de transmission a multiconducteurs (MTL), aussi appelées torons de câbles. Couramment employées pour le diagnostic de réseaux filaires, les méthodes par réflectométrie ne sont, pour l'heure, pas suffisamment performantes pour détecter de tels défauts. Par ailleurs, elles n'ont, en général, été étudiées et développées que pour des lignes simples, ou les phénomènes de couplages électromagnétiques entre les conducteurs (diaphonie) ne sont pas présents. Ces derniers sont cependant porteurs d'information supplémentaire sur l'état du câble. Les utiliser permettrait d'accroître la sensibilité de détection aux défauts. L'objectif est de proposer une nouvelle méthode de réflectométrie, tirant profit des signaux de diaphonie pour détecter les défauts non francs. Une telle méthode présente également l'avantage d'être adaptée aux structures en toron. Après avoir étudié l'impact d'un défaut non franc sur les paramètres caractéristiques d'une MTL et sur les signaux de diaphonie, une méthode, la "Cluster Time Frequency Domain Reflectometry ", a pu être proposée. Il s'agit d'un procédé en trois étapes. Des mesures par réflectométrie temporelle sont tout d'abord réalisées à l'entrée de la ligne à diagnostiquer. Tous les signaux présents, y compris ceux de diaphonie, sont enregistrés. Un traitement temps-fréquence leur est ensuite appliqué afin d'amplifier la présence d'éventuels défauts. Enfin, un algorithme de clustering, spécifiquement développé pour le diagnostic filaire, est utilisé de manière a bénéficier de l'ensemble de l'information disponible
47

Reconnaissance de contexte stable pour l'habitat intelligent

Pietropaoli, Bastien 10 December 2013 (has links) (PDF)
L'habitat intelligent est l'objet de nombreux travaux de recherche. Il permet d'assister des personnes âgées ou handicapées, d'améliorer le confort, la sécurité ou encore d'économiser de l'énergie. Aujourd'hui, l'informatique ubiquitaire se développe et s'intègre dans l'habitat intelligent notamment en apportant la sensibilité au contexte. Malheureusement, comprendre ce qui se passe dans une maison n'est pas toujours facile. Dans cette thèse, nous explicitons comment le contexte peut permettre de déployer des services adaptés aux activités et aux besoins des habitants. La compréhension du contexte passe par l'installation de capteurs mais aussi par l'abstraction des données brutes en données intelligibles facilement exploitables par des humains et des services. Nous mettons en avant une architecture multi-couches de fusion de données permettant d'obtenir des données contextuelles de niveaux d'abstraction différents. La mise en place des couches basses y est présentée en détail avec l'application de la théorie des fonctions de croyance pour l'abstraction de données brutes issues de capteurs. Enfin, sont présentés le déploiement d'un prototype nous ayant permis de valider notre approche, ainsi que les services déployés.
48

Étude et conception d'un système de télésurveillance et de détection de situations critiques par suivi actimétrique des personnes à risques en milieu indoor et outdoor

Bourennane, Walid 25 September 2013 (has links) (PDF)
Le vieillissement rapide de la population implique une évolution du système de soins pour prendre en charge les personnes dépendantes dont la proportion ne cesse de croître. Une option possible est de développer et de mettre en œuvre une technologie d'assistance à domicile. Ce travail de thèse consiste à concevoir et à expérimenter des solutions de " surveillance " multicapteurs : déploiement de capteurs dans l'environnement réel du patient, fusion multisensorielle et algorithmes de diagnostics automatiques, afin d'assurer la sécurité des personnes mais également d'aider les professionnels de santé à maintenir la qualité du suivi et des soins. Ce manuscrit présente à travers une étude bibliographique, un état des connaissances et des pratiques sur les systèmes d'analyse des activités des personnes âgées. Ensuite, il détaille l'étape de conception du système de surveillance retenu et selon une approche fonctionnelle présente l'architecture matérielle et logicielle mise en œuvre pour répondre aux spécifications établies. Deux projets sont issus de ce travail : 1) Le projet Homecare qui vise à expérimenter et à qualifier, au niveau opérationnel, un système complet de Télésurveillance pour les personnes âgées atteintes de la maladie d'Alzheimer. 2) Le projet BéA qui est plutôt orienté sur la surveillance " outdoor " pour des personnes valides mais fragiles : Notre contribution a concerné la mise en place d'une architecture système qui intègre un algorithme auto-adaptatif de détection et de modélisation des déambulations par tranche horaire. Enfin, les pistes d'un modèle économique qui définit les options offertes, aujourd'hui, au déploiement de ce type de systèmes sont discutées.
49

Contribution à la surveillance temps-réel du système "conducteur-véhicule-environnement" : élaboration d'un système intelligent d'assistance à la conduite

Lauffenburger, Jean-Philippe 20 December 2002 (has links) (PDF)
Le sujet de cette thèse vise l'intégration dans une automobile de fonctions d'observation, de<br />supervision, d'aide à la décision ou encore de commande. La problématique est le développement<br />d'une assistance à la conduite longitudinale et latérale basée sur la localisation du véhicule.<br />Le but est de signaler et corriger les faiblesses de conduite en consiéerant les paramètres du<br />véhicule, du conducteur et la topologie de la route. Selon la localisation du véhicule, une trajectoire<br />de référence et la vitesse associée sont déterminées en fonction du conducteur et de la<br />phase de conduite. Ces références sont utilisées pour effectuer le contrôle du véhicule ou pour<br />informer le conducteur de l'inadéquation de ses consignes.<br />Dans ce contexte, la localisation du véhicule et particulièrement les informations de l'environnement<br />d'évolution doivent être pertinentes. Elles sont obtenues grâce à une base de données<br />cartographique spécifiquement développée dans le cadre de ces travaux. Celle-ci est caractérisée<br />par une précision supérieure à celle des bases de données traditionnellement employées dans<br />des dispositifs de navigation.
50

Métrologie Hybride pour le contrôle dimensionnel en lithographie / Hybrid Metrology Applied to dimensional Control in Lithography

Griesbach schuch, Nivea 27 October 2017 (has links)
Afin de respecter sa feuille de route, l’industrie du semi conducteur propose des nouvelles générations de technologies (appelées nœuds technologiques) tous les deux ans. Ces technologies présentent des dimensions de motifs de plus en plus réduites et par conséquent des contrôles des dimensions de plus en plus contraints. Cette réduction des tolérances sur les résultats métrologiques entraine forcément une évolution des outils de métrologie dimensionnelle. Aujourd’hui, pour les nœuds les plus avancés, aucune technique de métrologie ne peut répondre aux contraintes imposées. Les limitations se situent aussi bien sur les principes mêmes des méthodes employées que sur la quantité nécessaire de données permettant une analyse poussée ainsi que le temps de calcul nécessaire au traitement de ces données. Dans un contexte industriel, les aspects de rapidité et de précision des résultats de métrologie ne peuvent pas être négligés, de ce fait, une nouvelle approche fondée sur de la métrologie hybride doit être évaluée. La métrologie hybride consiste à mettre en commun différentes stratégies afin de combiner leurs forces et limiter leurs faiblesses. L’objectif d’une approche hybride est d’obtenir un résultat final présentant de meilleures caractéristiques que celui obtenu par chacune des techniques séparément. Cette problématique de métrologie hybride peut se résoudre par l’utilisation de la fusion de données. Il existe un grand nombre de méthodes de fusion de données couvrant des domaines très variés des sciences et qui utilisent des approches mathématiques différentes pour traiter le problème de fusion de données. L’objectif de ce travail de thèse est de développer cette problématique de métrologie hybride et fusion de données dans le cadre d’une collaboration entre deux laboratoires : LTM/ CNRS ( Laboratoire des Technologies de la Microélectronique) et le LETI/CEA (Laboratoire d’Electronique et de Technologies de l’Information). Le concept de la fusion de données est présenté dans un contexte de métrologie hybride appliquée au domaine de la microélectronique. L’état de l’art au niveau des techniques de métrologie est présenté et discuté. En premier lieu, le CD SEM pour ces caractéristiques associant rapidité et non destructibilité, ensuite l’AFM pour sa vision juste des profils des motifs et enfin la scattérométrie pour ses aspects de précision de mesures et sa rapidité tout en conservant une approche non destructive. Le FIB-STEM, bien que destructif, se positionne sur une approche de technique de référence. Les forces et les faiblesses de ces différentes méthodes sont évaluées afin de pouvoir les introduire dans une approche de métrologie hybride et d’identifier le rôle que chacune d’entre elle peut jouer dans ce contexte. Plusieurs campagnes de mesures ont été réalisées durant cette thèse afin d’apporter des connaissances sur les caractéristiques et les limitations de ces techniques et pouvoir les inclure dans différents scénarii de métrologie hybride. La méthode retenue pour la fusion de données est fondée sur une approche Bayesienne. Cette méthode a été évaluée dans un contexte expérimental cadré par un plan d’expérience permettant la mesure de la hauteur et la largeur de lignes en combinant différentes techniques de métrologie. Les données collectées ont été exploitées pour les étapes de debiaisage mais également pour un déroulement complet de fusion et dans les deux cas, la métrologie hybride montre les avantages de cette approche pour améliorer la justesse et la précision des résultats. Avec la poursuite d’un développement poussé, la technique de métrologie hybride présentée ici semble donc pouvoir s’intégrer dans un processus de fabrication dans l’industrie du semi conducteur. Son application n’est pas seulement destinée à de la métrologie dimensionnelle mais peut fournir également des informations sur la calibration des équipements. / The industry of semiconductors continues to evolve at a fast pace, proposing a new technology node around every two years. Each new technology node presents reduced feature sizes and stricter dimension control. As the features of devices continue to shrink, allowed tolerances for metrology errors must shrink as well, pushing the evolution of the metrology tools.No individual metrology technique alone can answer the tight requirements of the industry today, not to mention in the next technology generations. Besides the limitations of the metrology methods, other constraints such as the amount of metrology data available for higher order analysis and the time required for generating such data are also relevant and impact the usage of metrology in production. For the production of advanced technology nodes, neither speed nor precision may be sacrificed, which calls for cleverer metrology approaches, such as the Hybrid Metrology.Hybrid Metrology consists of employing different metrology strategies together in order to combine their strengths while mitigating their weaknesses. This hybrid approach goal is to improve the measurements in such a way that the final data presents better characteristics that each method separately. One of the techniques than can be used to combine the data coming from different metrology techniques is called Data Fusion. There are a large number of developed methods of Data Fusion, using different mathematical tools, to address the data fusion process.The first goal of this thesis project was to start developing the topics of Data Fusion and Hybrid Metrology within the two laboratories whose cooperation made this work possible: LTM (Laboratoire des Technologies de la Microélectronique) and LETI (Laboratoire d'électronique et de technologie de l'information). This thesis presents the concepts of Data Fusion in the context of Hybrid Metrology applied to dimensional measuring for the semiconductors industry. This concept can be extensively used in many other fields of applications.In this work the basics of state-of-the-art metrology techniques is presented and discussed. The focus is the CD-SEM, for its fast and almost-non-destructive metrology; the AFM, for its accurate profile view of patterns and non-destructive characteristic; the Scatterometry, for its precision, global and fast measurements; and the FIB-STEM, as a reference on accuracy for any type of profile, although destructive. The strengths and weaknesses of these methods were discussed in order to introduce the need of Hybrid Metrology and to identify the role that each of those methods can play in this context.Several experiments were performed during this thesis work in order to provide further knowledge about the characteristics and limitations of each metrology method and to be used as either inputs or reference on the different Hybrid Metrology scenarios proposed.The selected method for fuse the data coming from different metrology methods was the Bayesian approach. This technique was evaluated in different experimental contexts, both for Height and CD metrology combining different metrology methods. Results were evaluated for both the debiasing step alone and for the complete fusion flow. In both cases, it was clear the advantages of using a Hybrid Metrology approach for improving the measurement precision and accuracy.The presented Hybrid Metrology technique may be used by the semiconductor industry in different steps of the fabrication process. This technique can also provide information for machine calibration, such as a CD-SEM tool being calibrated based on Hybrid Metrology results generated using the CD-SEM itself together with Scatterometry data.

Page generated in 0.0603 seconds