• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 365
  • 211
  • 190
  • Tagged with
  • 770
  • 770
  • 519
  • 397
  • 375
  • 349
  • 348
  • 335
  • 332
  • 314
  • 311
  • 301
  • 298
  • 93
  • 69
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Détection robuste et automatique de véhicules dans les images aériennes

Sahli, Samir 19 April 2018 (has links)
Cette thèse se situe dans le cadre général de la détection d’objets. Elle porte plus particulièrement sur la détection de véhicules dans les images aériennes de grandes dimensions. Le principal obstacle à l’obtention d’une détection robuste des véhicules est la grande variété de leurs apparences. Dans un premier temps, nous avons abordé le cadre théorique de la détection et identifié une approche prometteuse, l’analyse locale de scène. Par le biais de détecteurs, nous avons limité l’analyse aux seules régions susceptibles de contenir des véhicules. De là, nous avons extrait les informations locales caractéristiques des véhicules afin d’entraîner des Séparateurs à Vaste Marge (en anglais Support Vector Machine, SVM). Cette première chaîne de traitement nous a permis d’obtenir de multiples détections par véhicule. Dans un deuxième temps, nous avons regroupé automatiquement les multiples détections à l’aide de l’algorithme Affinity Propagation(AP). Des contraintes spatiales ont été introduites afin de garantir que le regroupement se fasse dans le respect des dimensions des véhicules. Finalement, l’extraction des véhicules a été effectuée en utilisant les informations relatives à l’orientation et la forme des véhicules présentes dans l’image. Afin de pallier certaines faiblesses que présente la première chaîne de traitement, nous avons développé une seconde chaîne de traitement. Tout d’abord, nous avons procédé à la sélection de régions saillantes susceptibles de contenir les véhicules. Ensuite, nous avons sur-segmenté l’image afin d’obtenir des régions uniformes en couleur de dimensions inférieures à celles des véhicules, les superpixels. De là, nous avons extrait les informations locales et globales relatives à ces superpixels et entraîné à nouveau des SVM en mode classification. À l’issue de cette deuxième chaîne de traitement, nous avons augmenté significativement notre capacité de détection. Finalement, dans le dernier chapitre de cette thèse, nous avons proposé un nouvel algorithme destiné à sélectionner les régions saillantes de l’image. Cet algorithme est spécialement conçu pour traiter des images aériennes. De plus, il présente de nombreux avantages comparativement aux méthodes concurrentes existantes.
102

Minimisation de la gigue d'échantillonnage d'un spectromètre à transformée de Fourier imageur à détecteur intégrateur en présence de perturbations mécaniques

Déry, Jean-Philippe 18 April 2018 (has links)
Le développement des spectromètres par transformée de Fourier (FTS) a connu un essor important en bénéficiant de l'attention de nombreux groupes de recherche à travers le monde depuis les années 1960 (bien que cet instrument existait déjà bien avant), résultant dans la connaissance approfondie que nous en avons aujourd'hui. Dans les années 1990 et 2000, l'augmentation grandissante des performances des caméras à intégration (de type «charge-coupled device» (CCD) ou autre) a permis la croissance accélérée de la technologie FTS imageur, combinant ainsi l'information spatiale à l'information spectrale, et ouvrant la porte à de nouvelles applications pour cet instrument de pointe. Mise à part la quantité phénoménale de données produite par un tel instrument, certains aspects fondamentaux de l'appareil, bien caractérisés pour les instruments mono-pixel, méritent une nouvelle analyse lorsqu'un détecteur de type intégrateur est utilisé. Ce mémoire de maîtrise se concentre sur l'un de ces éléments : la minimisation de la gigue d'échantillonnage des données acquises en présence de perturbations mécaniques. Cette gigue étant principalement due aux variations de vitesse du chariot du miroir en mouvement dans l'instrument, la qualité de l'information de position et de vitesse est tout d'abord améliorée afin d'obtenir un estimé plus précis de l'état du chariot. Puis, sur la base de cette connaissance fiable, deux approches générales sont analysées. Dans un premier temps, une approche de réduction de la gigue d'échantillonnage a priori (soit avant l'intégration intrinsèque à l'acquisition avec une caméra) est abordée et les performances de trois méthodes de génération des instants d'échantillonnage sont comparées, à la fois en simulation et via leur implantation dans un système réel. Dans un deuxième temps, deux algorithmes de ré-échantillonnage sont utilisés afin de corriger la grille d'échantillonnage a posteriori, soit avec la connaissance de la position d'échantillonnage du signal telle qu'estimée par le laser de référence. Pour terminer, l'analyse combinée des résultats fait ressortir la meilleure approche globale et les ressources technologiques requises pour l'implémenter.
103

Caractérisation de sources large bande dans le domaine temporel sans contraintes sur le nombre de capteurs

Villemin, Guilhem 30 October 2013 (has links) (PDF)
Cette thèse est consacrée à l'estimation des temps d'arrivée de signaux dans le cadre de la localisation active d'objets dans un contexte large bande et multitrajets sans contraintes sur le nombre de capteurs déployés. En s'inspirant des méthodes de traitement d'antenne, adaptées à l'estimation des temps d'arrivée, nous avons proposé une méthode afin d'estimer les paramètres de localisation d'un ensemble de sources ou d'objets réflecteurs d'un signal large bande connu. L'originalité de la méthode présentée réside dans le traitement spatialement incohérent des données, à savoir que l'information est traitée indépendamment sur chaque capteur. Les temps d'arrivée estimés sont ensuite associés à leurs sources respectives, ce qui permet de déterminer leurs positions géographiques. Pour s'affranchir de la corrélation des signaux reçus nous avons mis au point une méthode de lissage fréquentiel qui conserve toutefois une résolution temporelle optimale. Les performances de la méthode globale sont validées sur des données simulées et expérimentales.
104

Architectures reconfigurables à base d'opérateur CORDIC pour le traitement du signal: Applications aux récepteurs MIMO

Wang, Hongzhi 28 April 2009 (has links) (PDF)
Cette thèse porte sur la mise en œuvre des architectures reconfigurables pour répondre aux besoins des systèmes de communication : des débits élevés et une grande flexibilité supportant les évolutivités des futurs systèmes. Nous nous intéressons particulièrement aux systèmes MIMO. Les architectures proposées utilisent l'opérateur CORDIC (COordinate Rotation DIgital Computing) comme opérateur commun, ainsi que les techniques de reconfiguration statique et partielle de FPGA en vue d'une optimisation et d'une adaptation dynamique des ressources matérielles aux caractéristiques de la communication. Le nombre d'opérateurs CORDIC peut donc être modifié par la reconfiguration statique pour s'adapter aux différents récepteurs MIMO et aux différents débits demandés. Les interconnexions entre les opérateurs CORDIC peuvent être modifiées par la reconfiguration partielle et dynamique de FPGA afin d'optimiser les ressources matérielles. L'impact du nombre d'étage de l'opérateur CORDIC sur le TEB et EQM du décodeur a été étudié. Trois exemples de récepteurs MIMO ont été réalisés à l'aide cette architecture reconfigurable: V-BLAST Square Root, MMSE et CMA. L'utilisation de cette architecture permet de diminuer les ressources matérielles sans dégrader les performances du décodeur MIMO en terme de TEB et EQM.
105

Contribution à l'analyse de l'environnement sonore et à la fusion multimodale pour l'identification d'activités dans le cadre de la télévigilance médicale

Istrate, Dan 06 December 2011 (has links) (PDF)
La télévigilance médicale représente un enjeu de la société d'aujourd'hui. En effet l'espérance de vie augmente dans tous les pays industrialisés et les prévisions statistiques annoncent un nombre important de personnes âgées (17% de 60-74 ans en 2030) ou très âgées (12% de plus 75 ans en 2030). Grâce à la progression de la médecine ces personnes peuvent être maintenues plus longtemps à leur domicile mais demeurent plus fragiles et nécessitent donc des solutions techniques permettant d'améliorer leur confort et de faciliter la tâche des aidants. Ce mémoire donne une synthèse des activités de recherche menées par l'auteur dans le domaine de la télévigilance médicale. Cette recherche est structurée en deux axes : l'analyse de l'environnement sonore et la fusion de données multimodales. L'environnement sonore est très riche en informations utilisables, directement ou à travers l'analyse des activités de la personne pour détecter ou prévoir une situation de détresse. L'analyse sonore est soumise aux contraintes de l'acquisition sonore distante, à la présence des bruits provenant de l'extérieur et à la grande variabilité des sons à reconnaître. Le manuscrit décrit différentes solutions adoptées, leur mise en oeuvre et leur évaluation dans le cadre de plusieurs projets de recherche nationaux et européens. Le deuxième axe porte sur la fusion de la sortie de l'analyse sonore avec d'autres capteurs en vue d'améliorer la robustesse du système. La fusion de données doit traiter des signaux de natures différentes (signaux binaires ou continus), avec des périodicités différentes et de différentes temporalités (périodiques ou asynchrones). Deux techniques (logique floue et réseaux d'évidence) sont étudiées, adaptées et évaluées dans plusieurs projets de recherche. Le mémoire se termine avec les perspectives de recherche de l'auteur. Six publications scientifiques sont finalement annexées.
106

De l'altimétrie conventionnelle à l'altimétrie SAR/Doppler

Halimi, Abderrahim 17 October 2013 (has links) (PDF)
Depuis plus de vingt ans, les altimètres classiques comme Topex, Poseidon-2 ou Poséidon-3, ont fourni des formes d'onde qui sont utilisées pour estimer de nombreux paramètres tels que la distance entre le satellite et la scène observée, la hauteur des vagues et la vitesse du vent. L'amélioration de la qualité des paramètres altimétriques a nécessité le développement de plusieurs modèles d'échos et d'algorithmes d'estimation paramétrique. Par ailleurs, un grand effort est récemment dédié au traitement des échos côtiers afin d'analyser les mesures altimétriques le plus près possible des côtes. Cette thèse s'intéresse à la résolution de ces deux problèmes, à savoir, le traitement des formes d'onde côtières et l'amélioration de la qualité des paramètres océaniques estimés. La première partie de l'étude traite le problème des formes d'onde côtières en proposant un nouveau modèle altimétrique tenant compte de la présence éventuelle d'un pic sur l'écho altimétrique. Dans la seconde partie de notre travail, nous nous sommes intéressés à l'étude de l'altimétrie SAR/Doppler. Cette nouvelle technologie vise à réduire le bruit de mesure et à augmenter la résolution le long de la trace par rapport à l'altimétrie conventionnelle. Deux modèles altimétriques ont été développés afin d'estimer les paramètres associés aux échos SAR/Doppler. Ces modèles montrent une nette amélioration de la qualité des paramètres estimés par rapport à l'altimétrie conventionnelle.
107

Décomposition de spectrogrammes musicaux informée par des modèles de synthèse spectrale. Modélisation des variations temporelles dans les éléments sonores.

Hennequin, Romain 21 November 2011 (has links) (PDF)
Cette thèse propose de nouvelles méthodes de décomposition automatique de spectrogrammes de signaux musicaux. Les décompositions proposées sont issues de la factorisation en matrices non-négatives (NMF), puissante technique de réduction de rang réputée pour fournir une décomposition sur un petit nombre de motifs fréquentiels automatiquement extraits des données ayant généralement un sens perceptif. La NMF ne permet cependant pas de modéliser de façon efficace certaines variations temporelles d'éléments sonores non-stationnaires communément rencontrées dans la musique. Cette thèse propose donc d'introduire dans la NMF des modèles génératifs de spectrogrammes musicaux basés sur des modèles classiques de synthèse sonore afin de pouvoir prendre en compte deux types de variations courantes : les variations d'enveloppe spectrale (sons d'instruments à cordes métalliques libres...) et les variations de fréquence fondamentale (vibrato, prosodie...). L'introduction de modèles de synthèse simples dans la NMF permet de proposer des décompositions capables de prendre en compte ces variations : l'utilisation d'un modèle de synthèse source/ filtre permet de modéliser les variations spectrales de certains objets musicaux au cours du temps. L'utilisation d'un modèle d'atomes harmoniques paramétriques inspiré de la synthèse additive ou bien l'utilisation d'un modèle inspiré de la synthèse par table d'onde qui utilise des transformations d'un unique atome de base afin de recréer toute la tessiture de chaque instrument permettent de modéliser les variations de fréquence fondamentale. Une application de séparation de sources et une de transformation sélective du son sont également présentées.
108

Modélisation de signaux longs multicomposantes modulés non linéairement en fréquence et en amplitude Suivi de ces composantes dans le plan temps-fréquence

Li, Zhong-Yang 09 July 2013 (has links) (PDF)
Cette thèse propose une nouvelle méthode pour modéliser les fonctions non linéaires de modulation d'amplitude et de fréquence de signaux multicomposantes non stationnaires de durée longue. La méthode repose sur une décomposition du signal en segments courts pour une modélisation locale sur les segments. Pour initialiser la modélisation, nous avons conçu une première étape qui peut être considérée comme un estimateur indépendant et non paramétrique des fonctions de modulation. L'originalité de l'approche réside dans la définition d'une matrice de convergence totale intégrant simultanément les valeurs d'amplitude et de fréquence et utilisé pour l'association d'un pic à une composante selon un critère d'acceptation stochastique. Suite à cette initialisation, la méthode estime les fonctions de modulation par enchainement des étapes de segmentation, modélisation et fusion. Les fonctions de modulation estimées localement par maximum de vraisemblance sont connectées dans l'étape de fusion, qui supprime les discontinuités, et produit l'estimation globale sur la durée totale du signal. Les étapes sont conçues afin de pouvoir modéliser des signaux multicomposantes avec des morts et naissances, ce qui en fait une de ses originalités par rapport aux techniques existantes. Les résultats sur des signaux réels et simulés ont illustré les bonnes performances et l'adaptabilité de la méthode proposée.
109

Télédétection SAR interférométrique de zones urbaines en bande L à partir de l'utilisation des techniques d'analyse spectrale polarimétriques et multi-bases

Sauer, Stefan 19 March 2008 (has links) (PDF)
Dans cette thése, des techniques d'analyse spectrale sont généralisées afin de traiter des données polarimétriques SAR interférométriques multi-bases. Ces algorithmes polarimétriques de traitement multi-capteurs sont décrits d'une manièere mathématique rigoureuse et appliqués aux zones urbaines. Ils permettent d'estimer la hauteur des diffuseurs, le mécanisme de rétrodiffusion et la réflectivité polarimétrique. A partir des observations mono-base POLInSAR, un modèle numérique d'élévation d'une zone urbaine est généré en déterminant les mécanismes de rétrodiffusion. L'utilisation des données bi-base POL-InSAR permet de résoudre le problème de déversement et de réaliser des images SAR en trois dimensions en indiquant les types de réflexion.
110

Contrôle de santé des matériaux et structures par analyse de la coda ultrasonore

ZHANG, Yuxiang 20 September 2013 (has links) (PDF)
La coda ultrasonore présente une haute sensibilité aux perturbations du milieu de propagation. L'analyse de la coda par la Coda Wave Interferometry (CWI) permet d'évaluer précisément la variation de la vitesse de propagation (résolution en relatif de 0,001 %). Une telle évaluation peut être utilisée pour le contrôle non destructif (ECND) d'un matériau ou d'une structure.Un essai expérimental est présenté au début comme exemple d'utilisation de la CWI pour l'ECND du béton. Face aux problèmes inhérents au degré de précision de cet essai, nous présentons un protocole conçu pour améliorer la fiabilité des résultats CWI. Nous vérifions expérimenta vérifient que ce protocole peut améliorer la répétabilité de l'essai en réduisant les biais provenant des fluctuations de température ambiante et des procédures expérimentales. Avec ce protocole, une étude du comportement de béton sous un chargement uni-axial en traction directe a été effectuée en utilisant la CWI. Les comportements élastique (l'effet acoustoélastique) et anélastique (l'effet Kaiser) du béton sont observés via les résultats CWI. Un coefficient acoustoélastique effectif (Bêta) a été déterminé et utilisé pour la détection d'un endommagement léger du béton.La CWI est ensuite utilisée pour la détection globale de défauts dans un milieu initialement linéaire (verre) en observant la modulation non linéaire. L'apparition de ce phénomène non linéaire est due à la présence des défauts et détectée par la variation des résultats CWI en fonction de l'amplitude de l'onde de pompe. Nous montrons que cette méthode permet la détection des défauts et d'évaluation du niveau d'endommagement d'une manière globale sans zone aveugle.

Page generated in 0.103 seconds