Spelling suggestions: "subject:"traitement dde designal"" "subject:"traitement dde absignal""
331 |
Modélisation, exploration et estimation de la consommation pour les architectures hétérogènes reconfigurables dynamiquementBonamy, Robin 12 July 2013 (has links) (PDF)
L'utilisation des accélérateurs reconfigurables, pour la conception de system-on-chip hétérogènes, offre des possibilités intéressantes d'augmentation des performances et de réduction de la consommation d'énergie. En effet, ces accélérateurs sont couramment utilisés en complément d'un (ou de plusieurs) processeur(s) pour permettre de décharger celui-ci (ceux-ci) des calculs intensifs et des traitements de flots de données. Le concept de reconfiguration dynamique, supporté par certains constructeurs de FPGA, permet d'envisager des systèmes beaucoup plus flexibles en offrant notamment la possibilité de séquencer temporellement l'exécution de blocs de calcul sur la même surface de silicium, réduisant alors les besoins en ressources d'exécution. Cependant, la reconfiguration dynamique n'est pas sans impact sur les performances globales du système et il est difficile d'estimer la répercussion des décisions de configuration sur la consommation d'énergie. L'objectif principal de cette thèse consiste à proposer une méthodologie d'exploration permettant d'évaluer l'impact des choix d'implémentation des différentes tâches d'une application sur un system-on-chip contenant une ressource reconfigurable dynamiquement, en vue d'optimiser la consommation d'énergie ou le temps d'exécution. Pour cela, nous avons établi des modèles de consommation des composants reconfigurables, en particulier les FPGAs, qui permettent d'aider le concepteur dans son design. À l'aide d'une méthodologie de mesure sur Virtex-5, nous montrons dans un premier temps qu'il est possible de générer des accélérateurs matériels de tailles variées ayant des performances temporelles et énergétiques diverses. Puis, afin de quantifier les coûts d'implémentation de ces accélérateurs, nous construisons trois modèles de consommation de la reconfiguration dynamique partielle. Finalement, à partir des modèles définis et des accélérateurs produits, nous développons un algorithme d'exploration des solutions d'implémentation pour un système complet. En s'appuyant sur une plate-forme de modélisation à haut niveau, celui-ci analyse les coûts d'implémentation des tâches et leur exécution sur les différentes ressources disponibles (processeur ou région configurable). Les solutions offrant les meilleures performances en fonction des contraintes de conception sont retenues pour être exploitées.
|
332 |
Démélange non-linéaire d'images hyperspectralesAltmann, Yoann 07 October 2013 (has links) (PDF)
Le démélange spectral est un des sujets majeurs de l'analyse d'images hyperspectrales. Ce problème consiste à identifier les composants macroscopiques présents dans une image hyperspectrale et à quantifier les proportions (ou abondances) de ces matériaux dans tous les pixels de l'image. La plupart des algorithmes de démélange suppose un modèle de mélange linéaire qui est souvent considéré comme une approximation au premier ordre du mélange réel. Cependant, le modèle linéaire peut ne pas être adapté pour certaines images associées par exemple à des scènes engendrant des trajets multiples (forêts, zones urbaines) et des modèles non-linéaires plus complexes doivent alors être utilisés pour analyser de telles images. Le but de cette thèse est d'étudier de nouveaux modèles de mélange non-linéaires et de proposer des algorithmes associés pour l'analyse d'images hyperspectrales. Dans un premier temps, un modèle paramétrique post-non-linéaire est étudié et des algorithmes d'estimation basés sur ce modèle sont proposés. Les connaissances a priori disponibles sur les signatures spectrales des composants purs, sur les abondances et les paramètres de la non-linéarité sont exploitées à l'aide d'une approche bayesienne. Le second modèle étudié dans cette thèse est basé sur l'approximation de la variété non-linéaire contenant les données observées à l'aide de processus gaussiens. L'algorithme de démélange associé permet d'estimer la relation non-linéaire entre les abondances des matériaux et les pixels observés sans introduire explicitement les signatures spectrales des composants dans le modèle de mélange. Ces signatures spectrales sont estimées dans un second temps par prédiction à base de processus gaussiens. La prise en compte d'effets non-linéaires dans les images hyperspectrales nécessite souvent des stratégies de démélange plus complexes que celles basées sur un modèle linéaire. Comme le modèle linéaire est souvent suffisant pour approcher la plupart des mélanges réels, il est intéressant de pouvoir détecter les pixels ou les régions de l'image où ce modèle linéaire est approprié. On pourra alors, après cette détection, appliquer les algorithmes de démélange non-linéaires aux pixels nécessitant réellement l'utilisation de modèles de mélange non-linéaires. La dernière partie de ce manuscrit se concentre sur l'étude de détecteurs de non-linéarités basés sur des modèles linéaires et non-linéaires pour l'analyse d'images hyperspectrales. Les méthodes de démélange non-linéaires proposées permettent d'améliorer la caractérisation des images hyperspectrales par rapport au méthodes basées sur un modèle linéaire. Cette amélioration se traduit en particulier par une meilleure erreur de reconstruction des données. De plus, ces méthodes permettent de meilleures estimations des signatures spectrales et des abondances quand les pixels résultent de mélanges non-linéaires. Les résultats de simulations effectuées sur des données synthétiques et réelles montrent l'intérêt d'utiliser des méthodes de détection de non-linéarités pour l'analyse d'images hyperspectrales. En particulier, ces détecteurs peuvent permettre d'identifier des composants très peu représentés et de localiser des régions où les effets non-linéaires sont non-négligeables (ombres, reliefs,...). Enfin, la considération de corrélations spatiales dans les images hyperspectrales peut améliorer les performances des algorithmes de démélange non-linéaires et des détecteurs de non-linéarités.
|
333 |
Analyse spectrale à haute résolution et décompositions non-négatives appliquées au traitement des signaux de musiqueBadeau, Roland 30 November 2010 (has links) (PDF)
Mes travaux de recherche portent sur le traitement des sons et de la musique, dont ils visent à extraire une représentation révélant leurs structures temporelles et spectrales. Diverses applications musicales ont été abordées, allant de la transcription automatique de musique à la séparation de sources, en passant par le codage audio. Une partie importante de ces recherches a été menée dans le cadre du projet ANR DESAM (Décompositions en Éléments Sonores et Applications Musicales), que j'ai coordonné de novembre 2006 à février 2010. Analyse spectrale à haute résolution. La première partie de mes travaux a été initiée dans le cadre de ma thèse, démarrée en septembre 2001 et soutenue en avril 2005, dont la finalité a été l'application des méthodes d'analyse spectrale à haute résolution au traitement des signaux audio et musicaux. Nous avons d'abord généralisé le modèle de signal sous-jacent et la méthode d'estimation et proposé une nouvelle technique de sélection de l'ordre du modèle. Par ailleurs, le nombre élevé de composantes fréquentielles et la forte dynamique spectrale des signaux audio ont nécessité de mettre en oeuvre des prétraitements adéquats et leur non-stationnarité a exigé de développer des méthodes adaptatives permettant de suivre les variations temporelles de chaque composante, en utilisant des algorithmes de poursuite de sous-espace. Ces outils ont été intégrés à la boîte à outils Matlab du projet DESAM et appliqués à la représentation temps-fréquence à haute résolution de signaux audio, à la séparation des composantes tonales et bruitées et à la synthèse avec effets sonores. A la suite de ma thèse, diverses applications musicales de ces méthodes ont été réalisées dans le cadre de collaborations avec des chercheurs et doctorants de laboratoires français ou étrangers : estimation de hauteur de notes de piano (thèse de Valentin Emiya à Télécom ParisTech), estimation de tempo musical (thèse de Miguel Alonso à Télécom ParisTech), analyse des modes couplés d'une harpe de concert (thèse de Jean-Loïc Le Carrou au LAUM, Le Mans) et codage audio (projet DESAM, collaboration avec le LMA, Marseille). D'autres applications ont également été réalisées, comme l'estimation de canal dans le domaine des communications numériques (collaboration avec l'université de Mondragón en Espagne) ou la factorisation de tenseurs structurés (collaboration avec le LSS, Gif-sur-Yvette). Décompositions non-négatives. La deuxième partie de mes travaux constitue une thématique nouvelle de- puis ma thèse, dont les différents aspects ont notamment été abordés avec les cinq doctorants que j'ai co-encadrés (Valentin Emiya, Nancy Bertin, Romain Hennequin, Benoît Fuentes et Antoine Liutkus). Elle s'intéresse à la décomposition de signaux audio à partir d'une représentation spectrale ou d'une représentation temps-fréquence, dans le but d'en extraire des éléments sonores possédant un sens musical, comme des notes de musique ou des accords. Ces décompositions prennent en compte différents critères : non-négativité de la représentation et des éléments sonores, critères psycho-acoustiques, harmonicité du spectre, régularité de l'enveloppe spectrale, régularité de l'enveloppe temporelle, variations temporelles de l'enveloppe spectrale, variations temporelles de la fréquence fondamentale. Elles s'appuient sur des extensions de la factorisation en matrices non-négatives, exprimées dans le formalisme de l'estimation bayésienne, qui permet de contraindre la décomposition en introduisant des modèles paramétriques appropriés ou des distributions a priori des paramètres. Les décompositions sont calculées à l'aide d'algorithmes multiplicatifs, dont nous avons étudié et amélioré les propriétés de convergence, ou d'algorithmes de type espérance-maximisation. Ces outils ont été appliqués à l'estimation de fréquences fondamentales multiples et à la transcription automatique de la musique. Ils ont également été intégrés à la boîte à outils Matlab du projet DESAM et leur évaluation a conduit au développement de la base de données MAPS (MIDI aligned piano sounds). Ils ont enfin été appliqués à la séparation informée des différentes sources sonores mixées dans un enregistrement stéréophonique.
|
334 |
Solutions algorithmiques pour des applications d'acquisition parcimonieuse en bio-imagerie optiqueLe Montagner, Yoann 12 November 2013 (has links) (PDF)
Ces dernières années, la théorie mathématique de l'échantillonnage compressé (compressed sensing, CS) a émergé en tant que nouvel outil en traitement d'images, permettant notamment de dépasser certaines limites établies par la théorie de l'échantillonnage de Nyquist. En particulier, la théorie du CS établit qu'un signal (une image, une séquence vidéo, etc.) peut être reconstruit à partir d'un faible nombre de mesures linéaires non-adaptatives et aléatoires, pourvu qu'il présente une structure parcimonieuse. Dans la mesure où cette hypothèse se vérifie pour une large classe d'images naturelles, plusieurs applications d'imagerie ont d'ores-et-déjà bénéficié à des titres divers des résultats issus de cette théorie. Le but du travail doctoral présent est d'étudier comment la théorie du CS - et plus généralement les idées et méthodes en relation avec les problèmes de reconstruction de signaux parcimonieux (sparse) - peuvent être utilisés pour concevoir des dispositifs d'acquisition optiques à haute-résolution spatiale et temporelle pour des applications en imagerie biologique. Nous étudions tout d'abord quelques questions pratiques liées à l'étape de reconstruction nécessairement associée aux systèmes d'acquisition exploitant le CS, ainsi qu'à la sélection des paramètres d'échantillonnage. Nous examinons ensuite comment le CS peut être utilisé dans le cadre d'applications d'échantillonnage de signaux vidéo. Enfin, avec dans l'idée l'utilisation dans des problèmes de débruitage de méthodes inspirées du CS, nous abordons la question de l'estimation d'erreur dans les problèmes de débruitage d'images acquises en conditions de faible luminosité, notamment dans le cadre d'applications de microscopie.
|
335 |
Traitements des signaux circulaires appliqués à l'altimétrie par la phase des signaux GNSSGeorges, Stienne 02 December 2013 (has links) (PDF)
Lorsqu'une grandeur est observée par une série temporelle de mesures périodiques, telles que des mesures d'angles, les outils statistiques du domaine linéaire ne sont plus adaptés à l'estimation des paramètres statistiques de cette série. Nous proposons des filtres et un opérateur de fusion adaptés aux grandeurs aléatoires circulaires. Ils sont développés dans un cadre bayésien avec la distribution circulaire normale de von Mises. De plus, on propose un estimateur circulaire GLR (Global Likelihood Ratio) de ruptures dans un signal angulaire s'appuyant sur un filtre particulaire défini dans le domaine circulaire. Le traitement des signaux GNSS repose traditionnellement sur l'estimation récursive, en boucles fermées, de trois paramètres : le délai de code, la phase et la fréquence de la porteuse du signal reçu. On montre dans cette thèse que l'estimation de la phase et de la fréquence en boucle fermée est à l'origine d'imprécisions et de perturbations additionnelles. On propose une nouvelle approche pour l'estimation de ces paramètres en boucle ouverte. Dans ce cas, les mesures de phase sont des angles, définis entre −pi et pi . Statistiquement, elles peuvent être modélisées par la distribution circulaire de von Mises et l'on utilise donc les outils d'estimation circulaire développés dans cette thèse pour les traiter. On montre l'intérêt de l'approche proposée pour le positionnement et pour l'altimétrie par réflectométrie des signaux GNSS. La précision obtenue est de l'ordre du centimètre, pour des durées d'intégration d'une milliseconde. On propose également une technique de résolution de l'ambiguïté de phase, utilisable dans une approche mono-récepteur et mono-fréquence.
|
336 |
Approches radiométriques et géométriques pour l'extraction de bâtiments en imagerie satellitaire optique et RSO haute résolutionBARTHELET, Edouard 05 June 2013 (has links) (PDF)
Les travaux réalisés dans le cadre de cette thèse sont relatifs à l'extraction tridimensionnelle de bâtiments à partir d'images satellitaires optiques et RSO haute et très haute résolution. Une étude des effets géométriques liés à la projection des bâtiments dans les images optiques et RSO est tout d'abord menée. Dans le cadre de cette étude, la signature géométrique d'un bâtiment dans une image est définie. Elle correspond à l'ensemble des structures géométriques de l'image caractéristiques de la présence du bâtiment et peut être décrite, de manière équivalente, par un ensemble de régions ou de segments dans l'image. À l'issue de cette étude, des méthodes sont développées pour simuler la signature géométrique des bâtiments dans les images. Deux méthodes, qui s'appuient sur les méthodes de simulation précédemment établies, sont ensuite proposées pour l'extraction des bâtiments en monoscopie optique et RSO. Ces méthodes, dont les performances sont évaluées sur données simulées et sur données réelles, répondent aux exigences suivantes : - prise en compte de la complexité géométrique et radiométrique inhérente aux images de télédétection haute et très haute résolution en milieu urbain ; - applicabilité des approches développées aussi bien en imagerie optique que RSO, afin de faciliter leur mise en oeuvre dans un contexte multicapteur.
|
337 |
Caractérisation spatio-temporelle de l'électrocardiogramme de surface pour prédire le résultat de l'ablation par cathéter de la fibrillation atriale persistanteMeo, Marianna 12 December 2013 (has links) (PDF)
Responsable d'un quart des accidents vasculaires cérébraux, la fibrillation auriculaire (FA) est l'arythmie cardiaque la plus répandue. La thérapie d'ablation par cathéter (CA) est de plus en plus utilisée pour traiter la FA, mais ses effets sur le substrat cardiaque ne sont pas suffisamment compris, d'où un taux de réussite très variable. L'électrocardiogramme (ECG) à 12 voies représente un outil non invasif peu coûteux pour caractériser la FA à partir de l'activité électrique du cœur. Cependant, les prédicteurs classiques de l'issue de la CA présentent plusieurs inconvénients, notamment leur calcul manuel sur une seule voie de l'ECG. Cette thèse exploite explicitement le caractère multi-capteur de l'ECG au moyen de techniques de décomposition multivariées, démontrant qu'elles peuvent améliorer la puissance prédictive de certaines propriétés de l'ECG dans le cadre de la CA. L'amplitude des ondes fibrillatoires est corrélée avec le résultat de la CA, et traitée par une méthode multi-capteur basée sur l'analyse en composantes principales (PCA). Des variantes comme la PCA pondérée (WPCA) et la factorisation en matrices non négatives (NMF) peuvent aussi quantifier la variabilité spatio-temporelle de la FA sur l'ECG. La théorie de l'information permet également d'estimer le niveau de corrélation entre les voies de l'ECG, mis en relation avec le résultat de la CA grâce à des approches multi-capteurs. Enfin, une dernière ligne de recherche concerne la réponse ventriculaire manifestée sur la variabilité cardiaque. L'approche paramétrique de processus ponctuel est capable de souligner certaines propriétés de cette variabilité, améliorant ainsi la caractérisation de la FA.
|
338 |
Contributions en segmentation statistique d'images et reconnaissance de formes 2DDerrode, Stéphane 29 April 2008 (has links) (PDF)
Ce mémoire retrace les activités de recherche que j'ai développées depuis 9 années dont 7 passées au sein de l'équipe Groupe Signaux Multidimensionnels de l'Institut Fresnel et à l'École Centrale Marseille. Les travaux que je présente explorent certains aspects de la segmentation statistique d'images pour des applications en imagerie spatiale et de la description invariante de formes 2D pour la reconnaissance d'objets en imagerie vidéo. Plus précisément, la première partie de ce document expose plusieurs extensions du modèle des chaînes de Markov cachées (CMC). Ces extensions portent sur des modifications soit de la modélisation des données observées avec le modèle de chaîne de Markov vectorielle et des données cachées avec le modèle de chaîne de Markov floue, soit de la topologie de la chaîne -et donc des hypothèses de dépendance statistique sous-jacentes-, aboutissant aux modèles appelés chaîne de Markov d'ordre supérieur et chaîne de Markov couple. Ces modèles sont évalués dans le cadre de la segmentation d'images radar et de la détection de changements lors de catastrophes naturelles. La seconde partie traite de la reconnaissance de formes 2D, avec pour thème centrale l'invariance géométrique. Dans un premier temps nous avons proposé de nouvelles familles complètes de descripteurs de forme invariants aux similitudes issues de la transformée de Fourier-Mellin et des moments complexes, pour des applications d'indexation de bases d'objets à niveaux de gris. La suite des travaux s'est orientée vers la détection d'objets avec l'intégration d'un a priori de forme invariant aux similitudes dans le modèle des snakes et la poursuite d'objets d'intérêt dans les séquences vidéo par un modèle de mélange de couleurs non gaussien. Le document se conclut avec les perspectives que je compte donner à mes recherches, notamment les projets combinant segmentation d'images et reconnaissance de formes, dans le cadre des images très haute résolution des futurs capteurs optique et radar qui permettent d'accéder à des données sub-métriques.
|
339 |
Détection, suivi et ré-identification de personnes à travers un réseau de caméra vidéoSouded, Malik 20 December 2013 (has links) (PDF)
Cette thèse CIFRE est effectuée dans un contexte industriel et présente un framework complet pour la détection, le suivi mono-caméra et de la ré-identification de personnes dans le contexte multi-caméras. Les performances élevés et le traitement en temps réel sont les deux contraintes critiques ayant guidé ce travail. La détection de personnes vise à localiser/délimiter les gens dans les séquences vidéo. Le détecteur proposé est basé sur une cascade de classifieurs de type LogitBoost appliqué sur des descripteurs de covariances. Une approche existante a fortement été optimisée, la rendant applicable en temps réel et fournissant de meilleures performances. La méthode d'optimisation est généralisable à d'autres types de détecteurs d'objets. Le suivi mono-caméra vise à fournir un ensemble d'images de chaque personne observée par chaque caméra afin d'extraire sa signature visuelle, ainsi qu'à fournir certaines informations du monde réel pour l'amélioration de la ré-identification. Ceci est réalisé par le suivi de points SIFT à l'aide d'une filtre à particules, ainsi qu'une méthode d'association de données qui infère le suivi des objets et qui gère la majorité des cas de figures possible, notamment les occultations. Enfin, la ré-identification de personnes est réalisée avec une approche basée sur l'apparence globale en améliorant grandement une approche existante, obtenant de meilleures performances tout en étabt applicable en temps réel. Une partie "conscience du contexte" est introduite afin de gérer le changement d'orientation des personnes, améliorant les performances dans le cas d'applications réelles.
|
340 |
Diagnostic de groupes électrogènes diesel par analyse de la vitesse de rotation du vilebrequinDesbazeille, Mathieu 02 July 2010 (has links) (PDF)
Cette thèse porte sur le diagnostic d'un moteur diesel vingt cylindres entraînant un groupe électrogène de secours de centrale nucléaire. L'objectif est de réaliser un diagnostic de ce moteur à partir d'une mesure des fluctuations de vitesse du vilebrequin. L'étude s'est focalisée sur les défauts affectant le processus de combustion. Du fait des dimensions imposantes du moteur, les premiers modes de torsion du vilebrequin sont situés dans les basses fréquences. La superposition des ondes de torsion au déplacement du vilebrequin en tant que corps rigide complique considérablement l'analyse du signal. Peu de travaux ont ainsi été entrepris sur un moteur aussi gros. Dans cette thèse, un modèle dynamique en torsion du vilebrequin sous l'hypothèse d'élasticité de celui-ci est tout d'abord établi. Les paramètres de ce modèle sont optimisés afin de reproduire au mieux la réponse en vitesse réelle du vilebrequin. Une méthode de diagnostic originale basée sur une reconnaissance de formes du signal de vitesse est ensuite proposée. En ffet, du fait de l'excitation des premiers modes de torsion, la réponse en vitesse du système présente une signature distincte en fonction du cylindre défectueux. Les formes types, représentatives des différents modes de fonctionnement du moteur, sont obtenues à partir du modèle précédemment établi et non à partir d'essais expérimentaux constituant ainsi la principale originalité de ce travail. Les résultats obtenus en phase opérationnelle sont encourageants. Un défaut réel de combustion a été correctement diagnostiqué incluant la détection du défaut, la localisation du cylindre défectueux ainsi que la quantification de la sévérité du défaut.
|
Page generated in 0.0973 seconds