• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 610
  • 255
  • 163
  • 2
  • Tagged with
  • 1033
  • 1033
  • 1033
  • 1012
  • 959
  • 952
  • 606
  • 590
  • 492
  • 399
  • 293
  • 288
  • 284
  • 144
  • 106
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Contributions à l'étude et à l'optimisation de systèmes à composantes itératives.

Poulliat, Charly 02 December 2010 (has links) (PDF)
Au cours des cinq dernières années, mes thèmes de recherche furent orientés autour des trois axes suivants : •la conception et l'optimisation asymptotique de récepteurs itératifs pour les communications numériques, comme par exemple l'analyse et l'optimisation des codes LDPC ou familles dérivées pour différents types de canaux, turbo-égalisation, décodage source-canal conjoint ; •la conception, le décodage et l'optimisation de codes définis sur les graphes pour les tailles finies, comme par exemple l'optimisation des codes LDPC non binaires à taille finie et certaines familles dérivées ou le décodage itératif non binaire de codes binaires ; •l'allocation de ressources, la conception et l'optimisation de systèmes à composantes itératives pour les canaux sans fil (par exemple système à retransmissions (HARQ) pour canaux sélectifs en fréquence, AMC pour l'ultra-large bande, protection inégale contre les erreurs et allocation de codes correcteurs).
162

Sur quelques problèmes mathématiques de modélisation parcimonieuse

Gribonval, Rémi 24 October 2007 (has links) (PDF)
Ce document est organisé en quatre chapitres dont trois rédigés en anglais et une annexe en français. Le premier chapitre décrit mes contributions dans le domaine de la séparation de sources audio, qui constituent certainement le volet le plus appliqué de mon activité scientifique, volet auquel ont contribué significativement plusieurs doctorants et collaborateurs. Les deux chapitres suivants sont consacrés aux aspects plus mathématiques de mon travail, le premier sur les approximations non-linéaires avec des dictionnaires redondants, en collaboration étroite avec Morten Nielsen, le second sur l'analyse des performances des algorithmes de décomposition parcimonieuse, avec le concours notamment de Pierre Vandergheynst. Dans ces trois chapitres, j'ai adopté un style sans doute peu conventionnel dans la littérature scientifique : j'y ai opté pour le "je" plus que le "nous" et j'ai choisi d'agrémenter le texte de divers éléments de contexte. L'annexe, dans un style plus traditionnel, reproduit le chapitre de synthèse « Séparation de sources basée sur la parcimonie » que j'ai écrit pour l'ouvrage « Séparation de Sources » coordonné par Pierre Comon et Christian Jutten dans la collection IC2 publié par Hermès.
163

Transcription et séparation automatique de la mélodie principale dans les signaux de musique polyphoniques

Durrieu, Jean-Louis 07 May 2010 (has links) (PDF)
Nous proposons de traiter l'extraction de la mélodie principale, ainsi que la séparation de l'instrument jouant cette mélodie. La première tâche appartient au domaine de la recherche d'information musicale (MIR) : nous cherchons à indexer les morceaux de musique à l'aide de leur mélodie. La seconde application est la séparation aveugle de sources sonores (BASS) : extraire une piste audio pour chaque source présente dans un mélange sonore. La séparation de la mélodie principale et de l'accompagnement et l'extraction de cette mélodie sont traitées au sein d'un même cadre statistique. Le modèle pour l'instrument principal est un modèle de production source/filtre. Il suppose deux états cachés correspondant à l'état du filtre et de la source. Le modèle spectral choisi permet de prendre compte les fréquences fondamentales de l'instrument désiré et de séparer ce dernier de l'accompagnement. Deux modèles de signaux sont proposés, un modèle de mélange de gaussiennes amplifiées (GSMM) et un modèle de mélange instantané (IMM). L'accompagnement est modélisé par un modèle spectral plus général. Cinq systèmes sont proposés, trois systèmes fournissent la mélodie sous forme de séquence de fréquences fondamentales, un système fournit les notes de la mélodie et le dernier système sépare l'instrument principal de l'accompagnement. Les résultats en estimation de la mélodie et en séparation sont du niveau de l'état de l'art, comme l'ont montré nos participations aux évaluations internationales (MIREX'08, MIREX'09 et SiSEC'08). Nous avons ainsi réussi à intégrer de la connaissance musicale améliorant les résultats de travaux antérieurs sur la séparation de sources sonores.
164

Reconnaissance d'accords à partir de signaux audio par l'utilisation de gabarits théoriques

Oudre, Laurent 03 November 2010 (has links) (PDF)
Cette thèse s'inscrit dans le cadre du traitement du signal musical, en se focalisant plus particulièrement sur la transcription automatique de signaux audio en accords. En effet, depuis une dizaine d'années, de nombreux travaux visent à représenter les signaux musicaux de la façon la plus compacte et pertinente possible, par exemple dans un but d'indexation ou de recherche par similarité. La transcription en accords constitue une façon simple et robuste d'extraire l'information harmonique et rythmique des chansons et peut notamment être utilisée par les musiciens pour rejouer les morceaux. Nous proposons deux approches pour la reconnaissance automatique d'accords à partir de signaux audio, qui offrent la particularité de se baser uniquement sur des gabarits d'accords théoriques, c'est à dire sur la définition des accords. En particulier, nos systèmes ne nécessitent ni connaissance particulière sur l'harmonie du morceau, ni apprentissage. Notre première approche est déterministe, et repose sur l'utilisation conjointe de gabarits d'accords théoriques, de mesures d'ajustement et de post-traitement par filtrage. On extrait tout d'abord des vecteurs de chroma du signal musical, qui sont ensuite comparés aux gabarits d'accords grâce à plusieurs mesures d'ajustement. Le critère de reconnaissance ainsi formé est ensuite filtré, afin de prendre en compte l'aspect temporel de la tâche. L'accord finalement détecté sur chaque trame est celui minimisant le critère de reconnaissance. Cette méthode a notamment été présentée lors d'une évaluation internationale (MIREX 2009) et a obtenu des résultats très honorables. Notre seconde approche est probabiliste, et réutilise certains éléments présents dans notre méthode déterministe. En faisant un parallèle entre les mesures d'ajustement utilisées dans l'approche déterministe et des modèles de probabilité, on peut définir un cadre probabiliste pour la reconnaissance d'accords. Dans ce cadre, les probabilités de chaque accord dans le morceau sont évaluées grâce à un algorithme Espérance-Maximisation (EM). Il en résulte la détection, pour chaque chanson, d'un vocabulaire d'accords adapté, qui permet l'obtention d'une meilleure transcription en accords. Cette méthode est comparée à de nombreux systèmes de l'état de l'art, grâce à plusieurs corpus et plusieurs métriques, qui permettent une évaluation complète des différents aspects de la tâche.
165

Hiérarchie mémoire reconfigurable faible consommation pour systèmes enfouis

Graces, Erwan 22 October 2010 (has links) (PDF)
Les progrès des technologies de la micro-électronique ont permis d'embarquer des circuits numériques dans des objets multiples et divers (téléphones, GPS, automobiles, etc.) dont ils ont enrichi les fonctionnalités et amélioré les performances à moindre coût. Conjointement, l'essor rapide et constant de ces applications a amené des contraintes de conception sans précédent (contraintes de coût, de performance, de consommation, etc.). Dans ce contexte, l'émergence des architectures reconfigurables à grain épais a ouvert la voie à de nouveaux compromis entre performances et flexibilité. À ce jour, la mise en oeuvre des mécanismes de reconfiguration matérielle a principalement concerné les aspects calculatoires de ces architectures. Or, les applications embarquées (multimédia) manipulent des volumes de données croissants, engendrant une sollicitation intensive des ressources de mémorisation. En outre, l'hétérogénéité et l'évolutivité des traitements induits ne permet plus d'envisager l'élaboration de solutions de stockage dédiées dans un objectif de performance et de maîtrise de la consommation. Aussi, dans le cadre de cette thèse, nous avons développé le modèle RTL, valide et fonctionnel, d'une architecture reconfigurable que nous avons nommé MOREA (acronyme de Memory-Oriented Reconfigurable Embedded Architecture) et dont la structure mémoire est flexible. Celle-ci est organisée en un pavage de tuiles de traitement et de stockage qui supportent les processus d'une application. Au sein d'une tuile, les tâches du processus sont exécutées par quatre clusters qui intègrent des ressources mémoire et de calcul. Ces clusters communiquent entre eux et avec une mémoire de tuile, contenant les données partagées par les tâches du processus, grâce à une interconnexion flexible de type crossbar. Dès lors, cette structure permet de minimiser les mouvements de données au sein de MOREA et notamment le nombre d'accès mémoire et donc d'en atténuer l'impact sur la puissance de calcul et la dissipation énergétique du système. De plus, les gains obtenus sont maximisés grâce à une unité de génération d'adresses programmable dont l'architecture a été définie en fonction des caractéristiques des applications de traitement du signal et de l'image. Celle-ci intègre notamment un accélérateur matériel pour la génération de séquences d'adresses régulières. Cette architecture permet dès lors, comparativement à une solution programmable classique, d'améliorer significativement les performances de l'unité de génération d'adresses, d'un facteur 6 en terme de Millions d'Adresses générées Par Seconde (MAPS), tout en réduisant drastiquement sa consommation d'énergie de 96%.
166

Vérification de l'identité d'un visage parlant.<br />Apport de la mesure de synchronie audiovisuelle face aux tentatives délibérées d'imposture.

Bredin, Hervé 13 November 2007 (has links) (PDF)
La sécurité des personnes, des biens ou des informations est l'une des préoccupations majeures de nos sociétés actuelles. L'authentification de l'identité des personnes est l'un des moyens permettant de s'en assurer. La principale faille des moyens actuels de vérification d'identité est qu'ils sont liés à ce qu'une personne possède (un passeport, un badge magnétique, etc.) et/ou ce qu'elle sait (un code PIN de carte bancaire, un mot de passe, etc.). Or, un badge peut être volé, un mot de passe deviné ou cassé par force algorithmique brute. La biométrie est le domaine technologique traitant de la vérification d'identité et/ou de l'identification de personnes par leurs caractéristiques physiques individuelles, pouvant être morphologiques ou morpho-comportementales. Elle apparaît comme une solution évidente au problème soulevé précédemment : l'identité d'une personne est alors liée à ce qu'elle est et non plus à ce qu'elle possède ou sait.<br /><br />En plus d'être une des modalités biométriques les moins intrusives et donc plus facilement acceptée par le grand public, la vérification d'identité basée sur les visages parlants est intrinsèquement multimodale : elle regroupe à la fois la reconnaissance du visage, la vérification du locuteur et une troisième modalité relevant de la synchronie entre la voix et le mouvement des lèvres.<br /><br />La première partie de notre travail est l'occasion de faire un tour d'horizon de la littérature portant sur la biométrie par visage parlant et nous soulevons le fait que les protocoles d'évaluation classiquement utilisés ne tiennent pas compte des tentatives délibérées d'imposture. Pour cela, nous confrontons un système de référence (basé sur la fusion des scores de vérification du locuteur et du visage) à quatre types d'imposture délibérée de type rejeu et mettons ainsi en évidence les faiblesses des systèmes actuels.<br /><br />Dans la seconde partie, nous proposons d'étudier la synchronie audiovisuelle entre le mouvement des lèvres acquis par la caméra et la voix acquise par le microphone de façon à rendre le système de référence robuste aux attaques. Plusieurs nouvelles mesures de synchronie basées sur l'analyse de corrélation canonique et l'analyse de co-inertie sont présentées et évaluées sur la tâche de détection d'asynchronie. Les bonnes performances obtenues par la mesure de synchronie basée sur un modèle dépendant du client nous encouragent ensuite à proposer une nouvelle modalité biométrique basée sur la synchronie audiovisuelle. Ses performances sont comparées à celle des modalités locuteur et visage et sa robustesse intrinsèque aux attaques de type rejeu est mise en évidence. La complémentarité entre le système de référence et la nouvelle modalité synchronie est soulignée et des stratégies de fusion originales sont finalement mises en place de façon à trouver un compromis entre les performances brutes du premier et la robustesse de la seconde.
167

Une nouvelle approche de mise en correspondance stéréoscopique dense par méthodes possibilistes

Rabaud, Christophe 15 July 2005 (has links) (PDF)
Ce manuscrit présente une approche novatrice du problème de la mise en correspondance dense de pixel dans les images stéréoscopiques. L'originalité de ce tra- vail repose sur l'utilisation d'un ensemble de techniques de représentation de l'imprécis et de l'incertain permettant de minimiser l'a-priori dans le processus de mise en corres- pondance. Ces techniques s'appuient sur une représentation par une partition floue de l'imprécision de la mesure de luminance induite par l'échantillonnage spatial et sur une classification duale de l'information de luminance associée à chaque pixel. Nous avons associé, à cette représentation, une modélisation de la contrainte épipolaire propre aux capteurs stéréoscopiques étalonnés permettant de prendre en compte l'imprécision des paramètres d'étalonnage. Cette représentation permet d'associer, à chaque pixel d'une des images, un domaine pondéré discret des pixels de l'autre image pouvant lui corres- pondre géométriquement et chromatiquement.Nous proposons ensuite de modifier ces distributions de possibilité en utilisant des contraintes supplémentaires, telles que l'ordre ou l'unicité, pour en augmenter la spé- cificité. Nous utilisons, pour ce faire, un processus itératif et coopératif bipolaire. C'est l'ensemble de cette démarche qui permet de minimiser l'influence de la représentation du problème sur les mesures d'appariements. La validité de notre approche est établie par des expérimentations sur des images stéréo- scopiques de synthèses et réelles dont on connait la verité terrain. Celles-ci permettent de tester le comportement de notre méthode vis-à-vis des variations d'illumination et de disparité.
168

Détection et classification des signaux non stationnaires par utilisation des ondelettes. Application aux signaux électromyographiques utérins

Chendeb, Marwa 14 March 2006 (has links) (PDF)
L'objectif de ce travail est de contribuer au développement de méthodes de choix de la meilleure base à partir d'une décomposition en paquets d'ondelettes pour la détection et la classification. Le cadre applicatif global est le choix de la meilleure base pour la détection d'événements dans le signal EMG utérin, utilisé pour la prévention des accouchements prématurés. Deux approches de modélisation sont utilisées pour mettre en évidence le contenu fréquentiel des événements. La première est fondée sur la décomposition discrète en ondelettes, la deuxième sur la décomposition en paquets d'ondelettes. La distance de Kullback Leibler est utilisée comme un critère du choix de la meilleure base pour la détection. La détection est effectuée sur les coefficients des paquets sélectionnés. Un décalage est généré différemment sur chaque paquet d'où la nécessité de redéfinir les vraies valeurs des instants de changement et d'appliquer une procédure de fusion pour avoir ensuite un seul instant de détection correspondant au signal original. Le choix des paquets les plus discriminants pour la classification est traité. Les événements détectés sont identifiés "physiologiquement" en utilisant les méthodes de K Plus Proches Voisins, la distance de Mahalanobis, les réseaux de neurones et les Machines à Vecteurs Support. Plus de 85% des événements ont été bien classifiés.
169

Stratégies de MIMO coopératif pour les réseaux de capteurs sans fil contraints en énergie

Nguyen, Tuan-Duc 15 May 2009 (has links) (PDF)
Dans les réseaux sans fil distribués où plusieurs antennes ne peuvent pas être intégrées dans un même nœud de communication, les techniques MIMO (Multiple Input Multiple Output) coopératives permettent d'exploiter le gain de la diversité spatio-temporelle pour augmenter les performances ou réduire l'énergie consommée pour les communications. Dans cette thèse, des stratégies MIMO coopératives sont proposées pour les réseaux de capteurs sans fil (RCS), où la consommation d'énergie est la contrainte la plus importante. Leur avantage en termes de taux d'erreur et de consommation d'énergie sur les techniques mono-antenne (SISO), même multi-étapes, et sur les techniques de relais, est clairement mis en évidence. Une sélection du nombre d'antennes d'émission et de réception, optimale en termes d'efficacité énergétique, est également proposée en fonction des distances de transmission. Les inconvénients du MIMO coopératif, comme les imperfections de synchronisation à l'émission ou les bruits additifs en réception, qui affectent leurs performances dans les réseaux sans fil distribués, sont abordés. Deux nouvelles techniques de réception coopérative basées sur le principe de relais, ainsi qu'une nouvelle technique de combinaison spatio-temporelle sont proposées afin d'augmenter l'efficacité énergique de ces systèmes MIMO coopératifs. Enfin, des comparaisons de performance et de consommation d'énergie entre les techniques MIMO coopératives et de relais montrent que leur utilisation dépend beaucoup de la topologie du réseau et de l'application. Une stratégie d'association est proposée pour exploiter simultanément les avantages des deux techniques de coopération.
170

Apport du filtrage particulaire au recalage altimétrique dans un contexte de navigation hybridée

Flament, Mathieu 02 December 2009 (has links) (PDF)
Un système de navigation hybridée associe plusieurs moyens de positionnement afin d'augmenter la précision, la disponibilité, et la fiabilité de l'information délivrée. Cette thèse se focalise sur l'association d'une centrale inertielle et de mesures radio-altimétriques pour la navigation des aéronefs (drones, missiles). La problématique consiste à fusionner de manière optimale les informations inertielles et les mesures du radio-altimètre. Ce problème se formule comme une opération de filtrage non-linéaire, la non-linéarité résultant du profil arbitraire du terrain survolé. On se propose dans le cadre de la thèse d'évaluer les performances de l'algorithme de filtrage particulaire. Cet algorithme, bien qu'encore très peu utilisé pour des applications industrielles à cause de la lourdeur des calculs qu'il engendre, suscite un intérêt croissant avec l'augmentation constante des capacités de calcul des processeurs. Cette étude s'est concentrée à la fois sur le contexte applicatif (principe de la navigation inertielle, modélisation des imperfections des senseurs inertiels, description des algorithmes actuellement utilisés, principe de la mesure radio-altimétrique) et sur la théorie du filtrage particulaire. Ceci a permis de préciser les apports potentiels du filtrage particulaire par rapport aux autres algorithmes plus classiques (filtre à grille, filtre de Kalman étendu, unscented Kalman filter). L'expérience acquise sur les différentes variantes du filtre particulaire a permis de proposer des solutions satisfaisant au mieux le cahier des charges imposé par le contexte applicatif.

Page generated in 0.1391 seconds