• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 365
  • 211
  • 190
  • Tagged with
  • 770
  • 770
  • 519
  • 397
  • 375
  • 349
  • 348
  • 335
  • 332
  • 314
  • 311
  • 301
  • 298
  • 93
  • 69
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Transcription automatique de la musique de piano

Emiya, Valentin 10 October 2008 (has links) (PDF)
La transcription automatique de la musique (TAM) s'inscrit dans le champ de l'indexation audio et de la recherche d'informations musicales. Elle vise à extraire l'information relative aux notes jouées - début, fin, hauteur - dans un enregistrement numérique. Cette thèse aborde la TAM dans le cadre du piano, instrument difficile à transcrire par les systèmes actuels et qui occupe une place majeure d'instrument solo dans la musique occidentale. La problématique générale de la TAM étant vaste et complexe, nous exploitons certains aspects spécifiques du piano pour spécialiser la tâche, tout en abordant des thématiques générales comme l'estimation de fréquences fondamentales (F0) ou l'évaluation. Nous étudions tout d'abord la caractérisation spectrale des sons de piano pour la transcription à travers la distribution inharmonique des partiels, la modélisation de l'enveloppe spectrale des notes et celle du bruit. Nous proposons ensuite une méthode d'estimation de F0 isolées performante dans des conditions d'analyse difficiles qui sont réunies dans le cas du piano: les contraintes d'une fenêtre d'analyse courte et d'un registre étendu. L'estimation de F0 multiples et du degré de polyphonie est abordée via une modélisation conjointe paramétrique (autorégressive/à moyenne ajustée). Cette méthode spectrale s'intègre dans un système de TAM pour le piano analysant tout enregistrement avec des limites raisonnables en termes de polyphonie, de vélocité et de tessiture. Enfin, nous proposons de nouvelles métriques d'évaluation des transcriptions, un cadre d'évaluation de la qualité des métriques et une base de données de sons de piano pour l'estimation de F0 multiples et la TAM.
162

Modèles Parcimonieux et Optimisation Convexe pour la Séparation Aveugle de Sources Convolutives

Sudhakara Murthy, Prasad 21 February 2011 (has links) (PDF)
La séparation aveugle de sources à partir de mélanges sous-déterminés se fait traditionnellement en deux étapes: l'estimation des filtres de mélange, puis celle des sources. L'hypothèse de parcimonie temps-fréquence des sources facilite la séparation, qui reste cependant difficile dans le cas de mélanges convolutifs à cause des ambiguités de permutation et de mise à l'échelle. Par ailleurs, la parcimonie temporelle des filtres facilite les techniques d'estimation aveugle de filtres fondées sur des corrélations croisées, qui restent cependant limitées au cas où une seule source est active. Dans cette thèse, on exploite conjointement la parcimonie des sources et des filtres de mélange pour l'estimation aveugle de filtres parcimonieux à partir de mélanges convolutifs stéréophoniques de plusieurs sources. Dans un premier temps, on montre comment la parcimonie des filtres permet de résoudre le problème de permutation, en l'absence de problème de mise à l'échelle. Ensuite, on propose un cadre constitué de deux étapes pour l'estimation, basé sur des versions temps-fréquence de la corrélation croisée et sur la minimisation de norme ℓ1: a) un clustering qui regroupe les points temps-fréquence où une seule source est active; b) la résolution d'un problème d'optimisation convexe pour estimer les filtres. La performance des algorithmes qui en résultent est évalués numériquement sur des problèmes de filtre d'estimation de filtres et de séparation de sources audio.
163

Etude de faisabilité d'un lidar Rayleigh-Mie pour la mesure à courte distance de la vitesse de l'air de sa température et de sa densité.

Cezard, Nicolas 16 May 2008 (has links) (PDF)
Le lidar (acronyme de Light Detection and Ranging) est un instrument couramment utilisé de nos jours pour la caractérisation des propriétés physico-chimiques de l'atmosphère. Dans le domaine de l'aéronautique, on pourrait l'employer pour caractériser l'atmosphère amont d'un aéronef porteur. Parmi les applications courte-portée, citons l'optimisation du vol ou la détection de turbulence. Le principe du lidar consiste à émettre un faisceau laser dans l'atmosphère pour analyser le signal rétrodiffusé. En général, deux types de signaux coexistent, aux propriétés spectrales très différentes : le signal Rayleigh, diffusé par les molécules de l'air, et le signal Mie, diffusé par les particules plus massives (poussières, aérosols...). Ce travail de thèse évalue la faisabilité d'un lidar mixte Rayleigh-Mie, capable d'exploiter simultanément les deux types de signaux. L'objectif est la mesure à courte portée (20-50 m) des paramètres de vitesse, température et densité de l'air. Le point d'étude essentiel concerne la méthode d'analyse spectrale du signal : un système utilisant deux interféromètres de Michelson à imagerie de franges est notamment proposé, et ses performances comparées avec celle de l'interféromètre de Fabry-Perot, plus classique. La faisabilité de la mesure de vitesse par interféromètre de Michelson à imagerie de franges est expérimentalement démontrée. Pour cela, un système lidar à 355 nm a été développé, et une méthode de traitement de signal spécifiquement conçue pour l'analyse des franges. On montre que des mesures robustes peuvent être réalisées en plein jour, insensibles aux dérives de fréquence du laser et aux perturbations thermo-mécaniques de l'interféromètre.
164

Représentations parcimonieuses adaptées à la compression d'images

Martin, Aurélie 02 April 2010 (has links) (PDF)
La compression numérique est devenue un outil indispensable pour la transmission et le stockage de contenus multimédias de plus en plus volumineux. Pour répondre à ces besoins, la norme actuelle de compression vidéo, H.264/AVC, se base sur un codage prédictif visant à réduire la quantité d'information à transmettre. Une image de prédiction est générée, puis soustraite à l'originale pour former une image résiduelle contenant un minimum d'information. La prédiction H.264/AVC de type intra repose sur la propagation de pixels voisins, le long de quelques directions prédéfinies. Bien que très efficace pour étendre des motifs répondants aux mêmes caractéristiques, cette prédiction présente des performances limitées pour l'extrapolation de signaux bidimensionnels complexes. Pour pallier cette problématique, les travaux de cette thèse proposent un nouveau schéma de prédiction basée sur les représentations parcimonieuses. Le but de l'approximation parcimonieuse est ici de rechercher une extrapolation linéaire approximant le signal analysé en termes de fonctions bases, choisies au sein d'un ensemble redondant. Les performances de cette approche ont été éprouvées dans un schéma de compression basé sur la norme H.264/AVC. Nous proposons également un nouveau schéma de prédiction spatiale inter-couches dans le cadre de la compression « scalable » basé sur H.264/SVC. Le succès de telles prédictions repose sur l'habileté des fonctions de base à étendre correctement des signaux texturés de natures diverses. Dans cette optique, nous avons également exploré des pistes visant la création de panels de fonctions de base, adaptées pour la prédiction de zones texturées.
165

Vers une solution réaliste de décodage source-canal conjoint de contenus multimédia

Marin, Cédric 27 March 2009 (has links) (PDF)
Lors d'une transmission vidéo sur les réseaux mobiles, les données doivent être efficacement comprimées pour s'adapter à la bande passante réduite du support. Cependant, plus un flux multimédia est comprimé, plus il est sensible aux erreurs de transmission. Pour garantir un signal exempt d'erreur à l'entrée du décodeur source, plusieurs mécanismes sont incorporés dans le récepteur. Ces techniques consistent principalement à retransmettre les paquets erronés et/ou à rajouter des redondances aux données transmises. Ces méthodes sont efficaces, mais entraînent une consommation excessive de ressources. Récemment, le concept de décodage conjoint a été proposé. Il consiste à utiliser les redondances inhérentes contenues dans les informations transmises pour améliorer la qualité du décodage multimédia. Dans cette thèse, nous explorons cet axe et proposons un nouveau schéma de décodage conjoint exploitant les propriétés sémantiques et syntaxiques du flux ainsi que les codes de détection d'erreurs (CRC) protégeant les paquets. Parallèlement, nous étudions les problématiques d'intégration des schémas de décodage conjoint dans les récepteurs traditionnels et nous montrons que de nombreuses modifications sont nécessaires. Nous proposons ensuite un principe universel permettant de résoudre simplement les difficultés en exploitant différemment la structure protocolaire. Ces techniques ont été testées en considérant une transmission vidéo H.264/AVC point-à-point sur un support WiFi. Les résultats obtenus ont confirmé l'intérêt du décodage robuste par une amélioration significative du bilan de liaison.
166

Turbo equalization and turbo estimation for multiple-input multiple-output wireless systems

Wautelet, Xavier 13 September 2006 (has links)
In the nineties, two major events brought about a revolution in the field of digital communications: the invention of turbo codes and the development of multiple-input multiple-output (MIMO) wireless systems. The turbo codes are error-correcting codes which enable communication systems to operate close to the channel capacity with a reasonable complexity. Multiple-antenna transceivers, a.k.a. MIMO wireless systems, mitigate the effect of multipath fading that occurs in most terrestrial wireless communications. MIMO transmissions are more reliable than single-input single-output transmissions. Moreover, the data rate achievable by MIMO systems is also much higher. This thesis combines these two recent breakthroughs in digital communications. Iterative decoding is a key factor in the success of turbo codes. This principle has proved to be so powerful that it has soon been applied to other schemes such as iterative channel equalization, also known as turbo equalization. In the first part of this thesis, we derived a low-complexity iterative equalizer for frequency-selective MIMO channels. Its robustness against channel estimation errors was also addressed. The second part of this thesis is devoted to the estimation of the channel impulse response and the noise variance for coded transmissions over MIMO channels. We proposed several new iterative estimators based on the expectation-maximization algorithm, the expectation-conditionalmaximization algorithm and the minimum mean square error criterion. Finally, we derived lower bounds on the mean square error of channel estimators. In particular, the Cramer-Rao bound for the estimation of frequency-selective MIMO channels were computed. We mainly investigated the case where no training sequence are transmitted and the case where the receiver has a partial knowledge of the transmitted sequence.
167

Utilisation de la détection cohérente pour les systèmes de transmission optique à 40 GB/s ET 100 GB/s

Bertran Pardo, Oriol 10 September 2010 (has links) (PDF)
La prochaine génération d'infrastructures de communication par fibre optique comprendra des systèmes de transmission longue distance avec du multiplexage en longueur d'onde (WDM) à 40 et 100 Gb / s, et sera très probablement basée sur la détection cohérente. Le travail de thèse décrit dans ce manuscrit étudie ces systèmes. Nous démontrons d'abord leur tolérance inégalée à des effets physiques linéaires de propagation, grâce au traitement numérique du signal réalisé dans le récepteur. Néanmoins, les systèmes optiques peuvent être limités aussi par des effets non-linéaires de propagation. Cette thèse explore le comportement non-linéaire des signaux détectés avec un récepteur cohérent, spécialement quand ils sont multiplexés en polarisation. Nous avons particulièrement étudié l'évolution de l'impact des non-linéarités quand le débit augmente de 40 à 100 Gb/s, en démontrant que l'augmentation du débit accroît la tolérance à certaines non-linéarités. Cette thèse examine également l'interaction entre la dispersion modale de polarisation (PMD) et les non-linéarités. Contrairement aux systèmes existants, nous avons prouvé que, lorsque la PDM est distribuée, elle s'avère souvent être bénéfique en réduisant les pénalités causées par les non-linéarités. Au contraire, quand la PMD est localisée, elle peut augmenter la dégradation causée par lesdites non-linéarités. Finalement, comme une preuve de l'intérêt porté par les opérateurs aux technologies à 100 Gb/s, ce manuscrit présente les résultats d'un essai de terrain que nous avons mené récemment sur le réseau de Telefónica en Espagne montrant le potentiel des technologies cohérente pour moderniser les réseaux existants.
168

Estimation de la visibilité météorologique par caméras routières

Babari, Raouf 11 April 2012 (has links) (PDF)
La mesure de la visibilité météorologique est un élément important pour la sécurité des transports routiers et aériens. Nous proposons dans ce travail de recherche un indicateur de la visibilité météorologique adapté aux caméras fixes de vidéo surveillance du réseau routier. Il est fondé sur le module du gradient sélectionné dans des zones dont le comportement suit une loi de réflexion de Lambert vis à vis des conditions d’éclairage. La réponse de cet indicateur est issue d’une modélisation fondée sur une hypothèse de la distribution des profondeurs dans la scène. Celle-ci est calibrée avec des données provenant d’un visibilimètre ou bien avec une carte de profondeurs issue d’un modèle numérique de terrain. Les estimations sont ensuite comparées avec des données de référence obtenues par un visibilimètre et montrent une erreur moyenne similaire pour des images prises dans différentes conditions d’éclairage et de visibilité météorologique.
169

Analyses vibratoires et acoustiques du déroulage

Denaud, Louis Etienne 11 1900 (has links) (PDF)
Les processus de mise en forme des matériaux par enlèvement de matière s'accompagnent de nombreux phénomènes vibro-acoustiques à la fois source de nuisances mais aussi révélant des informations utiles sur la coupe et sur la qualité du processus en cours. Dans le cas du déroulage, les opérateurs sont capables d'ajuster "à l'oreille" certains réglages de la machine en cours d'usinage. Une enquête auprès de professionnels a permis de cibler des modalités expérimentales, susceptibles de créer les situations caractéristiques pour les opérateurs. Des essais de déroulage ont été conduits sur la microdérouleuse du LABOMAP à partir de deux essences homogènes (hêtre et peuplier) et d'un matériau de référence (PTFE). Cette première étude a permis, dans des conditions contrôlées, l'identification de la signature de l'ouverture des fissures de déroulage dans les domaines temporel et fréquentiel. Les influences des paramètres de coupe sur le mécanisme de fissuration ont pu être clarifiées ou confirmées. La caractérisation de la qualité du bois à l'état vert demeure un problème, tant du point de vue technique que normatif. Le principe d'un outil simple de mesure de la position effective des fissures sur le placage a été proposé à partir de données vibratoires. Le comportement vibratoire et acoustique de la microdérouleuse en fonction des paramètres de coupe (épaisseur du placage, angle de dépouille, vitesse de coupe, taux de compression de la barre, essence, usure de l'outil) a été analysé dans les domaines temporels et fréquentiels. La prochaine étape passe par la validation de résultats obtenus à l'échelle d'un billon sur une dérouleuse de type industriel.
170

Traitement statistique du signal spectrométrique : étude du désempilement de spectre en énergie pour la spectrométrie gamma /

Trigano, Thomas. January 1900 (has links)
Thèse de doctorat--Signal et images--Paris--ENST, 2005. / En appendice, choix de textes en français et en anglais. Bibliogr. p. 155-159. Résumé en français et en anglais.

Page generated in 0.0869 seconds