• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 7
  • 5
  • Tagged with
  • 21
  • 9
  • 8
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Reconnaissance de locuteurs pour robot mobile

Grondin, François January 2012 (has links)
L'audition artificielle est de plus en plus utilisée en robotique mobile pour améliorer l'interaction humain-robot. La reconnaissance de la parole occupe présentement une place importante tandis qu'un intérêt particulier se développe pour la reconnaissance de locuteurs. Le système ManyEars permet actuellement à un robot mobile de localiser, suivre et séparer plusieurs sources sonores. Ce système utilise un ensemble de huit microphones qui sont disposés en cube. Ce mémoire porte sur la conception et l'évaluation d'un système de reconnaissance de locuteurs, baptisé WISS (Who IS Speaking), couplé au système ManyEars. Le système de reconnaissance de locuteurs conçu est robuste au bruit ambiant et au changement d'environnement. Une technique de combinaison de modèle parallèle (parallel model combination (PMC)) et des masques sont utilisés pour améliorer le taux d'identification dans un milieu bruité. Un indice de confiance est également introduit pour pondérer les identifications obtenues. La simplicité du système proposé fait en sorte qu'il est possible d'exécuter en temps réel l'algorithme sur un processeur généraliste ( General Purpose Processor (GPP)). Les performances du système sont établies à l'aide de plusieurs scénarios. Dans un premier lieu, des enregistrements sont diffusés dans des haut-parleurs pour un ensemble de vingt locuteurs. Le système est ainsi caractérisé en fonction des positions angulaires et radiales des sources sonores. Le taux de reconnaissance est affecté par la qualité du signal (i.e. diminution du rapport signal sur bruit ( Signal-to-Noise Ratio (SNR))) : il passe de 95.6% à 84.3% en moyenne lorsque le SNR passe d'environ 16 dB à 2 dB lorsque le locuteur se situe à 1.5 mètres des microphones. Par la suite, un scénario dit statique est vérifié à l'aide de quatre locuteurs qui récitent chacun leur tour des phrases à un volume de voix naturel. Finalement, un scénario dynamique dans lequel un groupe de quatre locuteurs ont une conversation naturelle avec des chevauchements entre les segments de paroles est étudié. Le taux de reconnaissance varie entre 74.2% et 100.0% (avec une moyenne de 90.6%) avec le scénario statique, et entre 42.6% et 100.0% avec le scénario dynamique (avec des moyennes de 58.3%, 72.8% et 81.4% pour des segments de 1, 2 et 3 secondes respectivement). Des solutions sont identifiées afin d'améliorer les performances lors de travaux futurs. Au meilleur de notre connaissance, il n'existe aucun système qui effectue une reconnaissance de locuteurs dans un environnement contaminé simultanément par des bruits convolutif et additif. De plus, l'utilisation de masques pour estimer ces bruits est un nouveau concept. Ces masques sont d'ailleurs généralement employés pour la reconnaissance de la parole et leur utilisation dans un contexte de reconnaissance de locuteur est une première. De plus, une caractérisation complète du système qui inclue les SNRs est proposée en fonction de la position du locuteur, ce qui est rarement disponible dans la littérature en audition artificielle pour les robots.
2

Nouvelle forme d'onde et récepteur avancé pour la télémesure des futurs lanceurs

Piat-Durozoi, Charles-Ugo 27 November 2018 (has links) (PDF)
Les modulations à phase continue (CPMs) sont des méthodes de modulations robuste à la noncohérence du canal de propagation. Dans un contexte spatial, les CPM sont utilisées dans la chaîne de transmission de télémesure de la fusée. Depuis les années 70, la modulation la plus usitée dans les systèmes de télémesures est la modulation CPFSK continuous phase frequency shift keying filtrée. Historiquement, ce type de modulation est concaténée avec un code ReedSolomon (RS) afin d'améliorer le processus de décodage. Côté récepteur, les séquences CPM non-cohérentes sont démodulées par un détecteur Viterbi à sortie dure et un décodeur RS. Néanmoins, le gain du code RS n'est pas aussi satisfaisant que des techniques de codage moderne capables d'atteindre la limite de Shannon. Actualiser la chaîne de communication avec des codes atteignant la limite de Shannon tels que les codes en graphe creux, implique deremanier l’architecture du récepteur usuel pour un détecteur à sortie souple. Ainsi, on propose dans cette étude d' élaborer un détecteur treillis à sortie souple pour démoduler les séquences CPM non-cohérentes. Dans un deuxième temps, on concevra des schémas de pré-codages améliorant le comportement asymptotique du récepteur non-cohérent et dans une dernière étape on élabora des codes de parité à faible densité (LDPC) approchant la limite de Shannon.
3

Fiabilisation de la technologie courant porteur en ligne en vue de piloter des actionneurs d’aéronefs / Reliability of the power line technology in rder to drive aircraft actuators

Larhzaoui, Thomas 02 July 2014 (has links)
Dans le cadre de l’avion plus électrique, les avionneurs cherchent à remplacer les commandes de vol hydrauliques par des commandes de vol électriques, avec pour intérêt de diminuer le poids, et d’améliorer la flexibilité des équipements aéronautiques. Sachant que sur un A380, la distance cumulée pour les câbles peut atteindre plus de 500 km, la solution consistant à faire cohabiter les transmissions de données et de puissances au sein de mêmes câbles grâce à la technologie CPL pourrait contribuer à réduire la masse de câble dans un avion. Cependant les câbles de puissance n’ont pas été dimensionnés pour transmettre un signal informationnel, et les équipements présents sur le réseau sont source de bruits. Dans ce contexte nous souhaitons montrer la faisabilité d’une transmission CPL soumise aux contraintes avioniques tout en respectant les normes aéronautiques. La première partie des travaux a consisté à mesurer le canal de propagation sur un banc de test représentatif d’un environnement aéronautique. Le canal de propagation est composé de deux coupleurs de type inductif ou capacitif dont le but est de connecter les câbles de télécommunication au réseau de puissance et d’une paire bifilaire torsadée de puissance d’une longueur de 32 m représentative d’un réseau HVDC ±270 V. Nous avons alors testé trois architectures différentes : l’architecture point-À-Point avec coupleur capacitif, l’architecture point-À-Point avec coupleur inductif et l’architecture point-À-Multipoints avec coupleur inductif. Le but de ces mesures a été d’évaluer la fonction de transfert du canal sur la bande [1 ; 100] MHz. Nous avons alors calculé les éléments caractéristiques du canal comme la bande de cohérence et l’étalement des retards. Après la caractérisation du canal de propagation, nous avons choisi et dimensionné les algorithmes de traitement du signal au regard des spécifications aéronautiques à savoir : un débit utile de 10 Mbit/s, un temps de latence de 167-334 μs, un TEB de 10-12 et le respect du gabarit de la DO-160 en émission conduite. Au regard de la fonction de transfert du canal, nous avons choisi d’utiliser l’OFDM comme technique de transmission. Ainsi, à l’aide de la caractérisation du canal de propagation nous avons au cours d’une étude paramétrique défini les paramètres de la transmission OFDM au regard des spécifications de débit et de temps réel. Dans un second temps, nous avons implanté les paramètres OFDM ainsi que la modélisation du canal de propagation dans une chaine de transmission Matlab. Cette chaine nous a alors permis de vérifier les paramètres issues de l’étude paramétrique ainsi que de définir le système de codage de canal (Reed-Solomon et code convolutif) pour respecter les spécifications aéronautiques. La dernière partie de cette thèse a consisté en l’étude du système de synchronisation. Du fait de la stabilité du canal de propagation, nous avons considéré une synchronisation fine du système lors d’une phase d’initialisation puis nous nous somme focalisé sur le dimensionnement d’un système de suivi dans le but de corriger le décalage de fenêtre FFT dû au défaut de fréquence d’échantillonnage. Pour limiter les pertes de débit lors de la phase de suivi, nous avons proposé une estimation de l’erreur de fréquence d’échantillonnage sur la phase des données reçues sur une période de 20 symboles OFDM. / In the new aircrafts, hydraulic flight control systems are replaced by electric flight control systems. The main interests are a better flexibility of the aeronautical equipments and a decrease in maintenance costs and construction costs, but the major problem is the increasing of the wires length. In order to decrease this length, it has been proposed to use power line communications (PLC) technology for flight control systems. The decrease of wire will first decrease aircraft weight and therefore the consumption of kerosene and on the other hand will simplify maintenance and construction. The first part of this work is the measurement and the characterisation of the propagation channel on an aeronautic test bench (with HVDC supply and loads). This channel is composed of two couplers (inductive or capacitive) in order to connect the telecommunication system on the power wires with galvanic isolation and one twisted pair of 32 m longs. We have tested three architectures: the point-To-Point architecture with capacitive coupler, the point-To-Point architecture with inductive coupler and the point-To-Multipoint architecture with inductive coupler. The purpose of these measurements is to measured the transfer function on the [1 ; 100] MHz bandwidth. Then, we have computed the channel parameters like the coherence bandwidth and the delay spread. The second step was the design of the signal processing algorithm in order to satisfy the aeronautical specifications: a useful bite rate of 10 Mbit/s, a latency of 167- 334 μs, a BER of 10-12 and the respect of the DO-160 gauge in conducted emissions. For the transmissions, we have chosen the OFDM technology which has been use with success in other PLC systems. With the channel characterization, we have proposed a parametric study in order to define the OFDM parameters to satisfy the bite rate and the real time constraints. After, we compute digital simulations with Matlab to check the OFDM parameters. With these simulations, we have also defined the channel coding parameters (Reed-Solomon and convolutional coding) to satisfy the aeronautical specifications. The last part of this study was the design of the synchronisation system. Because of the channel stability, we considered a precise synchronisation after an initialisation period. Then, we focus on the estimation of the FFT shift, due to the sampling frequency shift, during a following-Up period. In order to avoid the decrease of the latency and the bitrate due to the pilot symbols or pilot sub-Carriers insertion, we proposed to correct the FFT shift with the receive data thanks to the maximal likelihood algorithm.
4

Influence du mapping sur la reconnaissance d'un système de communication / Influence of the constellation labeling on the recognition of a communication system

Bellard, Marion 30 January 2014 (has links)
Le contexte de cette thèse est la reconnaissance de systèmes de communication dans un contexte non coopératif. Nous nous intéressons au problème de la reconstruction de codes convolutifs et à la reconstruction du mapping (la bijection utilisée pour associer une séquence binaire à un signal modulé). Nous avons élaboré une nouvelle méthode statistique qui à partir d'une séquence binaire bruitée observée permet de détecter si une séquence binaire est codée par un codeur convolutif. Cette méthode consiste à former des blocs de séquence suffisamment grands pour contenir le support d'une équation de parité et à compter le nombre de blocs identiques. Elle a l'avantage de fournir la longueur du code utilisé lorsque le mapping est inconnu. Cette méthode peut également être utilisée pour reconstruire le dual d'un code convolutif lorsque le mapping est connu. Nous proposons par ailleurs un algorithme de reconnaissance de mapping basé sur le parcours de classes d'équivalences. Deux types de classes sont définies. Nous disposons d'un signal bruité partiellement démodulé (démodulé avec un mapping par défaut) et supposons que les données sont codées par un codeur convolutif. Nous utilisons la reconnaissance d'un tel code comme testeur et parcourons enfin les classes d'équivalences faisant apparaître une structure de codes convolutifs. Cette classification améliore la complexité de la recherche pour les petites constellations (4 et 8-PSK). Dans le cas des constellations 16 à 256-QAM l'algorithme est appliqué aux mappings Gray ou quasi-Gray. L'algorithme ne fournit pas un résultat unique mais il permet de trouver un ensemble de mappings possibles à partir de données bruitées. / The context of this thesis is the recognition of communication systems in a non-cooperative context. We are interested in the convolutional code reconstruction problem and in the constellation labeling reconstruction (the mapping used to associate a binary sequence to a modulated signal). We have defined a new statistical method for detecting if a given binary sequence is a noisy convolutional code-word obtained from an unknown convolutional code. It consists in forming blocks of sequence which are big enough to contain the support of a parity check equation and counting the number of blocks which are equal. It gives the length of the convolutional code without knowledge of the constellation labeling. This method can also be used to reconstruct the dual of a convolutional code when the constellation labeling is known. Moreover we propose a constellation labeling recognition algorithm using some equivalence classes. Two types of classes are defined: linear and affine. We observe a noisy signal which is partially demodulated (with a default labeling) and assume that the data are coded by a convolutional encoder. Thus we use the reconstruction of a code as a test and run through the classes which reveal a code structure. This classification improves the complexity of the search for small constellations (4-PSK and 8-PSK). In case of 16-QAM to 256-QAM constellations we apply the algorithm to Gray or quasi-Gray labelings. The algorithm does not give a unique result but it allows to find a small set of possible constellation labelings from noisy data.
5

Séparation aveugle de sources audio dans le contexte automobile

Aïssa-El-Bey, Abdeldjalil 06 July 2007 (has links) (PDF)
Cette thèse se déroule dans le cadre d'une étude sur la séparation de sources audio dans un milieu réverbérant. Cette étude est menée par l'ENST d'une part et FTR&D (Lannion) d'autre part.<br /><br />Dans le cadre de notre étude nous avons montré comment effectuer la séparation de sources audio en utilisant une méthode basée sur des algorithmes de décomposition modale (EMD ou ESPRIT). Les avantages de cette approche résident dans le fait qu'elle permet de traiter le cas des mélanges instantanés et convolutifs, et elle nous permet en particulier, de traiter le cas sous-déterminé. Cette approche se base sur le fait que les signaux audio (et particulièrement les signaux musicaux) peuvent être bien modélisés localement par une somme de signaux périodiques. Ces signaux seront donc décomposés en utilisant les algorithmes de décomposition modale et recombinés par classification suivant leurs directions spatiales regroupant ainsi les composantes de chacune des sources. Cette méthode peut être utilisée dans le cas du mélange convolutif sur-déterminé, en lui conjuguant une décomposition en valeurs et vecteurs propres et un critère de parcimonie approprié.<br /><br />Toujours dans le cadre de cette thèse, nous avons montré comment effectuer la séparation de mélange instantané de sources audio dans le cas sous-déterminé en utilisant la propriété de parcimonie des signaux audio dans le domaine temps-fréquence. Nous proposons deux méthodes utilisant différentes transformées dans le domaine temps-fréquence. La première utilise les distributions temps-fréquence quadratiques DTFQ (ou STFD pour "Spatial Time Frequency Distribution"), la deuxième utilise la transformée de Fourier à court terme TFCT (ou STFT pour "Short Time Fourier Transform"). Ces deux méthodes supposent que les sources sont disjointes dans le domaine temps-fréquence ; c'est à dire qu'une seule source est présente dans chaque point temps-fréquence. Nous proposons ensuite de relâcher cette contrainte on supposant que les sources ne sont pas forcément disjointes dans le domaine temps-fréquence. En particulier, le nombre de sources présentent en un point temps-fréquence doit être strictement inférieur au nombre de capteur. Pour effectuer la séparation dans ce cas de figure, on utilise la projection en sous-espace qui permet d'identifier les sources présentent dans chaque point temps-fréquence et de déterminer la valeur correspondante à chaque source. Une contribution sous-jacente est celle d'une nouvelle méthode d'estimation de la matrice de mélange dans le cas sous-déterminé.<br /><br />Dans le même esprit, nous avons introduit une approche basée sur la transformation dans le domaine temps-fréquence pour résoudre le problème de séparation de mélange convolutif de sources audio dans le cas sous-déterminé. Cette approche nécessite une pré estimation du canal de mélange qui sera réalisée en exploitant la propriété de parcimonie temporelle des signaux audio et la structure des canaux acoustiques.<br /><br />Nous avons exploité aussi la propriété de parcimonie des signaux audio dans le domaine temporel. Nous avons proposé une méthode itérative utilisant une technique du gradient relatif qui minimise une fonction de contraste basée sur la norme Lp. Cette norme pour p < 2 (ou même p < 1) est considérée comme une bonne mesure de parcimonie. Les simulations prouvent que la méthode proposée surpasse d'autres méthodes basées sur l'indépendance de source.<br /><br />Pour Finir, nous nous sommes intéressés à une méthode itérative de séparation de sources utilisant les statistiques d'ordre deux (SOS pour Second Ordre Statistics). Les statistiques d'ordre deux des données observées s'avèrent suffisantes pour séparer des sources mutuellement non corrélées à condition que les vecteurs de corrélation temporelles des sources considérés soient linéairement indépendants par paires. En appliquant une technique de gradient naturel, on déduit un algorithme itératif qui possède un certain nombre de propriétés attrayantes, comme sa simplicité et sa généralisation aux cas adaptatifs ou convolutifs. Nous proposons aussi une analyse de performances asymptotique de cet algorithme qui sera validée par plusieurs simulations.
6

Reconnaissance de codes correcteurs / Blind reconstruction of error-correcting codes

Tixier, Audrey 14 October 2015 (has links)
Dans cette thèse, nous nous intéressons au problème de la reconnaissance de code. Ce problème se produit principalement lorsqu'une communication est observée dans un milieu non-coopératif. Une liste de mots bruités issus d'un code inconnu est obtenue, l'objectif est alors de retrouver l'information contenue dans ces mots bruités. Pour cela, le code utilisé est reconstruit afin de décoder les mots observés. Nous considérons ici trois instances de ce problème et proposons pour chacune d'elle une nouvelle méthode. Dans la première, nous supposons que le code utilisé est un turbo-code et nous proposons une méthode pour reconstruire la permutation interne (les autres éléments du turbo-codeur pouvant être facilement reconstruits grâce aux méthodes existantes). Cette permutation est reconstruite pas à pas en recherchant l'indice le plus probable à chaque instant. Plus précisément, la probabilité de chaque indice est déterminée avec l'aide de l'algorithme de décodage BCJR. Dans la seconde, nous traitons le problème de la reconnaissance des codes LDPC en suggérant une nouvelle méthode pour retrouver une liste d'équations de parité de petits poids. Celle-ci généralise et améliore les méthodes existantes. Finalement, avec la dernière méthode, nous reconstruisons un code convolutif entrelacé. Cette méthode fait appel à la précédente pour retrouver une liste d'équations de parité satisfaites par le code entrelacé. Puis, en introduisant une représentation sous forme de graphe de l'intersection de ces équations de parité, nous retrouvons simultanément l'entrelaceur et le code convolutif. / In this PhD, we focus on the code reconstruction problem. This problem mainly arises in a non-cooperative context when a communication consisting of noisy codewords stemming from an unknown code is observed and its content has to be retrieved by recovering the code that is used for communicating and decoding with it the noisy codewords. We consider here three possible scenarios and suggest an original method for each case. In the first one, we assume that the code that is used is a turbo-code and we propose a method for reconstructing the associated interleaver (the other components of the turbo-code can be easily recovered by the existing methods). The interleaver is reconstructed step by step by searching for the most probable index at each time and by computing the relevant probabilities with the help of the BCJR decoding algorithm. In the second one, we tackle the problem of reconstructing LDPC codes by suggesting a new method for finding a list of parity-check equations of small weight that generalizes and improves upon all existing methods. Finally, in the last scenario we reconstruct an unknown interleaved convolutional code. In this method we used the previous one to find a list of parity-check equations for this code. Then, by introducing a graph representing how these parity-check equations intersect we recover at the same time the interleaver and the convolutional code.
7

Prédiction de performances des systèmes de Reconnaissance Automatique de la Parole / Performance prediction of Automatic Speech Recognition systems

Elloumi, Zied 18 March 2019 (has links)
Nous abordons dans cette thèse la tâche de prédiction de performances des systèmes de reconnaissance automatique de la parole (SRAP).Il s'agit d'une tâche utile pour mesurer la fiabilité d'hypothèses de transcription issues d'une nouvelle collection de données, lorsque la transcription de référence est indisponible et que le SRAP utilisé est inconnu (boîte noire).Notre contribution porte sur plusieurs axes:d'abord, nous proposons un corpus français hétérogène pour apprendre et évaluer des systèmes de prédiction de performances ainsi que des systèmes de RAP.Nous comparons par la suite deux approches de prédiction: une approche à l'état de l'art basée sur l'extraction explicite de traitset une nouvelle approche basée sur des caractéristiques entraînées implicitement à l'aide des réseaux neuronaux convolutifs (CNN).L'utilisation jointe de traits textuels et acoustiques n'apporte pas de gains avec de l'approche état de l'art,tandis qu'elle permet d'obtenir de meilleures prédictions en utilisant les CNNs. Nous montrons également que les CNNs prédisent clairement la distribution des taux d'erreurs sur une collection d'enregistrements, contrairement à l'approche état de l'art qui génère une distribution éloignée de la réalité.Ensuite, nous analysons des facteurs impactant les deux approches de prédiction. Nous évaluons également l'impact de la quantité d'apprentissage des systèmes de prédiction ainsi que la robustesse des systèmes appris avec les sorties d'un système de RAP particulier et utilisés pour prédire la performance sur une nouvelle collection de données.Nos résultats expérimentaux montrent que les deux approches de prédiction sont robustes et que la tâche de prédiction est plus difficile sur des tours de parole courts ainsi que sur les tours de parole ayant un style de parole spontané.Enfin, nous essayons de comprendre quelles informations sont capturées par notre modèle neuronal et leurs liens avec différents facteurs.Nos expériences montrent que les représentations intermédiaires dans le réseau encodent implicitementdes informations sur le style de la parole, l'accent du locuteur ainsi que le type d'émission.Pour tirer profit de cette analyse, nous proposons un système multi-tâche qui se montre légèrement plus efficace sur la tâche de prédiction de performance. / In this thesis, we focus on performance prediction of automatic speech recognition (ASR) systems.This is a very useful task to measure the reliability of transcription hypotheses for a new data collection, when the reference transcription is unavailable and the ASR system used is unknown (black box).Our contribution focuses on several areas: first, we propose a heterogeneous French corpus to learn and evaluate ASR prediction systems.We then compare two prediction approaches: a state-of-the-art (SOTA) performance prediction based on engineered features and a new strategy based on learnt features using convolutional neural networks (CNNs).While the joint use of textual and signal features did not work for the SOTA system, the combination of inputs for CNNs leads to the best WER prediction performance. We also show that our CNN prediction remarkably predicts the shape of the WER distribution on a collection of speech recordings.Then, we analyze factors impacting both prediction approaches. We also assess the impact of the training size of prediction systems as well as the robustness of systems learned with the outputs of a particular ASR system and used to predict performance on a new data collection.Our experimental results show that both prediction approaches are robust and that the prediction task is more difficult on short speech turns as well as spontaneous speech style.Finally, we try to understand which information is captured by our neural model and its relation with different factors.Our experiences show that intermediate representations in the network automatically encode information on the speech style, the speaker's accent as well as the broadcast program type.To take advantage of this analysis, we propose a multi-task system that is slightly more effective on the performance prediction task.
8

Séparation de sources convolutives

Akil, Moussa 22 April 2008 (has links) (PDF)
La séparation de sources consiste à extraire des signaux appelés sources à partir seulement de mélanges observés de ces signaux appelés observations. De nombreuses approches ont été brièvement présentées dans ce manuscrit. La plupart de ces approches exploite l'hypothèse d'indépendance des sources.<br />Dans cette thèse, nous avons considéré le cas des mélanges linéaires convolutifs. Nous proposons de calculer les contributions des sources sur les capteurs afin d'optimiser la procédure de séparation.<br />L'estimation des contributions dans les observations est réalisée grâce à un critère quadratique optimisé par un filtre de Wiener. Ensuite, nous étudions deux approches de séparation de sources. <br />La première utilise l'information mutuelle comme critère d'indépendance et la seconde dite fonction de contraste est basée sur les statistiques d'ordre quatre. L'utilisation des contributions des sources sur les capteurs dans la phase de séparation nous permet de proposer deux algorithmes de séparation, qui constituent deux généralisations d'algorithmes classiques.
9

Codage de sources distribuées : Outils et Applications à la compression vidéo

Toto-Zarasoa, Velotiaray 29 November 2010 (has links) (PDF)
Le codage de sources distribuées est une technique permettant de compresser plusieurs sources corrélées sans aucune coopération entre les encodeurs, et sans perte de débit si leur décodage s'effectue conjointement. Fort de ce principe, le codage de vidéo distribué exploite la corrélation entre les images successives d'une vidéo, en simplifiant au maximum l'encodeur et en laissant le décodeur exploiter la corrélation. Parmi les contributions de cette thèse, nous nous intéressons dans une première partie au codage asymétrique de sources binaires dont la distribution n'est pas uniforme, puis au codage des sources à états de Markov cachés. Nous montrons d'abord que, pour ces deux types de sources, exploiter la distribution au décodeur permet d'augmenter le taux de compression. En ce qui concerne le canal binaire symétrique modélisant la corrélation entre les sources, nous proposons un outil, basé sur l'algorithme EM, pour en estimer le paramètre. Nous montrons que cet outil permet d'obtenir une estimation rapide du paramètre, tout en assurant une précision proche de la borne de Cramer-Rao. Dans une deuxième partie, nous développons des outils permettant de décoder avec succès les sources précédemment étudiées. Pour cela, nous utilisons des codes Turbo et LDPC basés syndrome, ainsi que l'algorithme EM. Cette partie a été l'occasion de développer des nouveaux outils pour atteindre les bornes des codages asymétrique et non-asymétrique. Nous montrons aussi que, pour les sources non-uniformes, le rôle des sources corrélées n'est pas symétrique. Enfin, nous montrons que les modèles de sources proposés modélisent bien les distributions des plans de bits des vidéos; nous montrons des résultats prouvant l'efficacité des outils développés. Ces derniers permettent d'améliorer de façon notable la performance débit-distorsion d'un codeur vidéo distribué, mais sous certaines conditions d'additivité du canal de corrélation.
10

Influence du mapping sur la reconnaissance d'un système de communication

Bellard, Marion 30 January 2014 (has links) (PDF)
Le contexte de cette thèse est la reconnaissance de systèmes de communication dans un contexte non coopératif. Nous nous intéressons au problème de la reconstruction de codes convolutifs et à la reconstruction du mapping (la bijection utilisée pour associer une séquence binaire à un signal modulé). Nous avons élaboré une nouvelle méthode statistique qui à partir d'une séquence binaire bruitée observée permet de détecter si une séquence binaire est codée par un codeur convolutif. Cette méthode consiste à former des blocs de séquence suffisamment grands pour contenir le support d'une équation de parité et à compter le nombre de blocs identiques. Elle a l'avantage de fournir la longueur du code utilisé lorsque le mapping est inconnu. Cette méthode peut également être utilisée pour reconstruire le dual d'un code convolutif lorsque le mapping est connu. Nous proposons par ailleurs un algorithme de reconnaissance de mapping basé sur le parcours de classes d'équivalences. Deux types de classes sont définies. Nous disposons d'un signal bruité partiellement démodulé (démodulé avec un mapping par défaut) et supposons que les données sont codées par un codeur convolutif. Nous utilisons la reconnaissance d'un tel code comme testeur et parcourons enfin les classes d'équivalences faisant apparaître une structure de codes convolutifs. Cette classification améliore la complexité de la recherche pour les petites constellations (4 et 8-PSK). Dans le cas des constellations 16 à 256-QAM l'algorithme est appliqué aux mappings Gray ou quasi-Gray. L'algorithme ne fournit pas un résultat unique mais il permet de trouver un ensemble de mappings possibles à partir de données bruitées.

Page generated in 0.0395 seconds