• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 365
  • 211
  • 190
  • Tagged with
  • 770
  • 770
  • 519
  • 397
  • 375
  • 349
  • 348
  • 335
  • 332
  • 314
  • 311
  • 301
  • 298
  • 93
  • 69
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
371

Bipartite edge coloring approach for designing parallel hardware interleaver architecture

Awais Hussein, Sani 11 May 2012 (has links) (PDF)
Nowadays, Turbo and LDPC codes are two families of codes that are extensively used in current communication standards due to their excellent error correction capabilities. However, hardware design of coders and decoders for high data rate applications is not a straightforward process. For high data rates, decoders are implemented on parallel architectures in which more than one processing elements decode the received data. To achieve high memory bandwidth, the main memory is divided into smaller memory banks so that multiple data values can be fetched from or stored to memory concurrently. However, due to scrambling caused by interleaving law, this parallelization results in communication or memory access conflicts which occur when multiple data values are fetched from or stored in the same memory bank at the same time. This problem is called Memory conflict Problem. It increases latency of memory accesses due to the presence of conflict management mechanisms in communication network and unfortunately decreases system throughput while augmenting system cost. To tackle the memory conflict problems, three different types of approaches are used in literature. In first type of approaches, different algorithms to construct conflict free interleaving law are proposed. The main reason to develop these techniques is to construct "architecture friendly" codes with good error correction capabilities in order to reduce hardware cost. However, architectural constraints applied during code design may impede error correction performance of the codes. In a second type of approaches, different design innovations are introduced to tackle memory conflict problem. Flexible and scalable interconnection network with sufficient path diversity and additional storing elements are introduced to handle memory conflicts. However, flexible networks require large silicon area and cost. In addition, delay introduced due to conflict management mechanisms degrades the maximum throughput and makes these approaches inefficient for high data rate and low power applications. In third type of approaches deals with algorithms that assign data in memory in such a manner that all the processing elements can access memory banks concurrently without any conflict. The benefit of this technique is that decoder implementation does not need any specific network and extra storage elements to support particular interleaving law. However, till now no algorithm exists that can solve memory mapping problem for both turbo and LDPC codes in polynomial time. The work presented in this thesis belongs to the last type of approaches. We propose several methods based on graph theory to solve memory mapping problem for both turbo and LDPC codes. Different formal models based on bipartite and tripartite graphs along with different algorithms to color the edges of these graphs are detailed. The complete path we followed before it is possible to solve mapping problem in polynomial time is hence presented. For the first two approaches, mapping problem is modeled as bipartite graph and then each graph is divided into different sub-graphs in order to facilitate the coloring of the edges. First approach deals with Turbo codes and uses transportation problem algorithms to divide and color the bipartite graph. It can find memory mapping that supports particular interconnection network if the interleaving rule of the application allows it. Second approach solves memory mapping problem for LDPC codes using two different complex algorithms to partition and color each partition. In the third algorithm, each time instance and edge is divided into two parts to model our problem as tripartite graph. Tripartite graph is partitioned into different sub-graphs by using an algorithm based on divide and conquer strategy. Then each subgraph is colored individually by using a simple algorithm to find a conflict free memory mapping for both Turbo and LDPC codes. Finally, in the last approach tripartite graph is transformed into bipartite graph on which coloring algorithm based on Euler partitioning principle is applied to find memory mapping in polynomial time. Several experiments have been performed using interleaving laws coming from different communication standards to show the interest of the proposed mapping methods. All the experiments have been done by using a software tool we developed. This tool first finds conflict free memory mapping and then generates VHDL files that can be synthesized to design complete architecture i.e. network, memory banks and associated controllers. In first experiment, bit interleaver used in Ultra Wide Band (UWB) interleaver is considered and a barrel shifter is used as constraint to design the interconnection network. Results are compared regarding area and runtime with state of the art solutions. In second experiments, a turbo interleaving law defined in High Speed Packet Access (HSPA) standard is used as test case. Memory mapping problems have been solved and associated architectures have been generated for this interleaving law which is not conflict free for any type of parallelism used in turbo decoding. Results are compared with techniques used in state of the art in terms of runtime and area. Third experiment focuses on LDPC. First, last algorithm we proposed is used to find conflict free memory mapping for non-binary LDPC codes defined in the DaVinci Codes FP7 ICT European project. Then, conflict free memory mapping have also been found for partially parallel architecture of LDPC codes used in WiMAX and WiFi for different level of parallelism. It is shown that the proposed algorithm can be used to map data in memory banks for any structured codes used in current and future standards for partially parallel architecture. In last experiment, thanks to the proposed approach we explored the design space of Quadratic Permutation Polynomial (QPP) interleaver that is used in 3GPP-LTE standard. The QPP interleaver is maximum contention-free i.e., for every window size W which is a factor of the interleaver length N, the interleaver is contention free. However, when trellis and recursive units parallelism are also included in each SISO, QPP interleaver is no more contention-free. Results highlight tradeoffs between area and performances based on for different radixes, parallelisms, scheduling (replica versus butterfly)...
372

Contributions à la séparation de sources et à la description des contenus audio

Vincent, Emmanuel 23 November 2012 (has links) (PDF)
Les données audio occupent une position centrale dans notre vie, que ce soit pour la communication parlée, les vidéos personnelles, la radio et la télévision, la musique, le cinéma, les jeux vidéos ou les divertissements. Cela crée un ensemble de besoins applicatifs allant du rehaussement du signal à l'extraction d'information, en passant par la réditorialisation et la manipulation interactive des contenus. Les données audio réelles ont une structure complexe due à la superposition de plusieurs sources sonores et à la coexistence de plusieurs niveaux d'information. Par exemple, les enregistrements de parole incluent souvent des locuteurs simultanés ou du bruit de fond et ils portent des informations sur l'identité des locuteurs, la langue et le sujet de la discussion, le texte prononcé, l'intonation et l'environnement acoustique. Les enregistrements de musique sont aussi typiquement constitués de plusieurs instruments musicaux ou voix et ils contiennent des informations sur le compositeur, l'organisation temporelle des morceaux, la partition sous-jacente, l'interprétation et l'environnement acoustique. Lorsque j'ai commencé mes études de doctorat de 2001, la séparation des signaux sources dans un enregistrement était considérée comme l'un des grands défis vers l'application des techniques de traitement du signal audio initialement conçues pour des sources seules à des données réelles multi-sources. Les techniques de formation de voies fixe ou adaptative étaient déjà établies, mais elles demandaient un grand nombre de microphones rarement disponible en pratique. Les premières techniques de séparation aveugle de sources conçues pour un nombre plus faible de microphones venaient à peine d'être appliquées à l'audio. Onze ans plus tard, des progrès importants ont été faits et la séparation de sources est devenue un sujet mûr. Grâce en particulier à certaines des contributions listées dans ce document, l'équipe METISS a acquis une réputation de leader dans le domaine, démontrée par un nombre croissant de transferts technologiques visant à rehausser et remixer des signaux de parole et de voix dans divers cas d'usage. L'utilisation de la séparation de sources comme un pré-traitement pour la description de sources de parole ou de musique au sein d'un mélange soulève le défi supplémentaire de prendre en compte les distorsions non-linéaires sur les signaux sources estimés. Des méthodes robustes d'interfaçage de la séparation de sources, de l'extraction de descripteurs et de classification ont émergé dans les dix dernières années basées sur l'idée de propagation de l'incertitude. Ce sujet faisait partie de mon programme de recherche lorsque j'ai rejoint Inria en 2006 et il est actuellement en forte croissance en raison de l'omniprésence des applications vocales pour les appareils portables. Les méthodes actuelles n'ont cependant pas encore atteint la robustesse du système auditif humain, et la reconnaissance de la parole ou du locuteur dans des environnements réels avec du bruit non-stationnaire reste un problème très difficile. Par rapport aux deux défis ci-dessus, le traitement conjoint des différents niveaux d'information sous-jacents aux signaux audio a attiré un intérêt moindre à ce jour. Il demeure cependant un problème fondamental pour le traitement de la musique en particulier, où des tâches telles que la transcription de hauteurs polyphonique et l'identification d'accords sont typiquement effectuées indépendamment l'une de l'autre sans prendre en compte les fortes dépendances entre les informations de hauteur et d'harmonie. Mon travail s'est focalisé sur ces trois défis et il est basé en particulier sur les fondements théoriques de la modélisation et de l'estimation bayésienne d'une part et de la modélisation parcimonieuse et de l'optimisation convexe d'autre part. Ce document fournit une vue d'ensemble de mes contributions depuis la fin de mon doctorat selon quatre axes: le Chapitre 1 se focalise sur la formalisation et l'évaluation diagnostique de certains problèmes étudiés, le Chapitre 2 sur la modélisation linéaire des signaux audio et les algorithmes associés, le Chapitre 3 sur la modélisation de variance des signaux audio et les algorithmes associés, et le Chapitre 4 sur la description des contenus multi-sources et multi-niveaux. Le chapitre 5 résume les perspectives de recherche issues de ce travail.
373

Méthodes statistiques en télédétection RSO polarimétrique haute résolution pour la modélisation et le suivi temporel des glaciers.

Harant, Olivier 20 July 2012 (has links) (PDF)
Ce travail de thèse propose une méthode générale d'estimation de déplacement de la surface des glaciers à partir d'images RSO polarimétriques à Haute Résolution spatiale. Les caractéristiques nouvelles de ces images offrent un niveau de détail propice au développement de nouvelles méthodes de suivi de texture complémentaires aux méthodes classiques d'interférométrie RADAR difficiles à mettre en oeuvre dans ce contexte. La méthode proposée est basée sur la vraisemblance du rapport d'images RSO multivariées. L'utilisation du rapport d'images RSO et des lois statistiques correspondantes offrent une souplesse adaptée aux caractéristiques des images RSO notamment au caractère multiplicatif du chatoiement. La texture extraite du jeu polarimétrique offre une bonne robustesse aux variations surfaciques de la neige. La question du modèle statistique sous-jacent des images HR est abordé et l'utilisation des lois de Fisher est justifié. Des protocoles de test permettent de souligner la sensibilité de ce type de méthode. Le schéma méthodologique est complété par un ensemble de traitements avancés tels que la segmentation hiérarchique et l'utilisation d'un modèle d'écoulement. Deux sites d'études dans les Alpes françaises et en Antarctique ont permis d'éprouver cette méthode sur l'estimation de déplacement des glaciers d'Argentière et de l'Astrolabe. Une étude préliminaire sur la généralisation multi-capteurs de cette chaîne de traitement est finalement introduite.
374

Restauration en échantillonnage irrégulier. Théorie et applications aux images et signaux satellitaires.

Julien, Caron 03 May 2012 (has links) (PDF)
Les performances des instruments d'acquisition satellitaire progressent rapidement grâce au développement des technologies mais aussi grâce à la compréhension et l'intégration des phénomènes physiques complexes intervenant lors de l'acquisition. Cette thèse traite de plusieurs problèmes d'échantillonnage irrégulier dont les micro-vibrations des satellites dits push-broom tels que SPOT5 et les récents satellites Pléiades dont les capacités en imagerie permettent la détermination de modèles d'élévation très précis. Nous traitons aussi de l'inversion d'interferogrammes en spectrogrammétrie où l'irrégularité de l'échantillonnage est liée a la précision d'usinage des composants réfléchissants. Les micro-vibrations dans le cas du tangage sont estimées à partir d'une nappe de disparité altérée et non-dense par contraintes de parcimonie. Nous montrons expérimentalement que ce modèle et les algorithmes utilises permettent de résoudre en partie ce problème mal posé. L'ajout d'un apriori sur la régularité de l'élévation permet d'améliorer encore cette estimation dans les cas plus difficiles. Les images acquises en présence de micro-vibrations nécessitent de plus un reéchantillonnage auquel s'ajoute la déconvolution avec une problématique de coût numérique. L'algorithme que nous présentons ici répond a ces besoins grâce au cadre fonctionnel des splines que nous adaptons au problème de la déconvolution, avec des performances équivalentes a l'état de l'art et un coût numérique maîtrisé. Enfin nous abordons un problème inverse en interférométrie statique où la nature des signaux et de l'échantillonnage soulève de nombreuses questions, ce travail réalisé lors d'une R&T sur l'instrument SIFTI développé au CNES y apporte des réponses claires sous forme de résultats théoriques et numériques dans le cadre unifié des séries de Fourier non-harmoniques.
375

Etude des éboulements rocheux par méthodes géophysiques

Deparis, Jacques 03 July 2007 (has links) (PDF)
Les éboulements de terrain posent des problèmes importants pour la gestion des risques, à cause de leur soudaineté et de l'absence de signe précurseur. La détection d'un compartiment instable, l'évaluation de sa stabilité ainsi que la compréhension de la dynamique de sa propagation sont des éléments majeurs dans l'évaluation de l'aléa d'éboulement. En premier lieu, le géoradar a permis de mieux contraindre la géométrie 3D du réseau de fracture. Une stratégie d'inversion des caractéristiques des fractures (épaisseur et remplissage), basée sur la sensibilité fréquentielle et angulaire des réflexions des ondes électromagnétiques avec une approche de couche mince a été développé et appliqué de façon convaincante sur des données réelles acquises sur deux sites différents.<br /><br />La seconde partie est consacrée à l'exploitation des signaux sismiques enregistrés lors de douze éboulements différents. Une nouvelle échelle de magnitude a été définie, qui a permis de classer les différents événements. Aucune relation n'a été trouvée entre les paramètres géométriques (et l'énergie potentielle dérivée) et la magnitude. Par contre la durée du signal montre une bonne corrélation avec l'énergie potentielle. L'analyse détaillée des signaux suggère l'existence d'au moins deux sources sismiques, une correspondant à la rupture associée au rebond élastique induit par le détachement de la masse rocheuse et une autre générée par l'impact de la masse sur la pente, dont l'aspect fréquentiel a été confirmé par une analyse numérique 2D par la méthode des éléments finis.
376

Etude non linéaire et arithmétique de la synchronisation des systèmes : application aux fluctuations de basse fréquence des oscillateurs ultra-stables

Serge, DOS SANTOS 30 November 1998 (has links) (PDF)
Nous traitons l'analyse du comportement non linéaire de systèmes électroniques tels que<br />l'oscillateur ou la boucle à verrouillage de phase (PLL). Après un rappel de l'existence intrinsèque des non-linéarités de l'oscillateur, nous exposons les méthodes statistiques classiques de traitement du signal non linéaire (sections de Poincaré, espace des phases, mapping d'Arnold, arithmétique des résonances) sur le modèle de l'oscillateur de Van der Pol. Ce modèle (modèle<br />d'Adler ) permet l'étude de la PLL en régime non linéaire sur laquelle nous identifions des comportements multi-échelles de synchronisation et de régime transitoire à grande constantes de temps.<br />L'étude expérimentale est réalisée à partir de l'asservissement non linéaire de deux oscillateurs ultra-stables radiofréquence de 5 MHz en présence de bruit blanc de fréquence et d'une perturbation périodique issue du modulateur. Une transformation du bruit blanc en bruit en l/f (bruit flicker ou de scintillation) a lieu lorsque le système évolue dans un régime très non linéaire; résultats confirmés par intégrations numériques (Runge-Kutta). La vérification expérimentale des propriétés multi-échelles révèle une structure diophantienne du spectre d'intermodulation issue<br />des propriétés arithmétiques des fréquences. Cette approche arithmétique est également validée dans une expérience de résonance porteuse-enveloppe où l'on module une porteuse (97 MHz)<br />à partir de la détection de la réponse acoustique (300 kHz) d'une ligne à ondes de surface à ondes acousiques de surface (SAW). Les mèmes propriétés non linéaires (chaos, synchronisation,<br />escalier du diable, invariance d'échelle) du système sont identifiées.
377

Apprentissage statistique pour l'étiquetage de musique et la recommandation

Bertin-Mahieux, Thierry January 2009 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
378

Nouvelles méthodes de traitement de signaux multidimensionnels par décomposition suivant le théorème de Superposition de Kolmogorov

Leni, Pierre-Emmanuel 23 November 2010 (has links) (PDF)
Le traitement de signaux multidimensionnels reste un problème délicat lorsqu'il s'agit d'utiliser des méthodes conçues pour traiter des signaux monodimensionnels. Il faut alors étendre les méthodes monodimensionnelles à plusieurs dimensions, ce qui n'est pas toujours possible, ou bien convertir les signaux multidimensionnels en signaux 1D. Dans ce cas, l'objectif est de conserver le maximum des propriétés du signal original. Dans ce contexte, le théorème de superposition de Kolmogorov fournit un cadre théorique prometteur pour la conversion de signaux multidimensionnels. En effet, en 1957, Kolmogorov a démontré que toute fonction multivariée pouvait s'écrire comme sommes et compositions de fonctions monovariées. Notre travail s'est focalisé sur la décomposition d'images suivant le schéma proposé par le théorème de superposition, afin d''etudier les applications possibles de cette d'ecomposition au traitement d'image. Pour cela, nous avons tout d'abord 'etudi'e la construction des fonctions monovari'ees. Ce probl'eme a fait l'objet de nombreuses 'etudes, et r'ecemment, deux algorithmes ont 'et'e propos'es. Sprecher a propos'e dans [Sprecher, 1996; Sprecher, 1997] un algorithme dans lequel il d'ecrit explicitement la m'ethode pour construire exactement les fonctions monovari'ees, tout en introduisant des notions fondamentales 'a la compr'ehension du th'eor'eme. Par ailleurs, Igelnik et Parikh ont propos'e dans [Igelnik and Parikh, 2003; Igelnik, 2009] un algorithme pour approximer les fonctions monovariéees par un réseau de splines. Nous avons appliqué ces deux algorithmes à la décomposition d'images. Nous nous sommes ensuite focalisés sur l'étude de l'algorithme d'Igelnik, qui est plus facilement modifiable et offre une repréesentation analytique des fonctions, pour proposer deux applications originales répondant à des problématiques classiques de traitement de l'image : pour la compression : nous avons étudié la qualité de l'image reconstruite par un réseau de splines généré avec seulement une partie des pixels de l'image originale. Pour améliorer cette reconstruction, nous avons proposé d'effectuer cette décomposition sur des images de détails issues d'une transformée en ondelettes. Nous avons ensuite combiné cette méthode à JPEG 2000, et nous montrons que nous améliorons ainsi le schéma de compression JPEG 2000, même à bas bitrates. Pour la transmission progressive : en modifiant la génération du réseau de splines, l'image peut être décomposée en une seule fonction monovariée. Cette fonction peut être transmise progressivement, ce qui permet de reconstruire l'image en augmentant progressivement sa résolution. De plus, nous montrons qu'une telle transmission est résistante à la perte d'information.
379

Contribution à la définition, à l'optimisation et à l'implantation d'IP de traitement du signal et des données en temps réel sur des cibles programmables

Ouerhani, Yousri 16 November 2012 (has links) (PDF)
En dépit du succès que les implantations optiques des applications de traitement d'images ont connu, le traitement optique de l'information suscite aujourd'hui moins d'intérêt que dans les années 80-90. Ceci est dû à l'encombrement des réalisations optiques, la qualité des images traitées et le coût des composants optiques. De plus, les réalisations optiques ont eu du mal à s'affranchir de l'avènement des circuits numériques. C'est dans ce cadre que s'inscrivent les travaux de cette thèse dont l'objectif est de proposer une implantation numérique des méthodes optiques de traitement d'images. Pour réaliser cette implantation nous avons choisi d'utiliser les FPGA et les GPU grâce aux bonnes performances de ces circuits en termes de rapidité. En outre, pour améliorer la productivité nous nous sommes focalisés à la réutilisation des blocs préconçus ou IP " Intellectual Properties ". Malgré que les IP commerciales existantes soient optimisées, ces dernières sont souvent payantes et dépendent de la famille de la carte utilisée. La première contribution est de proposer une implantation optimisée des IP pour le calcul de la transformée de Fourier FFT et de la DCT. En effet, le choix de ces deux transformations est justifié par l'utilisation massive de ces deux transformées (FFT et DCT), dans les algorithmes de reconnaissance de formes et de compression, respectivement. La deuxième contribution est de valider le fonctionnement des IP proposées par un banc de test et de mesure. Enfin, la troisième contribution est de concevoir sur FPGA et GPU des implantations numériques des applications de reconnaissance de formes et de compression. Un des résultats probant obtenu dans cette thèse consiste à avoir une rapidité de l'IP FFT proposée 3 fois meilleure que celle de l'IP FFT Xilinx et de pouvoir réaliser 4700 corrélations par seconde.
380

Etude de solutions OFDM en technologie "Photonique Silicium" pour les futures générations de réseaux optiques passifs

Beninca de farias, Giovanni 05 December 2013 (has links) (PDF)
Dans le contexte des Réseaux Optiques Passifs (PON), les opérateurs recherchent des solutions innovantes pour augmenter le débit agrégé, nombre d'utilisateurs et portée de la transmission. En plus, des solutions émetteurs-récepteurs à bas coût sont nécessaires. La technique de transmission Orthogonal Frequency Division Multiplexing (OFDM) peut améliorer les performances de la communication en termes de débit agrégé et portée comparé à la modulation classique On-Off Keying (OOK) mono-porteuse. Au même temps, la technologie Photonique sur Silicium permet de réduire le coût par unité des émetteurs-récepteurs, en raison de sa capacité de production en masse et intégration électro-optique. L'OFDM optique a déjà démontré son potentiel avec des composants optiques sur étagère. Par contre, son utilisation avec des émetteurs compatibles avec la technologie Photonique sur Silicium est plus difficile. L'objectif de ce travail est d'étudier les performances d'un lien basé sur des composants Photoniques sur Silicium utilisant la technique de modulation OFDM. Pour atteindre cet objectif, une plateforme de simulation dédiée est développée. Le modulateur-démodulateur OFDM est mise en place, ainsi que des modèles d'émetteurs Photoniques sur Silicium développés pendant la thèse. Ces modèles sont validés expérimentalement avec la caractérisation des composants disponibles au laboratoire. En parallèle, un banc expérimental est construit. Les émetteurs Photoniques sur Silicium sont comparés avec des composants à l'état-de-l' art sur étagère dans un lien OFDM optique. Dans les systèmes en modulation d'intensité et détection directe (IM/DD), une technique d'allocation quasi-optimale de bits et puissance avec de l'OFDM optique est proposée pour maximiser l'efficacité spectrale. Deux types d'émetteurs Photoniques sur Silicium sont considérés : des lasers hybrides III/V-sur-Silicium en modulation directe (expérimentation) et des modulateurs externes comme le Mach-Zehnder (MZM) (simulation) et en anneau-résonant (expérimentation et simulation). Les résultats expérimentaux montrent qu'un débit agrégé de 10Gbps peut être attendu jusqu'à 50km de fibre monomode, compatible avec les exigences de futures générations de PONs. La portée de la transmission (>10Gbps) avec le modulateur en anneau est limitée à 20km, en raison des pertes de couplage élevé en entrée/sortie de la puce. Les simulations montrent que la portée peut atteindre 100km si les pertes sont réduites. Une technique de modulation appelée Single-Side Band (SSB)-OFDM est connu pour améliorer le produit bande-passante-portée de la transmission, en comparaison avec des systèmes IM/DD (Dual-Side Band (DSB)). Par contre, l'émetteur SSB exige plusieurs composants électriques et optiques discrets, augmentant sa complexité. La technologie Photonique sur Silicium permet de un haut niveau d'intégration électro-optique. Pour cette raison, une implémentation spécifique d'un modulateur optique IQ sur Silicium permettant une génération efficace d'un signal SSB-OFDM est étudiée. Les résultats de simulation d'un cas d'étude montrent que l'émetteur Silicium permet d'atteindre une pénalité dans le budget optique relativement faible (de l'ordre de 3dB) comparé à un modulateur LiNbO3. Les solutions présentées dans cette thèse répondent aux besoins de future générations de PON en termes de débit avec des bandes-passantes relativement faibles (<6.25GHz). Ceci est un atout pour l'application considérée. Les tensions de modulations pour les liens IM/DD sont proches des celles fournies par l'électronique CMOS (about 2Vpp). Le développement récent de processeurs numériques et de convertisseurs numériques-analogiques à haut débit en CMOS font de l'OFDM une solution très attractive pour les futures générations de PONs, puisque des transmetteurs tout-Silicium peuvent désormais être envisagés.

Page generated in 0.1052 seconds