• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 41
  • 25
  • 8
  • Tagged with
  • 80
  • 26
  • 18
  • 17
  • 17
  • 17
  • 15
  • 15
  • 14
  • 14
  • 12
  • 11
  • 11
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Construction et Analyse de Nouveaux Codes Spatio-Temporels pour les Systèmes Ultra Large Bande par Impulsions

Abou Rjeily, Chadi 05 October 2006 (has links) (PDF)
Ce rapport de thèse présente des nouvelles méthodes d'émission et de réception basées sur les transmissions ULB pour les canaux à antennes multiples. Pour les systèmes ULB il devient excessivement difficile de récupérer l'information de phase et les codes espace-temps existants ne peuvent pas être appliqués. Pour résoudre ce problème, nous proposons la construction de nouvelles familles de codes espace-temps pour les systèmes ULB impulsionnels. Dans un premier temps, les outils mathématiques basés sur les algèbres cycliques de division ont été adaptés pour la construction d'un schéma de codage totalement réel. Dans un deuxième temps, nous avons proposé une autre famille de codes basée sur l'introduction du codage conjoint symbole-impulsion. Finalement, nous proposons des nouvelles constructions spécifiques aux modulations de positions ou aux modulations conjointes de position et d'amplitude. Ces constructions permettent d'obtenir une famille de code présentant les meilleures performances parmi tous les schémas de codage espace-temps ULB existant dans la littérature. Dans certains cas, cette famille de codes totalement réels satisfait toutes les contraintes de construction des codes parfaits. Enfin, nous nous sommes intéressés à des constructions de codes distribués pour les systèmes ULB coopératifs. Nous présentons des nouvelles techniques de coopération pour les stratégies type "amplify-and-forward" et "decode-and-forward". Nous présentons une analyse analytique, semi-analytique et numérique des solutions proposées sur des canaux ULB sélectifs en fréquence. Nous présentons aussi des schémas pratiques de transmission, réception et décodage des systèmes multi-antennes ULB.
42

Vers une architecture optimisée d'ASIP pour turbo décodage multi-standard

AL KHAYAT, Rachid 16 November 2012 (has links) (PDF)
Les systèmes sur puces dans le domaine des communications numériques deviennent extrêmement diversifiés et complexes avec la constante émergence de nouveaux standards et de nouvelles applications. Dans ce domaine, le turbo-décodeur est l'un des composants les plus exigeants en termes de calcul, de communication et de mémoire, donc de consommation d'énergie. Outre les exigences de performances croissantes, les nouveaux systèmes de communications numériques imposent une interopérabilité multi-standard qui introduit la nouvelle exigence de flexibilité de l'implémentation. Dans ce contexte, des travaux récents ont proposé l'utilisation du nouveau concept de processeurs à jeu d'instructions dédié à l'application (ASIP). Un tel modèle d'architecture permet au concepteur d'affiner librement le compromis flexibilité/performance tel que requis par l'application considérée. Toutefois, l'efficacité architecturale des processeurs dédiés à l'application est directement liée au jeu d'instruction défini ainsi qu'au taux d'utilisation des étages de pipeline. La plupart des travaux proposés récemment ne considèrent pas ces aspects explicitement. Par conséquent, ce travail de thèse s'inscrit dans l'objectif principal d'unifier l'approche orientée sur la flexibilité et celle orientée sur l'optimalité dans la conception de décodeurs de canal. Dans cet objectif, plusieurs contributions ont été proposées : (1) conception d'un turbo-décodeur multi-standard basé sur le concept ASIP assurant une efficacité architecturale élevée en bit/cycle/iteration/mm2, (2) optimisation de la vitesse de reconfiguration dynamique de l'ASIP proposé supportant tous les paramètres spécifiés dans les normes 3GPP-LTE/WiMAX/DVB-RCS, (3) conception d'entrelaceurs ARP et QPP de faible complexité pour le schéma de décodage de type papillon avec la technique de compression de treillis de type Radix4 et (4) proposition et mise en oeuvre d'un prototype FPGA de système de communication complet intégrant le turbo-décodeur multi-standard proposé. De plus, une première contribution a été proposée vers la conception d'une architecture multi-ASIP flexible et extensible supportant le décodage des turbocodes et des codes LDPC.
43

Vers des architectures multi-ASIP optimisées et flexibles pour le décodage des turbocodes et des codes LDPC

Murugappa Velayuthan, Purushotham 17 December 2012 (has links) (PDF)
De nombreuses techniques de codage de canal sont spécifiées dans les nouvelles normes de communications numériques, chacune adaptée à des besoins applicatifs spécifiques (taille de trame, type de canal de transmission, rapport signal-à-bruit, bande-passante, etc.). Si l'on considère les applications naissantes multi-mode et multi-standard, ainsi que l'intérêt croissant pour la radio logicielle et la radio cognitive, la combinaison de plusieurs techniques de correction d'erreur devient incontournable. Néanmoins, des solutions optimales en termes de performance, de consommation d'énergie et de surface sont encore à inventer et ne doivent pas être négligées au profit de la flexibilité. Dans ce contexte, ce travail de thèse a exploré le modèle d'architecture multi-ASIP dans le but d¿unifier l'approche orientée sur la flexibilité et celle orientée sur l'optimalité dans la conception de décodeurs de canal flexibles. En considérant principalement les applications exigeantes de décodage itératif des turbocodes et des codes LDPC, des architectures multi-ASIP de décodeurs de canal sont proposées ciblant une grande flexibilité combinée à une haute efficacité architecturale en termes de bits/cycle/iteration/mm2. Différentes solutions architecturales et différentes approches de conception sont explorées pour proposer trois contributions originales. La première contribution concerne la conception d'un décodeur LDPC/Turbo multi-ASIP extensible, flexible et haut débit. Plusieurs objectifs de conception sont atteints en termes d'extensibilité, de partage de ressources, et de vitesse de configuration. Le décodeur proposé, nommé DecASIP, supporte le décodage des codes LDPC et turbocodes spécifiés dans les normes WiFi, WiMAX et LTE. L'extensibilité apportée par l'approche multi-ASIP basée sur des réseaux sur puces (NoC) permet d'atteindre les besoins en haut débit des normes actuelles et futures. La deuxième contribution concerne la conception d'un ASIP paramétré pour le turbo-décodage (TDecASIP). L'objectif étant d'étudier l'efficacité maximale atteignable pour un turbo décodeur basé sur le concept ASIP en maximisant l¿exploitation du parallélisme de sous-blocs. En outre, avec cette architecture nous avons démontré la possibilité de concevoir des c¿urs de traitement paramétrables et dédiés à l¿application en utilisant le flot de conception ASIP existant. La troisième contribution correspond à la conception d'un ASIP optimisé pour le décodage des codes LDPC (LDecASIP). Comme pour TDecASIP, l'objectif étant d'étudier l'efficacité maximale atteignable pour un décodeur de codes LDPC basé sur le concept ASIP en augmentant le degré de parallélisme et la bande passante des mémoires. Une quatrième contribution principale de cette thèse porte sur le prototypage matériel. Une plateforme de communication complète intégrant 4-DecASIP pour le décodage de canal a été prototypé sur une carte à base de circuits FPGA. À notre connaissance, c'est le premier prototype FPGA publié de décodeur de canal flexible supportant le décodage des turbocodes et des codes LDPC avec une architecture multi-ASIP intégrant des NoC. De plus, une intégration ASIC de ce décodeur a été réalisée par le CEA-LETI dans la puce MAG3D visant des applications de communications pour la 4G. Ces résultats démontrent le cycle de conception rapide et l'efficacité offerte par l'approche de conception basée sur le concept ASIP dans ce domaine d'application, permettant ainsi d¿affiner les compromis de conception par rapport aux divers objectifs ciblés.
44

Distribution de la non-linéarité des fonctions booléennes / Distribution of Boolean functions Nonlinearity

Dib, Stephanie 11 December 2013 (has links)
Parmi les différents critères qu'une fonction booléenne doit satisfaire en cryptographie, on s'intéresse à la non-linéarité. Pour une fonction booléenne donnée, cette notion mesure la distance de Hamming qui la sépare des fonctions de degré au plus 1. C'est un critère naturel pour évaluer la complexité d'une fonction cryptographique, celle-ci ne devant pas admettreune approximation qui soit simple, comme par une fonction de degré 1, ou plus généralement une fonction de bas degré. Ainsi, il est important de considérer plus généralement, la non-linéarité d'ordre supérieur, qui pour un ordre donné r, mesure la distance d'une fonction donnée à l'ensemble des fonctions de degré au plus r. Cette notion est également importante pour les fonctions vectorielles, i.e., celles à plusieurs sorties. Quand le nombre de variables est grand, presque toutes les fonctions ont une non-linéarité (d'ordre 1) voisine d'une certaine valeur, assez élevée. Dans un premier travail, on étend ce résultat à l'ordre 2. Cette méthode qui consiste à observer comment les boules de Hamming recouvrent l'hypercube des fonctions booléennes, nous conduit naturellement vers une borne de décodage théorique des codes de Reed-Muller d'ordre 1, coïncidant au même endroit où se concentre la non-linéarité de presque toutes les fonctions ; une approche nouvelle pour un résultat pas entièrement nouveau. On étudie aussi la non-linéarité des fonctions vectorielles. On montre avec une approche différente, que le comportement asymptotique est le même que celui des fonctions booléennes: une concentration de la non-linéarité autour d'une valeur assez élevée. / Among the different criteria that a Boolean function must satisfy in symmetric cryptography, we focus on the nonlinearity of these. This notion measures the Hamming distance between a given function and the set of functions with degree at most 1. It is a natural criterion to evaluate the complexity of a cryptographic function that must not have a simple approximation as by a function of degree 1, or more generally, a function of low degree. Hence, it is important to consider the higher order nonlinearity, which for a given order r, measures the distance between a given function and the set of all functions of degree at most r. This notion is equally important for multi-output Boolean functions. When the number of variables is large enough, almost all Boolean functions have nonlinearities lying in a small neighbourhood of a certain high value. We prove that this fact holds when considering the second-order nonlinearity. Our method which consists in observing how the Hamming balls pack the hypercube of Boolean functions led quite naturally to a theoretical decoding bound for the first-order Reed-Muller code, coinciding with the concentration point of the nonlinearity of almost all functions. This was a new approach for a result which is not entirely new. We also studied the nonlinearity of multi-output functions. We proved with a different approach, that the asymptotic behaviour of multi-output functions is the same as the single-output ones: a concentration of the nonlinearity around a certain large value.
45

Effets de la dynamique temporelle sur le jugement de l'authenticité du sourire

Asselin, David 13 April 2021 (has links)
La capacité à exprimer autre chose sur le visage que l’expression faciale associée à l’émotion qui est ressentie n’est apparue que relativement tard dans la grande histoire de l’être humain. Alors que cette concordance était directe à l’aube de l’évolution humaine, elle aurait par la suite évolué en raison des bénéfices sociaux qu’elle procure à celui qui émet l’expression faciale. Encore aujourd’hui, la littérature nous donne un portrait nuancé sur le lien qui existe entre l’émotion ressentie et son expression faciale. D’un côté, plusieurs études nous indiquent qu’il existe une concordance entre ces deux processus (Gosselin, Kirouac, & Dore, 1995; Rosenberg & Ekman, 1994; Ruch, 1995) alors que de l’autre nous savons aussi que l’expression faciale peut très bien être contrôlée et trompeuse (O’Sullivan et al., 1988, Ekman, 1993; 2003). Il existe différents indices qui nous permettent de distinguer entre une expression faciale authentique et une expression faciale fausse. Parmi ceux-ci figurent les unités d’action faciale qui sont activées sur le visage lors de l’expression faciale, leur symétrie et leur dynamique temporelle, toutes mesurées à l'aide du Facial Action Coding System (Ekman & Friesen, 1978; Ekman, Friesen & Hager, 2002). L’objectif principal de cette thèse sera d’évaluer la sensibilité de l’être humain à la dynamique temporelle du sourire, ainsi que son effet sur le jugement d’authenticité. Les résultats des études 1 à 3 indiquent que les participants sont bien sensibles à la dynamique temporelle, et qu’ils l’utilisent pour juger correctement l’authenticité du sourire, du moins lorsque la durée des phases de relâchement, ou les phases d’amorce et de relâchement simultanément varie. Nos participants ne semblent pas utiliser la dynamique temporelle pour juger de l’authenticité du sourire même s’ils sont en mesure de bien juger les différences temporelles dans la phase d’amorce. L’étude 4 a été réalisée afin de valider la méthode de fabrication des stimuli utilisée dans les études précédente, et confirme que celle-ci n’a pas eu d’effet sur les résultats. Enfin, l’étude 5 a été réalisée dans le but d’examiner davantage le lien unissant la dynamique temporelle au jugement d’authenticité grâce à deux tâches de jugement; La première voulant examiner le jugement de la durée de sourires, alors que la seconde examine le jugement de l’authenticité. Plutôt que d’utiliser une échelle de type Likert telle que dans les études 1 et 4, nous avons opté pour une méthode d’estimation de la magnitude, dans le but d’examiner les habiletés de manière intra individuelles de nos participants. Celle-ci montre qu’au niveau individuel, les participants qui arrivent à mieux juger les changements dans la durée des phases du sourire n’arrivent pas nécessairement à mieux juger l’authenticité du sourire. Dans leur ensemble, nos résultats contribuent à la compréhension que nous avons du lien unissant la dynamique temporelle et le jugement de l’authenticité du sourire, et permettent de solidifier la fondation empirique sur lequel pourront construire les études futures du domaine.
46

Distributed Coding for Wireless Cooperative Networks. / Codage distribué pour les réseaux coopératifs sans fil

Hatefi, Atoosa 25 October 2012 (has links)
Cette thèse est consacrée à l'étude théorique et à la conception pratique de schémas de codage conjoint réseau/canal adaptés à différents scénarii de communications dans les réseaux sans fil. Contrairement aux hypothèses conventionnelles retenues dans la littérature (accès multiple orthogonal, absence d'erreurs sur certains liens), les caractéristiques de diffusion et de superposition des signaux propres au canal radio et la présence d'évanouissements lents et de bruit sur tous les liens sont prises en compte dans la formulation du problème et exploitées. Différentes stratégies de coopération au niveau du ou des relais sont examinées et comparées. Le point commun entre toutes ces stratégies est que le système doit fonctionner même en absence de coopération. Seuls le ou les relais et la destination sont informés d'une coopération. Ni les sources, ni le ou les relais ne connaissent l'état du canal à l'émission.
Le premier volet de la thèse porte sur le canal à accès multiple avec relais unique (slow fading MARC). Le problème du codage et décodage conjoint canal/réseau (JNCC/JNCD) est étudié sur un plan théorique et pratique. Différentes hypothèses au niveau de l'accès multiple (semi-orthogonal et non-orthogonal) et différents modes de fonctionnement du relais (half-duplex et full-duplex) sont envisagés. Une nouvelle stratégie de coopération adaptative (SDF pour selective decode and forward) est définie dans laquelle le relais calcule et retransmet une fonction déterministe des messages de sources qu'il a pu décoder sans erreur. Le ré-encodage, défini sur un corps fini (corps binaire), est également conçu de manière à assurer que la performance finale au niveau de la destination atteint bien un ordre de diversité 2.
Le modèle de canal MARC est par la suite étendu à plusieurs relais (slow fading MAMRC). Une analyse théorique est conduite et des nouveaux schémas JNCC/JNCD permettant de s'approcher des limites théoriques sont décrits. Afin d'assurer la diversité pleine, nous proposons de combiner un codage canal binaire et un codage réseau non-binaire.
Pour les deux types de canaux, nous montrons que l'interférence naturellement induite par la diffusion des signaux dans un environnement sans fil, n'est pas un inconvénient mais bien un avantage dès lors qu'on est en mesure de la traiter via des techniques de codage et de décodage sophistiquées (turbo codes et leur décodage, turbo détection). Les gains en termes de capacité (rapportée à une certaine probabilité de coupure) obtenus avec un accès multiple semi-orthogonal ou non-orthogonal sont substantiels comparés à un accès multiple orthogonal (référence).
Dans la dernière partie de la thèse, la stratégie de coopération SDF est comparée à deux autres stratégies de coopération s'appuyant sur un procédé de décodage-et-retransmission "souple" (sans prise de décisions intermédiaires) : l'une basée sur les rapports logarithmiques de probabilité a posteriori sur les bits codés et l'autre basée sur l'estimation de l'erreur quadratique moyenne (MSE). Nous vérifions que la stratégie de coopération SDF fonctionne bien dans la plupart des configurations, les stratégies de coopération souples n'améliorant légèrement les performances que dans certains cas extrêmes. / With the rapid growth of wireless technologies, devices and mobile applications, the quest of high throughput and ubiquitous connectivity in wireless communications increases rapidly as well. Relaying is undoubtedly a key concept to provide coverage extension and capacity increase in wireless networks. Network coding, which allows the intermediate nodes to share their computation capabilities in addition to their resource and their power, has grabbed a significant research attention since its inception in information theory. It has become an attractive candidate to bring promising performance improvement, especially in terms of throughput, in relay-based cellular networks. Substantial research efforts are currently focused on theoretical analysis, implementation and evaluation of network coding from a physical layer perspective. The question is, what is the most efficient and practical way to use network coding in wireless relay-based networks, and whether it is beneficial to exploit the broadcast and multiple-access properties of the wireless medium to perform network coding. It is in such a context, that this thesis proceeds. In the first part of the thesis, the problem of Joint Network-Channel Coding (JNCC) for a Multiple Access Relay Channel (MARC) is investigated in the presence of multiple access interferences and for both of the relay operating modes, namely, half-duplex and full-duplex. To this end, three new classes of MARC, referred to as Half-Duplex Semi-Orthogonal MARC (HD-SOMARC), Half-Duplex Non-Orthogonal MARC (HD-NOMARC), and Full-Duplex Non-Orthogonal MARC (FD-NOMARC) have been introduced and studied. The relaying function in all of the classes is based on a Selective Decode-and-Forward (SDF) strategy, which is individually implemented for each source, i.e, the relay forwards only a deterministic function of the error-free decoded messages. For each class, an information-theoretic analysis is conducted, and practical coding and decoding techniques are proposed. The proposed coding schemes, perform very close to the outage limit for both cases of HD-SOMARC and HD-NOMARC. Besides, in the case of HD-NOMARC, the optimal allocation of the transmission time to the relay is considered. It is also verified that exploiting multiple access interferences, either partially or totally, results in considerable gains for MARC compared to the existing interference-avoiding structures, even in the case of single receive antenna. In the second part of the thesis, the network model is extended by considering multiple relays which help multiple sources to communicate with a destination. A new class of Multiple Access Multiple Relay Channel (MAMRC), referred to as Half-Duplex Semi-Orthogonal MAMRC (HD-SOMAMRC) is then proposed and analyzed from both information theoretic and code design perspective. New practical JNCC schemes are proposed, in which binary channel coding and non binary network coding are combined, and they are shown to perform very close to the outage limit. Moreover, the optimal allocation of the transmission time to the sources and relays is considered. Finally, in the third part of the thesis, different ways of implementing cooperation, including practical relaying protocols are investigated for the half-duplex MARC with semi-orthogonal transmission protocol and in the case of JNCC. The hard SDF approach is compared with two Soft Decode and Forward (SoDF) relaying functions: one based on log a posterior probability ratios (LAPPRs) and the other based on Mean Square Error (MSE) estimate. It is then shown that SDF works well in most of the configurations and just in some extreme cases, soft relaying functions (based on LAPPR or MSE estimate) can slightly outperform the hard selective one.
47

Vers une solution réaliste de décodage source-canal conjoint de contenus multimédia.

Marin, Cédric 27 March 2009 (has links) (PDF)
Lors d'une transmission vidéo sur les réseaux mobiles, les données doivent être efficacement comprimées pour s'adapter à la bande-passante réduite. Cependant, plus les données multimédia sont comprimées, plus le flux est sensible aux erreurs de transmission. Lors du décodage vidéo, une simple erreur binaire peut entraîner la perte totale d'une séquence d'images. Par conséquent, le flux encodé entrant dans le décodeur vidéo du récepteur ne doit pas être dégradé. Afin que le décodeur vidéo reçoive des informations exemptes d'erreurs, plusieurs mécanismes sont implémentés. Ces mécanismes classiques consistent à retransmettre les paquets erronés et/ou à rajouter de la redondance aux données transmises (à l'aide de codes correcteurs d'erreurs) pour garantir une certaine capacité de correction. Ces méthodes sont efficaces, mais entraînent une consommation excessive des ressources. Par ailleurs, des mécanismes de détection d'erreurs sont effectués dans chaque couche protocolaire et permettent d'effacer les paquets corrompus. Récemment, le concept de décodage conjoint a été proposé. Il consiste à utiliser les redondances inhérentes contenues dans les informations transmises pour améliorer le décodage de la vidéo. Ces redondances résiduelles peuvent être de natures différentes (informations souples, sémantique et syntaxe du train binaire, propriétés de paquétisation, etc) et ces informations ont un impact variable sur les performances obtenues. Durant cette thése, nous avons introduit une nouvelle méthode de décodage conjoint exploitant à la fois les propriétés sémantiques et syntaxiques du flux vidéo ainsi que le code de détection d'erreurs (CRC) de la couche Liaison. Cette technique a ensuite été testée sur le dernier standard de compression vidéo : le H.264 ou MPEG4-AVC. Parallèlement, pour pouvoir intégrer ces outils robustes dans le récepteur, de nombreuses modifications sont nécessaires. Il faut notamment pouvoir faire remonter des paquets contenant des erreurs au niveau du décodeur vidéo (étant donné que les traitements robustes sont implémentés au niveau du décodeur vidéo). Or, comme nous l'avons souligné précédemment, les paquets erronés sont effacés par les mécanismes de protection avant d'avoir atteint le décodeur vidéo. Durant cette thése, nous avons développé un principe universel permettant de résoudre simplement ce problème. Cette méthode est implémentée dans chaque couche protocolaire et consiste à désactiver la détection d'erreurs sur les données du paquet. A la place, le code de détection d'erreurs est utilisé comme un code de correction d'erreurs pour corriger les champs importants contenus dans l'entête du paquet. Une fois l'entête du paquet corrigée, les données transportées (correctes ou incorrectes) peuvent être transmises à la couche supérieure sans risque de perte. En intégrant ce mécanisme dans chaque couche protocolaire du récepteur, on aboutit à une pile protocolaire totalement perméable et les données vidéo peuvent arriver à l'entrée du décodeur vidéo robuste.
48

Outils de calcul quantique tolérant aux fautes

Duclos-Cianci, Guillaume January 2015 (has links)
Le développement de qubits quantiques robustes représente un défi technologique de taille. Malgré plus d'une décennie de progrès et de percées, nous sommes toujours à la recherche du candidat idéal. La difficulté réside dans la nécessité de respecter une panoplie de critères stricts: on doit pouvoir préparer et mesurer les qubits rapidement et de manière fiable, préserver leur état pour de longs temps, appliquer avec précision un continuum de transformations, les coupler les uns aux autres, en entasser des milliers, voire des millions sur un seul dispositif, etc. Parallèlement à ces recherches, un autre groupe de scientifiques travaillent plutôt à l'élaboration de l'architecture permettant d'opérer ces qubits. Cette architecture inclut une couche logicielle de base dont l'étude constitue le domaine du calcul tolérant aux fautes: en encodant l'information dans des qubits logiques à l'aide des qubits physiques disponibles, il est possible d'obtenir un dispositif quantique dont les propriétés effectives sont supérieures à celles des composantes physiques sous-jacentes. En contrepartie, une surcharge doit être payée. Celle-ci peut être interprétée comme une forme de redondance dans l'information. De plus, les portes logiques applicables aux qubits encodés sont souvent trop limitées pour être utiles. La recherche dans ce domaine vise souvent à limiter la surcharge et à étendre l'ensemble des opérations applicables. Cette thèse présente les travaux que j'ai publiés avec mes collaborateurs durant mes études de doctorat. Ceux-ci touchent deux aspects importants du calcul tolérant aux fautes: l'élaboration de protocoles de calcul universel et la conception et l'étude d'algorithmes de décodage de codes topologiques stabilisateurs. Concernant l'élaboration de protocoles de calcul universel, j'ai développé avec l'aide de Krysta Svore chez Microsoft Research une nouvelle famille d'états ressources (Chapitre 2). Celle-ci permet, par l'injection d'états, d'effectuer une opération unitaire arbitraire à un qubit à un coût plus faible que les méthodes existant à ce moment. Plus tard, j'ai poursuivi ces travaux avec David Poulin pour élaborer une autre famille d'états ressources qui diminuent encore davantage les coûts de compilation de diverses portes unitaires à un qubit (Chapitre 3). Finalement, Jonas Anderson, David Poulin et moi avons montré comment il est possible de passer de manière tolérante aux fautes d'un encodage à un autre (Chapitre 4). Cette approche est qualitativement différente, car elle fournit un ensemble universel de portes sans passer par l'injection d'états. Durant mon doctorat, j'ai aussi généralisé de plusieurs manières la méthode de décodage par renormalisation du code topologique de Kitaev que j'ai développée au cours de ma maîtrise. Tout d'abord, j'ai collaboré avec Héctor Bombin et David Poulin dans le but de montrer que tous les codes topologiques stabilisateurs invariants sous translation sont équivalents, c'est-à-dire qu'ils appartiennent à la même phase topologique (Chapitre 5). Ce résultat m'a aussi permis d'adapter mon décodeur aux codes topologiques de couleurs stabilisateurs et à sous-systèmes. Puis, je l'ai adapté à une généralisation du code topologique de Kitaev sur des qudits (Chapitre 6). Ensuite, je l'ai généralisé au cas tolérant aux fautes, où les erreurs dans les mesures du syndrome sont prises en compte (Chapitre 7). Finalement, je l'ai appliqué à un nouveau code élaboré par Sergey Bravyi, le code de surface à sous-systèmes (Chapitre 8).
49

Systèmes de compréhension et de traduction de la parole : vers une approche unifiée dans le cadre de la portabilité multilingue des systèmes de dialogue / Spoken language understanding and translation systems : a unified approach in a multilingual dialogue systems portability context

Jabaian, Bassam 04 December 2012 (has links)
La généralisation de l’usage des systèmes de dialogue homme-machine accroît la nécessité du développement rapide des différents composants de ces systèmes. Les systèmes de dialogue peuvent être conçus pour différents domaines d’application et dans des langues différentes. La nécessité d’une production rapide pour de nouvelles langues reste un problème ouvert et crucial auquel il est nécessaire d’apporter des solutions efficaces.Nos travaux s’intéressent particulièrement au module de compréhension de la parole et proposent des approches pour la portabilité rapide peu coûteuse de ce module.Les méthodes statistiques ont montré de bonnes performances pour concevoir les modules de compréhension de la parole pour l’étiquetage sémantique de tours de dialogue.Cependant ces méthodes nécessitent de larges corpus pour être apprises. La collecte de ces corpus est aussi coûteuse en temps et en expertise humaine.Dans cette thèse, nous proposons plusieurs approches pour porter un système de compréhension d’une langue vers une autre en utilisant les techniques de la traduction automatique. Les premiers travaux consistent à appliquer la traduction automatique à plusieurs niveaux du processus de portabilité du système de compréhension afin de réduire le coût lié à production de nouvelles données d’apprentissage. Les résultats expérimentaux montrent que l’utilisation de la traduction automatique permet d’obtenir des systèmes performant avec un minimum de contribution humaine.Cette thèse traite donc à la fois de la traduction automatique et de la compréhension de la parole. Nous avons effectué une comparaison approfondie entre les méthodes utilisées pour chacune des tâches et nous avons proposé un décodage conjoint basé sur une méthode discriminante qui à la fois traduit une phrase et lui attribue ses étiquettes sémantiques. Ce décodage est obtenu par une approche à base de graphe qui permet de composer un graphe de traduction avec un graphe de compréhension. Cette représentation peut être généralisée pour permettre des transmissions d’informations riches entre les composants du système de dialogue / The generalisation of human-machine dialogue system increases the need for a rapid development of the various components of these systems. Dialogue systems can be designed for different applications and in different languages. The need for a fast production of systems for new languages ​​is still an open and crucial issue which requires effective solutions. Our work is particularly interested in speech understanding module and propose approaches for language portability of this module. The statistical methods showed good performance to design modules for speech understanding. However, these methods require large corpora to be trained. The collection of these corpora is expensive in time and human expertise. In this thesis, we propose several approaches to port an understanding system from one language to another using machine translation techniques. The experimental results show that the use of machine translation allows to produce efficient systems with minimal human effort. This thesis addresses both machine translation and speech understanding domain. We conducted a comparison between the methods used for each task and we have proposed a joint decoding between translation and understanding based on a discriminant method. This decoding is achieved by a graph-based approach which allows to compose a translation graph with an understanding graph. This representation can be generalized to allow a rich transmission of information between the components of the dialogue system
50

Joint Network / Channel Decoding over Noisy Wireless Networks / Décodage Conjoint de Réseau / Canal sur les Réseaux sans fil bruyants.

Vu, Xuan Thang 14 January 2014 (has links)
Codage de réseau (NC) a gagné beaucoup d'attention de la recherche comme un candidat potentiel pour résoudre la demande de plus grande efficacité spectrale des communications modernes sans fil. De nombreux travaux de recherche ont étudié la performance des réseaux NC-aidés telles que le débit et la capacité de panne. Cependant, l'analyse de la NC dans des systèmes pratiques où NC est combiné avec d'autres techniques telles que le codage de canal est encore immature pour comprendre pleinement son potentiel de performance. Dans cette thèse, nous nous efforçons de concevoir des récepteurs de haute performance et d'analyser sa performance pour les réseaux de coopération réseau codé dans des scénarios pratiques. Tout d’abord, nous vous proposons deux Itératif Décodage de Réseau /Canal (IDRC) algorithmes pour le canal de relais d'accès multiple (MARC) avec deux systèmes de relais de notables nommés décodage-et-transfert et démoduler et transfert. L'algorithme du RIDC fonctionne sur la base de méthodes de décodage turbo-comme et réduit l'impact du problème de la propagation de l'erreur à l'aide d'un modèle de récepteur de canal courant. Tant parfaite information de la parfait CSI et imparfait CSI au côté récepteur sont étudiées. Nous proposons un procédé pratique qui transmet la version quantifiée des erreurs de décodage de relais à la destination. Il est démontré que les algorithmes proposés réaliser un gain de diversité complète et surpasse les solutions qui ne prennent pas soin de propagation d'erreur significative. Nous montrons également que le nombre de symboles pilotes ne concerne que le gain de codage, mais a un impact négligeable sur l'ordre de la diversité, alors que le niveau de quantification affecte à la fois la diversité et le gain de codage.Deuxièmement, nous proposons un Conjoint Décodage de Réseau/Canal Près Optimal (CDRCPO) algorithme pour le MARC qui permet d'analyser le taux de bits du système d'erreur (BER). L'algorithme de CDRCPO exécute le décodage de réseau et de décodage de canal en une seule étape de décodage du code superbe, qui se compose de tous les états de treillis de code individuel aux sources via NC. En outre, NC combiné avec la sélection de relais (RS) est considéré et l'ordre de diversité possible est étudié à l'aide de l'analyse de panne. Nous montrons analytiquement que la sélection de relais simple (SRS) permet toujours d'obtenir une ordonnance de la diversité et de la sélection de deux relais multiple (MRS) peut obtenir gain de diversité complète que lorsque le nombre de relais sélectionné dépasse le nombre de sources.En fin, nous proposons un protocole dit relais partielle d'améliorer l'efficacité spectrale pour le codage des réseaux de relais assisté canal. Forme-proche expression du BER et l'ordre de la diversité du système sont calculés pour le relais partiel. Nous montrons, par l'analyse et la simulation, qui avec un code convolutif bon, le relais partiel peut obtenir gain de diversité complète et même gain de codage que le classique (complet) relayer protocole fini région signal-sur-bruit alors qu'il obtient une meilleure utilisation du spectre. De plus, nous proposons un nouveau protocole basé sur le relais partiel dans les réseaux de coopération relayant opportunistes et montrons que ce protocole surpasse de manière significative la coopération sur la NC dans certaines circonstances. / Network coding (NC) has gained much research attention as a potential candidate to solve the demand for higher spectral efficiency of modern wireless communications. Many research papers have investigated the performance of NC-aided networks such as throughput and outage capacity. However, the analysis of NC in practical systems where NC is combined with other techniques such as channel coding is still immature to fully understand its potential performance. In this thesis, we aim to design high performance receivers and analyze its performance for network-coded cooperative networks in practical scenarios.Firstly, we propose two Iterative Network/Channel Decoding (INCD) algorithms for the Multiple-Access Relay Channel (MARC) with two notable relaying schemes named Decode-and-Forward (DF) and Demodulate-and-Forward (DMF). The INCD algorithm operates based on turbo-like decoding methods and reduces the impact of the error propagation problem with the aid of a channel-aware receiver design. Both perfect Channel State Information (CSI) and imperfect CSI at the receiver side are investigated. We propose a practical method that forwards the quantized version of the relay decoding errors to the destination. It is shown that the proposed algorithms achieve full diversity gain and significantly outperforms solutions which do not take care of error propagation. We also show that the number of pilot symbols affects only the coding gain but has a negligible impact on the diversity order, while the quantization level affects both the diversity and coding gain.Secondly, we propose a Near Optimal Joint Network/Channel Decoding (NOJNCD) algorithm for the MARC that allows to analyze the system Bit Error Rate (BER). The NOJNCD algorithm performs network decoding and channel decoding in one decoding step of the super code, which comprises of all trellis states of individual code at the sources via NC. Furthermore, NC combined with Relay Selection (RS) is considered and the achievable diversity order is studied with the aid of outage analysis. We analytically show that Single Relay Selection (SRS) always achieves a diversity order two and Multiple Relay Selection (MRS) can achieve full diversity gain only when the number of selected relays exceeds the number of the sources.Last but not least, we propose a so-called partial relaying protocol to improve the spectral efficiency for channel coding assisted relay networks. Closed-form expression of the BER and the system diversity order are computed for partial relaying. We show, by analysis and simulations, that with a proper Convolutional Code (CC), partial relaying can achieve full diversity gain and same coding gain as the classical (full) relaying protocol in finite signal-to-noise ratio region while it obtains a better spectrum usage. Moreover, we propose a new protocol based on partial relaying in opportunistic relaying cooperative networks and show that this protocol significantly outperforms the NC-based cooperation in some circumstances.

Page generated in 0.045 seconds