• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 41
  • 25
  • 8
  • Tagged with
  • 80
  • 26
  • 18
  • 17
  • 17
  • 17
  • 15
  • 15
  • 14
  • 14
  • 12
  • 11
  • 11
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Protocoles d'interaction cerveau-machine pour améliorer la performance d'attention visuo-spatiale chez l'homme / Brain-computer interaction protocols for enhancing visuo-spatial attention performance in humans

Trachel, Romain 24 June 2014 (has links)
L'attention visuospatiale est un mécanisme de sélection et de traitement d'information qui se manifeste explicitement par l'orientation de la tête ou du regard. En anticipation d'une nouvelle information, le foyer de l'attention s'oriente implicitement en vision périphérique pour dissocier l'orientation du regard et du foyer implicite vers deux emplacements distincts. Dans cette situation, la réaction à une cible qui apparaît à l'emplacement du foyer implicite s'améliore par rapport aux autres cibles qui pourraient s'afficher dans un emplacement non-attendu. La problématique de la thèse est d'étudier comment détecter l'emplacement du foyer de l'attention implicite par décodage de l'activité cérébrale mesurée en électro-encéphalographie (EEG) avant l'affichage d'une cible visuelle dans 3 expériences réalisées chez des sujets sains. La première expérience aborde la problématique dans une condition où l'indication sur l'emplacement de la cible est globalement non-informative pour les sujets. Cependant, leur activité cérébrale suggère que ce type d'indication a tendance à induire un état d'alerte, de préparation ou d'orientation de l'attention dans le temps plutôt que dans l'espace. En lien avec ce résultat, la deuxième expérience aborde la problématique dans une condition ambiguë où l'attention du sujet s'oriente vers un emplacement sans lien systématique avec le contenu des indications. / Visuospatial attention is an information selection and processing mechanism whose overt manifestations consist of head or gaze shifts. In anticipation to new information, the focus of attention can also covertly shift to peripheral vision to share attention between two distinct locations: the overt one (center of gaze) and the covert one in periphery. In such a situation, the reaction to a target appearing at the focus of attention is enhanced with respect to targets appearing at unattended locations. This thesis addresses the problem of detecting the location of covert attention by decoding neural activity measured by electroencephalography (EEG) before target onset in 3 experiments on healthy subjects. The first experiment uses visuospatial cues that are non-informative about the target location. However, the neural activity reflects that non-informative cues tend to bring the subjects into a state related to alertness, motor preparation or temporal expectation rather than a spatial shift of attention. According to this result, the second experiment uses an ambiguous precueing condition in which the sujet's attention is shifted to spatial locations which bear a non-systematic relation to the information contained in the cues. With these ambiguous cues, we find that the proportion of targets displayed at unattended locations is equivalent to a non-informative condition, and that reaction speed and accuracy are dramatically impacted.
52

A study on the integration of phonetic landmarks into large vocabulary continuous speech decoding / Une étude sur l'intégration de repères phonétiques dans le décodage de la parole continue à grand vocabulaire

Ziegler, Stefan 17 January 2014 (has links)
Cette thèse étudie l'intégration de repères phonétiques dans la reconnaissance automatique de la parole (RAP) continue à grand vocabulaire. Les repères sont des événements à temps discret indiquant la présence d’événements phonétiques dans le signal de parole. Le but est de développer des détecteurs de repères qui sont motivés par la connaissance phonétique afin de modéliser quelques événements phonétiques plus précisément. La thèse présente deux approches de détection de repères, qui utilisent l'information extraite par segments et étudie deux méthodes différentes pour intégrer les repères dans le décodage, qui sont un élagage basé sur les repères et une approche reposant sur les combinaisons pondérées. Alors que les deux approches de détection de repères présentées améliorent les performance de reconnaissance de la parole comparées à l'approche de référence, elles ne surpassent pas les prédictions phonétiques standards par trame. Ces résultats indiquant que la RAP guidée par des repères nécessite de l'information phonétique très hétérogène pour être efficace, la thèse présente une troisième méthode d'intégration conçue pour intégrer un nombre arbitraire de flux de repères hétérogènes et asynchrones dans la RAP. Les résultats indiquent que cette méthode est en effet en mesure d'améliorer le système de référence, pourvu que les repères fournissent de l'information complémentaire aux modèles acoustiques standards. / This thesis studies the integration of phonetic landmarks into standard statistical large vocabulary continuous speech recognition (LVCSR). Landmarks are discrete time instances that indicate the presence of phonetic events in the speech signal. The goal is to develop landmark detectors that are motivated by phonetic knowledge in order to model selected phonetic classes more precisely than it is possible with standard acoustic models. The thesis presents two landmark detection approaches, which make use of segment-based information and studies two different methods to integrate landmarks into the decoding, which are landmark-based pruning and a weighted combination approach. While both approaches improve speech recognition performance compared to the baseline using weighted combination of landmarks and acoustic scores during decoding, they do not outperform standard frame-based phonetic predictions. Since these results indicate that landmark-driven LVCSR requires the integration of very heterogeneous information, the thesis presents a third integration framework that is designed to integrate an arbitrary number of heterogeneous and asynchronous landmark streams into LVCSR. The results indicate that this framework is indeed ale to improve the baseline system, as soon as landmarks provide complementary information to the regular acoustic models.
53

Interprétation et amélioration d’une procédure de démodulation itérative / Interpretation and amelioration of an iterative demodulation procedure

Naja, Ziad 01 April 2011 (has links)
La géométrie de l’information est la théorie mathématique qui applique les méthodes de la géométrie différentielle dans le domaine des statistiques et de la théorie de l’information. C’est une technique très prometteuse pour l’analyse et l’illustration des algorithmes itératifs utilisés en communications numériques. Cette thèse porte sur l’application de cette technique ainsi que d’autre technique d’optimisation bien connue, l’algorithme itératif du point proximal, sur les algorithmes itératifs en général. Nous avons ainsi trouvé des interprétations géométriques (basée sur la géométrie de l’information) et proximales (basée sur l’algorithme du point proximal)intéressantes dans le cas d’un algorithme itératif de calcul de la capacité des canaux discrets sans mémoire, l’algorithme de Blahut-Arimoto. L’idée étant d’étendre cette application sur une classe d’algorithmes itératifs plus complexes. Nous avons ainsi choisi d’analyser l’algorithme de décodage itératif des modulations codées à bits entrelacés afin de trouver quelques interprétations et essayer de proposer des liens existant avec le critère optimal de maximum de vraisemblance et d’autres algorithmes bien connus dans le but d’apporter certaines améliorations par rapport au cas classique de cet algorithme, en particulier l’étude de la convergence.Mots-clefs : Géométrie de l’information, algorithme du point proximal, algorithme de Blahut-Arimoto, décodage itératif, Modulations codées à bits entrelacés, maximum de vraisemblance. / Information geometry is a mathematical theory that applies methods of differential geometryin the fields of statistics and information theory. It is a very promising technique foranalyzing iterative algorithms used in digital communications. In this thesis, we apply this technique, in addition to the proximal point algorithm, to iterative algorithms. First, we have found some geometrical and proximal point interpretations in the case of an iterative algorithmfor computing the capacity of discrete and memoryless channel, the Blahut-Arimoto algorithm.Interesting results obtained motivated us to extend this application to a larger class of iterative algorithms. Then, we have studied in details iterative decoding algorithm of Bit Interleaved Coded Modulation (BICM) in order to analyse and propose some ameliorations of the classical decoding case. We propose a proximal point interpretation of this iterative process and find the link with some well known decoding algorithms, the Maximum likelihood decoding.
54

Amélioration des services vidéo fournis à travers les réseaux radio mobiles

Bouchireb, Khaled 25 June 2010 (has links) (PDF)
Cette thèse est dédiée à l'étude des systèmes de communications pour application aux services vidéo fournis par les réseaux radio mobiles. Ce travail met l'accent sur les systèmes point à multipoints et propose plusieurs améliorations : Dans un premier temps, on définit un système qui combine le décodage robuste aux retransmissions ARQ, et ce de telle façon à réduire le nombre de retransmissions tout en gardant le même niveau de qualité. Contrairement aux systèmes actuels (avec ou sans retransmissions), ce systèmes offre également la possibilité de choisir le compromis débit/qualité via un paramètre du système. Par la suite, on considère les sytèmes de transmission d'une vidéo scalable vers plusieurs terminaux. Des extensions des systèmes Go-Back-N (GBN) Automatic Repeat reQuest (ARQ) et Selective Repeat (SR) ARQ sont étudiées et comparées à un nouveau système. On montre que ce dernier limite les besoins de bufferisation au niveau du terminal récepteur tout en ayant des performances optimales (en termes de quantité de données transmises avec succès sur une période donnée). Finalement, on montre que même sous une contrainte débit on peut utiliser les retransmissions dans les communications point à multipoints à condition de ne pas dépasser une certaine limite sur le nombre d'utilisateurs. Si l'utilisation des retransmissions ARQ est introduite dans les sytèmes de Multicast/Broadcast 3GPP et/ou WiMAX, le système pourra garantir une qualité nominale à un certain nombre d'utilisateurs, ce qui n'est pas le cas des systèmes de Multicast/Broadcast actuels.
55

Codes AL-FEC hautes performances pour les canaux à effacements : variations autour des codes LDPC

Cunche, Mathieu 01 March 2010 (has links) (PDF)
Nous assistons au développement rapide des solutions de diffusion de contenus sur des systèmes, où en plus des traditionnelles corruptions de l'information dans les couches basses, se pose le problème des pertes de paquets d'informations. Le besoin de fiabiliser ces systèmes de transmission a conduit à l'émergence de codes correcteurs d'effacements, qui grâce à l'ajout d'informations redondantes, permettent de reconstruire l'information perdue. Dans cette thèse nous abordons le problème de la conception de codes à effacements ayant de bonnes capacités de correction et dont les algorithmes de décodage possèdent une complexité permettant d'atteindre des débits élevés. Pour cela, nous avons choisi de travailler conjointement sur les codes et sur leur implémentation au sein d'un codec logiciel, et plus particulièrement sur les algorithmes de décodage. La première partie de nos travaux montre que des solutions basées sur les codes “Low-Density Parity-Check” (LDPC) permettent d'obtenir d'excellents résultats. En particulier lorsque ces codes sont décodés avec un décodeur hybride IT/ML qui permet d'obtenir des capacités de corrections proches de l'optimal, tout en conservant une complexité acceptable. De plus, nous montrons que grâce à l'utilisation de codes LDPC structurés la complexité du décodage ML peut être largement réduite. Nous étudions ensuite le développement de systèmes combinant un code à effacements et des fonctionnalités cryptographiques. Les systèmes résultants permettent de réduire la complexité globale du système tout en garantissant un niveau de sécurité élevé. Finalement, nous présentons une technique de tolérance aux fautes basée sur des codes correcteurs pour des applications de multiplications matricielles. Cette technique nous permet de construire un système de calcul distribué sur plateforme P2P tolérant efficacement aussi bien les pannes franches que les erreurs malicieuses.
56

Récepteur itératifs : ordonnancement, convergence et complexité

HADDAD, Salim 16 November 2012 (has links) (PDF)
Le traitement itératif est actuellement largement répandu dans les récepteurs sans fil modernes pour le décodage des codes de canal avancés. L'extension de ce principe avec l'ajout d'une boucle de rétroaction vers l'égaliseur et le demappeur a montré d'excellentes performances dans des conditions sévères de canaux de transmission (effacement, multi-trajets, modèles réels de canaux à évanouissements). Toutefois, l'adoption du traitement itératif avec du turbo décodage est fortement limitée par la complexité d'implémentation engendrée, qui impacte fortement sur le débit, la latence et la consommation. Pour faire face à ces problèmes et permettre l'adoption généralisée du traitement itératif, de nouvelles techniques d'optimisation au niveau système doivent être exploitées. Dans ce travail, nous avons étudié la vitesse de convergence et la complexité au niveau système des récepteurs avancés combinant plusieurs processus itératifs. La première partie de cette thèse a été axée sur l'étude de la combinaison de la démodulation itérative avec du turbo décodage, tandis que la deuxième partie a étendu cette étude vers les récepteurs itératifs MIMO en appliquant de la turbo égalisation, de la turbo démodulation et du turbo décodage. Plusieurs techniques de communication et paramètres système, tels que spécifiés dans les applications émergentes de communication sans fil, ont été pris en compte. De nouveaux ordonnancements des itérations pour les boucles de rétroaction internes et externes ont été proposés pour améliorer la convergence et réduire la complexité globale en termes d'opérations arithmétiques et d'accès mémoire. En outre, l'analyse effectuée et les ordonnancements proposés démontrent l'efficacité des boucles de rétroaction externes, même en termes de complexité, par rapport aux récepteurs classiques non itératifs. Ces résultats ont permis la proposition de nouveaux récepteurs itératifs à complexité adaptative appliquant du turbo décodage, de la turbo démodulation et de la turbo égalisation.
57

Etude de la pertinence des paramètres stochastiques sur des modèles de Markov cachés

Robles, Bernard 18 December 2013 (has links) (PDF)
Le point de départ de ce travail est la thèse réalisée par Pascal Vrignat sur la modélisation de niveaux de dégradation d'un système dynamique à l'aide de Modèles de Markov Cachés (MMC), pour une application en maintenance industrielle. Quatre niveaux ont été définis : S1 pour un arrêt de production et S2 à S4 pour des dégradations graduelles. Recueillant un certain nombre d'observations sur le terrain dans divers entreprises de la région, nous avons réalisé un modèle de synthèse à base de MMC afin de simuler les différents niveaux de dégradation d'un système réel. Dans un premier temps, nous identifions la pertinence des différentes observations ou symboles utilisés dans la modélisation d'un processus industriel. Nous introduisons ainsi le filtre entropique. Ensuite, dans un but d'amélioration du modèle, nous essayons de répondre aux questions : Quel est l'échantillonnage le plus pertinent et combien de symboles sont ils nécessaires pour évaluer au mieux le modèle ? Nous étudions ensuite les caractéristiques de plusieurs modélisations possibles d'un processus industriel afin d'en déduire la meilleure architecture. Nous utilisons des critères de test comme les critères de l'entropie de Shannon, d'Akaike ainsi que des tests statistiques. Enfin, nous confrontons les résultats issus du modèle de synthèse avec ceux issus d'applications industrielles. Nous proposons un réajustement du modèle pour être plus proche de la réalité de terrain.
58

Turbo-codes quantiques

Abbara, Mamdouh 09 April 2013 (has links) (PDF)
L'idée des turbo-codes, construction très performante permettant l'encodage de l'information classique, ne pouvait jusqu'à présent pas être transposé au problème de l'encodage de l'information quantique. En effet, il subsistait des obstacles tout aussi théoriques que relevant de leur implémentation. A la version quantique connue de ces codes, on ne connaissait ni de résultat établissant une distance minimale infinie, propriété qui autorise de corriger un nombre arbitraire d'erreurs, ni de décodage itératif efficace, car les turbo-encodages quantiques, dits catastrophiques, propagent certaines erreurs lors d'un tel décodage et empêchent son bon fonctionnement. Cette thèse a permis de relever ces deux défis, en établissant des conditions théoriques pour qu'un turbo-code quantique ait une distance minimale infinie, et d'autre part, en exhibant une construction permettant au décodage itératif de bien fonctionner. Les simulations montrent alors que la classe de turbo-codes quantiques conçue est efficace pour transmettre de l'information quantique via un canal dépolarisant dont l'intensité de dépolarisation peut aller jusqu'à p = 0,145. Ces codes quantiques, de rendement constant, peuvent aussi bien être utilisés directement pour encoder de l'information quantique binaire, qu'être intégrés comme modules afin d'améliorer le fonctionnement d'autres codes tels que les LDPC quantiques.
59

Mise à l’épreuve d’un modèle de lecture auprès de jeunes lecteurs monolingues et plurilingues en Suisse : la "Simple View of Reading Theory“ / Examining evidence for the “Simple View of Reading Theory” in monolingual and multilingual young readers in Switzerland

Dittmann-Domenichini, Nora 07 February 2013 (has links)
Basé sur une étude empirique, la présente thèse apporte un éclairage sur les compétences de lecture, de décodage et de compréhension orale en allemand chez des élèves plurilingues immigrés et leurs homologues monolingues suisses allemands. Un échantillon d’environ 500 élèves plurilingues et de 160 élèves monolingues constitue la base empirique de ce travail qui nous a servi à examiner certains éléments de controverses ainsi que la capacité prédictive de la théorie de la «Simple View of Reading » ( Philipp B. Gough & Tunmer, 1986 p. 85; Hoover & Gough, 1990). Nous constatons que la compréhension orale et le décodage possèdent une forte valeur prédictive pour les compétences en lecture. Cette valeur prédictive dépend cependant fortement de la façon dont les compétences en lecture sont opérationnalisées et elle est plus élevée dans le groupe des lecteurs débutants (en CE1/CE2). La modélisation des compétences de lecture d’après la la « Simple View of Reading Theory » réussit mieux pour des tests de lecture courts, à choix multiples et sous contrainte de temps que pour des tests à base de textes plus longs et authentiques, qui proposent différents formats de réponses. L’intégration du facteur de l’intelligence dans le modèle de prédiction est plus bénéfique pour le groupe des lecteurs plus expérimentés (CM2/6ème). L’utilisation de la méthode des analyses de régressions multiples à plusieurs niveaux (MLwiN) a mis en évidence que l’apport du QI est plus important lorsqu’on examine les compétences au niveau des classes qu’au niveau des élèves pris individuellement. Nous écartons donc la proposition d’une substitution du facteur compréhension orale au profit du QI comme Tiu, Thompson et Lewis (2003) l’ont proposé. / This work aimed to examine controversial elements as well as the explanatory strength of the “Simple View of Reading Theory”. It has been based on empirical data analyses of language abilities of about 500 multilingual and 160 monolingual school graders in the German speaking part of Switzerland (Philipp B. Gough & Tunmer, 1986; Hoover & Gough, 1990). We found evidence in both groups (monolingual and multilingual pupils) for a strong impact of listening comprehension and decoding in explaining reading comprehension abilities. The degree of the explained variance was determined by the test used to evaluate reading comprehension and by the age of pupils, showing a bigger effect with young readers (2nd/3rd graders) than with more experienced readers (5th / 6th graders). Modeling reading comprehension abilities based on the «Simple View of Reading Theory» proved to be more successful when using short, time limited, multiple choice reading tests than using a test with longer, authentic texts and offering a mixture of different response formats. The integration of the intelligence factor into our model improved the prediction of reading abilities in the group of the more experiences readers (5th / 6th graders). The improvement though was essentially situated at the level of school classes as unit of analyses. On the individual level only minor improvements were observed. Therefore we would reject the idea of eliminating the listening comprehension factor in favor of an integration of the IQ factor that has been suggested by Tiu, Thompson and Lewis (2003).
60

Codage pour les communications coopératives : Codage de source distribué et canaux à relais / Coding for cooperative communications : Topics in distributed source coding and relay channels

Savard, Anne 22 September 2015 (has links)
L'augmentation du trafic sur les réseaux sans fil ne permet plus de traiter les données en utilisant les protocoles standard des réseaux filaires, qui sont eux sans interférences. Ainsi, les nœuds des réseaux sans fil doivent coopérer en exploitant les corrélations inhérentes à la proximité des utilisateurs afin d'exploiter au mieux la capacité d'un tel réseau.Dans cette thèse, nous considérons tout d'abord le problème de codage de source avec information adjacente compressée. Le nœud coopératif, ayant accès à un signal corrélé avec celui de la source, peut en envoyer une version compressée au destinataire sur un lien indépendant, permettant d'économiser du débit sur le lien principal. En utilisant une caractérisation des cellules de Voronoi du quantificateur utilisé, nous avons pu améliorer un algorithme de décodage itératif basé sur des codes LDPC.La seconde partie de la thèse traite des problèmes de codage de canal, où les nœuds coopératifs sont des relais. L'exemple le plus simple d'une telle communication est le canal à relais, où un relais aide à la communication entre la source et la destination. Alors que dans le problème de codage de source, le canal de corrélation entre la source et le nœud coopératif est fixé, dans le codage de canal, la question est de savoir quelle opération effectuer au relais. Tout d'abord, nous considérons un problème quelque peu dual au problème de codage de source avec information adjacente compressée, en considérant des bruits corrélés au relais et la destination. Puis, nous étudions des bornes sur la capacité et des débits atteignables pour deux extensions du canal à relais, le canal à relais bidirectionnel avec des bruits corrélés au relais et aux destinations, où deux sources échangent leurs données avec l'aide d'un relais, et le canal multidirectionnel avec liens directs (qui modélisent la proximité des utilisateurs), où les utilisateurs sont regroupés dans des clusters et échangent leurs données localement au sein d'un même cluster avec l'aide d'un relais. / The current wireless data traffic growth cannot be handled by classical multi-hop network protocols as in interference-free wired networks, thus it has been recognized that network nodes need to cooperate in order to take advantage of source and/or channel signal correlations, which is needed to achieve fundamental capacity limits.This thesis first considers a cooperative source coding problem, namely binary source coding with coded side information (CoSI): the helper node has access to a signal that is correlated with the source and may send a compressed version on a separate link to the destination, thus rate can be saved on the main source-destination link. Using a characterization of the Hamming-space Voronoi regions of the quantizer at the helper node, an improved practical scheme based on LDPC codes is proposed.The second part of the thesis considers cooperative channel coding, where helper nodes are relays. The simplest example of such a communication is the relay channel, in which a relay node helps the source to send its message to the destination. Whereas in the source coding problem, the correlation between source and side information is given, in channel coding, the main question is to find the best relaying operation. First, a somewhat dual problem to source coding with CoSI is studied, by considering correlated noises at the relay and destination. Then, various extensions of the relay channel are characterized using upper bounds on capacity and achievable rates: the two-way relay channel with correlated noises at the relay and destinations, where two sources wish to exchange their data with the help of a relay, and the multiway relay channel with direct links, where users, grouped into fully connected clusters (users in a cluster can overhear each others' messages), wish to exchange their messages locally within a cluster with the help of one relay.

Page generated in 0.0383 seconds