• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 41
  • 25
  • 8
  • Tagged with
  • 80
  • 26
  • 18
  • 17
  • 17
  • 17
  • 15
  • 15
  • 14
  • 14
  • 12
  • 11
  • 11
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Représentation reconstruction adaptative des hologrammes numériques / Adaptative représentation and reconstruction of digital holograms

Viswanathan, Kartik 01 December 2016 (has links)
On constate une forte augmentation de l’intérêt porté sur l’utilisation des technologies vidéo 3D pour des besoins commerciaux, notamment par l’application de l’holographie, pour fournir des images réalistes, qui semblent vivantes. Surtout, pour sa capacité à reconstruire tous les parallaxes nécessaires, afin de permettre de réaliser une vision véritablement immersive qui peut être observée par quiconque (humains, machine ou animal). Malheureusement la grande quantité d'information contenue dans un hologramme le rend inapte à être transmis en temps réel sur les réseaux existants. Cette thèse présente des techniques afin de réduire efficacement la taille de l'hologramme par l'élagage de portions de l'hologramme en fonction de la position de l'observateur. Un grand nombre d'informations contenues dans l'hologramme n'est pas utilisé si le nombre d'observateurs d'une scène immersive est limité. Sous cette hypothèse, éléments de l'hologramme peuvent être décomposés pour que seules les parties requises sensibles au phénomène de diffraction vers un point d'observation particulier soient conservés. Les reconstructions de ces hologrammes élagués peuvent être propagées numériquement ou optiquement. On utilise la transformation en ondelettes pour capter les informations de fréquences localisées depuis l'hologramme. La sélection des ondelettes est basée sur des capacités de localisation en espace et en fréquence. Par exemple, les ondelettes de Gabor et Morlet possèdent une bonne localisation dans l'espace et la fréquence. Ce sont des bons candidats pour la reconstruction des hologrammes suivant la position de l'observateur. Pour cette raison les ondelettes de Shannon sont également utilisées. De plus l'application en fonction du domaine de fréquence des ondelettes de Shannon est présentée pour fournir des calculs rapides de l'élagage en temps réel et de la reconstruction. / With the increased interest in 3D video technologies for commercial purposes, there is renewed interest in holography for providing true, life-like images. Mainly for the hologram's capability to reconstruct all the parallaxes that are needed for a truly immersive views that can be observed by anyone (human, machine or animal). But the large amount of information that is contained in a hologram make it quite unsuitable to be transmitted over existing networks in real-time. In this thesis we present techniques to effectively reduce the size of the hologram by pruning portions of the hologram based on the position of the observer. A large amount of information contained in the hologram is not used if the number of observers of an immersive scene is limited. Under this assumption, parts of the hologram can be pruned out and only the requisite parts that can cause diffraction at an observer point can be retained. For reconstructions these pruned holograms can be propagated numerically or optically. Wavelet transforms are employed to capture the localized frequency information from the hologram. The selection of the wavelets is based on the localization capabilities in the space and frequency domains. Gabor and Morlet wavelets possess good localization in space and frequency and form good candidates for the view based reconstruction system. Shannon wavelets are also employed for this cause and the frequency domain based application using the Shannon wavelet is shown to provide fast calculations for real-time pruning and reconstruction.
62

Exploitation d’informations riches pour guider la traduction automatique statistique / Complex Feature Guidance for Statistical Machine Translation

Marie, Benjamin 25 March 2016 (has links)
S'il est indéniable que de nos jours la traduction automatique (TA) facilite la communication entre langues, et plus encore depuis les récents progrès des systèmes de TA statistiques, ses résultats sont encore loin du niveau de qualité des traductions obtenues avec des traducteurs humains.Ce constat résulte en partie du mode de fonctionnement d'un système de TA statistique, très contraint sur la nature des modèles qu'il peut utiliser pour construire et évaluer de nombreuses hypothèses de traduction partielles avant de parvenir à une hypothèse de traduction complète. Il existe cependant des types de modèles, que nous qualifions de « complexes », qui sont appris à partir d'informations riches. Si un enjeu pour les développeurs de systèmes de TA consiste à les intégrer lors de la construction initiale des hypothèses de traduction, cela n'est pas toujours possible, car elles peuvent notamment nécessiter des hypothèses complètes ou impliquer un coût de calcul très important. En conséquence, de tels modèles complexes sont typiquement uniquement utilisés en TA pour effectuer le reclassement de listes de meilleures hypothèses complètes. Bien que ceci permette dans les faits de tirer profit d'une meilleure modélisation de certains aspects des traductions, cette approche reste par nature limitée : en effet, les listes d'hypothèses reclassées ne représentent qu'une infime partie de l'espace de recherche du décodeur, contiennent des hypothèses peu diversifiées, et ont été obtenues à l'aide de modèles dont la nature peut être très différente des modèles complexes utilisés en reclassement.Nous formulons donc l'hypothèse que de telles listes d'hypothèses de traduction sont mal adaptées afin de faire s'exprimer au mieux les modèles complexes utilisés. Les travaux que nous présentons dans cette thèse ont pour objectif de permettre une meilleure exploitation d'informations riches pour l'amélioration des traductions obtenues à l'aide de systèmes de TA statistique.Notre première contribution s'articule autour d'un système de réécriture guidé par des informations riches. Des réécritures successives, appliquées aux meilleures hypothèses de traduction obtenues avec un système de reclassement ayant accès aux mêmes informations riches, permettent à notre système d'améliorer la qualité de la traduction.L'originalité de notre seconde contribution consiste à faire une construction de listes d'hypothèses par passes multiples qui exploitent des informations dérivées de l'évaluation des hypothèses de traduction produites antérieurement à l'aide de notre ensemble d'informations riches. Notre système produit ainsi des listes d'hypothèses plus diversifiées et de meilleure qualité, qui s'avèrent donc plus intéressantes pour un reclassement fondé sur des informations riches. De surcroît, notre système de réécriture précédent permet d'améliorer les hypothèses produites par cette deuxième approche à passes multiples.Notre troisième contribution repose sur la simulation d'un type d'information idéalisé parfait qui permet de déterminer quelles parties d'une hypothèse de traduction sont correctes. Cette idéalisation nous permet d'apporter une indication de la meilleure performance atteignable avec les approches introduites précédemment si les informations riches disponibles décrivaient parfaitement ce qui constitue une bonne traduction. Cette approche est en outre présentée sous la forme d'une traduction interactive, baptisée « pré-post-édition », qui serait réduite à sa forme la plus simple : un système de TA statistique produit sa meilleure hypothèse de traduction, puis un humain apporte la connaissance des parties qui sont correctes, et cette information est exploitée au cours d'une nouvelle recherche pour identifier une meilleure traduction. / Although communication between languages has without question been made easier thanks to Machine Translation (MT), especially given the recent advances in statistical MT systems, the quality of the translations produced by MT systems is still well below the translation quality that can be obtained through human translation. This gap is partly due to the way in which statistical MT systems operate; the types of models that can be used are limited because of the need to construct and evaluate a great number of partial hypotheses to produce a complete translation hypothesis. While more “complex” models learnt from richer information do exist, in practice, their integration into the system is not always possible, would necessitate a complete hypothesis to be computed or would be too computationally expensive. Such features are therefore typically used in a reranking step applied to the list of the best complete hypotheses produced by the MT system.Using these features in a reranking framework does often provide a better modelization of certain aspects of the translation. However, this approach is inherently limited: reranked hypothesis lists represent only a small portion of the decoder's search space, tend to contain hypotheses that vary little between each other and which were obtained with features that may be very different from the complex features to be used during reranking.In this work, we put forward the hypothesis that such translation hypothesis lists are poorly adapted for exploiting the full potential of complex features. The aim of this thesis is to establish new and better methods of exploiting such features to improve translations produced by statistical MT systems.Our first contribution is a rewriting system guided by complex features. Sequences of rewriting operations, applied to hypotheses obtained by a reranking framework that uses the same features, allow us to obtain a substantial improvement in translation quality.The originality of our second contribution lies in the construction of hypothesis lists with a multi-pass decoding that exploits information derived from the evaluation of previously translated hypotheses, using a set of complex features. Our system is therefore capable of producing more diverse hypothesis lists, which are globally of a better quality and which are better adapted to a reranking step with complex features. What is more, our forementioned rewriting system enables us to further improve the hypotheses produced with our multi-pass decoding approach.Our third contribution is based on the simulation of an ideal information type, designed to perfectly identify the correct fragments of a translation hypothesis. This perfect information gives us an indication of the best attainable performance with the systems described in our first two contributions, in the case where the complex features are able to modelize the translation perfectly. Through this approach, we also introduce a novel form of interactive translation, coined "pre-post-editing", under a very simplified form: a statistical MT system produces its best translation hypothesis, then a human indicates which fragments of the hypothesis are correct, and this new information is then used during a new decoding pass to find a new best translation.
63

Codes correcteurs quantiques pouvant se décoder itérativement / Iteratively-decodable quantum error-correcting codes

Maurice, Denise 26 June 2014 (has links)
On sait depuis vingt ans maintenant qu'un ordinateur quantique permettrait de résoudre en temps polynomial plusieurs problèmes considérés comme difficiles dans le modèle classique de calcul, comme la factorisation ou le logarithme discret. Entre autres, un tel ordinateur mettrait à mal tous les systèmes de chiffrement à clé publique actuellement utilisés en pratique, mais sa réalisation se heurte, entre autres, aux phénomènes de décohérence qui viennent entacher l'état des qubits qui le constituent. Pour protéger ces qubits, on utilise des codes correcteurs quantiques, qui doivent non seulement être performants mais aussi munis d'un décodage très rapide, sous peine de voir s'accumuler les erreurs plus vite qu'on ne peut les corriger. Une solution très prometteuse est fournie par des équivalents quantiques des codes LDPC (Low Density Parity Check, à matrice de parité creuse). Ces codes classiques offrent beaucoup d'avantages : ils sont faciles à générer, rapides à décoder (grâce à un algorithme de décodage itératif) et performants. Mais leur version quantique se heurte (entre autres) à deux problèmes. On peut voir un code quantique comme une paire de codes classiques, dont les matrices de parité sont orthogonales entre elles. Le premier problème consiste alors à construire deux « bons » codes qui vérifient cette propriété. L'autre vient du décodage : chaque ligne de la matrice de parité d'un des codes fournit un mot de code de poids faible pour le second code. En réalité, dans un code quantique, les erreurs correspondantes sont bénignes et n'affectent pas le système, mais il est difficile d'en tenir compte avec l'algorithme de décodage itératif usuel. On étudie dans un premier temps une construction existante, basée sur un produit de deux codes classiques. Cette construction, qui possède de bonnes propriétés théoriques (dimension et distance minimale), s'est avérée décevante dans les performances pratiques, qui s'expliquent par la structure particulière du code produit. Nous proposons ensuite plusieurs variantes de cette construction, possédant potentiellement de bonnes propriétés de correction. Ensuite, on étudie des codes dits q-Aires~: ce type de construction, inspiré des codes classiques, consiste à agrandir un code LDPC existant en augmentant la taille de son alphabet. Cette construction, qui s'applique à n'importe quel code quantique 2-Régulier (c'est-À-Dire dont les matrices de parité possèdent exactement deux 1 par colonne), a donné de très bonnes performances dans le cas particulier du code torique. Ce code bien connu se décode usuellement très bien avec un algorithme spécifique, mais mal avec l'algorithme usuel de propagation de croyances. Enfin, un équivalent quantique des codes spatialement couplés est proposé. Cette idée vient également du monde classique, où elle améliore de façon spectaculaire les performances des codes LDPC : le décodage s'effectue en temps quasi-Linéaire et atteint, de manière prouvée, la capacité des canaux symétriques à entrées binaires. Si dans le cas quantique, la preuve éventuelle reste encore à faire, certaines constructions spatialement couplées ont abouti à d'excellentes performances, bien au-Delà de toutes les autres constructions de codes LDPC quantiques proposées jusqu'à présent. / Quantum information is a developping field of study with various applications (in cryptography, fast computing, ...). Its basic element, the qubit, is volatile : any measurement changes its value. This also applies to unvolontary measurements due to an imperfect insulation (as seen in any practical setting). Unless we can detect and correct these modifications, any quantum computation is bound to fail. These unwanted modifications remind us of errors that can happen in the transmission of a (classical) message. These errors can be accounted for with an error-Correcting code. For quantum errors, we need to set quantum error-Correcting codes. In order to prevent the clotting of errors that cannot be compensated, these quantum error-Correcting codes need to be both efficient and fast. Among classical error-Correcting codes, Low Density Parity Check (LDPC) codes provide many perks: They are easy to create, fast to decode (with an iterative decoding algorithme, known as belief propagation) and close to optimal. Their quantum equivalents should then be good candidates, even if they present two major drawbacks (among other less important ones). A quantum error correction code can be seen as a combination of two classical codes, with orthogonal parity-Check matrices. The first issue is the building of two efficient codes with this property. The other is in the decoding: each row of the parity-Check matrix from one code gives a low-Weight codeword of the other code. In fact, with quantum codes, corresponding errors do no affect the system, but are difficult to account for with the usual iterative decoding algorithm. In the first place, this thesis studies an existing construction, based on the product of two classical codes. This construction has good theoritical properties (dimension and minimal distance), but has shown disappointing practical results, which are explained by the resulting code's structure. Several variations, which could have good theoritical properties are also analyzed but produce no usable results at this time. We then move to the study of q-Ary codes. This construction, derived from classical codes, is the enlargement of an existing LDPC code through the augmentation of its alphabet. It applies to any 2-Regular quantum code (meaning with parity-Check matrices that have exactly two ones per column) and gives good performance with the well-Known toric code, which can be easily decoded with its own specific algorithm (but not that easily with the usual belief-Propagation algorithm). Finally this thesis explores a quantum equivalent of spatially coupled codes, an idea also derived from the classical field, where it greatly enhances the performance of LDPC codes. A result which has been proven. If, in its quantum form, a proof is still not derived, some spatially-Coupled constructions have lead to excellent performance, well beyond other recent constuctions.
64

Brain decoding of the Human Connectome Project Tasks in a Dense Individual fMRI Dataset

Rastegarnia, Shima 11 1900 (has links)
Les études de décodage cérébral visent à entrainer un modèle d'activité cérébrale qui reflète l'état cognitif du participant. Des variations interindividuelles substantielles dans l'organisation fonctionnelle du cerveau représentent un défi pour un décodage cérébral précis. Dans cette thèse, nous évaluons si des modèles de décodage cérébral précis peuvent être entrainés avec succès entièrement au niveau individuel. Nous avons utilisé un ensemble de données individuel dense d'imagerie par résonance magnétique fonctionnelle (IRMf) pour lequel six participants ont terminé l'ensemble de la batterie de tâches du “Human Connectome Project” > 13 fois sur dix sessions d'IRMf distinctes. Nous avons implémenté plusieurs méthodes de décodage, des simples machines à vecteurs de support aux réseaux complexes de neurones à convolution de graphes. Tous les décodeurs spécifiques à l'individu ont été entrainés pour classifier simultanément les volumes d'IRMf simples (TR = 1,49) entre 21 conditions expérimentales, en utilisant environ sept heures de données d'IRMf par participant. Les meilleurs résultats de prédiction ont été obtenus avec notre modèle de machine à vecteurs de support avec une précision de test allant de 64 à 79 % (niveau de la chance environ 7%). Les perceptrons multiniveaux et les réseaux convolutionnels de graphes ont également obtenu de très bons résultats (63-78% et 63-77%, respectivement). Les cartes d'importance des caractéristiques dérivées du meilleur modèle (SVM) ont révélé que la classification utilise des régions pertinentes pour des domaines cognitifs particuliers, sur la base d’a priori neuro-anatomique. En appliquant un modèle individuel aux données d’un autre sujet (classification inter-sujets), on observe une précision nettement inférieure à celle des modèles spécifiques au sujet, ce qui indique que les décodeurs cérébraux individuels ont appris des caractéristiques spécifiques à chaque individu. Nos résultats indiquent que des ensembles de données de neuroimagerie profonde peuvent être utilisés pour former des modèles de décodage cérébral précis au niveau individuel. Les données de cette étude sont partagées librement avec la communauté (https://cneuromod.ca), et pourront servir de benchmark de référence, pour l’entrainement de modèles de décodage cérébral individuel, ou bien des études de “transfert learning” à partir de l’échantillon collecté par le human connectome project. / Brain decoding studies aim to train a pattern of brain activity that reflects the cognitive state of the participant. Substantial inter-individual variations in functional organization represent a challenge to accurate brain decoding. In this thesis, we assess whether accurate brain decoding models can be successfully trained entirely at the individual level. We used a dense individual functional magnetic resonance imaging (fMRI) dataset for which six participants completed the entire Human Connectome Project (HCP) task battery>13 times across ten separate fMRI sessions. We assessed several decoding methods, from simple support vector machines to complex graph convolution neural networks. All individual-specific decoders were trained to classify single fMRI volumes (TR = 1.49) between 21 experimental conditions simultaneously, using around seven hours of fMRI data per participant. The best prediction accuracy results were achieved with our support vector machine model with test accuracy ranging from 64 to 79% (chance level of about 7%). Multilevel perceptrons and graph convolutional networks also performed very well (63-78% and 63-77%, respectively). Best Model Derived Feature Importance Maps (SVM) revealed that the classification uses regions relevant to particular cognitive domains, based on neuroanatomical priors. Applying an individual model to another subject's data (across-subject classification) yields significantly lower accuracy than subject-specific models, indicating that individual brain decoders have learned characteristics specific to each individual. Our results indicate that deep neuroimaging datasets can be used to train accurate brain decoding models at the individual level. The data from this study is shared freely with the community (https://cneuromod.ca) and can be used as a reference benchmark, for training individual brain decoding models, or for “transfer learning” studies from the sample collected by the human connectome project.
65

La reconnaissance visuelle des mots chez le dyslexique : implication des voies ventrale et dorsale

Mahé, Gwendoline 04 July 2013 (has links) (PDF)
L'objectif de ces travaux a été d'étudier, à partir des potentiels évoqués, l'implication des voies ventrale (qui sous-tend le traitement expert de l'écrit) et dorsale (qui sous-tend des processus phonologiques et attentionnels) lors de la reconnaissance visuelle des mots chez des adultes dyslexiques. Les spécificités des sujets dyslexiques ont été isolées en les comparant à deux groupes contrôles, appariés sur : l'âge (i.e., des lecteurs experts) et sur le niveau de lecture (i.e., des mauvais lecteurs). Les résultats montrent des déficits du traitement expert de l'écrit, phonologiques et de la détection du conflit spécifiques aux sujets dyslexiques. Nos données montrent aussi des déficits du traitement expert des mots familiers et d'orientation de l'attention communs aux sujets dyslexiques et mauvais lecteurs. Les résultats sont discutés dans le cadre du modèle LCD, de la théorie du mapping phonologique et d'une implication précoce de l'orientation attentionnelle dans la lecture.
66

Management d'opérateurs communs dans les architectures de terminaux multistandards.

Naoues, Malek 26 November 2013 (has links) (PDF)
Les équipements de communications numériques intègrent de plus en plus de standards. La commutation d'un standard à l'autre doit pouvoir se faire au prix d'un surcoût matériel modéré, ce qui impose l'utilisation de ressources communes dans des instanciations différentes. La plateforme matérielle nécessaire à l'exécution d'une couche physique multistandard est le segment du système présentant le plus de contraintes par rapport à la reconfiguration : réactivité, consommation et occupation de ressources matérielles. Nos travaux se focalisent sur la paramétrisation qui vise une implémentation multistandards efficace. L'objectif de cette technique est d'identifier des traitements communs entre les standards, voire entre blocs de traitement au sein d'un même standard, afin de définir des blocs génériques pouvant être réutilisés facilement. Nous définissons le management d'opérateurs mutualisés (opérateurs communs) et nous étudions leur implémentation en se basant essentiellement sur des évaluations de complexité pour quelques standards utilisant la modulation OFDM. Nous proposons en particulier l'architecture d'un opérateur commun permettant la gestion efficace des ressources matérielles entre les algorithmes FFT et décodage de Viterbi. L'architecture, que nous avons proposé et implémenté sur FPGA, permet d'adapter le nombre d'opérateurs communs alloués à chaque algorithme et donc permet l'accélération des traitements. Les résultats montrent que l'utilisation de cette architecture commune offre des gains en complexité pouvant atteindre 30% dans les configurations testées par rapport à une implémentation classique avec une réduction importante de l'occupation mémoire.
67

Décoder la localisation de l'attention visuelle spatiale grâce au signal EEG

Thiery, Thomas 09 1900 (has links)
L’attention visuo-spatiale peut être déployée à différentes localisations dans l’espace indépendamment de la direction du regard, et des études ont montré que les composantes des potentiels reliés aux évènements (PRE) peuvent être un index fiable pour déterminer si celle-ci est déployée dans le champ visuel droit ou gauche. Cependant, la littérature ne permet pas d’affirmer qu’il soit possible d’obtenir une localisation spatiale plus précise du faisceau attentionnel en se basant sur le signal EEG lors d’une fixation centrale. Dans cette étude, nous avons utilisé une tâche d’indiçage de Posner modifiée pour déterminer la précision avec laquelle l’information contenue dans le signal EEG peut nous permettre de suivre l’attention visuelle spatiale endogène lors de séquences de stimulation d’une durée de 200 ms. Nous avons utilisé une machine à vecteur de support (MVS) et une validation croisée pour évaluer la précision du décodage, soit le pourcentage de prédictions correctes sur la localisation spatiale connue de l’attention. Nous verrons que les attributs basés sur les PREs montrent une précision de décodage de la localisation du focus attentionnel significative (57%, p<0.001, niveau de chance à 25%). Les réponses PREs ont également prédit avec succès si l’attention était présente ou non à une localisation particulière, avec une précision de décodage de 79% (p<0.001). Ces résultats seront discutés en termes de leurs implications pour le décodage de l’attention visuelle spatiale, et des directions futures pour la recherche seront proposées. / Visuospatial attention can be deployed to different locations in space independently of ocular fixation, and studies have shown that event-related potential (ERP) components can effectively index whether such covert visuospatial attention is deployed to the left or right visual field. However, it is not clear whether we may obtain a more precise spatial localization of the focus of attention based on the EEG signals during central fixation. In this study, we used a modified Posner cueing task with an endogenous cue to determine the degree to which information in the EEG signal can be used to track visual spatial attention in presentation sequences lasting 200 ms. We used a machine learning classification method to evaluate how well EEG signals discriminate between four different locations of the focus of attention. We then used a multi-class support vector machine (SVM) and a leave-one-out cross-validation framework to evaluate the decoding accuracy (DA). We found that ERP-based features from occipital and parietal regions showed a statistically significant valid prediction of the location of the focus of visuospatial attention (DA = 57%, p < .001, chance-level 25%). The mean distance between the predicted and the true focus of attention was 0.62 letter positions, which represented a mean error of 0.55 degrees of visual angle. In addition, ERP responses also successfully predicted whether spatial attention was allocated or not to a given location with an accuracy of 79% (p < .001). These findings are discussed in terms of their implications for visuospatial attention decoding and future paths for research are proposed.
68

Communication chez un oiseau à système socio-sexuel de type lek : étude des signaux acoustiques et visuels pendant la parade des mâles d'outarde houbara Chlamydotis undulata undulata / Communication in a lekking bird : study of visual and acoustic signals produced during male courtship of the North-African houbara bustard, Chlamydotis undulata undulata

Cornec, Clément 28 May 2015 (has links)
Dans un contexte de sélection sexuelle, les systèmes de communication permettant l’attraction et la stimulation du partenaire sexuel et la compétition entre individus du même sexe sont indispensables. Ceci est particulièrement vrai chez les espèces à système d’appariement polygyne de type lek, où les mâles rassemblés dans l’espace sont en compétition pour l’accès aux femelles. Chez notre sujet d’étude, l’outarde houbara nord-africaine les males réalisent des parades incluant des démonstrations visuelles et des vocalisations appelées booms, sur des sites espacés les uns des autres par des distances importantes dans un système qualifié de lek explosé. Notre objectif était d’étudier les systèmes de codage-décodage des informations exprimées durant la parade des mâles chez cette espèce. Nous avons démontré l’existence d’un codage de l’identité individuelle porté par des paramètres visuels et des paramètres acoustiques des vocalisations. Des associations significatives entre des paramètres des booms et des caractéristiques physiques et comportementales des mâles susceptibles de refléter leur qualité, ont également été mises en évidence. Ainsi, les mâles qui produisent les booms les plus graves avaient les masses les plus importantes et paradaient le plus intensément. Lorsque des interactions agonistiques étaient simulées expérimentalement en diffusant des leurres acoustiques, les mâles avaient des réponses comportementales différentes en fonction de la fréquence des booms diffusés. Ainsi le niveau fréquentiel des booms des autres mâles est effectivement perçu et décodé par les individus en compétition. Par ailleurs, plusieurs paramètres des booms sont génétiquement déterminés et héritables, et pourraient porter une information sur l’apparentement entre individus.Certains paramètres sont également liés à la consanguinité des individus. Nous avons montré également que les booms sont particulièrement bien adaptés à la communication à grande distance. En effet, les booms sont de très basse fréquence, se propagent à des distances supérieures à 640 m, et les paramètres supportant le codage-décodage de l’information sont résistants à la propagation et produits de manière redondante. Enfin, les signaux acoustiques et des signaux visuels et semblent agir en synergie (multimodalité) ce qui pourraient améliorer l’efficacité de la communication à grande distance. Ainsi notre étude a démontré que des informations complexes sont transmises durant la parade des mâles au travers de signaux acoustiques et visuels au sein d’un réseau de communication à grande distance. / Résumé en anglais ;In a context of sexual selection, the communication between individuals is essential to optimize both intra-sexual (competition between male) and inter-sexual (mate choice) processes. This is particularly true in species with lek mating systems, where both processes reach their full expression. The North African Houbara bustard, Chlamydotis undulata undulata, is a lekking bird where courting males aggregate in a so called ‘exploded-lek’, i.e. where aggregation is detectable only when mapped over a large area. During the breeding season, males perform a conspicuous and spectacular courtship including visual and acoustic (booms) signals. Our aim was to decipher the coding-decoding systems of the courtship in this species. We found that males can be individually discriminated on the basis of visual and acoustic parameters. The booms produced during the courtship are also related to males’ characteristics susceptible to reflect their quality. Individuals who produced the lowest frequency booms were those with the greatest weights and performed the highest intensity courtships. Playback experiment shows that the frequency content of the booms was perceived and decoded by males during agonistic interaction, leading to significantly different behavioural responses according to the frequency of the signals played back. Furthermore, several acoustic parameters of the booms are significantly heritable through genetic transmission and these parameters are also related to the level of inbreeding. Finally, we showed that the booms and the acoustic parameters supporting information are particularly well adapted to the transmission of information at long range as required in a long distance communication network constituted by an exploded lek. First, booms are of very low-frequency and propagate up to 640 m. Second, coding-decoding of information relies on sequentially redundant and propagation-resistant features. Third, acoustic signals are combined with visual signalling (multimodality) which may improve the long distance transmission of the information. This study brought evidence that complex information is conveyed by visual and acoustic signals during the courtship of males within a long distance network.
69

Interprétation et amélioration d'une procédure de démodulation itérative

Naja, Ziad 01 April 2010 (has links) (PDF)
La géométrie de l'information est la théorie mathématique qui applique les méthodes de la géométrie différentielle dans le domaine des statistiques et de la théorie de l'information. C'est une technique très prometteuse pour l'analyse et l'illustration des algorithmes itératifs utilisés en communications numériques. Cette thèse porte sur l'application de cette technique ainsi que d'autre technique d'optimisation bien connue, l'algorithme itératif du point proximal, sur les algorithmes itératifs en général. Nous avons ainsi trouvé des interprétations géométriques (basée sur la géométrie de l'information) et proximales (basée sur l'algorithme du point proximal) intéressantes dans le cas d'un algorithme itératif de calcul de la capacité des canaux discrets sans mémoire, l'algorithme de Blahut-Arimoto. L'idée étant d'étendre cette application sur une classe d'algorithmes itératifs plus complexes. Nous avons ainsi choisi d'analyser l'algorithme de décodage itératif des modulations codées à bits entrelacés afin de trouver quelques interprétations et essayer de proposer des liens existant avec le critère optimal de maximum de vraisemblance et d'autres algorithmes bien connus dans le but d'apporter certaines améliorations par rapport au cas classique de cet algorithme, en particulier l'étude de la convergence.
70

Systèmes de compréhension et de traduction de la parole : vers une approche unifiée dans le cadre de la portabilité multilingue des systèmes de dialogue

Jabaian, Bassam 04 December 2012 (has links) (PDF)
La généralisation de l'usage des systèmes de dialogue homme-machine accroît la nécessité du développement rapide des différents composants de ces systèmes. Les systèmes de dialogue peuvent être conçus pour différents domaines d'application et dans des langues différentes. La nécessité d'une production rapide pour de nouvelles langues reste un problème ouvert et crucial auquel il est nécessaire d'apporter des solutions efficaces.Nos travaux s'intéressent particulièrement au module de compréhension de la parole et proposent des approches pour la portabilité rapide peu coûteuse de ce module.Les méthodes statistiques ont montré de bonnes performances pour concevoir les modules de compréhension de la parole pour l'étiquetage sémantique de tours de dialogue.Cependant ces méthodes nécessitent de larges corpus pour être apprises. La collecte de ces corpus est aussi coûteuse en temps et en expertise humaine.Dans cette thèse, nous proposons plusieurs approches pour porter un système de compréhension d'une langue vers une autre en utilisant les techniques de la traduction automatique. Les premiers travaux consistent à appliquer la traduction automatique à plusieurs niveaux du processus de portabilité du système de compréhension afin de réduire le coût lié à production de nouvelles données d'apprentissage. Les résultats expérimentaux montrent que l'utilisation de la traduction automatique permet d'obtenir des systèmes performant avec un minimum de contribution humaine.Cette thèse traite donc à la fois de la traduction automatique et de la compréhension de la parole. Nous avons effectué une comparaison approfondie entre les méthodes utilisées pour chacune des tâches et nous avons proposé un décodage conjoint basé sur une méthode discriminante qui à la fois traduit une phrase et lui attribue ses étiquettes sémantiques. Ce décodage est obtenu par une approche à base de graphe qui permet de composer un graphe de traduction avec un graphe de compréhension. Cette représentation peut être généralisée pour permettre des transmissions d'informations riches entre les composants du système de dialogue

Page generated in 0.0357 seconds