• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • 2
  • Tagged with
  • 10
  • 10
  • 10
  • 9
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Codage de source ciblé : Transmission sécurisée, détection / Task-oriented source coding : Secure transmission, detection

Villard, Joffrey 01 December 2011 (has links)
Cette thèse porte sur quelques problèmes de codage de source ciblé. Il s'agit de compresser/quantifier une source d'information dans le but de réaliser une tâche déterminée. Contrairement aux méthodes mises en œuvre dans les systèmes de communication classiques, où la bonne reconstruction de la source au récepteur est l'objectif principal, l'opération effectuée in fine est ici prise en compte tout au long du processus (de l'observation des données à leur transmission). En particulier, nous démontrons des résultats fondamentaux sur le codage de source dans les transmissions sécurisées (suivant l'approche de Shannon) et la quantification haute-résolution pour la détection (suivant l'approche de Bennett). Dans les deux cas, les caractéristiques de l'environnement peuvent être judicieusement prises en compte pour améliorer les performances du système. Ces résultats trouvent des applications dans de nombreux domaines pratiques (par ex. pour les contrôles en cours de production, la surveillance, la veille environnementale, la diffusion de contenus multimédia, etc.). / This thesis investigates some task-oriented source coding problems. In this framework, an information source is compressed/quantized in view of the task for which it is to be used. While the methods implemented in traditional communication systems aim at enabling good reconstruction of the source, the eventual use of the data is here considered all along the process (from their observation to their transmission). In particular, we derive fundamental results on source coding for secure transmission (following Shannon's approach) and high-rate quantization for detection (following Bennett's approach). In both cases, the characteristics of the environment are used in a smart way to enhance the overall performance of the system. Applications of these results arise in many practical contexts (e.g. for production control, field surveillance, environmental monitoring, multimedia broadcasting, etc.).
2

La fuite d’information d’une réalisation quantique de primitives cryptographiques classiques

Beaudry, Maxime 08 1900 (has links)
Nous nous intéressons à la réalisation par états quantiques de primitives cryptographiques classiques. Nous introduisons les concepts de l’avantage et de epsilon -enveloppes. Ensuite, nous démontrons que pour tout état, il existe un état strict-correct dont la différence entre leur fuite d’information est bornée supérieurement. Ce résultat démontre qu’il existe une relation entre la continuité de la fuite d’information et la mesure de dépendance entre les registres quantiques d’Alice et Bob. Par la suite, nous démontrons que si un état exhibe une de deux propriétés, sa fuite d’information est toujours bornée inférieurement par la fuite d’un état strict-correct. Ceci démontre que les résultats de Salvail et al. se généralisent pour des états en général respectant ces propriétés. Finalement, nous analysons numériquement la fuite d’information pour des enveloppes réalisant les primitives 1-2-OT et ROT. Nous trouvons un état correct qui atteint un minimum qui bat la borne inférieure précédemment trouvée par Salvail et al. / We are interested in classical cryptographic primitive implemented by quantum states. We introduce the concepts of advantage and -embedding. Following this, we show that for every state there exist a strict-correct state for which the difference between the leakage of both states is upper bounded. This result shows a relation between the leakage and the measure of dependency of Alice and Bob’s quantum registers. We then show that if a state exhibits one of two properties, then its leakage is lower bounded by that of a strict-correct state. This shows that the results of Salvail and al. [26] can be generalized to generic states that satisfy those conditions. Finally, we do a numerical analysis of the leakage of embedding for 1-2-OT and ROT primitives. We find a state that leaks less information than the lower bound previously found by Salvail and al. in [26].
3

Structure d’information, stratégies de communication et application aux réseaux distribués / Information structure, communication strategies and application to distributed networks

Larrousse, Benjamin 11 December 2014 (has links)
Cette thèse étudie des problèmes d’optimisation distribuée avec différentes structures d’observationset leurs applications aux réseaux sans fil et aux problèmes de Smart Grids. Spécifiquement,une structure d’observation asymétrique entre deux agents est considérée, où un premieragent a connaissance complète à propos de la réalisation d’un état aléatoire, et l’autre agent neconnaît rien à propos de cet état. Dans ce contexte, la question est de savoir comment transmettrede l’information depuis le premier agent vers le second agent dans le but d’utiliser de manièreoptimale les ressources de communication. Plusieurs modèles sont étudiés dans cette thèse. Pourtous, un élément commun est le fait que la source d’information doit être encodée de manièreappropriée pour optimiser l’utilisation de la configuration du système. Un premier modèle estétudié où aucun canal de communication n’est disponible entre les agents et ils ont une fonctiond’utilité commune. Cependant, le seul moyen de communiquer est via les actions choisiespar les agents. Comme les actions ont une influence sur le paiement, l’agent informé encode saconnaissance à propos de l’état dans ses actions, qui seront observées de manière imparfaite parle second agent. Ce dernier décodera l’information et choisira ses actions dans le but de maximiserla fonction objectif commune. Nous utilisons des outils de théorie de l’information pourcaractériser ce compromis optimal par une contrainte d’information, et appliquons ce scénario àun problème de contrôle de puissance pour un canal à interférence. Notre nouvelle stratégie (lecontrôle de puissance codé) donne des gains très prometteurs comparés aux approches classiques.Dans une seconde partie, nous considérons qu’il existe un canal dédié de communication, c’està-dire que les actions de l’agent informé n’ont pas d’influence sur le paiement et sont seulementutiles pour la transmission d’information. De plus, les agents sont supposés avoir des intérêtsdivergents, si bien que l’agent informé n’a pas nécessairement d’incitation à envoyer tout sonsavoir à l’agent non informé. La théorie des jeux et les jeux de « Cheap talk » en particulier sontle bon cadre pour analyser ce genre de problème. Nous caractérisons le schéma de signal sur lequelles agents se seront mis d’accord. Ce schéma amènera à un équilibre de Nash, est donc optimiserala façon dont la communication est faite. Ce modèle est d’un intérêt particulier pour les réseauxde véhicules électriques où un véhicule électrique doit envoyer son besoin en terme de puissancede charge à un aggrégateur qui choisira un niveau de charge effectif pour le véhicule électrique.Ce dernier ne se souciera que de son besoin, alors que l’aggrégateur se soucie également de l’étatdu réseau. Ce modèle aide à optimiser la façon dont le réseau est utilisé.Enfin, nous considérons un modèle avec plus de deux agents, où le but principal est pourtous les agents de retrouver l’observation parfaite des actions passées de tous les agents. Ceci estd’un intérêt très particulier d’un point de vue de la théorie des jeux pour caractériser les utilitésespérées de long terme des agents. Dans ce modèle, nous ajoutons un encodeur qui observeparfaitement toutes les actions passées et aidera les agents à obtenir l’observation parfaite. Enfait, ceci sera possible si la bonne contrainte d’information est satisfaite. Nous caractérisonsdonc cette dernière, en utilisant un schéma de codage hybride combinant des outils classiques dethéorie de l’information ainsi que des outils de la théorie des graphes / This thesis studies distributed optimization problems with different observation structuresand application to wireless network and Smart Grids problems. Specifically, an asymmetricobservation structure between two agents is considered, where a first agent has full knowledgeabout the realization of a random state, and the other agent does not know anything about thisstate. In this context, the question is how to transmit information from the first agent to thesecond agent in order to use in an optimal way the communication resources. Several modelsare studied in this thesis. For all of them, a common element is that the information source hasto be encoded in an appropriate manner to optimize the use of the system’s configuration. Afirst model is studied where no dedicated channel for communication is available between agentsand they have the same objective function. Therefore, the only way communication is possible isthrough the actions chosen by agents. As actions are payoff relevant, the first agent has to findthe optimal tradeoff between transmission of information and payoff maximization. The informedagent encodes his knowledge about the state into his actions, which will be imperfectly observedby the second agent. The latter will decode the information and choose his actions in order tomaximize the common objective function. We use tools from information theory to characterizethis optimal tradeoff by an information constraint, and apply this scenario to a power controlproblem in an interference channel setting. Our new strategy (the coded power control ) givessome promising gains compare to classical approaches.In a second part, we consider that there exists a dedicated channel for communication, that isto say the actions of the informed agent are not payoff relevant and are only useful for transmissionof information. Furthermore, agents are supposed to have diverging interests, so that the informedagent does not necessarily have an incentive to send all his knowledge to the uninformed agent.Game theory and Cheap talk game in particular appears to be the right framework to analyzethis problem. We characterize the signal scheme that agents will agree on. This scheme willlead to a Nash Equilibrium, thus will optimize the way communication is done. This model is ofparticular interest for electrical vehicles networks where an electrical vehicle has to send his needin term of power to an aggregator which will choose an effective charging level for the electricalvehicle. The latter only cares about his need in term of power whereas the aggregator also takesinto account the network status. The considered model help to optimize the way the network isused.We finally consider a model with more than two agents, where the main goal is for all agentsto retrieve perfect observations of all past actions of all agents. This is of particular interest ina game theory point of view to characterize the long term expected utilities of the agents. Inthis model, we add an encoder who perfectly oberves all past actions and will help agents tohave perfect monitoring. In fact, this is possible if the right information constraint is satisfied.We thus characterized the latter, using a hybrid coding scheme combining classical informationtheoretic scheme and tools from graph theory.
4

Multiscale Information Transfer in Turbulence / Transfert de l'information en turbulence : une vision multi-échelles

Granero Belinchon, Carlos 26 September 2018 (has links)
Cette thèse est consacrée à l’étude statistique des systèmes complexes à travers l’analyse de signaux expérimentaux, de signaux synthétiques et de signaux générés à partir de modèles théoriques. On a choisi la turbulence comme paradigme d’ ́etude en raison de ses propriétés: dynamique non linéaire, comportement multi-échelle, cascade d’énergie, intermittence ... Afin de faire une caractérisation statistique d’un système complexe on s’intéresse à l’étude de la distribution (fonction de densité de probabilité), des corrélations et dépendances, et des relations de causalité de Wiener, des signaux qui décrivent le système. La théorie de l’information apparaît comme un cadre idéal pour developer ce type d’analyse. Dans le cadre de la théorie de l’information on a développé deux méthodologies, différentes mais reliées, pour analyser les propriétés d’auto similarité d’un système complexe, et plus précisément de la turbulence. La première méthodologie est basée sur l’analyse des incréments du processus étudié, avec l’entropie de Shannon et la divergence de Kullback-Leibler. La deuxième méthode, qui permet d’analyser des processus non stationnaires, est basée sur l’analyse du processus avec le taux d’entropie de Shannon. On a étudié la relation entre les deux méthodologies, lesquelles caractérisent la distribution d’information du système et la déformation de la distribution des incréments, à travers les échelles. / Most of the time when studying a system, scientists face processes whose properties are a priori unknown. Characterising these processes is a major task to describe the studied system. During this thesis, which combines signal processing and physics, we were mainly motivated by the study of complex systems and turbulence, and consequently, we were interested in the study of regularity and self-similarity properties, long range dependence structures and multi-scale behavior. In order to perform this kind of study, we use information theory quantities, which are functions of the probability density function of the analysed process, and so depend on any order statistics of its PDF. We developed different, but related, data analysis methodologies, based on information theory, to analyse a process across scales τ. These scales are usually identified with the sampling parameter of Takens embedding procedure, but also with the size of the increments of the process. The methodologies developed during this thesis, can be used to characterize stationnary and non-stationnary processes by analysing time windows of length T of the studied signal.
5

Complexité de la communication sur un canal avec délai

Lapointe, Rébecca 02 1900 (has links)
Nous introduisons un nouveau modèle de la communication à deux parties dans lequel nous nous intéressons au temps que prennent deux participants à effectuer une tâche à travers un canal avec délai d. Nous établissons quelques bornes supérieures et inférieures et comparons ce nouveau modèle aux modèles de communication classiques et quantiques étudiés dans la littérature. Nous montrons que la complexité de la communication d’une fonction sur un canal avec délai est bornée supérieurement par sa complexité de la communication modulo un facteur multiplicatif d/ lg d. Nous présentons ensuite quelques exemples de fonctions pour lesquelles une stratégie astucieuse se servant du temps mort confère un avantage sur une implémentation naïve d’un protocole de communication optimal en terme de complexité de la communication. Finalement, nous montrons qu’un canal avec délai permet de réaliser un échange de bit cryptographique, mais que, par lui-même, est insuffisant pour réaliser la primitive cryptographique de transfert équivoque. / We introduce a new communication complexity model in which we want to determine how much time of communication is needed by two players in order to execute arbitrary tasks on a channel with delay d. We establish a few basic lower and upper bounds and compare this new model to existing models such as the classical and quantum two-party models of communication. We show that the standard communication complexity of a function, modulo a factor of d/ lg d, constitutes an upper bound to its communication complexity on a delayed channel. We introduce a few examples on which a clever strategy depending on the delay procures a significant advantage over the naïve implementation of an optimal communication protocol. We then show that a delayed channel can be used to implement a cryptographic bit swap, but is insufficient on its own to implement an oblivious transfer scheme.
6

Traitement et simulation d’images d’IRM de perfusion pour la prédiction de l’évolution de la lésion ischémique dans l’accident vasculaire cérébral / Image processing and simulation of perfusion MRI images for the prediction of the ischemic lesion evolution in stroke

Giacalone, Mathilde 05 October 2017 (has links)
L'Accident Vasculaire Cérébral (AVC) - pathologie résultant d'une perturbation de l'apport sanguin dans le cerveau - est un problème de santé publique majeur, représentant la troisième cause de mortalité dans les pays industrialisés. Afin d'améliorer la prise en charge des patients atteints d'un AVC, il est important de posséder des méthodes efficaces pour l'identification des patients éligibles aux différentes thérapies et pour l'évaluation du rapport bénéfice/risque associé à ces thérapies. Dans ce contexte, l'Imagerie par Résonance Magnétique (IRM) dynamique de perfusion par contraste de susceptibilité, une modalité d'imagerie utile pour apprécier l'état de la perfusion cérébrale, peut aider à identifier les tissus à risque de s'infarcir. Cependant, l'intégralité de la chaîne de traitement, de l'acquisition à l'analyse et l'interprétation de l'IRM de perfusion demeure complexe et plusieurs limitations restent encore à surmonter. Durant ces travaux de thèse, nous contribuons à l'amélioration de la chaîne de traitement de l'IRM de perfusion, avec comme objectif final, l'obtention d'une meilleure prédiction de l'évolution de la lésion ischémique dans l'AVC. Dans une première partie, nous travaillons principalement sur l'étape de déconvolution des signaux temporels, une des étapes clefs à l'amélioration de l'IRM de perfusion. Cette étape consiste en la résolution d'un problème inverse mal-posé, et permet le calcul de paramètres hémodynamiques qui sont des biomarqueurs importants pour la classification de l'état final des tissus dans l'AVC. Afin de comparer de façon objective les performances des différents algorithmes de déconvolution existants et d'en valider des nouveaux, il est nécessaire d'avoir accès à une information sur la vérité terrain après déconvolution. Dans ce but, nous avons développé un simulateur numérique pour l'IRM de perfusion, avec une vérité terrain générée automatiquement. Ce simulateur est utilisé pour démontrer la faisabilité d'une automatisation du réglage des paramètres de régularisation, et établir la robustesse d'un algorithme de déconvolution avec régularisation spatio-temporelle d'introduction récente. Nous proposons également un nouvel algorithme de déconvolution globalement convergent. Enfin, la première partie de ces travaux se termine avec une discussion sur une autre étape de la chaîne de traitement en IRM de perfusion, à savoir, la normalisation des cartes de paramètres hémodynamiques extraites des images déconvoluées / Stroke – a neurological deficit resulting from blood supply perturbations in the brain – is a major public health issue, representing the third cause of death in industrialized countries. There is a need to improve the identification of patients eligible to the different therapies, as well as the evaluation of the benefit-risk ratio for the patients. In this context, perfusion Dynamic Susceptibility Contrast (DSC)-MRI, a prominent imaging modality for the assessment of cerebral perfusion, can help to identify the tissues at risk of infarction from the benign oligaemia. However, the entire pipeline from the acquisition to the analysis and interpretation of a DSC-MRI remains complex and some limitations are still to be overcome. During this PhD work, we contribute to improving the DSC-MRI processing pipeline with the ultimate objective of ameliorating the prediction of the ischemic lesion evolution in stroke. In a first part, we primarily work on the step of temporal signal deconvolution, one of the steps key to the improvement of DSC-MRI. This step consists in the resolution of an inverse ill-posed problem and allows the computation of hemodynamic parameters which are important biomarkers for tissue fate classification in stroke. In order to compare objectively the performances of existing deconvolution algorithms and to validate new ones, it is necessary to have access to information on the ground truth after deconvolution. To this end, we developed a numerical simulator of DSC MRI with automatically generated ground truth. This simulator is used to demonstrate the feasability of a full automation of regularization parameters tuning and to establish the robustness of a recent deconvolution algorithm with spatio-temporal regularization. We then propose a new globally convergent deconvolution algorithm. Then, this first part ends with a discussion on another processing step in the DSC-MRI pipeline, the normalisation of the hemodynamic parameters maps extracted from the deconvolved images. In a second part, we work on the prediction of the evolution of the tissue state from longitudinal MRI data. We first demonstrate the interest of modeling longitudinal MRI studies in stroke as a communication channel where information theory provides useful tools to identify the hemodynamic parameters maps carrying the highest predictive information, determine the spatial observation scales providing the optimal predictivity for tissue classification as well as estimate the impact of noise in prediction studies. We then demonstrate the interest of injecting shape descriptors of the ischemic lesion in acute stage in a linear regression model for the prediction of the final infarct volume. We finally propose a classifier of tissue fate based on local binary pattern for the encoding of the spatio-temporal evolution of the perfusion MRI signals
7

Penser l’art et le monde après 1945 : Isidore Isou, essai d’archéologie d’une pensée / Think about art and world after 1945 : Isidore Isou, essay about an archeology of a thought

Alix, Frédéric 08 December 2015 (has links)
La présente recherche a eu pour ambition de comprendre les modalités de fonctionnement théorique du lettrisme au travers d'une étude précise du substrat intellectuel d'Isidore Isou entre 1945 et 1968. L’activité artistique et intellectuelle d’Isou s’inscrit complètement dans le contexte ces années. Mais au moment important d’une reconsidération et d’une remise en question des valeurs universalistes occidentales, le lettriste montre une filiation intellectuelle claire avec celles-ci. Le but d’Isou est clairement de mettre au jour des lois d’analyse et de fonctionnement universelles, tant en ce qui concerne les choses de l’art que de chaque domaine de la connaissance, lois de fonctionnement issus d’une lecture téléologique et évolutionniste de l’ « Histoire », permettant la mise au point de critères, notamment formels, de la nouveauté. Dans le champ global des avant-gardes de l’après-Seconde-Guerre, il est un restaurateur d’un certain type de valeurs et de certaines traditions qui ont forgé la culture de l’humanisme occidental. Mais tout en étant dans la prolongation des « traditions », il est connecté aux problématiques de son temps. Celle de la communication, nouvelle utopie du XXème siècle, créée dans les laboratoires américains pendant la Seconde-Guerre mondiale. Celle de la sécrétion d’une esthétique permutationnelle comme a pu l’imaginer Abraham Moles dans sa théorie de l’information. D’une esthétique du signe et davantage du signe linguistique auquel était fondamentalement attaché Roland Barthes. L’hypergraphie est elle-même connectée aux recherches contemporaines sur le langage, sur la sémiotique, en tant que nouvelle grande utopie de la communication intégrale. / This research had the ambition to understand the theoretical operating procedures of lettrism through a precise study of the intellectual substrate of Isidore Isou between 1945 and 1968. The artistic and intellectual activity of Isou fits completely in the context of these years. But in an important moment of reconsideration and a questioning of Western universalist values, Lettrist shows a clear intellectual affiliation with them. The aim is clearly for Isou to uncover universal analytical and operational laws, both in terms of art things that every field of knowledge, laws of operation from a teleological reading and evolutionist "History", allowing the development of criteria including formal, novelty. In the overall field of the vanguards of the post-Second-war, it is a restauration of some kind of values and some traditions that have shaped the culture of Western humanism. But while being in the extension of "traditions", Isou is connected to the problems of his time. That of communication, new utopia of the twentieth century, created in the US laboratories during the Second World War. This secretion of an aesthetic permutational as could imagine Abraham Moles in his theory of information. In a further sign and aesthetics of the linguistic sign which was basically tied Roland Barthes. The hypergraphie is itself connected to contemporary language research on semiotics, as a new great utopia of integral communication.
8

Sur le pronostic des systèmes stochastiques

Ouladsine, Radouane 09 December 2013 (has links)
Cette thèse porte sur la problématique du pronostic des systèmes. Plus précisément, elle est dédiée aux systèmes stochastiques et deux contributions principales sont proposées. La première concerne la problématique du pronostic à base de connaissances d’expert. Le système considéré est supposé être exploité en vue de réaliser une mission. Durant cette dernière, on suppose disposer d’information, à travers les connaissances d’expert, sur l’environnement ; Cependant, à cause des phénomènes aléatoires, ces connaissances peuvent être que partielles. Par conséquent, une méthodologie de pronostic, basée sur des techniques fondée sur le principe de Maximum d’Entropie Relative (MER), est proposée. Ensuite, pour modéliser l’impact de cet environnement aléatoire sur le système les trajectoires de dégradation sont construites à travers un cumul stochastique basé sur la méthode Monte Carlo chaine de Markov. La deuxième contribution est dédiée au pronostic à base de modèle d’état non-linéaire et stochastique. Dans ce travail, on suppose que seule la structure de la fonction de dégradation est connue. Cette structure est supposée dépendre de la dynamique d’un paramètre inconnu. L’objectif ici, est d’estimer ce paramètre en vue de déterminer la dynamique de la dégradation. Dans ce cadre, une stratégie, du pronostic basée sur la technique de filtre bayésien, est proposée. La technique consiste à combiner deux filtres de Kalman. Le premier filtre est utilisé afin de déterminer le paramètre inconnu. Puis, en utilisant la valeur du paramètre estimée, le deuxième filtre assure la convergence de la dégradation. Une serie d’exemples est traitée afin d’illustrer notre contribution. / This thesis focuses on the problem of the systems prognostic. More precisely, it is dedicated to stochastic systems and two main contributions are proposed. The first one is about the prognostic of stochastic systems based on the expert knowledge and the proposed approach consists in assessing the system availability during a mission. This mission is supposed to model the user profile that express the environment in which the system will evolve. We suppose also that this profile is given through a partial knowledge provided by the expert. In fact, since the complexity of systems under consideration the expert can provide only incomplete information. The aim of the contribution is to estimate the system’s damage trajectory and analyse the mission success. In this case, a three steps methodology is proposed. The first step consists on estimating the environment probability distribution. Indeed, a probabilistic method based on maximum relative entropy (MRE) is used. The second step is dedicated to the damage trajectory construction. This step is performed by using a Markov Chain Monte Carlo (MCMC) simulation. Finally, the prediction of the mission success is performed. Note that, the models describing the damage behaviour, and in order to be more realistic, is supposed to be stochastic. The second contribution, concerns the model-based prognosis approach. More precisely, it about the use of the Bayesian filtering on the prognosis problem. The aim of the proposed approach is identify the damage parameter by using an Ensemble Kalman Filtre (EnKF). Then, estimate the RUL based on the damage propagation. To illustrate our contributions, a series of examples is treated.
9

Cognitive Computational Models of Pronoun Resolution / Modèles cognitifs et computationnels de la résolution des pronoms

Seminck, Olga 23 November 2018 (has links)
La résolution des pronoms est le processus par lequel un pronom anaphorique est mis en relation avec son antécédent. Les humains en sont capables sans efforts notables en situation normale. En revanche, les systèmes automatiques ont une performance qui reste loin derrière, malgré des algorithmes de plus en plus sophistiqués, développés par la communauté du Traitement Automatique des Langues. La recherche en psycholinguistique a montré à travers des expériences qu'au cours de la résolution de nombreux facteurs sont pris en compte par les locuteurs. Une question importante se pose : comment les facteurs interagissent et quel poids faut-il attribuer à chacun d'entre eux ? Une deuxième question qui se pose alors est comment les théories linguistiques de la résolution des pronoms incorporent tous les facteurs. Nous proposons une nouvelle approche à ces problématiques : la simulation computationnelle de la charge cognitive de la résolution des pronoms. La motivation pour notre approche est double : d'une part, l'implémentation d'hypothèses par un système computationnel permet de mieux spécifier les théories, d’autre part, les systèmes automatiques peuvent faire des prédictions sur des données naturelles comme les corpus de mouvement oculaires. De cette façon, les modèles computationnels représentent une alternative aux expériences classiques avec des items expérimentaux construits manuellement. Nous avons fait plusieurs expériences afin d'explorer les modèles cognitifs computationnels de la résolution des pronoms. D'abord, nous avons simulé la charge cognitive des pronoms en utilisant des poids de facteurs de résolution appris sur corpus. Ensuite, nous avons testé si les concepts de la Théorie de l’Information sont pertinents pour prédire la charge cognitive des pronoms. Finalement, nous avons procédé à l’évaluation d’un modèle psycholinguistique sur des données issues d’un corpus enrichi de mouvements oculaires. Les résultats de nos expériences montrent que la résolution des pronoms est en effet multi-factorielle et que l’influence des facteurs peut être estimée sur corpus. Nos résultats montrent aussi que des concepts de la Théorie de l’Information sont pertinents pour la modélisation des pronoms. Nous concluons que l’évaluation des théories sur des données de corpus peut jouer un rôle important dans le développement de ces théories et ainsi amener dans le futur à une meilleure prise en compte du contexte discursif. / Pronoun resolution is the process in which an anaphoric pronoun is linked to its antecedent. In a normal situation, humans do not experience much cognitive effort due to this process. However, automatic systems perform far from human accuracy, despite the efforts made by the Natural Language Processing community. Experimental research in the field of psycholinguistics has shown that during pronoun resolution many linguistic factors are taken into account by speakers. An important question is thus how much influence each of these factors has and how the factors interact with each-other. A second question is how linguistic theories about pronoun resolution can incorporate all relevant factors. In this thesis, we propose a new approach to answer these questions: computational simulation of the cognitive load of pronoun resolution. The motivation for this approach is two-fold. On the one hand, implementing hypotheses about pronoun resolution in a computational system leads to a more precise formulation of theories. On the other hand, robust computational systems can be run on uncontrolled data such as eye movement corpora and thus provide an alternative to hand-constructed experimental material. In this thesis, we conducted various experiments. First, we simulated the cognitive load of pronouns by learning the magnitude of impact of various factors on corpus data. Second, we tested whether concepts from Information Theory were relevant to predict the cognitive load of pronoun resolution. Finally, we evaluated a theoretical model of pronoun resolution on a corpus enriched with eye movement data. Our research shows that multiple factors play a role in pronoun resolution and that their influence can be estimated on corpus data. We also demonstrate that the concepts of Information Theory play a role in pronoun resolution. We conclude that the evaluation of hypotheses on corpus data enriched with cognitive data ---- such as eye movement data --- play an important role in the development and evaluation of theories. We expect that corpus based methods will lead to a better modelling of the influence of discourse structure on pronoun resolution in future work.
10

Théorie de l’information, jeux répétés avec observation imparfaite et réseaux de communication décentralisés / Information theory, repeated games with imperfect monitoring and decentralized communications networks

Le Treust, Maël 06 December 2011 (has links)
Cette thèse est consacrée à l’étude des interactions entre la théorie des jeux et la théorie de l’information, ainsi qu’à leurs applications aux réseaux de communication décentralisés. D’une part, la théorie des jeux apporte des réponses aux problèmes d’optimisation dans lesquels des agents interagissent. Dans un jeu, les joueurs choisissent des actions et obtiennent des gains appelés utilités. Les hypothèses sur l’information que possèdent les joueurs avant de jouer sont fondamentales pour déterminer l’issue d’un jeu, aussi appelée équilibre. Lorsque le même jeu est répété d’étape en étape et que les joueurs n’observent pas les actions passées parfaitement,alors les utilités d’équilibre ne sont pas connues. D’autre part, la théorie de l’information étudie les performances d’un système communicant. De nos jours, les réseaux de communication sont tellement denses qu’ils ne peuvent plus s’organiser autour d’un unique opérateur central. La théorie des jeux est appropriée pour étudier de nouvelles organisations du traitement de l’information dans lesquelles les décisions sont prises localement. Dans un premier temps, au chapitre3, nous étudions le jeu du contrôle de puissance efficace du point de vue énergétique, grâce aux résultats existants pour les jeux répétés. Les émetteurs sont considérés comme des joueurs et choisissent la puissance d’émission du signal, considérée comme leur action. L’objectif d’un joueur est de choisir une puissance optimale pour la qualité de sa propre communication. Même si les joueurs n’observent pas les actions passées de manière parfaite, nous montrons que l’observation du "ratio signal sur interférence plus bruit" est suffisante pour garantir des résultats d’équilibre optimaux pour le réseau de communication. Dans un second temps, nous utilisons les outils de la théorie de l’information pour approfondir l’étude de la circulation de l’information parmi les joueurs. Dans le chapitre 4, un encodeur envoie un signal supplémentaire aux joueurs afin qu’ils observent parfaitement les actions jouées à l’étape précédente. L’observation des joueurs devient suffisamment précise pour nous permettre de retrouver l’ensemble des utilités d’équilibre du jeu répété. Ces résultats sont à leur tour exploités afin de modéliser des réseaux de communication plus réalistes et d’y apporter des solutions nouvelles. Dans le chapitre5, nous approfondissons l’étude des utilités d’équilibre lorsque les joueurs observent les actions passées à travers un canal d’observation arbitraire. Nous démontrons un résultat d’atteignabilité pour un canal multi-utilisateurs avec états qui comporte un encodeur, deux récepteurs légitimes et un espion. Ce résultat nous permet d’étudier les corrélations entre les suites d’actions qu’un groupe de joueurs peut mettre en oeuvre à l’insu d’un joueur opposant. L’étude des canaux multiutilisateurs est un pas en avant vers la caractérisation des utilités d’équilibre dans un jeu répété avec observation imparfaite. / This thesis is devoted to the study of mutual contributions between games theory and informationtheory and their applications to decentralized communication networks. First, game theoryprovides answers to optimization problems in which agents interact. In a game, players chooseactions and obtains gains called utilities. Assumptions about the information possessed by playersbefore play is fundamental to determine the outcome a game, also called equilibrium. When thesame game is repeated from stage to stage and the players do not observe the past actions perfectly,then the equilibrium utilities are not known. On the other hand, information theory studiesthe performance of a communicating system. Nowadays, communication networks are so densethat they can not organize around a single central operator. Game theory is appropriate to explorenew organizations of communication networks in which decisions are taken locally. At first,in Chapter 3, we study the game of power control in terms of energy efficiency, thanks to theexisting results for repeated games. Transmitters are regarded as players and choose the transmissionpower of the signal, considered as their action. The objective of a player is to choose anoptimal power for the quality of its own communication. The players do not observe the pastactions perfectly, but we show that the observation of the "signal over interference plus noiseratio" is sufficient to ensure optimal equilibrium results for the communication network. In a secondstep, we use the tools of the information theory for further study of the flow of informationamong the players. In Chapter 4, an encoder sends an extra signal to the players so that theyperfectly observe the actions chosen in the previous stage-game. The observation of players issufficiently precise to characterize the set of equilibrium utilities of the repeated game. Theseresults are, in turn, used to model new communication networks and to provide more realisticsolutions. In Chapter 5, we deepen the study of equilibrium utilities when players observe thepast actions to through an arbitrary observation channel. We show a rate region is achievablefor the multi-user channel with states which includes an encoder, two legitimate receivers andan eavesdropper. This result allows us to study the correlations over the sequences of actions agroup of players can implement while keeping it secret from an opponent player. The study ofmulti-user channels is a step towards the characterization of equilibrium utilities in a repeatedgame with imperfect monitoring.

Page generated in 0.0888 seconds