• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 49
  • 49
  • 15
  • Tagged with
  • 114
  • 114
  • 75
  • 68
  • 42
  • 37
  • 37
  • 35
  • 29
  • 24
  • 23
  • 21
  • 21
  • 18
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Development and Application of Information Theoretical Bounds to Certain Class of Coordination Problems / Développement et application des bornes issues de la théorie de l'information à certains types de problèmes de coordination

Agrawal, Achal 14 June 2016 (has links)
Avec la montée de la connectivité entre les appareils (internet des objets), nouvelles possibilités de coordination entre les différentes entités ont ouvert. En même temps, des résultats récents, issus de la théorie de l'information, ont fourni des limites pour la performance optimale que tout système de coordination pourrait atteindre sous certaines structures d'information. Dans cette thèse, nous développons ces résultats théoriques dans le but de les rendre plus facilement applicable aux problèmes pratiques. À cet égard, la contribution de cette thèse est double : 1) En outre développer les résultats théoriques pour fournir un aperçu de la structure des solutions au problème d'optimisation posés dans les travaux antérieurs, ainsi que la généralisation des résultats. 2) Développer des algorithmes qui exploitent le cadre théorique fourni par les travaux antérieurs pour concevoir des mécanismes de coordination pratiques, décentralisées et robustes. La généralité de l'approche se prête à diverses applications, dont les éléments suivants ont été traités: optimisation de puissance dans les réseaux sans fil, planification de la consommation d'énergie dans les applications de réseau intelligent, ainsi que Witsenhausen contre-exemple, un problème important issu de la théorie du contrôle. Diverses possibilités sont encore à venir pour exploiter le cadre et les outils développés ici. En effet, ils pourraient être utiles même dans des domaines qui ne sont pas abordés dans cette thèse, mais qui nécessitent une coordination entre les agents avec des informations différentes à la disposition de chacun. / With the rise in connectivity between appliances (Internet of Things), new avenues for coordination between various entities have opened up. At the same time, recent information theoretical results have provided bounds for the performance that any coordination scheme could achieve under certain information structures. In this thesis, we further develop those information theoretical results with the aim of making them applicable more easily to practical problems. In this regard, the contribution of this thesis is twofold: 1) Further developing the aforementioned information theoretical results to provide insights into the structure of the solutions to optimization problem posed in them, as well as generalizing some results. 2) Developing algorithms which exploit the theoretical framework provided by Information theory to devise practical, decentralized and robust coordination schemes. The generality of the approach lends itself to various applications, of which the following were treated: power optimization in wireless networks, power consumption scheduling in smart grid applications, as well as Witsenhausen counterexample, an important toy problem in control theory. Various opportunities still lie ahead to exploit the framework and tools developed herein. Indeed, they could be useful even in domains which have not been explored in this thesis but which require coordination between agents with different information available to each.
52

Reconstruction de réseaux fonctionnels et analyse causale en biologie des systèmes / Network reconstruction and causal analysis in systems biology

Affeldt, Séverine 02 July 2015 (has links)
L'inférence de la causalité est une problématique récurrente pour un large éventail de domaines où les méthodes d'interventions ou d'acquisition de données temporelles sont inapplicables. Toutefois, établir des relations de causalité uniquement à partir de données d'observation peut se révéler être une tâche complexe. Je présente ici une méthode d'apprentissage de réseaux qui combine les avantages des méthodes d'inférence par identification de contraintes structurales et par optimisation de scores bayésiens pour reconstruire de manière robuste des réseaux causaux malgré le bruit d'échantillonnage inhérent aux données d'observation. Cette méthode repose sur l'identification de v-structures à l'aide de l'information (conditionnelle) à trois variables, une mesure issue de la théorie de l'information, qui est négative quand elle est associée à un collider et positive sinon. Cette approche soustrait itérativement l'information conditionnelle à trois variables la plus forte à l'information conditionnelle à deux variables entre chaque paire de noeuds. Les indépendences conditionnelles sont progressivement calculées en collectant les contributions les plus fortes. Le squelette est ensuite partiellement orienté et ces orientations sont propagées aux liens non orientés selon le signe et la force de l'interaction dans les triplets ouverts. Cette approche obtient de meilleurs résultats que les méthodes par contraintes ou optimisation de score sur un ensemble de réseaux benchmark et fournit des prédictions prometteuses pour des systèmes biologiques complexes, tels que les réseaux neuronaux du poisson zèbre ou l'inférence des cascades de mutations dans les tumeurs. / The inference of causality is an everyday life question that spans a broad range of domains for which interventions or time-series acquisition may be impracticable if not unethical. Yet, elucidating causal relationships in real-life complex systems can be convoluted when relying solely on observational data. I report here a novel network reconstruction method, which combines constraint-based and Bayesian frameworks to reliably reconstruct networks despite inherent sampling noise in finite observational datasets. The approach is based on an information theory result tracing back the existence of colliders in graphical models to negative conditional 3-point information between observed variables. This enables to confidently ascertain structural independencies in causal graphs, based on the ranking of their most likely contributing nodes with (significantly) positive conditional 3-point information. Dispensible edges from a complete undirected graph are progressively pruned by iteratively taking off the most likely positive conditional 3-point information from the 2-point (mutual) information between each pair of nodes. The resulting skeleton is then partially directed by orienting and propagating edge directions based on the sign and magnitude of the conditional 3-point information of unshielded triples. This new approach outperforms constraint-based and Bayesian inference methods on a range of benchmark networks and provides promising predictions when applied to the reconstruction of complex biological systems, such as hematopoietic regulatory subnetworks, zebrafish neural networks, mutational pathways or the interplay of genomic properties on the evolution of vertebrates.
53

Information theory as a unified tool for understanding and designing human-computer interaction / La théorie de l’information comme un outil unifié pour comprendre et concevoir l’interaction humain-machine

Liu, Wanyu 22 November 2018 (has links)
La théorie de l'information a influencé un grand nombre de domaines scientifiques depuis son introduction par Claude Shannon en 1948. A part la loi de Fitts et la loi de Hick, qui sont apparus lorsque les psychologues expérimentaux étaient encore enthousiastes à l'idée d'appliquer la théorie de l'information aux différents domaines de la psychologie, les liens entre la théorie de l'information et l'interaction humain-machine (IHM) ont été peu explorés. L'objectif de cette thèse est de combler le fossé entre la théorie de l'information et l'IHM en considérant que l'interaction entre les humains et les machines peut être considérée comme un processus de communication et peut donc être caractérisée à l'aide des concepts de la théorie de l'information. Les trois principales contributions de cette thèse sont : (1) une perspective historique détaillée sur la manière dont la théorie de l'information a influencé la psychologie et l'IHM, avec en particulier une discussion approfondie et une analyse de la pertinence de la loi de Hick pour l'IHM, (2) le cadre formel Gain d'Information Bayésienne (BIG pour Bayesian Information Gain) qui quantifie et exploite les informations envoyées par l'utilisateur à l'ordinateur pour exprimer son intention et (3) une illustration des avantages de l'utilisation des mesures de la théorie de l'information pour évaluer la performance des entrées et pour caractériser une tâche d'interaction. Cette thèse démontre ainsi que la théorie de l'information peut être utilisée comme un outil unifié pour comprendre et concevoir la communication et l'interaction humain-machine. / Information theory has influenced a large number of scientific fields since its first introduction in 1948. Apart from Fitts' law and Hick's law, which came out when experimental psychologists were still enthusiastic about applying information theory to various areas of psychology, the relation between information theory and human-computer interaction (HCI) has rarely been explored. This thesis strives to bridge the gap between information theory and HCI by taking the stance that human-computer interaction can be considered as a communication process and therefore can be characterized using information-theoretic concepts. The three main contributions are: (1) a detailed historical perspective on how information theory influenced psychology and HCI, particularly an in-depth discussion and analysis of how relevant Hick's law is to HCI; (2) a Bayesian Information Gain (BIG) framework that quantifies the information sent by the user to the computer to express her intention; and (3) a further illustration of the advantages of using information-theoretic measures to evaluate input performance and to characterize the rich aspects of an interaction task. This thesis demonstrates that information theory can be used as a unified tool to understand and design human-computer communication.
54

Modeling the speed-accuracy tradeoff using the tools of information theory / Modélisation du compromis vitesse précision d'une tâche de pointage humain à l'aide des outils de la théorie de l'information

Gori, Julien 20 December 2018 (has links)
La loi de Fitts, qui relie le temps de mouvement MT dans une tache de pointage aux dimensions de la cible visée D et W est usuellement exprimée à partir d’une imitation de la formule de la capacité de Shannon MT = a + b log 2 (1 + D/W). Toutefois, l’analyse actuelle est insatisfaisante: elle provient d’une simple analogie entre la tache de pointage et la transmission d’un signal sur un canal bruité sans qu’il n’y ait de modèle explicite de communication.Je développe d’abord un modèle de transmission pour le pointage, où l’indice de difficulté ID = log 2 (1 + D/W) s’exprime aussi bien comme une entropie de source et une capacité de canal, permettant ainsi de réconcilier dans un premier temps l’approche de Fitts avec la théorie de l’information de Shannon. Ce modèle est ensuite exploité pour analyser des données de pointage récoltées lors d’expérimentations contrôlées mais aussi en conditions d’utilisations réelles.Je développe ensuite un second modèle, focalisé autour de la forte variabilité caractéristique du mouvement humain et qui prend en compte la forte diversité des mécanismes de contrôle du mouvement: avec ou sans voie de retour, par intermittence ou de manière continue. À partir d’une chronométrie de la variance positionnelle, évaluée à partir d’un ensemble de trajectoires, on remarque que le mouvement peut-être découpé en deux phases: une première où la variance augmente et une grande partie de la distance à couvrir est parcourue, est suivie d’une deuxième au cours de laquelle la variance diminue pour satisfaire les contraintes de précision requises par la tache.Dans la deuxième phase, le problème du pointage peut-être ramené à un problème de communication à la Shannon, où l’information est transmise d’une“source” (variance à la fin de la première phase) à une “destination” (extrémité du membre) à travers un canal Gaussien avec la présence d’une voie de retour.Je montre que la solution optimale à ce problème de transmission revient à considérer un schéma proposé par Elias. Je montre que la variance peut décroitre au mieux exponentiellement au cours de la deuxième phase, et que c’est ce résultat qui implique directement la loi de Fitts. / Fitts’ law, which relates movement time MTin a pointing task to the target’s dimensions D and Wis usually expressed by mimicking Shannon’s capacityformula MT = a + b log 2 (1 + D/W). Yet, the currentlyreceived analysis is incomplete and unsatisfactory: itstems from a vague analogy and there is no explicitcommunication model for pointing.I first develop a transmission model for pointing taskswhere the index of difficulty ID = log 2 (1 + D/W) isthe expression of both a source entropy and a chan-nel capacity, thereby reconciling Shannon’s informa-tion theory with Fitts’ law. This model is then levera-ged to analyze pointing data gathered from controlledexperiments but also from field studies.I then develop a second model which builds on thevariability of human movements and accounts for thetremendous diversity displayed by movement control:with of without feedback, intermittent or continuous.From a chronometry of the positional variance, eva-luated from a set of trajectories, it is observed thatmovement can be separated into two phases: a firstwhere the variance increases over time and wheremost of the distance to the target is covered, follo-wed by a second phase where the variance decreasesuntil it satisfies accuracy constraints. During this se-cond phase, the problem of aiming can be reduced toa Shannon-like communication problem where infor-mation is transmitted from a “source” (variance at theend of the first phase), to a “destination” (the limb ex-tremity) over a “channel” perturbed by Gaussian noisewith a feedback link. I show that the optimal solution tothis transmission problem amounts to a scheme firstsuggested by Elias. I show that the variance can de-crease at best exponentially during the second phase,and that this result induces Fitts’ law.
55

High-speed VLSI design for turbo and LDPC codes used in broadband wireless networks

He, Zhiyong 12 April 2018 (has links)
This thesis is devoted to the high-speed designs of Very Large Scale Integration (VLSI) Systems for two powerful error-correction codes, turbo codes and Low Density Parity Check (LDPC) codes, which are used in advanced wireless technology to allow the transmission of data at rates near the channel capacity with arbitrarily low probability of error. Since both turbo codes and LDPC codes inherently have large decoding latencies due to the iterative decoding process, the real challenge in high-speed applications is the throughputs of the decoders for these codes. The first contribution of the thesis is that two parallel decoding architectures have been designed to dramatically increase the decoding throughputs of turbo codes. Then, an efficient approach is proposed to design a conflict-free interleaver which avoids collisions in concurrent memory accesses in parallel decoders of turbo codes. For high-performance and high-speed applications of LDPC codes, this thesis has introduced a class of structured LDPC codes with low error floor and low encoding complexity which are based on circulant permutation matrices. The simulations in additive white Gaussian noise (AWGN) channels indicate that the proposed LDPC codes have no bit-error-rate floor down to 10~10 . Using parallel encoding architectures and a layered encoding algorithm, the encoders of the proposed LDPC codes have attained throughput of several Gbits/sec. Finally, a joint row-column decoding algorithm has been proposed to implement high-speed decoders for LDPC codes. As compared with the conventional decoder, the proposed joint decoder improves the bit-error-rate performance and increases the decoder throughput. Implementation results into field programmable gate array (FPGA) devices indicate that a parallel decoder attains a throughput of 2 Gbits/sec. / Cette thèse porte sur la conception de systèmes VLSI (Very Large Scale Intégration) haute vitesse pour deux codes correcteurs d'erreurs puissants, soient les codes turbo et les codes de parité de faible densité (Low Density Parity Check, LDPC), lesquels sont utilisés en technologie sans fil avancée afin de permettre des transmissions à des débits approchant la capacité du canal avec des probabilités d'erreurs arbitrairement faibles. Comme les codes turbo et les codes LDPC possèdent des latences de décodage élevées, dues au caractère itératif de leurs processus de décodage, le principal défi des applications à haute vitesse réside dans l'amélioration du débit des décodeurs pour ces codes. Ainsi, nous proposons une approche efficace pour la conception d'un entrelaceur sans conflits, évitant les collisions dans les accès mémoire concurrents pour les décodeurs parallèles des codes turbo. Pour les applications haute performance et haute vitesse des codes LDPC, cette thèse introduit une classe de codes LDPC structurés avec un plancher d'erreur bas et une faible complexité d'encodage, lesquels sont basés sur des matrices de permutation circulantes. Des simulations dans un canal avec bruit blanc additif Gaussien (additive white Gaussian noise, AWGN) montrent que les codes LDPC proposés ne présentent aucun plancher d'erreur au-delà de 10~10 . En utilisant des architectures d'encodage parallèles et un algorithme d'encodage par couches, les encodeurs pour les codes LDPC proposés atteignent un débit de quelque Gbit/sec. Finalement, un algorithme de décodage conjoint ligne-colonne est proposé afin d'implanter des décodeurs haute vitesse pour les codes LDPC. En comparaison avec le décodeur classique, le décodeur conjoint proposé réduit le taux d'erreur par bit et augmente le débit du décodeur. Le résultat de l'implémentation dans les réseaux de portes programmables in-situ (field programmable gâte array, FPGA) indique qu'un décodeur parallèle peut atteindre un débit de 2 Gbit/sec.
56

Communication coopératives dans les réseaux autour du corps humain

Ferrand, Paul 21 June 2013 (has links) (PDF)
Cette thèse a pour but d'évaluer la performance théorique des approches coopératives pour la fiabilisation des transmissions dans les réseaux autour du corps humain. Ces réseaux sont formés d'un nombre limité de capteurs communiquants disposés sur et dans le corps. Les techniques de coopération dans les réseaux de cette taille sont extrêmement dépendantes de l'information disponible quant à la qualité des canaux de communication au moment de la transmission. Sous une hypothèse de connaissance de la valeur moyenne à moyen et long terme de l'affaiblissement de ces canaux, nous dérivons une approximation du taux d'erreur paquet de bout en bout pour des techniques de relayage. Nous présentons également, pour certains de ces modèles, une allocation de puissance asymptotiquement optimale, fournissant néanmoins un gain en performance sur une large plage de puissances d'émission. En supposant ensuite que les noeuds ont une connaissance parfaite de l'état du réseau, nous étudions la capacité de Shannon sur des canaux à relais et des canaux comprenant deux émetteurs coopérant entre eux. Pour ces deux modèles, nous montrons que lorsque l'on cherche à optimiser la répartition de la puissance totale disponible à l'émission, l'étude se réduit à celle d'un modèle de canal équivalent, simplifiant grandement l'analyse de la région de capacité. Nous dérivons ensuite l'allocation de ressources optimale ou de bonnes approximations pour des protocoles de coopération adaptés à ces deux modèles. Nous présentons enfin une plate-forme de mesures pour les réseaux autour du corps humain nous permettant de relever de manière quasi-simultanée l'intégralité des affaiblissements des liens entre les noeuds du réseau. Cette plate-forme nous permet de traiter de la stabilité de la qualité des liens et de la validité de l'hypothèse de réciprocité de chaque lien. De plus, nous évaluons aussi la corrélation spatiale de l'affaiblissement des liens, et nous montrons en particulier que celle-ci varie fortement au cours du mouvement, mais de manière suffisament lente pour être estimée au fil de l'eau.
57

Partage de secret et théorie algorithmique de l'information

Kaced, Tarik 04 December 2012 (has links) (PDF)
Notre travail sur le partage de secret se base sur les points de vue de la Théorie de l'Information de Shannon et de la Complexité de Kolmogorov. Nous allons expliquer comment ces trois sujets sont intimement liés. Les inégalités d'information jouent un rôle central dans cette thèse: ce sont les inégalités pour l'entropie de Shannon, qui correspondent également aux inégalités valides pour la complexité de Kolmogorov. La Théorie Algorithmique de l'Information introduite par Kolmogorov formalise l'idée d'aléatoire pour les chaînes de caractères. Ce sont là deux raisons justifiant à elles seules la notion de partage de secret algorithmique dans le cadre de la Théorie Algorithmique de l'information (si l'on sait partager un secret aléatoire, on peut partager n'importe quel secret). Originalement étudié par sa définition combinatoire, le partage de secret a été plus tard généralisé par une formulation dans le langage de la théorie de l'information. Cette étape a permis l'utilisation des inégalités d'information, et s'est révélée très importante dans la caractérisation de l'efficacité des schémas de partage de secret. L'étude de ces inégalités n'en est qu'à ses débuts. Nous y contribuons en introduisant la notion d'inégalité essentiellement conditionnelle, qui montre une fois de plus que ces inégalités ne sont pas encore complètement comprises.
58

Quantum information with optical continuous variables: from Bell tests to key distribution / Information quantique avec variables continues optiques: des tests de Bell à la distribution de clé

Garcia-Patron Sanchez, Raul 12 October 2007 (has links)
In this thesis we have studied different aspects of the novel field of quantum information with continuous variables. The higher efficiency and bandwidth of homodyne detection combined with the easiness of generation and manipulation of Gaussian states makes continuous-variable quantum information a promising and flourishing field of research. This dissertation is divided in two parts. The first part explores two applications of the “photon subtraction” operation; Firstly, a technique to generate highly non-Gaussian single-mode states of light; Secondly, an experimental setup capable of realizing a loophole-free Bell test. The second part of this dissertation develops a detailed analysis of an important family of continuous-variable quantum key distribution protocols, namely those based on Gaussian modulation of Gaussian states./Dans cette thèse on a étudié différents aspects de l'information quantique à variables continues. Les meilleures efficacité et bande passante de la détection homodyne combinées à la simplicité de génération et de manipulation d'états gaussiens rend l'information quantique à variables continues un domaine de recherche très prometteur, qui est actuellement en plein essor. La dissertation est divisée en deux parties. La première explore deux applications de l'opération “soustraction de photon”; en premier lieu on présente une nouvelle technique capable de générer des états mono-modaux de la lumière hautement non-gaussiens; deuxiemement on présente un schéma expérimental capable de réaliser un test de Bell sans faille logique. La deuxième partie de cette dissertation développe une étude détaillée d'une famille très importante de protocoles de distribution quantique de clé à variables continues, ceux basés sur la modulation gaussienne d'états gaussiens. / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
59

Information-Theoretic aspects of quantum key distribution

Van Assche, Gilles 26 April 2005 (has links)
<p>La distribution quantique de clés est une technique cryptographique permettant l'échange de clés secrètes dont la confidentialité est garantie par les lois de la mécanique quantique. Le comportement particulier des particules élémentaires est exploité. En effet, en mécanique quantique, toute mesure sur l'état d'une particule modifie irrémédiablement cet état. En jouant sur cette propriété, deux parties, souvent appelées Alice et Bob, peuvent encoder une clé secrète dans des porteurs quantiques tels que des photons uniques. Toute tentative d'espionnage demande à l'espion, Eve, une mesure de l'état du photon qui transmet un bit de clé et donc se traduit par une perturbation de l'état. Alice et Bob peuvent alors se rendre compte de la présence d'Eve par un nombre inhabituel d'erreurs de transmission.</p><p><p><p>L'information échangée par la distribution quantique n'est pas directement utilisable mais doit être d'abord traitée. Les erreurs de transmissions, qu'elles soient dues à un espion ou simplement à du bruit dans le canal de communication, doivent être corrigées grâce à une technique appelée réconciliation. Ensuite, la connaissance partielle d'un espion qui n'aurait perturbé qu'une partie des porteurs doit être supprimée de la clé finale grâce à une technique dite d'amplification de confidentialité.</p><p><p><p>Cette thèse s'inscrit dans le contexte de la distribution quantique de clé où les porteurs sont des états continus de la lumière. En particulier, une partie importante de ce travail est consacrée au traitement de l'information continue échangée par un protocole particulier de distribution quantique de clés, où les porteurs sont des états cohérents de la lumière. La nature continue de cette information implique des aménagements particuliers des techniques de réconciliation, qui ont surtout été développées pour traiter l'information binaire. Nous proposons une technique dite de réconciliation en tranches qui permet de traiter efficacement l'information continue. L'ensemble des techniques développées a été utilisé en collaboration avec l'Institut d'Optique à Orsay, France, pour produire la première expérience de distribution quantique de clés au moyen d'états cohérents de la lumière modulés continuement.</p><p><p><p>D'autres aspects importants sont également traités dans cette thèse, tels que la mise en perspective de la distribution quantique de clés dans un contexte cryptographique, la spécification d'un protocole complet, la création de nouvelles techniques d'amplification de confidentialité plus rapides à mettre en œuvre ou l'étude théorique et pratique d'algorithmes alternatifs de réconciliation.</p><p><p><p>Enfin, nous étudions la sécurité du protocole à états cohérents en établissant son équivalence à un protocole de purification d'intrication. Sans entrer dans les détails, cette équivalence, formelle, permet de valider la robustesse du protocole contre tout type d'espionnage, même le plus compliqué possible, permis par les lois de la mécanique quantique. En particulier, nous généralisons l'algorithme de réconciliation en tranches pour le transformer en un protocole de purification et nous établissons ainsi un protocole de distribution quantique sûr contre toute stratégie d'espionnage.</p><p><p><p>Quantum key distribution is a cryptographic technique, which allows to exchange secret keys whose confidentiality is guaranteed by the laws of quantum mechanics. The strange behavior of elementary particles is exploited. In quantum mechnics, any measurement of the state of a particle irreversibly modifies this state. By taking advantage of this property, two parties, often called Alice and bob, can encode a secret key into quatum information carriers such as single photons. Any attempt at eavesdropping requires the spy, Eve, to measure the state of the photon and thus to perturb this state. Alice and Bob can then be aware of Eve's presence by a unusually high number of transmission errors.</p><p><p><p>The information exchanged by quantum key distribution is not directly usable but must first be processed. Transmission errors, whether they are caused by an eavesdropper or simply by noise in the transmission channel, must be corrected with a technique called reconciliation. Then, the partial knowledge of an eavesdropper, who would perturb only a fraction of the carriers, must be wiped out from the final key thanks to a technique called privacy amplification.</p><p><p><p>The context of this thesis is the quantum key distribution with continuous states of light as carriers. An important part of this work deals with the processing of continuous information exchanged by a particular protocol, where the carriers are coherent states of light. The continuous nature of information in this case implies peculiar changes to the reconciliation techniques, which have mostly been developed to process binary information. We propose a technique called sliced error correction, which allows to efficiently process continuous information. The set of the developed techniques was used in collaboration with the Institut d'Optique, Orsay, France, to set up the first experiment of quantum key distribution with continuously-modulated coherent states of light.</p><p><p><p>Other important aspects are also treated in this thesis, such as placing quantum key distribution in the context of a cryptosystem, the specification of a complete protocol, the creation of new techniques for faster privacy amplification or the theoretical and practical study of alternate reconciliation algorithms.</p><p><p><p>Finally, we study the security of the coherent state protocol by analyzing its equivalence with an entanglement purification protocol. Without going into the details, this formal equivalence allows to validate the robustness of the protocol against any kind of eavesdropping, even the most intricate one allowed by the laws of quantum mechanics. In particular, we generalize the sliced error correction algorithm so as to transform it into a purification protocol and we thus establish a quantum key distribution protocol secure against any eavesdropping strategy.</p> / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
60

Sur la notion d'optimalité dans les problèmes de bandit stochastique / On the notion of optimality in the stochastic multi-armed bandit problems

Ménard, Pierre 03 July 2018 (has links)
Cette thèse s'inscrit dans les domaines de l'apprentissage statistique et de la statistique séquentielle. Le cadre principal est celui des problèmes de bandit stochastique à plusieurs bras. Dans une première partie, on commence par revisiter les bornes inférieures sur le regret. On obtient ainsi des bornes non-asymptotiques dépendantes de la distribution que l'on prouve de manière très simple en se limitant à quelques propriétés bien connues de la divergence de Kullback-Leibler. Puis, on propose des algorithmes pour la minimisation du regret dans les problèmes de bandit stochastique paramétrique dont les bras appartiennent à une certaine famille exponentielle ou non-paramétrique en supposant seulement que les bras sont à support dans l'intervalle unité, pour lesquels on prouve l'optimalité asymptotique (au sens de la borne inférieure de Lai et Robbins) et l'optimalité minimax. On analyse aussi la complexité pour l'échantillonnage séquentielle visant à identifier la distribution ayant la moyenne la plus proche d'un seuil fixé, avec ou sans l'hypothèse que les moyennes des bras forment une suite croissante. Ce travail est motivé par l'étude des essais cliniques de phase I, où l'hypothèse de croissance est naturelle. Finalement, on étend l'inégalité de Fano qui contrôle la probabilité d'évènements disjoints avec une moyenne de divergences de Kullback-leibler à des variables aléatoires arbitraires bornées sur l'intervalle unité. Plusieurs nouvelles applications en découlent, les plus importantes étant une borne inférieure sur la vitesse de concentration de l'a posteriori Bayésien et une borne inférieure sur le regret pour un problème de bandit non-stochastique. / The topics addressed in this thesis lie in statistical machine learning and sequential statistic. Our main framework is the stochastic multi-armed bandit problems. In this work we revisit lower bounds on the regret. We obtain non-asymptotic, distribution-dependent bounds and provide simple proofs based only on well-known properties of Kullback-Leibler divergence. These bounds show in particular that in the initial phase the regret grows almost linearly, and that the well-known logarithmic growth of the regret only holds in a final phase. Then, we propose algorithms for regret minimization in stochastic bandit models with exponential families of distributions or with distribution only assumed to be supported by the unit interval, that are simultaneously asymptotically optimal (in the sense of Lai and Robbins lower bound) and minimax optimal. We also analyze the sample complexity of sequentially identifying the distribution whose expectation is the closest to some given threshold, with and without the assumption that the mean values of the distributions are increasing. This work is motivated by phase I clinical trials, a practically important setting where the arm means are increasing by nature. Finally we extend Fano's inequality, which controls the average probability of (disjoint) events in terms of the average of some Kullback-Leibler divergences, to work with arbitrary unit-valued random variables. Several novel applications are provided, in which the consideration of random variables is particularly handy. The most important applications deal with the problem of Bayesian posterior concentration (minimax or distribution-dependent) rates and with a lower bound on the regret in non-stochastic sequential learning.

Page generated in 0.1095 seconds