• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 133
  • 91
  • 53
  • Tagged with
  • 269
  • 147
  • 116
  • 101
  • 82
  • 60
  • 53
  • 45
  • 45
  • 40
  • 37
  • 36
  • 33
  • 33
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Méthodes probabilistes d'analyse de fiabilité dans la logique combinatoire

Torras Flaquer, Josep 12 December 2011 (has links) (PDF)
Les circuits numériques utilisés dans des domaines aussi variés que le médical, spatial, automobile ou nucléaire ont besoin d'une très forte fiabilité. La réduction progressive de la tension d'alimentation et l'intégration croissante des produits électroniques affecte la sensibilité du système à l'apparition de fautes (permanentes ou transitoires). Les fautes transitoires ont été largement dominants dans le taux total de SER (Soft Error Rate) des mémoires et éléments de séquentiels. Ainsi, les techniques de correction et prévention pour ces éléments sont bien connues. Par contre, la contribution au SER due aux éléments de logique combinatoire est en croissance, et il est prévue qu'elle devient dominante avec la réduction progressive de la taille de la technologie CMOS. Ainsi, il y a un réel besoin de pallier le manque de modèles et méthodologies qui prennent en compte l'effet de la logique combinatoire dans la perte de fiabilité. Deux approches existe pour cette problématique : 1- Techniques d'injection de fautes 2 - Modèles analytiques Le travail présenté dans cette thèse pour sur l'approche analytique, ou approche probabiliste. D'abord, une analyse en profondeur de l'état de l'art est proposé, mettant en évidence les limitations principales de ce type d'approche. Deuxièmement, des nouvelles approches sont proposées, améliorant la performance des approches existants. Des nouvelles métriques concernant l'analyse FMDEA et durcissement séléctif sont aussi proposées. Finalement, les approches sont validées en comparant leur performance avec les principales techniques déjà existantes.
102

Modélisation de la croissance d'une tumeur après traitement par radiothérapie

Keinj, Roukaya 02 December 2011 (has links) (PDF)
Nous avons proposé dans cette thèse une nouvelle approche de modélisation des réponses cellulaire et tumorale durant la radiothérapie. Cette modélisation est fondée sur les chaînes de Markov. Elle se situe dans le cadre de la théorie de cible qui suppose qu'il existe dans la cellule des régions sensibles appelées cibles, qui doivent toutes être désactivées pour tuer la cellule. Un premier travail est consisté à proposer un modèle à temps discret en tenant compte non seulement des phases de réparations cellulaires entre les fractions de dose mais également de l'hétérogénéité des dommages cellulaires. Nous avons ensuite proposé un modèle stochastique de la durée de vie cellulaire. Cette modélisation fut également étendue à une population de cellules et a permis d'établir de nouvelles expressions des probabilités d'eﰓcacité et de complication thérapeutique. Nos derniers travaux portent sur le développement d'un modèle de type chaîne de Markov à temps continu qui pourrait être appliqué aux réponses des tumeurs traitées par la thérapie photodynamique.
103

Programmation et apprentissage bayésien pour les jeux vidéo multi-joueurs, application à l'intelligence artificielle de jeux de stratégies temps-réel

Synnaeve, Gabriel 24 October 2012 (has links) (PDF)
Cette thèse explore l'utilisation des modèles bayésiens dans les IA de jeux vidéo multi-joueurs, particulièrement l'IA des jeux de stratégie en temps réel (STR). Les jeux vidéo se situent entre la robotique et la simulation totale, car les autres joueurs ne sont pas simulés, et l'IA n'a pas de contrôle sur la simulation. Les jeux de STR demandent simultanément d'effectuer des actions reactives (contrôle d'unités) et de prendre des décisions stratégiques (technologiques, économiques) et tactiques (spatiales, temporelles). Nous avons utilisé la modélisation bayésienne comme une alternative à la logique (booléenne), étant capable de travailler avec des informations incomplètes, et donc incertaines. En effet, la spécification incomplète des comportement "scriptés", ou la spécification incomplète des états possibles dans la recherche de plans, demandent une solution qui peut gérer cette incertitude. L'apprentissage artificiel aide à réduire la complexité de spécifier de tels modèles. Nous montrons que la programmation bayésienne peut intégrer toutes sortes de sources d'incertitudes (états cachés, intentions, stochasticité) par la réalisation d'un joueur de StarCraft complètement robotique. Les distributions de probabilité sont un moyen de transporter, sans perte, l'information que l'on a et qui peut représenter au choix: des contraintes, une connaissance partielle, une estimation de l'espace des états et l'incomplétude du modèle lui-même. Dans la première partie de cette thèse, nous détaillons les solutions actuelles aux problèmes qui se posent lors de la réalisation d'une IA de jeu multi-joueur, en donnant un aperçu des caractéristiques calculatoires et cognitives complexes des principaux types de jeux. En partant de ce constat, nous résumons les catégories transversales de problèmes, et nous introduisons comment elles peuvent être résolues par la modélisation bayésienne. Nous expliquons alors comment construire un programme bayésien en partant de connaissances et d'observations du domaine à travers un exemple simple de jeu de rôle. Dans la deuxième partie de la thèse, nous détaillons l'application de cette approche à l'IA de STR, ainsi que les modèles auxquels nous sommes parvenus. Pour le comportement réactif (micro-management), nous présentons un controleur multi-agent décentralisé et temps réel inspiré de la fusion sensori-motrice. Ensuite, nous accomplissons les adaptation dynamiques de nos stratégies et tactiques à celles de l'adversaire en le modélisant à l'aide de l'apprentissage artificiel (supervisé et non supervisé) depuis des traces de joueurs de haut niveau. Ces modèles probabilistes de joueurs peuvent être utilisés à la fois pour la prédiction des décisions/actions de l'adversaire, mais aussi à nous-même pour la prise de décision si on substitue les entrées par les notres. Enfin, nous expliquons l'architecture de notre joueur robotique de StarCraft, et nous précisions quelques détails techniques d'implémentation. Au delà des modèles et de leurs implémentations, il y a trois contributions principales: la reconnaissance de plan et la modélisation de l'adversaire par apprentissage artificiel, en tirant partie de la structure du jeu, la prise de décision multi-échelles en présence d'informations incertaines, et l'intégration des modèles bayésiens au contrôle temps réel d'un joueur artificiel.
104

Random trees, graphs and recursive partitions

Broutin, Nicolas 05 July 2013 (has links) (PDF)
Je présente dans ce mémoire mes travaux sur les limites d'échelle de grandes structures aléatoires. Il s'agit de décrire les structures combinatoires dans la limite des grandes tailles en prenant un point de vue objectif dans le sens où on cherche des limites des objets, et non pas seulement de paramètres caractéristiques (même si ce n'est pas toujours le cas dans les résultats que je présente). Le cadre général est celui des structures critiques pour lesquelles on a typiquement des distances caractéristiques polynomiales en la taille, et non concentrées. Sauf exception, ces structures ne sont en général pas adaptées aux applications informatiques. Elles sont cependant essentielles de part l'universalité de leurs propriétés asymptotiques, prouvées ou attendues. Je parle en particulier d'arbres uniformément choisis, de graphes aléatoires, d'arbres couvrant minimaux et de partitions récursives de domaines du plan:<br/> <strong>Arbres aléatoires uniformes.</strong> Il s'agit ici de mieux comprendre un objet limite essentiel, l'arbre continu brownien (CRT). Je présente quelques résultats de convergence pour des modèles combinatoires ''non-branchants'' tels que des arbres sujets aux symétries et les arbres à distribution de degrés fixée. Je décris enfin une nouvelle décomposition du CRT basée sur une destruction partielle.<br/> <strong>Graphes aléatoires.</strong> J'y décris la construction algorithmique de la limite d'échel-le des graphes aléatoires du modèle d'Erdös--Rényi dans la zone critique, et je fais le lien avec le CRT et donne des constructions de l'espace métrique limite. <strong>Arbres couvrant minimaux.</strong> J'y montre qu'une connection avec les graphes aléatoires permet de quantifier les distances dans un arbre convrant aléatoire. On obtient non seulement l'ordre de grandeur de l'espérance du diamètre, mais aussi la limite d'échelle en tant qu'espace métrique mesuré. Partitions récursives. Sur deux exemples, les arbres cadrant et les laminations du disque, je montre que des idées basées sur des théorèmes de point fixe conduisent à des convergences de processus, où les limites sont inhabituelles, et caractérisées par des décompositions récursives.
105

Imprégnation forcée de fluides dans des milieux poreux

Delbos, Aline 21 October 2010 (has links) (PDF)
Cette thèse porte sur les capacités d'extraction d'une mousse déposée sur un support poreux dans le but d'y déloger un contaminant ayant imprégné la porosité. Nous avons donc considéré l'imprégnation forcée de fluides dans un pore unique, étudiée pour deux cas particuliers : (i) lors de l'impact d'une goutte de liquide à l'aplomb d'un pore unique vertical cette situation visant à modéliser l'imprégnation du poreux par le contaminant, et (ii) lors de l'aspiration d'une mou sse liquide à travers le pore qui illustre la compétition d'aspiration entre la mousse et le poreux. Dans chaque cas, le diamètre du pore est inférieur à celui des gouttes ou des bulles.Pour le premier cas, nous nous sommes intéressés au volume et à la profondeur d'imprégnation pour des surfaces hydrophiles et hydrophobes. Nous établissons les diagrammes d'imprégnation en fonction du diamètre du pore et de la vitesse d'impact et un travail de modélisation nous permet de déterminer les limites entre les différentes régions de ces digrammes.Pour le second cas, nous montrons que lors de l'aspiration, la mousse entre dans le pore uniquement dans un domaine bien déterminé dans le diagramme fraction liquide, rapport de taille pore/bulle et débit d'aspiration. En dehors de ce domaine, l'aspiration peut faire entrer soit le gaz seul, soit le liquide seul. La encore, un travail de modélisation nous permet de prédire les limites des différentes zones du diagramme. Dans une dernière partie, nous revenons à un problème pratique d'imprégnation sur support textile et quantifions les capacités d'extraction d'une mousse dans cette configuration dans le but d'y déloger un contaminant
106

Temps aléatoires, grossissement de filtration et arbitrages

Aksamit, Anna 10 June 2014 (has links) (PDF)
Cette thèse traite des problèmes associes à la théorie de grossissement de filtration. Elle est divisée en deux parties. La première partie est consacrée aux temps aléatoires. On étudie les propriétés des différentes classes de temps aléatoires du point de vue du grossissement de filtration. La deuxième partie concerne l'étude de stabilité de condition d'arbitrage sur le grossissement de filtration. On se concentre sur la condition No Unbounded Profit with Bounded Risk. Dans un premier temps, on étudie l'absence d'arbitrage dans le cas de grossissement progressif avec un temps aléatoire. Puis on regarde le grossissement initial avec une variable aléatoire qui vérifie l'hypothèse de Jacod.
107

MODÈLES STOCHASTIQUES INTERAGISSANTS : SYNCHRONISATION ET RÉDUCTION À UN SYSTÈME DE PHASES

Poquet, Christophe 08 October 2013 (has links) (PDF)
Le sujet de cette thèse est l'étude du rôle du bruit dans les systèmes interagissants, avec en vue des applications dans les systèmes biologiques. Cette étude est basée sur le modèle de Kuramoto, qui est un modèle d'oscillateurs uni-dimensionnels interagissants admettant une transition de phase de synchronisation, ainsi que sur certaines de ses généralisations. Une première partie (réalisée en collaboration avec G. Giacomin, K. Pakdaman et X. Pellegrin) est consacrée au modèle des "Active Rotators", une généralisation du modèle de Kuramoto, dans lequel chaque oscillateur a une dynamique propre, qui est peut être choisie excitable. Nous démontrons de manière rigoureuse que le système global peut avoir une dynamique très différente de celle d'un oscillateur isolé, en réduisant le problème à un problème de phase. On peut en particulier voir l'apparition de phénomènes périodiques. La deuxième partie (réalisée en collaboration avec G. Giacomin et E. Luçon) est consacrée à l'étude du modèle de Kuramoto bruité, dans la limite du faible désordre. Nous démontrons en particulier, dans le cas où le désordre n'est pas symétrique, l'existence d'une solution périodique et donnons un développement de sa vitesse. La troisième partie (réalisée en collaboration avec G. Giacomin et L. Bertini) est consacrée au comportement du modèle de Kuramoto en temps long (proportionnel au nombre d'oscillateurs): les oscillateurs conservent un profil synchronisé qui se déplace dans la limite d'une infinité d'oscillateurs suivant un mouvement Brownien. Enfin dans la dernière partie je me suis intéressé à la problématique de réduction de phase dans le cas du problème de sortie de potentiel, pour des modèle proches de la réversibilité.
108

Évaluation probabiliste de la fiabilité structurelle des digues fluviales à partir du jugement d’expert / Probabilistic evaluation of the structural reliability of river levees based on expert judgment

Hathout, Michel 03 April 2018 (has links)
Les digues de protection contre les inondations sont d’une importance stratégique incontournable pour la sécurité des personnes et des biens. Une meilleure connaissance de leur fiabilité structurelle constitue un enjeu majeur pour les ingénieurs et pour les gestionnaires de ces ouvrages afin de répondre aux réglementations en vigueur et potentiellement les faire évoluer. La réglementation en France relative à la sûreté des ouvrages hydrauliques exige la réalisation d’études de dangers, au sein desquelles les démarches probabilistes d’évaluation de la sécurité prennent une place de plus en plus importante. De par la complexité de leurs mécanismes de rupture et l’absence de condition d’état-limite précis pour certains mécanismes de défaillance tels que l’érosion interne, la surverse ou l’affouillement, le calcul d’une probabilité de défaillance par des approches quantitatives demeure à ce jour impossible. Les digues induisent des problématiques particulières pour l’évaluation de leur fiabilité structurelle où l’intervention d’experts s’avère nécessaire et centrale. Ceux-ci doivent procéder à l’interprétation des données disponibles et la prise en compte de leurs incertitudes, pour pouvoir ensuite évaluer la fiabilité structurelle de digues en termes de probabilité de défaillance. L’objectif de la thèse est l’élaboration d’une démarche complète d’aide à l’évaluation probabiliste de la fiabilité structurelle des digues à partir du jugement expert. Une démarche scientifiquement justifiée pour le recueil et l’exploitation des évaluations expertes, incertaines mais quantitatives, de la fiabilité structurelle des ouvrages, sous la forme d’une probabilité de défaillance ou d’un coefficient de sécurité, assorti(e) d’une marge d’incertitude probabiliste. Afin de répondre à cet objectif, deux démarches ont été développée, « EiCAD » et « EiDA », toutes reposant (dans des ordres différents) sur les phases suivantes :- Une phase d’élicitation individuelle des avis experts (Ei) permettant le recueil des évaluations expertes probabilistes par la construction d’un formulaire de questionnement ;- Une phase de calibration (C) permettant de pondérer les évaluations expertes en fonction des degrés de précision et de justesse ;- Une phase d’agrégation (A) permettant une prise en compte simultanée de plusieurs évaluations expertes probabilistes ;- Une phase de débiaisage (D) permettant de traiter les biais susceptibles d’entacher les évaluations expertes probabilistes. Les démarches développées ont été mises en œuvre sur des cas de digues du Drac, dans l’agglomération grenobloise, pour évaluer la probabilité de défaillance, par jugement expert, vis-à-vis de mécanisme de rupture par glissement et par érosion interne / River levees as protective measures against flooding are a matter of utmost strategic importance for the security of people and property. A better knowledge of their structural reliability is a major challenge for engineers and managers of these structures in order to meet current regulations and potentially develop them. In France, the regulations relating to the safety of hydraulic structures require the realization of hazard studies, in which probabilistic safety evaluation procedures take on a more and more important role. Due to the complexity of their failure mechanisms and the lack of a specific condition of limit-state for some failure mechanisms such as internal erosion and overtopping or scour, calculating a probability of failure by quantitative approaches remains impossible to this day. Levees induce specific problems in evaluating their structural reliability where expert intervention is necessary and pivotal. They must interpret the available data and take into account the uncertainties in their analysis, in order to evaluate the structural reliability of levees in terms of probability of failure. The aim of the thesis is to develop and elaborate a complete approach for supporting probabilistic evaluation of structural reliability of levees based on expert judgments. It is designed as a scientifically justified approach to collect and use uncertain but quantitative expert evaluations of structural reliability, in the form of a failure probability or a safety factor, accompanied by a margin of probabilistic uncertainty. To meet this goal, two approaches have been developed, "EiCAD" and "EiDA" composed of the following phases (in different orders):- individual elicitation phase of expert judgment (Ei) allowing the collection of probabilistic expert evaluations by a constricted questionnaire ;- calibration phase (C) to weigh the probabilistic expert evaluations elicited depending on the degrees of precision and accuracy that can be provided;- aggregation phase (A) during which the probabilistic expert evaluations elicited by several experts are taken into account ;- debiasing phase (D) during which biases that may affect the probabilistic expert evaluations are removed. The developed approaches have been implemented for the cases of Drac levees, located in the Grenoble agglomeration, to assess the probability of failure, by expert judgment, with regard to sliding and internal erosion mechanism of failure
109

Programmation et apprentissage bayésien pour les jeux vidéo multi-joueurs, application à l'intelligence artificielle de jeux de stratégies temps-réel / Bayesian Programming and Learning for Multi-Player Video Games, Application to RTS AI

Synnaeve, Gabriel 24 October 2012 (has links)
Cette thèse explore l'utilisation des modèles bayésiens dans les IA de jeux vidéo multi-joueurs, particulièrement l'IA des jeux de stratégie en temps réel (STR). Les jeux vidéo se situent entre la robotique et la simulation totale, car les autres joueurs ne sont pas simulés, et l'IA n'a pas de contrôle sur la simulation. Les jeux de STR demandent simultanément d'effectuer des actions reactives (contrôle d'unités) et de prendre des décisions stratégiques (technologiques, économiques) et tactiques (spatiales, temporelles). Nous avons utilisé la modélisation bayésienne comme une alternative à la logique (booléenne), étant capable de travailler avec des informations incomplètes, et donc incertaines. En effet, la spécification incomplète des comportement "scriptés", ou la spécification incomplète des états possibles dans la recherche de plans, demandent une solution qui peut gérer cette incertitude. L'apprentissage artificiel aide à réduire la complexité de spécifier de tels modèles. Nous montrons que la programmation bayésienne peut intégrer toutes sortes de sources d'incertitudes (états cachés, intentions, stochasticité) par la réalisation d'un joueur de StarCraft complètement robotique. Les distributions de probabilité sont un moyen de transporter, sans perte, l'information que l'on a et qui peut représenter au choix: des contraintes, une connaissance partielle, une estimation de l'espace des états et l'incomplétude du modèle lui-même. Dans la première partie de cette thèse, nous détaillons les solutions actuelles aux problèmes qui se posent lors de la réalisation d'une IA de jeu multi-joueur, en donnant un aperçu des caractéristiques calculatoires et cognitives complexes des principaux types de jeux. En partant de ce constat, nous résumons les catégories transversales de problèmes, et nous introduisons comment elles peuvent être résolues par la modélisation bayésienne. Nous expliquons alors comment construire un programme bayésien en partant de connaissances et d'observations du domaine à travers un exemple simple de jeu de rôle. Dans la deuxième partie de la thèse, nous détaillons l'application de cette approche à l'IA de STR, ainsi que les modèles auxquels nous sommes parvenus. Pour le comportement réactif (micro-management), nous présentons un controleur multi-agent décentralisé et temps réel inspiré de la fusion sensori-motrice. Ensuite, nous accomplissons les adaptation dynamiques de nos stratégies et tactiques à celles de l'adversaire en le modélisant à l'aide de l'apprentissage artificiel (supervisé et non supervisé) depuis des traces de joueurs de haut niveau. Ces modèles probabilistes de joueurs peuvent être utilisés à la fois pour la prédiction des décisions/actions de l'adversaire, mais aussi à nous-même pour la prise de décision si on substitue les entrées par les notres. Enfin, nous expliquons l'architecture de notre joueur robotique de StarCraft, et nous précisions quelques détails techniques d'implémentation. Au delà des modèles et de leurs implémentations, il y a trois contributions principales: la reconnaissance de plan et la modélisation de l'adversaire par apprentissage artificiel, en tirant partie de la structure du jeu, la prise de décision multi-échelles en présence d'informations incertaines, et l'intégration des modèles bayésiens au contrôle temps réel d'un joueur artificiel. / This thesis explores the use of Bayesian models in multi-player video games AI, particularly real-time strategy (RTS) games AI. Video games are an in-between of real world robotics and total simulations, as other players are not simulated, nor do we have control over the simulation. RTS games require having strategic (technological, economical), tactical (spatial, temporal) and reactive (units control) actions and decisions on the go. We used Bayesian modeling as an alternative to (boolean valued) logic, able to cope with incompleteness of information and (thus) uncertainty. Indeed, incomplete specification of the possible behaviors in scripting, or incomplete specification of the possible states in planning/search raise the need to deal with uncertainty. Machine learning helps reducing the complexity of fully specifying such models. We show that Bayesian programming can integrate all kinds of sources of uncertainty (hidden state, intention, stochasticity), through the realization of a fully robotic StarCraft player. Probability distributions are a mean to convey the full extent of the information we have and can represent by turns: constraints, partial knowledge, state space estimation and incompleteness in the model itself. In the first part of this thesis, we review the current solutions to problems raised by multi-player game AI, by outlining the types of computational and cognitive complexities in the main gameplay types. From here, we sum up the transversal categories of prob- lems, introducing how Bayesian modeling can deal with all of them. We then explain how to build a Bayesian program from domain knowledge and observations through a toy role-playing game example. In the second part of the thesis, we detail our application of this approach to RTS AI, and the models that we built up. For reactive behavior (micro-management), we present a real-time multi-agent decentralized controller inspired from sensory motor fusion. We then show how to perform strategic and tactical adaptation to a dynamic opponent through opponent modeling and machine learning (both supervised and unsupervised) from highly skilled players' traces. These probabilistic player-based models can be applied both to the opponent for prediction, or to ourselves for decision-making, through different inputs. Finally, we explain our StarCraft robotic player architecture and precise some technical implementation details. Beyond models and their implementations, our contributions are threefolds: machine learning based plan recognition/opponent modeling by using the structure of the domain knowledge, multi-scale decision-making under uncertainty, and integration of Bayesian models with a real-time control program.
110

Analyse de performance d'un système d'authentification utilisant des codes graphiques / Performance Analysis of an Authentication Method relying on Graphical Codes

Mai Hoang, Bao An 01 December 2014 (has links)
Nous étudions dans cette thèse l'influence d'un système d'authentification utilisant des codes graphiques 2D modifiés lors de l'impression par un procédé physique non-clônable. Un tel procédé part du principe qu'à très haute résolution le système d'impression acquisition peut être modélisé comme un processus stochastique, de part le caractère aléatoire de la disposition des fibres de papiers, de mélange des particules d'encre, de l'adressabilité de l'imprimante ou encore du bruit d'acquisition. Nous considérons un scénario où l'adversaire pourra estimer le code original et essaiera de le reproduire en utilisant son propre système d'impression. La première solution que nous proposons pour arriver à l'authentification est d'utiliser un test d'hypothèse à partir des modèles à priori connus et sans mémoire des canaux d'impression-acquisition de l'imprimeur légitime et du contrefacteur. Dans ce contexte nous proposons une approximation fiable des probabilités d'erreur via l'utilisation de bornes exponentiels et du principe des grandes déviations. Dans un second temps, nous analysons un scénario plus réaliste qui prends en compte une estimation a priori du canal du contrefacteur et nous mesurons l'impact de cette étape sur les performances du système d'authentification. Nous montrons qu'il est possible de calculer la distribution des probabilité de non-détection et d'en extraire par exemple ses performances moyennes. La dernière partie de cette thèse propose d'optimiser, au travers d'un jeu minimax, le canal de l'imprimeur. / We study in this thesis the impact of an authentication system based on 2D graphical codes that are corrupted by a physically unclonable noise such as the one emitted by a printing process. The core of such a system is that a printing process at very high resolution can be seen as a stochastic process and hence produces noise, this is due to the nature of different elements such as the randomness of paper fibers, the physical properties of the ink drop, the dot addressability of the printer, etc. We consider a scenario where the opponent may estimate the original graphical code and tries to reproduce the forged one using his printing process in order to fool the receiver. Our first solution to perform authentication is to use hypothesis testing on the observed memoryless sequences of a printed graphical code considering the assumption that we are able to perfectly model the printing process. The proposed approach arises from error exponent using exponential bounds as a direct application of the large deviation principle. Moreover, when looking for a more practical scenario, we take into account the estimation of the printing process used to generate the graphical code of the opponent, and we see how it impacts the performance of the authentication system. We show that it is both possible to compute the distribution of the probability of non-detection and to compute the average performance of the authentication system when the opponent channel has to be estimated. The last part of this thesis addresses the optimization problem of the printing channel.

Page generated in 0.0637 seconds