• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 14
  • 8
  • 1
  • Tagged with
  • 19
  • 19
  • 10
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Propagation de la variabilité de la morphologie humaine sur le débit d'absorption spécifique en dosimétrie numérique.

El Habachi, Aimad Abdeslam 31 January 2011 (has links) (PDF)
Dans ce mémoire, nous étudions l'exposition aux ondes électromagnétiques l'échelle d'une population. Cette étude est réalisée pour une exposition à une onde plane orientée frontalement sur des modèles anatomiques du corps humains (fantômes) avec une puissance incidente de 1W/m2 et une fréquence de 2.1 GHz. Pour ce faire, l'idée est de construire un modèle du WBSAR (Whole Body averaged Specific Absorption Rate) en fonction de lamorphologie. Les facteurs morphologiques influençant le WBSAR ont été identifiés à l'aide des fantômes existant dont le nombre se limite à 18 et des modèles de régressions. Cette analyse préliminaire montre que les facteurs morphologiques externes (taille, poids ...) seuls ne suffisent pas pour construire un tel modèle, mais l'introduction des facteurs morphologiques internes (muscles, graisse ...) est nécessaire. L'absence de données statistiques sur les facteurs morphologiques internes de populations nous a conduits à intégrer des connaissances apriori sur ces facteursafin d'étudier l'exposition d'une population donnée. Des lois paramétriques usuelles et des mélanges de gaussiennes sont utilisés pour modéliser ces facteurs internes afin d'étudier leur influence sur le quantile du WBSAR à 95 %.L'utilisation des fantômes homogènes où le fantôme homogène est obtenu en remplaçant tous les tissus internes par un unique tissu équivalent. Ces fantômes homogènes permettent de s'affranchir de l'influence de la morphologie interne dans un modèle du WBSAR et facilitent également leur déformation par une technique de morphing. Ainsi nous avons pu enrichir la base de fantômes existant. Pour donner une estimation du quantile du WBSAR à 95 %, nous avons mis en place un plan d'expériences séquentiel qui repose sur un modèle paramétrique du WBSAR et l'inférence bayésienne et qui permet de raffiner la région à 95 %. Cette approche nous a permis de trouver le quantile à 95 % pour une population et un exemple de fantôme correspondant. Cependant, cette approche ne permet pas d'obtenir une estimation de toute la distribution du WBSAR. Afin d'obtenir une estimation de toute cette distribution, nous avons construit une surface de réponse en utilisant les polynômes de chaos. Dans l'objectif d'obtenirdes résultats cohérents nous avons effectué un changement de variables permettant de traduire les connaissances physiques dans cette surface de réponse.
12

Approches statistiques pour la détection de changements en IRM de diffusion : application au suivi longitudinal de pathologies neuro-dégénératives

Grigis, Antoine 25 September 2012 (has links) (PDF)
L'IRM de diffusion (IRMd) est une modalité d'imagerie médicale qui suscite un intérêt croissant dans la recherche en neuro-imagerie. Elle permet d'apporter in vivo des informations nouvelles sur les micro-structures locales des tissus. En chaque point d'une acquisition d'IRMd, la distribution des directions de diffusion des molécules d'eau est modélisée par un tenseur de diffusion. La nature multivariée de ces images requiert la conception de nouvelles méthodes de traitement adaptées. Le contexte de cette thèse est l'analyse automatique de changements longitudinaux intra-patient avec pour application le suivi de pathologies neuro-dégénératives. Notre recherche a ainsi porté sur le développement de nouveaux modèles et tests statistiques permettant la détection automatique de changements sur des séquences temporelles d'images de diffusion. Cette thèse a ainsi permis une meilleure prise en compte de la nature tensorielle des modèles d'ordre 2 (tests statistiques sur des matrices définies positives), une extension vers des modèles d'ordre supérieur et une gestion plus fine des voisinages sur lesquels les tests sont menés, avec en particulier la conception de tests statistiques sur des faisceaux de fibres.
13

Analyse des générateurs de nombres aléatoires dans des conditions anormales d'utilisation / Analysis of Random Number Generators in abnormal usage conditions

Soucarros, Mathilde 15 October 2012 (has links)
Les nombres aléatoires ont été de tous temps utilisés pour des jeux de hasard, plus récemment pour créer des codes secrets et ils sont aujourd'hui nécessaire à l'exécution de programmes informatiques. Les générateurs de nombres aléatoires sont maintenant bien éloignés de simples dés à lancer et sont constitués de circuits électroniques ou d'algorithmes. Ceci pose des problèmes quant à la reconnaissance du caractère aléatoire des nombres générés. De plus, de la même manière ou autrefois les dés étaient pipés pour augmenter les chances de gagner, il est aujourd'hui possible d'influencer la sortie des générateurs de nombres aléatoires.Ce sujet est donc toujours d'actualité avec des exemples récents très médiatisés. Ceci concernait en effet la console de jeu PS3 qui génère un nombre aléatoire constant où la distribution de clefs secrètes redondantes sur internet.Ce mémoire présente l'étude de plusieurs générateurs ainsi que diverses manières de les perturber. Il montre ainsi des faiblesses inhérentes à leurs conceptions et des conséquences possibles de leur défaillance sur des composants de sécurité. Ces travaux ont de plus permis de mettre en évidence l'importance des problématiques concernant le test des nombres aléatoires ainsi que des retraitements corrigeant des biais dans ces nombres. / Random numbers have been used through the ages for games of chance, more recently for secret codes and today they are necessary to the execution of computer programs. Random number générators have now evolved from simple dices to electronic circuits and algorithms. Accordingly, the ability to distinguish between random and non-random numbers has become more difficult. Furthemore, whereas in the past dices were loaded in order to increase winning chances, it is now possible to influence the outcome of random number generators.In consequence, this subject is still very much an issue and has recently made the headlines. Indeed, there was talks about the PS3 game console which generates constant random numbers and redundant distribution of secret keys on the internet.This thesis presents a study of several generators as well as different means to perturb them. It shows the inherent defects of their conceptions and possible consequences of their failure when they are embedded inside security components. Moreover, this work highlights problems yet to be solved concerning the testing of random numbers and the post-processing eliminating bias in these numbers distribution.
14

Vers une vision robuste de l'inférence géométrique / Toward a Robust Vision of Geometrical Inference

Brécheteau, Claire 24 September 2018 (has links)
Le volume de données disponibles est en perpétuelle expansion. Il est primordial de fournir des méthodes efficaces et robustes permettant d'en extraire des informations pertinentes. Nous nous focalisons sur des données pouvant être représentées sous la forme de nuages de points dans un certain espace muni d'une métrique, e.g. l'espace Euclidien R^d, générées selon une certaine distribution. Parmi les questions naturelles que l'on peut se poser lorsque l'on a accès à des données, trois d'entre elles sont abordées dans cette thèse. La première concerne la comparaison de deux ensembles de points. Comment décider si deux nuages de points sont issus de formes ou de distributions similaires ? Nous construisons un test statistique permettant de décider si deux nuages de points sont issus de distributions égales (modulo un certain type de transformations e.g. symétries, translations, rotations...). La seconde question concerne la décomposition d'un ensemble de points en plusieurs groupes. Étant donné un nuage de points, comment faire des groupes pertinents ? Souvent, cela consiste à choisir un système de k représentants et à associer chaque point au représentant qui lui est le plus proche, en un sens à définir. Nous développons des méthodes adaptées à des données échantillonnées selon certains mélanges de k distributions, en présence de données aberrantes. Enfin, lorsque les données n'ont pas naturellement une structure en k groupes, par exemple, lorsqu'elles sont échantillonnées à proximité d'une sous-variété de R^d, une question plus pertinente est de construire un système de k représentants, avec k grand, à partir duquel on puisse retrouver la sous-variété. Cette troisième question recouvre le problème de la quantification d'une part, et le problème de l'approximation de la distance à un ensemble d'autre part. Pour ce faire, nous introduisons et étudions une variante de la méthode des k-moyennes adaptée à la présence de données aberrantes dans le contexte de la quantification. Les réponses que nous apportons à ces trois questions dans cette thèse sont de deux types, théoriques et algorithmiques. Les méthodes proposées reposent sur des objets continus construits à partir de distributions et de sous-mesures. Des études statistiques permettent de mesurer la proximité entre les objets empiriques et les objets continus correspondants. Ces méthodes sont faciles à implémenter en pratique lorsque des nuages de points sont à disposition. L'outil principal utilisé dans cette thèse est la fonction distance à la mesure, introduite à l'origine pour adapter les méthodes d'analyse topologique des données à des nuages de points corrompus par des données aberrantes / It is primordial to establish effective and robust methods to extract pertinent information from datasets. We focus on datasets that can be represented as point clouds in some metric space, e.g. Euclidean space R^d; and that are generated according to some distribution. Of the natural questions that may arise when one has access to data, three are addressed in this thesis. The first question concerns the comparison of two sets of points. How to decide whether two datasets have been generated according to similar distributions? We build a statistical test allowing to one to decide whether two point clouds have been generated from distributions that are equal (up to some rigid transformation e.g. symmetry, translation, rotation...).The second question is about the decomposition of a set of points into clusters. Given a point cloud, how does one make relevant clusters? Often, it consists of selecting a set of k representatives, and associating every point to its closest representative (in some sense to be defined). We develop methods suited to data sampled according to some mixture of k distributions, possibly with outliers. Finally, when the data can not be grouped naturally into $k$ clusters, e.g. when they are generated in a close neighborhood of some sub-manifold in R^d, a more relevant question is the following. How to build a system of $k$ representatives, with k large, from which it is possible to recover the sub-manifold? This last question is related to the problems of quantization and compact set inference. To address it, we introduce and study a modification of the $k$-means method adapted to the presence of outliers, in the context of quantization. The answers we bring in this thesis are of two types, theoretical and algorithmic. The methods we develop are based on continuous objects built from distributions and sub-measures. Statistical studies allow us to measure the proximity between the empirical objects and the continuous ones. These methods are easy to implement in practice, when samples of points are available. The main tool in this thesis is the function distance-to-measure, which was originally introduced to make topological data analysis work in the presence of outliers.
15

Hardware implementation of a pseudo random number generator based on chaotic iteration / Implémentation matérielle de générateurs de nombres pseudo-aléatoires basés sur les itérations chaotiques

Bakiri, Mohammed 08 January 2018 (has links)
La sécurité et la cryptographie sont des éléments clés pour les dispositifs soumis à des contraintes comme l’IOT, Carte à Puce, Systèm Embarqué, etc. Leur implémentation matérielle constitue un défi en termes de limitation en ressources physiques, vitesse de fonctionnement, capacité de mémoire, etc. Dans ce contexte, comme la plupart des protocoles s’appuient sur la sécurité d’un bon générateur de nombres aléatoires, considéré comme un élément indispensable dans le noyau de sécurité. Par conséquent, le présent travail propose des nouveaux générateurs pseudo-aléatoires basés sur des itérations chaotiques, et conçus pour être déployés sur des supports matériels, à savoir sur du FPGA ou du ASIC. Ces implémentations matérielles peuvent être décrites comme des post-traitements sur des générateurs existants. Elles transforment donc une suite de nombres non-uniformes en une autre suite de nombres uniformes. La dépendance entre l’entrée et la sortie a été prouvée chaotique selon les définitions mathématiques du chaos fournies notamment par Devaney et Li-Yorke. Suite à cela, nous effectuant tout d’abord un état de l’art complet sur les mises en œuvre matérielles et physiques des générateurs de nombres pseudo-aléatoires (PRNG, pour pseudorandom number generators). Nous proposons ensuite de nouveaux générateurs à base d’itérations chaotiques (IC) qui seront testés sur notre plate-forme matérielle. L’idée de départ était de partir du n-cube (ou, de manière équivalente, de la négation vectorielle dans les IC), puis d’enlever un cycle Hamiltonien suffisamment équilibré pour produire de nouvelles fonctions à itérer, à laquelle s’ajoute une permutation en sortie. Les méthodes préconisées pour trouver de bonnes fonctions serons détaillées, et le tout sera implanté sur notre plate-forme FPGA. Les générateurs obtenus disposent généralement d’un meilleur profil statistique que leur entrée, tout en fonctionnant à une grande vitesse. Finalement, nous les implémenterons sur de nombreux supports matériels (65-nm ASIC circuit and Zynq FPGA platform). / Security and cryptography are key elements in constrained devices such as IoT, smart card, embedded system, etc. Their hardware implementations represent a challenge in terms of limitations in physical resources, operating speed, memory capacity, etc. In this context, as most protocols rely on the security of a good random number generator, considered an indispensable element in lightweight security core. Therefore, this work proposes new pseudo-random generators based on chaotic iterations, and designed to be deployed on hardware support, namely FPGA or ASIC. These hardware implementations can be described as post-processing on existing generators. They transform a sequence of numbers not uniform into another sequence of numbers uniform. The dependency between input and output has been proven chaotic, according notably to the mathematical definitions of chaos provided by Devaney and Li-Yorke. Following that, we firstly elaborate or develop out a complete state of the art of the material and physical implementations of pseudo-random number generators (PRNG, for pseudorandom number generators). We then propose new generators based on chaotic iterations (IC) which will be tested on our hardware platform. The initial idea was to start from the n-cube (or, in an equivalent way, the vectorial negation in CIs), then remove a Hamiltonian cycle balanced enough to produce new functions to be iterated, for which is added permutation on output . The methods recommended to find good functions, will be detailed, and the whole will be implemented on our FPGA platform. The resulting generators generally have a better statistical profiles than its inputs, while operating at a high speed. Finally, we will implement them on many hardware support (65-nm ASIC circuit and Zynq FPGA platform).
16

Propagation de la variabilité de la morphologie humaine sur le débit d'absorption spécifique en dosimétrie numérique. / Propagation of the variability of the human morphology on the Specific Absorption Rate in numerical dosimetry

El Habachi, Aimad Abdeslam 31 January 2011 (has links)
Dans ce mémoire, nous étudions l’exposition aux ondes électromagnétiques l’échelle d’une population. Cette étude est réalisée pour une exposition à une onde plane orientée frontalement sur des modèles anatomiques du corps humains (fantômes) avec une puissance incidente de 1W/m2 et une fréquence de 2.1 GHz. Pour ce faire, l’idée est de construire un modèle du WBSAR (Whole Body averaged Specific Absorption Rate) en fonction de lamorphologie. Les facteurs morphologiques influençant le WBSAR ont été identifiés à l’aide des fantômes existant dont le nombre se limite à 18 et des modèles de régressions. Cette analyse préliminaire montre que les facteurs morphologiques externes (taille, poids ...) seuls ne suffisent pas pour construire un tel modèle, mais l’introduction des facteurs morphologiques internes (muscles, graisse ...) est nécessaire. L’absence de données statistiques sur les facteurs morphologiques internes de populations nous a conduits à intégrer des connaissances apriori sur ces facteursafin d’étudier l’exposition d’une population donnée. Des lois paramétriques usuelles et des mélanges de gaussiennes sont utilisés pour modéliser ces facteurs internes afin d’étudier leur influence sur le quantile du WBSAR à 95 %.L’utilisation des fantômes homogènes où le fantôme homogène est obtenu en remplaçant tous les tissus internes par un unique tissu équivalent. Ces fantômes homogènes permettent de s’affranchir de l’influence de la morphologie interne dans un modèle du WBSAR et facilitent également leur déformation par une technique de morphing. Ainsi nous avons pu enrichir la base de fantômes existant. Pour donner une estimation du quantile du WBSAR à 95 %, nous avons mis en place un plan d’expériences séquentiel qui repose sur un modèle paramétrique du WBSAR et l’inférence bayésienne et qui permet de raffiner la région à 95 %. Cette approche nous a permis de trouver le quantile à 95 % pour une population et un exemple de fantôme correspondant. Cependant, cette approche ne permet pas d’obtenir une estimation de toute la distribution du WBSAR. Afin d’obtenir une estimation de toute cette distribution, nous avons construit une surface de réponse en utilisant les polynômes de chaos. Dans l’objectif d’obtenirdes résultats cohérents nous avons effectué un changement de variables permettant de traduire les connaissances physiques dans cette surface de réponse. / In this report, a study of the exposure to electromagnetic waves at the level of population is proposed. This study is conducted in the case of a plane wave oriented frontally on anatomical models (phantoms) with an incident power of 1W/m2 and at the frequency of 2.1 GHz. For this purpose, the idea is to build a surrogate model of the WBSAR (Whole Body averaged Specific Absorption Rate) as a function of morphology. An identificationof morphological factor is performed using the limited number of phantoms (18phantoms)and different regressions. This analysis shows that to use only external morphological factors (height, weight ...) is not sufficient to build such surrogate model and that internal morphological factors (muscles, fat ...) are also important. The absence of statistical data on internal morphology conducts us to introduce some prior knowledge on these internal factors to study the exposure for a given population. Some parametric laws and Gaussian mixture are used to study their influence on the quantile of the WBSAR at 95 The lack of data on internal morphology led us to consider homogeneous phantoms instead of the heterogeneous one. In homogeneous phantoms, all the internal tissues are substituted by an equivalent tissue. These homogeneous phantoms allow us to overcome the influence of internal morphology for a WBSAR model and to use a morphing technique to increase the database of phantoms. To give an estimation of the WBSAR quantile at 95 %, a sequential experiment design is used. This approach is based on a parametric model and Bayesian inference. This experiment design allows us to estimate the quantile at 95 for a given population and an example of one corresponding phantom. Nevertheless, this approach does not allow one to estimate the whole distribution of the WBSAR for a given population. To give an estimate of this distribution a surface of response is established using polynomial chaos. This approach gives incoherent results with the physical phenomenon. To obtain coherent results, physical knowledge is introduced by variables changing in this responsesurface.
17

Quelques Problèmes de Statistique autour des processus de Poisson / Some Statistical Problems Around Poisson Processes

Massiot, Gaspar 07 July 2017 (has links)
L’objectif principal de cette thèse est de développer des méthodologies statistiques adaptées au traitement de données issues de processus stochastiques et plus précisément de processus de Cox.Les problématiques étudiées dans cette thèse sont issues des trois domaines statistiques suivants : les tests non paramétriques, l’estimation non paramétrique à noyaux et l’estimation minimax.Dans un premier temps, nous proposons, dans un cadre fonctionnel, des statistiques de test pour détecter la nature Poissonienne d’un processus de Cox.Nous étudions ensuite le problème de l’estimation minimax de la régression sur un processus de Poisson ponctuel. En se basant sur la décomposition en chaos d’Itô, nous obtenons des vitesses comparables à celles atteintes pour le cas de la régression Lipschitz en dimension finie.Enfin, dans le dernier chapitre de cette thèse, nous présentons un estimateur non-paramétrique de l’intensité d’un processus de Cox lorsque celle-ci est une fonction déterministe d’un co-processus. / The main purpose of this thesis is to develop statistical methodologies for stochastic processes data and more precisely Cox process data.The problems considered arise from three different contexts: nonparametric tests, nonparametric kernel estimation and minimax estimation.We first study the statistical test problem of detecting wether a Cox process is Poisson or not.Then, we introduce a semiparametric estimate of the regression over a Poisson point process. Using Itô’s famous chaos expansion for Poisson functionals, we derive asymptotic minimax properties of our estimator.Finally, we introduce a nonparametric estimate of the intensity of a Cox process whenever it is a deterministic function of a known coprocess.
18

Modélisation, implémentation et caractérisation de circuits générateurs de nombres aléatoires vrais pour la certification de crypto-processeurs / Modeling, design and characterization of delay-chains based true random number generator

Ben Romdhane, Molka 01 October 2014 (has links)
Les nombres aléatoires sont indispensables dans de nombreuses applications notamment en cryptographie où l’aléa est utilisé dans les protocoles de sécurité. Les générateurs de nombres aléatoires, plus connus sous le nom de RNG comme “Random Number Generator” se déclinent en deux familles, les PRNG (Pseudo RNG) qui sont des générateurs de nombres aléatoires ayant des séquences déterministes et les TRNG (True RNG) qui sont des générateurs d’aléa “vrai”, donc non prédictibles. Les applications cryptographiques utilisent à la fois les TRNG et les PRNG. Un PRNG nécessite une valeur initiale, ou graine, qui peut être la sortie d’un TRNG. Les TRNG tirent profit de l’aléa des phénomènes physiques. Les TRNGs dans les technologies numériques comme les FPGAs font appel à des oscillateurs qui présentent l’inconvénient de pouvoir être attaqués par couplage harmonique. De façon à évaluer la qualité entropique d’un TRNG, des standards basés sur des tests statistiques ont été élaborés par des organismes de certification comme le NIST ou la BSI. Cependant, il est recommandé de formaliser, par le biais d’un modèle, le caractère stochastique de la génération d’aléa. Dans cette thèse, nous étudions une architecture de TRNG, peu coûteuse et robuste face aux attaques harmoniques car elle n’utilise pas d’oscillateurs. Ce TRNG extrait une variable aléatoire en exploitant à la fois les états métastables des bascules et les fluctuations temporelles (ou gigue) des signaux échantillonnés. Nous proposons par la suite un modèle stochastique qui nous permet de décrire le comportement aléatoire du TRNG indépendamment de la technologie ciblée. Les caractérisations et évaluations sur des circuits prototypes en technologies FPGA et ASIC montrent que l’architecture TRNG proposée génère de l’aléa de qualité et est robuste face aux variations environnementales / Random numbers are required in numerous applications namely in cryptography where randomness is used in security protocols. There are two main classes of Random Number Generators (RNG) : The Pseudo RNG (PRNG) which have a deterministic sequence, and the True RNG (TRNG) which generates unpredictable random numbers. Cryptographic applications use both TRNG and PRNG. The PRNG needs an initial value, or seed, which can be the output of a TRNG. In digital technologies, like FPGAs, TRNG are commonly based on oscillators which have the drawback of being biased by harmonic coupling. In order to assess the entropic quality of TRNGs, standards based on statistical tests have been elaborated by certification organisms namely the NIST and the BSI. However, it is recommended to formalize the stochastic behaviour of the randomness generation process. In this Ph.D, we address the design and quality evaluation of TRNGs in digital circuits. We study of a low-cost digital TRNG without oscillators, hence robust against harmonics attacks. The proposed TRNG exploits both the metastability phenomenon and the jitter noise in CMOS digital flip-flops to generate the random numbers. A stochastic model of this TRNG has been formalized. This model describes the random generation process regardless of the targeted technology. The characterization and evaluation on a prototype circuit, in FPGA and ASIC technologies, has shown that the proposed TRNG architecture generates randomness of good quality and is robust against environmental variations.
19

Analyse d'accumulateurs d'entropie pour les générateurs aléatoires cryptographiques / Analysis of cryptographic random number generator and postprocessing

Julis, Guenaëlle de 18 December 2014 (has links)
En cryptographie, l'utilisation de nombres aléatoires est fréquente (graine, token, ...) et une mauvaise génération d'aléa peut compromettre toute la sécurité d'un protocole, comme en témoigne régulièrement l'actualité. Les générateurs de nombres aléatoires à usage cryptographique sont des composants formés de trois modules : la source brute qui produit de l'aléa (un algorithme ou un phénomène physique), un retraitement pour corriger les défauts de la source, et un retraitement cryptographique pour obtenir l'aléa final. Cette thèse se focalise sur l'analyse des générateurs issus d'une source physique, en vue de dégager des retraitements adaptés à leurs propriétés et résistants à des perturbations de leur environnement d'utilisation. La complexité des dispositifs entravant souvent la formulation explicite d'un modèle stochastique prouvé, leur évaluation repose principalement sur une analyse statistique. Or, les tests statistiques, principale méthode recommandée par les institutions gouvernementales (ANSSI, BSI, NIST) pour certifier ces composants, peuvent détecter des anomalies mais ne permettent pas de les identifier, et de les caractériser. Les travaux de cette thèse structurent la modélisation d'une source d'aléa, vue comme une suite de variables aléatoires, affinent les tests statistiques, et ajoutent une analyse temporelle pour détecter et expliciter ses anomalies au niveau global ou local. Les résultats ont été implantés dans une librairie composée d'un simulateur de perturbations, des outils statistiques et temporels obtenus, des batteries de tests recommandées (FIPS, AIS31, Test U01, SP800), et de retraitements appropriés à certaines anomalies. La structure mise en place a permis d'extraire des familles d'anomalies de motifs dont les propriétés rendent certains tests incapables de distinguer la source anormale d'une source idéalement aléatoire. L'analyse des faiblesses inhérentes aux méthodes statistiques a montré que l'interprétation d'un test par intervalle de rejet ou taux de réussite n'est pas adapté à la détection de certaines fautes de transition. Elle a aussi permis d'étudier les méthodes d'estimations d'entropie, notamment les estimateurs proposés dans la norme SP800-90. Par ailleurs, les paramètres de spécifications de certains générateurs, dont un déduit du standard de chiffrement AES, se sont avérés distinguables grâce aux statistiques de test. Les outils temporels développés évaluent la structure des anomalies, leur évolution au cours du temps et analysent les motifs déviants au voisinage d'un motif donné. Cela a permis d'une part d'appliquer les tests statistiques avec des paramètres pertinents, et d'autre part de présenter des retaitements dont la validité repose sur la structure des anomalies et non sur leur amplitude. / While random numbers are frequently used in cryptography (seed, token, ...), news regurlarly prove how bad randomness generation can compromise the wole security of a protocol. Random number generators for crypthography are components with three steps : a source (an algorithm or physical phenomenon) produces raw numbers which are two times postprocessed to fix anomalies. This thesis focuses on the analysis of physical random bit generators in order to extract postprocessing which will be adapted to the anomalies of the source. As the design of a physical random bit generator is complex, its evaluation is mainly a statistical analysis with hypothesis testing. However, the current standards (AIS31, FIPS140-2, Test U01, SP800) can not provide informations to characterize anomalies. Thus, this thesis adjust several tests and add a time analysis to identify and to make global and local anomalies explicit. A C library was developped, providing anomalies simulator and tools to apply statistical and time analysis results on random bit generators.

Page generated in 0.4212 seconds