• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 45
  • 22
  • 6
  • Tagged with
  • 75
  • 28
  • 22
  • 16
  • 15
  • 15
  • 14
  • 11
  • 11
  • 10
  • 10
  • 9
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Impact de l'AGOA sur les pays élégibles : dynamique des échanges, dynamique de structure et dynamique des taux de croissance

Bounoung Fouda, Boniface 06 March 2008 (has links) (PDF)
La mise en place de l'AGOA en mai 2000 a mis une fois de plus en exergue la vieille querelle de la problématique de l'impact d'un accord commercial sur la croissance économique des pays bénéficiaires. Toutefois, l'étude des textes constitutifs de l'AGOA nous a montré que cette loi, en tant que nouvel instrument de coopération économique des USA en direction des pays d'Afrique sub-saharienne, balaye un champ beaucoup plus large que celui d'un accord commercial. Pour cela, il nous est apparu opportun que l'étude de l'impact de l'AGOA aille au delà de la simple évaluation de l'impact de cette loi sur les échanges commerciaux. Notre étude a donc intégré l'impact de l'AGOA sur la dynamique de spécialisation, sur la dynamique de politiques économiques et sur la croissance économique des pays éligibles. Nos résultats nous ont montré que la mise en place de l'AGOA a eu un effet positif sur les exportations des pays éligibles. Mais cet effet est apparu plus élevé sur l'augmentation des exportations des produits non traditionnels. Au niveau des instruments de politiques économiques, il est apparu que l'AGOA a eu un effet positif et significatif sur les dépenses publiques et le taux de change réel. En revanche, cet effet est apparu non significatif sur l'ouverture commerciale et sur l'inflation. L'AGOA a également eu un effet positif et significatif sur la croissance de la productivité apparente du travail et sur les investissements directs étrangers (IDE). Mais l'effet de l'AGOA sur les IDE est apparu plus élevé pour les pays producteurs de pétrole. Enfin, nos résultats nous ont montré que la mise en place de l'AGOA n'a pas eu d''influence significative sur la croissance du PIB par habitant des pays éligibles, mais cet effet est variant selon les régions. Grâce à une analyse critique de cette loi, nous avons démontré que pour améliorer l'efficacité de l''AGOA, il faut que cette loi soit plus dynamique, qu''elle réduise ostensiblement l'effet de la taxation progressive et qu''elle mette fin à l''incertitude de durée qui est inhérente à la révision annuelle de la liste des pays éligibles.
52

Approche liens de valence de la physique de basse énergie des systèmes antiferromagnétiques

Schwandt, David 13 July 2011 (has links) (PDF)
L'objet de cette thèse est le traitement du modèle de Heisenberg antiferromagnétique dans la base de liens de valence, qui permet d'en décrire la physique de basse énergie. Le manuscrit est organisé en deux parties : dans la première nous utilisons le concept de fidélité afin de détecter les transitions de phases quantiques. Nous démontrons notamment que cette quantité est accessible dans un algorithme de Monte Carlo quantique, formulé dans la base de liens de valence, permettant ainsi de calculer la fidélité sur des systèmes de grande taille. La deuxième partie vise à développer l'idée initiale de Rokhsar et Kivelson, qui a pour but de transformer un modèle de Heisenberg en un modèle de dimères quantiques, généralement moins complexe d'un point de vue numérique. Après une dérivation rigoureuse, cette technique est appliquée au réseau kagomé et permet d'établir l'existence d'un point tricritique au voisinage du modèle initial. La même méthode est ensuite utilisée afin de traiter le modèle J1-J2-J3 sur le réseau hexagonal et démontre l'existence d'une phase plaquette dans un domaine de paramètres déterminé.
53

Contribution à l'optimisation de la maintenance dans un contexte distribué

Alali Alhouaij, Ahmad 16 September 2010 (has links) (PDF)
Les travaux de thèse concernent la mise en oeuvre d'une maintenance distribuée dans les systèmes manufacturiers. Notre problématique s'est portée sur la mise en place d'un service de maintenance destiné à un réseau d'entreprises de plusieurs sites de production. Ces sites sont répartis géographiquement avec des distances importantes intersites, et dont la réparation des parties défaillantes requiert des ressources particulières situées dans un atelier central. Il s'agit donc de la mise en oeuvre d'une démarche de conception d'ateliers de maintenance et dimensionnement des ressources dans un contexte distribué. On se place dans le cas où l'on dispose : 1. d'un atelier de maintenance central qui prend en charge les réparations des équipements défaillants, c'est l'AdM Central ; 2. d'un atelier de maintenance mobile qui effectue des actions de maintenance préventives sur plusieurs sites répartis géographiquement, c'est l'AdM mobile ; 3. un ensemble de sites de production ; Pour un budget donné, l'objectif est de proposer une démarche méthodologique permettant de dimensionner les ressources communes (pièces de rechange et opérateurs de maintenance), de proposer une politique d'inspection adéquate de l'atelier mobile et d'ordonnancer les tâches de maintenance. Nous proposons, dans ce contexte de maintenance distribuée, une méthodologie permettant de minimiser la fonction coût. À partir d'une structure multi-sites, une démarche de modélisation modulaire et d'analyse est proposée. Le réseau d'ateliers de maintenance est modélisé par une forme de Réseaux de Petri Stochastiques Synchronisés (RdPSSy). Passant par le calcul du parcours optimal, l'étape d'évaluation des coûts est effectuée par simulation des modèles développés en utilisant la toolbox Stateflow de Matlab. cas de panne aléatoire sur un site de production est pris en compte.
54

Evaluation de la sûreté de fonctionnement informatique. Fautes physiques, fautes de conception, malveillances

Kaâniche, Mohamed 12 February 1999 (has links) (PDF)
Les travaux résumés dans ce mémoire ont pour cadre la sûreté de fonctionnement des systèmes informatiques. Ils couvrent plusieurs aspects complémentaires, à la fois théoriques et expérimentaux, que nous avons groupés en quatre thèmes. Le premier thème traite de la définition de méthodes permettant de faciliter la construction et la validation de modèles complexes pour l'analyse et l'évaluation de la sûreté de fonctionnement. Deux approches sont considérées : les réseaux de Petri stochastiques généralisés et la simulation comportementale en présence de fautes. Le deuxième thème traite de la modélisation de la croissance de fiabilité pour évaluer l'évolution de la fiabilité et de la disponibilité des systèmes en tenant compte de l'élimination progressive des fautes de conception. Ces travaux sont complétés par la définition d'une méthode permettant de faciliter la mise en ¿uvre d'une étude de fiabilité de logiciel dans un contexte industriel. Le troisième thème concerne la définition et l'expérimentation d'une approche pour l'évaluation quantitative de la sécurité-confidentialité. Cette approche permet aux administrateurs des systèmes de suivre l'évolution de la sécurité opérationnelle quand des modifications, susceptibles d'introduire de nouvelles vulnérabilités, surviennent dans la configuration opérationnelle, les applications, le comportement des utilisateurs, etc. Enfin, le quatrième thème porte d'une part, sur l'élaboration d'un modèle de développement destiné à la production de systèmes sûrs de fonctionnement, et d'autre part, sur la définition de critères d'évaluation visant à obtenir une confiance justifiée dans l'aptitude des systèmes à satisfaire leurs exigences de sûreté de fonctionnement, en opération et jusqu'au retrait du service.
55

Mesure des risques biometriques liés à l'assurance vie avec des méthodes non-paramétriques

Tomas, Julien 18 January 2013 (has links) (PDF)
Les tables de mortalité sont utilisées pour décrire la probabilité annuelle de décès d'une population en fonction de l'âge atteint et de l'année calendaire. Ces probabilités jouent un rôle important dans la détermination des primes et réserves en assurance vie. Les estimations brutes, sur lesquelles se basent les tables de mortalité, peuvent être considérées comme un échantillon provenant d'une population plus importante et sont, par conséquent, soumises à des fluctuations aléatoires. Toutefois, l'actuaire souhaite la plupart du temps lisser ces quantités afin de faire ressortir les caractéristiques de la mortalité du groupe considéré qu'il pense être relativement régulières. Cette dissertation fournit une description détaillée des méthodes de graduation non-paramétrique de données d'expérience issues de l'assurance vie. Le terme non-paramétrique renvoie à une forme fonctionnelle de la courbe de régression. Comme les méthodes paramétriques, elles sont toutes aussi susceptibles de donner des estimations biaisées, mais de telle sorte qu'il est possible de compenser une augmentation du biais avec une diminution de la variation de l'échantillonnage. Dans la littérature actuarielle, le processus de lisser une table de mortalité est appelé graduation. Les collines et vallées des données brutes sont lissées de façon similaire á la construction d'une route sur un terrain accidenté. Le lissage seul, cependant, n'est pas la graduation. Les taux gradués doivent être représentatifs des données sous-jacentes et la graduation se révélera souvent comme un compromis entre ajustement et lissage optimal. Les régressions polynomiales locales et méthodes de vraisemblance locale sont examinées en détail. Les questions importantes concernant le choix des paramètres de lissage, les propriétés statistiques des estimateurs, les critères utilisés pour la sélection des modèles, la construction des intervalles de confiance ainsi que les comparaisons entre les modèles sont ouvertes avec des illustrations numériques et graphiques. Les techniques non-paramétriques locales combinent d'excellentes propriétés théoriques avec une simplicité et une flexibilité conceptuelle pour trouver une structure dans de nombreuses bases de données. Une attention particulère est consacrée à l'influence des bordures sur le choix des paramètres de lissage. Ces considérations illustrent le besoin d'avoir à disposition des approches plus flexibles. Des méthodes adaptatives de vraisemblance locale sont alors introduites. Le montant de lissage varie en fonction de l'emplacement et ces approches permettent des ajustements de la fenêtre d'observation en fonction de la fiabilité des données. Ces méthodes s'adaptent parfaitement à la complexité de la surface de mortalité en raison du choix adaptatif approprié des paramètres de lissage. Enfin, ce manuscrit traite de sujets importants pour les praticiens. Ceux-ci concernent la construction et la validation de tables de mortalité prospectives pour des portefeuilles d'assurance, l'évaluation du risque de modèle, et dans une moindre mesure, du risque d'opinion d'experts lié au choix de la table de référence externe utilisée.
56

Inférence statistique en grande dimension pour des modèles structurels. Modèles linéaires généralisés parcimonieux, méthode PLS et polynômes orthogonaux et détection de communautés dans des graphes. / Statistical inference for structural models in high dimension. Sparse generalized linear models, PLS through orthogonal polynomials and community detection in graphs

Blazere, Melanie 01 July 2015 (has links)
Cette thèse s'inscrit dans le cadre de l'analyse statistique de données en grande dimension. Nous avons en effet aujourd'hui accès à un nombre toujours plus important d'information. L'enjeu majeur repose alors sur notre capacité à explorer de vastes quantités de données et à en inférer notamment les structures de dépendance. L'objet de cette thèse est d'étudier et d'apporter des garanties théoriques à certaines méthodes d'estimation de structures de dépendance de données en grande dimension.La première partie de la thèse est consacrée à l'étude de modèles parcimonieux et aux méthodes de type Lasso. Après avoir présenté les résultats importants sur ce sujet dans le chapitre 1, nous généralisons le cas gaussien à des modèles exponentiels généraux. La contribution majeure à cette partie est présentée dans le chapitre 2 et consiste en l'établissement d'inégalités oracles pour une procédure Group Lasso appliquée aux modèles linéaires généralisés. Ces résultats montrent les bonnes performances de cet estimateur sous certaines conditions sur le modèle et sont illustrés dans le cas du modèle Poissonien. Dans la deuxième partie de la thèse, nous revenons au modèle de régression linéaire, toujours en grande dimension mais l'hypothèse de parcimonie est cette fois remplacée par l'existence d'une structure de faible dimension sous-jacente aux données. Nous nous penchons dans cette partie plus particulièrement sur la méthode PLS qui cherche à trouver une décomposition optimale des prédicteurs étant donné un vecteur réponse. Nous rappelons les fondements de la méthode dans le chapitre 3. La contribution majeure à cette partie consiste en l'établissement pour la PLS d'une expression analytique explicite de la structure de dépendance liant les prédicteurs à la réponse. Les deux chapitres suivants illustrent la puissance de cette formule aux travers de nouveaux résultats théoriques sur la PLS . Dans une troisième et dernière partie, nous nous intéressons à la modélisation de structures au travers de graphes et plus particulièrement à la détection de communautés. Après avoir dressé un état de l'art du sujet, nous portons notre attention sur une méthode en particulier connue sous le nom de spectral clustering et qui permet de partitionner les noeuds d'un graphe en se basant sur une matrice de similarité. Nous proposons dans cette thèse une adaptation de cette méthode basée sur l'utilisation d'une pénalité de type l1. Nous illustrons notre méthode sur des simulations. / This thesis falls within the context of high-dimensional data analysis. Nowadays we have access to an increasing amount of information. The major challenge relies on our ability to explore a huge amount of data and to infer their dependency structures.The purpose of this thesis is to study and provide theoretical guarantees to some specific methods that aim at estimating dependency structures for high-dimensional data. The first part of the thesis is devoted to the study of sparse models through Lasso-type methods. In Chapter 1, we present the main results on this topic and then we generalize the Gaussian case to any distribution from the exponential family. The major contribution to this field is presented in Chapter 2 and consists in oracle inequalities for a Group Lasso procedure applied to generalized linear models. These results show that this estimator achieves good performances under some specific conditions on the model. We illustrate this part by considering the case of the Poisson model. The second part concerns linear regression in high dimension but the sparsity assumptions is replaced by a low dimensional structure underlying the data. We focus in particular on the PLS method that attempts to find an optimal decomposition of the predictors given a response. We recall the main idea in Chapter 3. The major contribution to this part consists in a new explicit analytical expression of the dependency structure that links the predictors to the response. The next two chapters illustrate the power of this formula by emphasising new theoretical results for PLS. The third and last part is dedicated to graphs modelling and especially to community detection. After presenting the main trends on this topic, we draw our attention to Spectral Clustering that allows to cluster nodes of a graph with respect to a similarity matrix. In this thesis, we suggest an alternative to this method by considering a $l_1$ penalty. We illustrate this method through simulations.
57

Application of perturbation theory methods to nuclear data uncertainty propagation using the collision probability method / Application de la théorie des perturbations à la propagation des incertitudes des données nucléaires par la méthode des probabilités de première collision

Sabouri, Pouya 28 October 2013 (has links)
Dans cette thèse, nous présentons une étude rigoureuse des barres d'erreurs et des sensibilités de paramètres neutroniques (tels le keff) aux données nucléaires de base utilisées pour les calculer. Notre étude commence au niveau fondamental, i.e. les fichiers de données ENDF et leurs incertitudes, fournies sous la forme de matrices de variance/covariance, et leur traitement. Lorsqu'un calcul méthodique et consistant des sensibilités est consenti, nous montrons qu'une approche déterministe utilisant des formalismes bien connus est suffisante pour propager les incertitudes des bases de données avec un niveau de précision équivalent à celui des meilleurs outils disponibles sur le marché, comme les codes Monte-Carlo de référence. En appliquant notre méthodologie à trois exercices proposés par l'OCDE, dans le cadre des Benchmarks UACSA, nous donnons des informations, que nous espérons utiles, sur les processus physiques et les hypothèses sous-jacents aux formalismes déterministes utilisés dans cette étude. / This dissertation presents a comprehensive study of sensitivity/uncertainty analysis for reactor performance parameters (e.g. the k-effective) to the base nuclear data from which they are computed. The analysis starts at the fundamental step, the Evaluated Nuclear Data File and the uncertainties inherently associated with the data they contain, available in the form of variance/covariance matrices. We show that when a methodical and consistent computation of sensitivity is performed, conventional deterministic formalisms can be sufficient to propagate nuclear data uncertainties with the level of accuracy obtained by the most advanced tools, such as state-of-the-art Monte Carlo codes. By applying our developed methodology to three exercises proposed by the OECD (UACSA Benchmarks), we provide insights of the underlying physical phenomena associated with the used formalisms.
58

Micromechanical models of network materials presenting internal length scales : applications to trabecular bone under stable and evolutive conditions / Modèles micromécaniques de milieux architecturés présentant des longueurs internes : applications à l'os trabéculaire en conditions stables et évolutives

Goda, Ibrahim 28 May 2015 (has links)
Des méthodes micromécaniques spécifiques ont été développées pour la détermination du comportement effectif de matériaux cellulaires dotés d’une architecture discrète à l’échelle microscopique. La méthode d’homogénéisation discrète a été appliquée à des structures tissées monocouches ainsi qu’à l’os trabéculaire. La topologie discrète initiale de ces milieux est remplacée à l’échelle mésoscopique par un milieu effectif anisotrope micropolaire, qui rend compte des effets d’échelles observés. Ces méthodes d’homogénéisation permettent d’accéder à des propriétés classiques et non classiques dont la mesure expérimentale est souvent difficile. Des modèles 3D ont été développé afin de décrire la rupture fragile et ductile de l’os trabéculaire, incorporant des effets de taille des surfaces d’écoulement plastique. Nous avons construit par des analyses éléments finis de la microstructure de l’os trabéculaire un milieu de substitution 3D homogène, orthotrope de type couple de contraintes, sur la base d’une équivalence en énergie. Les tissus osseux ont la capacité d’adapter leur densité locale et leur taille et forme aux stimuli mécaniques. Nous avons développé des modèles de remodelage interne et externe dans le cadre de la thermodynamique des processus irréversibles, aux échelles cellulaire et macroscopique. Finalement, le remodelage interne anisotrope a été couplé à l’endommagement de fatigue, dans le cadre de la théorie continue de l’endommagement / A methodology based on micromechanics has been developed to determine the effective behavior of network materials endowed with a discrete architecture at the microscopic level. It relies on the discrete homogenization method, which has been applied to textile monolayers and trabecular bones. The initially discrete topology of the considered network materials results after homogenization at the mesoscopic level in anisotropic micropolar effective continuum, which proves able to capture the observed internal scale effects. Such micromechanical methods are useful to remedy the difficulty to measure the effective mechanical properties at the intermediate mesoscopic level scale. The bending and torsion responses of vertebral trabecular bone beam specimens are formulated in both static and dynamic situations, based on the Cosserat theory. 3D models have been developed for describing the multiaxial yield and brittle fracture behavior of trabecular bone, including the analysis of size-dependent non-classical plastic yield. We have constructed by FE analyses a homogeneous, orthotropic couple-stress continuum model as a substitute of the 3D periodic heterogeneous cellular solid model of vertebral trabecular bone, based on the equivalent strain energy approach. Bone tissues are able to adapt their local density and load bearing capacities as well as their size and shape to mechanical stimuli. We have developed models for combined internal and external bone remodeling in the framework of the thermodynamics of irreversible processes, at both the cellular and macroscopic levels. We lastly combined anisotropic internal remodeling with fatigue continuum damage
59

Arrangements 2D pour la Cartographie de l’Espace Public et des Transports / 2D Arrangements for Public Space Mapping and Transportation

Yirci, Murat 15 April 2016 (has links)
Cette thèse porte sur le développement facilité d'applications de cartographie et de transport, plus particulièrement sur la génération de réseaux piétonniers pour des applications telles que la navigation, le calcul d'itinéraires, l'analyse d'accessibilité et l'urbanisme. Afin d'atteindre ce but, nous proposons un modèle de données à deux couches qui cartographie l'espace public dans une hiérarchie d'objets géospatiaux sémantisés. A bas niveau, la géométrie 2D des objets géospatiaux est représentée par une partition planaire, modélisée par une structure topologique d'arrangement 2D. Cette représentation permet des traitements géométriques efficaces et efficients, ainsi qu'une maintenance et une validation aisée au fur et à mesure des éditions lorsque la géométrie ou la topologie d'un objet sont modifiées. A haut niveau, les aspects sémantiques et thématiques des objets géospatiaux sont modélisés et gérés. La hiérarchie entre ces objets est maintenue à travers un graphe dirigé acyclique dans lequel les feuilles correspondent à des primitives géométriques de l'arrangement 2D et les noeuds de plus haut niveau représentent les objets géospatiaux sémantiques plus ou moins aggrégés. Nous avons intégré le modèle de données proposé dans un framework SIG nommé StreetMaker en complément d'un ensemble d'algorithmes génériques et de capacités SIG basiques. Ce framework est alors assez riche pour générer automatiquement des graphes de réseau piétonnier. En effet, dans le cadre d'un projet d'analyse d'accessibilité, le flux de traitement proposé a permis de produire avec succès sur deux sites un graphe de réseau piétonnier à partir de données en entrées variées : des cartes vectorielles existantes, des données vectorielles créées semi-automatiquement et des objets vectoriels extraits d'un nuage de points lidar issu d'une acquisition de cartographie mobile.Alors que la modélisation 2D de la surface du sol est suffisante pour les applications SIG 2D, les applications SIG 3D nécessitent des modèles 3D de l'environnement. La modélisation 3D est un sujet très large mais, dans un premier pas vers cette modélisation 3D, nous nous sommes concentrés sur la modélisation semi-automatique d'objets de type cylindre généralisé (tels que les poteaux, les lampadaires, les troncs d'arbre, etc) à partir d'une seule image. Les méthodes et techniques développées sont présentées et discutées / This thesis addresses easy and effective development of mapping and transportation applications which especially focuses on the generation of pedestrian networks for applications like navigation, itinerary calculation, accessibility analysis and urban planning. In order to achieve this goal, we proposed a two layered data model which encodes the public space into a hierarchy of semantic geospatial objects. At the lower level, the 2D geometry of the geospatial objects are captured using a planar partition which is represented as a topological 2D arrangement. This representation of a planar partition allows efficient and effective geometry processing and easy maintenance and validation throughout the editions when the geometry or topology of an object is modified. At the upper layer, the semantic and thematic aspects of geospatial objects are modelled and managed. The hierarchy between these objects is maintained using a directed acyclic graph (DAG) in which the leaf nodes correspond to the geometric primitives of the 2D arrangement and the higher level nodes represent the aggregated semantic geospatial objects at different levels. We integrated the proposed data model into our GIS framework called StreetMaker together with a set of generic algorithms and basic GIS capabilities. This framework is then rich enough to generate pedestrian network graphs automatically. In fact, within an accessibility analysis project, the full proposed pipeline was successfully used on two sites to produce pedestrian network graphs from various types of input data: existing GIS vector maps, semi-automatically created vector data and vector objects extracted from Mobile Mapping lidar point clouds.While modelling 2D ground surfaces may be sufficient for 2D GIS applications, 3D GIS applications require 3D models of the environment. 3D modelling is a very broad topic but as a first step to such 3D models, we focused on the semi-automatic modelling of objects which can be modelled or approximated by generalized cylinders (such as poles, lampposts, tree trunks, etc.) from single images. The developed methods and techniques are presented and discussed
60

UN FORMALISME UNIFIANT LES ATTAQUES PHYSIQUES SUR CIRCUITS CRYTOGRAPHIQUES ET SON EXPLOITATION AFIN DE COMPARER ET RECHERCHER DE NOUVELLES ATTAQUES / A FORMALISM FOR PHYSICAL ATTACKS ON CRYPTOGRAPHIC DEVICES AND ITS EXPLOITATION TO COMPARE AND RESEARCH NEWS ATTACKS

Le Bouder, Hélène 24 October 2014 (has links)
Cette thèse se situe dans la cryptanalyse physique des algorithmes de chiffrement par blocs. Un algorithme cryptographique est conçu pour être mathématiquement robuste. Cependant, une fois implémenté dans un circuit, il est possible d'attaquer les failles de ce dernier. Par opposition à la cryptanalyse classique, on parle alors d'attaques physiques. Celles-ci ne permettent pas d'attaquer l'algorithme en soi, mais son implémentation matérielle. Il existe deux grandes familles d'attaques physiques différentes : les attaques par observation du circuit durant le chiffrement, et les attaques par injections de fautes, qui analysent l'effet d'une perturbation intentionnelle sur le fonctionnement du circuit. Les attaques physiques ont deux types d'objectifs : rechercher la clé ou faire de la rétro-conception (retrouver une partie d'un algorithme de chiffrement privé, ex : s-boxes modifiées). Bien que leurs principes semblent distincts, cette thèse présente un formalisme qui permet d'unifier toutes ces attaques. L'idée est de décrire les attaques physiques de façon similaire, afin de pouvoir les comparer. De plus, ce formalisme a permis de mettre en évidence de nouvelles attaques. Des travaux novateurs ayant pour objet de retrouver la clé de chiffrement d'un AES, uniquement avec la consommation de courant ont été menés. Une nouvelle attaque de type FIRE (Fault Injection for Reverse Engineering) pour retrouver les s-boxes d'un pseudo DES est également présentée dans la thèse. Ce travail a abouti sur une réflexion plus générale, sur les attaques par injections de fautes dans les schémas de Feistel classiques et généralisés. / The main subject of this work is the physical cryptanalysis of blocks ciphers. Even if cryptographic algorithms are properly designed mathematically, they may be vulnerable to physical attacks. Physical attacks are mainly divided in two families: the side channel attacks which are based on the observation of the circuit behaviour during the computation, and the fault injection attacks which consist in disturbing the computation in order to alter the correct progress of the algorithm. These attacks are used to target the cipher key or to reverse engineer the algorithm. A formalism is proposed in order to describe the two families in a unified way. Unifying the different attacks under a same formalism allows to deal with them with common mathematical tools. Additionally, it allows a comparison between different attacks. Using this framework, a generic method to assess the vulnerabilities of generalized Feistel networks to differential fault analysis is presented. This work is furthermore extended to improve a FIRE attack on DES-like cryptosystems with customized s-boxes.

Page generated in 0.0342 seconds