• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 97
  • 59
  • 23
  • 6
  • 5
  • 5
  • 4
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 202
  • 107
  • 91
  • 39
  • 34
  • 19
  • 18
  • 17
  • 15
  • 15
  • 15
  • 14
  • 14
  • 13
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Essais en Microstructure des Marchés Financiers / Essays in Financial Market Microstructure

Dugast, Jérôme 19 July 2013 (has links)
Cette thèse est composée de trois chapitres distincts.Dans le premier chapitre, je montre que les mesures de liquidités traditionnelles, telles que la profondeur du marché, ne sont pas toujours pertinentes pour mesurer le bien-être des investisseurs. Je construis un modèle de marché conduit par les ordres et montre qu'une offre de liquidité élevée peut correspondre à de mauvaises conditions d'éxécution pour les fournisseurs de liquidité et à un bien-être relativement faible.Dans le deuxième chapitre, je modélise la vitesse des ajustements de prix à l'arrivée de nouvelles dans les marchés conduits pas les ordres, lorsque les investisseurs ont une capacité d'attention limitée.En raison de leur attention limitée, les investisseurs suivent imparfaitement l'arrivée de nouvelles. Ainsi, les prix s'ajustent aux nouvelles après un certain délai. Ce délai diminue lorsque le niveau d'attention des investisseurs augmente.Le délai d'ajustement des prix diminue également lorsque la fréquence à laquelle les nouvelles arrivent, augmente. Le troisième chapitre présente un travail écrit en collaboration avec Thierry Foucault. Nous construisons un modèle pour expliquer en quoi le trading à haute fréquence peut générer des "mini flash crashes" (un brusque changement de prix suivi d'un retour très rapide au niveau antérieur). Notre théorie est basée sur l'idée qu'il existe une tension entre la vitesse à laquelle l'information peut être acquise et la précision de cette information. Lorsque les traders à haute fréquence mettent en oeuvre des stratégies impliquant des réactions rapides à des événements de marché, ils augmentent leur risque à réagir à du bruit et génèrent ainsi des "mini flash crashes". Néanmoins, ils augmentent l'efficience informationnelle du marché. / This dissertation is made of three distinct chapters. In the first chapter, I show that traditional liquidity measures, such as market depth, are not always relevant to measure investors' welfare. I build a limit order market model and show that a high level of liquidity supply can correspond to poor execution conditions for liquidity providers and to a relatively low welfare.In the second chapter, I model the speed of price adjustments to news arrival in limit order markets when investors have limited attention.Because of limited attention, investors imperfectly monitor news arrival. Consequently prices reflect news with delay. This delay shrinks when investors' attention capacity increases. The price adjustment delay also decreases when the frequency of new arrival increases. The third chapter presents a joint work with Thierry Foucault. We build a model to explain why high frequency trading can generate mini-flash crashes (a sudden sharp change in the price of a stock followed by a very quick rversal). Our theory is based on the idea that there is a trade-off between speed and precision in the acquisition of information. When high frequency traders implement strategies involving fast reaction to market events, they increase their risk to trade on noise and thus generate mini flash crashes. Nonetheless they increase market efficiency.
182

Étude des caractéristiques Raman et optique non-linéaire des bronzes de tungstène quadratiques (A6M2M’8O30) / Study of Raman and non-linear optical characteristics of tetragonal tungsten bronze (A6M2M’8O30)

Derbazi, Maqboula 11 October 2013 (has links)
Des recherches très importantes ont été dédiées à l'étude des composés ferroélectriques de type bronze de tungstène quadratique (TTB). Cette thèse concerne la synthèse et la caractérisation de 7 matériaux TTB de formule générale A6M2M'8O30 (A = Sr2+, Ba2+ ou Pb2+, M = Ti4+, Zr4+ ou HF4+; M' = Nb5+ ou Ta5+). Ces composés cristallins de grande taille ∼100 nm ont été synthétisés sous forme de poudre. Les moyennes expérimentales : diffractions des rayons X, spectroscopie Raman, la microscopie électronique MEB et MET, l'optique non linéaire ONL, ont permis d'établir des relations étroites entre structure et propriétés physiques. Les susceptibilités optiques non linéaires de 2eme et 3eme ordres, χ(2), χ(3) de chaque composés ont été déterminées et les valeurs résultantes du χ(3) ne montrent pas les mêmes caractéristiques que χ(2), car le signal de THG est moins dépendant de structure que SHG qui requiert un milieu non-centrosymétrique. Le décalage fréquentiel (Δσ) des modes de vibrations entre les structures à base de strontium(Sr) et celles à base de Barium(Ba) a été constaté afin d'identifier les signatures propres de ces composés. L'interprétation de ces poudres n'était pas facile car les pics sont très délicats. Nos mesures expérimentales montrent clairement que les positions des pics peuvent être modifiées par le changement cationique au sein des matériaux, plus la maille cristalline est rigide, plus on a des pics plus discernables. La différence est nettement visible là ou l'émission est autour de 808 cm-1 pour la structure (Sr), alors que pour le (Br) elle est autour de 780cm-1. Nous attribuons ce Δσ (28cm-1) à la transition de groupe de symétrie spatiale de Pba2 vers P4bm. L'ensemble des résultats décrits dans ce travail ont montrés la grande variété des paramètres sur lesquels il est possible d'agir afin d'optimiser les compositions en vue d'une application spécifique. / Recently, very significant research has been devoted to the study of ferroelectric compounds of tetragonal tungsten bronze (TTB). This thesis deals with the synthesis and characterization of 7 TTB's material with general formula A6M2M'8O30 (A = Sr2+, Ba2+ or Pb2+, M = Ti4+, Zr4+ or HF4+, M '= Nb5+ or Ta5+). These crystalline compounds of large size ~ 100 nm were synthesized in powder form. The experimental Technics: X-ray diffraction, Raman spectroscopy, scanning electron microscopy SEM and TEM and nonlinear optics NLO, allowed us to establish close relationships between structure and physical properties. The nonlinear 2nd and 3rd order optical susceptibility χ(2), χ(3) of all compounds were determined and the resulting values of χ(3) did not show the same characteristics as measures of χ(2) because the THG signal is less dependent on the structure where SHG signal requires a non-centro-symmetric medium. The frequency shift between the vibration modes of structures containing strontium (Sr) and those based on Barium (Ba) has been detailed to identify signatures of these specific compounds. The interpretation of these powders wasn't that easy as these peaks are very delicate but our experimental results clearly show that the positions of the peaks can be modified by the change in cation materials, as long as the crystal lattice is more rigid, more we get discernible Raman modes. This difference is clearly visible where the emission is around 808 cm-1 for the structure Sr, whereas the Br it is centered around 780cm-1. We attribute these Δσ (28cm-1) to the transition of spatial symmetry group from Pba2 to P4bm. Results showed the wide variety of settings in which it is possible to act in order to optimize the compositions for a specific application.
183

Enseignement du début de l'analyse réelle à l'entrée à l'université : Articuler contrôles pragmatique et formel dans des situations à dimension a-didactique.

Ghedamsi, Imène 14 November 2008 (has links) (PDF)
Cette recherche étudie l'enseignement des premiers éléments de l'Analyse réelle à la transition lycée/université à travers un modèle de variables macro-didactiques (VMD) relatives aux niveaux de formalisation et de familiarité des savoirs mathématiques proposés aux élèves. Lorsque l'on passe du lycée à l'université, les valeurs de ces variables sont dichotomiques et témoignent d'une profonde mutation dans le travail mathématique demandé. Nous nous posons la question des moyens que peut se donner l'enseignement des mathématiques, à l'entrée à l'université, pour gérer des variations aussi importantes et permettre aux étudiants d'accéder aux objets de l'Analyse réelle. <br />Une ingénierie a porté sur la construction et l'expérimentation, dans le cadre de la TSD (Théorie des Situations Didactiques), de deux situations sur les limites, que nous avons expérimentées à un niveau du cursus où seule l'existence formelle des objets de l'Analyse réelle a été établie par les professeurs. Nous avons ciblé le travail des étudiants sur les méthodes d'approximation, afin de favoriser des allers/retours entre les "preuves pragmatiques" géométriques ou numériques et l'utilisation des théorèmes d'Analyse. Les situations prennent en compte la dialectique sémantique/ syntaxique dans un processus de preuve, et permettent un retour efficace sur les savoirs visés. L'entrée dans un processus de preuves mixtes – pragmatiques vs formelles – a ainsi été rendu obligatoire dans le travail des étudiants, à travers l'émergence du problème général de l'existence et de l'accessibilité des nombres, des limites et des suites. <br />En conclusion, nous proposons de poursuivre l'étude du milieu théorique des situations de l'Analyse réelle, d'introduire d'autres situations expérimentales et d'étudier plus en profondeur les connaissances des étudiants dans le contrat didactique instauré par de telles situations.
184

Observation des photons directs dans les premières données et préparation à la recherche du boson de Higgs dans l'expérience CMS au LHC (CERN)

Chanon, Nicolas 06 October 2010 (has links) (PDF)
Le LHC (Large Hadron Collider) fournit aux expériences du CERN (Laboratoire Européen pour la Physique des Particules) des collisions proton-proton avec une énergie de 7 TeV dans le centre de masse depuis fin Mars 2010. Le LHC a en particulier été conçu pour permettre la recherche du boson de Higgs, particule prédite par le modèle standard encore jamais observée à ce jour, dans toute la gamme de masse où il est attendu. Ce travail de thèse est une contribution à la recherche du boson de Higgs dans CMS (Compact Muon Solenoid), l'un des quatre grands détecteurs placés auprès du LHC, et développe plusieurs outils qui permettent la mesure des bruits de fonds et l'amélioration du potentiel de découverte. Un nouvel outil de récupération des photons émis par les leptons dans l'état final de la désintégration H --> ZZ(*) ->4$\ll (\ll= e\ mu)$ a été développé dans cette thèse. Cette méthode permet la récupération d'un nombre variable de photons par événements, donne une meilleure performance que la méthode précédemment utilisée dans CMS et permet l'amélioration de la résolution sur la masse des bosons Z0 et du boson de Higgs, ainsi qu'un gain de 5% sur la significance d'une observation du boson de Higgs dans ce canal. La deuxième partie de cette thèse traite de l'étude des bruits de fond et de la recherche d'un boson de Higgs léger (110 < mH < 140 GeV) dans le canal H --> $\gamma\gamma$. Un nouvel outil de discrimination $\gamma/\pi^i0$ à l'aide d'un réseau de neurone a été mis au point pour le rejet des photons provenant de la désintégration des $\pi^0$ produits copieusement dans les jets de QCD. Les performances du réseau de neurone sont examinées dans le détail. Le réseau de neurone est alors utilisé comme variable "template" permettant la mesure du processus $\gamma$+X à partir des données avec 10 nb−1 de luminosité intégrée dans CMS. La mesure du processus $\gamma\gamma+X$ est aussi préparée à partir de la simulation dans l'hypothèse d'une luminosité intégrée de 10 pb−1. La prise en compte des effets cinématiques aux ordres supérieurs, nécessaire pour la prédiction la plus précise possible du signal H -> $\gamma\gamma$ et du bruit de fond, est effectuée dans cette thèse par la méthode de repondération, pour le gg -> H $\gamma\gamma$ processus au NNLO et pour la première fois pour le processus $\gamma\gamma$ +X au NLO, dans les deux cas à l'aide de distributions doublement différentielles. Les outils de repondération et de discrimination $\gamma/\pi^0$ sont ensuite intégrés dans l'analyse pour améliorer la sensibilité de CMS à la recherche du boson de Higgs dans le canal H->$\gamma\gamma$ dans le modèle standard et au-delà, grâce à une paramétrisation effective développée par des phénoménologues avec lesquels nous avons travaillé.
185

Essais en Microstructure des Marchés Financiers

Dugast, Jérôme 19 July 2013 (has links) (PDF)
Cette thèse est composée de trois chapitres distincts. Dans le premier chapitre, je montre que les mesures de liquidités traditionnelles, telles que la profondeur du marché, ne sont pas toujours pertinentes pour mesurer le bien-être des investisseurs. Je construis un modèle de marché conduit par les ordres et montre qu'une offre de liquidité élevée peut correspondre à de mauvaises conditions d'exécution pour les fournisseurs de liquidité et à un bien-être relativement faible. Dans le deuxième chapitre, je modélise la vitesse des ajustements de prix à l'arrivée de nouvelles dans les marchés conduits pas les ordres, lorsque les investisseurs ont une capacité d'attention limitée. En raison de leur attention limitée, les investisseurs suivent imparfaitement l'arrivée de nouvelles. Ainsi, les prix s'ajustent aux nouvelles après un certain délai. Ce délai diminue lorsque le niveau d'attention des investisseurs augmente. Le délai d'ajustement des prix diminue également lorsque la fréquence à laquelle les nouvelles arrivent, augmente. Le troisième chapitre présente un travail écrit en collaboration avec Thierry Foucault. Nous construisons un modèle pour expliquer en quoi le trading à haute fréquence peut générer des "mini flash crashes" (un brusque changement de prix suivi d'un retour très rapide au niveau antérieur). Notre théorie est basée sur l'idée qu'il existe une tension entre la vitesse à laquelle l'information peut être acquise et la précision de cette information. Lorsque les traders à haute fréquence mettent en oeuvre des stratégies impliquant des réactions rapides à des événements de marché, ils augmentent leur risque à réagir à du bruit et génèrent ainsi des "mini flash crashes". Néanmoins, ils augmentent l'efficience informationnelle du marché.
186

Modélisation du canal de propagation Terre-Espace en bandes Ka et Q/V : synthèse de séries temporelles, variabilité statistique et estimation de risque / Modelling of the Earth-Space propagation channel in Ka and Q/V bands : time series synthesis, statistical variability and risk estimation

Boulanger, Xavier 15 March 2013 (has links)
Les bandes de fréquences utilisées conventionnellement pour les systèmes fixes de télécommunication par satellites (bandes C et Ku i.e. 4-15 GHz) sont congestionnées. Néanmoins, le marché des télécommunications civil et de défense accuse une demande de plus en plus importante en services multimédia haut-débit. Par conséquent, l'augmentation de la fréquence porteuse vers les bandes Ka et Q/V (20-40/50 GHz)est activement étudiée. Pour des fréquences supérieures à 5 GHz, la propagation des signaux radioélectriques souffre de l'atténuation troposphérique. Parmi les différents contributeurs à l'affaiblissement troposphérique total(atténuation, scintillation, dépolarisation, température de bruit du ciel), les précipitations jouent un rôle prépondérant. Pour compenser la détérioration des conditions de propagation, des techniques de compensation des affaiblissements (FMT: Fade Mitigation Technique) permettant d'adapter en temps réel les caractéristiques du système en fonction de l'état du canal de propagation doivent être employées. Une alternative à l'utilisation de séries temporelles expérimentales peu nombreuses est la génération de séries temporelles synthétiques d'atténuation due à la pluie et d'atténuation totale représentatives d'une liaison donnée.Le manuscrit est organisé autour de cinq articles. La première contribution est dédiée à la modélisation temporelle de l'affaiblissement troposphérique total. Le deuxième article porte sur des améliorations significatives du modèle de génération de séries temporelles d'atténuation due à la pluie recommandé par l'UITR.Les trois contributions suivantes constituent une analyse critique et une modélisation de la variabilité des statistiques du 1er ordre utilisées lors des tests des modèles de canal. La variance de l'estimateur statistique des distributions cumulatives complémentaires de l'atténuation due à la pluie et de l'intensité de précipitation est alors mise en évidence. Un modèle à application mondiale paramétré au moyen de données expérimentales est proposé. Celui-ci permet, d'une part, d'estimer les intervalles de confiance associés aux mesures de propagation et d'autre part, de quantifier le risque en termes de disponibilité annuelle associée à la prédiction d'une marge de propagation donnée. Cette approche est étendue aux variabilités des statistiques jointes. Elle permet alors une évaluation statistique de l'impact des techniques de diversité de site sur les performances systèmes, tant à microéchelle(quelques kms) qu'à macro-échelle (quelques centaines de kms). / Nowadays, C and Ku bands used for fixed SATCOM systems are totally congested. However, the demand of the end users for high data rate multimedia services is increasing. Consequently, the use of higher frequency bands (Ka: 20 GHz and Q/V 40/50 GHz) is under investigation. For frequencies higher than 5 GHz, radiowave propagation is strongly affected by tropospheric attenuation. Among the different contributors, rain is the most significant. To compensate the deterioration of the propagation channel, Fade Mitigation Techniques (FMT) are used. The lack of experimental data needed to optimize the real-time control loops of FMT leads tothe use of rain attenuation and total attenuation time series synthesizers. The manuscript is a compilation of five articles. The first contribution is dedicated to the temporal modelling of total impairments. The second article aims at providing significant improvements on the rain attenuation time series synthesizer recommended by ITU-R. The last three contributions are a critical analysis and a modelling of the variability observed on the 1st order statistics used to validate propagation channel models. The variance of the statistical estimator of the complementary cumulative distribution functions of rainfall rate and rain attenuation is highlighted. A worldwide model parameterized in compliance with propagation measurements is proposed. It allows the confidence intervals to be estimated and the risk on a required availability associated with a given propagation margin prediction to be quantified. This approach is extended to the variability of joint statistics. It allows the impact of site diversity techniques on system performances at small scale (few kms) and large scale (few hundred of kms) to be evaluated.
187

Les actions de groupe dans le contentieux international / Group actions in international litigation

Tabbara, Amer 29 March 2018 (has links)
La régulation du contentieux international des actions de groupe constitue le prolongement dans l'ordre international des fonctions poursuivies par une action de groupe dans l'ordre interne -l'accès en justice, l'efficacité économique et la régulation des marchés - et vise à assurer la sécurité juridique, la prévisibilité et l 'harmonie internationale des solutions ; objectifs également partagés par le droit international privé. Cette régulation s'avère pourtant difficile et complexe, notamment en raison de la concurrence exercée par les ordres juridiques en matière de redressement des dommages de masse, et de l'inadéquation des méthodes et instruments de droit international privé à la résolution d'un contentieux complexe, impliquant une multitude de parties et présentant une forte dimension régulatoire. La globalisation du contentieux international des actions de groupe soulève donc des questions complexes de conflits de juridictions, de conflits de lois, de coordination de procédures ainsi que de reconnaissance et d'exécution des décisions.C'est à ces questions complexes que cette thèse propose de répondre. Les solutions proposées tiennent compte des intérêts enchevêtrés que revêt le contentieux de groupe international, et visent essentiellement à prévenir des hypothèses de sous-régulation et de sur-régulation susceptibles d'empoisonner aujourd'hui le contentieux de masse international. / The regulation of international disputes arising out of group actions consists of safeguarding the functions underlying a domestic group action procedure in the context of international litigation (i.e. access to justice, economic efficiency and market regulation). It also aims to ensure the legal certainty, the predictability and harmony of solutions; the latters are objectives also pursued by the rules of private international law. Such regulation reveals difficult to achieve, in light of the competition arising between the legal systems in relation to the redress of global mass damages and the failure of private international law methods and instruments to address complex disputes putting at stake large number of parties and having a strong regulatory dimension. Thus, the globalisation of group actions disputes raises complex questions of conflicts of jurisdictions, conflicts of laws, coordination of procedures and enforcement of decisions.This PhD dissertation aims at addressing all these complex questions. The suggested solutions take into account the intertwined interests underlying disputes arising out of international group actions and aim essentially to prevent the current intoxication of international mass litigation resulting from the occurrence of situations of under-regulation and overregulation.
188

L'art des missions catholiques au Japon : XVIe-XVIIe siècles / The art of Catholic missions in Japan : XVIth-XVIIth century

Boscato Morishita, Sylvie 27 September 2016 (has links)
Les missions catholiques au Japon au XVIe siècle se sont développées dans le contexte de l'expansion ibérique en Extrême-Orient. Les convertis ont fait bon accueil à l'art religieux introduit par les missionnaires. La présente étude dresse l'inventaire des principales œuvres d'art qui ont échappé aux destructions depuis l'interdiction du christianisme en 1614, retrace les différentes modalités de leur conservation depuis cette date et leur découverte progressive depuis 1865. Tout en présentant les traces iconographiques de l'action des ordres mendiants, une large place est réservée à l'activité des jésuites dans l'introduction de l'art occidental, en particulier par la fondation d'une école d'art à Nagasaki. L'étude des principales œuvres et de leur contexte historique permet de reconstituer les différentes facettes de la mission du Japon et de la situer au sein des réseaux de la mondialisation ibérique qui ont permis une circulation artistique entre l'Europe, le Japon et le Nouveau Monde. / Catholic missions in 16th century Japan developed within the context of lberian expansion in the Far East. The Japanese converts welcomed Western religious art. The present study draws up the list of the main works of art that have escaped destruction since 1614, describes their conservation and progressive discovery since the XIXth century, focuses on the role of the Jesuits in the introduction of Western art in Japan while presenting the artistic traces of the mendicants orders. The main works of art are set in their historical context. The Japanese mission is thus placed in the global networks of lberian expansion, which allowed artistic circulation between Europe, Japan and the New World.
189

Le paradoxe de l'internationalisation du droit constitutionnel en Afrique : réflexions sur les interactions normatives, institutionnelles et politiques dans l'espace CEDEAO / The paradox of the internationalization of constitutional law in Africa : Reflections on normative, instituional and political interactions in the ECOWAS area

Diompy, Abraham Hervé 19 January 2017 (has links)
Difficile de nier qu’il arrive quelque chose au droit constitutionnel sousl’effet conjugué de l’internationalisation du droit et de la construction communautaire. Eneffet, le droit constitutionnel s’internationalise, se régionalise dans un mouvementexponentiel. L’Afrique en général et l’espace CEDEAO en particulier n’échappent guère àcette dynamique globale du constitutionnalisme moderne. Aussi, a-t-on constaté quel’internationalisation du droit constitutionnel sur le continent africain qui prend la forme d’unprocessus d’impact, d’influence ou parfois de contraintes induit à la fois à une reconfigurationhorizontale des pouvoirs constitutionnels et une redistribution verticale du pouvoir au sein del’Etat. En revanche, au niveau supranational, ce processus dynamique et intense qui marqueune ouverture des systèmes de droit et favorise la communicabilité entre ordres juridiques setraduit par un phénomène d’intégration, d’harmonisation progressive des systèmesconstitutionnels étatiques autour de standards démocratiques consacrés par le Protocole de laCEDEAO sur la démocratie et la bonne gouvernance de 2001. La dialectique est, au final,paradoxale en ce que l’internationalisation du droit constitutionnel en Afrique et plusparticulièrement dans l’espace CEDEAO se révèle être l’expression d’un phénomèneperturbateur des ordres juridiques constitutionnels étatiques et communautaire mais aussi eten même temps un instrument de convergence matérielle (droits fondamentaux) et structurelle(régime politique démocratique) de ces dits ordres au travers de standards constitutifs dupatrimoine constitutionnel commun. / It is difficult to deny that something has happened to constitutional lawunder the combined effect of the internationalization of law and the construction of thecommunity. Indeed, constitutional law is internationalized, regionalized in an exponentialmovement. Africa in general and the ECOWAS area in particular do not escape the globaldynamics of modern constitutionalism. Thus, it has been observed that theinternationalization of constitutional law on the African continent, which takes the form of aprocess of impact, influence or sometimes constraints, leads both to a horizontalreconfiguration of constitutional and a vertical redistribution of power within the state. Onthe other hand, at the supranational level, this dynamic and intense process, which marks anopening up of legal systems and promotes communication between legal orders, is reflectedin a phenomenon of integration and progressive harmonization of the state's constitutionalsystems around democratic standards The ECOWAS Protocol on Democracy and GoodGovernance of 2001. The dialectic is, in the end, paradoxical in that the internationalizationof constitutional law in Africa and more particularly in the ECOWAS area proves to be aphenomenon Disrupting the constitutional legal systems of the state and the community,and at the same time an instrument of material (fundamental) and structural (democraticpolitical rule, rule of law) convergence of these orders through standards which constitutethe common constitutional heritage.
190

Security of cryptosystems against power-analysis attacks / Sécurité des schémas cryptographiques contre les attaques par canaux auxiliaires

Belaïd, Sonia 22 October 2015 (has links)
Les attaques par canaux auxiliaires sont les attaques les plus efficaces contre les systèmes cryptographiques. Alors que les attaques classiques n’exploitent que les entrées et sorties des algorithmes cryptographiques, les attaques par canaux auxiliaires utilisent également les fuites physiques du composant sous-jacent. Dans cette thèse, nous nous intéressons aux attaques par canaux auxiliaires qui exploitent la consommation de courant des composants pour retrouver les clefs secrètes. Ces attaques sont désignées par le terme attaques par analyse de courant. La majorité des attaques par analyse de courant existantes repose sur l’observation de variables dépendant uniquement de quelques bits de secret avec la stratégie diviser-pour-régner. Dans cette thèse, nous exhibons de nouvelles attaques qui exploitent l’observation de variables intermédiaires largement dépendantes de grands secrets. Notamment, nous montrons qu’en observant uniquement la fuite physique du résultat d’une multiplication de Galois entre une clef secrète de 128 bits et plusieurs messages connus, nous pouvons en déduire un système d’équations avec erreurs puis retrouver cette clef secrète. En parallèle, nous nous intéressons aux deux contre-mesures algorithmiques les plus répandues contre ces attaques par analyse de courant : les fonctions intrinsèquement résistantes aux fuites physiques et les schémas de masquage. Dans un premier temps, nous définissons un schéma de chiffrement résistant aux fuites physiques qui repose sur un rafraîchissement régulier de la clef secrète. Nous prouvons la sécurité de ce schéma dans le modèle de cryptographie résistante aux fuites (en anglais, leakage-resilient cryptography). Dans un second temps, nous construisons, à l’aide des méthodes formelles, un outil permettant de vérifier automatiquement la sécurité d’implémentations masquées. Nous exhibons également de nouvelles propriétés de sécurité, ainsi que des propriétés de composition qui nous permettent de générer une implémentation masquée à n’importe quel ordre à partir d’une implémentation non protégée. Finalement, nous présentons une étude de comparaison entre ces deux contre-mesures algorithmiques dans le but d’aider les experts industriels à déterminer la meilleure protection à intégrer dans leurs produits en fonction de leurs contraintes en termes de sécurité et de performances. / Side-channel attacks are the most efficient attacks against cryptosystems. While the classical blackbox attacks only exploit the inputs and outputs of cryptographic algorithms, side-channel attacks also get use of the physical leakage released by the underlying device during algorithms executions. In this thesis, we focus on one kind of side-channel attacks which exploits the power consumption of the underlying device to recover the algorithms secret keys. They are gathered under the term power-analysis attacks. Most of the existing power-analysis attacks rely on the observations of variables which only depend on a few secret bits using a divide-and-conquer strategy. In this thesis, we exhibit new kinds of attacks which exploit the observation of intermediate variables highly dependent on huge secrets. In particular, we show how to recover a 128-bit key by only recording the leakage of the Galois multiplication’s results between several known messages and this secret key. We also study two commonly used algorithmic countermeasures against side-channel attacks: leakage resilience and masking. On the one hand, we define a leakage-resilient encryption scheme based on a regular update of the secret key and we prove its security. On the other hand, we build, using formal methods, a tool to automatically verify the security of masked algorithms. We also exhibit new security and compositional properties which can be used to generate masked algorithms at any security order from their unprotected versions. Finally, we propose a comparison between these two countermeasures in order to help industrial experts to determine the best protection to integrate in their products, according to their constraints in terms of security and performances.

Page generated in 0.051 seconds