• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 504
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1643
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 234
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
791

Calcul fonctionnel non-anticipatif et applications en finance / Pathwise functional calculus and applications to continuous-time finance

Riga, Candia 26 June 2015 (has links)
Cette thèse développe une approche trajectorielle pour la modélisation des marchés financiers en temps continu, sans faire appel à des hypothèses probabilistes ou à des modèles stochastiques. À l'aide du calcul fonctionnel non-anticipatif, nous identifions une classe spéciale de stratégies de trading que nous prouvons être auto-finançantes, selon une notion trajectorielle introduite dans cette thèse, et dont le gain peut être calculé trajectoire par trajectoire comme limite de sommes de Riemann. Avec ces outils, nous proposons un cadre analytique pour analyser la performance et la robustesse de stratégies de couverture dynamique de produits dérivés path-dependent sur en ensemble de scénarios. Ce cadre ne demande aucune hypothèse probabiliste sur la dynamique du processus sous-jacent. Il généralise donc les résultats précédents sur la robustesse de stratégies de couverture dans des modèles de diffusion. Nous obtenons une formule explicite pour l'erreur de couverture dans chaque scénario et nous fournissons des conditions suffisantes qui impliquent la robustesse de la couverture delta-neutre. Nous montrons que la robustesse peut être obtenue dans un ensemble ample de modèles de prix de martingale exponentielle de carré intégrable, avec une condition de convexité verticale sur le payoff. Nous remarquons que les discontinuités de la trajectoire de prix détériorent la performance de la couverture. Le dernier chapitre, indépendant du reste de la thèse, est une étude en collaboration avec Andrea Pascucci et Stefano Pagliarani, où nous proposons une nouvelle méthode pour l'approximation analytique dans des modèles à volatilité locale avec des sauts de type Lévy. / This thesis develops a mathematical framework for the analysis of continuous-time trading strategies which, in contrast to the classical setting of continuous-time finance, does not rely on stochastic integrals or other probabilistic notions.Using the `non-anticipative functional calculus', we first develop a pathwise definition of the gain process for a large class of continuous-time trading strategies which includes delta-hedging strategies, as well as a pathwise definition of the self-financing condition. Using these concepts, we propose a framework for analyzing the performance and robustness of delta-hedging strategies for path-dependent derivatives across a given set of scenarios. Our setting allows for general path-dependent payoffs and does not require any probabilistic assumption on the dynamics of the underlying asset, thereby extending previous results on robustness of hedging strategies in the setting of diffusion models. We obtain a pathwise formula for the hedging error for a general path-dependent derivative and provide sufficient conditions ensuring the robustness of the delta-hedge. We show in particular that robust hedges may be obtained in a large class of continuous exponential martingale models under a vertical convexity condition on the payoff functional. We also show that discontinuities in the underlying asset always deteriorate the hedging performance. These results are applied to the case of Asian options and barrier options. The last chapter, independent of the rest of the thesis, proposes a novel method, jointly developed with Andrea Pascucci and Stefano Pagliarani, for analytical approximations in local volatility models with Lévy jumps.
792

Bio-inspired computing leveraging the synchronization of magnetic nano-oscillators / Calcul bio-inspiré basé sur la synchronisation de nano-oscillateurs magnétiques

Talatchian, Philippe 09 January 2019 (has links)
Les nano-oscillateurs à transfert de spin sont des composants radiofréquences magnétiques non-linéaires, nanométrique, de faible consommation en énergie et accordables en fréquence. Ce sont aussi potentiellement des candidats prometteurs pour l’élaboration de larges réseaux d’oscillateurs couplés. Ces derniers peuvent être utilisés dans les architectures neuromorphiques qui nécessitent des assemblées très denses d’unités de calcul complexes imitant les neurones biologiques et comportant des connexions ajustables entre elles. L’approche neuromorphique permet de pallier aux limitations des ordinateurs actuels et de diminuer leur consommation en énergie. En effet pour résoudre des tâches cognitives telles que la reconnaissance vocale, le cerveau fonctionne bien plus efficacement en terme d’énergie qu’un ordinateur classique. Au vu du grand nombre de neurone dans le cerveau (100 milliards) une puce neuro-inspirée requière des oscillateurs de très petite taille tels que les nano-oscillateurs à transfert de spin. Récemment, une première démonstration de calcul neuromorphique avec un unique nano-oscillateur à transfert de spin a été établie. Cependant, pour aller au-delà, il faut démontrer le calcul neuromorphique avec plusieurs nano-oscillateurs et pouvoir réaliser l’apprentissage. Une difficulté majeure dans l’apprentissage des réseaux de nano-oscillateurs est qu’il faut ajuster le couplage entre eux. Dans cette thèse, en exploitant l'accordabilité en fréquence des nano-oscillateurs magnétiques, nous avons démontré expérimentalement l'apprentissage des nano-oscillateurs couplés pour classifier des voyelles prononcées avec un taux de reconnaissance de 88%. Afin de réaliser cette tache de classification, nous nous sommes inspirés de la synchronisation des taux d’activation des neurones biologiques et nous avons exploité la synchronisation des nano-oscillateurs magnétiques à des stimuli micro-ondes extérieurs. Les taux de reconnaissances observés sont dus aux fortes accordabilités et couplage intermédiaire des nano-oscillateurs utilisés. Enfin, afin de réaliser des taches plus difficiles nécessitant de larges réseaux de neurones, nous avons démontré numériquement qu’un réseau d’une centaine de nano-oscillateurs magnétiques peut être conçu avec les contraintes standards de nano-fabrication. / Spin-torque nano-oscillators are non-linear, nano-scale, low power consumption, tunable magnetic microwave oscillators which are promising candidates for building large networks of coupled oscillators. Those can be used as building blocks for neuromorphic hardware which requires high-density networks of neuron-like complex processing units coupled by tunable connections. The neuromorphic approach allows to overcome the limitation of nowadays computers and to reduce their energy consumption. Indeed, in order to perform cognitive tasks as voice recognition or image recognition, the brain is much more efficient in terms of energy consumption. Due to the large number of required neurons (100 billions), a neuromorphic chip requires very small oscillators such as spin-torque nano-oscillators to emulate neurons. Recently a first demonstration of neuromorphic computing with a single spin-torque nano-oscillator was established, allowing spoken digit recognition with state of the art performance. However, to realize more complex cognitive tasks, it is still necessary to demonstrate a very important property of neural networks: learning an iterative process through which a neural network can be trained using an initial fraction of the inputs and then adjusting internal parameters to improve its recognition or classification performance. One difficulty is that training networks of coupled nano-oscillators requires tuning the coupling between them. Here, through the high frequency tunability of spin-torque nano-oscillators, we demonstrate experimentally the learning ability of coupled nano-oscillators to classify spoken vowels with a recognition rate of 88%. To realize this classification task, we took inspiration from the synchronization of rhythmic activity of biological neurons and we leveraged the synchronization of spin-torque nano-oscillators to external microwave stimuli. The high experimental recognition rates stem from the weak-coupling regime and the high tunability of spin-torque nano-oscillators. Finally, in order to realize more difficult cognitive tasks requiring large neural networks, we show numerically that arrays of hundreds of spin-torque nano-oscillators can be designed with the constraints of standard nano-fabrication techniques.
793

Contributions to Software Runtime for Clustered Manycores Applied to Embedded and High-Performance Applications / Contributions aux environnements d’exécution pour processeurs massivement parallèles et clustérisés appliqués aux applications embarquées et hautes performances

Hascoët, Julien 14 December 2018 (has links)
Le besoin en calculs est toujours plus important et difficile à satisfaire, spécialement dans le domaine de l’informatique embarquée qui inclue les voitures autonomes, drones et téléphones intelligents. Les systèmes embarqués doivent respecter des contraintes fortes de temps, de consommation et de sécurité. Les nouveaux processeurs parallèles et hétérogènes comme le MPPA® de Kalray utilisé dans cette thèse, doivent alors combiner haute performance et basse consommation. Pour cela, le MPPA® intègre 288 coeurs, regroupés en 18 clusters à mémoire locale partagée, un réseau sur puce et des moteurs DMA pour les communications. Ces processeurs sont difficiles à programmer, engendrant des coûts de développement importants. Cette thèse a pour objectif de simplifier leur programmation tout en optimisant les performances finales. Nous proposons pour cela AOS, une librairie de communication et synchronisation haute performance gérant les mémoires locales distribuées des processeurs clustérisés. La librairie atteint 70% de la crête matérielle pour des transferts supérieurs à 8 KB. Nous proposons plusieurs outils de développement basés sur AOS et des modèles de programmation flux-dedonnées pour accélérer le développement d’applications parallèles pour processeurs clustérisés, notamment OpenVX qui est un nouveau standard pour les applications de vision et les réseaux de neurones. Nous automatisons l’optimisation de l’application OpenVX en faisant du pré-chargement de données et en les fusionnants, pour éviter le mur de la bande passante mémoire externe. Les résultats montrent des facteurs d’accélération super linéaires. / The growing need for computing is more and more challenging, especially in the embedded system world with autonomous cars, drones, and smartphones. New highly parallel and heterogeneous processors emerge to answer this challenge. They operate in constrained environments with real-time requirements, reduced power consumption, and safety. Programming these new chips is a time-consuming and challenging task leading to huge software development costs. The Kalray MPPA® processor is a competitive example for low-power super-computing on a single chip. It integrates up to 288 VLIW cores grouped in 18 clusters, each fitted with shared local memory. These clusters are interconnected with a high-bandwidth network-on-chip, and DMA engines are used to communicate. This processor is used in this thesis for experimental results. We propose the AOS library enabling highperformance communications and synchronizations of distributed local memories on clustered manycores. AOS provides 70% of the peak hardware throughput for transfers larger than 8 KB. We propose tools for the implementation of static and dynamic dataflow programs based on AOS to accelerate the parallel application developments onto clustered manycores. We propose an implementation of OpenVX for clustered manycores on top of AOS. OpenVX is a standard based on dataflow for the development of computer vision and neural network computing. The proposed OpenVX implementation includes automatic optimizations like data prefetch to overlap communications and computations, or kernel fusion to avoid the main memory bandwidth bottleneck. Results show super-linear speedups.
794

Courbes et applications optimales à valeurs dans l'espace de Wasserstein / Optimal curves and mappings valued in the Wasserstein space

Lavenant, Hugo 24 May 2019 (has links)
L'espace de Wasserstein est l'ensemble des mesures de probabilité définies sur un domaine fixé et muni de la distance de Wasserstein quadratique. Dans ce travail, nous étudions des problèmes variationnels dans lesquels les inconnues sont des applications à valeurs dans l'espace de Wasserstein.Quand l'espace de départ est un segment, c'est-à-dire quand les inconnues sont des courbes à valeurs dans l'espace de Wasserstein, nous nous intéressons à des modèles où, en plus de l'action des courbes, des termes pénalisant les configurations de congestion sont présents. Nous développons des techniques permettant d'extraire de la régularité à partir de l'interaction entre l'évolution optimale de la densité (minimisation de l'action) et la pénalisation de la congestion, et nous les appliquons à l'étude des jeux à champ moyen et de la formulation variationelle des équations d'Euler.Quand l'espace de départ n'est plus seulement un segment mais un domaine de l'espace euclidien, nous considérons seulement le problème de Dirichlet, c'est-à-dire la minimisation de l'action (qui peut être appelée l'énergie de Dirichlet) parmi toutes les applications dont les valeurs sur le bord du domaine de départ sont fixées. Les solutions sont appelées les applications harmoniques à valeurs dans l'espace de Wasserstein. Nous montrons que les différentes définitions de l'énergie de Dirichlet présentes dans la littérature sont en fait équivalentes; que le problème de Dirichlet est bien posé sous des hypothèses assez faibles; que le principe de superposition est mis en échec lorsque l'espace de départ n'est pas un segment; que l'on peut formuler une sorte de principe du maximum; et nous proposons une méthode numérique pour calculer ces applications harmoniques. / The Wasserstein space is the space of probability measures over a given domain endowed with the quadratic Wasserstein distance. In this work, we study variational problems where the unknowns are mappings valued in the Wasserstein space. When the source space is a segment, i.e. when the unknowns are curves valued in the Wasserstein space, we are interested in models where, in addition to the action of the curves, there are some terms which penalize congested configurations. We develop techniques to extract regularity from the minimizers thanks to the interplay between optimal density evolution (minimization of the action) and penalization of congestion, and we apply them to the study of Mean Field Games and the variational formulation of the Euler equations. When the source space is no longer a segment but a domain of a Euclidean space, we consider only the Dirichlet problem, i.e. the minimization of the action (which can be called the Dirichlet energy) among mappings sharing a fixed value on the boundary of the source space. The solutions are called harmonic mappings valued in the Wasserstein space. We prove that the different definitions of the Dirichlet energy in the literature turn out to be equivalent; that the Dirichlet problem is well-posed under mild assumptions; that the superposition principle fails if the source space is no longer a segment; that a sort of maximum principle holds; and we provide a numerical method to compute these harmonic mappings.
795

Bayesian statistical inference for intractable likelihood models / Inférence statistique bayésienne pour les modélisations donnant lieu à un calcul de vraisemblance impossible

Raynal, Louis 10 September 2019 (has links)
Dans un processus d’inférence statistique, lorsque le calcul de la fonction de vraisemblance associée aux données observées n’est pas possible, il est nécessaire de recourir à des approximations. C’est un cas que l’on rencontre très fréquemment dans certains champs d’application, notamment pour des modèles de génétique des populations. Face à cette difficulté, nous nous intéressons aux méthodes de calcul bayésien approché (ABC, Approximate Bayesian Computation) qui se basent uniquement sur la simulation de données, qui sont ensuite résumées et comparées aux données observées. Ces comparaisons nécessitent le choix judicieux d’une distance, d’un seuil de similarité et d’un ensemble de résumés statistiques pertinents et de faible dimension.Dans un contexte d’inférence de paramètres, nous proposons une approche mêlant des simulations ABC et les méthodes d’apprentissage automatique que sont les forêts aléatoires. Nous utilisons diverses stratégies pour approximer des quantités a posteriori d’intérêts sur les paramètres. Notre proposition permet d’éviter les problèmes de réglage liés à l’ABC, tout en fournissant de bons résultats ainsi que des outils d’interprétation pour les praticiens. Nous introduisons de plus des mesures d’erreurs de prédiction a posteriori (c’est-à-dire conditionnellement à la donnée observée d’intérêt) calculées grâce aux forêts. Pour des problèmes de choix de modèles, nous présentons une stratégie basée sur des groupements de modèles qui permet, en génétique des populations, de déterminer dans un scénario évolutif les évènements plus ou moins bien identifiés le constituant. Toutes ces approches sont implémentées dans la bibliothèque R abcrf. Par ailleurs, nous explorons des manières de construire des forêts aléatoires dites locales, qui prennent en compte l’observation à prédire lors de leur phase d’entraînement pour fournir une meilleure prédiction. Enfin, nous présentons deux études de cas ayant bénéficié de nos développements, portant sur la reconstruction de l’histoire évolutive de population pygmées, ainsi que de deux sous-espèces du criquet pèlerin Schistocerca gregaria. / In a statistical inferential process, when the calculation of the likelihood function is not possible, approximations need to be used. This is a fairly common case in some application fields, especially for population genetics models. Toward this issue, we are interested in approximate Bayesian computation (ABC) methods. These are solely based on simulated data, which are then summarised and compared to the observed ones. The comparisons are performed depending on a distance, a similarity threshold and a set of low dimensional summary statistics, which must be carefully chosen.In a parameter inference framework, we propose an approach combining ABC simulations and the random forest machine learning algorithm. We use different strategies depending on the parameter posterior quantity we would like to approximate. Our proposal avoids the usual ABC difficulties in terms of tuning, while providing good results and interpretation tools for practitioners. In addition, we introduce posterior measures of error (i.e., conditionally on the observed data of interest) computed by means of forests. In a model choice setting, we present a strategy based on groups of models to determine, in population genetics, which events of an evolutionary scenario are more or less well identified. All these approaches are implemented in the R package abcrf. In addition, we investigate how to build local random forests, taking into account the observation to predict during their learning phase to improve the prediction accuracy. Finally, using our previous developments, we present two case studies dealing with the reconstruction of the evolutionary history of Pygmy populations, as well as of two subspecies of the desert locust Schistocerca gregaria.
796

A la recherche de la haute performance pour les codes de calcul et la visualisation scientifique / Searching for the highest performance for simulation codes and scientific visualization

Colin de Verdière, Guillaume 16 October 2019 (has links)
Cette thèse vise à démontrer que l'algorithmique et la programmation, dans un contexte de calcul haute performance (HPC), ne peuvent être envisagées sans tenir compte de l'architecture matérielle des supercalculateurs car cette dernière est régulièrement remise en cause.Après avoir rappelé quelques définitions relatives aux codes et au parallélisme, nous montrons que l'analyse des différentes générations de supercalculateurs, présents au CEA lors de ces 30 dernières années, permet de dégager des points de vigilances et des recommandations de bonnes pratiques en direction des développeurs de code.En se reposant sur plusieurs expériences, nous montrons comment viser une performance adaptée aux supercalculateurs et comment essayer d'atteindre la performance portable voire la performance extrême dans le monde du massivement parallèle, incluant ou non l'usage de GPU.Nous expliquons que les logiciels et matériels dédiés au dépouillement graphique des résultats de calcul suivent les mêmes principes de parallélisme que pour les grands codes scientifiques, impliquant de devoir maîtriser une vue globale de la chaîne de simulation. Enfin, nous montrons quelles sont les tendances et contraintes qui vont s'imposer à la conception des futurs supercalculateurs de classe exaflopique, impactant de fait le développement des prochaines générations de codes de calcul. / This thesis aims to demonstrate that algorithms and coding, in a high performance computing (HPC) context, cannot be envisioned without taking into account the hardware at the core of supercomputers since those machines evolve dramatically over time. After setting a few definitions relating to scientific codes and parallelism, we show that the analysis of the different generations of supercomputer used at CEA over the past 30 years allows to exhibit a number of attention points and best practices toward code developers.Based on some experiments, we show how to aim at code performance suited to the usage of supercomputers, how to try to get portable performance and possibly extreme performance in the world of massive parallelism, potentially using GPUs.We explain that graphical post-processing software and hardware follow the same parallelism principles as large scientific codes, requiring to master a global view of the simulation chain.Last, we describe tendencies and constraints that will be forced on the new generations of exaflopic class supercomputers. These evolutions will, yet again, impact the development of the next generations of scientific codes.
797

A quasicontinuum approach towards mechanical simulations of periodic lattice structures

Chen, Li 16 November 2020 (has links) (PDF)
Thanks to the advancement of additive manufacturing, periodic metallic lattice structures are gaining more and more attention. A major attraction of them is that their design can be tailored to specific applications by changing the basic repetitive pattern of the lattice, called the unit cell. This may involve the selection of optimal strut diameters and orientations, as well as the connectivity and strut lengths. Numerical simulation plays a vital role in understanding the mechanical behavior of metallic lattices and it enables the optimization of design parameters. However, conventional numerical modeling strategies in which each strut is represented by one or more beam finite elements yield prohibitively time­ consuming simulations for metallic lattices in engineering­ scale applications. The reasons are that millions of struts are involved, as well as that geometrical and material nonlinearities at the strut level need to be incorporated. The aim of this thesis is the development of multi­scale quasicontinuum (QC) frameworks to substantially reduce the simulation time of nonlinear mechanical models of metallic lattices. For this purpose, this thesis generalizes the QC method by a multi­-field interpolation enabling amongst others the representation of varying diameters in the struts’ axial directions (as a consequence of the manufacturing process). The efficiency is further increased by a new adaptive scheme that automatically adjusts the model reduction whilst controlling the (elastic or elastoplastic) model’s accuracy. The capabilities of the proposed methodology are demonstrated using numerical examples, such as indentation tests and scratch tests, in which the lattice is modeled using geometrically nonlinear elastic and elastoplastic beam finite elements. They show that the multi­scale framework combines a high accuracy with substantial model reduction that are out of reach of direct numerical simulations. / Doctorat en Sciences de l'ingénieur et technologie / info:eu-repo/semantics/nonPublished
798

Modélisation et exploitation de base de connaissances dans le cadre du web des objets / Modeling and exploiting the knowledge base of web of things

Xu, Wenyi 16 January 2015 (has links)
Le concept du web des objets (WOT - web of things) est devenu une réalité avec le développement d’internet, des réseaux, des technologies matérielles et des objets communicants. De nos jours, il existe un nombre croissant d’objets susceptibles d’être utilisés dans des applications spécifiques. Le Monde est ainsi plus étroitement connecté, différents objets pouvant maintenant partager leurs informations et être ainsi utilisés à travers une structure similaire à celle du Web classique. Cependant, même si des objets hétérogènes ont la possibilité de se connecter au Web, ils ne peuvent pas être utilisés dans différentes applications à moins de posséder un modèle de représentation et d’interrogation commun capable de prendre en compte leur hétérogénéité. Dans cette thèse, notre objectif est d’offrir un modèle commun pour décrire les objets hétérogènes et pouvoir ensuite les utiliser pour accéder aux requêtes des utilisateurs. Ceux-ci peuvent avoir différentes demandes, que ce soit pour trouver un objet particulier ou pour réaliser certaines tâches. Nous mettons en évidence deux directions de recherche. La première consiste à trouver une bonne modélisation de ces objets hétérogènes et des concepts liés au WOT. La seconde est d’utiliser un tel modèle pour répondre efficacement aux requêtes des utilisateurs. Dans un premier temps, nous étudions d’abord les technologies, les applications et les domaines existants où le WOT peut être appliqué. Nous comparons les modèles de description existants dans ce domaine et nous mettons en évidence leurs insuffisances lors d’applications relatives au WOT. Nous proposons alors un nouveau modèle sémantique pour la description d’objets dans le cadre du WOT. Ce modèle est construit sur une ontologie qui comporte trois composantes principales: le Core model, le Space model et l’Agent model. Ce modèle peut alors permettre la description à la fois des informations statiques mais aussi des changements dynamiques associés au WOT... / The concept Web of things (WOT) is gradually becoming a reality as the result of development of network and hardware technologies. Nowadays, there is an increasing number of objects that can be used in predesigned applications. The world is thus more tightly connected, various objects can share their information as well as being triggered through a Web-like structure. However, even if the heterogeneous objects have the ability to be connected to the Web, they cannot be used in different applications unless there is a common model so that their heterogeneity can be described and understood. In this thesis, we want to provide a common model to describe those heterogeneous objects and use them to solve user’s problems. Users can have various requests, either to find a particular object, or to fulfill some tasks. We highlight thus two research directions. The first step is to model those heterogeneous objects and related concepts in WOT, and the next step is to use this model to fulfill user’s requests. Thus, we first study the existing technologies, applications and domains where the WOT can be applied. We compare the existing description models in this domain and find their insufficiency to be applied in the WOT...
799

Le problème de décompositions de points dans les variétés Jacobiennes / The point decomposition problem in Jacobian varieties

Wallet, Alexandre 26 November 2016 (has links)
Le problème du logarithme discret est une brique fondamentale de nombreux protocoles de communication sécurisée. Son instantiation sur les courbes elliptiques a permis, grâce à la petite taille des opérandes considérées, le déploiement de primitives asymétriques efficaces sur des systèmes embarqués. De nos jours, les cryptosystèmes utilisant des courbes elliptiques, aussi appelées courbes de genre 1, sont déjà intensément utilisés: il est donc impératif de savoir estimer précisément la robustesse de ces systèmes. L'existence d'attaques mathématiques permettant de transférer un problème de logarithme discret elliptique dans un autre type de courbe algébrique, et la nouvelle compétitivité des courbes de genre 2 imposent de ne pas se restreindre à la seule compréhension du problème sur les courbes elliptiques.Dans cette optique, le sujet de cette thèse se concentre sur les attaques algébriques sur les courbes de genre supérieur à 1. Les algorithmes de type calcul d'indice sont en général préférés pour ce genre d'attaque. Ces algorithmes se déroulent en deux phases: la première, appelée phase de récolte, dispose de nombreuses modélisations algébriques dépendant de la courbe ciblée. Le problème sous-jacent revient à savoir décomposer efficacement des points dans la variété Jacobienne de la courbe en somme d'autres points.On propose dans un premier temps une approche par crible pour la phase de récolte, s'adaptant à tous les types de courbes de genre plus grand que 1, et qui est expérimentalement plus efficaces que les méthodes de l'état de l'art. Cette méthode a l'avantage de proposer une implémentation immédiate, et évite les problèmes usuels de gestion des relations obtenues.Ensuite, on se concentre les variantes de calcul d'indice appelées attaques par décomposition, et ciblant les courbes définies sur des extensions de corps. Dans cette situation, la phase de récolte est effectuée par résolution de nombreux systèmes polynomiaux multivariés. On propose une nouvelle approche de modélisation de ces systèmes, en généralisant la notion de polynômes de sommation elliptique à tout les types de courbes algébriques. Pour cela on fait appel à la théorie de l'élimination, tandis que l'aspect pratique est gérée par des méthodes de bases de Gröbner.Enfin, on fournit des algorithmes d'amélioration du processus de résolution des systèmes lorsque la caractéristique du corps de base est paire. Par le biais d'une présentation théorique générale et en utilisant des méthodes de bases de Gröbner, on propose une analyse fine de l'impact de ces améliorations sur la complexité de la résolution. Cette analyse fine, ainsi qu'une implémentation dédiée, nous permettent d'attaquer une courbe de genre 2 satisfaisant des bornes de sécurité réaliste en pratique. / The discrete logarithm problem is a fundamental brick for several protocols for secured communications. Its instantiation over elliptic curves allows the deployment of efficient asymmetric primitives in embedded systems, because of the small size of the parameters considered. Nowadays, elliptic curves cryptosystems are already widely used: it is therefore crucial to precisely understand the hardness of such systems. Because of the existence of mathematical attacks enabling the transfer from an elliptic curve discrete logarithm problem to another algebraic curve, and the upcoming competitivity of genus 2 curves, it is mandatory to study the problem not only for elliptic curves, but for the other curves as well.In this way, this thesis focuses on the algebraic attacks over curves with genus greater than 1. The index calculus family of algorithms is in general preferred for this kind of attacks. Those algorithms run in two phases: the first, called harvesting phase, can be modelled by different algebraic approaches, depending in the targetted curve. The underlying problem amounts to knowing how to decompose efficiently points in the Jacobian variety of the curve into sums of other points.First, we propose a sieving approach to the harvesting, that can be adated to any type of curves with genus greater than 1, and which turns to be experimentally more efficient than state-of-the-art's methods. Moreover, our method allows a close-to-immediate implementation, and avoid complications coming from relations management.Our second focus is on a variant of index calculus called decomposition attack, targetting curves defined over field extensions. In this situation, harvesting is done by solving numerous multivariate polynomial systems. We propose a new approach to this modelling by generalizing the notion of elliptic summation polynomias to any type of algebraic curves. This uses elimination theory, and the computational aspect is handled by Gröbner bases methods.Third, we give algorithms to improve the solving process of the systems arising from a decomposition attacks when the characteristic of the base field is even. By mean of a general theoretical presentation, and using Gröbner bases methods, we give a sharp analysis of the impact of such improvement on the complexity of the resolution process. This sharp analysis together with a dedicated implementation allows us to attack a genus 2 curve satisfying realistic security parameters.
800

Analyse de ressources pour les systèmes concurrents dynamiques / Resource analysis for concurrent and dynamic systems

Deharbe, Aurélien 21 September 2016 (has links)
Durant leur exécution, les systèmes concurrents manipulent diverses ressources dynamiques en nombre : fichiers, liens de communication, mémoire, etc. Les propriétés comportementales de ces systèmes sont alors étroitement liées aux manipulations de ces ressources qu'ils allouent, utilisent, puis détruisent. Nous proposons dans cette thèse une analyse quantitative, effectuée de manière statique, de ce type de ressources pour les systèmes concurrents et dynamiques. Les systèmes que l'on considère peuvent être des programmes concurrents et parallèles (le langage Piccolo développé dans le cadre de ce travail en est un exemple), ou encore la modélisation de systèmes plus généraux. Pour atteindre cette généricité, notre travail repose fortement sur les algèbres de processus, et plus particulièrement sur le pi-calcul pour lequel nous proposons une variante sémantique ainsi que plusieurs abstractions adaptées à l'observation des ressources en particulier. Le socle théorique de notre analyse est présenté sous la forme d'un nouveau type d'automates nominaux : les nu-automates. Ils permettent de raisonner spécifiquement sur les ressources dynamiques, tant pour caractériser les notions quantitatives de consommation en ressources que pour de futures analyses qualitatives. À partir de ce formalisme nous réalisons ensuite un ensemble d'algorithmes ayant pour but de mettre en oeuvre les résultats introduits sur les nu-automates. Enfin, nous proposons plusieurs expérimentations, sur la base d'exemples classiques du pi-calcul, de notre prototype d'analyse de ressources. / Concurrent activities involve undoubtedly many dynamic resources manupulations: files, communication links, memory, etc. Then, the behavioral properties of such systems are closely linked to their usage of those resources that they allocate, use, and finally destroy. In this work, we develop a quantitative static analysis of concurrent and parallel systems for this kind of resources. Systems that we consider can be concurrent and parallel programs (written for example in the Piccolo programming language which was developped during this thesis), or models descriptions of more general systems. To be generic, our work lies on process algebra, specifically pi-calculs for which we propose a variant semantics in addition to several resources abstractions strategies. The underlying theory is developped as a nominal automata framework (namely the nu-automata). They allow one to reason about dynamic resources usage to charaterize both quantitative and qualitative properties. From this formalism we establish an algorithmic framework that enforce the qualitative results defined on nu-automata. Finally, our resources abstractions and resources analysis are tested experimentally on classical pi-calculus examples using our prototype analysis tool.

Page generated in 0.0388 seconds