• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 78
  • 40
  • 6
  • Tagged with
  • 125
  • 63
  • 37
  • 35
  • 24
  • 22
  • 19
  • 17
  • 17
  • 14
  • 14
  • 11
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Propagation d'une impulsion laser ultra-intense dans un plasma sous-dense : Génération de faisceaux d'électrons quasi monoénergétiques et développement d'applications.

Glinec, Yannick 22 September 2006 (has links) (PDF)
Cette étude expérimentale concerne la génération de faisceaux d'électrons aux propriétés inédites. Ces faisceaux d'électrons sont issus de l'interaction d'une impulsion laser ultra-intense et brève avec un jet de gaz. Jusqu'à récemment, les faisceaux d'électrons ainsi produits avaient une divergence importante et un spectre très large. Un tournant important de cette discipline a été franchi lorsqu'un faisceau d'électrons faiblement divergent (10 mrad) et, par dessus tout, dont le spectre est piqué à haute énergie (170 MeV) a été observé en utilisant un nouveau spectromètre monotir à électrons. Une étude paramétriquede l'interaction a permis de suivre l'évolution des propriétés du faisceau d'électrons. Des expériences ont ensuite été menées pour approfondir la caractérisation de ce faisceau. L'observation du spectre de rayonnement de transition généré par les électrons à une interface montre que le faisceau d'électrons interagit avec l'impulsion laser pendant l'accélération. Des oscillations radiales du faisceau d'électrons autour de l'axe laser, qualifiées d'oscillations bêtatroniques, ont aussi été visualisées sur les spectres électroniques. Un tel spectre quasi-monoénergétique est essentiel pour de nombreuses applications. Afin de justifier l'intérêt d'un tel faisceau, plusieurs expériences d'applications sont présentées: la radiographie γ submillimétrique d'objets denses, un profil de dose du faisceau d'électron comparable aux performances actuelles des sources de photons pour la radiothérapie, un profil temporel très bref utile en radiolyse de l'eau et la génération d'une source de rayons X faiblement divergente.
22

Etude des interactions multi-sensorielle pour la perception des mouvements du véhicule en simulateur dynamique : contribution de l'illusion somatogravique à l'immersion en environnement virtuel

Stratulat, Anca 06 October 2011 (has links)
Les simulateurs de conduite permettent d’explorer certains domaines de recherche difficiles à appréhender en conditions réelles, comme l'intégration de différents signaux sensoriels (ex. visuel, vestibulaire, somesthésique) pour la perception du mouvement. Malgré leur complexité, les simulateurs de conduite ne produisent pas toujours une sensation de conduite réelle, spécialement dans les situations comportant des freinages ou des virages. Leurs limites mécaniques en sont la cause. En conséquence, les lois de mouvement des simulateurs sont basées sur la technique de la « tilt-coordination ». Cette technique consiste à incliner un véhicule de telle sorte que la force gravitationnelle soit équivalente à l’accélération gravito-inertielle (GIA) résultant d’une accélération linéaire. La « tilt-coordination » se base sur l'ambigüité perçue par le système vestibulaire entre un basculement et une translation. Sur simulateur de conduite, l'algorithme « washout » combine la « tilt-coordination » à des translations pour produire une sensation d'accélération linéaire. L'objectif de ces travaux de recherche est d'atteindre une meilleure compréhension de l'intégration multisensorielle pour la perception des accélérations linéaires en simulateur de conduite. Les expériences présentées ci-dessous montrent que la perception des décélérations linéaires dépend de la manière dont le basculement et la translation sont combinés pour produire une perception cohérente. Par ailleurs, nos résultats montrent qu'il y a une différence importante dans la perception des accélérations et des décélérations. Pour le freinage, le rapport basculement/translation le plus réaliste dépend du niveau de décélération. Pour l'accélération, le mouvement est généralement surestimé et dépend du niveau d'accélération. Dans ce cas, la perception ne dépend pas du rapport basculement/translation. Ces résultats suggèrent que les signaux visuels, vestibulaires et somesthésiques sont intégrés de façon Bayésienne. En conclusion, il n'est pas conseillé d'utiliser l'algorithme « washout » sans prendre en compte la non-linéarité de la perception humaine. Nous proposons un modèle qui décrit la relation entre le basculement, la translation et le niveau d'accélération ou décélération souhaité. Ce modèle peut être utilisé pour améliorer la loi du mouvement afin de produire des simulations de conduite plus réalistes. / Driving simulators allow the exploration of certain areas of research that are difficult to reach in normal conditions, like the integration of different sensory inputs (visual, vestibular and somesthesic) for perception of self-motion. In spite of their complexity, driving simulators do not produce a realistic sensation of driving, especially for braking and turnings. This is due to their mechanical limitations. As a consequence, driving simulators' motion algorithm is based on tilt-coordination technique, which assumes the tilt of the car so that the driver's force of gravity is oriented in the same way as the gravito-inertial acceleration (GIA) during a linear acceleration. This technique is based on the tilt-translation ambiguity of the vestibular system and is used on dynamic driving simulators in combination with linear translations in so-called washout algorithm, to produce a sensation of linear acceleration. The aim of the present research is to understand how humans use multiple sensory signals (vestibular, visual and somatosensory) during the perception of linear acceleration on a driving simulator. The conducted experiments show that the perception of motion depends on the manner tilt and translation are used together to provide a unified percept of linear acceleration. Further, our results show that there is an important difference on how humans perceive accelerations and decelerations. For braking, the most realistic tilt/translation ratio depends on the level of deceleration. For acceleration, the motion is generally overestimated and depends on the level of acceleration, but not on the variation of tilt/translation ratio. The results suggest that visual, vestibular and proprioceptive cues are integrated in an optimal Bayesian fashion. In conclusion, it is not advisable to use a washout algorithm without taking into account the non-linearity of human perception. We propose an empirically found data-driven fitting model that describes the relationship between tilt, translation and the desired level of acceleration or deceleration. This model is intended to be a supplement to motion cueing algorithms that should improve the realism of driving simulations.
23

Algorithmes d'accélération générique pour les méthodes d'optimisation en apprentissage statistique / Generic acceleration schemes for gradient-based optimization in machine learning

Lin, Hongzhou 16 November 2017 (has links)
Les problèmes d’optimisation apparaissent naturellement pendant l’entraine-ment de modèles d’apprentissage supervises. Un exemple typique est le problème deminimisation du risque empirique (ERM), qui vise a trouver un estimateur en mini-misant le risque sur un ensemble de données. Le principal défi consiste a concevoirdes algorithmes d’optimisation efficaces permettant de traiter un grand nombre dedonnées dans des espaces de grande dimension. Dans ce cadre, les méthodes classiques d’optimisation, telles que l’algorithme de descente de gradient et sa varianteaccélérée, sont couteux en termes de calcul car elles nécessitent de passer a traverstoutes les données a chaque évaluation du gradient. Ce défaut motive le développement de la classe des algorithmes incrémentaux qui effectuent des mises a jour avecdes gradients incrémentaux. Ces algorithmes réduisent le cout de calcul par itération, entrainant une amélioration significative du temps de calcul par rapport auxméthodes classiques. Une question naturelle se pose : serait-il possible d’accélérerdavantage ces méthodes incrémentales ? Nous donnons ici une réponse positive, enintroduisant plusieurs schémas d’accélération génériques.Dans le chapitre 2, nous développons une variante proximale de l’algorithmeFinito/MISO, qui est une méthode incrémentale initialement conçue pour des problèmes lisses et fortement convexes. Nous introduisons une étape proximale dans lamise a jour de l’algorithme pour prendre en compte la pénalité de régularisation quiest potentiellement non lisse. L’algorithme obtenu admet un taux de convergencesimilaire a l’algorithme Finito/MISO original.Dans le chapitre 3, nous introduisons un schéma d’accélération générique, appele Catalyst, qui s’applique a une grande classe de méthodes d’optimisation, dansle cadre d’optimisations convexes. La caractéristique générique de notre schémapermet l’utilisateur de sélectionner leur méthode préférée la plus adaptée aux problemes. Nous montrons que en appliquant Catalyst, nous obtenons un taux deconvergence accélère. Plus important, ce taux coïncide avec le taux optimale desméthodes incrémentales a un facteur logarithmique pres dans l’analyse du pire descas. Ainsi, notre approche est non seulement générique mais aussi presque optimale du point de vue théorique. Nous montrons ensuite que l’accélération est bienprésentée en pratique, surtout pour des problèmes mal conditionnes.Dans le chapitre 4, nous présentons une seconde approche générique qui appliqueles principes Quasi-Newton pour accélérer les méthodes de premier ordre, appeléeQNing. Le schéma s’applique a la même classe de méthodes que Catalyst. En outre,il admet une simple interprétation comme une combinaison de l’algorithme L-BFGSet de la régularisation Moreau-Yosida. A notre connaissance, QNing est le premieralgorithme de type Quasi-Newton compatible avec les objectifs composites et lastructure de somme finie.Nous concluons cette thèse en proposant une extension de l’algorithme Catalyst au cas non convexe. Il s’agit d’un travail en collaboration avec Dr. CourtneyPaquette et Pr. Dmitriy Drusvyatskiy, de l’Université de Washington, et mes encadrants de thèse. Le point fort de cette approche réside dans sa capacité a s’adapterautomatiquement a la convexité. En effet, aucune information sur la convexité de lafonction n’est nécessaire avant de lancer l’algorithme. Lorsque l’objectif est convexe,l’approche proposée présente les mêmes taux de convergence que l’algorithme Catalyst convexe, entrainant une accélération. Lorsque l’objectif est non-convexe, l’algorithme converge vers les points stationnaires avec le meilleur taux de convergencepour les méthodes de premier ordre. Des résultats expérimentaux prometteurs sontobserves en appliquant notre méthode a des problèmes de factorisation de matriceparcimonieuse et a l’entrainement de modèles de réseaux de neurones. / Optimization problems arise naturally in machine learning for supervised problems. A typical example is the empirical risk minimization (ERM) formulation, which aims to find the best a posteriori estimator minimizing the regularized risk on a given dataset. The current challenge is to design efficient optimization algorithms that are able to handle large amounts of data in high-dimensional feature spaces. Classical optimization methods such as the gradient descent algorithm and its accelerated variants are computationally expensive under this setting, because they require to pass through the entire dataset at each evaluation of the gradient. This was the motivation for the recent development of incremental algorithms. By loading a single data point (or a minibatch) for each update, incremental algorithms reduce the computational cost per-iteration, yielding a significant improvement compared to classical methods, both in theory and in practice. A natural question arises: is it possible to further accelerate these incremental methods? We provide a positive answer by introducing several generic acceleration schemes for first-order optimization methods, which is the main contribution of this manuscript. In chapter 2, we develop a proximal variant of the Finito/MISO algorithm, which is an incremental method originally designed for smooth strongly convex problems. In order to deal with the non-smooth regularization penalty, we modify the update by introducing an additional proximal step. The resulting algorithm enjoys a similar linear convergence rate as the original algorithm, when the problem is strongly convex. In chapter 3, we introduce a generic acceleration scheme, called Catalyst, for accelerating gradient-based optimization methods in the sense of Nesterov. Our approach applies to a large class of algorithms, including gradient descent, block coordinate descent, incremental algorithms such as SAG, SAGA, SDCA, SVRG, Finito/MISO, and their proximal variants. For all of these methods, we provide acceleration and explicit support for non-strongly convex objectives. The Catalyst algorithm can be viewed as an inexact accelerated proximal point algorithm, applying a given optimization method to approximately compute the proximal operator at each iteration. The key for achieving acceleration is to appropriately choose an inexactness criteria and control the required computational effort. We provide a global complexity analysis and show that acceleration is useful in practice. In chapter 4, we present another generic approach called QNing, which applies Quasi-Newton principles to accelerate gradient-based optimization methods. The algorithm is a combination of inexact L-BFGS algorithm and the Moreau-Yosida regularization, which applies to the same class of functions as Catalyst. To the best of our knowledge, QNing is the first Quasi-Newton type algorithm compatible with both composite objectives and the finite sum setting. We provide extensive experiments showing that QNing gives significant improvement over competing methods in large-scale machine learning problems. We conclude the thesis by extending the Catalyst algorithm into the nonconvex setting. This is a joint work with Courtney Paquette and Dmitriy Drusvyatskiy, from University of Washington, and my PhD advisors. The strength of the approach lies in the ability of the automatic adaptation to convexity, meaning that no information about the convexity of the objective function is required before running the algorithm. When the objective is convex, the proposed approach enjoys the same convergence result as the convex Catalyst algorithm, leading to acceleration. When the objective is nonconvex, it achieves the best known convergence rate to stationary points for first-order methods. Promising experimental results have been observed when applying to sparse matrix factorization problems and neural network models.
24

Interaction faisceau-plasma dans un plasma aleatoirement non-homogene du vent solaire / Beam-plasma interaction in randomly inhomogeneous solar wind

Voshchepynets, Andrii 09 November 2015 (has links)
Dans cette thèse nous avons présenté un modèle probabiliste auto cohérent décrivant la relaxation d'un faisceau d'électrons dans un vent solaire dont les fluctuations aléatoires de la densité ont les mêmes propriétés spectrales que celles mesurées à bord de satellites. On a supposé que, le système possédait différentes échelles caractéristiques en plus de l'échelle caractéristique des fluctuations de densité. Ceci nous a permis de décrire avec précision l'interaction onde-particule à des échelles inférieures à l'échelle caractéristique des fluctuations de densité en supposant que des paramètres d'onde sont connus: notamment, la phase, la fréquence et l'amplitude. Cependant, pour des échelles suffisamment plus grandes que l'échelle caractéristique des irrégularités de densité, l'interaction des ondes et des particules ne peut être caractérisée déterminé que par des quantités statistiques moyennes dans l'espace des vitesses à savoir: le taux de croissance/amortissement et le coefficient de diffusion des particules. En utilisant notre modèle, nous décrivons l'évolution de la fonction de distribution des électrons et d'énergie des ondes de Langmuir. Le schéma 1D suggérée est applicable pour des paramètres physiques de plasma du vent solaire à différentes distances du Soleil. Ainsi, nous pouvons utiliser nos calculs pour décrire des émissions solaires de Type III, ainsi que les interactions de faisceau avec le plasma, à des distances d'une Unité Astronomique du Soleil dans l'héliosphère et au voisinage des chocs planétaires. / This thesis is dedicated to effects of plasma density fluctuations in the solar wind on the relaxation of the electron beams ejected from the Sun. The density fluctuations are supposed to be responsible for the changes in the local phase velocity of the Langmuir waves generated by the beam instability. Changes in the wave phase velocity during the wave propagation can be described in terms of probability distribution function determined by distribution of the density fluctuations. Using these probability distributions we describe resonant wave particle interactions by a system of equations, similar to well known quasi-linear approximation, where the conventional velocity diffusion coefficient and the wave growth rate are replaced by the averaged in the velocity space. It was shown that the process of relaxation of electron beam is accompanied by transformation of significant part of the beam kinetic energy to energy of the accelerated particles via generation and absorption of the Langmuir waves. We discovered that for the very rapid beams the relaxation process consists of two well separated steps. On first step the major relaxation process occurs and the wave growth rate almost everywhere in the velocity space becomes close to zero or negative. At the seconde stage the system remains in the state close to state of marginal stability enough long to explain how the beam may be preserved traveling distances over 1 AU while still being able to generate the Langmuir waves.
25

Méthode de décomposition de domaines pour l’équation de Schrödinger / Domain decomposition method for Schrödinger equation

Xing, Feng 28 November 2014 (has links)
Ce travail de thèse porte sur le développement et la mise en oeuvre des méthodes de décomposition de domaines (DD) pour les équations de Schrödinger linéaires ou non-linéaires en une ou deux dimensions d'espace. Dans la première partie, nous considérons la méthode de relaxation d'ondes de Schwarz (SWR) pour l'équation de Schrödinger en une dimension. Dans le cas où le potentiel est linéaire et indépendant du temps, nous proposons un nouvel algorithme qui est scalable et permet une forte réduction du temps de calcul comparativement à l'algorithme classique. Pour un potentiel général, nous utilisons un opérateur linéaire préalablement défini comme un préconditionneur. Cela permet d'assurer une forte scalabilité. Nous généralisons également les travaux de Halpern et Szeftel sur la condition de transmission en utilisant des conditions absorbantes construites récemment par Antoine, Besse et Klein. Par ailleurs, nous portons les codes développés sur Cpu sur des accélérateurs Gpu. La deuxième partie concerne les méthodes DD pour l'équation de Schrödinger en deux dimensions. Nous généralisons le nouvel algorithme et l'algorithme avec préconditionneur proposés au cas de la dimension deux. Dans le chapitre 6, nous généralisons les travaux de Loisel sur la méthode de Schwarz optimisée avec points de croisement pour l'équation de Laplace, qui conduit à la méthode SWR avec points de croisement. Dans la dernière partie, nous appliquons les méthodes DD que nous avons étudiées à la simulation de condensat de Bose-Einstein qui permettent de diminuer le temps de calcul, mais aussi de réaliser des simulations plus grosses. / This thesis focuses on the development and implementation of domain decomposition methods (DD) for the linear or non-linear Schrödinger equations in one or two dimensions. In the first part, we focus on the Schwarz waveform relaxation method (SWR) for the one dimensional Schrödinger equation. In the case the potential is linear and time-independent, we propose a new algorithm that is scalable and allows a significant reduction of computation time compared with the classical algorithm. For a general potential, we use a linear operator previously defined as a preconditioner. This ensures high scalability. We also generalize the work of Halpern and Szeftel on transmission condition. We use the absorbing boundary conditions recently constructed by Antoine, Besse and Klein as the transmission condition. We also adapt the codes developed originally on Cpus to the Gpu. The second part concerns with the methods DD for the Schrödinger equation in two dimensions. We generalize the new algorithm and the preconditioned algorithm proposed in the first part to the case of two dimensions. Furthermore, in Chapter 6, we generalize the work of Loisel on the optimized Schwarz method with cross points for the Laplace equation, which leads to the SWR method with cross points. In the last part, we apply the domain decomposition methods we studied to the simulation of Bose-Einstein condensate that could not only reduce the total computation time, but also realise the larger simulations.
26

Influence de l'accélération de la gravité sur les réponses cardio-respiratoires à l'exercice chez l'homme / The influence of acceleration on human cardio-respiratory responses during physical exercise

Bonjour, Julien 06 December 2010 (has links)
Afin de mieux comprendre et de préciser les réponses cardio-respiratoires chez l'homme lors d'exercices physiques effectués à des niveaux de gravité (ag) différents, des expérimentations en hypergravité et des analyses de données obtenues en microgravité ont été réalisées.Ainsi nous avons pu identifier les variables influençant la cinétique des réponses cardio-pulmonaires en fonction d‘ag lors de la pratique d'exercices physiques, et proposer un modèle prédictif de la dépense énergétique en fonction d'ag. Il ressort de nos analyses que les effets de ag sur la consommation d'oxygène (VO2) sont déterminés par des changements de la puissance métabolique interne et non pas par des changements de la puissance mécanique ou de la VO2 de repos. Quant à la consommation maximale d'oxygène (VO2 max) estimée, celle-ci diminue de façon importante en fonction de l'augmentation d'ag. Selon nos estimations, la VO2 max serait atteinte au repos à une valeur d'ag de 4.5 G. Ceci indiquerait que l'être humain serait dans l'impossibilité d'effectuer le moindre travail sur les plus grandes planètes du système solaire, rendant ainsi leur colonisation impossible / In order to better understand and clarify the cardio-respiratory responses of humans to physical exercise at varying levels of gravity acceleration (ag) we have set up experiments in hypergravity and we have analyzed data obtained in microgravity. We have thus been able to identify the variables that influence the kinetics of cardio-pulmonary Reponses in function of ag during physical exercise and propose a model that predicts the amount of energy spent when ag varies. From our analysis, it appears that the effects of ag on oxygen consumption (VO2) depend on variations in internal metabolic power and not at all on changes in mechanical power nor on the rest oxygen consumption. We found out that the estimated maximal consumption (VO2 max) of oxygen goes down considerably when ag augments. According to our estimations, the VO2 max is likely to be reached at rest when ag is 4.5 G. T. This seems to indicate that a human would be unable to perform the slightest work on the largest planets of our solar system, thus making the colonization of these planets impossible
27

Hardware Acceleration for Homomorphic Encryption / Accélération matérielle pour la cryptographie homomorphe

Cathebras, Joël 17 December 2018 (has links)
Dans cette thèse, nous nous proposons de contribuer à la définition de systèmes de crypto-calculs pour la manipulation en aveugle de données confidentielles. L’objectif particulier de ce travail est l’amélioration des performances du chiffrement homomorphe. La problématique principale réside dans la définition d’une approche d’accélération qui reste adaptable aux différents cas applicatifs de ces chiffrements, et qui, de ce fait, est cohérente avec la grande variété des paramétrages. C’est dans cet objectif que cette thèse présente l’exploration d’une architecture hybride de calcul pour l’accélération du chiffrement de Fan et Vercauteren (FV).Cette proposition résulte d’une analyse de la complexité mémoire et calculatoire du crypto-calcul avec FV. Une partie des contributions rend plus efficace l’adéquation d’un système non-positionnel de représentation des nombres (RNS) avec la multiplication de polynôme par transformée de Fourier sur corps finis (NTT). Les opérations propres au RNS, facilement parallélisables, sont accélérées par une unité de calcul SIMD type GPU. Les opérations de NTT à la base des multiplications de polynôme sont implémentées sur matériel dédié de type FPGA. Des contributions spécifiques viennent en soutien de cette proposition en réduisant le coût mémoire et le coût des communications pour la gestion des facteurs de rotation des NTT.Cette thèse ouvre des perspectives pour la définition de micro-serveurs pour la manipulation de données confidentielles à base de chiffrement homomorphe. / In this thesis, we propose to contribute to the definition of encrypted-computing systems for the secure handling of private data. The particular objective of this work is to improve the performance of homomorphic encryption. The main problem lies in the definition of an acceleration approach that remains adaptable to the different application cases of these encryptions, and which is therefore consistent with the wide variety of parameters. It is for that objective that this thesis presents the exploration of a hybrid computing architecture for accelerating Fan and Vercauteren’s encryption scheme (FV).This proposal is the result of an analysis of the memory and computational complexity of crypto-calculation with FV. Some of the contributions make the adequacy of a non-positional number representation system (RNS) with polynomial multiplication Fourier transform over finite-fields (NTT) more effective. RNS-specific operations, inherently embedding parallelism, are accelerated on a SIMD computing unit such as GPU. NTT-based polynomial multiplications are implemented on dedicated hardware such as FPGA. Specific contributions support this proposal by reducing the storage and the communication costs for handling the NTTs’ twiddle factors.This thesis opens up perspectives for the definition of micro-servers for the manipulation of private data based on homomorphic encryption.
28

Approches de parallélisation automatique et d'ordonnancement pour la co-simulation de modèles numériques sur processeurs multi-coeurs / Automatic parallelization and scheduling approaches for co-simulation of numerical models on multi-core processors

Saidi, Salah Eddine 18 April 2018 (has links)
Lors de la conception de systèmes cyber-physiques, des modèles issus de différents environnements de modélisation doivent être intégrés afin de simuler l'ensemble du système et estimer ses performances. Si certaines parties du système sont disponibles, il est possible de connecter ces parties à la simulation dans une approche Hardware-in-the-Loop (HiL). La simulation doit alors être effectuée en temps réel où les modèles réagissent périodiquement aux composants réels. En utilisant des modèles complexes, il devient difficile d'assurer une exécution rapide ou en temps réel sans utiliser des architectures multiprocesseurs. FMI (Functional Mocked-up Interface), un standard pour l'échange de modèles et la co-simulation, offre de nouvelles possibilités d'exécution multi-cœurs des modèles. L'un des objectifs de cette thèse est de permettre l'extraction du parallélisme potentiel dans une co-simulation multi-rate. Nous nous appuyons sur l'approche RCOSIM qui permet la parallélisation de modèles FMI. Des améliorations sont proposées dans le but de surmonter les limitations de RCOSIM. Nous proposons de nouveaux algorithmes pour permettre la prise en charge de modèles multi-rate. Les améliorations permettent de gérer des contraintes spécifiques telles que l'exclusion mutuelle et les contraintes temps réel. Nous proposons des algorithmes pour l'ordonnancement des co-simulations, en tenant compte de différentes contraintes. Ces algorithmes visent à accélérer la co-simulation ou assurer son exécution temps réel dans une approche HiL. Les solutions proposées sont testées sur des co-simulations synthétiques et validées sur un cas industriel. / When designing cyber-physical systems, engineers have to integrate models from different modeling environments in order to simulate the whole system and estimate its global performances. If some parts of the system are available, it is possible to connect these parts to the simulation in a Hardware-in-the-Loop (HiL) approach. In this case, the simulation has to be performed in real-time where models periodically react to the real components. The increase of requirements on the simulation accuracy and its validity domain requires more complex models. Using such models, it becomes hard to ensure fast or real-time execution without using multiprocessor architectures. FMI (Functional Mocked-up Interface), a standard for model exchange and co-simulation, offers new opportunities for multi-core execution of models. One goal of this thesis is the extraction of potential parallelism in a set of interconnected multi-rate models. We build on the RCOSIM approach which allows the parallelization of FMI models. In the first part of the thesis, improvements have been proposed to overcome the limitations of RCOSIM. We propose new algorithms in order to allow handling multi-rate models and schedule them on multi-core processors. The improvements allow handling specific constraints such as mutual exclusion and real-time constraints. Second, we propose algorithms for the allocation and scheduling of co-simulations, taking into account different constraints. These algorithms aim at accelerating the execution of the co-simulation or ensuring its real-time execution in a HiL approach. The proposed solutions have been tested on synthetic co-simulations and validated against an industrial use case.
29

Modeling the interaction between a few-cycle relativistic laser pulse and a plasma mirror : from electron acceleration to harmonic generation / Modélisation de l’interaction d'une impulsion laser femtoseconde avec des plasmas sur-denses : de l’accélération d’électrons à la génération d’harmoniques

Thévenet, Maxence 05 December 2016 (has links)
Lorsqu'une impulsion laser est focalisée à une intensité relativiste sur une cible solide, le matériau est instantanément ionisé et forme un miroir plasma, c'est-à-dire un plasma surdense présentant un court gradient de densité sur sa face avant. La réflexion de l'impulsion laser génère alors des harmoniques élevées dans l'impulsion réfléchie, et des électrons peuvent être accélérés hors de la cible. Si la génération d'harmoniques est bien comprise, l'accélération des électrons reste, à ce jour, mal expliquée. Basée sur des résultats expérimentaux obtenus sur deux lasers femtosecondes ultraintenses (le laser "Salle Noire" au LOA et le laser UHI100 au CEA), cette thèse théorique et numérique porte sur le mécanisme d'accélération des électrons en suivant trois axes de recherche. Premièrement, à l'aide de simulations numériques de type particle-in-cell, nous identifions le mécanisme d'éjection des électrons de la surface qui a lieu à l'échelle du cycle optique. En particulier, le rôle déterminant des champs à l'intérieur du plasma a été mis en évidence, et ce travail montre que la longueur caractéristique du gradient de densité est un paramètre fondamental de cette interaction. Deuxièmement, après l'éjection du plasma, les électrons peuvent être accélérés par les champs laser de l'impulsion réfléchie. Ce processus, appelé "accélération laser dans le vide", avait été peu étudié expérimentalement en raison de la difficulté d'injecter des électrons directement au centre d'une impulsion laser intense. Le miroir plasma constitue une solution à ce problème, servant d'injecteur à électrons. Grâce à un modèle présenté dans cette thèse, nous avons pu interpréter les résultats expérimentaux obtenus sur le laser UHI100 du CEA. En particulier, nous démontrons que ces expériences ont conduit pour la première fois à l'accélération dans le vide d'un faisceau d'électrons de charge élevée (3 nC) jusqu'à des énergies relativistes (10 MeV). Enfin, la génération d'harmoniques lors de cette interaction peut se produire suivant deux mécanismes : l'accélération cohérente de sillage à faible intensité et le miroir oscillant relativiste à haute intensité. La comparaison entre l'éjection d'électrons et chacun de ces mécanismes apporte de nouvelles informations sur la dynamique à l'échelle nanométrique de la surface plasma. / When a laser pulse with a relativistic intensity is focused onto a solid target, the material is instantly ionized and forms a plasma mirror, namely an overdense plasma with a short density gradient on its front side. During the laser pulse reflection, high harmonics are generated in the reflected pulse, and electrons can be accelerated out of the target. While the mechanisms for high harmonic generation are well-known, the acceleration of electrons remained unclear. Based on experimental results from two ultraintense femtosecond laser systems (the "Salle Noire" laser at LOA and the UHI100 laser at CEA), this theoretical and numerical thesis unravels the mechanisms for ejection and acceleration of electrons, following three research lines. First, using particle-in-cell numerical simulations, we identify the ejection mechanism occuring during every laser period at the plasma surface. In particular, the role of the fields inside the plasma is highlighted, and the scale length of the plasma density gradient is shown to be a key parameter. Second, after being ejected from the plasma surface, electrons can be accelerated by the laser fields in the reflected pulse. This so-called "vacuum laser acceleration" had not been studied extensively in experiments, the biggest hurdle being to inject electrons directly inside an ultraintense laser pulse. Plasma mirrors offer an answer to this question and serve as electron injectors. In this thesis, we develop a model to interpret experimental results obtained on the UHI100 laser at CEA. In particular, we show that these experiments lead to the first observation of vacuum laser acceleration of a high-charge (3 nC) electron beam to relativistic energies (10 MeV). Finally, high harmonic generation may occur via two mechanisms: coherent wake emission at low intensity and the relativistic oscillating mirror effect at high intensity. Comparing electron ejection with each of these mechanisms brought new insights into the nanoscale dynamics of the plasma surface.
30

Amélioration de la rapidité d'exécution des systèmes EDO de grande taille issus de Modelica / Improvement of execution speed of large scale ODE systems from Modelica

Gallois, Thibaut-Hugues 03 December 2015 (has links)
L'étude des systèmes aux équations différentielles ordinaires vise à prédire le futur des systèmes considérés. La connaissance de l'évolution dans le temps de toutes les variables d' état du modèle permet de prédire de possibles changements radicaux des variables ou des défaillances, par exemple, un moteur peut exploser, un pont peut s'écrouler, une voiture peut se mettre à consommer plus d'essence. De plus, les systèmes dynamiques peuvent contenir des dérivées spatiales et leur discrétisation peut ajouter un très grand nombre d'équations. La résolution des équations différentielles ordinaires est alors une étape essentielle dans la construction des systèmes physiques en terme de dimensionnement et de faisabilité. Le solveur de tels systèmes EDOs doit être rapide, précis et pertinent.En pratique, il n'est pas possible de trouver une fonction continue qui soit solution exacte du problème EDO. C'est pourquoi, des méthodes numériques sont utilisées afin de donner des solutions discrèes qui approchent la solution continue avec une erreur contrôlable. La gestion précise de ce contrôle est très importante afin d'obtenir une solution pertinente en un temps raisonnable.Cette thèse développe un nouveau solveur qui utilise plusieurs méthodes d'amélioration de la vitesse d'exécution des systèmes EDOs. La première méthode est l'utilisation d'un nouveau schéma numérique. Le but est de minimiser le coût de l'intégration en produisant une erreur qui soit le plus proche possible de la tolérance maximale permise par l'utilisateur du solveur. Une autre méthode pour améliorer la vitesse d'exécution est de paralléliser le solveur EDO en utilisant une architecture multicoeur et multiprocesseur. Enfin, le solveur a été testé avec différentes applications d'OpenModelica. / The study of systems of Ordinary Differential Equations aims at predicting the future of the considered systems. The access to the evolution of all states of a system's model allows us to predict possible drastic shifts of the states or failures, e.g. an engine blowing up, a bridge collapsin, a car consuming more gasoline etc. Solving ordinary differential equations is then an essential step of building industrial physical systems in regard to dimensioning and reliability. The solver of such ODE systems needs to be fast, accurate and relevant.In practice, it is not possible to find a continuous function as the exact solution of the real ODE problem. Consequently numerical methods are used to give discrete solutions which approximates the continuous one with a controllable error. The correct handline of this control is very important to get a relevant solution within an acceptable recovery time. Starting from existing studies of local and global errors, this thesis work goes more deeply and adjusts the time step of the integration time algorithm and solves the problem in a very efficient manner.A new scheme is proposed is this thesis, to minimize the cost of integration. Another method to improve the execution speed is to parallelize the ODE solver by using a multicore and a multiprocessor architecture. Finally, the solver has been tested with different applications from OpenModelica.

Page generated in 0.142 seconds