• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 108
  • 57
  • 5
  • 1
  • Tagged with
  • 167
  • 64
  • 55
  • 44
  • 39
  • 38
  • 27
  • 26
  • 23
  • 20
  • 19
  • 17
  • 16
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Modélisation spatio-temporelle de la pollution atmosphérique urbaine à partir d'un réseau de surveillance de la qualité de l'air / Spatio-temporal modelling of atmospheric pollution based on observations provided by an air quality monitoring network at a regional scale

Coman, Adriana 26 September 2008 (has links)
Cette étude est consacrée à la modélisation spatio-temporelle de la pollution atmosphérique urbaine en utilisant un ensemble de méthodes statistiques exploitant les mesures de concentrations de polluants (NO2, O3) fournies par un réseau de surveillance de la qualité de l'air (AIRPARIF). Le principal objectif visé est l'amélioration de la cartographie des champs de concentration de polluants (le domaine d'intérêt étant la région d'Île-de-France) en utilisant, d'une part, des méthodes d'interpolation basées sur la structure spatiale ou spatio-temporelle des observations (krigeage spatial ou spatio-temporel), et d'autre part, des algorithmes, prenant en compte les mesures, pour corriger les sorties d'un modèle déterministe (Filtre de Kalman d'Ensemble). Les résultats obtenus montrent que dans le cas du dioxyde d'azote la cartographie basée uniquement sur l'interpolation spatiale (le krigeage) conduit à des résultats satisfaisants, car la répartition spatiale des stations est bonne. En revanche, pour l'ozone, c'est l'assimilation séquentielle de données appliquée au modèle (CHIMERE) qui permet une meilleure reconstitution de la forme et de la position du panache pendant les épisodes de forte pollution analysés. En complément de la cartographie, un autre but de ce travail est d'effectuer localement la prévision des niveaux d'ozone sur un horizon de 24 heures. L'approche choisie est celle mettant en œuvre des méthodes de type réseaux neuronaux. Les résultats obtenus en appliquant deux types d'architectures neuronales indiquent une précision correcte surtout pour les 8 premières heures de l'horizon de prédiction / This study is devoted to the spatio-temporal modelling of air pollution at a regional scale using a set of statistical methods in order to treat the measurements of pollutant concentrations (NO2, O3) provided by an air quality monitoring network (AIRPARIF). The main objective is the improvement of the pollutant _elds mapping using either interpolation methods based on the spatial or spatio-temporal structure of the data (spatial or spatiotemporal kriging) or some algorithms taking into account the observations, in order to correct the concentrations simulated by a deterministic model (Ensemble Kalman Filter). The results show that nitrogen dioxide mapping based only on spatial interpolation (kriging) gives the best results, while the spatial repartition of the monitoring sites is good. For the ozone mapping it is the sequential data assimilation that leads us to a better reconstruction of the plume's form and position for the analyzed cases. Complementary to the pollutant mapping, another objective was to perform a local prediction of ozone concentrations on a 24-hour horizon; this task was performed using Artificial Neural Networks. The performance indices obtained using two types of neural architectures indicate a fair accuracy especially for the first 8 hours of prediction horizon
112

Régression linéaire et apprentissage : contributions aux méthodes de régularisation et d’agrégation / Linear regression and learning : contributions to regularization and aggregation methods

Deswarte, Raphaël 27 September 2018 (has links)
Cette thèse aborde le sujet de la régression linéaire dans différents cadres, liés notamment à l’apprentissage. Les deux premiers chapitres présentent le contexte des travaux, leurs apports et les outils mathématiques utilisés. Le troisième chapitre est consacré à la construction d’une fonction de régularisation optimale, permettant par exemple d’améliorer sur le plan théorique la régularisation de l’estimateur LASSO. Le quatrième chapitre présente, dans le domaine de l’optimisation convexe séquentielle, des accélérations d’un algorithme récent et prometteur, MetaGrad, et une conversion d’un cadre dit “séquentiel déterministe" vers un cadre dit “batch stochastique" pour cet algorithme. Le cinquième chapitre s’intéresse à des prévisions successives par intervalles, fondées sur l’agrégation de prédicteurs, sans retour d’expérience intermédiaire ni modélisation stochastique. Enfin, le sixième chapitre applique à un jeu de données pétrolières plusieurs méthodes d’agrégation, aboutissant à des prévisions ponctuelles court-terme et des intervalles de prévision long-terme. / This thesis tackles the topic of linear regression, within several frameworks, mainly linked to statistical learning. The first and second chapters present the context, the results and the mathematical tools of the manuscript. In the third chapter, we provide a way of building an optimal regularization function, improving for instance, in a theoretical way, the LASSO estimator. The fourth chapter presents, in the field of online convex optimization, speed-ups for a recent and promising algorithm, MetaGrad, and shows how to transfer its guarantees from a so-called “online deterministic setting" to a “stochastic batch setting". In the fifth chapter, we introduce a new method to forecast successive intervals by aggregating predictors, without intermediate feedback nor stochastic modeling. The sixth chapter applies several aggregation methods to an oil production dataset, forecasting short-term precise values and long-term intervals.
113

Planification d’expériences numériques en multi-fidélité : Application à un simulateur d’incendies / Sequential design of numerical experiments in multi-fidelity : Application to a fire simulator

Stroh, Rémi 26 June 2018 (has links)
Les travaux présentés portent sur l'étude de modèles numériques multi-fidèles, déterministes ou stochastiques. Plus précisément, les modèles considérés disposent d'un paramètre réglant la qualité de la simulation, comme une taille de maille dans un modèle par différences finies, ou un nombre d'échantillons dans un modèle de Monte-Carlo. Dans ce cas, il est possible de lancer des simulations basse fidélité, rapides mais grossières, et des simulations haute fidélité, fiables mais coûteuses. L'intérêt d'une approche multi-fidèle est de combiner les résultats obtenus aux différents niveaux de fidélité afin d'économiser du temps de simulation. La méthode considérée est fondée sur une approche bayésienne. Le simulateur est décrit par un modèle de processus gaussiens multi-niveaux développé dans la littérature que nous adaptons aux cas stochastiques dans une approche complètement bayésienne. Ce méta-modèle du simulateur permet d'obtenir des estimations de quantités d'intérêt, accompagnés d'une mesure de l'incertitude associée. L'objectif est alors de choisir de nouvelles expériences à lancer afin d'améliorer les estimations. En particulier, la planification doit sélectionner le niveau de fidélité réalisant le meilleur compromis entre coût d'observation et gain d'information. Pour cela, nous proposons une stratégie séquentielle adaptée au cas où les coûts d'observation sont variables. Cette stratégie, intitulée "Maximal Rate of Uncertainty Reduction" (MRUR), consiste à choisir le point d'observation maximisant le rapport entre la réduction d'incertitude et le coût. La méthodologie est illustrée en sécurité incendie, où nous cherchons à estimer des probabilités de défaillance d'un système de désenfumage. / The presented works focus on the study of multi-fidelity numerical models, deterministic or stochastic. More precisely, the considered models have a parameter which rules the quality of the simulation, as a mesh size in a finite difference model or a number of samples in a Monte-Carlo model. In that case, the numerical model can run low-fidelity simulations, fast but coarse, or high-fidelity simulations, accurate but expensive. A multi-fidelity approach aims to combine results coming from different levels of fidelity in order to save computational time. The considered method is based on a Bayesian approach. The simulator is described by a state-of-art multilevel Gaussian process model which we adapt to stochastic cases in a fully-Bayesian approach. This meta-model of the simulator allows estimating any quantity of interest with a measure of uncertainty. The goal is to choose new experiments to run in order to improve the estimations. In particular, the design must select the level of fidelity meeting the best trade-off between cost of observation and information gain. To do this, we propose a sequential strategy dedicated to the cases of variable costs, called Maximum Rate of Uncertainty Reduction (MRUR), which consists of choosing the input point maximizing the ratio between the uncertainty reduction and the cost. The methodology is illustrated in fire safety science, where we estimate probabilities of failure of a fire protection system.
114

Neurobiologically-inspired models : exploring behaviour prediction, learning algorithms, and reinforcement learning

Spinney, Sean 11 1900 (has links)
Le développement du domaine de l’apprentissage profond doit une grande part de son avancée aux idées inspirées par la neuroscience et aux études sur l’apprentissage humain. De la découverte de l’algorithme de rétropropagation à la conception d’architectures neuronales comme les Convolutional Neural Networks, ces idées ont été couplées à l’ingénierie et aux améliorations technologiques pour engendrer des algorithmes performants en utilisation aujourd’hui. Cette thèse se compose de trois articles, chacun éclairant des aspects distincts du thème central de ce domaine interdisciplinaire. Le premier article explore la modélisation prédictive avec des données d’imagerie du cerveau de haute dimension en utilisant une nouvelle approche de régularisation hybride. Dans de nombreuses applications pratiques (comme l’imagerie médicale), l’attention se porte non seulement sur la précision, mais également sur l’interprétabilité d’un modèle prédictif formé sur des données haute dimension. Cette étude s’attache à combiner la régularisation l1 et l2, qui régularisent la norme des gradients, avec l’approche récemment proposée pour la modélisation prédictive robuste, l’Invariant Learning Consistency, qui impose l’alignement entre les gradients de la même classe lors de l’entraînement. Nous examinons ici la capacité de cette approche combinée à identifier des prédicteurs robustes et épars, et nous présentons des résultats prometteurs sur plusieurs ensembles de données. Cette approche tend à améliorer la robustesse des modèles épars dans presque tous les cas, bien que les résultats varient en fonction des conditions. Le deuxième article se penche sur les algorithmes d’apprentissage inspirés de la biologie, en se concentrant particulièrement sur la méthode Difference Target Propagation (DTP) tout en l’intégrant à l’optimisation Gauss-Newton. Le développement de tels algorithmes biologiquement plausibles possède une grande importance pour comprendre les processus d’apprentissage neuronale, cependant leur extensibilité pratique à des tâches réelles est souvent limitée, ce qui entrave leur potentiel explicatif pour l’apprentissage cérébral réel. Ainsi, l’exploration d’algorithmes d’apprentissage qui offrent des fondements théoriques solides et peuvent rivaliser avec la rétropropagation dans des tâches complexes gagne en importance. La méthode Difference Target Propagation (DTP) se présente comme une candidate prometteuse, caractérisée par son étroite relation avec les principes de l’optimisation Gauss-Newton. Néanmoins, la rigueur de cette relation impose des limites, notamment en ce qui concerne la formation couche par couche des poids synaptiques du chemin de rétroaction, une configuration considérée comme plus biologiquement plausible. De plus, l’alignement entre les mises à jour des poids DTP et les gradients de perte est conditionnel et dépend des scénarios d’architecture spécifiques. Cet article relève ces défis en introduisant un schéma innovant d’entraînement des poids de rétroaction. Ce schéma harmonise la DTP avec la BP, rétablissant la viabilité de la formation des poids de rétroaction couche par couche sans compromettre l’intégrité théorique. La validation empirique souligne l’efficacité de ce schéma, aboutissant à des performances exceptionnelles de la DTP sur CIFAR-10 et ImageNet 32×32. Enfin, le troisième article explore la planification efficace dans la prise de décision séquentielle en intégrant le calcul adaptatif à des architectures d’apprentissage profond existantes, dans le but de résoudre des casse-tête complexes. L’étude introduit des principes de calcul adaptatif inspirés des processus cognitifs humains, ainsi que des avancées récentes dans le domaine du calcul adaptatif. En explorant en profondeur les comportements émergents du modèle de mémoire adaptatif entraîné, nous identifions plusieurs comportements reconnaissables similaires aux processus cognitifs humains. Ce travail élargit la discussion sur le calcul adaptatif au-delà des gains évidents en efficacité, en explorant les comportements émergents en raison des contraintes variables généralement attribuées aux processus de la prise de décision chez les humains. / The development of the field of deep learning has benefited greatly from biologically inspired insights from neuroscience and the study of human learning more generally, from the discovery of backpropagation to neural architectures such as the Convolutional Neural Network. Coupled with engineering and technological improvements, the distillation of good strategies and algorithms for learning inspired from biological observation is at the heart of these advances. Although it would be difficult to enumerate all useful biases that can be learned by observing humans, they can serve as a blueprint for intelligent systems. The following thesis is composed of three research articles, each shedding light on distinct facets of the overarching theme. The first article delves into the realm of predictive modeling on high-dimensional fMRI data, a landscape where not only accuracy but also interpretability are crucial. Employing a hybrid approach blending l1 and l2 regularization with Invariant Learning Consistency, this study unveils the potential of identifying robust, sparse predictors capable of transmuting noise laden datasets into coherent observations useful for pushing the field forward. Conversely, the second article delves into the domain of biologically-plausible learning algorithms, a pivotal endeavor in the comprehension of neural learning processes. In this context, the investigation centers upon Difference Target Propagation (DTP), a prospective framework closely related to Gauss-Newton optimization principles. This exploration delves into the intricate interplay between DTP and the tenets of biologically-inspired learning mechanisms, revealing an innovative schema for training feedback weights. This schema reinstates the feasibility of layer-wise feedback weight training within the DTP framework, while concurrently upholding its theoretical integrity. Lastly, the third article explores the role of memory in sequential decision-making, and proposes a model with adaptive memory. This domain entails navigating complex decision sequences within discrete state spaces, where the pursuit of efficiency encounters difficult scenarios such as the risk of critical irreversibility. The study introduces adaptive computation principles inspired by human cognitive processes, as well as recent advances in adaptive computing. By studying in-depth the emergent behaviours exhibited by the trained adaptive memory model, we identify several recognizable behaviours akin to human cognitive processes. This work expands the discussion of adaptive computing beyond the obvious gains in efficiency, but to behaviours emerging due to varying constraints usually attributable to dynamic response times in humans.
115

Contribution à la géologie de la formation de Kerman (Paléocène) Iran central : étude sédimentologique et paléogéographique.

Rahimzadeh, Faramarz 29 November 1983 (has links) (PDF)
La formation de Kerman est entièrement détritique et synorogénétique, d'âge paléocène à éocène inférieur. Nous y distinguons deux subdivisions: Formation de Kerman inférieur: grès carbonatés à matrice très abondante (WACKE) ; Formation de Kerman supérieure, conglomératique grossière. La sédimentologie a permis de reconstituer l'histoire spatio-temporelle de cette formation: La phase orogénique laraminienne a provoqué le soulèvement et le plissement de la zone distributrice marquée par l'abondance des formations sédimentaires; les calcaires d'âge crétacé y jouent le rôle le plus important en fournissant l'essentiel des galets, tandis que des formations gréseuses préexistantes ont fourni les fractions fines de l'ensemble de cette formation (matrice des conglomérats et grés). A partir de leur province d'origine dont la localisation est précisée, les sédiments sont transportés par des appareils fluviatiles d'abord de faible énergie (formation de Kerman inférieure) puis de haute énergie (formation de Kerman supérieure) vers des bassins continentaux séparés. Le dépôt s'est effectué en milieu alcalin, à lessivage restreint ou confiné, sous un climat aride.
116

L'Urgonien du bassin d'Organya (NE Espagne) : micropaléontologie, sédimentologie et stratigraphie séquentielle

Bernaus, Josep-Maria 30 October 1998 (has links) (PDF)
L'étude des dépôts de l'Urgonien du Bassin d'Organyà a permis de caractériser les différentes séquences de dépôt superposées, limitées dans quelques cas par des surfaces émersives et érosives. L'étude sédimentologique et faciologique de détail a conduit à l'élaboration d'un modèle d'agencement de micro faciès et a permis également de mieux comprendre l'évolution verticale des milieux de dépôt du bassin étudié. L'inventaire micropaléontologique de la faune et de la flore présentes dans cet intervalle a été entrepris. Les données micropaléontologiques et sédimentologiques ont permis de caractériser précisément 6 séquences de dépôt. La comparaison de la répartition de la faune et la flore pyrénéennes avec celle des chaînes subalpines permet d'attribuer la première séquence à un âge Valanginien (séquence OR-0); les séquences OR-l, OR-2 et OR-3 caractérisent le Barrémien supérieur et les deux dernières séquences, OR-4 et OR-5, sont datées de l'Aptien inférieur. Quatre épisodes paléoenvironnementaux ont été identifiés dans cet intervalle stratigraphique : -le premier se compose d'un niveau calcaréo-marneux avec des influences terrigènes (séquence OR-0); -le second est formé par de niveaux carbonatés d'environnement de bordure de plate-forme (OR-l) et de lagon interne (faciès à rudistes et à orbitolinidés) (OR-2) ; -le troisième épisode se compose de grands dépôts de calcaires d'eau douce/eau saumâtre (calcaires à charophytes), très bien représentés dans les séquences OR-3 et OR-4; -le quatrième épisode marque l'interruption brutale de la sédimentation carbonatée et la fin des dépôts urgoniens dans ce bassin; cet épisode est caractérisé par un important dépôt de calcaires à foraminifères planctoniques très riches en matière organique qui apparaissaient déjà dans la séquence OR-4 et deviennent dominants dans la dernière séquence, OR-5. Une étude quantitative détaillée de la microfaune nous a permis de mettre en évidence des cortèges sédimentaires dans les séquences de dépôt ce qui n'était pas possible avec une étude normale des faciès. Deux périodes anoxiques ont été mises clairement en évidence à la fin des dépôts urgoniens et corrélées avec un des événements anoxiques mondiaux (OAE 1a).
117

Fonctionnement auditif central d’enfants ayant une surdité

Koravand, Amineh 08 1900 (has links)
La présente recherche explore les conséquences d’une perte auditive périphérique sur le traitement de l’information auditive. Des études ont montré que les enfants malentendants ont de la difficulté à effectuer des tâches d’écoute complexes. De plus, des études menées auprès d’adultes malentendants montrent que l’activité corticale associée à l’écoute de stimuli auditifs est différente de celle d’adultes entendants. Cependant, les résultats de ces études ne mettent pas en lumière la nature des difficultés de traitement de l’information auditive des enfants malentendants. Cette recherche examine donc cet aspect en ayant recours à des mesures comportementales et neurophysiologiques. Les données ont été recueillies auprès de 40 enfants âgés de 9 à 12 ans : 12 enfants ayant une surdité neurosensorielle, 12 enfants ayant trouble de traitement auditif et 16 enfants normo-entendants. Les enfants ont reproduit dans l’ordre des séquences de deux, trois et cinq stimuli verbaux ou non verbaux avec un intervalle interstimuli de 425 ms. Les enfants ont également reproduit des séquences de deux stimuli avec un intervalle interstimuli de 20 et 1000 ms. Enfin, les enfants ont été soumis à des mesures neurophysiologiques à partir de potentiels évoqués auditifs de latence longue et de négativité de discordance avec des paires de stimuli verbaux et non verbaux. Les résultats obtenus permettent d’avancer que les participants du groupe d’enfants malentendants ont un trouble spécifique de traitement auditif. En effet, les résultats de la tâche comportementale montrent que les enfants malentendants ont de la difficulté à traiter des séquences de stimuli lorsque ceux-ci sont verbaux et acoustiquement similaires. Quant aux données neurophysiologiques, les résultats ont démontré que l’amplitude de l’onde tardive N2 était réduite chez les enfants malentendants comparativement à celle de l’onde N2 des deux autres groupes d’enfants. Cette onde pourrait être considérée comme étant un marqueur neurophysiologique reflétant l’influence d’une perte auditive sur le traitement auditif central. De plus, l’amplitude de l’onde de négativité de discordance pourrait être aussi un marqueur pour distinguer les enfants malentendants de ceux ayant un trouble de traitement auditif.Mots-clés : organisation séquentielle auditive, potentiels évoqués auditifs de latence longue, négativité de discordance, enfants malentendants d’âge scolaire / The present research explores the effects of peripheral hearing loss on central auditory processing. Previous studies showed that children with hearing loss have significant difficulties in performing complex listening tasks. Moreover, studies of adults with hearing loss revealed that cortical activity related to listening to acoustic stimuli differed from that of adults without hearing loss. However, results of these studies do not clarify the nature of the difficulties in processing auditory information among children with hearing loss. The present research examines this issue using behavioural and neurophysiological measures. Behavioural and neurophysiological data were collected with forty 9- to 12-year-old children: 12 with hearing loss, 12 with central auditory processing disorder (CAPD) and 16 with normal hearing. Children repeated, in order, two, three, and five verbal and nonverbal stimuli with an interstimulus interval of 425 ms. They also repeated sequences of two stimuli with an interstimulus interval of 20 or 1000 ms. Finally, late-latency auditory evoked potentials and mismatch responses were recorded in the participants using pairs of verbal and nonverbal stimuli. Results suggest that children with hearing loss have a specific central auditory processing disorder. Results of the behavioural task showed that children with hearing loss had difficulty processing sequences of stimuli when the stimuli were verbal as well as similar and complex acoustically. As for the neurophysiological data, results indicated that the amplitude of late N2 waveform was smaller in children with hearing loss than in the other two groups of children. The N2 waveform has the potential to be a neurophysiological marker revealing the influence of hearing loss on central auditory processing. Moreover, the amplitude of the mismatch response could be another marker to distinguish the children with hearing loss from those with central auditory processing disorder. Keywords : Auditory sequential organization, late-latency auditory evoked potentials, mismatch responses, school-aged children with hearing loss
118

Contributions to Simulation-based High-dimensional Sequential Decision Making / Contributions sur la prise de décision séquentielle basée sur des simulations dans des environnements complexes de grande dimension

Hoock, Jean-Baptiste 10 April 2013 (has links)
Ma thèse s'intitule « Contributions sur la prise de décision séquentielle basée sur des simulations dans des environnements complexes de grande dimension ». Le cadre de la thèse s'articule autour du jeu, de la planification et des processus de décision markovien. Un agent interagit avec son environnement en prenant successivement des décisions. L'agent part d'un état initial jusqu'à un état final dans lequel il ne peut plus prendre de décision. A chaque pas de temps, l'agent reçoit une observation de l'état de l'environnement. A partir de cette observation et de ses connaissances, il prend une décision qui modifie l'état de l'environnement. L'agent reçoit en conséquence une récompense et une nouvelle observation. Le but est de maximiser la somme des récompenses obtenues lors d'une simulation qui part d'un état initial jusqu'à un état final. La politique de l'agent est la fonction qui, à partir de l'historique des observations, retourne une décision. Nous travaillons dans un contexte où (i) le nombre d'états est immense, (ii) les récompenses apportent peu d'information, (iii) la probabilité d'atteindre rapidement un bon état final est faible et (iv) les connaissances a priori de l'environnement sont soit inexistantes soit difficilement exploitables. Les 2 applications présentées dans cette thèse répondent à ces contraintes : le jeu de Go et le simulateur 3D du projet européen MASH (Massive Sets of Heuristics). Afin de prendre une décision satisfaisante dans ce contexte, plusieurs solutions sont apportées :1. simuler en utilisant le compromis exploration/exploitation (MCTS)2. réduire la complexité du problème par des recherches locales (GoldenEye)3. construire une politique qui s'auto-améliore (RBGP)4. apprendre des connaissances a priori (CluVo+GMCTS) L'algorithme Monte-Carlo Tree Search (MCTS) est un algorithme qui a révolutionné le jeu de Go. A partir d'un modèle de l'environnement, MCTS construit itérativement un arbre des possibles de façon asymétrique en faisant des simulations de Monte-Carlo et dont le point de départ est l'observation courante de l'agent. L'agent alterne entre l'exploration du modèle en prenant de nouvelles décisions et l'exploitation des décisions qui obtiennent statistiquement une bonne récompense cumulée. Nous discutons de 2 moyens pour améliorer MCTS : la parallélisation et l'ajout de connaissances a priori. La parallélisation ne résout pas certaines faiblesses de MCTS ; notamment certains problèmes locaux restent des verrous. Nous proposons un algorithme (GoldenEye) qui se découpe en 2 parties : détection d'un problème local et ensuite sa résolution. L'algorithme de résolution réutilise des principes de MCTS et fait ses preuves sur une base classique de problèmes difficiles. L'ajout de connaissances à la main est laborieuse et ennuyeuse. Nous proposons une méthode appelée Racing-based Genetic Programming (RBGP) pour ajouter automatiquement de la connaissance. Le point fort de cet algorithme est qu'il valide rigoureusement l'ajout d'une connaissance a priori et il peut être utilisé non pas pour optimiser un algorithme mais pour construire une politique. Dans certaines applications telles que MASH, les simulations sont coûteuses en temps et il n'y a ni connaissance a priori ni modèle de l'environnement; l'algorithme Monte-Carlo Tree Search est donc inapplicable. Pour rendre MCTS applicable dans MASH, nous proposons une méthode pour apprendre des connaissances a priori (CluVo). Nous utilisons ensuite ces connaissances pour améliorer la rapidité de l'apprentissage de l'agent et aussi pour construire un modèle. A partir de ce modèle, nous utilisons une version adaptée de Monte-Carlo Tree Search (GMCTS). Cette méthode résout de difficiles problématiques MASH et donne de bons résultats dans une application dont le but est d'améliorer un tirage de lettres. / My thesis is entitled "Contributions to Simulation-based High-dimensional Sequential Decision Making". The context of the thesis is about games, planning and Markov Decision Processes. An agent interacts with its environment by successively making decisions. The agent starts from an initial state until a final state in which the agent can not make decision anymore. At each timestep, the agent receives an observation of the state of the environment. From this observation and its knowledge, the agent makes a decision which modifies the state of the environment. Then, the agent receives a reward and a new observation. The goal is to maximize the sum of rewards obtained during a simulation from an initial state to a final state. The policy of the agent is the function which, from the history of observations, returns a decision. We work in a context where (i) the number of states is huge, (ii) reward carries little information, (iii) the probability to reach quickly a good final state is weak and (iv) prior knowledge is either nonexistent or hardly exploitable. Both applications described in this thesis present these constraints : the game of Go and a 3D simulator of the european project MASH (Massive Sets of Heuristics). In order to take a satisfying decision in this context, several solutions are brought : 1. Simulating with the compromise exploration/exploitation (MCTS) 2. Reducing the complexity by local solving (GoldenEye) 3. Building a policy which improves itself (RBGP) 4. Learning prior knowledge (CluVo+GMCTS) Monte-Carlo Tree Search (MCTS) is the state of the art for the game of Go. From a model of the environment, MCTS builds incrementally and asymetrically a tree of possible futures by performing Monte-Carlo simulations. The tree starts from the current observation of the agent. The agent switches between the exploration of the model and the exploitation of decisions which statistically give a good cumulative reward. We discuss 2 ways for improving MCTS : the parallelization and the addition of prior knowledge. The parallelization does not solve some weaknesses of MCTS; in particular some local problems remain challenges. We propose an algorithm (GoldenEye) which is composed of 2 parts : detection of a local problem and then its resolution. The algorithm of resolution reuses some concepts of MCTS and it solves difficult problems of a classical database. The addition of prior knowledge by hand is laborious and boring. We propose a method called Racing-based Genetic Programming (RBGP) in order to add automatically prior knowledge. The strong point is that RBGP rigorously validates the addition of a prior knowledge and RBGP can be used for building a policy (instead of only optimizing an algorithm). In some applications such as MASH, simulations are too expensive in time and there is no prior knowledge and no model of the environment; therefore Monte-Carlo Tree Search can not be used. So that MCTS becomes usable in this context, we propose a method for learning prior knowledge (CluVo). Then we use pieces of prior knowledge for improving the rapidity of learning of the agent and for building a model, too. We use from this model an adapted version of Monte-Carlo Tree Search (GMCTS). This method solves difficult problems of MASH and gives good results in an application to a word game.
119

Etude de la diffusion réactive entre Mn et Ge à l'échelle nanométrique pour des applications en spintronique / Study of reactive diffusion between Mn and Ge at the nanoscale for spintronic applications

Abbes, Omar 28 February 2013 (has links)
Le couplage des propriétés ferromagnétiques et semiconductrices représente une perspective prometteuse, afin de réaliser des technologies qui exploitent le spin des électrons. Ceci permettra de stocker et traiter des bits informatiques de façon instantanée dans le même dispositif, plutôt que dans des dispositifs séparés (mémoire et processeur). La Spintronique pourrait alors révolutionner la technologie de l'information. Un candidat potentiel pour la fabrication d'hétérostructures métal ferromagnétique/semiconducteur pour des applications en Spintronique, est le système Mn-Ge. Ce système qui est compatible avec la technologie CMOS, présente une phase intéressante pour la Spintronique qui est Mn5Ge3, avec une possibilité d'épitaxie sur le Ge(111). Afin d'intégrer cette phase dans des procédés de fabrication, nous étudions la diffusion réactive à l'état solide entre un film de Mn et un substrat de Ge (comme dans le cas de la formation des siliciures dans la technologie CMOS). L'accent a été mis sur la séquence de formation de phases lors de la réaction entre un film nanométrique de Mn et le Ge, l'influence de l'interface sur cette réaction, et sur la diffusion du Mn dans le Ge. L'incorporation du carbone dans des films minces de Mn5Ge3 a montré une augmentation notable de la température de Curie : nous présentons alors l'effet du carbone sur la réaction Mn-Ge, et sa redistribution dans les couches minces MnxGey. / Coupling ferromagnetic and semi-conducting properties represents a pathway toward producing technologies that exploit the spin of electrons. That would allow store and process computer bits instantly in a same device, rather than separate devices (memory and CPU). The Spintronics could then revolutionize the information technology. A potential candidate for the fabrication of heterostructures ferromagnetic metal / semiconductor for Spintronics applications is the Mn-Ge system. This system is compatible with CMOS technology, and presents an interesting phase for Spintronics which is Mn5Ge3 phase, which is able to be grown epitaxially on Ge(111). To integrate this phase in the manufacturing process, we study the solid state reactive diffusion between a thin Mn film and Ge substrate, to form a germanide upon the Ge substrate (as in the case of the formation of silicides in CMOS technology). Emphasis was placed on the sequence of phase formation during the reaction between a 50 nm thick Mn film and Ge, the influence of the interface on the reaction, and the diffusion of Mn in Ge. Incorporation of carbon in thin Mn5Ge3 films showed a significant increase in the Curie temperature, we then present the effect of carbon on the reaction Mn-Ge and its redistribution in thin MnxGey films.
120

Sequential/parallel reusability study on solving Hamilton-Jacobi-Bellman equations / Etude de la réutilisabilité séquentielle/parallèle pour la résolution des équations Hamilton-Jacobi-Bellman

Dang, Florian 22 July 2015 (has links)
La simulation numérique est indissociable du calcul haute performance. Ces vingt dernières années,l'informatique a connu l'émergence d'architectures parallèles multi-niveaux. Exploiter efficacement lapuissance de calcul de ces machines peut s'avérer être une tâche délicate et requérir une expertise à la foistechnologique sur des notions avancées de parallélisme ainsi que scientifique de part la nature même desproblèmes traités.Le travail de cette thèse est pluri-disciplinaire s'appuyant sur la conception d'une librairie de calculparallèle réutilisable pour la résolution des équations Hamilton-Jacobi-Bellman. Ces équations peuventse retrouver dans des domaines diverses et variés tels qu'en biomédical, géophysique, ou encore robotiqueen l'occurence sur les applications de planification de mouvement et de reconstruction de formestri-dimensionnelles à partir d'images bi-dimensionnelles. Nous montrons que les principaux algorithmesnumériques amenant a résoudre ces équations telles que les méthodes de type fast marching, ne sont pasappropriés pour être efficaces dans un contexte parallèle. Nous proposons la méthode buffered fast iterativequi permet d'obtenir une scalabilité parallèle non obtenue jusqu'alors. Un des points sensibles relevésdans cette thèse est de parvenir à trouver une recette de compromis entre abstraction, performance etmaintenabilité afin de garantir non seulement une réutilisabilitédans le sens classique du domaine de génielogiciel mais également en terme de réutilisabilité séquentielle/parallèle / Numerical simulation is strongly bound with high performance computing. Programming scientificsoftwares requires at the same time good knowledge on the mathematical numerical models and alsoon the techniques to make them efficient on today's computers. Indeed, these last twenty years, wehave experienced the rising of multi-level parallel architectures. The work in this thesis dissertation ismultidisciplinary by designing a reusable parallel numerical library for solving Hamilton-Jacobi-Bellmanequations. Such equations are involved in various fields such as in biomedical, geophysics or robotics. Inparticular, we will show interests in path planning and shape from shading applications. We show thatthe methods to solve these equations such as the widely used fast marching method, are not designedto be used effciently in a parallel context. We propose a buffered fast iterative method which givesan interesting parallel scalability. This dissertation takes interest in the challenge to find compromisesbetween abstraction, performance and maintainability in order to combine both software reusability andalso sequential/parallel reusability. We propose code abstraction allowing algorithmic and data genericitywhile trying to keep a maintainable and performant code potentially parallelizable

Page generated in 0.4898 seconds