51 |
Optimisation stochastique à grande échelleTauvel, Claire 09 December 2008 (has links) (PDF)
L'objet de cette thèse est l'étude d'algorithmes itératifs permettant de résoudre des problèmes d'optimisation convexe avec ou sans contraintes fonctionnelles, des problèmes de résolutions d'inégalités variationnelles à opérateur monotone et des problèmes de recherche de point selle. Ces problèmes sont envisagés lorsque la dimension de l'espace de recherche est grande et lorsque les valeurs des différentes fonctions étudiées et leur sous/sur-gradients ne sont pas connues exactement et ne sont accessibles qu'au travers d'un oracle stochastique. Les algorithmes que nous étudions sont des adaptations au cas stochastique de deux algorithmes : le premier inspiré de la méthode de descente en miroir de Nemirovski et Yudin et le second, de l'algorithme d'extrapolation duale de Nesterov. Pour chacun de ces deux algorithmes, nous donnons des bornes pour l'espérance et pour les déviations modérées de l'erreur d'approximation sous différentes hypothèses de régularité pour tous les problèmes sans contraintes fonctionnelles envisagées et nous donnons des versions adaptatives de ces algorithmes qui permettent de s'affranchir de connaître certains paramètres de ces problèmes non accessibles en pratique. Enfin nous montrons comment, à l'aide d'un algorithme auxiliaire inspiré de la méthode de Newton et des résultats obtenus lors de la résolution des problèmes de recherche de point selle, il est possible de résoudre des problèmes d'optimisation sous contraintes fonctionnelles.
|
52 |
Développement de papier bioactif par couchage à grande échelle d’enzymes immobilisées par microencapsulationGuerrero Palacios, Marco Polo 08 1900 (has links)
L’objectif principal de cette recherche est de contribuer au développement de biocapteurs commerciaux utilisant des surfaces de papier comme matrices d’immobilisation, capables de produire un signal colorimétrique perceptible dans les limites sensorielles humaines. Ce type de biocapteur, appelé papier bioactif, pourrait servir par exemple à la détection de substances toxiques ou d’organismes pathogènes.
Pour atteindre l’objectif énoncé, ce travail propose l’utilisation de systèmes enzymatiques microencapsulés couchés sur papier. Les enzymes sont des catalyseurs biologiques dotés d’une haute sélectivité, et capables d'accélérer la vitesse de certaines réactions chimiques spécifiques jusqu’à des millions des fois. Les enzymes sont toutefois des substances très sensibles qui perdent facilement leur fonctionnalité, raison pour laquelle il faut les protéger des conditions qui peuvent les endommager. La microencapsulation est une technique qui permet de protéger les enzymes sans les isoler totalement de leur environnement. Elle consiste à emprisonner les enzymes dans une sphère poreuse de taille micrométrique, faite de polymère, qui empêche l’enzyme de s’echapper, mais qui permet la diffusion de substrats à l'intérieur. La microencapsulation utilisée est réalisée à partir d’une émulsion contenant un polymère dissous dans une phase aqueuse avec l’enzyme désirée. Un agent réticulant est ensuite ajouté pour provoquer la formation d'un réseau polymérique à la paroi des gouttelettes d'eau dans l'émulsion. Le polymère ainsi réticulé se solidifie en enfermant l’enzyme à l'intérieur de la capsule. Par la suite, les capsules enzymatiques sont utilisées pour donner au papier les propriétés de biocapteur. Afin d'immobiliser les capsules et l'enzyme sur le papier, une méthode courante dans l’industrie du papier connu sous le nom de couchage à lame est utilisée. Pour ce faire, les microcapsules sont mélangées avec une sauce de couchage qui sera appliquée sur des feuilles de papier. Les paramètres de viscosité
i
de la sauce et ceux du couchage ont été optimisés afin d'obtenir un couchage uniforme répondant aux normes de l'industrie.
Les papiers bioactifs obtenus seront d'abord étudiés pour évaluer si les enzymes sont toujours actives après les traitements appliqués; en effet, tel que mentionné ci-dessus, les enzymes sont des substances très sensibles. Une enzyme très étudiée et qui permet une évaluation facile de son activité, connue sous le nom de laccase, a été utilisée. L'activité enzymatique de la laccase a été évaluée à l’aide des techniques analytiques existantes ou en proposant de nouvelles techniques d’analyse développées dans le laboratoire du groupe Rochefort. Les résultats obtenus démontrent la possibilité d’inclure des systèmes enzymatiques microencapsulés sur papier par couchage à lame, et ce, en utilisant des paramètres à grande échelle, c’est à dire des surfaces de papier de 0.75 x 3 m2 modifiées à des vitesses qui vont jusqu’à 800 m/min. Les biocapteurs ont retenu leur activité malgré un séchage par évaporation de l’eau à l’aide d’une lampe IR de 36 kW. La microencapsulation s’avère une technique efficace pour accroître la stabilité d’entreposage du biocapteur et sa résistance à l’exposition au NaN3, qui est un inhibiteur connu de ce biocapteur.
Ce projet de recherche fait partie d'un effort national visant à développer et à mettre sur le marché des papiers bioactifs; il est soutenu par Sentinel, un réseau de recherche du CRSNG. / The main objective of this research is the development of a commercial biosensor immobilized on paper surfaces, able to produce a colorimetric signal detected by human sensorial limits. This kind of biosensor could be used, for example, in the detection of toxic substances or pathogens.
To achieve this objective, microencapsulated enzymes fixed on paper are proposed. Enzymes are biological catalysts with a high selectivity that can accelerate the speed of some chemical reactions up to a million times. However, the enzymes are very sensitive substances that lose their functionality easily; it is therefore necessary to protect them from conditions that could damage them. Microencapsulation is a technique that protects the enzymes without totally isolating them from their environment. In fact, microencapsulation entraps the enzymes into a micron size sphere, made of a porous polymer which prevents the enzyme to be released but allows the diffusion of its substrate inside. The microencapsulation process consists in making an emulsion containing a polymer dissolved in an aqueous phase with the desired enzyme, and the wall of the microcapsule is formed by adding a crosslinking agent that forms a polymer network at the interface of the emulsion. The crosslinked polymer solidifies and it encloses the enzyme in the interior of the capsule. Thereafter, this kind of microcapsules are used to give biosensor properties to the paper. Blade coating technique is used in order to immobilize the enzyme capsules on paper because it is the most widely used method in the paper industry. The microcapsules are mixed with a coating suspension and applied on sheets of paper. The viscosity parameters of the suspension and those of the coating are optimized to obtain a uniform coating in order to meet the industry standards.
Bioactive paper obtained is first studied to assess whether the enzymes are still active or not after all the treatments because, as described above, enzymes are
iii
very sensitive substances. An enzyme known as laccase is used, which allows an easy evaluation of its activity. Enzymatic activity was evaluated through existing analytical techniques or new analysis techniques developed in the Rochefort lab. The results demonstrate the possibility to transfer microencapsulated enzyme systems onto paper by blade coating, by using large scale settings, with paper surfaces of 0.75 x 3 m2 modified at speeds ranging up to 800 m/min. Biosensors retained their activity, despite a drying process by evaporation of water using an IR lamp of 36 kW. The microencapsulation technique proposed here is an effective technique to increase the storage stability of the biosensor and its resistance to exposure to NaN3, which is a known inhibitor of this biosensor.
This research is part of a national effort in order to develop a commercial device called bioactive paper; it is supported by the NSERC research network Sentinel.
|
53 |
Recommandation Pair-à-Pair pour Communautés en Ligne à Grande EchelleDraidi, Fady 09 March 2012 (has links) (PDF)
Les systèmes de recommandation (RS) et le pair-à-pair (P2) sont complémen-taires pour faciliter le partage de données à grande échelle: RS pour filtrer et person-naliser les requêtes des utilisateurs, et P2P pour construire des systèmes de partage de données décentralisés à grande échelle. Cependant, il reste beaucoup de difficultés pour construire des RS efficaces dans une infrastructure P2P. Dans cette thèse, nous considérons des communautés en ligne à grande échelle, où les utilisateurs notent les contenus qu'ils explorent et gardent dans leur espace de travail local les contenus de qualité pour leurs sujets d'intérêt. Notre objectif est de construire un P2P-RS efficace pour ce contexte. Nous exploitons les sujets d'intérêt des utilisateurs (extraits automatiquement des contenus et de leurs notes) et les don-nées sociales (amitié et confiance) afin de construire et maintenir un overlay P2P so-cial. La thèse traite de plusieurs problèmes. D'abord, nous nous concentrons sur la conception d'un P2P-RS qui passe à l'échelle, appelé P2Prec, en combinant les ap-proches de recommandation par filtrage collaboratif et par filtrage basé sur le contenu. Nous proposons alors de construire et maintenir un overlay P2P dynamique grâce à des protocoles de gossip. Nos résultats d'expérimentation montrent que P2Prec per-met d'obtenir un bon rappel avec une charge de requêtes et un trafic réseau accep-tables. Ensuite, nous considérons une infrastructure plus complexe afin de construire et maintenir un overlay P2P social, appelé F2Frec, qui exploite les relations sociales entre utilisateurs. Dans cette infrastructure, nous combinons les aspects filtrage par contenu et filtrage basé social, pour obtenir un P2P-RS qui fournit des résultats de qualité et fiables. A l'aide d'une évaluation de performances extensive, nous mon-trons que F2Frec améliore bien le rappel, ainsi que la confiance dans les résultats avec une surcharge acceptable. Enfin, nous décrivons notre prototype de P2P-RS que nous avons implémenté pour valider notre proposition basée sur P2Prec et F2Frec.
|
54 |
Méthodes de simulation du comportement mécanique non linéaire des grandes structures en béton armé et précontraint : condensation adaptative en contexte aléatoire et représentation des hétérogénéités / Simulation methods for the nonlinear mechanical behavior of large reinforced and prestressed concrete structures : adaptive condensation in the probabilistic context and modelling of the heterogeneitiesLlau, Antoine 26 September 2016 (has links)
Les structures en béton et béton armé de grandes dimensions, en particulier les enceintes de confinement, peuvent être sujettes à de la fissuration localisée suite à leur vieillissement ou dans le cas d’une forte sollicitation (APRP, par exemple). Afin d’optimiser les actions de maintenance, il est nécessaire de disposer d’un modèle prédictif de l’endommagement du béton. Ce phénomène se produit à une échelle matériau relativement petite et un modèle prédictif nécessite un maillage fin et une loi de comportement non linéaire. Hors ce type de modélisation ne peut être directement appliquée sur une structure de génie civil de grande échelle, le calcul étant trop lourd pour les machines actuelles.Une méthode de calcul est proposée, qui concentre l’effort de calcul sur les zones d’intérêt (parties endommagées) de la structure en éliminant les zones non endommagées. L’objectif est ainsi d’utiliser la puissance de calcul disponible pour la caractérisation des propriétés des fissures notamment. Cette approche utilise la méthode de condensation statique de Guyan pour ramener les zones élastiques à un ensemble de conditions aux limites appliquées aux bornes des zones d’intérêt. Lorsque le système évolue, un système de critères permet de promouvoir à la volée des zones élastiques en zones d’intérêt si de l’endommagement y apparaît. Cette méthode de condensation adaptative permet de réduire la dimension du problème non linéaire sans altérer la qualité des résultats par rapport à un calcul complet de référence. Cependant, une modélisation classique ne permet pas de prendre en compte les divers aléas impactant le comportement de la structure : propriétés mécaniques, géométrie, chargement… Afin de mieux caractériser ce comportement en tenant compte des incertitudes, la méthode de condensation adaptative proposée est couplée avec une approche de collocation stochastique. Chaque calcul déterministe nécessaire pour caractériser les incertitudes sur les grandeurs d’intérêt de la structure est ainsi réduit et les étapes de prétraitement nécessaires à la condensation sont elles-mêmes mutualisées via une deuxième collocation. L’approche proposée permet ainsi de produire pour un coût de calcul limité des densités de probabilités des grandeurs d’intérêt d’une grande structure. Les stratégies de résolution proposées rendent accessibles à l’échelle locale une modélisation plus fine que celle qui pourrait s’appliquer sur l’ensemble de la structure. Afin de bénéficier d’une meilleure représentativité à cette échelle, il est nécessaire de représenter les effets tridimensionnels des hétérogénéités. Dans le domaine du génie civil et nucléaire, cela concerne au premier chef les câbles de précontrainte, traditionnellement représentés en unidimensionnel. Une approche est donc proposée, qui s’appuie sur un maillage et une modélisation 1D pour reconstruire un volume équivalent au câble et retransmettre les efforts et rigidités dans le volume de béton. Elle combine la représentativité d’un modèle 3D complet et conforme des câbles lorsque le maillage s’affine et la facilité d’utilisation et paramétrage d’un modèle 1D. L’applicabilité des méthodes proposées à une structure de génie civil de grande échelle est évaluée sur un modèle numérique d’une maquette à l’échelle 1/3 de l’enceinte de confinement interne d’un réacteur de type REP 1300 MWe à double paroi. / Large-scale concrete and reinforced concrete structures, and in particular containment buildings, may undergo localized cracking when they age or endure strong loadings (LOCA for instance). In order to optimize the maintenance actions, a predictive model of concrete damage is required. This phenomenon takes place at a rather small material scale and a predictive model requires a refined mesh and a nonlinear constitutive law. This type of modelling cannot be applied directly on a large-scale civil engineering structure, as the computational load would be too heavy for the existing machines.A simulation method is proposed to focus the computational effort on the areas of interest (damaged parts) of the structure while eliminating the undamaged areas. It aims at using the available computing power for the characterization of crack properties in particular. This approach uses Guyan’s static condensation technique to reduce the elastic areas to a set of boundary conditions applied to the areas of interest. When the system evolves, a set of criteria allows to promote on the fly the elastic areas to areas of interest if damage appears. This adaptive condensation technique allows to reduce the dimension of a nonlinear problem without degrading the quality of the results when compared to a full reference simulation.However, a classical modelling does not allow to take into account the various unknowns which will impact the structural behaviour: mechanical properties, geometry, loading… In order to better characterize this behaviour while taking into account the various uncertainties, the proposed adaptive condensation method is coupled with a stochastic collocation approach. Each deterministic simulation required for the characterization of the uncertainties on the structural quantities of interest is therefore reduced and the pre-processing steps necessary to the condensation technique are also reduced using a second collocation. The proposed approach allows to produce for a reduced computational cost the probability density functions of the quantities of interest of a large structure.The proposed calculation strategies give access at the local scale to a modelling finer than what would be applicable to the full structure. In order to improve the representativeness at this scale, the tridimensional effects of the heterogeneities must be taken into account. In the civil and nuclear engineering field, one of the main issues is the modelling of prestressing tendons, usually modelled in one dimension. A new approach is proposed, which uses a 1D mesh and model to build a volume equivalent to the tendon and redistribute the forces and stiffnesses in the concrete. It combines the representativeness of a full conform 3D modelling of the tendon when the mesh is refined and the ease of use of the 1D approaches.The applicability of the proposed methodologies to a large-scale civil engineering structure is evaluated using a numerical model of a 1/3 mock-up of a double-wall containment building of a PWR 1300 MWe nuclear reactor.
|
55 |
Méthodes pour l'analyse des champs profonds extragalactiques MUSE : démélange et fusion de données hyperspectrales ;détection de sources étendues par inférence à grande échelle / Methods for the analysis of extragalactic MUSE deep fields : hyperspectral unmixing and data fusion;detection of extented sources with large-scale inferenceBacher, Raphael 08 November 2017 (has links)
Ces travaux se placent dans le contexte de l'étude des champs profonds hyperspectraux produits par l'instrument d'observation céleste MUSE. Ces données permettent de sonder l'Univers lointain et d'étudier les propriétés physiques et chimiques des premières structures galactiques et extra-galactiques. La première problématique abordée dans cette thèse est l'attribution d'une signature spectrale pour chaque source galactique. MUSE étant un instrument au sol, la turbulence atmosphérique dégrade fortement le pouvoir de résolution spatiale de l'instrument, ce qui génère des situations de mélange spectral pour un grand nombre de sources. Pour lever cette limitation, des approches de fusion de données, s'appuyant sur les données complémentaires du télescope spatial Hubble et d'un modèle de mélange linéaire, sont proposées, permettant la séparation spectrale des sources du champ. Le second objectif de cette thèse est la détection du Circum-Galactic Medium (CGM). Le CGM, milieu gazeux s'étendant autour de certaines galaxies, se caractérise par une signature spatialement diffuse et de faible intensité spectrale. Une méthode de détection de cette signature par test d'hypothèses est développée, basée sur une stratégie de max-test sur un dictionnaire et un apprentissage des statistiques de test sur les données. Cette méthode est ensuite étendue pour prendre en compte la structure spatiale des sources et ainsi améliorer la puissance de détection tout en conservant un contrôle global des erreurs. Les codes développés sont intégrés dans la bibliothèque logicielle du consortium MUSE afin d'être utilisables par l'ensemble de la communauté. De plus, si ces travaux sont particulièrement adaptés aux données MUSE, ils peuvent être étendus à d'autres applications dans les domaines de la séparation de sources et de la détection de sources faibles et étendues. / This work takes place in the context of the study of hyperspectral deep fields produced by the European 3D spectrograph MUSE. These fields allow to explore the young remote Universe and to study the physical and chemical properties of the first galactical and extra-galactical structures.The first part of the thesis deals with the estimation of a spectral signature for each galaxy. As MUSE is a terrestrial instrument, the atmospheric turbulences strongly degrades the spatial resolution power of the instrument thus generating spectral mixing of multiple sources. To remove this issue, data fusion approaches, based on a linear mixing model and complementary data from the Hubble Space Telescope are proposed, allowing the spectral separation of the sources.The second goal of this thesis is to detect the Circum-Galactic Medium (CGM). This CGM, which is formed of clouds of gas surrounding some galaxies, is characterized by a spatially extended faint spectral signature. To detect this kind of signal, an hypothesis testing approach is proposed, based on a max-test strategy on a dictionary. The test statistics is learned on the data. This method is then extended to better take into account the spatial structure of the targets, thus improving the detection power, while still ensuring global error control.All these developments are integrated in the software library of the MUSE consortium in order to be used by the astrophysical community.Moreover, these works can easily be extended beyond MUSE data to other application fields that need faint extended source detection and source separation methods.
|
56 |
Contributions to large-scale data processing systems / Contributions aux systèmes de traitement de données à grande échelleCaneill, Matthieu 05 February 2018 (has links)
Cette thèse couvre le sujet des systèmes de traitement de données àgrande échelle, et plus précisément trois approches complémentaires :la conception d'un système pour prédir des défaillances de serveursgrâce à l'analyse de leurs données de supervision; l'acheminement dedonnées dans un système à temps réel en étudiant les corrélationsentre les champs des messages pour favoriser la localité; etfinalement un environnement de développement innovateur pour concevoirdes transformations de donées en utilisant des graphes orientés deblocs.À travers le projet Smart Support Center, nous concevons unearchitecture qui passe à l'échelle, afin de stocker des sériestemporelles rapportées par des moteurs de supervision, qui vérifienten permanence la santé des systèmes informatiques. Nous utilisons cesdonnées pour effectuer des prédictions, et détecter de potentielsproblèmes avant qu'ils ne ne produisent.Nous nous plongeons ensuite dans les algorithmes d'acheminement pourles sytèmes de traitement de données en temps réel, et développons unecouche pour acheminer les messages plus efficacement, en évitant lesrebonds entre machines. Dans ce but, nous identifions en temps réelles corrélations qui apparaissent entre les champs de ces messages,tels les mots-clics et leur localisation géographique, par exempledans le cas de micromessages. Nous utilisons ces corrélations pourcréer des tables d'acheminement qui favorisent la colocation desacteurs traitant ces messages.Pour finir, nous présentons λ-blocks, un environnement dedéveloppement pour effectuer des tâches de transformations de donnéessans écrire de code source, mais en créant des graphes de blocs decode. L'environnement est rapide, et est distribué avec des pilesincluses: libraries de blocs, modules d'extension, et interfaces deprogrammation pour l'étendre. Il est également capable de manipulerdes graphes d'exécution, pour optimisation, analyse, vérification, outout autre but. / This thesis covers the topic of large-scale data processing systems,and more precisely three complementary approaches: the design of asystem to perform prediction about computer failures through theanalysis of monitoring data; the routing of data in a real-time systemlooking at correlations between message fields to favor locality; andfinally a novel framework to design data transformations usingdirected graphs of blocks.Through the lenses of the Smart Support Center project, we design ascalable architecture, to store time series reported by monitoringengines, which constantly check the health of computer systems. We usethis data to perform predictions, and detect potential problems beforethey arise.We then dive in routing algorithms for stream processing systems, anddevelop a layer to route messages more efficiently, by avoiding hopsbetween machines. For that purpose, we identify in real-time thecorrelations which appear in the fields of these messages, such ashashtags and their geolocation, for example in the case of tweets. Weuse these correlations to create routing tables which favor theco-location of actors handling these messages.Finally, we present λ-blocks, a novel programming framework to computedata processing jobs without writing code, but rather by creatinggraphs of blocks of code. The framework is fast, and comes withbatteries included: block libraries, plugins, and APIs to extendit. It is also able to manipulate computation graphs, foroptimization, analyzis, verification, or any other purposes.
|
57 |
Gestion foncière et décentralisation au Sénégal dans le contexte des acquisitions foncières à grande échelle : le cas de la commune de Ngnith dans le département de Dagana / Land management and decentralization in Senegal in the context of large-scale land acquisitions : The case of the commune of Ngnith in the department of DaganaFall, Moustapha Cissé 04 January 2017 (has links)
Au Sénégal, depuis les années 2000, différentes politiques et programmes publics ont été menés sur le plan agricole par le régime d’Abdoulaye WADE (2000-2012) puis de Macky SALL (2012 à nos jours) dans le but, entre autres, de mieux ouvrir ce secteur au libéralisme dont ils se réclament. Cette volonté d’ouverture intervient dans un contexte national caractérisé par l’octroi de l’autonomie de gestion des ressources foncières aux collectivités locales depuis les réformes de 1996 et dans un contexte international marqué par une incitation des institutions financières internationales, la Banque mondiale notamment, à cette libéralisation dans un but affiché de modernisation du secteur agricole et d’accroissement de la production. En s’appuyant sur l’installation de deux entreprises agro-industrielles, Senhuile et West Africa Farms, dans la commune de Ngnith (région de Saint Louis), cette recherche analyse l’exercice de la gestion foncière décentralisée au sein de cette commune. Elle retrace les différentes étapes d’acquisition des terres par ces entreprises et le rôle des parties prenantes (Etat, entreprises agro-industrielles, communauté rurale puis commune de Ngnith, populations). Elle examine également les systèmes de production de ces entreprises ainsi que les impacts et risques multiformes de leur implantation. Les résultats obtenus, principalement par le biais d’entretiens semi-directifs et d’enquêtes sur les différents sites de localisation de ces entreprises, démontrent que la pratique actuelle de la décentralisation dans cette commune ne suffit pas à elle seule pour expliquer l’installation de ces entreprises. L’étude de ces processus révèle essentiellement la forte implication de l’Etat, malgré le transfert de cette compétence, le rôle déterminant d’une partie des populations dans ces processus ainsi que la complexité des stratégies d’acquisition foncière de ces entreprises à Ngnith. / In Senegal since the 2000s, different agricultural policies and public programs have been enacted by the regimes of Abdoulaye Wade (2000-2012) and Macky Sall (2010 to the present) with the goal of, among others, opening up the sector to more liberal policies that they have supported. This desire to liberalize comes during a national context characterized by reforms enacted in 1996 giving an increased autonomy to the local collectivities in their management of land resources. The international context was similarly marked by the international financial institutions, notably the World Bank, advocating similar liberal policies, pushing for the modernization of the sector and an increase in productivity. By examining the installation of two agro-industrial companies (Senhuile and West Africa Farms) in the commune of Ngnith in the Saint Louis region, this study attempts to reveal to what degree this commune exercises its decentralized land management responsibilities in this new context of liberalization. The case studies retrace the different steps in the acquisition of land by these companies and the roles of the different actors involved in this process (the State, agro-industrial companies, rural communities, the commune of Ngnith, local populations, etc.). The study also analyses the different modes of production of these companies as well as the impacts and multiple risks resulting from their establishment. The results obtained, principally through interviews and semi-structured surveys conducted near the different locations of these companies, have generally shown that the current practice of decentralization in this commune cannot alone explain the establishment of these companies. Rather, the analysis reveals a three-fold process: the strong involvement of the State despite transferring the authority to the commune, the decisive role of a part of the local population, and the complexity of land acquisition strategies used by the companies.
|
58 |
Cosmological RHD simulations of early galaxy formation / RHD simulations cosmologiques de la formation des premieres galaxiesRosdahl, Karl Joakim 15 June 2012 (has links)
Avec l’essor actuel de la sophistication et de l’efficacité des codes de cosmologie hydrodynamique,il est devenu possible d’inclure le transfert radiatif (RT) des photons ionisants dansles simulations cosmologiques, soit en post-traitement, soit en simulations couplées rayonnement+hydrodynamique (RHD). Malgré de nombreux obstacles, il y a eu cette derniéredécennie beaucoup de recherches menées sur les différentes stratégies et implémentations,dû au fait qu’un nombre de problèmes intéressants peuvent être désormais abordés par laRT et RHD, par exemple comment et quand l’Univers s’est réionisé, comment l’émissionradiative des étoiles et des noyaux actifs de galaxies se comportent pour réguler la formationdes structures à des échelles petites et grandes, et quelles prédictions et interprétationsnous pouvons faire des phénomènes observés, tels que la forêt Lyman-alpha et des sourcesdiffuses de rayonnement.Cela coïncide avec l’avènement du télescope spatial James Webb (JWST) et d’autresinstruments de pointe qui sont sur le point de nous donner un aperçu sans précédent sur lafin des âges sombres de l’Univers, quand le cosmos est passé d’un état froid et neutre à unétat chaud et ionisé, à la suite de l’apparition des sources radiatives.Notre préoccupation principale étant les rétroactions radiatives des premieres structures,nous avons mis en place une version RHD du code cosmologique Ramses, que nous appelonsRamsesRT, basée sur la méthode des moments. Ce code nous permet d’étudier les effets durayonnement ionisant dans les simulations cosmologiques RHD qui tirent pleinement profitdes stratégies de raffinement adaptif de grille et de parallélisation de Ramses. Pour rendreauto-cohérent le RHD nous avons également mis en oeuvre une thermochimie hors-équilibreincluant des espèces de l’Hydrogène et de l’Hélium qui interagissent avec le rayonnementtransporté.Je présente dans cette thèse une description détaillée de RamsesRT et de nombreux testscontribuant à sa validation.Jusqu’à présent nous avons utilisé RamsesRT pour étudier l’émission Lyman-alpha decourants d’accrétion, qui sont prédits à grand redshift par les simulations cosmologiques,mais n’ont jamais été clairement identifiés par les observations. Nous avons également étudiéle chauffage gravitationnel dans ces courants pour déterminer si ce dernier pouvait être lasource motrice principale des Lyman-alpha blobs, un phénomène observé qui a été beaucoupétudié et débattu au cours de la dernière décennie. Cet étudie nous permet de conclure queles Lyman-alpha blobs peuvent, en principe, être alimentés par le chauffage gravitationnel,et que d’autre part, les courants d’accrétion sont sur le point d’être directement détectablesavec des instruments à venir.Mes intentions futures sont d’utiliser RamsesRT dans les simulations cosmologiques àhaute résolution, de la formation des premiéres galaxies jusqu’à l’époque de la réionisation,et ainsi étudier comment la rétroaction radiative affecte la formation et l’évolution de cesgalaxies et de faire des prévisions d’observation qui peuvent être testées avec des instrumentssophistiqués tels que le JWST. / With the increasing sophistication and efficiency of cosmological hydrodynamics codes, ithas become viable to include ionizing radiative transfer (RT) in cosmological simulations,either in post-processing or in full-blown radiation-hydrodynamics (RHD) simulations. Inspite of the many hurdles involved, there has been much activity during the last decade or soon different strategies and implementations, because a number of interesting problems canbe addressed with RT and RHD, e.g. how and when the Universe became reionized, howradiation from stars and active galactic nuclei plays a part in regulating structure formationon small and large scales, and what predictions and interpretations we can make of observedphenomena such as the Lyman-alpha forest and diffuse sources of radiation.This coincides with the advent of the James Webb space telescope (JWST) and otherstate-of-the-art instruments which are about to give us an unprecedented glimpse into theend of the dark ages of the Universe, when the cosmos switched from a cold and neutralstate to a hot and ionized one, due to the turn-on of ionizing radiative sources.With a primary interest in the problem of radiative feedback in early structure formation,we have implemented an RHD version of the Ramses cosmological code we call RamsesRT,which is moment based and employs the local M1 Eddington tensor closure. This code allowsus to study the effects of ionizing radiation on-the-fly in cosmological RHD simulationsthat take full advantage of the adaptive mesh refinement and parallelization strategies ofRamses. For self-consistent RHD we have also implemented a non-equilibrium chemistry ofthe atomic hydrogen and helium species that interact with the transported radiation.I present in this thesis an extensive description of the RamsesRT implementation andnumerous tests to validate it.Thus far we have used the RHD implementation to study extended line emission fromaccretion streams, which are routinely predicted to exist at early redshift by cosmologicalsimulations but have never been unambiguously verified by observations, and to investigatewhether gravitational heating in those streams could be the dominant power source ofso-called Lyman-alpha blobs, an observed phenomenon which has been much studied anddebated during the last decade or two. Our conclusions from this investigation are thatLyman-alpha blobs can in principle be powered by gravitational heating, and furthermorethat accretion streams are on the verge of being directly detectable for the first time withupcoming instruments.My future intent is to use RamsesRT for high-resolution cosmological zoom simulations ofearly galaxy formation, up to the epoch of reionization, to study how radiative feedbackaffects the formation and evolution of those galaxies and to make observational predictionsthat can be tested with upcoming instruments such as the JWST.
|
59 |
Théorie Lagrangienne Relativiste de la Formation des Grandes Structures : description Intrinsèque des Perturbations et Gravitoélectromagnétisme / On the Lagrangian Theory of Structure Formation in Relativistic Cosmology : intrinsic Perturbation Approach and GravitoelectromagnetismAl Roumi, Fosca 18 September 2015 (has links)
La dynamique de formation des structures de l'Univers est habituellement décrite dans le cadre du modèle standard de Cosmologie. Cependant, pour que les observations cosmologiques soient cohérentes avec le modèle standard, il est nécessaire de supposer l'existence d'une grande proportion d'éléments de nature inconnue dans le contenu de l'Univers. Pour tenter de résoudre cette énigme, nous ne considèrerons pas d'autres sources dans le contenu de l'Univers que celles ordinaires et resterons dans le cadre de la Relativité Générale. Nous développerons néanmoins une description plus réaliste de la formation de structures dans le cadre de la théorie d'Einstein. Ainsi, contrairement au modèle standard de Cosmologie, nous ne supposerons pas que l'Univers moyenné est une solution homogène et isotrope des équations d'Einstein. Lors de mon travail sous la direction de Thomas Buchert, j'ai participé au développement d'un formalisme perturbatif permettant une description plus réaliste de la dynamique de l'espace-temps. J'ai également contribué à l'obtention de solutions relativistes à la partie gravitoélectrique des équations d'Einstein en généralisant les solutions perturbatives newtoniennes. Ces travaux ont été réalisés dans le cadre d'une approche lagrangienne intrinsèque, évitant ainsi de définir les grandeurs physiques sur un fond plat. L'approche gravitoélectromagnétique que j'ai adoptée m'a permis une interprétation nouvelle et performante des solutions des équations d'Einstein. Enfin, j'ai étudié l'impact de la topologie sur la dynamique des ondes gravitationelles à l'aide d'une description globale de l'hypersurface spatiale, permise par des théorèmes mathématiques puissants / The dynamics of structure formation in the Universe is usually described by Newtonian numerical simulations and analytical models in the frame of the Standard Model of Cosmology. The structures are then defined on a homogeneous and isotropic background. Such a description has major drawbacks since, to be self-consistent, it entails a large amount of dark components in the content of the Universe. To address the problem of dark matter and dark energy, we will neither suppose that exotic sources contribute to the content of the Universe, nor that General Relativity is obsolete. We will develop a more realistic description of structure formation in the frame of General Relativity and thus no longer assume that the average model is a homogeneous-isotropic solution of the Einstein equations, as claimed by the Standard Model of Cosmology. During my work under the supervision of Thomas Buchert, I contributed to the development of the perturbative formalism that enables a more realistic description of spacetime dynamics. In the framework of the intrinsic Lagrangian approach, which avoids defining physical quantities on a flat background, I contributed to the building of relativistic solutions to the gravitoelectric part of the Einstein equations from the generalization of the Newtonian perturbative solutions. Moreover, the gravitoelectromagnetic approach I worked with has provided a new understanding of the dynamics of the analytical solutions to the field equations. Finally, treating globally the spatial manifold, I used powerful mathematical tools and theorems to describe the impact of topology on the dynamics of gravitational waves
|
60 |
Adaptive and intelligent memory systems / Système mémoire adaptatif intelligentSridharan, Aswinkumar 15 December 2016 (has links)
Dans cette thèse, nous nous sommes concentrés sur l'interférence aux ressources de la hiérarchie de la mémoire partagée : cache de dernier niveau et accès à la mémoire hors-puce dans le contexte des systèmes multicœurs à grande échelle. À cette fin, le premier travail a porté sur les caches de dernier niveau partagées, où le nombre d'applications partageant le cache pourrait dépasser l'associativité du cache. Pour gérer les caches dans de telles situations, notre solution évalue l'empreinte du cache des applications pour déterminer approximativement à quel point elles pourraient utiliser le cache. L'estimation quantitative de l'utilitaire de cache permet explicitement de faire respecter différentes priorités entre les applications. La seconde partie apporte une prédétection dans la gestion de la mémoire cache. En particulier, nous observons les blocs cache pré-sélectionnés pour présenter un bon comportement de réutilisation dans le contexte de caches plus grands. Notre troisième travail est axé sur l'interférence entre les demandes à la demande et les demandes de prélecture à l'accès partagé à la mémoire morte. Ce travail est basé sur deux observations fondamentales de la fraction des requêtes de prélecture générées et de sa corrélation avec l'utilité de prélecture et l'interférence causée par le prélecteur. Au total, deux observations conduisent à contrôler le flux de requêtes de prélecture entre les mémoires LLC et off-chip. / In this thesis, we have focused on addressing interference at the shared memory-hierarchy resources: last level cache and off-chip memory access in the context of large-scale multicore systems. Towards this end, the first work focused on shared last level caches, where the number of applications sharing the cache could exceed the associativity of the cache. To manage caches in such situations, our solution estimates the cache footprint of applications to approximate how well they could utilize the cache. Quantitative estimate of cache utility explicitly allows enforcing different priorities across applications. The second part brings in prefetch awareness in cache management. In particular, we observe prefetched cache blocks to exhibit good reuse behavior in the context of larger caches. Our third work focuses on addressing interference between on-demand and prefetch requests at the shared off-chip memory access. This work is based on two fundamental observations of the fraction of prefetch requests generated and its correlation with prefetch usefulness and prefetcher-caused interference. Altogether, two observations lead to control the flow of prefetch requests between LLC and off-chip memory.
|
Page generated in 0.0766 seconds