• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 57
  • 47
  • 1
  • Tagged with
  • 101
  • 101
  • 55
  • 53
  • 23
  • 23
  • 17
  • 16
  • 15
  • 14
  • 13
  • 13
  • 11
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Modèle de vents galactiques destiné aux simulations cosmologiques à grande échelle

Côté, Benoit 17 April 2018 (has links)
Les vents galactiques sont des éléments importants à considérer dans les simulations numériques à grande échelle car ils ont des impacts sur la formation des galaxies environnantes. Puisque les galaxies sont mal résolues dans de telles simulations, les vents galactiques sont habituellement générés par des méthodes semi-analytiques. Dans le cadre de ce projet, un modèle galactique a été développé afin d'améliorer le modèle semi-analytique de Pieri et al. (2007). Ce nouveau modèle permet de suivre de manière consistante l'évolution de l'enrichissement des galaxies en tenant compte des vents stellaires, des supernovae et de différents scénarios de formation stellaire. Les vents galactiques sont générés par l'énergie thermique provenant des supernovae et des vents stellaires à l'intérieur des galaxies. Avec ce formalisme, seules les galaxies ayant une masse inférieure ou égale à 10¹⁰ MQ risquent de contribuer à l'enrichissement du milieu intergalactique. La distribution des vents galactiques dans ce milieu est calculée en respectant l'ordre chronologique des éjectas. De plus, la composition de ce vent peut désormais être décomposée en 31 éléments chimiques. Pour la même quantité d'étoiles formées durant l'évolution galactique, un taux de formation stellaire de longue durée produit un plus long vent galactique qu'un taux de formation stellaire de courte durée. Cependant, ce vent est alors moins dense et moins concentré en métaux. En augmentant l'efficacité de formation stellaire, la portée et la métallicité du vent galactique augmentent également. Par contre, dans certains cas, une trop grande quantité d'étoiles peut complètement balayer le milieu interstellaire de son gaz, ce qui altère l'évolution du vent galactique. Pour respecter la quantité de métaux observée dans le milieu intergalactique, les vents galactiques doivent provenir des galaxies ayant possédé une métallicité initiale différente de zéro au moment de leur formation. Dans ce cas et lors d'une collision galactique, les vents stellaires peuvent contribuer de manière significative au bilan énergétique et à la quantité de carbone et d'azote éjectée dans le milieu intergalactique.
92

BlobSeer as a data-storage facility for clouds : self-Adaptation, integration, evaluation / Utilisation de BlobSeer pour le stockage de données dans les clouds : auto-adaptation, intégration, évaluation

Carpen-Amarie, Alexandra 15 December 2011 (has links)
L’émergence de l’informatique dans les nuages met en avant de nombreux défis qui pourraient limiter l’adoption du paradigme Cloud. Tandis que la taille des données traitées par les applications Cloud augmente exponentiellement, un défi majeur porte sur la conception de solutions efficaces pour la gestion de données. Cette thèse a pour but de concevoir des mécanismes d’auto-adaptation pour des systèmes de gestion de données, afin qu’ils puissent répondre aux exigences des services de stockage Cloud en termes de passage à l’échelle, disponibilité et sécurité des données. De plus, nous nous proposons de concevoir un service de données qui soit à la fois compatible avec les interfaces Cloud standard dans et capable d’offrir un stockage de données à haut débit. Pour relever ces défis, nous avons proposé des mécanismes génériques pour l’auto-connaissance, l’auto-protection et l’auto-configuration des systèmes de gestion de données. Ensuite, nous les avons validés en les intégrant dans le logiciel BlobSeer, un système de stockage qui optimise les accès hautement concurrents aux données. Finalement, nous avons conçu et implémenté un système de fichiers s’appuyant sur BlobSeer, afin d’optimiser ce dernier pour servir efficacement comme support de stockage pour les services Cloud. Puis, nous l’avons intégré dans un environnement Cloud réel, la plate-forme Nimbus. Les avantages et les désavantages de l’utilisation du stockage dans le Cloud pour des applications réelles sont soulignés lors des évaluations effectuées sur Grid’5000. Elles incluent des applications à accès intensif aux données, comme MapReduce, et des applications fortement couplées, comme les simulations atmosphériques. / The emergence of Cloud computing brings forward many challenges that may limit the adoption rate of the Cloud paradigm. As data volumes processed by Cloud applications increase exponentially, designing efficient and secure solutions for data management emerges as a crucial requirement. The goal of this thesis is to enhance a distributed data-management system with self-management capabilities, so that it can meet the requirements of the Cloud storage services in terms of scalability, data availability, reliability and security. Furthermore, we aim at building a Cloud data service both compatible with state-of-the-art Cloud interfaces and able to deliver high-throughput data storage. To meet these goals, we proposed generic self-awareness, self-protection and self-configuration components targeted at distributed data-management systems. We validated them on top of BlobSeer, a large-scale data-management system designed to optimize highly-concurrent data accesses. Next, we devised and implemented a BlobSeer-based file system optimized to efficiently serve as a storage backend for Cloud services. We then integrated it within a real-world Cloud environment, the Nimbus platform. The benefits and drawbacks of using Cloud storage for real-life applications have been emphasized in evaluations that involved data-intensive MapReduce applications and tightly-coupled, high-performance computing applications.
93

Optimizing data management for MapReduce applications on large-scale distributed infrastructures / Optimisation de la gestion des données pour les applications MapReduce sur des infrastructures distribuées à grande échelle

Moise, Diana Maria 16 December 2011 (has links)
Les applications data-intensive sont largement utilisées au sein de domaines diverses dans le but d'extraire et de traiter des informations, de concevoir des systèmes complexes, d'effectuer des simulations de modèles réels, etc. Ces applications posent des défis complexes tant en termes de stockage que de calcul. Dans le contexte des applications data-intensive, nous nous concentrons sur le paradigme MapReduce et ses mises en oeuvre. Introduite par Google, l'abstraction MapReduce a révolutionné la communauté intensif de données et s'est rapidement étendue à diverses domaines de recherche et de production. Une implémentation domaine publique de l'abstraction mise en avant par Google, a été fournie par Yahoo à travers du project Hadoop. Le framework Hadoop est considéré l'implémentation de référence de MapReduce et est actuellement largement utilisé à des fins diverses et sur plusieurs infrastructures. Nous proposons un système de fichiers distribué, optimisé pour des accès hautement concurrents, qui puisse servir comme couche de stockage pour des applications MapReduce. Nous avons conçu le BlobSeer File System (BSFS), basé sur BlobSeer, un service de stockage distribué, hautement efficace, facilitant le partage de données à grande échelle. Nous étudions également plusieurs aspects liés à la gestion des données intermédiaires dans des environnements MapReduce. Nous explorons les contraintes des données intermédiaires MapReduce à deux niveaux: dans le même job MapReduce et pendant l'exécution des pipelines d'applications MapReduce. Enfin, nous proposons des extensions de Hadoop, un environnement MapReduce populaire et open-source, comme par example le support de l'opération append. Ce travail inclut également l'évaluation et les résultats obtenus sur des infrastructures à grande échelle: grilles informatiques et clouds. / Data-intensive applications are nowadays, widely used in various domains to extract and process information, to design complex systems, to perform simulations of real models, etc. These applications exhibit challenging requirements in terms of both storage and computation. Specialized abstractions like Google’s MapReduce were developed to efficiently manage the workloads of data-intensive applications. The MapReduce abstraction has revolutionized the data-intensive community and has rapidly spread to various research and production areas. An open-source implementation of Google's abstraction was provided by Yahoo! through the Hadoop project. This framework is considered the reference MapReduce implementation and is currently heavily used for various purposes and on several infrastructures. To achieve high-performance MapReduce processing, we propose a concurrency-optimized file system for MapReduce Frameworks. As a starting point, we rely on BlobSeer, a framework that was designed as a solution to the challenge of efficiently storing data generated by data-intensive applications running at large scales. We have built the BlobSeer File System (BSFS), with the goal of providing high throughput under heavy concurrency to MapReduce applications. We also study several aspects related to intermediate data management in MapReduce frameworks. We investigate the requirements of MapReduce intermediate data at two levels: inside the same job, and during the execution of pipeline applications. Finally, we show how BSFS can enable extensions to the de facto MapReduce implementation, Hadoop, such as the support for the append operation. This work also comprises the evaluation and the obtained results in the context of grid and cloud environments.
94

Model-based control and diagnosis of inland navigation networks / Contrôle et diagnostic à base de modèle de réseaux de navigation intérieure

Segovia Castillo, Pablo 11 June 2019 (has links)
Cette thèse contribue à répondre au problème de la gestion optimale des ressources en eau dans les réseaux de navigation intérieure du point de vue de la théorie du contrôle. Les objectifs principales à atteindre consistent à garantir la navigabilité des réseaux de voies navigables, veiller à la réduction des coûts opérationnels et à la longue durée de vie des équipements. Lors de la conception de lois de contrôle, les caractéristiques des réseaux doivent être prises en compte, à savoir leurs dynamiques complexes, des retards variables et l’absence de pente. Afin de réaliser la gestion optimale, le contrôle efficace des structures hydrauliques doit être assuré. A cette fin, une approche de modélisation orientée contrôle est dérivée. Cependant, la formulation obtenue appartient à la classe des systèmes de descripteurs retardés, pour lesquels la commande prédictive MPC et l’estimation d’état sur horizon glissant MHE peuvent être facilement adaptés à cette formulation, tout en permettant de gérer les contraintes physiques et opérationnelles de manière naturelle. En raison de leur grande dimensionnalité, une mise en œuvre centralisée n’est souvent ni possible ni souhaitable. Compte tenu du fait que les réseaux de navigation intérieure sont des systèmes fortement couplés, une approche distribuée est proposée, incluant un protocole de communication entre agents. Malgré l’optimalité des solutions, toute erreur peut entraîner une gestion inefficace du système. Par conséquent, les dernières contributions de la thèse concernent la conception de stratégies de supervision permettant de détecter et d’isoler les pannes des équipements. Toutes les approches présentées sont appliquées à une étude de cas réaliste basée sur le réseau de voies navigables du nord e la France afin de valider leur efficacité. / This thesis addresses the problem of optimal management of water resources in inland navigation networks from a control theory perspective. The main objectives to be attained consist in guaranteeing the navigability condition of the network, minimizing the operational cost and ensuring a long lifespan of the equipment. However, their complex dynamics, large time delays and negligible bottom slopes complicate their management. In order to achieve the optimal management, the efficient control of the hydraulic structures must be ensured. To this end, a control-oriented modeling approach is derived. The resulting formulation belongs to the class of delayed desciptor systems, for which model predictive control and moving horizon estimation can be easily adapted, as well as being able to deal with physical and operational constraints in a natural manner. However, a centralized implementation is often neither possible nor desirable. As these networks are strongly coupled systems, a distributed approach is followed, featuring a communication protocol among agents. Despite the optimality of the solutions, any malfunction can lead to an inefficient system management. Therefore, the last part of the thesis regards the design of supervisory strategies that allow to detect and isolate faults. All the presented approaches are applied to a realistic case study based on the inland navigation network in the north of France to validate their effectiveness.
95

Random matrix theory for advanced communication systems. / Matrices aléatoires pour les futurs systèmes de communication

Hoydis, Jakob 05 April 2012 (has links)
Les futurs systèmes de communication mobile sont caractérisés par un déploiement de plus en plus dense de différents types de points d'accès sans fil. Afin d’atténuer les interférences dans ces systèmes, les techniques aux entrées multiples-sorties multiples (MIMO) ainsi que la coopération entre les émetteurs et/ou les récepteurs sont nécessaires. Les systèmes de communication mobile en deviennent plus complexes, ce qui impose une évolution des outils mathématiques permettant leur analyse. Ceux-ci doivent être capables de prendre en compte les caractéristiques les plus importantes du système, telles que l'affaiblissement de propagation, les interférences et l'information imparfaite d'état du canal. Le but de cette thèse est de développer de tels outils basés sur la théorie des grandes matrices aléatoires et de démontrer leur utilité à l'aide de plusieurs applications pratiques, telles que l'analyse des performances des systèmes « network MIMO » et des systèmes MIMO à grande échelle, la conception de détecteurs de faible complexité à expansion polynomiale, l'étude des techniques de précodage unitaire aléatoire, ainsi que l'analyse de canaux à relais multiples et de canaux à double diffusion. En résumé, les méthodes développées dans ce travail fournissent des approximations déterministes de la performance du système qui deviennent exactes en régime asymptotique avec un nombre illimité d'émetteurs et de récepteurs. Cette approche conduit souvent à des approximations de la performance du système étonnamment simples et précises et permet de tirer d’importantes conclusions sur les paramètres les plus pertinents. / Advanced mobile communication systems are characterized by a dense deployment of different types of wireless access points. Since these systems are primarily limited by interference, multiple-input multiple-output (MIMO) techniques as well as coordinated transmission and detection schemes are necessary to mitigate this limitation. Thus, mobile communication systems become more complex which requires that also the mathematical tools for their theoretical analysis must evolve. These must be able to take the most important system characteristics into account, such as fading, path loss, and interference. The aim of this thesis is to develop such tools based on large random matrix theory and to demonstrate their usefulness with the help of several practical applications, such as the performance analysis of network MIMO and large-scale MIMO systems, the design of low-complexity polynomial expansion detectors, and the study of random beamforming techniques as well as multi-hop relay and double-scattering channels. The methods developed in this work provide deterministic approximations of the system performance which become arbitrarily tight in the large system regime with an unlimited number of transmitting and receiving devices. This leads in many cases to simple and close approximations of the finite-size system performance and allows one to draw relevant conclusions about the most significant parameters. One can think of these methods as a way to provide a deterministic abstraction of the physical layer which substantially reduces the system complexity. Due to this complexity reduction, it is possible to carry out a system optimization which would be otherwise intractable.
96

Algorithmes de dissémination épidémiques dans les réseaux à grande échelle : comparaison et adaptation aux topologies

Hu, Ruijing 02 December 2013 (has links) (PDF)
La dissémination d'informations (broadcast) est essentielle pour de nombreuses applications réparties. Celle-ci doit être efficace, c'est à dire limiter la redondance des messages, et assurer forte fiabilité et faible latence. Nous considérons ici les algorithmes répartis profitant des propriétés des topologies sous-jacentes. Cependant, ces propriétés et les paramètres dans les algorithmes sont hétérogènes. Ainsi, nous devons trouver une manière pour les comparer équitablement. D'abord, nous étudions les protocoles probabilistes de dissémination d'informations (gossip) exécutées sur trois graphes aléatoires. Les trois graphes représentent les topologies typiques des réseaux à grande-échelle : le graphe de Bernoulli, le graphe géométrique aléatoire et le graphe scale-free. Afin de comparer équitablement leurs performances, nous proposons un nouveau paramètre générique : le fanout effectif. Pour une topologie et un algorithme donnés, le fanout effectif caractérise la puissance moyenne de la dissémination des sites infectés. De plus, il simplifie la comparaison théorique des différents algorithmes sur une topologie. Après avoir compris l'impact des topologies et les algorithmes sur les performances , nous proposons un algorithme fiable et efficace pour la topologie scale-free.
97

Étude du rayonnement acoustique d'instabilités hydrodynamiques de jets double-flux par les équations de stabilité parabolisées (PSE) / Acoustics of hydrodynamic instabilities in dual-stream jets using parabolized stability equations (PSE)

Léon, Olivier 19 October 2012 (has links)
Dans le but de réduire le bruit de jet, source principale de nuisance sonore au décollage d'un avion, une compréhension fine des mécanismes aéroacoustiques mis en jeu est nécessaire. Les structures cohérentes de grande échelle se développant dans la couche de mélange d'un jet semblent responsables d'une part importante du bruit observé en champ lointain, surtout dans les basses fréquences. Une approche permettant d'étudier ces structures turbulentes est fournie par la théorie de stabilité, notamment au moyen des équations de stabilité parabolisées (PSE). L'étude de ces ondes d'instabilité est alors complémentaire d'autres approches (LES ou expériences), puisqu'elle permet de mettre en évidence la nature et la dynamique de ces structures, également présentes dans les résultats de simulations ou de mesures.Au cours de ces travaux de thèse, nous nous sommes intéressés aux structures cohérentes se développant dans des jets à double flux étudiés au cours du projet européen CoJeN (Coaxial Jet Noise). En particulier, nous avons exploité une base de données issues de mesures de fluctuations de pression réalisées en champ proche et en champ lointain de ces jets. Nous avons alors pu comparer les résultats de notre modélisation PSE à ces mesures en périphérie immédiate du jet, confirmant ainsi la pertinence d’un tel modèle, même dans des configurations aussi complexes. De plus, le calcul du rayonnement acoustique en champ lointain engendré par les fluctuations de pression modélisées nous a permis de faire des comparaisons directes avec les niveaux et les directivités mesurés. Nous avons ainsi pu mettre en évidence quantitativement la contribution de ces structures turbulentes de grande échelle au bruit total rayonné par le jet. / Increasingly stringent aircraft noise regulations require the development of innovative noise reduction strategies. Jet noise is a dominant acoustic component during take-off and a fine understanding of the underlying aeroacoustics mechanisms is then necessary. Large-scale coherent structures that develop in the mixing layer of jets appear to be the dominant acoustic source responsible for the lowfrequency far-field noise observed at low emission angles. A stability analysis based on the parabolized stability equations (PSE) is a suitable tool for studying these coherent structures, revealing the nature and the dynamics of the fluctuations obtained by simulations or experiments. The present work is focused on coherent structures developing in the two mixing layers of dualstream jets studied in the course of the European project CoJeN (Coaxial Jet Noise). In particular, pressure fluctuations measurements acquired in the near and far fields of two coaxial jets have been thoroughly analyzed. A direct comparison of these experimental results with linear PSE calculations has been performed in the vicinity of the jets, referred to as the linear-hydrodynamic region, confirming the relevance of the approach even in such complex industrial configurations. Furthermore, the acoustic projection to the far-field of the wavepackets issued by this model and calibrated in the near-field allows a direct comparison of the acoustic levels and directivity with far field sound measurements. A quantitative assessment of the contribution of the instability waves to the total jet noise measured has therefore been obtained.
98

A user-centered and autonomic multi-cloud architecture for high performance computing applications / Un utilisateur centré et multi-cloud architecture pour le calcul des applications de haute performance

Ferreira Leite, Alessandro 02 December 2014 (has links)
Le cloud computing a été considéré comme une option pour exécuter des applications de calcul haute performance. Bien que les plateformes traditionnelles de calcul haute performance telles que les grilles et les supercalculateurs offrent un environnement stable du point de vue des défaillances, des performances, et de la taille des ressources, le cloud computing offre des ressources à la demande, généralement avec des performances imprévisibles mais à des coûts financiers abordables. Pour surmonter les limites d’un cloud individuel, plusieurs clouds peuvent être combinés pour former une fédération de clouds, souvent avec des coûts supplémentaires légers pour les utilisateurs. Une fédération de clouds peut aider autant les fournisseurs que les utilisateurs à atteindre leurs objectifs tels la réduction du temps d’exécution, la minimisation des coûts, l’augmentation de la disponibilité, la réduction de la consommation d’énergie, pour ne citer que ceux-Là. Ainsi, la fédération de clouds peut être une solution élégante pour éviter le sur-Approvisionnement, réduisant ainsi les coûts d’exploitation en situation de charge moyenne, et en supprimant des ressources qui, autrement, resteraient inutilisées et gaspilleraient ainsi de énergie. Cependant, la fédération de clouds élargit la gamme des ressources disponibles. En conséquence, pour les utilisateurs, des compétences en cloud computing ou en administration système sont nécessaires, ainsi qu’un temps d’apprentissage considérable pour maîtrises les options disponibles. Dans ce contexte, certaines questions se posent: (a) Quelle ressource du cloud est appropriée pour une application donnée? (b) Comment les utilisateurs peuvent-Ils exécuter leurs applications HPC avec un rendement acceptable et des coûts financiers abordables, sans avoir à reconfigurer les applications pour répondre aux normes et contraintes du cloud ? (c) Comment les non-Spécialistes du cloud peuvent-Ils maximiser l’usage des caractéristiques du cloud, sans être liés au fournisseur du cloud ? et (d) Comment les fournisseurs de cloud peuvent-Ils exploiter la fédération pour réduire la consommation électrique, tout en étant en mesure de fournir un service garantissant les normes de qualité préétablies ? À partir de ces questions, la présente thèse propose une solution de consolidation d’applications pour la fédération de clouds qui garantit le respect des normes de qualité de service. On utilise un système multi-Agents pour négocier la migration des machines virtuelles entre les clouds. En nous basant sur la fédération de clouds, nous avons développé et évalué une approche pour exécuter une énorme application de bioinformatique à coût zéro. En outre, nous avons pu réduire le temps d’exécution de 22,55% par rapport à la meilleure exécution dans un cloud individuel. Cette thèse présente aussi une architecture de cloud baptisée « Excalibur » qui permet l’adaptation automatique des applications standards pour le cloud. Dans l’exécution d’une chaîne de traitements de la génomique, Excalibur a pu parfaitement mettre à l’échelle les applications sur jusqu’à 11 machines virtuelles, ce qui a réduit le temps d’exécution de 63% et le coût de 84% par rapport à la configuration de l’utilisateur. Enfin, cette thèse présente un processus d’ingénierie des lignes de produits (PLE) pour gérer la variabilité de l’infrastructure à la demande du cloud, et une architecture multi-Cloud autonome qui utilise ce processus pour configurer et faire face aux défaillances de manière indépendante. Le processus PLE utilise le modèle étendu de fonction avec des attributs pour décrire les ressources et les sélectionner en fonction des objectifs de l’utilisateur. Les expériences réalisées avec deux fournisseurs de cloud différents montrent qu’en utilisant le modèle proposé, les utilisateurs peuvent exécuter leurs applications dans un environnement de clouds fédérés, sans avoir besoin de connaître les variabilités et contraintes du cloud. / Cloud computing has been seen as an option to execute high performance computing (HPC) applications. While traditional HPC platforms such as grid and supercomputers offer a stable environment in terms of failures, performance, and number of resources, cloud computing offers on-Demand resources generally with unpredictable performance at low financial cost. Furthermore, in cloud environment, failures are part of its normal operation. To overcome the limits of a single cloud, clouds can be combined, forming a cloud federation often with minimal additional costs for the users. A cloud federation can help both cloud providers and cloud users to achieve their goals such as to reduce the execution time, to achieve minimum cost, to increase availability, to reduce power consumption, among others. Hence, cloud federation can be an elegant solution to avoid over provisioning, thus reducing the operational costs in an average load situation, and removing resources that would otherwise remain idle and wasting power consumption, for instance. However, cloud federation increases the range of resources available for the users. As a result, cloud or system administration skills may be demanded from the users, as well as a considerable time to learn about the available options. In this context, some questions arise such as: (a) which cloud resource is appropriate for a given application? (b) how can the users execute their HPC applications with acceptable performance and financial costs, without needing to re-Engineer the applications to fit clouds' constraints? (c) how can non-Cloud specialists maximize the features of the clouds, without being tied to a cloud provider? and (d) how can the cloud providers use the federation to reduce power consumption of the clouds, while still being able to give service-Level agreement (SLA) guarantees to the users? Motivated by these questions, this thesis presents a SLA-Aware application consolidation solution for cloud federation. Using a multi-Agent system (MAS) to negotiate virtual machine (VM) migrations between the clouds, simulation results show that our approach could reduce up to 46% of the power consumption, while trying to meet performance requirements. Using the federation, we developed and evaluated an approach to execute a huge bioinformatics application at zero-Cost. Moreover, we could decrease the execution time in 22.55% over the best single cloud execution. In addition, this thesis presents a cloud architecture called Excalibur to auto-Scale cloud-Unaware application. Executing a genomics workflow, Excalibur could seamlessly scale the applications up to 11 virtual machines, reducing the execution time by 63% and the cost by 84% when compared to a user's configuration. Finally, this thesis presents a product line engineering (PLE) process to handle the variabilities of infrastructure-As-A-Service (IaaS) clouds, and an autonomic multi-Cloud architecture that uses this process to configure and to deal with failures autonomously. The PLE process uses extended feature model (EFM) with attributes to describe the resources and to select them based on users' objectives. Experiments realized with two different cloud providers show that using the proposed model, the users could execute their application in a cloud federation environment, without needing to know the variabilities and constraints of the clouds.
99

Non-Gaussianity and extragalactic foregrounds to the Cosmic Microwave Background / Non-Gaussianité et avant-plans extragalactiques au fond de rayonnement fossile

Lacasa, Fabien 23 September 2013 (has links)
Cette thèse, écrite en anglais, étudie la non-Gaussianité (NG) des avant-plans extragalactiques au fond de rayonnement fossile (FDC), celui-ci étant une des observables de choix de la cosmologie actuelle. Ces dernières années a émergé la recherche de déviations du FDC à la loi Gaussienne, car elles permettraient de discriminer les modèles de génération des perturbations primordiales. Cependant les mesures du FDC, e.g. par le satellite Planck, sont contaminées par différents avant-plans. J'ai étudié en particulier les avant-plans extragalactiques traçant la structure à grande échelle de l'univers: les sources ponctuelles radio et infrarouges et l'effet Sunyaev-Zel'dovich thermique (tSZ). Je décris donc les outils statistiques caractérisant un champ aléatoire : les fonctions de corrélations, et leur analogue harmonique : les polyspectres. En particulier le bispectre est l'indicateur de plus bas ordre de NG avec le plus fort rapport signal sur bruit (SNR) potentiel. Je décris comment il peut être estimé sur des données en tenant compte d'un masque (e.g. galactique), et propose une méthode de visualisation du bispectre plus adaptée que les préexistantes. Je décris ensuite la covariance d'une mesure de polyspectre, une méthode pour générer des simulations non-Gaussiennes, et comment la statistique d'un champ 3D se projette sur la sphère lors de l'intégration sur la ligne de visée. Je décris ensuite la genèse des perturbations de densité par l'inflation standard et leur possible NG, comment elles génèrent les anisotropies du FDC et croissent pour former la structure à grande échelle de l'univers actuel. Pour décrire cette dite structure, j'expose le modèle de halo et propose une méthode diagrammatique pour calculer les polyspectres du champ de densité des galaxies et avoir une représentation simple et puissante des termes impliqués. Puis je décris les avant-plans au FDC, tant galactiques que extragalactiques. J'expose la physique de l'effet tSZ et comment décrire sa distribution spatiale avec le modèle de halo. Puis je décris les sources extragalactiques et présente une prescription pour la NG de sources corrélées. Pour le fond diffus infrarouge (FDI) j'introduis une modélisation physique par le modèle de halo et la méthode diagrammatique. Je calcule numériquement le bispectre 3D des galaxies et obtiens la première prédiction du bispectre angulaire FDI. Je montre les différentes contributions et l'évolution temporelle du bispectre des galaxies. Pour le bispectre du FDI, je montre ses différents termes, sa dépendence en échelle et en configuration, et comment il varie avec les paramètres du modèle. Par analyse de Fisher, je montre qu'il apporte de fortes contraintes sur ces paramètres, complémentaires ou supérieures à celles venant du spectre. Enfin, je décris mon travail de mesure de la NG. J'introduis d'abord un estimateur pour l'amplitude du bispectre FDI, et montre comment le combiner avec de similaires pour les sources radio et le FDC, pour une contrainte jointe des différentes sources de NG. Je quantifie la contamination des sources ponctuelles à l'estimation de NG primordiale ; pour Planck elle est négligeable aux fréquences centrales du FDC. Je décris ensuite ma mesure du bispectre FDI sur les données Planck ; il est détecté très significativement à 217, 353 et 545 GHz, avec des SNR allant de 5.8 à 28.7. Sa forme est cohérente entre les différentes fréquences, de même que l'amplitude intrinsèque de NG. Enfin, je décris ma mesure du bispectre tSZ, sur des simulations et sur les cartes tSZ estimées par Planck, validant la robustesse de l'estimation via des simulations d'avant-plans. Le bispectre tSZ est détecté avec un SNR~200. Son amplitude et sa dépendence en échelle et en configuration sont cohérentes avec la carte des amas détectés et avec les simulations. Enfin, cette mesure place une contrainte sur les paramètres cosmologiques : sigma_8 (Omega_b/0.049)^0.35 = 0.74+/-0.04 en accord avec les autres statistiques tSZ. / This PhD thesis, written in english, studies the non-Gaussianity (NG) of extragalactic foregrounds to the Cosmic Microwave Background (CMB), the latter being one of the golden observables of today's cosmology. In the last decade has emerged research for deviations of the CMB to the Gaussian law, as they would discriminate the models for the generation of primordial perturbations. However the CMB measurements, e.g. by the Planck satellite, are contaminated by several foregrounds. I studied in particular the extragalactic foregrounds which trace the large scale structure of the universe : radio and infrared point-sources and the thermal Sunyaev-Zel'dovich effect (tSZ). I hence describe the statistical tools to characterise a random field : the correlation functions, and their harmonic counterpart : the polyspectra. In particular the bispectrum is the lowest order indicator of NG, with the highest potential signal to noise ratio (SNR). I describe how it can be estimated on data, accounting for a potential mask (e.g. galactic), and propose a method to visualise the bispectrum, which is more adapted than the already existing ones. I then describe the covariance of a polyspectrum measurement, a method to generate non-Gaussian simulations, and how the statistic of a 3D field projects onto the sphere when integrating along the line-of-sight. I then describe the generation of density perturbations by the standard inflation model and their possible NG, how they yield the CMB anisotropies and grow to form the large scale structure of today's universe. To describe this large scale structure, I present the halo model and propose a diagrammatic method to compute the polyspectra of the galaxy density field and to have a simple and powerful representation of the involved terms. I then describe the foregrounds to the CMB, galactic as well as extragalactic. I briefly describe the physics of the thermal Sunyaev-Zel'dovich effect and how to describe its spatial distribution with the halo model. I then describe the extragalactic point-sources and present a prescription for the NG of clustered sources. For the Cosmic Infrared Background (CIB) I introduce a physical modeling with the halo model and the diagrammatic method. I compute numerically the 3D galaxy bispectrum and produce the first theoretical prediction of the CIB angular bispectrum. I show the contributions of the different terms and the temporal evolution of the galaxy bispectrum. For the CIB angular bispectrum, I show its different terms, its scale and configuration dependence, and how it varies with model parameters. By Fisher analysis, I show it allows very good constraints on these parameters, complementary to or better than those coming from the power spectrum. Finally, I describe my work on measuring NG. I first introduce an estimator for the amplitude of the CIB bispectrum, and show how to combine it with similar ones for radio sources and the CMB, for a joint constraint of the different sources of NG. I quantify the contamination of extragalactic point-sources to the estimation of primordial NG ; for Planck it is negligible for the central CMB frequencies. I then describe my measurement of the CIB bispectrum on Planck data ; it is very significantly detected at 217, 353 and 545 GHz with SNR ranging from 5.8 to 28.7. Its shape is consistent between frequencies, as well as the intrinsic amplitude of NG. Ultimately, I describe my measurement of the tSZ bispectrum, on simulations and on Compton parameter maps estimated by Planck, validating the robustness of the estimation thanks to realist foreground simulations. The tSZ bispectrum is very significantly detected with SNR~200. Its amplitude and its scale and configuration dependence are consistent with the projected map of detected clusters and tSZ simulations. Finally, this measurement allows to put a constraint on the cosmological parameters : sigma_8*(Omega_b/0.049)^0.35 = 0.74+/-0.04 in agreement with other tSZ statistics.
100

Optimization framework for large-scale sparse blind source separation / Stratégies d'optimisation pour la séparation aveugle de sources parcimonieuses grande échelle

Kervazo, Christophe 04 October 2019 (has links)
Lors des dernières décennies, la Séparation Aveugle de Sources (BSS) est devenue un outil de premier plan pour le traitement de données multi-valuées. L’objectif de ce doctorat est cependant d’étudier les cas grande échelle, pour lesquels la plupart des algorithmes classiques obtiennent des performances dégradées. Ce document s’articule en quatre parties, traitant chacune un aspect du problème: i) l’introduction d’algorithmes robustes de BSS parcimonieuse ne nécessitant qu’un seul lancement (malgré un choix d’hyper-paramètres délicat) et fortement étayés mathématiquement; ii) la proposition d’une méthode permettant de maintenir une haute qualité de séparation malgré un nombre de sources important: iii) la modification d’un algorithme classique de BSS parcimonieuse pour l’application sur des données de grandes tailles; et iv) une extension au problème de BSS parcimonieuse non-linéaire. Les méthodes proposées ont été amplement testées, tant sur données simulées que réalistes, pour démontrer leur qualité. Des interprétations détaillées des résultats sont proposées. / During the last decades, Blind Source Separation (BSS) has become a key analysis tool to study multi-valued data. The objective of this thesis is however to focus on large-scale settings, for which most classical algorithms fail. More specifically, it is subdivided into four sub-problems taking their roots around the large-scale sparse BSS issue: i) introduce a mathematically sound robust sparse BSS algorithm which does not require any relaunch (despite a difficult hyper-parameter choice); ii) introduce a method being able to maintain high quality separations even when a large-number of sources needs to be estimated; iii) make a classical sparse BSS algorithm scalable to large-scale datasets; and iv) an extension to the non-linear sparse BSS problem. The methods we propose are extensively tested on both simulated and realistic experiments to demonstrate their quality. In-depth interpretations of the results are proposed.

Page generated in 0.0909 seconds