• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 57
  • 47
  • 1
  • Tagged with
  • 101
  • 101
  • 55
  • 53
  • 23
  • 23
  • 17
  • 16
  • 15
  • 14
  • 13
  • 13
  • 11
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Sur le passage à l'échelle des systèmes de gestion des grandes masses de données

Tran, Viet-Trung 21 January 2013 (has links) (PDF)
La problématique "Big Data" peut être caractérisée par trois "V": * "Big Volume" se rapporte à l'augmentation sans précédent du volume des données. * "Big Velocity" se réfère à la croissance de la vitesse à laquelle ces données sont déplacées entre les systèmes qui les gèrent. * "Big Variety" correspond à la diversification des formats de ces données. Ces caractéristiques imposent des changements fondamentaux dans l'architecture des systèmes de gestion de données. Les systèmes de stockage doivent être adaptés à la croissance des données, et se doivent de passer à l'échelle tout en maintenant un accès à hautes performances. Cette thèse se concentre sur la construction des systèmes de gestion de grandes masses de données passant à l'échelle. Les deux premières contributions ont pour objectif de fournir un support efficace des "Big Volumes" pour les applications data-intensives dans les environnements de calcul à hautes performances (HPC). Nous abordons en particulier les limitations des approches existantes dans leur gestion des opérations d'entrées/sorties (E/S) non-contiguës atomiques à large échelle. Un mécanisme basé sur les versions est alors proposé, et qui peut être utilisé pour l'isolation des E/S non-contiguës sans le fardeau de synchronisations coûteuses. Dans le contexte du traitement parallèle de tableaux multi-dimensionels en HPC, nous présentons Pyramid, un système de stockage large-échelle optimisé pour ce type de données. Pyramid revoit l'organisation physique des données dans les systèmes de stockage distribués en vue d'un passage à l'échelle des performances. Pyramid favorise un partitionnement multi-dimensionel de données correspondant le plus possible aux accès générés par les applications. Il se base également sur une gestion distribuée des métadonnées et un mécanisme de versioning pour la résolution des accès concurrents, ce afin d'éliminer tout besoin de synchronisation. Notre troisième contribution aborde le problème "Big Volume" à l'échelle d'un environnement géographiquement distribué. Nous considérons BlobSeer, un service distribué de gestion de données orienté "versioning", et nous proposons BlobSeer-WAN, une extension de BlobSeer optimisée pour un tel environnement. BlobSeer-WAN prend en compte la hiérarchie de latence et favorise les accès aux méta-données locales. BlobSeer-WAN inclut la réplication asynchrone des méta-données et une résolution des collisions basée sur des "vector-clock". Afin de traîter le caractère "Big Velocity" de la problématique "Big Data", notre dernière contribution consiste en DStore, un système de stockage en mémoire orienté "documents" qui passe à l'échelle verticalement en exploitant les capacités mémoires des machines multi-coeurs. Nous montrons l'efficacité de DStore dans le cadre du traitement de requêtes d'écritures atomiques complexes tout en maintenant un haut débit d'accès en lecture. DStore suit un modèle d'exécution mono-thread qui met à jour les transactions séquentiellement, tout en se basant sur une gestion de la concurrence basée sur le versioning afin de permettre un grand nombre d'accès simultanés en lecture.
22

Vers l'auto-stabilisation des systèmes à grande échelle

Tixeuil, Sébastien 22 May 2006 (has links) (PDF)
Vers l'auto-stabilisation des systèmes à grande échelle.
23

La résilience du réseau logistique : une étude exploratoire dans le secteur de la production à grande échelle des produits assemblés / Supply chain network resilience : an exploratory study in the context of large-scale production of assembled products

Yao, Yuan 16 December 2014 (has links)
Cette thèse porte sur la conceptualisation de la résilience au sein du réseau logistique. La résilience a été initialement définie comme la capacité du métal à rebondir et à revenir à l'état initial face à un choc. Nous avons essayé de transposer et d'appliquer cette notion dans le réseau logistique, qui est confronté inévitablement à des aléas et subit souvent des ruptures. Après une étude conceptuelle multidisciplinaire de la résilience, nous avons tenté de définir la capacité de résilience au sein du réseau logistique dans une perspective de la Resource Based View. Selon nous, la résilience est constituée par trois caractéristiques formant un processus rétroactif: absorption, réponse et capitalisation. Une série de mécanismes qui favorisent la résilience a été identifiée à partir d'une revue de la littérature. Notre étude exploratoire prend appui sur le contexte de la production à grande échelle des produits assemblés en Chine, par une recherche empirique de vingt-deux entreprises internationales. A cette fin, nous avons réalisé des enquêtes avec des industriels et deux études de cas dans le secteur automobile et dans le secteur électronique grand public. Sur le terrain, nous avons confirmé et complété la signification de la résilience, synthétisé un processus de son fonctionnement, identifié les mécanismes qui favorisent cette capacité, les facteurs influençant sa formation et ses avantages compétitifs stratégiques. / This PhD dissertation works on the conceptualization of resilience of supply chain network. The initial definition of resilience is the quality of metal of rebounding and returning to its original shape after bending. Our study tries to transpose and apply this concept into the supply chain network, which confronts inevitably with accidents and suffers disruptions. Based on multidisciplinary literature, we have tried to develop a definition of the resilience capacity of supply chain network in the perspective of Resource Based View. In our opinion, the resilience comprises three characteristics, which form a retroactive process, absorption, response, and capitalization. We have synthesized a set of mechanisms, which are favorable for the improvement of resilience. Our exploratory and empirical study is implemented in the field of large scale production of assembling products in China, data gathered by twenty two international companies. We have carried out survey and two case studies in automotive and consumer electronics industries. By the field study, we have validated and complemented the signification of resilience, synthesized its implementation process, identified the enhancing mechanisms, and indicated the influential factors and strategic competitive advantages.
24

Méthodes et outils pour des expériences difficiles sur Grid 5000 : un cas d'utilisation sur une simulation hybride en électromagnétisme / Methods and tools for challenging experiments on Grid’5000 : a use case on electromagnetic hybrid simulation

Ruiz, Cristian 15 December 2014 (has links)
Dans le domaine des systèmes distribués et du calcul haute performance, la validation expérimentale est de plus en plus utilisée par rapport aux approches analytiques. En effet, celles-ci sont de moins en moins réalisables à cause de la complexité grandissante de ces systèmes à la fois au niveau logiciel et matériel. Les chercheurs doivent donc faire face à de nombreux challenges lors de la réalisation de leurs expériences rendant le processus coûteux en ressource et en temps. Bien que de larges plateformes parallèles et technologies de virtualisation existent, les expérimentations sont, pour la plupart du temps, limitées en taille. La difficulté de passer une expérimentation à l'échelle représente un des grands facteurs limitant. Le niveau technique nécessaire pour mettre en place un environnement expérimentale approprié ne cesse d'augmenter pour suivre les évolutions des outils logiciels et matériels de plus en plus complexes. Par conséquent, les chercheurs sont tentés d'utiliser des méthodes ad-hoc pour présenter des résultats plus rapidement et pouvoir publier. Il devient alors difficile d'obtenir des informations sur ces expérimentations et encore plus de les reproduire.Une palette d'outils ont été proposés pour traiter cette complexité lors des expérimentations. Ces outils sont motivés par le besoin de fournir et d'encourager des méthodes expérimentales plus construites. Cependant, ces outils se concentrent principalement sur des scénarios très simple n'utilisant par exemple qu'un seul noeud ou client/serveur. Dans le contexte des systèmes distribués et du calcul haute performance, l'objectif de cette thèse est de faciliter la création d'expériences, de leur contrôle, répétition et archivage.Dans cette thèse nous proposons deux outils pour mener des expérimentations nécessitant une pile logicielle complexe ainsi qu'un grand nombre de ressources matérielles. Le premier outil est Expo. Il permet de contrôler efficacement la partie dynamique d'une expérimentation, c'est à dire l'enchaînement des tests expérimentaux, la surveillance des taches et la collecte des résultats. Expo dispose d'un langage de description qui permet de mettre en place une expérience dans un contexte distribué avec nettement moins de difficultés. Contrairement aux autres approches, des tests de passage à l'échelle et scénarios d'usage sont présentés afin de démontrer les avantages de notre approche. Le second outil est appelé Kameleon. Il traite les aspects statiques d'une expérience, c'est à dire la pile logicielle et sa configuration. Kameleon est un logiciel qui permet de décrire et contrôler toutes les étapes de construction d'un environnement logiciel destiné aux expérimentations. La principale contribution de Kamelon est de faciliter la construction d'environnements logiciels complexes ainsi que de garantir de futur reconstructions. / In the field of Distributed Systems and High Performance Computing experimental validation is heavily used against an analytic approach which is not feasible any more due to the complexity of those systems in terms of software and hardware.Therefore, researchers have to face many challenges when conducting their experiments, making the process costly and time consuming. Although world scale platforms exist and virtualization technologies enable to multiplex hardware, experiments are most of the time limited in size given the difficulty to perform them at large scale.The level of technical skills required for setting up an appropriate experimental environment is risen with the always increasing complexity of software stacks and hardware nowadays. This in turn provokes that researchers in the pressure to publish and present their results use ad hoc methodologies.Hence, experiments are difficult to track and preserve, preventing future reproduction. A variety of tools have been proposed to address this complexity at experimenting. They were motivated by the need to provide and encourage a sounder experimental process, however, those tools primary addressed much simpler scenarios such as single machine or client/server. In the context of Distributed Systems and High Performance Computing, the objective of this thesis is to make complex experiments, easier to perform, to control, to repeat and to archive. In this thesis we propose two tools for conducting experiments that demand a complex software stack and large scale. The first tool is Expo that enable to efficiently control the dynamic part of an experiment which means all the experiment workflow, monitoring of tasks, and collection of results.Expo features a description language that makes the set up of an experiment withdistributed systems less painful. Comparison against other approaches, scalability tests anduse cases are shown in this thesis which demonstrate the advantage of our approach.The second tool is called Kamelon which addresses the static part of an experiment,meaning the software stack and its configuration.Kameleon is a software appliance builderthat enables to describe and control all the process ofconstruction of a software stack for experimentation.The main contribution of Kameleon is to make easy the setup of complex software stacks andguarantee its post reconstruction.
25

Overdense regions in the intergalactic medium and the environments of high-redshift quasars / Régions sur-denses du milieu intergalactique et environnements de quasars à grand décalage spectral

Finley, Hayley 25 September 2014 (has links)
Des systèmes d'absorption Lorentziens, qui sondent les nuages de gaz HI de plus hautes densités de colonne, servent ici à sonder les environnements de galaxies hôtes de noyaux actifs à grand décalage spectral (z > 2). Ceci permet d'étudier l'effet des mécanismes de rétroaction des noyaux actifs sur les galaxies hôtes, tel que les vents à haute vitesse et l'ionisation intense. J'implémente deux techniques pour identifier les systèmes Lorentziens au décalage spectral du quasar dans les données du Sloan Digital Sky Survey III Baryon Oscillation Spectroscopic Survey.Un tel système Lorentzien fait office de coronographe naturel puisqu'il absorbe complètement le rayonnement provenant du noyau actif. Parfois une raie Lyα étroite émise par la galaxie est superposée à l'absorption. J'étudie un échantillon statistiquement complet et je caractérise l'émission. Les systèmes Lorentziens qui révèlent les raies étroites d'émission Lyα les plus lumineuses proviennent de nuages denses et compacts dans la galaxie hôte. Les autres sont dus à des galaxies voisines du quasars.Une deuxième technique consiste à observer des paires de quasars ayant une petite séparation angulaire pour sonder les environnements des galaxies hôtes à des distances transverses inférieures à 90 kpc. J'analyse les propriétés du gaz pour des paires où un système Lorentzien apparait dans le spectre du quasar d'arrière plan coïncident avec le pic d'émission Lyα du quasar de premier plan.Dans une des paires, je détecte une sur-densité de systèmes absorbants à z = 2.69 dans une région correspondant à 6.4 Mpc en distance propre. Les propriétés de cette région suggèrent un filament du milieu intergalactique. / Damped Lyman-α absorbers (DLAs), the highest column density HI Lyman-α (Lyα) absorptions, are used in this thesis to study the environments of high-redshift (z > 2) quasar host galaxies. This is essential for determining how feedback mechanisms from active galactic nuclei (AGN), including high-velocity winds and intense ionizing radiation, impact the host galaxies. Thanks to the large number of quasar sight-lines from the Sloan Digital Sky Survey III Baryon Oscillation Spectroscopic Survey, I implement two techniques to identify DLAs that occur at the quasar redshift.Along the sight-line, these DLAs act as natural coronagraphs and completely absorb the broad Lyα emission from the central AGN. In some cases, a narrow Lyα emission line from the quasar host galaxy is superimposed on the DLA trough. I compare coronagraph DLAs that reveal narrow Lyα emission with those that do not in a statistically complete sample and characterize the emission. DLAs with the most luminous narrow Lyα emission peaks may arise from dense, compact clouds in the host galaxy, while the others may be due to neighboring galaxies. With a second technique, I use pairs of quasars with small angular separations to investigate host galaxy environments at distances of less than 90 kpc in the transverse direction. I analyze the gas properties for pairs where a DLA appears in the background quasar spectrum coincident with the foreground quasar Lyα emission peak.In one of the pairs, I also detect an overdensity of Lyman-limit system absorbers at z = 2.69 in a region spanning 2000 km/s (6.4 Mpc proper distance) along the two sight-lines. The overdense region properties suggest an intergalactic medium filament.
26

Piwi-dependent transcriptional silencing and Dicer-2-dependent post-transcriptional silencing limit transposon expression in adult heads of Drosophila Melanogaster / L'effet synergique de la répression transcriptionelle par piwi et post-transcriptionelle par Dicer-2 contrôle l'expression de transposon dans les têtes de Drosophila Melanogaster

Van Den Beek, Marius 09 February 2015 (has links)
Les éléments transposables (ET) sont des constituants majeurs des génomes eucaryotes. Leur mobilisation joue un rôle important dans l'évolution et l'adaptation des organismes. Cependant, la transposition des ET peut conduire à des dommages irréversibles du génome et elle doit donc être étroitement contrôlé. Chez Drosophila melanogaster, la transposition des ET est contrôlée par les siRNA (small interfering RNAs) et les piRNA (Piwi-interacting RNAs) qui agissent en réprimant des cibles ARN de séquences complémentaires. Les siRNA et piRNA ont des modes distincts de biogenèse, de reconnaissance de cibles et d'activité repressive. Les piRNAs sont seulement présents en abondance dans les gonades, et transmis maternellement aux embryons. Par une approche de séquençage à haut débit, j'ai pu montrer que bien qu'ils induisent une répression transcriptionnelle des ET à ce stade du développement, ils sont pratiquement absents des têtes de drosophiles adultes. Cet état est cependant hérité et il est suffisant pour limiter l'expression des ET dans l'adulte, même en l'absence de siRNA. A l'inverse, si la répression transcriptionnelle précoce n'est pas établie, les siRNA agissent comme un système de sauvegarde en limitant l'expression des ET. En cas de perte conjointe des piRNA et siRNA, l'expression des ET augmente significativement et la durée de vie des mouches adultes se trouve réduite. Les analyses de sequences à grande échelle m'ont par ailleurs conduit à développer des outils logiciels intégrés dans Galaxy et à m'impliquer significativement dans la communauté qui développe ce système au niveau international. / Transposable elements are major components of eukaryotic genomes and have been proposed as important drivers of gene network evolution, as they can move or “transpose” in their host genome, creating gene duplications, gene inactivations or altogether altering gene function. Nevertheless, uncontrolled high-rate transposition leads to DNA damage and genomic instabilities, and therefore needs to be kept at a low level. In the fruitfly Drosophila melanogaster, transposition is counteracted by multiple mechanisms, amongst which the generation of small interfering RNAs (siRNAs) and Piwi-interacting RNAs (piRNAs). siRNAs and piRNAs belong to the category of small RNAs, and these are involved in negative regulation of complementary target RNAs abundance, but siRNAs and piRNAs have distinct mechanisms of biogenesis, target recognition and mechanisms of target regulation. Notably, piRNAs are only abundant in gonads and are transmitted to the embryo. By sequencing small RNAs and normal transcripts in adult heads, I conclude that, while piRNAs are likely absent in adult heads, they induce a repressive state on TEs. If this repressive state is lost, the siRNA pathway can compensate and limit Transposable element levels. If siRNAs are lost, the repressive state induced by piRNAs suffices to limit Transposable element levels. If both piRNAs and siRNAs are lost, the expression level of Transposable elements increases, and flies have a shorter life span. The requirement to analyse large-scale sequencing data led to the development of multiple tools for the reproducible research platform Galaxy.
27

The large scale structures. A window on the dark components of the Universe / La structuration de l'Univers à grande échelle. une fenêtre sur ses composantes sombres

Ilić, Stéphane 23 October 2013 (has links)
L'énergie sombre est l'un des grands mystères de la cosmologie moderne, responsable de l'actuelle accélération de l'expansion de notre Univers. Son étude est un des axes principaux de ma thèse : une des voies que j'exploite s'appuie sur la structuration de l'Univers à grande échelle à travers un effet observationnel appelé effet Sachs-Wolfe intégré (iSW). Cet effet est théoriquement détectable dans le fond diffus cosmologique (FDC) : avant de nous parvenir cette lumière traverse un grand nombre grandes structures sous-tendues par des potentiels gravitationnels. L'accélération de l'expansion étire et aplatit ces potentiels pendant le passage des photons du FDC, modifiant leur énergie d'une façon dépendante des caractéristiques de l'énergie sombre. L'effet iSW n'a qu'un effet ténu sur le FDC, obligeant l'utilisation de données externes pour le détecter. Une approche classique consiste à corréler le FDC avec un traceur de la distribution de la matière, et donc des potentiels sous-jacents. Maintes fois tentée avec des relevés de galaxies, cette corrélation n'a pas donné à l'heure actuelle de résultat définitif sur la détection de l'effet iSW, la faute à des relevés pas assez profonds et/ou avec une couverture trop faible. Un partie de ma thèse est dédiée à la corrélation du FDC avec un autre fond "diffus" : le fond diffus infrarouge (FDI), qui est constitué de l'émission intégrée des galaxies lointaines non-résolues. J'ai pu montrer qu'il représente un excellent traceur, exempt des défauts des relevés actuels. Les niveaux de signifiance attendus pour la corrélation CIB-CMB excèdent ceux des relevés actuels, et rivalisent avec ceux prédits pour la futur génération de très grands relevés. Dans la suite, ma thèse a porté sur l'empreinte individuelle sur le FDC des plus grandes structures par effet iSW. Mon travail sur le sujet a d'abord consisté à revisiter une étude précédente d'empilement de vignettes de FDC à la position de structures, avec mes propres protocole de mesure et tests statistiques pour vérifier la signifiance de ces résultats, délicate à évaluer et sujette à de possibles biais de sélection. J'ai poursuivi en appliquant cette même méthode de détection à d'autres catalogues de structures disponibles, beaucoup plus conséquents et supposément plus raffinés dans leur algorithme de détection. Les résultats pour un d'eux suggère la présence d'un signal à des échelles et amplitudes compatible avec la théorie, mais à des niveaux modérés de signifiance. Ces résultats empilements font s'interroger concernant le signal attendu : cela m'a amené à travailler sur une prédiction théorique de l'iSW engendré par des structures, par des simulations basées sur la métrique de Lemaître-Tolman-Bondi. Cela m'a permis de prédire l'effet iSW théorique exact de structures existantes : l'amplitude centrale des signaux mesurés est compatible avec la théorie, mais présente des caractéristiques non-reproductibles par ces mêmes prédictions. Une extension aux catalogues étendus permettra de vérifier la signifiance de leurs signaux et leur compatibilité avec la théorie. Un dernier pan de ma thèse porte sur une époque de l'histoire de l'Univers appelée réionisation : son passage d'un état neutre à ionisé par l'arrivée des premières étoiles et autres sources ionisantes. Cette période a une influence importante sur le FDC et ses propriétés statistiques, en particulier sur son spectre de puissance des fluctuations de polarisation. Dans mon cas, je me suis penché sur l'utilisation des mesures de températures du milieu intergalactique, afin d'étudier la contribution possible de la désintégration et annihilation de l'hypothétique matière sombre. A partir d'un travail théorique sur plusieurs modèles et leur comparaison aux observations de température, j'ai pu extraire des contraintes intéressantes et inédites sur les paramètres cruciaux de la matière sombre et des caractéristiques cruciales de la réionisation elle-même. / The dark energy is one of the great mysteries of modern cosmology, responsible for the current acceleration of the expansion of our Universe. Its study is a major focus of my thesis : the way I choose to do so is based on the large-scale structure of the Universe, through a probe called the integrated Sachs-Wolfe effect (iSW). This effect is theoretically detectable in the cosmic microwave background (CMB) : before reaching us this light travelled through large structures underlain by gravitational potentials. The acceleration of the expansion stretches and flattens these potentials during the crossing of photons, changing their energy, in a way that depend on the properties of the dark energy. The iSW effect only has a weak effect on the CMB requiring the use of external data to be detectable. A conventional approach is to correlate the CMB with a tracer of the distribution of matter, and therefore the underlying potentials. This has been attempted numerous times with galaxies surveys but the measured correlation has yet to give a definitive result on the detection of the iSW effect. This is mainly due to the shortcomings of current surveys that are not deep enough and/or have a too low sky coverage. A part of my thesis is devoted to the correlation of FDC with another diffuse background, namely the cosmological infrared background (CIB), which is composed of the integrated emission of the non-resolved distant galaxies. I was able to show that it is an excellent tracer, free from the shortcomings of current surveys. The levels of significance for the expected correlation CIB-CMB exceed those of current surveys, and compete with those predicted for the future generation of very large surveys. In the following, my thesis was focused on the individual imprint in the CMB of the largest structures by iSW effect. My work on the subject first involved revisiting a past study of stacking CMB patches at structures location, using my own protocol, completed and associated with a variety of statistical tests to check the significance of these results. This point proved to be particularly difficult to assess and subject to possible selection bias. I extended the use of this detection method to other available catalogues of structures, more consequent and supposedly more sophisticated in their detection algorithms. The results from one of them suggests the presence of a signal at scales and amplitude consistent with the theory, but with moderate significance. The stacking results raise questions regarding the expected signal : this led me to work on a theoretical prediction of the iSW effect produced by structures, through simulations based on the Lemaître-Tolman-Bondi metric. This allowed me to predict the exact theoretical iSW effect of existing structures. The central amplitude of the measured signals is consistent with the theory, but shows features non-reproducible by my predictions. An extension to the additional catalogues will verify the significance of their signals and their compatibility with the theory. Another part of my thesis focuses on a distant time in the history of the Universe, called reionisation : the transition from a neutral universe to a fully ionised one under the action of the first stars and other ionising sources. This period has a significant influence on the CMB and its statistical properties, in particular the power spectrum of its polarisation fluctuations. In my case, I focused on the use of temperature measurements of the intergalactic medium during the reionisation in order to investigate the possible contribution of the disintegration and annihilation of the hypothetical dark matter. Starting from a theoretical work based on several models of dark matter, I computed and compared predictions to actual measures of the IGM temperature, which allowed me to extract new and interesting constraints on the critical parameters of the dark matter and crucial features of the reionisation itself
28

Étude des composantes noires de l'univers avec la mission Euclid / Study of the dark components of the Universe with the Euclid mission

Tutusaus Lleixa, Isaac 20 September 2018 (has links)
Le modèle de concordance de la cosmologie, appelé ΛCDM, est un succès de la physique moderne, car il est capable de reproduire les principales observations cosmologiques avec une grande précision et très peu de paramètres libres. Cependant, il prédit l'existence de matière noire froide et d'énergie sombre sous la forme d'une constante cosmologique, qui n'ont pas encore été détectées directement. Par conséquent, il est important de considérer des modèles allant au-delà de ΛCDM et de les confronter aux observations, afin d'améliorer nos connaissances sur le secteur sombre de l'Univers. Le futur satellite Euclid, de l'Agence Spatiale Européenne, explorera un énorme volume de la structure à grande échelle de l'Univers en utilisant principalement le regroupement des galaxies et la distorsion de leurs images due aux lentilles gravitationnelles. Dans ce travail, nous caractérisons de façon quantitative les performances d'Euclid vis-à-vis des contraintes cosmologiques, à la fois pour le modèle de concordance, mais également pour des extensions phénoménologiques modifiant les deux composantes sombres de l'Univers. En particulier, nous accordons une attention particulière aux corrélations croisées entre les différentes sondes d'Euclid lors de leur combinaison et estimons de façon précise leur impact sur les résultats finaux. D'une part, nous montrons qu'Euclid fournira d'excellentes contraintes sur les modèles cosmologiques qui définitivement illuminera le secteur sombre. D'autre part, nous montrons que les corrélations croisées entre les sondes d'Euclid ne peuvent pas être négligées dans les analyses futures et, plus important encore, que l'ajout de ces corrélations améliore grandement les contraintes sur les paramètres cosmologiques. / The concordance model of cosmology, called ΛCDM, is a success, since it is able to reproduce the main cosmological observations with great accuracy and only few parameters. However, it predicts the existence of cold dark matter and dark energy in the form of a cosmological constant, which have not been directly detected yet. Therefore, it is important to consider models going beyond ΛCDM, and confront them against observations, in order to improve our knowledge on the dark sector of the Universe. The future Euclid satellite from the European Space Agency will probe a huge volume of the large-scale structure of the Universe using mainly the clustering of galaxies and the distortion of their images due to gravitational lensing. In this work, we quantitatively estimate the constraining power of the future Euclid data for the concordance model, as well as for some phenomenological extensions of it, modifying both dark components of the Universe. In particular, we pay special attention to the cross-correlations between the different Euclid probes when combining them, and assess their impact on the final results. On one hand, we show that Euclid will provide exquisite constraints on cosmological models that will definitely shed light on the dark sector. On the other hand, we show that cross-correlations between Euclid probes cannot be neglected in future analyses, and, more importantly, that the addition of these correlations largely improves the constraints on the cosmological parameters.
29

High-speed VLSI design for turbo and LDPC codes used in broadband wireless networks

He, Zhiyong 12 April 2018 (has links)
This thesis is devoted to the high-speed designs of Very Large Scale Integration (VLSI) Systems for two powerful error-correction codes, turbo codes and Low Density Parity Check (LDPC) codes, which are used in advanced wireless technology to allow the transmission of data at rates near the channel capacity with arbitrarily low probability of error. Since both turbo codes and LDPC codes inherently have large decoding latencies due to the iterative decoding process, the real challenge in high-speed applications is the throughputs of the decoders for these codes. The first contribution of the thesis is that two parallel decoding architectures have been designed to dramatically increase the decoding throughputs of turbo codes. Then, an efficient approach is proposed to design a conflict-free interleaver which avoids collisions in concurrent memory accesses in parallel decoders of turbo codes. For high-performance and high-speed applications of LDPC codes, this thesis has introduced a class of structured LDPC codes with low error floor and low encoding complexity which are based on circulant permutation matrices. The simulations in additive white Gaussian noise (AWGN) channels indicate that the proposed LDPC codes have no bit-error-rate floor down to 10~10 . Using parallel encoding architectures and a layered encoding algorithm, the encoders of the proposed LDPC codes have attained throughput of several Gbits/sec. Finally, a joint row-column decoding algorithm has been proposed to implement high-speed decoders for LDPC codes. As compared with the conventional decoder, the proposed joint decoder improves the bit-error-rate performance and increases the decoder throughput. Implementation results into field programmable gate array (FPGA) devices indicate that a parallel decoder attains a throughput of 2 Gbits/sec. / Cette thèse porte sur la conception de systèmes VLSI (Very Large Scale Intégration) haute vitesse pour deux codes correcteurs d'erreurs puissants, soient les codes turbo et les codes de parité de faible densité (Low Density Parity Check, LDPC), lesquels sont utilisés en technologie sans fil avancée afin de permettre des transmissions à des débits approchant la capacité du canal avec des probabilités d'erreurs arbitrairement faibles. Comme les codes turbo et les codes LDPC possèdent des latences de décodage élevées, dues au caractère itératif de leurs processus de décodage, le principal défi des applications à haute vitesse réside dans l'amélioration du débit des décodeurs pour ces codes. Ainsi, nous proposons une approche efficace pour la conception d'un entrelaceur sans conflits, évitant les collisions dans les accès mémoire concurrents pour les décodeurs parallèles des codes turbo. Pour les applications haute performance et haute vitesse des codes LDPC, cette thèse introduit une classe de codes LDPC structurés avec un plancher d'erreur bas et une faible complexité d'encodage, lesquels sont basés sur des matrices de permutation circulantes. Des simulations dans un canal avec bruit blanc additif Gaussien (additive white Gaussian noise, AWGN) montrent que les codes LDPC proposés ne présentent aucun plancher d'erreur au-delà de 10~10 . En utilisant des architectures d'encodage parallèles et un algorithme d'encodage par couches, les encodeurs pour les codes LDPC proposés atteignent un débit de quelque Gbit/sec. Finalement, un algorithme de décodage conjoint ligne-colonne est proposé afin d'implanter des décodeurs haute vitesse pour les codes LDPC. En comparaison avec le décodeur classique, le décodeur conjoint proposé réduit le taux d'erreur par bit et augmente le débit du décodeur. Le résultat de l'implémentation dans les réseaux de portes programmables in-situ (field programmable gâte array, FPGA) indique qu'un décodeur parallèle peut atteindre un débit de 2 Gbit/sec.
30

Agrégation de ressources avec contrainte de distance : applications aux plateformes de grande échelle.

Larchevêque, Hubert 27 September 2010 (has links) (PDF)
Durant cette thèse, nous avons introduit les problèmes de Bin Covering avec Contrainte de Distance (BCCD) et de Bin Packing avec Contrainte de Distance (BPCD), qui trouvent leur application dans les réseaux de grande échelle, tel Internet. L'étude de ces problèmes que nous effectuons dans des espaces métriques quelconques montre qu'il est impossible de travailler dans un tel cadre sans avoir recours à de l'augmentation de ressources, un procédé qui permet d'élaborer des algorithmes construisant des solutions moins contraintes que la solution optimale à laquelle elles sont comparées. En plus de résultats d'approximation intéressants, nous prouvons la difficulté de ces problèmes si ce procédé n'est pas utilisé. Par ailleurs, de nombreux outils ont pour objectif de plonger les grands réseaux qui nous intéressent dans des espaces métriques bien décrits. Nous avons alors étudié nos problèmes dans les espaces métriques générés par certains de ces outils, comme Vivaldi et Sequoia.

Page generated in 0.062 seconds