Spelling suggestions: "subject:"diffuse"" "subject:"diffused""
31 |
Gliomes diffus de bas grade : données épidémiologiques et hypothèses étiologiques. / Diffuse low-grade gliomas : epidemiology and etiologic hypotheses.Darlix, Amélie 16 September 2016 (has links)
L’épidémiologie et les facteurs de risque des gliomes diffus de bas grade (GDBG, ou gliomes diffus de grade II OMS) sont à ce jour mal connus. Ce travail de thèse s’est intéressé à décrire les caractéristiques épidémiologiques (taux d’incidence, données démographiques) et à rechercher, dans la littérature et par nos travaux, des arguments en faveur de facteurs de risque environnementaux, fonctionnels et moléculaires. Epidémiologie descriptive : l’analyse d’une série exhaustive de cas incidents de GDBG diagnostiqués entre 2006 et 2011, à l’échelle nationale, a permis de déterminer l’incidence des GDBG dans leur ensemble (incidence standardisée sur la population française : 0,775/105 personnes-années) et pour chacun de leurs sous-types histologiques définis par la classification 2007 de l’OMS. Facteurs de risque environnementaux : nous avons pu mettre en évidence des différences significatives dans la distribution géographique des gliomes diffus de grade II et III OMS en France métropolitaine, avec une incidence plus élevée dans le Nord-Est et le centre de la France. Cette hétérogénéité semble en faveur de facteurs de risque environnementaux, même s’il n’existe à ce jour aucun facteur de risque environnemental démontré dans les GDBG. Facteurs de risque biologiques : notre travail a permis de démontrer l’existence d’une dichotomie sur le plan moléculaire entre les GDBG de topographie frontale, plus fréquemment mutés IDH et codélétés 1p19q, et les GDBG temporo-insulaires, moins fréquemment mutés IDH et codélétés 1p19q, suggérant des voies de gliomagénèse différentes pour ces deux patterns tumoraux. Facteurs de risque fonctionnels : enfin, comme le montrent les données de la littérature, il existe deux arguments principaux en faveur de facteurs de risque fonctionnels dans les GDBG. D’une part, ces tumeurs présentent des localisations intracérébrales spécifiques et distinctes des autres gliomes, et impliquent préférentiellement les zones dites « fonctionnelles ». D’autre part, des modifications macroscopiques cérébrales ont été rapportées en lien avec l’apprentissage d’une tâche ou une expertise particulière. Les mécanismes microscopiques qui sous-tendent ces modifications sont encore incertains mais une implication (directe ou indirecte) des cellules gliales, semble probable, ce qui pourrait faire le lit de la gliomagénèse. Peu d’études se sont intéressées jusqu’à présent aux corrélations entre les activités du sujet et le risque de GDBG, et nous proposons donc, dans les suites de ce travail de thèse, une étude cas-témoins en ce sens. En conclusion, même s’il n’existe à ce jour aucun facteur de risque démontré de GDBG, certains éléments bibliographiques, et les travaux de cette thèse, suggèrent l’implication de facteurs environnementaux, fonctionnels et biologiques dans la genèse des GDBG. / The epidemiology and risks factors of diffuse low-grade gliomas (DLGG, or WHO grade II diffuse gliomas) are yet poorly known. This thesis aimed at describing the epidemiology (incidence rates, demographic data) and at looking for arguments in favor of environmental, functional and molecular risk factors, in the literature and by our works. Descriptive epidemiology: The analysis of an exhaustive series of incident cases of DLGG diagnosed between 2006 and 2011 allowed the determination of DLGG incidence (incidence rate standardized on the French population: 0,775/105 person-years) as well as that of each histological subtype described by the 2007 WHO classification. Environmental risk factors: We were able to demonstrate significant differences in the geographical distribution of WHO grade II and III diffuse gliomas in metropolitan France, with higher incidence rates in the North-East and Center regions. This heterogeneity stands in favor of environmental risk factors, even though there is to date no proven environmental risk factor for DLGG. Biological risk factors: Our work demonstrated the existence of a clear dichotomy, regarding molecular biology, between frontal DLGG, more frequently IDH-mutated and 1p19q codeleted, and temporo-insular tumors, less frequently IDH-mutated and 1p19q codeleted, suggesting different gliomagenesis pathways for these two patterns of tumors. Functional risk factors: Finally, data from the literature provide two main arguments in favor of the existence of functional risk factors in DLGG. First, the intra-cerebral location of these tumors is specific and distinct from that of other gliomas, with a preferential implication of “functional” areas. Second, macroscopic intra-cerebral changes have been reported following training on specific tasks, or in relation with a specific expertise. The microscopic mechanisms that underlie these modifications are uncertain but an implication (direct or indirect) of glial cells seems probable, and could favor gliomagenesis. To date, only few studies have investigated the correlation between the subject’s activity and the risk of DLGG. We thus propose, following this thesis, a case-control study to further investigate this issue. In conclusion, even though there is no demonstrated risk factor for DLGG, data from the literature, and conclusions from the present work, suggest the implication of environmental, functional and biological factors in DLGG genesis.
|
32 |
Inflation cosmologique : aspects théoriques et contraintes observationnelles / Cosmological inflation : theoretical aspects and observational constraintsVennin, Vincent 05 September 2014 (has links)
Dans cette thèse sur articles nous nous intéressons aux contraintes observationnelles sur les modèles d'inflation cosmologique et nous étudions certains aspects fondamentaux liés à la nature quantique de la physique inflationnaire. Nous commençons par analyser de façon systématique les modèles à un champ scalaire et avec terme cinétique standard. Dans l'approximation du roulement lent, et en intégrant les contraintes venant du réchauffement, nous dérivons les prédictions associées à environ 75 potentiels. Nous utilisons ensuite les techniques d'inférence Bayésienne pour classer près de 200 modèles inflationnaires et contraindre leurs paramètres. Cela permet d'identifier les modèles favorisés par les observations et de quantifier les niveaux de tensions entre les différents jeux de données. L'intérêt d'une telle approche est renforcé par l'étude de méthodes indépendantes du modèle telle que le ``flot de Hubble'', qui se révèle biaisé. Nous calculons également le spectre de puissance au deuxième ordre pour les modèles d'inflation-k.Ensuite, nous décrivons certains aspects quantiques de la physique inflationnaire. Le formalisme de l'inflation stochastique est notamment utilisé dans le cadre du modèle à deux champs d'inflation hybride. Nous discutons les corrections quantiques sur les prédictions de ce modèle, et à l'aide d'un formalisme récursif, nous nous intéressons à la façon dont elles modifient l'amplitude des perturbations. Finalement, la transition quantique-classique et le problème de la mesure quantique sont étudiés dans un contexte cosmologique. Un modèle de réduction dynamique du paquet d'onde est appliqué à la description des perturbations inflationnaires. / This thesis by publication is devoted to the study of the observational constraints on cosmological inflationary models, and to the investigation of fundamental aspects related to the quantum nature of the inflationary physics.We first present a systematic analysis of all single-scalar-field inflationary models with canonical kinetic terms. Reheating consistent slow-roll predictions are derived for ~ 75 potentials, and Bayesian inference and model comparison techniques are developed to arrange a landscape of ~ 200 inflationary models and associated priors. In this way, we discuss what are the best models of inflation, and we properly quantify tension between data sets. Related to this massive sampling, we highlight the shortcomings of model independent approaches such as the one of ``horizon-flow''. We also pave the way for extending our computational pipeline to k-inflation models by calculating the power spectrum at next-to-next-to leading order for this class of models.In a second part, we describe some aspects related to the quantum nature of the inflationary setup. In particular, we make use of the stochastic inflation formalism, which incorporates the quantum corrections to the inflationary dynamics, in the two-field model of hybrid inflation. We discuss how the quantum diffusion can affect the observable predictions in such models, and we design a recursive strategy that incorporates its effects on the perturbations amplitude. Finally, we investigate the quantum-to-classical transition and the quantum measurement problem in a cosmological context. We apply a dynamical wavefunction collapse model to the description of inflationary perturbations.
|
33 |
The large scale structures. A window on the dark components of the Universe / La structuration de l'Univers à grande échelle. une fenêtre sur ses composantes sombresIlić, Stéphane 23 October 2013 (has links)
L'énergie sombre est l'un des grands mystères de la cosmologie moderne, responsable de l'actuelle accélération de l'expansion de notre Univers. Son étude est un des axes principaux de ma thèse : une des voies que j'exploite s'appuie sur la structuration de l'Univers à grande échelle à travers un effet observationnel appelé effet Sachs-Wolfe intégré (iSW). Cet effet est théoriquement détectable dans le fond diffus cosmologique (FDC) : avant de nous parvenir cette lumière traverse un grand nombre grandes structures sous-tendues par des potentiels gravitationnels. L'accélération de l'expansion étire et aplatit ces potentiels pendant le passage des photons du FDC, modifiant leur énergie d'une façon dépendante des caractéristiques de l'énergie sombre. L'effet iSW n'a qu'un effet ténu sur le FDC, obligeant l'utilisation de données externes pour le détecter. Une approche classique consiste à corréler le FDC avec un traceur de la distribution de la matière, et donc des potentiels sous-jacents. Maintes fois tentée avec des relevés de galaxies, cette corrélation n'a pas donné à l'heure actuelle de résultat définitif sur la détection de l'effet iSW, la faute à des relevés pas assez profonds et/ou avec une couverture trop faible. Un partie de ma thèse est dédiée à la corrélation du FDC avec un autre fond "diffus" : le fond diffus infrarouge (FDI), qui est constitué de l'émission intégrée des galaxies lointaines non-résolues. J'ai pu montrer qu'il représente un excellent traceur, exempt des défauts des relevés actuels. Les niveaux de signifiance attendus pour la corrélation CIB-CMB excèdent ceux des relevés actuels, et rivalisent avec ceux prédits pour la futur génération de très grands relevés. Dans la suite, ma thèse a porté sur l'empreinte individuelle sur le FDC des plus grandes structures par effet iSW. Mon travail sur le sujet a d'abord consisté à revisiter une étude précédente d'empilement de vignettes de FDC à la position de structures, avec mes propres protocole de mesure et tests statistiques pour vérifier la signifiance de ces résultats, délicate à évaluer et sujette à de possibles biais de sélection. J'ai poursuivi en appliquant cette même méthode de détection à d'autres catalogues de structures disponibles, beaucoup plus conséquents et supposément plus raffinés dans leur algorithme de détection. Les résultats pour un d'eux suggère la présence d'un signal à des échelles et amplitudes compatible avec la théorie, mais à des niveaux modérés de signifiance. Ces résultats empilements font s'interroger concernant le signal attendu : cela m'a amené à travailler sur une prédiction théorique de l'iSW engendré par des structures, par des simulations basées sur la métrique de Lemaître-Tolman-Bondi. Cela m'a permis de prédire l'effet iSW théorique exact de structures existantes : l'amplitude centrale des signaux mesurés est compatible avec la théorie, mais présente des caractéristiques non-reproductibles par ces mêmes prédictions. Une extension aux catalogues étendus permettra de vérifier la signifiance de leurs signaux et leur compatibilité avec la théorie. Un dernier pan de ma thèse porte sur une époque de l'histoire de l'Univers appelée réionisation : son passage d'un état neutre à ionisé par l'arrivée des premières étoiles et autres sources ionisantes. Cette période a une influence importante sur le FDC et ses propriétés statistiques, en particulier sur son spectre de puissance des fluctuations de polarisation. Dans mon cas, je me suis penché sur l'utilisation des mesures de températures du milieu intergalactique, afin d'étudier la contribution possible de la désintégration et annihilation de l'hypothétique matière sombre. A partir d'un travail théorique sur plusieurs modèles et leur comparaison aux observations de température, j'ai pu extraire des contraintes intéressantes et inédites sur les paramètres cruciaux de la matière sombre et des caractéristiques cruciales de la réionisation elle-même. / The dark energy is one of the great mysteries of modern cosmology, responsible for the current acceleration of the expansion of our Universe. Its study is a major focus of my thesis : the way I choose to do so is based on the large-scale structure of the Universe, through a probe called the integrated Sachs-Wolfe effect (iSW). This effect is theoretically detectable in the cosmic microwave background (CMB) : before reaching us this light travelled through large structures underlain by gravitational potentials. The acceleration of the expansion stretches and flattens these potentials during the crossing of photons, changing their energy, in a way that depend on the properties of the dark energy. The iSW effect only has a weak effect on the CMB requiring the use of external data to be detectable. A conventional approach is to correlate the CMB with a tracer of the distribution of matter, and therefore the underlying potentials. This has been attempted numerous times with galaxies surveys but the measured correlation has yet to give a definitive result on the detection of the iSW effect. This is mainly due to the shortcomings of current surveys that are not deep enough and/or have a too low sky coverage. A part of my thesis is devoted to the correlation of FDC with another diffuse background, namely the cosmological infrared background (CIB), which is composed of the integrated emission of the non-resolved distant galaxies. I was able to show that it is an excellent tracer, free from the shortcomings of current surveys. The levels of significance for the expected correlation CIB-CMB exceed those of current surveys, and compete with those predicted for the future generation of very large surveys. In the following, my thesis was focused on the individual imprint in the CMB of the largest structures by iSW effect. My work on the subject first involved revisiting a past study of stacking CMB patches at structures location, using my own protocol, completed and associated with a variety of statistical tests to check the significance of these results. This point proved to be particularly difficult to assess and subject to possible selection bias. I extended the use of this detection method to other available catalogues of structures, more consequent and supposedly more sophisticated in their detection algorithms. The results from one of them suggests the presence of a signal at scales and amplitude consistent with the theory, but with moderate significance. The stacking results raise questions regarding the expected signal : this led me to work on a theoretical prediction of the iSW effect produced by structures, through simulations based on the Lemaître-Tolman-Bondi metric. This allowed me to predict the exact theoretical iSW effect of existing structures. The central amplitude of the measured signals is consistent with the theory, but shows features non-reproducible by my predictions. An extension to the additional catalogues will verify the significance of their signals and their compatibility with the theory. Another part of my thesis focuses on a distant time in the history of the Universe, called reionisation : the transition from a neutral universe to a fully ionised one under the action of the first stars and other ionising sources. This period has a significant influence on the CMB and its statistical properties, in particular the power spectrum of its polarisation fluctuations. In my case, I focused on the use of temperature measurements of the intergalactic medium during the reionisation in order to investigate the possible contribution of the disintegration and annihilation of the hypothetical dark matter. Starting from a theoretical work based on several models of dark matter, I computed and compared predictions to actual measures of the IGM temperature, which allowed me to extract new and interesting constraints on the critical parameters of the dark matter and crucial features of the reionisation itself
|
34 |
Etude des émissions gazeuses UV/X et des phénomènes d'échange de charge dans l'Héliosphère : application à des systèmes astrophysiques analogues.Koutroumpa, Dimitra 29 November 2007 (has links) (PDF)
L'échange de charge est un processus de couplage très efficace lorsqu'un gaz ionisé interagit avec un gaz neutre. Le but de ma thèse était d'étudier l'occurence de ce phénomène et ses effets dans l'héliosphère et d'autres systèmes astrophysiques.<br /><br />J'ai en premier lieu déterminé les paramètres du flot d'hydrogène atomique interstellaire autour du soleil et mis en évidence sa déflection à l'entrée dans l'héliosphère. Cette d´eflection, due à la création d'une population d'atomes secondaires lors des échanges de charge atomes H-protons, est la conséquence de la distorsion de l'héliosphère sous l'effet du champ magn´etique interstellaire. L'étude était basée sur l'analyse et la modélisation des données de l'instrument SWAN sur SOHO, qui mesure l'émission de rétro-diffusion résonnante du rayonnement solaire à Lyman-α (121.6nm) par les atomes d'hydrogène dans l'espace interplanétaire et sa ré-absorption par une cellule montée devant les photomètres.<br /><br />Dans une deuxième phase, j'ai étudié les émissions EUV/X (0.1-1 keV) dues aux échanges de charge entre les ions lourds du vent solaire et les atomes d'hydrogène et d'hélium. J'ai développé un modèle statique et une variante dynamique pour calculer les émissions X dans l'héliosphère en tenant compte des variations de l'activité solaire à grande (cycle de 11 ans) et courte (sursauts de vent solaire) échelle. J'ai appliqué mon modèle à une série d'observations X avec les télescopes XMM, Chandra et Suzaku. L'étude a montré que l'héliosphère est responsable de toute l'´emission entre 0.3 et 1 keV attribuée auparavant à la Bulle Interstellaire Locale, une structure de 100 parsecs environ, supposée remplie de gaz très chaud. Les résultats préliminaires dans le domaine 0.1-0.3 keV montrent également que la contribution héliosphérique est du même ordre que celle attribuée à la Bulle Locale.<br /><br />Finalement, en utilisant des modèles existants de l'interface entre le vent solaire et l'exosphère de Mars, j'ai calculé les émissions X dues aux échanges de charge entre les ions lourds du vent solaire et les atomes planétaires, montré comment elles révèlent les structures magnétiques autour de la planète, et les ai comparées aux observations récentes Chandra/XMM.
|
35 |
Modélisation du rayonnement solaire pour la simulation thermique en milieu urbain / Modelling solar radiation in the urban context for thermal simulationsMerino, Luis 14 October 2013 (has links)
Le rayonnement solaire est la variable la plus importante pour le calcul du bilan thermique du bâtiment. Son calcul requiert des relations géométriques pour la composante directe et un modèle de ciel pour distribuer le rayonnement diffus sur la voûte céleste. Des modèles développés pour des collecteurs solaires sont utilisés pour calculer le rayonnement solaire atteignant l'enveloppe du bâtiment. Des outils calculent le rayonnement en adaptant des modèles de ciel développés pour l'éclairage naturel. Bien que ces modèles de ciel, avec des genèses différents, servent à calculer le rayonnement solaire, il convient de préciser quel est le plus adapté pour travailler en milieu urbain.En nous appuyant sur une étude des données météorologiques, des modèles de ciel et des techniques numériques, on a mis en place un code susceptible de calculer le rayonnement direct (soleil) et diffus (ciel) et leur interaction avec la géométrie urbaine. La nouveauté réside dans l'évaluation du rayonnement solaire en utilisant un modèle de ciel isotrope et deux anisotropes. L’interaction entre ces modèles et la géométrie urbaine est mise en évidence avec une série d’exemples géométriques progressivement plus complexes. Des méthodes pour tuiler la voûte céleste sont présentées. Les différences entre le rayonnement calculé avec les modèles anisotropes (le modèle de source ponctuelle et le modèle tout temps de Perez) qui sont peu importantes dans une scène dégagée, deviennent significatives dans une scène urbaine. Des contributions ont également été apportées à la mise en place d’une station météorologique ainsi que des procédures pour l’analyse statistique des données et leur contrôle de qualité. / Solar irradiation is the most important parameter for building thermal simulation. Its calculation requires geometrical relationships for the direct radiation from the Sun and a sky model to distribute the radiance over the sky vault. Sky models developed for solar collectors are used to calculate the building’s solar irradiation availability. Some software calculates building’s irradiation by adapting sky models for lighting simulations. These models allow to compute solar irradiation, but the selection of the most suitable model for urban applications has not been defined clearly enough. We developed a code, based on the study of numerical methods, sky models and the necessary meteorological data. It calculates the solar irradiation availability in the urban context. The novelty lies in its capacity to evaluate the solar irradiation from the Sun and the sky by using three sky models: one isotropic and two anisotropic. The interaction between each sky model and the urban context is made clear in a series of progressively more complex geometric examples. Procedures to partition the sky vault are presented.Differences between the predicted irradiance by the anisotropic models (Perez punctual source and Perez All-Weather) are classified as small and large in unobstructed and obstructed scenes respectively. Contributions have also been made to set up a meteorological station. Statistical analyses as well as quality control procedures of meteorological data were also implemented.
|
36 |
Détection de l'effet de lentille gravitationnelle dans les données de Planck-HFI / Detection of CMB lensing in Planck-HFI dataLavabre, Alexis 25 May 2011 (has links)
Le satellite Planck est le satellite de troisième génération visant à observer le fond diffus cosmologique. La résolution et la sensibilité de ses instruments permettent pour la première fois de mettre en évidence les effets de lentille gravitationnelle subis par les photons du fond diffus cosmologique. Cette thèse présente une méthode originale de détection de ces effets dans les données de l'instrument HFI de Planck.La première partie donne dans un premier temps, une description générale du modèle standard de la cosmologie et de la physique du fond diffus cosmologique. Elle aborde ensuite en détails l'effet de lentille gravitationnelle, en se concentrant plus particulièrement sur son impact sur les observables du fond diffus cosmologique. Elle termine par une présentation du satellite Planck et de ses instruments.La seconde partie se concentre sur la description d'un ensemble d'outils de simulations et d'analyse que j'ai développé au cours de ma thèse afin de réaliser la première détection des effets de lentille gravitationnelle sur le fond diffus cosmologique. Elle présente la méthode originale employée qui repose sur une analyse des cartes du ciel par morceaux, permettant de s'affranchir des zones du ciel les plus contaminées. On trouvera également dans cette partie une caractérisation, de l'estimateur du champ de potentiel de lentille, pour des cartes masquée, en présence de bruit inhomogène ainsi que la présentation d'une méthode pour corriger les biais de l'analyse à l'aide de simulations Monte-Carlo.La dernière partie, est consacrée au travail sur les données de l'instrument HFI. Le premier chapitre présente l'application de la méthode d'analyse précédente aux cartes des observations combinées à 143GHz et 217GHz ainsi que la carte issue de la séparation des composantes avec l'algorithme GMCA. Les résultats montrent un spectre de puissance de la déflexion compatible avec le spectre attendu, dans un modèle lambda CMB, calculé à partir des paramètres cosmologiques issus de WMAP intégrant sept années d'observations. Les points de mesure, issus du spectre combiné des cartes à 143GHz et 217GHz, pour les multipôles inférieurs à 500, donnent un Chi2 par degré de liberté de 1.26. Finalement, le dernier chapitre présente l'algorithme de compression des données de l'instrument HFI à bord du satellite. Il traite en détail le réglage et le suivi des paramètres de compression et du débit des données, depuis le lancement du satellite et fait le bilan sur les erreurs de compression rencontrées / The Planck satellite is the third generation experement dedicated to the observation of the cosmic microwave backgroud (CMB). The resolution and sensibility of its intruments allow for the first time the detection of the weak lensing effect on CMB. This thesis present a original detection method of this effect in the data of the HFI instrument of Planck.The first part give a general description of the standard model of cosmology et the physics of the CMB. The part then presents the details of the weak lensing effect, concentrating on its impact on the CMB observables. This part ends with a description of the Planck satellite and its instruments.The second part, discribes the set of simulations and analysis tools that I have developed allowding me to make the first mesureament of the weak lensing effect on CMB. It presents the original method that I used which is based on a patch analysis of the full sky data, that is able to only take into account the less contaminated regions. This part also present the caracterisation of the lensing potential estimator for masked maps in the presence of inhomogeneous noise and introduce a method, based on Monte-Carlo simulations, that is used to correct for the biais produced by the analysis method.The last part, concentrates on the work on HFI data. The first chapter presents the application of the above method to the maps of the combined observations at 143GHz and 217GHz and the maps from component separation using GMCA algorithm. The results show a deflection power spectrum compatible with the one expect in a lambda CMB universe, calculated with the cosmological parameters estimated by WMAP including seven years of observations. Using the points, from the combined estimation from the 143GHz and 217GHz maps, for multipole smaller than 500, gives a 1.26 Chi2 by degree of freedom. Finally, the last chapter presents the comression algorithm used onboard to compression HFI data. It gives the details of the tunning and the following of the compression parameters and the data rate, since the launch and summarize the results on the compression errors
|
37 |
Cosmological parameter estimation with the Planck satellite data : from the construction of a likelihood to neutrino properties / Estimation des paramètres cosmologiques à partir des données du satellite Planck : de la construction d’une fonction de vraisemblance aux caractéristiques des neutrinosSpinelli, Marta 28 September 2015 (has links)
Le fond diffus cosmologique (CMB), relique du Big-Bang chaud, porte les traces à la fois de la formation des structures des époques récentes et des premières phases énergétiques de l'Univers.Le satellite Planck, en service de 2009 à 2013, a fourni des mesures de haute qualité des anisotropies du CMB. Celles-ci sont utilisés dans cette thèse pour déterminer les paramètres du modèle cosmologique standard et autour du secteur des neutrinos.Ce travail décrit la construction d'un fonction de vraisemblance pour les hauts-l de Planck. Cela implique une stratégie de masquage pour l'émission thermique de la Galaxie ainsi que pour les sources ponctuelles. Les avant-plans résiduels sont traités directement au niveau du spectre de puissance en utilisant des templates physiques bases sur des études de Planck.Les méthodes statistiques nécessaires pour extraire les paramètres cosmologiques dans la comparaison entre les modèles et les données sont décrites, à la fois la méthode bayésienne de Monte-Carlo par chaînes de Markov et la technique fréquentiste du profil de la fonction de vraisemblance.Les résultats sur les paramètres cosmologiques sont présentés en utilisant les données de Planck seul et en combinaison avec les données à petites échelles des expériences de CMB basées au sol (ACT et SPT), avec les contraintes provenant des mesures des oscillations acoustiques des baryons (BAO) et des supernovae. Les contraintes sur l'échelle absolue de la masse des neutrinos et sur le nombre effectif de neutrinos sont également discutées. / The cosmic microwave background (CMB), relic of the hot Big-Bang, carries the traces of both the rich structure formation of the late time epochs and the energetic early phases of the universe.The Planck satellite provided, from 2009 to 2013, high-quality measurements of the anisotropies of the CMB. These are used in this thesis to determine the parameters of the standard cosmological model and of the extension concerning the neutrino sector. The construction of an high-l Planck likelihood is detailed. This involves a masking strategy that deals in particular with the contamination from thermal emission of the Galaxy. The residual foregrounds are treated directly at the power spectrum level relying on physically motivated templates based on Planck studies.The statistical methods needed to extract the cosmological parameters in the comparison between models and data are described, both the Bayesian Monte Carlo Markov Chain techniques and the frequentist profile likelihood. Results on cosmological parameters are presented using Planck data alone and in combination with the small scale data from the ground based CMB experiment ACT and SPT, the Baryon Acoustic Oscillation and the Supernovae. Constraints on the absolute scale of neutrino masses and of the number of effective neutrino are also discussed.
|
38 |
La représentation intermédiaire et abstraite de l’espace comme outil de spatialisation du son : enjeux et conséquences de l’appropriation musicale de l’ambisonie et des expérimentations dans le domaine des harmoniques sphériques / The intermediate and abstract representation of space as a tool for sound spatialization : enjeux et conséquences de l’appropriation musicale de l’ambisonie et des expérimentations dans le domaine des harmoniques sphériquesGuillot, Pierre 20 December 2017 (has links)
Penser les traitements du son spatialisés en ambisonie permet de mettre en valeur le potentiel musical de la décomposition du champ sonore en harmoniques sphériques, et amène à redéfinir la représentation de l’espace sonore. Cette thèse défend que les représentations abstraites et intermédiaires de l’espace sonore permettent d’élaborer de nouvelles approches originales de la mise en espace du son. Le raisonnement amenant à cette affirmation commence par l’appropriation musicale de l’approche ambisonique. La création de nouveaux traitements de l’espace et du son amène à utiliser de manière originale les signaux associés aux harmoniques sphériques, et à concevoir différemment les relations qui les régissent, ainsi que leur hiérarchisation. La particularité de ces approches expérimentales et les caractéristiques singulières des champs sonores générés, nécessitent de concevoir de nouveaux outils théoriques et pratiques pour leur analyse et leur restitution. Les changements opérés permettent alors de libérer cette approche des enjeux techniques et matériels initiaux en ambisonie. Mais ils permettent surtout de s’émanciper des modèles psychoacoustiques et acoustiques sur lesquels ces techniques reposent originellement. Dans ce contexte, les signaux associés aux harmoniques sphériques ne sont plus nécessairement une représentation rationnelle du champ sonore, mais deviennent une représentation abstraite de l’espace sonore possédant en soi, un potentiel musical. Cette thèse propose alors un nouveau modèle de spatialisation fondé sur une décomposition matricielle de l’espace sonore permettant de valider les hypothèses. / The creation of sound effects in space with Ambisonics highlights the musical potential of sound field decomposition by spherical harmonics, and redefines the representation of the sound space. This thesis defends that the abstract and intermediate representations of the sound space make it possible to develop new original approaches to sound spatialization. The reasoning that leads to this affirmation begins with the musical appropriation of the ambisonic approach. The creation of new space and sound processing patterns in Ambisonics leads to an original way of using signals associated with spherical harmonics, and to a different conception of the relations between them, and their hierarchization. The specificities of these experimental approaches and the singular characteristics of the sound fields generated call for the design of new theoretical and practical tools, for their analysis and restitution. The performed changes make it possible to free this approach from the initial technical and material issues of Ambisonics. But above all, it emancipates this approach from the psychoacoustic and acoustic models on which ambisonic techniques are originally defined. In this context, the signals associated with spherical harmonics are no longer necessarily a rational representation of the sound field but become an abstract representation of the sound space possessing in itself a musical potential. To validate the hypotheses, this thesis then proposes a new spatialization model based on a matrix decomposition of the sound space.
|
39 |
Etude phénotypique des démences extrapyramidales : apport de la neuropsychologie dans le diagnostic différentiel. / Phenotypic study of extrapyramidal dementia : interest of neuropsychology to differenciate diseases.Mondon, Karl 21 March 2011 (has links)
Les situations cliniques associant des troubles moteurs et une détérioration cognitive sont fréquentes et déroutantes pour le clinicien, qui est confronté à la difficile question du diagnostic différentiel entre plusieurs cadres nosographiques dont la maladie de Parkinson avec démence (MPD) et la démence à corps de Lewy Diffus (DCLD). Dans ce travail, nous avons étudié les caractéristiques neuropsychologiques pouvant différencier les deux affections. Nous avons, dans une première étude, montré que la mémoire de reconnaissance visuelle était altérée de façon différente. Dans un second travail, nous avons spécifié les caractéristiques de ces altérations en les rapprochant des classiques profils « cortical » et « sous cortical » de démence. Nous avons ainsi montré que la MPD présentait une altération de la mémoire de reconnaissance visuelle intermédiaire entre la Maladie d’Alzheimer et la DCLD. Enfin, dans une dernière partie, nous proposons des perspectives de recherche dans la continuité de ces travaux. / Clinical manifestations associating motor and cognitive impairment are frequently encountered and difficult for the clinician who is required to address the problem of making the correct differential diagnosis, particularly to differentiate Parkinson's disease with dementia (PDD) from Lewy bodies dementia (LBD). In this study, we examined the neuropsychological characteristics which allow us to differentiate the two disorders. In the first study, we demonstrated that visual recognition memory is disturbed differently in the two cases. In a second study, we specified the characterisstics of the modifications encountered by using the classic "cortical" and "subcortical" dementia profiles. We also showed that, in PDD, the alteration in visual recognition memory is intermediary between Alzheimer's disease and LBD. Finally, in the last part of our study, we suggest future avenues of research needed to complete our work.
|
40 |
Algorithmes et architectures multi-agents pour la gestion de l'énergie dans les réseaux électriques intelligents / Agent-Based Architectures and Algorithms for Energy Management in Smart Gribs : Application to Smart Power Generation and Residential Demand ResponseRoche, Robin 07 December 2012 (has links)
Avec la convergence de plusieurs tendances profondes du secteur énergétique, lesréseaux électriques intelligents (smart grids) émergent comme le paradigme principal pourla modernisation des réseaux électriques. Les smart grids doivent notamment permettred’intégrer de larges proportions d’énergie renouvelable intermittente, de stockage et devéhicules électriques, ainsi que donner aux consommateurs plus de contrôle sur leur consommationénergétique. L’atteinte de ces objectifs repose sur l’adoption de nombreusestechnologies, et en particulier des technologies de l’information et de la communication.Ces changements transforment les réseaux en des systèmes de plus en plus complexes,nécessitant des outils adaptés pour modéliser, contrôler et simuler leur comportement.Dans cette thèse, l’utilisation des systèmes multi-agents (SMA) permet une approchesystémique de la gestion de l’énergie, ainsi que la définition d’architectures et d’algorithmesbénéficiant des propriétés des SMA. Cette approche permet de prendre en compte lacomplexité d’un tel système cyber-physique, en intégrant de multiples aspects commele réseau en lui-même, les infrastructures de communication, les marchés ou encore lecomportement des utilisateurs. L’approche est mise en valeur à travers deux applications.Dans une première application, un système de gestion de l’énergie pour centrales àturbines à gaz est conçu avec l’objectif de minimiser les coûts de fonctionnement et lesémissions de gaz à effet de serre pour des profils de charge variables. Un modèle de turbineà gaz basé sur des données réelles est proposé et utilisé dans un simulateur spécifiquementdéveloppé. Une métaheuristique optimise dynamiquement le dispatching entre les turbinesen fonction de leurs caractéristiques propres. Les résultats montrent que le systèmeest capable d’atteindre ses objectifs initiaux. Les besoins en puissance de calcul et encommunication sont également évalués.Avec d’autres mesures de gestion de la demande, l’effacement diffus permet de réduiretemporairement la charge électrique, par exemple dans la cas d’une congestion du réseaude transport. Dans cette seconde application, un système d’effacement diffus est proposéet utilise les ressources disponibles chez les particuliers (véhicules électriques, climatisation,chauffe-eau) pour maintenir la demande sous une valeur limite. Des aggrégateursde capacité de réduction de charge servent d’interface entre les opérateurs du réseau etun marché de l’effacement. Un simulateur est également développé pour évaluer la performancedu système. Les résultats de simulations montrent que le système réussit àatteindre ses objectifs sans compromettre la stabilité du réseau de distribution en régimecontinu. / Due to the convergence of several profound trends in the energy sector, smart gridsare emerging as the main paradigm for the modernization of the electric grid. Smartgrids hold many promises, including the ability to integrate large shares of distributedand intermittent renewable energy sources, energy storage and electric vehicles, as wellas the promise to give consumers more control on their energy consumption. Such goalsare expected to be achieved through the use of multiple technologies, and especially ofinformation and communication technologies, supported by intelligent algorithms.These changes are transforming power grids into even more complex systems, thatrequire suitable tools to model, simulate and control their behaviors. In this dissertation,properties of multi-agent systems are used to enable a new systemic approach to energymanagement, and allow for agent-based architectures and algorithms to be defined. Thisnew approach helps tackle the complexity of a cyber-physical system such as the smart gridby enabling the simultaneous consideration of multiple aspects such as power systems, thecommunication infrastructure, energy markets, and consumer behaviors. The approach istested in two applications: a “smart” energy management system for a gas turbine powerplant, and a residential demand response system.An energy management system for gas turbine power plants is designed with the objectiveto minimize operational costs and emissions, in the smart power generation paradigm.A gas turbine model based on actual data is proposed, and used to run simulations witha simulator specifically developed for this problem. A metaheuristic achieves dynamicdispatch among gas turbines according to their individual characteristics. Results showthat the system is capable of operating the system properly while reducing costs and emissions.The computing and communication requirements of the system, resulting from theselected architecture, are also evaluated.With other demand-side management techniques, demand response enables reducingload during a given duration, for example in case of a congestion on the transmissionsystem. A demand response system is proposed and relies on the use of the assets ofresidential customers to curtail and shift local loads (hybrid electric vehicles, air conditioning,and water heaters) so that the total system load remains under a given threshold.Aggregators act as interfaces between grid operators and a demand response market. Asimulator is also developed to evaluate the performance of the proposed system. Resultsshow that the system manages to maintain the total load under a threshold by usingavailable resources, without compromising the steady-state stability of the distributionsystem.
|
Page generated in 0.0548 seconds