411 |
Les moments cumulant d'ordre supérieur à deux points des champs cosmologiques : propriétés théoriques et applications.Bel, Julien 04 December 2012 (has links)
La philosophie de cette thèse est de dire que nos plus grandes chances de trouver et de caractériser les ingrédients essentiels du modèle cosmologique passe par l'élargissement de l'éventail des méthodes que l'on peut utiliser dans le but de trouver une nouvelle physique. Bien qu'il soit d'une importance primordiale de continuer à affiner, à de-biaiser et à rendre plus puissantes, les stratégies qui ont contribué à établir le modèle de concordance, il est également crucial de remettre en question, avec de nouvelles méthodes, tous les secteurs de l'actuel paradigme cosmologique. Cette thèse, par conséquent, s'engage dans le défi de développer des sondes cosmologiques nouvelle et performantes qui visent à optimiser les résultats scientifiques des futures grand sondages de galaxies. L'objectif est double. Du côté théorique, je cherche à mettre au point de nouvelles stratégies de test qui sont peu (voire pas du tout) affectées par des incertitudes astrophysiques ou par des modèles phénoménologiques qui ne sont pas complet . Cela rendra les interprétations cosmologiques plus facile et plus sûr. Du côté des observations, l'objectif est d'évaluer les performances des stratégies proposées en utilisant les données actuelles, dans le but de démontrer leur potentiel pour les futures grandes missions cosmologiques tels que BigBoss et EUCLID. / The philosophy of this thesis is that our best chances of finding and characterizing the essential ingredients of a well grounded cosmological model is by enlarging the arsenal of methods with which we can hunt for new physics. While it is of paramount importance to continue to refine, de-bias and power, the very same testing strategies that contributed to establish the concordance model, it is also crucial to challenge, with new methods, all the sectors of the current cosmological paradigm. This thesis, therefore, engages in the challenge of developing new and performant cosmic probes that aim at optimizing the scientific output of future large redshift surveys. The goal is twofold. From the theoretical side, I aim at developing new testing strategies that are minimally (if not at all) affected by astrophysical uncertainties or by not fully motivated phenomenological models. This will make cosmological interpretations easier and safer. From the observational side, the goal is to gauge the performances of the proposed strategies using current, state of the art, redshift data, and to demonstrate their potential for the future large cosmological missions such as BigBOSS and EUCLID.
|
412 |
Etude par modélisation numérique de la qualité de l’air en Europe dans les climats actuel et futur / Numeral modeling study of European air quality in current and future climatesLacressonnière, Gwendoline 19 December 2012 (has links)
Cette thèse porte sur l’étude de l’évolution de la qualité de l’air en Europe et en France dans les prochaines décennies à l’aide de simulations numériques. Dans les études des impacts de l’évolution du climat sur la qualité de l’air, les modèles de chimie atmosphérique utilisent des sorties de modèles climatiques globaux ou régionaux qui fournissent les « forçages », c’est-à-dire les conditions météorologiques simulées pour les périodes futures. Contrairement aux analyses météorologiques, qui représentent la variabilité jour à jour du temps, les sorties des modèles de climat doivent nécessairement être interprétées de manière statistique : elles ne représentent la météorologie que dans un sens climatologique. Afin de pouvoir commenter utilement les simulations futures de qualité de l’air, il est nécessaire d’évaluer au préalable et pour le climat présent, la qualité des simulations calculées avec des forçages climatiques par rapport aux références que constituent les simulations calculées avec des forçages analysés et, bien entendu, les observations. Trois simulations pluri-annuelles (6 ans) ont été lancées pour la période actuelle (2000-2010) et ont été comparées ; elles différent par l’utilisation d’analyses météorologiques ou de forçages de modèle de climat (pour les paramètres atmosphériques seuls et par ailleurs, pour les paramètres atmosphériques et le calcul des échanges en surface) en entrée du modèle de chimie-transport tridimensionnel de Météo-France, MOCAGE. Nous avons évalué ces différentes simulations par comparaison aux observations de la base de données européenne AirBase. Nous avons ensuite comparé les performances de ces simulations pour un grand nombre de scores quantitatifs, en analysant d’une part les effets liés aux champs météorologiques (température, vent, humidité, etc.) et d’autre part, ceux liés aux échanges en surface (comme les vitesses de dépôts, les émissions biogéniques) qui dépendent également de la météorologie. Nous avons ainsi évalué comment ces changements affectent les distributions horizontales et verticales des polluants. In fine, nous avons caractérisé la fiabilité des simulations de qualité de l’air reposant sur des forçages issus de modèles climatiques pour le climat présent : des indicateurs (biais moyens, biais moyens normalisés, RMSE, déviations standards) et des index de qualité de l’air (comme le dépassement de seuils) se distinguent et peuvent donc servir de base fiable pour l’interprétation des résultats pour les simulations du futur. Enfin dans une troisième partie, ces indicateurs considérés comme pertinents ont été utilisés pour étudier des simulations de qualité de l’air aux horizons 2030 et 2050 (5 ans). Comme attendu, l’évolution des paramètres météorologiques (température, précipitation, vent) modifie les quantités et la dispersion des polluants dans l’atmosphère, mais l’évolution des émissions en Europe et dans le reste du monde joue aussi un rôle important. Ainsi, face à l’évolution du climat et la hausse des émissions dans certains pays du monde, en Asie notamment, les effets des politiques Européennes pour réduire les émissions anthropiques sont mitigés selon les régions et les polluants, dépendant de l’influence relative des phénomènes locaux et du transport de polluant à longue distance. / This thesis aims at predicting how European and French air quality could evolve over the next decades using numerical modeling. In order to study the impacts of climate change up on regional air quality, atmospheric chemistry models rely on global or regional climate models to produce “forcings”, i.e. meteorological conditions for future periods. Unlike meteorological analyses, which can represent specifically each date and hour thanks to the assimilation of observations, climate model outputs need to be averaged and can only be interpreted in a climatological sense. And so are air quality hindcasts relying on them for their forcings. In order to properly interpret air quality simulations in a future climate, it is a pre-requisite to assess how realistic air quality hindcasts are when driven by forcings from climate models for the current period in comparison to the references, which are simulations with the same set-up but relying on meteorological analyses and observations. Three six-year simulations for the current climate (2000-2010) have been run with the three-dimensional chemistry transport model of Météo-France, MOCAGE. These simulations only differ by the meteorological forcings used, either operational meteorological analyses or outputs from climate simulations (for atmospheric parameters only ; for atmospheric parameters as well as surface exchanges, which depend also on the weather). We compared the three simulations and evaluated them against the European air quality database of the European Environment Agency, AirBase. Further, we investigated how statistical skill indicators compare in the different simulations, assessing the effects of meteorology on atmospheric fields (temperature, wind, humidity,...) and on the dependent emissions and deposition processes (such as deposition velocities, volatile organic compound emissions, ...) that depend upon meteorology. We have in particular studied how these factors affect the horizontal and vertical distributions of species. In the end, we have estimated how reliable are skill indicators for the simulations run with “climate” forcings : some indicators (mean bias, mean normalized bias, RMSE, deviation standards, number of exceedance days) are sufficiently close to the ones obtained with the reference configuration (relying on analysed meteorological forcings) to be considered reliable. They can thus be used to interpret simulations for future periods. We have run simulations of European air quality in the 2030s and 2050s (5 years for each period). They are discussed using the indicators previously indentified. As expected, the changes in meteorological parameters (temperature, precipitation, wind, ...) affect the quantities and distributions of pollutants in the atmosphere, but the future evolutions in European and global emissions also play a significant role. Faced with climate change and increased emissions in some countries in the world, as in Asia, the impacts of European policies for reducing anthropogenic emissions are mitigated, depending on the regions and the pollutants due to the respective influence of local emission and of long-range transport of pollutants.
|
413 |
La perception des visages dans la population typique et les Troubles du Spectre Autistique (TSA) / Face perception in subjects with typical development and autism spectrum disordersAmestoy, Anouck 13 December 2013 (has links)
Les Troubles du Spectre de l’Autisme (TSA) caractérisent un ensemble hétérogène de troubles neuro-développementaux regroupant des anomalies dans le domaine des compétences sociales, celui de la communication associées à des troubles du comportement de types répétitifs et stéréotypés et à des intérêts restreints. Une des hypothèses possible qui rendrait compte des particularités de communication et d’adaptation sociale des personnes avec TSA serait celle d’anomalies dans la prise d’informations sociales de l’environnement et notamment celles issue des visages. Des particularités dans l’exploration des visages entraineraient des anomalies dans la compréhension des messages véhiculés par ceux ci dans les situations de communication et d’interaction sociale. Par ailleurs, l’exposition et l’expérience pour les visages dans l’automatisation du processus sont encore mal intégrées à la modélisation du processus de maturation développemental typique de cette fonction. Dans ce travail, deux expérimentations basées sur un protocole comportemental ont permis de préciser le rôle de l’exposition dans la mémoire des visages hyper familiers. Dans un second temps, seront présentés les résultats d’un travail expérimental utilisant la technique de suivi du regard en « eye tracking », associée à une méthode innovante de traitement des données à postériori basée sur une normalisation spatiale des visages et une analyse en statistique spatiale des points de fixations permettant de s’affranchir des biais méthodologiques relevés dans le domaine. Les expérimentations ont été proposées à 4 groupes différents : 2 groupes d’enfants et d’adultes au développement typiques et 2 groupes d’enfants et adultes avec TSA sans déficience intellectuelle (TSA sdi). Le protocole d’exploration libre en Eye tracking, a regroupé 3 sets de stimuli statiques (images de visages neutres, humains et non humains, scènes sociales, paysages) qui ont été proposés à 26 adultes typiques, 14 enfants typiques, 13 adultes avec TSA sdi et 14 enfants avec TSA sdi. Une méthode d’analyse en statistique spatiale (Dirichley tesselation method) a été utilisée sur l’avatar normalisant l’ensemble des visages sélectionnés. Seules les fixations qui étaient au sein de cluster statistiquement significatif (p<0.05) ont été retenus pour la comparaison entre groupes. Les résultats montrent des différences entre les 4 groupes suggérant la co-existence d’effet développementaux et pathologiques dans le développement des particularités de scanning des personnes avec TSA sdi. Nos résultats suggèrent un effet développemental fort dans l’automatisation de l’exploration visuelle des visages humains non familiers dans la population typique qui semble bloqué dans la population avec TSA sdi. Les adultes et les enfants typiques montrent donc des patterns spécifiques d’exploration des visages neutres non familiers. Un pattern différent est retrouvé dans l’exploration des visages familiers ce qui suggère un effet familiarité sur l’exploration. Cette automatisation dans l’exploration est retrouvée chez l’adulte typique pour les visages non humains (avatars, robots). Les stratégies d’exploration des visages non humains (avatar et robot) ne semblent pas être significativement différentes de celles des visages humains, pour les 2 groupes d’adultes, alors que l’on retrouve un effet espèce également dans les 2 groupes d’adultes. Les stratégies d’exploration des 2 groupes d’enfants ne permettent pas d’individualiser de patterns spécifiques à l’exploration de visages non humains. Ces marqueurs d’exploration des visages, qui signent une automatisation de l’exploration dans le développement typique, doivent être pris en compte dans les choix et le développement de nouvelles méthodes d’entrainement et de rééducation de l’exploration des visages afin de guider la recherche d’indices sociaux pertinents à l’interaction et la communication sociales, dans le contexte des Troubles du Spectre de l’Autisme. / Autism Spectrum disorders (ASD) are pervasive development disorders characterised by social and communication impairments co-occurring with stereotyped behaviours and restricted interests. One of the possible explanation for difficulties in social interactions and communication observed in people with ASD, is abnormalitiy in face scanning and processing. The role of exposure and experience in face processing have to be highlighted in the issue of atypical development. We first explored in two experiments, the rôle of exposure in the memory of very familiar faces. Secondly in the present work, we developped an original method to perform off-line analysis using a spatial normalization of faces and spatial statistic analysis to respond to methodological biais and to investigate face scanning and routines in exploration of various type of faces. Three studies were performed on 4 different groups. First we we investigated in two different studies, the typical and atypical developmental aspect of sensitivity to the orientation of familiar faces, refferring to « the mere exposure » hypothesis, by asking 38 typical adults, 72 typical children from 3 to 12 years old then 14 adults and 13 children with ASD to make a preference choice between standard and mirror images of themselves and of familiar faces, presented side-by-side or successively. Secondly, we proposed to 26 typical Adults, 14 typical Children, 13 high-functioning adults and 14 high-functionning children with ASD to perform an eye tracking experiment using 3 sets of 20 pictures that included neutral unknown faces, neutral familiar faces, avatar faces, robots faces and animal faces. Spatial analysis using Dirichley tessellation method was used. Only the fixations that were statistically significant (p<0.05) were taken into account. Results of the first 2 experiments suggest the occurrence of a typical developmental process in the perception of familiar face asymmetries which are retained in memory related to expérience, for typical subjects and ASD subjects. Our eye tracking experiment results show differences between the four groups for unfamiliar faces condition, suggesting developmental and pathological effects regarding the scanning strategies (sequences) and fixation time for eyes and mouth. In contrast, our results suggest a clear developmental but light pathological effect in the familiar face condition. Adults of both groups show a face scanning strategy similar to the one used in human face exploration when looking at human-like faces (avatar and robots) but not animal faces. No specific scanning pattern was found when exploring non human faces in both child groups. Our results show that adults and children use specific sequential scanning strategy for exploring human facial stimuli. This sequential analysis is present only in adults for non human face stimuli. Our results support the hypothesis that both developmental and pathological processes take place for human face scanning and human-like faces but not animals faces. Familiar faces scanning show specificity compared to unfamiliar faces. This should be taken into account to develop new assessment and training methods in the context of atypical developmental disorder.
|
414 |
High-dimensional statistical methods for inter-subject studies in neuroimaging / Analyse statistique de données en grande dimension : application à l'étude de la variabilité inter-individuelle en neuroimagerieFritsch, Virgile 18 December 2013 (has links)
La variabilité inter-individuelle est un obstacle majeur à l'analyse d'images médicales, en particulier en neuroimagerie. Il convient de distinguer la variabilité naturelle ou statistique, source de potentiels effets d'intérêt pour du diagnostique, de la variabilité artefactuelle, constituée d'effets de nuisance liés à des problèmes expérimentaux ou techniques, survenant lors de l'acquisition ou le traitement des données. La dernière peut s'avérer bien plus importante que la première : en neuroimagerie, les problèmes d'acquisition peuvent ainsi masquer la variabilité fonctionnelle qui est par ailleurs associée à une maladie, un trouble psychologique, ou à l'expression d'un code génétique spécifique. La qualité des procédures statistiques utilisées pour les études de groupe est alors diminuée car lesdites procédures reposent sur l'hypothèse d'une population homogène, hypothèse difficile à vérifier manuellement sur des données de neuroimagerie dont la dimension est élevée. Des méthodes automatiques ont été mises en oeuvre pour tenter d'éliminer les sujets trop déviants et ainsi rendre les groupes étudiés plus homogènes. Cette pratique n'a pas entièrement fait ses preuves pour autant, attendu qu'aucune étude ne l'a clairement validée, et que le niveau de tolérance à choisir reste arbitraire. Une autre approche consiste alors à utiliser des procédures d'analyse et de traitement des données intrinsèquement insensibles à l'hypothèse d'homogénéité. Elles sont en outre mieux adaptées aux données réelles en ce qu'elles tolèrent dans une certaine mesure d'autres violations d'hypothèse plus subtiles telle que la normalité des données. Un autre problème, partiellement lié, est le manque de stabilité et de sensibilité des méthodes d'analyse au niveau voxel, sources de résultats qui ne sont pas reproductibles.Nous commençons cette thèse par le développement d'une méthode de détection d'individus atypiques adaptée aux données de neuroimagerie, qui fournit un contrôle statistique sur l'inclusion de sujets : nous proposons une version regularisée d'un estimateur de covariance robuste pour le rendre utilisable en grande dimension. Nous comparons plusieurs types de régularisation et concluons que les projections aléatoires offrent le meilleur compromis. Nous présentons également des procédures non-paramétriques dont nous montrons la qualité de performance, bien qu'elles n'offrent aucun contrôle statistique. La seconde contribution de cette thèse est une nouvelle approche, nommée RPBI (Randomized Parcellation Based Inference), répondant au manque de reproductibilité des méthodes classiques. Nous stabilisons l'approche d'analyse à l'échelle de la parcelle en agrégeant plusieurs analyses indépendantes, pour lesquelles le partitionnement du cerveau en parcelles varie d'une analyse à l'autre. La méthode permet d'atteindre un niveau de sensibilité supérieur à celui des méthodes de l'état de l'art, ce que nous démontrons par des expériences sur des données synthétiques et réelles. Notre troisième contribution est une application de la régression robuste aux études de neuroimagerie. Poursuivant un travail déjà existant, nous nous concentrons sur les études à grande échelle effectuées sur plus de cent sujets. Considérant à la fois des données simulées et des données réelles, nous montrons que l'utilisation de la régression robuste améliore la sensibilité des analyses. Nous démontrons qu'il est important d'assurer une résistance face aux violations d'hypothèse, même dans les cas où une inspection minutieuse du jeu de données a été conduite au préalable. Enfin, nous associons la régression robuste à notre méthode d'analyse RPBI afin d'obtenir des tests statistiques encore plus sensibles. / La variabilité inter-individuelle est un obstacle majeur à l'analyse d'images médicales, en particulier en neuroimagerie. Il convient de distinguer la variabilité naturelle ou statistique, source de potentiels effets d'intérêt pour du diagnostique, de la variabilité artefactuelle, constituée d'effets de nuisance liés à des problèmes expérimentaux ou techniques, survenant lors de l'acquisition ou le traitement des données. La dernière peut s'avérer bien plus importante que la première : en neuroimagerie, les problèmes d'acquisition peuvent ainsi masquer la variabilité fonctionnelle qui est par ailleurs associée à une maladie, un trouble psychologique, ou à l'expression d'un code génétique spécifique. La qualité des procédures statistiques utilisées pour les études de groupe est alors diminuée car lesdites procédures reposent sur l'hypothèse d'une population homogène, hypothèse difficile à vérifier manuellement sur des données de neuroimagerie dont la dimension est élevée. Des méthodes automatiques ont été mises en oeuvre pour tenter d'éliminer les sujets trop déviants et ainsi rendre les groupes étudiés plus homogènes. Cette pratique n'a pas entièrement fait ses preuves pour autant, attendu qu'aucune étude ne l'a clairement validée, et que le niveau de tolérance à choisir reste arbitraire. Une autre approche consiste alors à utiliser des procédures d'analyse et de traitement des données intrinsèquement insensibles à l'hypothèse d'homogénéité. Elles sont en outre mieux adaptées aux données réelles en ce qu'elles tolèrent dans une certaine mesure d'autres violations d'hypothèse plus subtiles telle que la normalité des données. Un autre problème, partiellement lié, est le manque de stabilité et de sensibilité des méthodes d'analyse au niveau voxel, sources de résultats qui ne sont pas reproductibles.Nous commençons cette thèse par le développement d'une méthode de détection d'individus atypiques adaptée aux données de neuroimagerie, qui fournit un contrôle statistique sur l'inclusion de sujets : nous proposons une version regularisée d'un estimateur de covariance robuste pour le rendre utilisable en grande dimension. Nous comparons plusieurs types de régularisation et concluons que les projections aléatoires offrent le meilleur compromis. Nous présentons également des procédures non-paramétriques dont nous montrons la qualité de performance, bien qu'elles n'offrent aucun contrôle statistique. La seconde contribution de cette thèse est une nouvelle approche, nommée RPBI (Randomized Parcellation Based Inference), répondant au manque de reproductibilité des méthodes classiques. Nous stabilisons l'approche d'analyse à l'échelle de la parcelle en agrégeant plusieurs analyses indépendantes, pour lesquelles le partitionnement du cerveau en parcelles varie d'une analyse à l'autre. La méthode permet d'atteindre un niveau de sensibilité supérieur à celui des méthodes de l'état de l'art, ce que nous démontrons par des expériences sur des données synthétiques et réelles. Notre troisième contribution est une application de la régression robuste aux études de neuroimagerie. Poursuivant un travail déjà existant, nous nous concentrons sur les études à grande échelle effectuées sur plus de cent sujets. Considérant à la fois des données simulées et des données réelles, nous montrons que l'utilisation de la régression robuste améliore la sensibilité des analyses. Nous démontrons qu'il est important d'assurer une résistance face aux violations d'hypothèse, même dans les cas où une inspection minutieuse du jeu de données a été conduite au préalable. Enfin, nous associons la régression robuste à notre méthode d'analyse RPBI afin d'obtenir des tests statistiques encore plus sensibles.
|
415 |
Dynamique spatio-temporelle des populations d'un prédateur introduit sur une île sub-antarctique : l'exemple du chat (Felis silvestris catus) sur la Grande Terre de l'archipel des Kerguelen / Spatio-temporal dynamics of an introduced predator on a sub-antartic island : toward the example of the feral cat (Felis silvestric catus) on the grand Terre Island of the Kerguelen ArchipelagoSantin-Janin, Hugues 20 December 2010 (has links)
Les écosystèmes sub-Antarctiques sont particulièrement vulnérables aux perturbations environnementales et notamment aux invasions biologiques. L'introduction du Chat (Felis silvestris catus) sur la Grande Terre de l'archipel des Kerguelen a eu des effets désastreux sur les communautés d'oiseaux marins. Ce prédateur doit sa survie dans cet environnement à la présence d'une proie introduite, le Lapin (Oryctolagus cuniculus), qui constitue sa ressource principale pendant l'hiver lorsque les oiseaux marins sont repartis en mer. L'éradication du chat n'apparaît pas être une solution réaliste compte tenu de la taille de l'île (6675 km2) et son inaccessibilité. De plus elle serait susceptible de conduire à des résultats non souhaités comme par exemple une explosion démographique des populations de lapins. La mise en place d'une politique de gestion adaptée nécessite d'améliorer notre connaissance des facteurs qui conditionnent la dynamique spatio-temporelle des populations de chats. Au cours de cette thèse, j'ai cherché à identi_er les mécanismes des interactions entre le chat, le lapin et la végétation, car elles sont attendues conditionner celles existantes entre le chat et les oiseaux marins. J'ai analysé la dynamique spatio-temporelle de quatre populations de chats sur la Grande Terre et j'ai en particulier recherché si des conditions environnementales spatialement corrélées (effet Moran) pouvaient, en se propageant dans la chaine alimentaire, synchroniser les variations temporelles d'abondance des populations de chats. Enfin, j'ai étudié l'impact des variations spatio-temporelles d'abondance des populations de chats sur les variations spatio-temporelles de la structure génétique des populations de chats. / Sub-Antarctic ecosystems are particularly vulnerable to environmental perturbations including biological invasions. The introduction of the feral cat (Felis silvestris catus) on the Grande TerreIsland of the Kerguelen archipelago has lead to detrimental effects on seabird's communities. Cat survival in this environment is possible because of the presence of the introduced rabbit (Oryctolagus cuniculus), which constitute the main prey of the cat during winter when most seabirds are offshore. Cat eradication is not a realistic solution given the size and inaccessibility of the island (6675 km2). Moreover it can lead to unwanted results such as the demographic explosion of rabbit populations. The design of appropriate management policy needs to improve our understanding of the factors that influence the spatio-temporal dynamics of cat populations. In this thesis, I explored the mechanisms of cat-rabbit-vegetation interactions, as they are expected to determine interactions existing between cats and seabirds. I analyzed the spatio-temporal dynamics of four cat populations on Grande Terre Island and I especially sought whether environmental conditions spatially correlated (Moran effect) could synchronize cat through their effect on the trophic web pathways. Finally, I studied the impact of spatio-temporal
|
416 |
Intégration des données d'observatoires magnétiques dans l'interprétation de sondages magnétotelluriques : acqusition, traitement, interprétation / Using magnetic observatory data in the framework of magnetotellurics : acquisition, processing, interpretationLarnier, Hugo 07 February 2017 (has links)
Dans ce manuscrit, nous développons des méthodologies de détection et caractérisation de sources géomagnétiques et atmosphériques en se basant sur la transformée en ondelettes continues. Les techniques introduites se basent sur les caractéristiques temps-fréquence des ondes observées dans les séries temporelles magnétotelluriques (MT). A partir de ces procédures de détection, nous détaillons l'implémentation d'une stratégie de détermination des fonctions de réponse MT basée sur les statistiques robustes, et du bootstrap hiérarchique pour le calcul des incertitudes. Deux études MT sont également détaillées. La première étude MT concerne la caractérisation de la structure géoélectrique situé sous l'observatoire magnétique de Chambon-La-Forêt, France. La seconde étude concerne des mesures effectuées dans la vallée de Trisuli au Népal en mars 2016. L'objectif de cette campagne est la comparaison avec une étude effectuée en 1996. Nous discutons des effets topographiques sur les sondages MT. Nous présentons également une nouvelle interprétation de la distribution de conductivité dans le sous-sol de vallée de Trisuli. / In this manuscript, we detail the application of continuous wavelet transform to processing schemes for the detection and the characterisation of geomagnetic and atmospheric sources. Presented techniques are based on time-frequency properties of electromagnetic (EM) waves observed in magnetotellurics (MT) time series. We detail the application of these detection procedures in a MT processing scheme. To recover MT response functions, we use robust statistics and a hierarchical bootstrap approach for uncertainties determination. Interpretation of two datasets are also presented. The first MT study deals with the caracterisation of the resistivity distribution below the French National magnetic observatory of Chambon-la-Forêt. The second study details the interpretation of new MT soundings acquired in March 2016 in the Trisuli valley, Nepal. The main objective of this campaign was to compare the new soundings with an old campaign in 1996. We discuss topography effects on MT soundings and their implication on the resistivity distribution. We also introduce a new interpretation of the resistivity distribution in Trisuli valley.
|
417 |
Développement d'une instrumentation et méthodologie par l'étude des bruits électrochimiques pour le diagnostic des stacks de pile à combustible de type PEMFC / Development of instrumentation and methodology for noise diagnostic of PEMFC stacksAdiutantov, Nikolai 19 December 2017 (has links)
Le développement de la technologie « piles à combustible » nécessite l'utilisation d'outils de diagnostic adéquats notamment pour le monitoring de l'état de santé des systèmes industriels (stacks) dans les conditions réelles de fonctionnement. L'utilisation des moyens traditionnels de diagnostic nécessite l'arrêt ou la perturbation du fonctionnement du système. Le travail de cette thèse vise le développement d'une approche innovante non intrusive pour le diagnostic des stacks PEM (Proton Exchange Membrane), basée sur la mesure des petites fluctuations électriques (bruits électrochimiques). Pour mesurer les bruits, un système d'acquisition des faibles signaux à haute fréquence a été utilisé sans filtrage analogique préalable. Ces mesures ont été dans le cadre du projet ANR « Propice » pour quatre campagnes de mesures avec la collaboration du FCLAB et du CEA LITEN. Les mesures des bruits électrochimiques, sur plusieurs semaines, ont permis de construire une base de données extrêmement riche. Pour traiter ces données, différents approches statistiques dans le domaine temporel, fréquentiel et tempo-fréquentiel ont été utilisés pour la génération de descripteurs fiables et robustes. Il a été démontré que la mesure des bruits permet d'obtenir une riche signature des stacks PEM dans un vaste domaine fréquentiel. Cette signature reflète les différents phénomènes physico-chimiques et est très sensible aux paramètres de fonctionnement du système. L'évolution de cette signature au court de temps peut être utilisée pour le diagnostic in-situ de d'état de santé des stacks commerciaux dans les conditions réelles de fonctionnement et pour le développement des moyens de pronostic. / Fuel cell technology development requires adequate diagnostic tools, in particular for monitoring the state of health of industrial systems (stacks) under operating conditions. Traditional diagnostic tools require to stop or disrupt the system operating. This thesis aims at the development of an innovative and non-intrusive approach for the diagnostic of PEM (Proton Exchange Membrane) fuel cell stacks. The methodology is based on the measurement of small electrical fluctuations (electrochemical noise). To measure this noise, a high frequency signal acquisition system was used without prior analog filter. These measurements were obtained within the ANR project « Propice » using four measurement campaigns with the collaboration of FCLAB and CEA LITEN. Electrochemical noise Measurements, over several weeks, made it possible to build a rich database. To process these data, different statistical approaches in time, frequency and tempo-frequency domains have been used for the generation of reliable and robust descriptors. It has been shown that the measurement of noise makes it possible to obtain a rich signature of the PEM stacks in a wide frequency range. This signature reflects the various physico-chemical phenomena and it is very sensitive to the operating parameters of the system. The evolution of this signature in short time analysis can be used for an in-situ diagnostic of the state of health of commercial stacks under real operating conditions and for the development of prognostic strategies.
|
418 |
Aspects de théories supersymétriques unifiées en dimension supplémentaires / Aspects of extra dimensional supersymmetric unified theoriesFichet, Sylvain 23 September 2011 (has links)
Bien que l'on ne sache pas (encore) quel phénomène unitarise la diffusion WLWL à l'échelle du TeV, les données indirecte actuelles favorise le boson de Higgs. Etant donné que cette particule scalaire pourrait être aussi lourde que la masse de Planck, comment peut-on expliquer sa légèreté ? La supersymmétrie (SUSY), brisée à l'échelle du TeV, peut effectuer cette stabilisation, et permettre du même coup l'existence de Théories de Grande Unifications (GUTs). Ces SUSY GUTs réalisées dans une dimension supplémentaire compactifiée, peuvent être particulièrement simples. De plus, elles peuvent être prises comme limite basse énergie d'une théorie de cordes. Cette thèse est consacrée à l'étude de tels modèles de SUSY GUTs. Nous avons étudié, développé et étendu certains aspects de la classe de modèle d'Unification Jauge-Higgs, et de la classe de modèle d'Unification Holographique. Différents aspects de la physique basse-énergie ont été étudiés, incluant spectre de masses, physique des saveur, matière noire, et phénoménologie au LHC. / Although one does not know (yet) which phenomenon unitarizes WLWL scattering at the TeV scale, indirect data currently favors the Higgs boson. Since such a scalar particle is susceptible to become as heavy as the Planck mass, how can one explain its lightness ? Supersymmetry (SUSY), broken at the TeV scale, can do this stabilization, providing in the same time models of Grand Uni fied Theories (GUTs). These SUSY GUTs, combined with extra spatial dimensions compacti fied on an interval, can be particularly simple. Moreover they can be seen as the low energy limit of some string theory. This thesis is devoted to the study of such models of SUSY GUTs on flat and warped orbifolds, trying to cover the range from models to experimental constraints. We studied, developed and extended certain aspects of two interesting frameworks of this type: a framework with gauge-Higgs uni fication, and the framework of holographic grand uni fication. We investigated several aspects of the low-energy implications, including mass spectra, flavour constraints, dark matter and LHC phenomenology
|
419 |
Une description morphologique précise des grains pour l'étude numérique des propriétés mécaniques du ballast ferroviaire / An accurate description of grain morphology applied to the numerical modelling of mechanical properties of railway ballastOuhbi, Noura 26 October 2017 (has links)
Le ballast est la couche granulaire, formée de grains rocheux irréguliers de taille centimétrique, qui supporte la voie ferrée par l'intermédiaire des traverses. Son rôle est crucial dans la transmission des efforts statiques et dynamiques imposés par la circulation des trains vers le sol supportant la voie. Pour comprendre le phénomène de tassement du ballast, qui croît fortement avec la vitesse des trains, et qui entraîne de coûteuses opérations de maintenance, il est important de bien connaître l’influence de la morphologie des grains sur le comportement mécanique du ballast. C’est l’objectif de cette thèse, dans laquelle est développée une technique innovante de caractérisation morphologique fondée sur la décomposition orthogonale aux valeurs propres (« POD »). Cette technique, appliquée à des données expérimentales détaillées (scans 3D) permet d’identifier un choix optimal de fonctions de forme. Il est alors possible de générer numériquement des assemblages granulaires représentatifs du ballast avec différents degrés de raffinement selon le nombre de fonctions de base retenu. Pour passer aux applications mécaniques, les grains, ainsi modélisés par un nombre limité de coefficients, doivent ensuite par une opération de maillage être assimilés à des polyèdres convexes dont le comportement mécanique est simulé par la méthode des éléments discrets (dynamique des contacts, avec le logiciel LMGC90). On détermine alors des caractéristiques de base comme l'angle de frottement interne et la compacité dans l'état critique de cisaillement quasi-statique maintenu. Ces propriétés sont stabilisées à partir d’un nombre assez faible de fonctions de forme (de l’ordre de 10). Dans le domaine de la description morphologique, l’approche fondée sur la POD ouvre d’intéressantes perspectives pour améliorer les caractérisations usuelles. Elle permet de différencier les ballasts selon leur degré d’usure ou la carrière dont ils proviennent. Elle conduit également à une méthode d’identification des faces et des courbures des grains / The ballast is the granular layer formed of irregular centimeter-sized rock grains, which supports the railway through the sleepers. Its role is crucial in the transmission of static and dynamic forces imposed by the movement of trains towards the ground supporting the track. To understand the phenomenon of ballast settlement, which increases significantly with the speed of the trains, and which requires costly maintenance operations, it is important to understand the influence of the grain morphology on the mechanical behavior of the ballast. Such is the objective of this thesis. First, an innovative method for particle shape characterization is developed, based on the Proper Orthogonal Decomposition (POD). When applied to highly accurate experimental data (3D scans of ballast grains), this technique enables the identification of an optimal set of shape functions, such that the shape information is condensed in a minimum number of coefficients. It becomes then possible to numerically generate granular assemblies that are representative of the morphology of ballast grains with different degrees of refinement according to the number of retained shape functions. In order to investigate their mechanical properties, the grains modeled by a limited number of coefficients have to be subjected to a meshing procedure and turned into convex polyhedra, suitable for numerical simulations of mechanical behaviours via the discrete element method (contact dynamics, using the LMGC90 software). We determine some fundamental characteristics such as the internal friction angle and the solid fraction in the critical state of quasistatic steady shear flow. These properties are stabilized after including a rather small number of shape functions in to the model (on the order of 10).The method also opens promising avenues for morphological characterization applications. It proves able to distinguish ballast grains with varying degrees of wear, or produced in different quarries. It also leads to a procedure for identifying faces and curvatures
|
420 |
Détermination des paramètres cosmologiques dans le cadre du modèle de Friedmann-Lemaîtres / Determination of the cosmological parameters in the framework of the Friedmann-Lemaître modelChbib, Dyaa 15 December 2017 (has links)
Un siècle après le modèle d'univers de Friedmann-Lemaître, les observations le confortent avec une constante cosmologique $\Lambda$ et une composante de matière sombre (noire) sans pression (poussière) et froide dominant celle baryonique, que l'on désigne par modèle $\Lambda$CDM. L'accélération de l'expansion de l'Univers confirmée par le diagramme de Hubble des supernovae en 1998 impose une valeur strictement positive à la constante cosmologique. Mes travaux de thèse se focalisent sur l'estimation des valeurs de paramètres cosmologiques du modèle standard en utilisant la technique de corrélation nulle. Cette approche présente l'avantage d'être plus robuste que les techniques usuelles. Ce travail a consisté aussi à modéliser des échantillons de l'événement quasar ainsi que l'événement supernova, une extrapolation adaptée du premier. Ce qui a permis de générer des échantillons conformes aux hypothèses des modèles, afin de valider les approches statistiques. Nous avons exploité les données du Sloan Digital Sky Survey (SDSS) pour les quasars, et celles du SuperNova Legacy Survey (SNLS) et du SDSS-II pour les supernovae. Les inférences statistiques ont conduit à un univers spatialement fermé et une présence de matière noire plus faible. Dans le cadre d'une prochaine application de cette technique, elle sera utilisée pour contraindre les modèles d'énergie noire. De même, l'utilisation des amas de galaxies observées grâce à l'effet de Sunyaev Zel'dovich, servira d'échantillon cosmologique. Une telle étude pourra contribuer à apporter un élément de réponse à la validité du rôle supposé des neutrinos massifs dans la formation des amas dans l'ère primordiale de l'Univers. / A century after the Universe model of Friedmann-Lemaître, the observations comfort it with a cosmological constant $\Lambda$ and a dark matter component without pressure (dust) and cold dominating the baryonic one, which is denoted by $\Lambda$CDM model. The acceleration of the expansion of the Universe confirmed by the Hubble diagram of the supernovae in 1998 imposes a strictly positive value on the cosmological constant. My thesis work focuses on the estimation of the cosmological parameters values of the standard model using the null correlation technique. This approach has the advantage of being more robust than the usual techniques. This work deals with modelling samples of the quasar event and the supernova event, which enables us to generate samples in order to validate the statistical approaches. We used data from the Sloan Digital Sky Survey (SDSS) for quasars, and the SuperNova Legacy Survey (SNLS) and SDSS-II for supernovae. The Statistical inferences suggest a Universe spatially Closed and a weaker presence of dark matter than that in the Standard model. Such a statistical analysis can be used to constrain dark energy models. Application of this technique might be useful for analyzing of clusters of galaxies observed through the effect of Sunyaev Zel'dovich, in view of deriving the cosmological model and provide an answer to the question of the contribution of massive neutrinos in the formation of clusters in the primordial era of the Universe.
|
Page generated in 0.0375 seconds