• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 66
  • 22
  • 6
  • Tagged with
  • 93
  • 37
  • 29
  • 27
  • 18
  • 16
  • 16
  • 15
  • 14
  • 13
  • 13
  • 12
  • 12
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Etude des performances et dimensionnement du radar pénétrateur pour la mission JUICE

Berquin, Yann 27 February 2014 (has links) (PDF)
On se propose dans un premier temps d'étudier des jeux de données topographiques sur la lune glacée de Jupiter Ganymède et d'estimer l'impact de la topographie sur les performances du futur radar sondeur. Les principaux résultats sont présentés dans [1]. Une seconde partie est dédiée à l'expression mathématique du problème direct du sondage radar planétaire (physique et instrumentation). On rappelle ainsi comment dériver à partir des formulations de Stratton-Chu les formulations volumiques classiques et surfaciques (i.e. Huygens-Fresnel). On s'attache ensuite à détailler un algorithme performant basé sur la formulation surfacique pour simuler des échos radar à partir d'une surface planétaire maillée. Cette approche est largement inspirée par le travail de J.-F. Nouvel [2]. Une troisième partie s'intéresse à l'inversion des paramètres géophysiques de surface à partir des mesures radar. On écrit ainsi le problème dans un cadre probabiliste (c.f. [3]) et on présente trois grandes familles d'algorithmes : (i) une approche avec une linéarisation du problème, (ii) une approche itérative basée sur une méthode de gradient et (iii) une approche statistique pour estimer les densités de probabilités a posteriori. Ces algorithmes sont appliqués à des jeux de données synthétiques pour illustrer leurs performances. [1] Y. Berquin, W. Kofman, A. Herique, G. Alberti, and P. Beck. A study on ganymede's surface topography: Perspectives for radar sounding. Planetary and Space Science, (0), 2012. [2] J.-F. Nouvel, A. Herique, W. Kofman, and A. Safaeinili. Radar signal simulation: Surface modeling with the Facet Method. Radio Science, 39:RS1013, February 2004. [3] A. Tarantola. Inverse problem theory and methods for model parameter estimation. SIAM, 2005.
42

Seasonal and interannual variability of stratospheric nitric acid from IASI measurements

Ronsmans, Gaetane 30 November 2018 (has links) (PDF)
Measuring the composition of the stratosphere, and understanding the processes regulating it, have become,in the last few decades, top priorities in the scientific community, particularly since the discovery ofthe ozone hole in the 1980s. While a lot has indeed been done in monitoring ozone, other constituents also influence the stratosphere’s composition, and interfere namely with ozone, affecting its chemical and dynamical balance. Among these is nitric acid (HNO3 ) which is a reservoir for ozone depleting NOx ,but also a key player in the formation of polar stratospheric clouds which, by turning inert species into active radicals, enhance the ozone depletion further. The nadir-viewing IASI instrument is a very good means of obtaining simultaneous data of nitric acid and ozone. Indeed, it measures the radiation of the Earth’s atmosphere in the thermal infrared spectral range, which allows it to measure even at night. This is crucial to the study of polar processes, since they occur mostly during the polar winter, when no light reaches these latitudes. Thanks to its design and its technical characteristics, the IASI instrument provides data all-year round, for every location on the Earth. The purpose of this work is to use this unique set of IASI data to understand what drives the variability of HNO3 in the stratosphere. No study so far has focused on the factors affecting the time and spatial distributions of nitric acid to the extent and scale we propose here. We aim to identify and quantify these factors, and to compare them with the drivers of ozone variability. Nitric acid data are thus obtained for the 10 years of IASI observation (2008 − 2017), and vertical profiles are retrieved in near-real time thanks to the FORLI algorithm developed at ULB. The first part of the present work provides a detailed characterization of the IASI FORLI-HNO3 data set in terms of vertical sensitivity and errors. We show that the HNO3 maximum is found around 20 km altitude, where we also find the maximum sensitivity of the measurements to the vertical profile. The analysis of the averaging kernels shows us that only one level of information can be extracted from the vertical profile, which constrains the rest of our analyses to the use of a total (or almost total) column. We also find that the IASI measurements tend to overestimate slightly the HNO3 column in the upper troposphere/lower stratosphere region of the profile. The data set is validated against ground-based FTIR measurements at different latitudes: we find good agreement between IASI and the FTIR data, which confirms that IASI manages to reproduce the HNO3 columns and their seasonality accurately. Comparisons with a state of the art atmospheric model data are also shown, and suggest that improvement is still largely needed in models to represent the HNO3 distributions accurately. The use of a data-assimilated model (BASCOE) shows a much better agreement with the IASI observations. The next part of the work describes the geophysical analyses carried out, and details the first time series and global distributions of HNO3 from IASI. After describing the various (mostly polar) processes at play observed in the time series, the question of the formation of the polar stratospheric clouds is raised, and further results are shown about the temperature at which these form. While a fixed threshold (195 K) is usually used for geophysical analyses, we find from the observational IASI data set that this fixed temperature can vary substantially depending on local conditions and on altitude. The last sections use multivariate linear regressions to fit the HNO3 and O3 time series, featuring various chemical and dynamical variables in order to identify what factors are responsible for their respective variability. We include the variables most commonly used in such kind of study, i.e. a linear trend, harmonical terms to account for the annual seasonality, and proxies for the quasi-biennial oscillation, the multivariate ENSO index, and the Arctic and Antarctic oscillations. The novelty of our work resides in the addition of a proxy for the volume of polar stratospheric clouds to account for the strong denitrification observed in the HNO3 time series in polar regions. We find that the annual cycle, encompassing the solar seasonality and the Brewer-Dobson circulation, is the factor explaining most of the variability of both HNO3 and O3 ,at almost all latitudes. In the polar regions, however, the volume of polar stratospheric clouds is a key factor contributing the most to their variability. Globally, the same factors explain the same portion of both HNO3 and O3 variability. In the last part of the thesis, we conclude and provide a preliminary co-analysis of HNO3 and O3 from the 10-year IASI data. The results are encouraging and highlight the potential of the IASI measurements to monitor the polar processes on various scales. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
43

Modélisation d’antennes basses fréquences en présence de sol et d’environnements réalistes / Modeling of low-frequency antennas in the presence of the ground and realistic environments

Vincent, Julien 28 January 2015 (has links)
Ce travail de thèse traite les domaines du rayonnement d'antennes basses fréquences et de la propagation du champ électromagnétique, en présence du sol et d'environnement réalistes. Des éléments qui diffèrent du cas canonique du sol plan homogène et infini sont considérés par le mot "réalistes". Les méthodes numériques classiques pour l'électromagnétisme, en particulier pour la modélisation du rayonnement d'antennes, sont plutôt adaptées à des fréquences au-delà des hautes fréquences et au rayonnement en espace libre. Deux axes de recherche ont été définis comme suit: les effets d'environnements situés en zone proche sur le rayonnement d'antennes filaires basses fréquences et l'étude de systèmes éloignés de la source par la création d'une méthode hybride. En ce qui concerne le rayonnement en zone proche, une méthode des différences finies dans le domaine temporel est utilisée. Celle-ci est lourde d'un point de vue des temps de calculs et de l'occupation de la mémoire, cependant elle est effective du fait du maillage volumique de la scène. Dans le cas de la propagation lointaine, la solution parfaite du rayonnement d'un dipôle infinitésimal électrique vertical au-dessus d'un sol plan homogène infini a été traitée par la création d'un algorithme adaptatif d'intégration numérique. Ce dernier permet d'obtenir les valeurs du champ électromagnétique dans tout l'espace avec une précision numérique contrôlée. Une technique originale d'hybridation a été réalisée entre l'algorithme d'intégration et la méthode des différences finies pour rendre compte efficacement des effets d'éléments lointains sur la propagation du champ. / This work is about the radiation of low frequency antennas and the propagation of the electromagnetic field, in the presence of soil and realistic environments. Elements that differ from the canonical case of homogeneous infinite and planar ground are considered by the word realistic. Conventional numerical methods for electromagnetism, in particular for modeling the radiation of antennas are rather suitable for frequencies beyond the high frequencies and in free space. Two research areas were defined as follows : the effects of environments located near the low frequency wire antennas and the study of systems far from the source through the creation of a hybrid method. Regarding the near-field radiation, a method of finite-difference in the time-domain is used. It needs a large computer memory size and long solution times, however it is effective because the entire scene is included in a volumetric mesh. In the case of field propagation, the radiation of a vertical electric current element above a homogeneous flat ground has been computed with the creation of an adaptive algorithm for numerical inte- gration. This allows to obtain the values of the electromagnetic field in the whole space with controlled numerical accuracy. An original technique of hybridization was performed between the integration algorithm and the method of finite differences to effectively observ the effects of distant elements on the field propagation.
44

Assessing the performances and optimizing the radar sounder design parameters for the EJSM mission (Ganymede and Europa) / L’étude des performances et le dimensionnement du radar pénétrateur pour la mission EJSM (Ganymède et Europa)

Berquin, Yann 27 February 2014 (has links)
On se propose dans un premier temps d'étudier des jeux de données topographiques sur la lune glacée de Jupiter Ganymède et d'estimer l'impact de la topographie sur les performances du futur radar sondeur. Les principaux résultats sont présentés dans [1]. Une seconde partie est dédiée à l'expression mathématique du problème direct du sondage radar planétaire (physique et instrumentation). On rappelle ainsi comment dériver à partir des formulations de Stratton-Chu les formulations volumiques classiques et surfaciques (i.e. Huygens-Fresnel). On s'attache ensuite à détailler un algorithme performant basé sur la formulation surfacique pour simuler des échos radar à partir d'une surface planétaire maillée. Cette approche est largement inspirée par le travail de J.-F. Nouvel [2]. Une troisième partie s'intéresse à l'inversion des paramètres géophysiques de surface à partir des mesures radar. On écrit ainsi le problème dans un cadre probabiliste (c.f. [3]) et on présente trois grandes familles d'algorithmes : (i) une approche avec une linéarisation du problème, (ii) une approche itérative basée sur une méthode de gradient et (iii) une approche statistique pour estimer les densités de probabilités a posteriori. Ces algorithmes sont appliqués à des jeux de données synthétiques pour illustrer leurs performances. [1] Y. Berquin, W. Kofman, A. Herique, G. Alberti, and P. Beck. A study on ganymede's surface topography: Perspectives for radar sounding. Planetary and Space Science, (0), 2012. [2] J.-F. Nouvel, A. Herique, W. Kofman, and A. Safaeinili. Radar signal simulation: Surface modeling with the Facet Method. Radio Science, 39:RS1013, February 2004. [3] A. Tarantola. Inverse problem theory and methods for model parameter estimation. SIAM, 2005. / The manuscript details the work performed in the course of my PhD on planetary sounding radar. The main goal of the study is to help designing and assessing the sounding radar performances. This instrument will be embarked on the ac{ESA}'s large class mission ac{JUICE} to probe Jupiter's environment and Jupiter's icy moons Callisto, Ganymede and Europa. As an introduction to the problem, a study on Ganymede's surface ac{DEM} and its implications with regard to the radar performances was performed. The results of this work put forward issues due to a hostile environment with important surface clutter which eventually lead to a decrease in the radar signal bandwidth to 8--10 MHz. A first section is then dedicated to the formulation of the direct problem of sounding radar with a focus on surface formulations. This section eventually leads to a novel algorithm for radar surface echo computation from meshed surfaces which proves to be both efficient and accurate. A second section studies the possibility to use surface formulation to recover geophysical surface parameters from sounding radar data. For that purpose, three main approaches are discussed namely (i) a linear approach, (ii) a gradient-based approach and (iii) a statistical approach. These techniques rely on a probabilistic view of the inverse problem at hand and yield good result with different setups. Although we mainly focus on surface reflectivity, we also discuss surface topography inversion. Finally, a last section discusses the work presented in the manuscript and provides perspectives for future work.
45

Méthodes et outils pour des expériences difficiles sur Grid 5000 : un cas d'utilisation sur une simulation hybride en électromagnétisme / Methods and tools for challenging experiments on Grid’5000 : a use case on electromagnetic hybrid simulation

Ruiz, Cristian 15 December 2014 (has links)
Dans le domaine des systèmes distribués et du calcul haute performance, la validation expérimentale est de plus en plus utilisée par rapport aux approches analytiques. En effet, celles-ci sont de moins en moins réalisables à cause de la complexité grandissante de ces systèmes à la fois au niveau logiciel et matériel. Les chercheurs doivent donc faire face à de nombreux challenges lors de la réalisation de leurs expériences rendant le processus coûteux en ressource et en temps. Bien que de larges plateformes parallèles et technologies de virtualisation existent, les expérimentations sont, pour la plupart du temps, limitées en taille. La difficulté de passer une expérimentation à l'échelle représente un des grands facteurs limitant. Le niveau technique nécessaire pour mettre en place un environnement expérimentale approprié ne cesse d'augmenter pour suivre les évolutions des outils logiciels et matériels de plus en plus complexes. Par conséquent, les chercheurs sont tentés d'utiliser des méthodes ad-hoc pour présenter des résultats plus rapidement et pouvoir publier. Il devient alors difficile d'obtenir des informations sur ces expérimentations et encore plus de les reproduire.Une palette d'outils ont été proposés pour traiter cette complexité lors des expérimentations. Ces outils sont motivés par le besoin de fournir et d'encourager des méthodes expérimentales plus construites. Cependant, ces outils se concentrent principalement sur des scénarios très simple n'utilisant par exemple qu'un seul noeud ou client/serveur. Dans le contexte des systèmes distribués et du calcul haute performance, l'objectif de cette thèse est de faciliter la création d'expériences, de leur contrôle, répétition et archivage.Dans cette thèse nous proposons deux outils pour mener des expérimentations nécessitant une pile logicielle complexe ainsi qu'un grand nombre de ressources matérielles. Le premier outil est Expo. Il permet de contrôler efficacement la partie dynamique d'une expérimentation, c'est à dire l'enchaînement des tests expérimentaux, la surveillance des taches et la collecte des résultats. Expo dispose d'un langage de description qui permet de mettre en place une expérience dans un contexte distribué avec nettement moins de difficultés. Contrairement aux autres approches, des tests de passage à l'échelle et scénarios d'usage sont présentés afin de démontrer les avantages de notre approche. Le second outil est appelé Kameleon. Il traite les aspects statiques d'une expérience, c'est à dire la pile logicielle et sa configuration. Kameleon est un logiciel qui permet de décrire et contrôler toutes les étapes de construction d'un environnement logiciel destiné aux expérimentations. La principale contribution de Kamelon est de faciliter la construction d'environnements logiciels complexes ainsi que de garantir de futur reconstructions. / In the field of Distributed Systems and High Performance Computing experimental validation is heavily used against an analytic approach which is not feasible any more due to the complexity of those systems in terms of software and hardware.Therefore, researchers have to face many challenges when conducting their experiments, making the process costly and time consuming. Although world scale platforms exist and virtualization technologies enable to multiplex hardware, experiments are most of the time limited in size given the difficulty to perform them at large scale.The level of technical skills required for setting up an appropriate experimental environment is risen with the always increasing complexity of software stacks and hardware nowadays. This in turn provokes that researchers in the pressure to publish and present their results use ad hoc methodologies.Hence, experiments are difficult to track and preserve, preventing future reproduction. A variety of tools have been proposed to address this complexity at experimenting. They were motivated by the need to provide and encourage a sounder experimental process, however, those tools primary addressed much simpler scenarios such as single machine or client/server. In the context of Distributed Systems and High Performance Computing, the objective of this thesis is to make complex experiments, easier to perform, to control, to repeat and to archive. In this thesis we propose two tools for conducting experiments that demand a complex software stack and large scale. The first tool is Expo that enable to efficiently control the dynamic part of an experiment which means all the experiment workflow, monitoring of tasks, and collection of results.Expo features a description language that makes the set up of an experiment withdistributed systems less painful. Comparison against other approaches, scalability tests anduse cases are shown in this thesis which demonstrate the advantage of our approach.The second tool is called Kamelon which addresses the static part of an experiment,meaning the software stack and its configuration.Kameleon is a software appliance builderthat enables to describe and control all the process ofconstruction of a software stack for experimentation.The main contribution of Kameleon is to make easy the setup of complex software stacks andguarantee its post reconstruction.
46

Longwave radiative effect of ozone from IASI observations

Doniki, Stamatia 21 August 2019 (has links) (PDF)
(English)Ozone is one of the most important greenhouse gases in terms of radiative forcing, as aresult of increasing in its precursor emissions since pre-industrial times. Until recently,the ozone radiative forcing calculations were entirely model based, exhibiting high uncertaintiesand a large spread in model values, as shown in the Intergovernmental Panelon Climate Change, Assessment Report 5. Satellite sounders operating in the infrarednow offer the possibility to infer directly the longwave radiative effect (LWRE) of ozone.The hyperspectral measurements allow to retrieve a vertical profile of ozone, and also thevertical distribution of the LWRE, apart from its column integrated value. The separationbetween troposphere and stratosphere allows to better constrain model estimates ofozone radiative forcing, but also support the predictions for its future evolution.In this thesis, a new method for calculating the ozone LWRE is presented, by exploitingthe measurements of the Infrared Atmospheric Sounding Interferometer on board theMetop satellites. The method is based on the calculation of the Instantaneous RadiativeKernel (IRK), which implies the angular integration of the radiance (inthe 9.6 μm band) at the top of the atmosphere using a Gaussian Quadrature. This quantityis transformed into a radiative flux density (the LWRE) by multiplicationwith the ozone profile retrieved by FORLI, for each atmospheric scene. The LWRE calculationmethod is applied to IASI non-cloudy scenes, for day and night, for the periodof 01/10/2007 to 31/12/2016. The results are analyzed separately for the total column ofozone, and for its tropospheric and stratospheric components; they are compared to estimationsdetermined independently from the TES (Tropospheric Emission Spectrometer)measurements on-board Aura, and from three state-of the-art chemistry-climate models.The discussion of the results is focused then on the spatial and temporal variability ofthe LWRE in the troposphere and stratosphere, as well as the on the trends over 9 yearsof measurements.(French)L’ozone est actuellement l’un des gaz à effet de serre les plus importants en terme de forçage radiatif ;sa contribution est liée à l’augmentation des émissions de ses précurseurs depuis l’époque préindustrielle. Jusqu’à récemment, le calcul du forçage radiatif de l’ozone était entièrement basé sur des modèles et était sujet à de grandes incertitudes, qui se révèlent notamment par la large gamme des valeurs calculées et intégrées dans le Cinquième Rapport d’Évaluation du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC). Les sondeurs embarqués sur des satellites et travaillant dans le domaine de l’infrarouge thermique donnent aujourd’hui la possibilité de directement mesurer l’effet radiatif de l’ozone au niveau de la radiation infrarouge sortante. La possibilité qu’offrent les mesures hyperspectrales pour restituer un profil vertical d’ozone permet par ailleurs de fournir la distribution verticale du forçage radiatif, au-delà se valeur intégrée sur la colonne atmosphérique. La séparation entre la troposphère et la stratosphère est importante en particulier pour contraindre les estimations des modèles mais aussi pour prédire l’évolution future du forçage radiatif. Dans cette thèse, nous présentons une méthode de calcul de l’effet radiatif de l’ozone qui exploite les mesures de l’Interféromètre Atmosphérique de Sondage dans l’Infrarouge (IASI) à bord des satellites Metop en orbite polaire. La méthode se base sur le calcul, pour chaque mesure de IASI, d’une grandeur appelée Instantaneous Radiative Kernel (IRK), impliquant l’intégration angulaire de la radiance (dans la bande d’absorption d’ozone centrée à 9.6µm) au sommet de l’atmosphère via une quadrature de Gauss. Cette quantité est transformée en une densité de flux radiatif (appelée Longwave Radiative Effect, LWRE) par multiplication par le profil d’ozone restitué par le logiciel FORLI, pour la scène atmosphérique en question. La méthode du calcul du LWRE est appliquée aux scènes non nuageuses de IASI, de jour comme de nuit, pour la période du 01/10/2007 au 31/12/2016. Les résultats sont analysés séparément pour la colonne totale d’ozone mais également pour ses composantes troposphériques et stratosphériques ;ils sont comparés aux estimations déterminées de façon indépendantes des mesures de l’instrument TES (Tropospheric Emission Spectrometer) sur AURA. La discussion de nos résultats se focalise ensuite sur la variabilité spatiale et temporelle du LWRE dans la troposphère et la stratosphère ;des résultats préliminaires concernant les tendances sur les 9 années de mesures sont fournis. Le manuscrit est structuré en différentes parties. Après une série de chapitres introductifs décrivant les bases nécessaires à ce travail, nous présentons l’instrument IASI et l’algorithme FORLI dédié à la restitution des concentrations d’ozone. La méthode de calcul du LWRE, au centre de notre travail de recherche, est décrite avec ses fondements mathématiques dans un chapitre dédié. Les distributions spatiales et verticales du LWRE, ainsi que son évolution temporelle sur 9 ans, d’une part pour l’effet radiatif de l’ozone total et d’autre part pour sa contribution troposphérique/stratosphérique sont discutées dans les derniers chapitres, qui incluent également une brève comparaison des estimations du LWRE par trois modèles de chimie-climat différents. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
47

Étude et modélisation numérique 3D par éléments finis d'un procédé de traitement thermique de tôles embouties après chauffage par induction : Application à un renfort de pied central automobile

Cardinaux, David 07 November 2008 (has links) (PDF)
Le traitement thermique des aciers après chauffage par induction localisé est un procédé aujourd'hui répandu, notamment dans l'industrie automobile. Ce type de procédés a fait ses preuves dans le cadre de pièces massives, mais les distorsions générées sont encore parfois insuffisamment maîtrisées lorsqu'il s'agit de tôles minces. PSA-Peugeot-Citroën s'intéresse alors à l'étude et la compréhension des phénomènes en jeu ainsi qu'à la simulation numérique de tels procédés. C'est alors dans cette démarche et dans le cadre d'un partenariat entre le Cemef et PSA, que s'inscrit ce travail appliqué au traitement thermique d'un renfort de pied central. Un procédé aussi complexe nécessite la compréhension de la thermique, de la mécanique, de la métallurgie, de l'électromagnétisme, ainsi que de leurs interactions mutuelles au chauffage comme au refroidissement. Ce travail se trouve alors au carrefour de plusieurs disciplines comme la thermomécanique et l'électromagnétisme, ainsi que les méthodes numériques et l'étude expérimentale. Il fait suite à divers travaux réalisés au laboratoire concernant la thermique ou la mécanique, ainsi qu'une thèse précédente portant sur la modélisation numérique couplée de la trempe. Il constitue également la première approche 3D des procédés de chauffage par induction et des couplages multi physiques qui en découlent. La présentation de ce travail se décompose en 3 grandes parties. Premièrement, on décrit le contexte industriel, la problématique et l'historique de l'étude du procédé, pour en arriver aux études expérimentales réalisées dans ce travail : une porte sur le procédé industriel et l'autre sur un modèle simplifié que nous avons conçu pour une meilleure compréhension des phénomènes physiques qui génèrent les distorsions. Ces études expérimentales, riches en résultats, soulignent la nécessité d'un outil numérique pour aller encore plus loin dans la compréhension physique du procédé. Nous poursuivons alors sur trois chapitres présentant les modèles numériques par éléments finis, développés et utilisés dans le code de calcul pour simuler les problèmes couplés : thermique / électromagnétisme, mécanique / métallurgie et l'ensemble de la structure couplée. La troisième et dernière partie du rapport traite, d'une part, de la mise en donnée d'un cas semi-industriel ainsi que de la caractérisation des paramètres, et d'autre part, des résultats numériques obtenus et de leur comparaison avec les résultats expérimentaux. Le modèle développé permet d'estimer dans une première approche les distorsions subies par une structure mince lors de son traitement thermique localisé par induction. Le code de calcul actuel forme une base solide pour de futures évolutions permettant de simuler des problèmes industriels complexes.
48

Modélisations numériques temporelles des CRBM en compatibilité électromagnétiques. Contributions aux schémas volumes finis

Lalléchère, Sébastien 12 December 2006 (has links) (PDF)
Cette thèse concerne la modélisation numérique de Chambres Réverbérantes à Brassage de Modes (CRBM). Cet outil est utilisé pour les tests en Compatibilité ElectroMagnétique (CEM) de systèmes électroniques variés. L'utilisation de modèles temporel, géométrique et électronique particuliers a été motivée en s'appuyant sur un maximun de paramètres réels. La prise en compte naturelle par la méthode des Volumes Finis dans le Domaine Temporel (VFDT) de géométries complexes autorise la modélisation conforme des équipements rencontrés en CRBM. L'intégration réaliste des pertes est assurée via un filtre temporel spécifique. Ces travaux ont permis de quantifier au mieux les effets de la dissipation numérique VFDT : une technique temporelle hybride Différences Finies/ Volumes Finis adaptée est ainsi proposée. Enfin, différentes améliorations numériques permettent d'optimiser les développements actuels des simulations temporelles en chambre réverbérante sont présentées.
49

Fracturation polyphasée et contrôles des gisements de nickel supergène de Nouvelle-Calédonie : Nouvelles méthodes d’exploration et modèles de gisements / Polyphase fracturing and control of supergene nickel deposits in New Caledonia : New exploration methods and deposit models

Iseppi, Marion 23 October 2018 (has links)
La connaissance minéralogique et géochimique des gisements de nickel latéritique est sans aucun doute plus approfondie que celle de leur structuration. En effet, le profil d’altération oblitère le réseau de fracture affectant la roche mère sous-jacente, pourtant indispensable pour l’évaluation de la ressource car elle contrôle l’essentiel de l’altération et donc la libération du nickel. La Nappe des Péridotites de Nouvelle-Calédonie constitue un objet exceptionnel d’étude de la fracturation au sein d’une ophiolite mantellique car le soulèvement majeur et les phases d’érosion subséquentes, qu’elle a subis du Miocène à l’Actuel, ont permis de mettre au jour la structure en trois dimensions. Cependant, la facilité d’accès à la ressource fait qu’à ce jour assez peu d’études structurales ont été conduites sur les gisements, ou le plus souvent, sont restées confidentielles. L’objectif de cette étude est de mieux comprendre l’influence de la structuration de l’ophiolite sur la genèse des gisements de nickel latéritique en Nouvelle-Calédonie. Cette étude multi-échelle a porté sur l’ensemble de la Nappe des Péridotite et se scinde en deux volets : 1) une étude structurale de terrain, et 2) l’interprétation de données d’électromagnétisme nouvellement acquises. Cette campagne de géophysique héliportée a été effectuée sur trois zones minières représentatives des différents types (morphologiques et génétiques) de gisements rencontrés en Nouvelle-Calédonie (les massifs de Koniambo et du Kopéto-Boulinda et au sud, la zone de Plaines des Lacs – Goro - Port-Boisé).L’analyse de la fracturation des péridotites est primordiale pour comprendre les chemins de migration des eaux météoriques et donc les variations d’épaisseur du profil d’altération. Une approche minéralogique et texturale est nécessaire afin de distinguer les différents épisodes de fracturation et de remplissage statiques ou cinématiques, et permet de proposer une chronologie relative. À la suite de cet inventaire, il est possible d’identifier ces objets sur les profils d’électromagnétisme. Cette analyse permet de visualiser la géométrie des structures jusqu’à une profondeur de 300 m et montre un lien direct entre les approfondissements du profil d’altération et la présence de certaines fractures. Ainsi, il apparait clairement que les eaux météoriques empruntent des chemins préférentiels fonction de la morphologie générale du massif elle-même issue des structures héritées.La géométrie des structures visualisées par la géophysique, combinée aux observations de terrain, permet de mieux appréhender la complexité du système. A l’issue de ce travail, il est possible de replacer chacun des types d’objets observés dans leur contexte géodynamique et ainsi de restituer l’histoire de l’ophiolite depuis l’accrétion océanique jusqu’à son émersion à l’Oligocène. Un modèle révisé de la genèse des gisements de nickel en Nouvelle-Calédonie est présenté et de nouveaux guides d’exploration sont proposés. L’électromagnétisme s’avère être une méthode particulièrement adaptée pour visualiser la géométrie globale du profil d’altération et constitue une aide substantielle à la prospection et la modélisation des gisements de nickel. / The mineralogical and geochemical understanding of lateritic nickel ore deposits is undoubtedly better constrained than their tectonic structure. Indeed, the fracture network of the underlying bedrock is typically concealed beneath a thick weathering profile. However, this fracture network strongly controls weathering and ultimately nickel release from peridotites, thus improving its knowledge appears critical in the evaluation of nickel resources. In New Caledonia, the Peridotite Nappe is a particularly outstanding case study because Early Miocene to Recent uplift and subsequent erosion allow the structure of a mantle ophiolite to be observed in three dimensions. However, due to the easy access to nickel resources, only a few structural studies have been undertaken, or remained confidential. The main objective of this study is to better constrain the role of the fracture network of the Peridotite Nappe in the genesis of New Caledonia’s lateritic nickel ore deposits.A multiple-scale study of the whole Peridotite Nappe has been performed following two main parts: i) field-based structural observations and analyses; and 2) interpretation of new acquired heliborne electromagnetic data. The latter focused on three mining areas (massifs of Koniambo and Kopéto-Boulinda; and, Plaine des Lacs – Goro - Port-Boisé), which are representative of the different types (morphologic and genetic) of nickel ore deposits encountered in New Caledonia.The study of the fracture network is essential in the understanding of the migration of meteoric waters and thus thickness variations of the weathering profile of peridotites. A mineralogical and textural approach has been undertaken to distinguish the various steps of fracture development on the basis of static or synkinematic infill events and eventually allowed a relative chronology to be proposed. Following this inventory, it has been possible to identify these objects on electromagnetism profiles. This analysis allows visualizing the geometry of controlling fractures at depth and reveals a direct link between deepening of the weathering profile and the fracture network. Ultimately, it clearly appears that meteoric waters use preferential pathways that in turn depend on the geomorphology of each massif, which originate from the inherited fracture network. The combination of geophysical data interpretation and field observations allow a better understanding of the complex nappe structure. Our results allow every described tectonic object to be replaced in its geodynamic setting and thus the full ophiolite history to be restored, from oceanic accretion to emersion in Oligocene. A refined model for the genesis of New Caledonia’s lateritic nickel ore deposits is proposed, as well as additional metallotects for exploration. Electromagnetism appears to be appropriate for describing the overall geometry of the weathering profile and can be useful in prospecting and modelling nickel ore deposits.
50

Méthode des éléments finis avec joints en recouvrement non-conforme de maillages : application au contrôle non destructif par courants de Foucault / Mortar finite element method with overlapping non-matching grids : application of eddy current non-destructive testing

Christophe-Argenvillier, Alexandra 24 November 2014 (has links)
Cette thèse vise à développer et à évaluer une méthode de décomposition de domaine avec recouvrement dans le cadre de la modélisation du contrôle non destructif (CND) par courants de Foucault (CF). L'objectif d'une telle approche consiste à éviter le remaillage systématique de l'intégralité du domaine d'étude lors du déplacement de l'un de ses éléments constitutifs(par exemple, déplacement de la sonde CF au dessus de la pièce contrôlée). Plus précisément, il s'agit de concevoir une méthode de décomposition de domaine avec recouvrement qui s'appuie sur la théorie apportée par la méthode des éléments finis avec joints. En plus de s'affranchir de la contrainte d'une interface d'échange invariante avec le mouvement, la technique décrite dans ce travail réalise des transferts d'information réciproques entre les domaines. Cette étude présente les résultats théoriques ainsi que numériques liés à la simulation magnétodynamique. Par ailleurs, l'intérêt d'une telle méthode est illustré par des applications sur des configurations bidimensionnelles de CND par CF. / This thesis aims at studying and developing a domain decomposition method with overlapping subdomains for the modeling in eddy current (EC) non-Destructive testing (NDT). The idea behind such an approach is the possibility to avoid the systematic remeshes of the whole studying domain when some of its components are modified (for example the displacement of the coil above the conductor). More precisely, this work aims at designing a domain decomposition method with overlapping based on the theory of the mortar finite element method. In addition to remove the constraint owing to an coupling interface which is invariant with the displacement, the technique described, in this work, realizes reciprocal transfers of information between subdomains. This study presents the theoretical and numerical results attached to the magnetodynamic simulation. Moreover, the interest of such a method is illustrated by applications in some 2D modeling cases of EC NDT.

Page generated in 0.0522 seconds