• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 149
  • 35
  • 13
  • 2
  • 1
  • 1
  • Tagged with
  • 202
  • 56
  • 54
  • 25
  • 23
  • 21
  • 18
  • 18
  • 17
  • 15
  • 15
  • 14
  • 14
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Palais-châteaux-abbayes-chapitres. Approche archéologique et historique des centres de pouvoir autour du pagus de Lomme au IXe-XIe siècle

Chantinne, Frédéric 24 September 2018 (has links)
Grâce aux apports de l’archéologie préventive ces dernières décennies, il est aujourd’hui possible de porter un nouveau regard sur le Premier Moyen Âge. En mobilisant toutes les sources disponibles, quelle que soit leur nature, notre objectif est d’éclairer le cadre matériel et la structure sociale de cette période difficile à appréhender des IXe-XIe siècles. Pour ce faire, nous avons fait le choix de nous pencher sur une région autour des vallées de la Meuse moyenne et de la Sambre, portant alors le nom de pagus de Lomme, aujourd’hui située au centre de la Wallonie. Nos régions étaient, à l’époque, organisées autour de ce que l’on peut appeler des « centres de pouvoirs », que l’on a qualifiés de palais, château, abbaye, chapitre,… remplissant chacun des fonctions comparables. Associés à des agglomérations, des « villes », ils servaient de lieu de centralité pour la gestion de matières économiques, politiques, religieuses, militaires, au cœur de territoires définis. Apparaît ainsi, en continuité avec l’Antiquité tardive, innervé par un réseau routier efficace permettant tant aux hommes qu’aux marchandises et aux matières premières de circuler, un monde dynamique, "connecté", berceau de notre cadre de vie. La recherche laisse entrevoir pour cette période un potentiel archéologique, un patrimoine méconnu, à étudier, à gérer, et à transmettre aux générations futures, alors qu’il ne cesse de disparaître chaque jour au gré des aménagements. / Doctorat en Histoire, art et archéologie / info:eu-repo/semantics/nonPublished
122

Intermédiation territoriale et spatialisation des activités économiques : cohérences et contradictions de l'action publique locale : investigation par la planification stratégique / Territorial intermediation and spatial distribution of economic activities : consistencies ans contradictions of local public action : investigation by strategic planning

Nadou, Fabien 10 December 2013 (has links)
Cette thèse repose sur la mise en exergue du concept d’intermédiation territoriale, considérée comme une dynamique relationnelle et organisationnelle entre acteurs locaux, variable dans le temps et dans l’espace. Le territoire, fruit des interactions et des constructions sociales, jouant ici comme un véritable révélateur de leurs comportements, de leurs pratiques et des processus qui les animent. La réflexion focalise sur l’inscription spatiale des activités économiques, de même que sur les rapports entre acteurs territoriaux qui conduisent à sa formation et sa gestion. La planification stratégique spatialisée, en tant que vision à moyen-long terme de l’organisation spatiale des activités, constitue aussi bien l’objet privilégié d’analyse de ce travail, qu’une porte d’entrée permettant d’interroger le rapprochement entre les pratiques en aménagement et les politiques de développement économique à l’échelle locale. L’enjeu est de pouvoir observer et analyser les cohérences qui sont à l’oeuvre, et demandées à la PSS, autant qu’une nécessité accrue de durabilité. Dans quelles mesures la planification stratégique spatialisée, orchestrée par l’action publique locale, s’inscrit-elle dans un processus d’intermédiation territoriale, voire de façon plus générale, de développement territorial durable ? / This thesis is therefore based on the emphasis of the concept of territorial intermediation we consider a relational and organizational dynamics between local actors, variable in time and space The territory, the result of interactions and social constructs, playing here as a true indication of their behaviors, practices and processes that drive them. Reflecting our focus on spatial registration economic activities, as well as the relationship between territorial actors that lead to its formation and management. The strategic spatial planning as a vision in the medium - long term spatial organization of activities, also constitutes the privileged object of this work as input to query the connection between the door management practices and policies of economic development at the local level. The challenge is to observe and analyze the consistency, required the PSS, as an increased need for sustainability. To what extent the strategic spatial planning, orchestrated by the local public action, it enrolled in a territorial intermediation process, or more generally, for sustainable territorial development ?
123

Solving regularized nonlinear least-squares problem in dual space with application to variational data assimilation / Résolution de problèmes des moindres carrés non-linéaires régularisés dans l'espace dual avec applications à l'assimilation de données

Gürol, Selime 14 June 2013 (has links)
Cette thèse étudie la méthode du gradient conjugué et la méthode de Lanczos pour la résolution de problèmes aux moindres carrés non-linéaires sous déterminés et régularisés par un terme de pénalisation quadratique. Ces problèmes résultent souvent d'une approche du maximum de vraisemblance, et impliquent un ensemble de m observations physiques et n inconnues estimées par régression non linéaire. Nous supposons ici que n est grand par rapport à m. Un tel cas se présente lorsque des champs tridimensionnels sont estimés à partir d'observations physiques, par exemple dans l'assimilation de données appliquée aux modèles du système terrestre. Un algorithme largement utilisé dans ce contexte est la méthode de Gauss- Newton (GN), connue dans la communauté d'assimilation de données sous le nom d'assimilation variationnelle des données quadridimensionnelles. Le procédé GN repose sur la résolution approchée d'une séquence de moindres carrés linéaires optimale dans laquelle la fonction coût non-linéaire des moindres carrés est approximée par une fonction quadratique dans le voisinage de l'itération non linéaire en cours. Cependant, il est bien connu que cette simple variante de l'algorithme de Gauss-Newton ne garantit pas une diminution monotone de la fonction coût et sa convergence n'est donc pas garantie. Cette difficulté est généralement surmontée en utilisant une recherche linéaire (Dennis and Schnabel, 1983) ou une méthode de région de confiance (Conn, Gould and Toint, 2000), qui assure la convergence globale des points critiques du premier ordre sous des hypothèses faibles. Nous considérons la seconde de ces approches dans cette thèse. En outre, compte tenu de la grande échelle de ce problème, nous proposons ici d'utiliser un algorithme de région de confiance particulier s'appuyant sur la méthode du gradient conjugué tronqué de Steihaug-Toint pour la résolution approchée du sous-problème (Conn, Gould and Toint, 2000, p. 133-139) La résolution de ce sous-problème dans un espace à n dimensions (par CG ou Lanczos) est considérée comme l'approche primale. Comme alternative, une réduction significative du coût de calcul est possible en réécrivant l'approximation quadratique dans l'espace à m dimensions associé aux observations. Ceci est important pour les applications à grande échelle telles que celles quotidiennement traitées dans les systèmes de prévisions météorologiques. Cette approche, qui effectue la minimisation de l'espace à m dimensions à l'aide CG ou de ces variantes, est considérée comme l'approche duale. La première approche proposée (Da Silva et al., 1995; Cohn et al., 1998; Courtier, 1997), connue sous le nom de Système d'analyse Statistique de l'espace Physique (PSAS) dans la communauté d'assimilation de données, commence par la minimisation de la fonction de coût duale dans l'espace de dimension m par un CG préconditionné (PCG), puis revient l'espace à n dimensions. Techniquement, l'algorithme se compose de formules de récurrence impliquant des vecteurs de taille m au lieu de vecteurs de taille n. Cependant, l'utilisation de PSAS peut être excessivement coûteuse car il a été remarqué que la fonction de coût linéaire des moindres carrés ne diminue pas monotonement au cours des itérations non-linéaires. Une autre approche duale, connue sous le nom de méthode du gradient conjugué préconditionné restreint (RPCG), a été proposée par Gratton and Tshimanga (2009). Celle-ci génère les mêmes itérations en arithmétique exacte que l'approche primale, à nouveau en utilisant la formule de récurrence impliquant des vecteurs taille m. L'intérêt principal de RPCG est qu'il en résulte une réduction significative de la mémoire utilisée et des coûts de calcul tout en conservant la propriété de convergence souhaitée, contrairement à l'algorithme PSAS. / This thesis investigates the conjugate-gradient method and the Lanczos method for the solution of under-determined nonlinear least-squares problems regularized by a quadratic penalty term. Such problems often result from a maximum likelihood approach, and involve a set of m physical observations and n unknowns that are estimated by nonlinear regression. We suppose here that n is large compared to m. These problems are encountered for instance when three-dimensional fields are estimated from physical observations, as is the case in data assimilation in Earth system models. A widely used algorithm in this context is the Gauss-Newton (GN) method, known in the data assimilation community under the name of incremental four dimensional variational data assimilation. The GN method relies on the approximate solution of a sequence of linear least-squares problems in which the nonlinear least-squares cost function is approximated by a quadratic function in the neighbourhood of the current nonlinear iterate. However, it is well known that this simple variant of the Gauss-Newton algorithm does not ensure a monotonic decrease of the cost function and that convergence is not guaranteed. Removing this difficulty is typically achieved by using a line-search (Dennis and Schnabel, 1983) or trust-region (Conn, Gould and Toint, 2000) strategy, which ensures global convergence to first order critical points under mild assumptions. We consider the second of these approaches in this thesis. Moreover, taking into consideration the large-scale nature of the problem, we propose here to use a particular trust-region algorithm relying on the Steihaug-Toint truncated conjugate-gradient method for the approximate solution of the subproblem (Conn, Gould and Toint, 2000, pp. 133-139). Solving this subproblem in the n-dimensional space (by CG or Lanczos) is referred to as the primal approach. Alternatively, a significant reduction in the computational cost is possible by rewriting the quadratic approximation in the m-dimensional space associated with the observations. This is important for large-scale applications such as those solved daily in weather prediction systems. This approach, which performs the minimization in the m-dimensional space using CG or variants thereof, is referred to as the dual approach. The first proposed dual approach (Courtier, 1997), known as the Physical-space Statistical Analysis System (PSAS) in the data assimilation community starts by solving the corresponding dual cost function in m-dimensional space by a standard preconditioned CG (PCG), and then recovers the step in n-dimensional space through multiplication by an n by m matrix. Technically, the algorithm consists of recurrence formulas involving m-vectors instead of n-vectors. However, the use of PSAS can be unduly costly as it was noticed that the linear least-squares cost function does not monotonically decrease along the nonlinear iterations when applying standard termination. Another dual approach has been proposed by Gratton and Tshimanga (2009) and is known as the Restricted Preconditioned Conjugate Gradient (RPCG) method. It generates the same iterates in exact arithmetic as those generated by the primal approach, again using recursion formula involving m-vectors. The main interest of RPCG is that it results in significant reduction of both memory and computational costs while maintaining the desired convergence property, in contrast with the PSAS algorithm. The relation between these two dual approaches and the question of deriving efficient preconditioners (Gratton, Sartenaer and Tshimanga, 2011), essential when large-scale problems are considered, was not addressed in Gratton and Tshimanga (2009).
124

Compréhension de contenus visuels par analyse conjointe du contenu et des usages / Combining content analysis with usage analysis to better understand visual contents

Carlier, Axel 30 September 2014 (has links)
Dans cette thèse, nous traitons de la compréhension de contenus visuels, qu’il s’agisse d’images, de vidéos ou encore de contenus 3D. On entend par compréhension la capacité à inférer des informations sémantiques sur le contenu visuel. L’objectif de ce travail est d’étudier des méthodes combinant deux approches : 1) l’analyse automatique des contenus et 2) l’analyse des interactions liées à l’utilisation de ces contenus (analyse des usages, en plus bref). Dans un premier temps, nous étudions l’état de l’art issu des communautés de la vision par ordinateur et du multimédia. Il y a 20 ans, l’approche dominante visait une compréhension complètement automatique des images. Cette approche laisse aujourd’hui plus de place à différentes formes d’interventions humaines. Ces dernières peuvent se traduire par la constitution d’une base d’apprentissage annotée, par la résolution interactive de problèmes (par exemple de détection ou de segmentation) ou encore par la collecte d’informations implicites issues des usages du contenu. Il existe des liens riches et complexes entre supervision humaine d’algorithmes automatiques et adaptation des contributions humaines via la mise en œuvre d’algorithmes automatiques. Ces liens sont à l’origine de questions de recherche modernes : comment motiver des intervenants humains ? Comment concevoir des scénarii interactifs pour lesquels les interactions contribuent à comprendre le contenu manipulé ? Comment vérifier la qualité des traces collectées ? Comment agréger les données d’usage ? Comment fusionner les données d’usage avec celles, plus classiques, issues d’une analyse automatique ? Notre revue de la littérature aborde ces questions et permet de positionner les contributions de cette thèse. Celles-ci s’articulent en deux grandes parties. La première partie de nos travaux revisite la détection de régions importantes ou saillantes au travers de retours implicites d’utilisateurs qui visualisent ou acquièrent des con- tenus visuels. En 2D d’abord, plusieurs interfaces de vidéos interactives (en particulier la vidéo zoomable) sont conçues pour coordonner des analyses basées sur le contenu avec celles basées sur l’usage. On généralise ces résultats en 3D avec l’introduction d’un nouveau détecteur de régions saillantes déduit de la capture simultanée de vidéos de la même performance artistique publique (spectacles de danse, de chant etc.) par de nombreux utilisateurs. La seconde contribution de notre travail vise une compréhension sémantique d’images fixes. Nous exploitons les données récoltées à travers un jeu, Ask’nSeek, que nous avons créé. Les interactions élémentaires (comme les clics) et les données textuelles saisies par les joueurs sont, comme précédemment, rapprochées d’analyses automatiques des images. Nous montrons en particulier l’intérêt d’interactions révélatrices des relations spatiales entre différents objets détectables dans une même scène. Après la détection des objets d’intérêt dans une scène, nous abordons aussi le problème, plus ambitieux, de la segmentation. / This thesis focuses on the problem of understanding visual contents, which can be images, videos or 3D contents. Understanding means that we aim at inferring semantic information about the visual content. The goal of our work is to study methods that combine two types of approaches: 1) automatic content analysis and 2) an analysis of how humans interact with the content (in other words, usage analysis). We start by reviewing the state of the art from both Computer Vision and Multimedia communities. Twenty years ago, the main approach was aiming at a fully automatic understanding of images. This approach today gives way to different forms of human intervention, whether it is through the constitution of annotated datasets, or by solving problems interactively (e.g. detection or segmentation), or by the implicit collection of information gathered from content usages. These different types of human intervention are at the heart of modern research questions: how to motivate human contributors? How to design interactive scenarii that will generate interactions that contribute to content understanding? How to check or ensure the quality of human contributions? How to aggregate human contributions? How to fuse inputs obtained from usage analysis with traditional outputs from content analysis? Our literature review addresses these questions and allows us to position the contributions of this thesis. In our first set of contributions we revisit the detection of important (or salient) regions through implicit feedback from users that either consume or produce visual contents. In 2D, we develop several interfaces of interactive video (e.g. zoomable video) in order to coordinate content analysis and usage analysis. We also generalize these results to 3D by introducing a new detector of salient regions that builds upon simultaneous video recordings of the same public artistic performance (dance show, chant, etc.) by multiple users. The second contribution of our work aims at a semantic understanding of fixed images. With this goal in mind, we use data gathered through a game, Ask’nSeek, that we created. Elementary interactions (such as clicks) together with textual input data from players are, as before, mixed with automatic analysis of images. In particular, we show the usefulness of interactions that help revealing spatial relations between different objects in a scene. After studying the problem of detecting objects on a scene, we also adress the more ambitious problem of segmentation.
125

Segmentation and Contrasting in Different Biomedical Imaging Applications / Amélioration de l'image et la segmentation : applications en imagerie médicale

Tayyab, Muhammad 02 February 2012 (has links)
Avancement dans l'acquisition d'image et le progrès dans les méthodes de traitement d'image ont apporté les mathématiciens et les informaticiens dans les domaines qui sont d'une importance énorme pour les médecins et les biologistes. Le diagnostic précoce de maladies (comme la cécité, le cancer et les problèmes digestifs) ont été des domaines d'intérêt en médecine. Développement des équipements comme microscope bi-photonique à balayage laser et microscope de fluorescence par réflexion totale interne fournit déjà une bonne idée des caractéristiques très intéressantes sur l'objet observé. Cependant, certaines images ne sont pas appropriés pour extraire suffisamment d'informations sur de cette image. Les méthodes de traitement d'image ont été fournit un bon soutien à extraire des informations utiles sur les objets d'intérêt dans ces images biologiques. Rapide méthodes de calcul permettent l'analyse complète, dans un temps très court, d'une série d'images, offrant une assez bonne idée sur les caractéristiques souhaitées. La thèse porte sur l'application de ces méthodes dans trois séries d'images destinées à trois différents types de diagnostic ou d'inférence. Tout d'abord, Images de RP-muté rétine ont été traités pour la détection des cônes, où il n'y avait pas de bâtonnets présents. Le logiciel a été capable de détecter et de compter le nombre de cônes dans chaque image. Deuxièmement, un processus de gastrulation chez la drosophile a été étudié pour observer toute la mitose et les résultats étaient cohérents avec les recherches récentes. Enfin, une autre série d'images ont été traités où la source était une vidéo à partir d'un microscopie photonique à balayage laser. Dans cette vidéo, des objets d'intérêt sont des cellules biologiques. L'idée était de suivre les cellules si elles subissent une mitose. La position de la cellule, la dispersion spatiale et parfois le contour de la membrane cellulaire sont globalement les facteurs limitant la précision dans cette vidéo. Des méthodes appropriées d'amélioration de l'image et de segmentation ont été choisies pour développer une méthode de calcul pour observer cette mitose. L'intervention humaine peut être requise pour éliminer toute inférence fausse. / Advancement in Image Acquisition Equipment and progress in Image Processing Methods have brought the mathematicians and computer scientists into areas which are of huge importance for physicians and biologists. Early diagnosis of diseases like blindness, cancer and digestive problems have been areas of interest in medicine. Development of Laser Photon Microscopy and other advanced equipment already provides a good idea of very interesting characteristics of the object being viewed. Still certain images are not suitable to extract sufficient information out of that image. Image Processing methods have been providing good support to provide useful information about the objects of interest in these biological images. Fast computational methods allow complete analysis, in a very short time, of a series of images, providing a reasonably good idea about the desired characteristics. The thesis covers application of these methods in 3 series of images intended for 3 different types of diagnosis or inference. Firstly, Images of RP-mutated retina were treated for detection of rods, where there were no cones present. The software was able to detect and count the number of cones in each frame. Secondly, a gastrulation process in drosophila was studied to observe any mitosis and results were consistent with recent research. Finally, another series of images were treated where biological cells were observed to undergo mitosis. The source was a video from a photon laser microscope. In this video, objects of interest were biological cells. The idea was to track the cells if they undergo mitosis. Cell position, spacing and sometimes contour of the cell membrane are broadly the factors limiting the accuracy in this video. Appropriate method of image enhancement and segmentation were chosen to develop a computational method to observe this mitosis. Cases where human intervention may be required have been proposed to eliminate any false inference.
126

Contribution à la représentation des hautes latitudes dans un modèle de surface : gel des sols et diagnostics de performances / Representating high latitudes in a land-surface model : soil freezing and model evaluation

Gouttevin, Isabelle 20 December 2012 (has links)
L'importance climatique des hautes latitudes est exacerbée par le contexte actuel du réchauffement climatique, de part de leur forte sensibilité à ces changements et en raison des rétroactions globales majeures qu'elles sont susceptibles d'engendrer. La modélisation offre un moyen d'estimer ces impacts dans les temps passés, présents et futurs, tout en quantifiant les incertitudes procédant des imperfections de notre connaissance de ces environnements et de leur représentation. L'amélioration et l'évaluation de la représentation des hautes latitudes dans les modèles de climat globaux répondent donc à de forts enjeux scientifiques et sociétaux : c'est dans ce cadre précis que s'inscrit mon travail de thèse. Le gel des sols est une spécificité majeure des régions circum-arctiques, porteuse d'implications climatiques aux plans thermiques, hydrologiques et biogéochimiques. Une paramétrisation des impacts hydrologiques du gel des sols a été introduite dans le schéma hydrologique multi-couches du modèle de surfaces continentales ORCHIDEE : ses effets sur le contenu en eau des sols et le régime hydrologique des principaux bassins de l'Arctique ont été évalués par comparaison à des données de terrain, révélant la plus-value d'une telle représentation mais aussi les lacunes résiduelles de la modélisation, qui touchent à l'absence de représentation des réservoirs temporaires d'eau de surface et, sans doute, d'une paramétrisation sous-maille du gel des sols. Parallèlement, une représentation des effets thermiques du gel des sols développée pour un modèle antérieur à ORCHIDEE a été révisée et évaluée à différentes échelles spatiales par comparaison à des données observationnelles : si la représentation de l'énergie de chaleur latente augmente la température des sols soumis au gel saisonnier, un biais froid subsiste dans la modélisation, imputable à une représentation imparfaite de la neige. Une étude de sensibilité conduite sur cette variable en confirme les implications thermiques mais aussi biogéochimiques à l'échelle des régions circum-arctiques, sous-tendues par les importantes quantités de matière organique que ces régions renferment. Alors que les caractéristiques de la neige sont souvent représentées comme spatialement uniformes dans les modèles de climat globaux, la simple prise en compte du caractère particulièrement isolant de la neige de taïga engendre des changements importants dans le cycle du carbone aux hautes latitudes, et souligne les incertitudes entachant notre représentation actuelle de ces écosystèmes. Les propriétés thermiques de la neige n'en sont pas l'unique vecteur, mais une évaluation détaillée de notre modélisation sur un site de permafrost arctique (station de Bayelva, Svalbard) désigne la neige comme une source majeure des incertitudes associées à notre modélisation des hautes latitudes, au travers de représentations inadaptées de son albédo, sa rugosité de surface, son contenu variable en eau liquide pouvant accommoder de l'eau de pluie. En termes hydrologiques, l'absence de représentation spécifique des zones de montagne, des caractéristiques hydrauliques des sols à granulométrie grossière du Haut-Arctique, et des nombreuses étendues d'eau libre des régions circum-arctiques, limite notre capacité à représenter raisonnablement des principales caractéristiques de l'hydrologie de surface de ces régions. Le diagnostique de ces limites définit autant de potentiels d'amélioration de la modélisation des hautes latitudes, sources possibles de développements futurs. / Focus has recently increased on high-latitude climatic processes as awareness rose about the extreme sensitivity of the Arctic to climate change and its potential for major positive climate feedbacks. Modelling offers a powerful tool to assess the climatic impact of changes in the northern high-latitude regions, as well as to quantify the range of uncertainty stemming from the limits of our knowledge and representation of these environments. My PhD project, dedicated to the improvement of a land-surface model for high-latitude regions and the evaluation of its performances, tackles therefore an issue of concern both for science and society. Soil freezing is a major physical process of boreal regions, with climatic implications. Here, a parameterization of the hydrological effects of soil freezing is developed within the multi-layer hydrological scheme of the land-surface model ORCHIDEE, and its performance is evaluated against observations at different scales, including remotely-sensed data. Taking the hydrological impact of soil freezing into account improves our representation of soil moisture and river discharges over the pan-Arctic land-surface area. However, residual inaccuracies suggest that potential for improvement lies in the representation of temporary surface water reservoirs like floodplains, surface ponding, and, possibly, the introduction of a subgrid variability in soil freezing. Hydrological modelling at high latitudes would also benefit from a specific treatment of mountainous areas and a revision of soil textural input parameters to account for abundant coarse-grained soils in the High-Arctic. Concomitantly, the thermal parameterization of soil freezing in ORCHIDEE is revised and evaluated against field data: latent heat effects yield a reduction but no suppression of a model cold bias in winter soil temperatures, part of which is imputed to the coarse representation of snow in the model. A sensitivity study performed on the insulative properties of taiga vs. tundra snow over the pan-Arctic terrestrial domain confirms the thermal implications of snow and outlines its consequences for carbon cycling at high-latitudes, calling for an appropriate representation of snow-vegetation interactions. Snow is furthermore implicated in identified flaws of the modelled surface energy balance, the components of which are precisely compared with a one-year high quality dataset collected at an Arctic permafrost site in Svalbard. Inaccuracies are diagnosed to stem from the representation of albedo, surface roughness and liquid water percolation and phase change within the snowpack. These diverse
127

Transfert de l'anomalie isotopique portée par l'ozone dans la troposphère : vers une interprétation quantitative de la composition isotopique en oxygène du nitrate atmosphérique / Constraining the propagation of the 17O-excess of ozone in the troposphere : Towards a quantitative interpretation of the oxygen isotopic composition of atmospheric nitrate

Vicars, William 19 April 2013 (has links)
L'ozone (O3) possède une anomalie isotopique en oxygène qui est unique et caractéristique, offrant ainsi un précieux traceur des processus oxydatifs à l'œuvre dans l'atmosphère moderne mais aussi ceux ayant eu lieu dans le passé. Cette signature isotopique, dénotée Δ17O, se propage au sein du cycle atmosphérique de l'azote réactif (NOx = NO + NO2) et est préservée lors du dépôt du nitrate (NO3-) présent dans l'aérosol, par exemple. L'anomalie isotopique en oxygène portée par le nitrate, Δ17O(NO3-), représente ainsi un traceur de l'importance relative de l'ozone ainsi que celle d'autres oxydants dans le cycle des NOx. Ces dernières années, de nombreux travaux de recherche ont été dédiés à l'interprétation des mesures de Δ17O(NO3-). Pourtant, les processus atmosphériques responsables du transfert de l'anomalie isotopique de l'ozone vers le nitrate ainsi que leur influence globale sur la composition isotopique du nitrate à différentes échelles spatiales et temporelles sont encore mal compris. De plus, la magnitude absolue ainsi que la variabilité spatio-temporelle de Δ17O(O3) sont peu contraintes, car il est difficile d'extraire de l'ozone de l'air ambiant. Cet obstacle technique contrecarre l'interprétation des mesures de Δ17O depuis plus d'une décennie. Les questions scientifiques posées au cours de ce travail de thèse ont été choisies dans le but de combler ces lacunes. Le principal outil d'analyse utilisé dans ce travail est la « méthode bactérienne » associée à la spectrométrie de masse en flux continu (CF-IRMS), une combinaison de techniques qui permet l'analyse de la composition isotopique totale du nitrate (c'est-à-dire, la mesure de δ15N, δ18O et Δ17O). Cette méthode a été employée pour l'analyse isotopique d'échantillons de nitrate obtenus pour deux cas d'études : (i) une étude des variations spatiales de la composition isotopique du nitrate atmosphérique sur la côte californienne à l'échelle journalière; et (ii) une étude du transfert du nitrate et de sa composition isotopique à l'interface entre l'air et la neige à l'échelle saisonnière sur le plateau Antarctique. En outre, cette méthode a été adaptée à la caractérisation isotopique de l'ozone via la conversion chimique de ses atomes d'oxygène terminaux en nitrate. Au cours de cette thèse, un important jeu de données rassemblant de nombreuses mesures troposphériques de Δ17O(O3) a été obtenu, incluant une année entière de mesures à Grenoble, France (45 °N) ainsi qu'un transect latitudinal de collecte dans la couche limite au-dessus de l'océan Atlantique, entre 50 °S to 50 °N. Ces observations ont permis de doubler le nombre de mesures troposphériques de Δ17O(O3) existantes avant cette thèse et d'accroître de manière conséquente notre représentation globale de cette variable isotopique essentielle. Enfin, les deux cas étudiés et présentés dans ce document révèlent des aspects nouveaux et inattendus de la dynamique isotopique du nitrate atmosphérique, avec d'importantes conséquences potentielles pour la modélisation de la qualité de l'air et l'interprétation de l'information isotopique contenue dans les carottes de glace prélevées aux pôles. / The unique and distinctive 17O-excess (Δ17O) of ozone (O3) serves as a valuable tracer for oxidative processes in both modern and ancient atmospheres. This isotopic signature is propagated throughout the atmospheric reactive nitrogen (NOx = NO + NO2) cycle and preserved in nitrate (NO3-) aerosols and mineral deposits, providing a conservative tracer for the relative importance of ozone and other key oxidants involved in NOx cycling. However, despite the intense research effort dedicated to the interpretation of Δ17O(NO3-) measurements, the atmospheric processes responsible for the transfer of Δ17O to nitrate and their overall influence on nitrate isotopic composition on different spatial and temporal scales are not well understood. Furthermore, due to the inherent complexity of extracting ozone from ambient air, the absolute magnitude and spatiotemporal variability of Δ17O(O3) remains poorly constrained, a problem that has confounded the interpretation of Δ17O measurements for over a decade. The research questions that have been pursued in this thesis were formulated to address these knowledge gaps. The primary analytical tool used was the bacterial denitrifier method followed by continuous-flow isotope ratio mass spectrometry (CF-IRMS), which allows for the comprehensive isotopic analysis of nitrate (i.e., δ15N, δ18O, Δ17O). This method was applied to the isotopic analysis of nitrate samples in two case studies: (i) an investigation of the diurnal and spatial features of atmospheric nitrate isotopic composition in coastal California; and (ii) a study of the seasonality and air-snow transfer of nitrate stable isotopes on the Antarctic plateau. Furthermore, the method was adapted to the isotopic characterization of ozone via chemical conversion of its terminal oxygen atoms to nitrate. During the course of this thesis, a large dataset of tropospheric Δ17O(O3) measurements has been obtained, including a full annual record from Grenoble, France (45 °N) and a ship-based latitudinal profile from 50 °S to 50 °N in the Atlantic marine boundary layer (MBL). This observational dataset represents a two-fold increase in the number of existing tropospheric Δ17O(O3) observations and a dramatic expansion in the global representation of this key isotopic variable. Additionally, the two case studies presented reveal novel and often unexpected aspects of the isotope dynamics of atmospheric nitrate, with potentially important implications for air quality modeling and the interpretation of isotopic information preserved in the polar ice core record.
128

Méthode PEEC inductive par élément de facette pour la modélisation des régions conductrices volumiques et minces / Inductive PEEC method by facet element for the modeling of volume and thin conductive regions

Nguyen, Thanh Trung 07 October 2014 (has links)
La méthode PEEC est connue comme une bonne méthode pour la modélisation des interconnexions électriques dans les domaines de l’électronique de puissance et l’électrotechnique. Elle s'applique à une large gamme de dispositifs : circuits imprimés, bus-barres, conducteurs massifs. Elle est particulièrement bien adaptée pour la modélisation de régions conductrices du type filaire. Cependant, elle est requise d’un maillage structuré(discrétisation des géométries en quadrangles) et l’approche est limitée en fréquence (grande épaisseur de peau). Enfin, il semble actuellement difficile d’envisager la modélisation de conducteurs volumiques dans une formulation PEEC standard.Cette thèse développe des formulations intégrales en utilisant des éléments de facette afin d’lever des verrous de la méthode PEEC standard évoqués ci-dessus. Elle constitue de fait une généralisation de la méthode PEEC standard par la prise en compte de maillages non structurés (volumique et surfacique) et la prise en compte de notion de régions minces à faible épaisseur de peau.Les applications visées sont la modélisation de systèmes de conducteurs complexes (des régions non simplement connexes) en prenant en compte des connexions entre des régions (volumique/filaire, surfacique/filaire,volumique/surfacique et surfacique/surfacique). / The PEEC method is known as a good method for modeling electrical connections in the domains of powerelectronics and electrical engineering. It applies to a wide range of devices: printed circuits, bus-bars, solidconductors. It is particularly well adapted for modeling the wire type conductive regions. However, it is requireda structured mesh (discretization geometries quadrangles) and this approach is limited in frequency (high skindepth). Finally, it now seems difficult to envisage modeling of the volume conductors in standard PEECformulation.This thesis develops integrals formulations using facet elements to improve the above mentioned limitations ofthe standard PEEC method. It is in fact a generalization of the standard PEEC method by taking into accountunstructured meshes (volume and surface) and taking into account the notion of thin region with a small skindepth.The applications are the modeling of complex systems of conductors (non-simply connected regions) taking intoaccount the connections between regions (volume / wireframe, surface / wired volume / surface and surface /surface).
129

Etude de phénomènes non-thermiques dans les amas d'étoiles jeunes : modélisation et analyse des données de H.E.S.S / Study of non-thermal phenomena in young star clusters : modeling and analysis of the H.E.S.S. data

Krayzel, Fabien 19 December 2014 (has links)
Voilà plus d'un siècle que Victor Hess a montré l'origine cosmique de ce mystérieux rayonnement ionisant, et pourtant ce dernier n'a pas fini de livrer tous ces secrets. En deçà d'une énergie de l'ordre du PeV, les vestiges de supernovae sont les candidats les plus sérieux pour rendre compte de l'accélération de ces particules cosmiques. Si toutefois cette hypothèse demeure toujours d'actualité, alors qu'auparavant on le considérait comme un événement isolé dans la Galaxie, on constate plutôt aujourd'hui que ces explosions d'étoiles massives surviennent majoritairement au sein de grandes structures galactiques nommées superbulles. Ces objets sont formés par la combinaison des forts vents stellaires issus des étoiles massives ainsi que de plusieurs supernovae, tout ceci regroupé dans un espace de quelques dizaines ou centaines de parsecs.On peut dès lors se poser la question suivante : est-il possible que des amas d'étoiles jeunes, n'ayant pas encore connu d'épisode de supernova, puissent être des accélérateurs cosmiques.Pour ce type d'investigation, l'astronomie gamma est aux premières loges puisque contrairement au rayonnement cosmique chargé, ce type de messager céleste n'est pas dévié dans son voyage depuis la source jusqu'à nous.L'objet de ce travail est ainsi d'évaluer la possibilité pour ces amas d'étoiles jeunes, de recycler une partie de l'énergie mécanique transférée au milieu interstellaire dans l'accélération de particules et partant, dans l'émission d'un rayonnement non-thermique. Cette étude propose, à partir d'un spectre d'injection pour des particules chargées (proton et/ou électrons), de modéliser l'émission non-thermique attendue considérant les pertes que celles-ci subissent. Un catalogue d'amas potentiellement prometteurs est dressé ainsi qu'un classement de ceux-ci au regard du flux de gamma attendu. Une analyse des données des télescopes H.E.S.S. est conduite pour un certain nombre d'amas sélectionnés. Ce réseau de télescopes Cherenkov situé en Namibie est le plus performant dans sa catégorie. Il est dédié à l'observation des rayons gamma de très haute énergie.Une analyse des données du Fermi-LAT ont également été effectuées. Il s'agit cette fois d'un satellite dédié à la partie des hautes énergies du rayonnement gamma.Enfin, on contraint les paramètres de notre modèle grâce aux résultats issus de ces analyses.L'expérience H.E.S.S., qui a fonctionné à 4 télescopes dès 2003, est depuis 2012 au tout début de sa deuxième phase consistant en l'ajout d'un cinquième télescope de plus grand diamètre. On montre ici, grâce à des simulations de gerbes, la nécessité pour ce télescope de disposer d'un système de focus permettant l'ajustement de la distance caméra-miroirs conduisant à de meilleures performances (taux de déclenchement, résolution angulaire). / More than one century ago, Victor Hess discovered the cosmical origin of the mysterious ionizing radiation. Yet, nowadays it still has a lot of secrets for us. Roughly below the PeV energy, the best candidates already proposed in 1934 were the supernovae remnants (SNR). These candidates still remain ; in the past we considered isolated SNRs, while today we rather think about SNRs inside big structures as superbubbles. These objects are formed by powerful stellar winds from massive stars combined with several SNRs gathered in a space of some decades or hundreds of parsecs. Observations show that the majority of the SNRs occurs in such regions. The point for us is to know if star clusters or associations of massive stars, not hosting any SNR, could also accelerate particles to very high energies and consequently emit gamma-rays.The gamma-ray astronomy is relevant in order to solve this type of riddle because the Very High Energy photons do not suffer of any deviation due to the Galactic magnetic field. It means that we can get informations from the source itself by detecting the gamma-ray radiation.In our study we assume that a part of the mechanical energy transferred to the interstellar medium can be used to accelerate charged particles, which will emit non-thermal radiations.First we assume a given injection spectrum (for electrons and/or protons), then we model the non-thermal emission expected considering particles losses.We deliver a catalogue of promising clusters and we rank them according to the expected strength of the gamma-ray flux.We conducted the analysis of H.E.S.S. data collected toward some selected clusters. The H.E.S.S. experiment is situated in Namibia and is the most efficient array of Cherenkov telescopes. We also used the Fermi-LAT public data. Fermi is a space-based telescope for High Energy gamma ray.Then we constrain our model with the obtained analysis results.The H.E.S.S. experiment had initially 4 telescopes in operation since 2003. In 2012, the second phase of the experiment started when a fifth larger one was added. We show here that it is relevant for this telescope to use a focus system in order to move the camera and change the distance camera-mirrors. The simulations show that the focus system leads to better performances (trigger rate, angular resolution).
130

Modélisation 3D de régions de formation d'étoiles : la contribution de l'interface graphique GASS aux codes de transfert radiatif / 3D modelling of star-forming regions : the contribution of the graphical interface GASS to radiative transfer codes

Quénard, David 20 September 2016 (has links)
L'ère des observations interférométriques mène à la nécessité d'une description plus précise de la structure physique et de la dynamique des régions de formation d'étoiles, des coeurs pré-stellaires et des disques proto-planétaires. L'émission moléculaire et du continuum de la poussière peuvent être décrites par de multiples composantes physiques. Pour comparer avec les observations, un modèle de transfert radiatif précis et complexe de ces régions est nécessaire. J'ai développé au cours de cette thèse une application autonome appelée GASS (Generator of Astrophysical Sources Structures, Quénard et al., soumis) à cette fin. Grâce à son interface, GASS permet de créer, de manipuler et de mélanger différents composants physiques tels que des sources sphériques, des disques et des outflows. Dans cette thèse, j'ai utilisé GASS pour travailler sur différents cas astrophysiques et, entre autres, j'ai étudié en détail l'eau et l'émission de l'eau deutérée dans le coeur pré-stellaire L1544 (Quénard et al., 2016) ainsi que l'émission des ions dans la proto-étoile de faible masse IRAS16293-2422 (Quénard et al., soumis). / The era of interferometric observations leads to the need of a more and more precise description of physical structure and dynamics of star-forming regions, from pre-stellar cores to proto-planetary disks. The molecular and dust continuum emission can be described with multiple physical components. To compare with the observations, a precise and complex radiative transfer modelling of these regions is required. I have developed during this thesis a standalone application called GASS (Generator of Astrophysical Sources Structures, Quénard et al., submitted) for this purpose. Thanks to its interface, GASS allows to create, manipulate, and mix several different physical components such as spherical sources, disks, and outflows. In this thesis, I used GASS to work on different astrophysical cases and, among them, I studied in details the water and deuterated water emission in the pre-stellar core L1544 (Quénard et al., 2016) and the emission of ions in the low-mass proto-star IRAS16293-2422 (Quénard et al., submitted).

Page generated in 0.0667 seconds