• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 59
  • 9
  • 6
  • Tagged with
  • 74
  • 26
  • 25
  • 21
  • 21
  • 21
  • 21
  • 20
  • 16
  • 11
  • 11
  • 11
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Gestion de grands catalogues et application de releves infrarouges a l'etude de la structure galactique

Derriere, Sebastien 15 June 2001 (has links) (PDF)
La première partie de cette thèse concerne la gestion des très grands catalogues astronomiques. Deux grands projets de cartographie du ciel dans l'infrarouge proche, DENIS et 2MASS, étaient en cours pendant ce travail de thèse. Je présente les méthodes de compression, sans perte d'information et préservant une indexation sur la base des positions célestes, développées pour les catalogues de sources ponctuelles de ces deux relevés. Le codage optimisé permet un gain de compression d'un facteur 1.5 à 2 par rapport à des algorithmes de type LZ77. Les premières versions des catalogues DENIS et 2MASS sont pleinement intégrées aux services du CDS (VizieR, Aladin), et donc interrogeables par le Web, avec des temps d'accès moyens inférieurs à 20 microsecondes par source. Dans le cadre du projet DENIS, le travail de validation des données a permis, dans un premier temps, la première diffusion publique pour ce relevé (\url(http://cdsweb.u-strasbg.fr/denis-public/)). La comparaison des données réduites par les deux chaînes de traitement DENIS (LDAC et PDAC) a ensuite permis de définir des critères de filtrage et d'utiliser les données PDAC pour l'étude de la structure Galactique. La deuxième partie de la thèse s'appuie sur une version modifiée du modèle de synthèse de populations stellaires de Besançon. Les lois de densité du disque ont été modifiées pour pouvoir simuler un disque stellaire gauchi et/ou évasé. Les comparaisons avec les données PDAC indiquent une échelle de longueur $h_R=2.5$~kpc pour le disque, avec une troncature à $R=14$~kpc. Je discute une méthode de reconstruction tridimensionnelle de l'extinction par ajustement du modèle sur les données DENIS. Le gauchissement du disque galactique est observé entre $l=230$ et 330\degres\xspace, et se traduit par une inclinaison du disque stellaire vers $b<0$, comme pour le gaz. Le gauchissement commence près de la position du Soleil ($R=8.4$~kpc), et l'origine de l'évasement montre une dépendance en longitude.
2

Caractérisation et amélioration d'un polarimètre à modulation photo-élastique pour l'Observatoire du Mont-Mégantic

Duchesne, Mike 03 July 2018 (has links)
Les travaux effectués dans le cadre de cette maîtrise en astrophysique ont eu pour objectif d'améliorer et de caractériser le prochain polarimètre mis en fonction à l'Observatoire du Mont-Mégantic. Le polarimètre, POMM (Polarimètre de l'Observatoire du Mont-Mégantic), est le fruit d'une collaboration entre l'Institut National d'Optique (INO) et l'Université de Montréal, dont la construction a été basée sur une amélioration de celle de PlanetPOL présentée dans Hough et al. 2007. Dans cet objectif, l'intégralité du câblage de l'instrument a été revu, en deux étapes. Une caractérisation des données observationnelles a été effectuée suite à chaque modification majeure. Le système d'acquisition de la moitié des signaux critiques a été remplacé par une solution plus adéquate permettant une meilleure précision. Un code de réduction de données a aussi été écrit, rendant possible la transition entre les mesures brutes et des données de polarisation utilisables. Finalement, des missions d'ingénierie et d'observation scientifique ont été réalisées à l'Observatoire du Mont-Mégantic pour effectuer l'intégration de l'instrument, en tester les capacités en situation réelle et obtenir des données scientifiques sur divers types d'objets astronomiques. Suite à ces travaux, il est possible d'affirmer que le fonctionnement de POMM s'en trouve optimisé et que ce dernier peut être utilisé plus efficacement et facilement par les chercheurs de l'Observatoire du Mont-Mégantic. / The work accomplished in the scope of this master's thesis in astrophysics was done with a goal in mind: to upgrade and characterize the next astro-polarimeter of the Observatoire du Mont-Mégantic. POMM (Polarimètre de l'Observatoire du Mont-Mégantic), the result of a collaboration between the Institut Nationnal d'Optique (INO) and the Université de Montréal, has been built as an upgraded version of PlanetPOL as presented in the Hough et al. 2007 paper. With this objective set, the whole cabling work has been re-thought and done in two stages. A characterization of the observational data has been made after each major update to the instrument. Half of the data acquisition system for the critical signals was replaced by a more precise component. A data reduction code was written, enabling the transition from the bulk signals to usable polarization measurements. Moreover, commissioning and observational time was obtained at the Observatoire du Mont-Mégantic. The time was used to integrate POMM to the OMM's available intruments, to test its response in real situations and to obtain scientic data on diverse astronomical objects. Following the upgrades, POMM's working is more optimised and the instrument can be installed and used more easily by the OMM's researchers.
3

Territoire, observation et gouvernance. Outils, méthodes et réalités / Territories, observation and governance. Tools, methods and realities

Signoret, Philippe 07 December 2011 (has links)
La thèse se présente en trois parties qui reprennent les trois mots clés du titre et mettent en perspective la fonction d’observation territoriale, par une approche de la complexité essentiellement empirique et faisant référence de manière récurrente à la systémique.La première partie s’intéresse à la notion polysémique de territoire. La modélisation du processus de territorialisation permet alors de contourner la difficulté sémantique qui découle des multiples acceptions du terme rencontrées dans la littérature et au cours des entretiens conduits auprès de spécialistes. Le territoire se révèle alors sous la forme d’une représentation, combinant des dimensions matérielles et immatérielles, des représentations individuelles et collectives.La deuxième partie s’appuie sur des réalisations concrètes d’observatoires pour élaborer et mettre en oeuvre une approche comparée, entre une trentaine d’observatoires, sous l’angle de leur structuration et de leur fonctionnement. Cette seconde partie du travail révèle des situations très contrastées et l’absence d’un modèle consensuel qui sont les signes de réalisations opportunes, et non d’une approche normalisée de la fonction d’observation.La prise en compte des jeux d’acteurs s’opère au cours de la troisième partie qui traite de la gouvernance pour et par l’observation. Nous réinterrogeons alors les structures et les organisations qui se mettent en place autour des observatoires et d’un enjeu qui est celui de l’aide à la décision par l’instrumentation de l’information géographique. / The thesis is presented in three parts which include the three key words of the title and put intoperspective the function of territorial observation, with an approach to complexity mostly empiricaland constantly referring to systemics.The first part focuses on the polysemic notion of territory. Modeling the process of territorializationallows us to bypass the semantic difficulty that arises from multiple uses of the term in the literatureand in interviews conducted with experts. The territory is then revealed in different forms ofcombinations of tangible and intangible dimensions, and individual or collective representations.The second part is based on concrete achievements of observatories to develop and implement acomparative approach between thirty observatories according to their structure and functioning. Thissecond part of the work reveals sharp contrasts and lack of a consensual model which are the signs ofachievement and not an appropriate standard approach based on observation.Consideration sets of actors takes place during the third part which deals with governance for and byobservation. We raise questions about the structures and organizations which exist or should be set upso as to allow a better integration of observatories and an issue that is the decision support by theinstrumentation of geographic information
4

Etude et analyse multi longueurs d'onde de galaxies observées par l'Observatoire Herschel / Study and analysis multiwavelength observations of galaxies observed by Herschel Observatory

Mazyed, Firas 19 December 2017 (has links)
Le principal objectif de ce travail est d'étudier les propriétés multi-longueurs d'onde d'un échantillon de galaxies pour mieux comprendre leur formation et leur évolution. J'ai utilisé les observations du Herschel en complément de données multi-longueurs d'onde dans le champ. J'ai réalisé une extraction des sources ponctuelles. Des catalogues de sources ont été générés en utilisant la méthode de l'ajustement de PSF. J'ai utilisé des catalogues SPIRE pour rechercher des candidats de galaxies SMG subissant les effets d'une lentille gravitationnelle. J'ai identifié 6 sources dans la liste principale et 55 sources dans une liste supplémentaire. En utilisant des ajustements de SEDs, j'ai ensuite estimé la distribution de redshifts de ces sources, et avons ensuite mené une analyse pour contraindre les propriétés des poussières. J'ai trouvé qu'il est très probable que ces sources soient des systèmes lensés. Mentionnons que parmi nos candidates, j'ai découvert une source rouge unique dont la SED en infrarouge lointain croît et qui semble être une galaxie sub-mm (SMG) fortement lensée à haut redshift. Ce genre de sources est rare et la plupart sont découvertes par hasard. J'ai soumis des propositions photométriques et spectroscopiques pour mesurer le redshift de cette source, en utilisant des observations continues avec IRAM-Nika2, NOEMA et SMA et des observations spectroscopiques avec le télescope de 30m de l'IRAM, NOEMA et GEMINI-nord. Les observations ont permis de mesurer le redshift de la lentille et de la galaxie lensée. Une autre observation sera exécutée avant la fin de l'année. Les résultats sont très prometteurs mais j'ai encore besoin de plus de données. / The main aim of this work is to study the multi-wavelength properties of a sample of galaxies to better understand their formation and evolution. I used the new observations from GALEX and \textit{Herschel} in combination with multi-wavelength data available in the field. I made point source catalogs extracted from the observations of GALEX, and \textit{Herschel} SPIRE and PACS bands using the method of the PSF fitting. Then I used Monte Carlo simulations to quantify the quality of the photometry process and the catalogs.Then I used SPIRE catalogs to search for candidate gravitationally lensed SMGs at high redshift. I identified 6 sources sources in a main list, and 55 sources in a supplementary list. Using SED fitting, performed with CIGALE code, I estimated the redshift distributions of these sources, and constrained their dust properties. I found that, it is very likely that we have gravitationally lensing systems. It should be mentioned that within our candidates we have discovered a unique red source with a rising Far-IR SED, which appears to be a strongly lensed submillimeter galaxies at z~5.2. This kind of sources are quite rare on the sky and are serendipitously discovered. I proposed some followup photometric and spectroscopy observation to measure the redshift of this sources, using for instance continuum observations with IRAM-Nika2, NOEMA, and SMA, and spectroscopic observation with IRAM 30m telescope, NOEMA, and GEMINI-North. The GEMINI-North observations succeeded in measuring the redshifts of the lens and of the lensed galaxy. One more will be executed at the end of this year. The results is quite promising, but more data are needed.
5

Les bases de données environnementales : entre complexité et simplification : mutualisation et intégration d’outils partagés et adaptés à l’observatoire O-LiFE / Environmental databases : between complexity and simplification : mutualization and integration of shared tools adapted to O-LiFE Observatory

Hajj-Hassan, Hicham 19 December 2016 (has links)
O-LiFE est un observatoire de l’environnement dédié à l’étude des ressources et de la biodiversité dans la zone critique à la vie, focalisé sur la méditerranée. C’est aussi une structure à l’interface entre la recherche fondamentale et les porteurs d’enjeux. Cette plateforme initiée en collaboration entre des équipes libanaises et françaises se focalise d’abord sur l’observation systémique du milieu naturel, autour des thématiques de l’eau, la biodiversité et la gestion de l’environnement. Le fondement de l’observatoire est la mise en oeuvre d’une approche transdisciplinaire du défi du changement global. Structurer, partager, pérenniser et valoriser les données environnementales constitue un objectif prioritaire pour permettre à une large communauté de converger vers une approche réellement systémique et transdisciplinaire des enjeux environnementaux en Méditerranée. La construction d’un système d’information permettant cette mise en relation complète des données est donc prioritaire. Cependant cette mise en oeuvre est rendu complexe par plusieurs défis à relever pour répondre aux utilisateurs finaux et producteurs de données qui ne partagent pas les mêmes besoins, et pour tenir compte de l’hétérogénéité naturelle des données.Dans cette thèse, nous détaillons par conséquent les réflexions et travaux menés pour la mise en place de l’architecture du SI de l’observatoire. Le travail a été initié par une enquête permettant de mieux connaître les sources de données existantes. Nous avons ensuite proposé d’utiliser les environnements de gestion de données d’observations basés sur des ontologies partagées et les recommandations des consortiums reconnus (OGC). Des extensions sont proposées pour permettre la prise en compte de points de vue distincts sur les données via des multi-mapping. Cette extension permet un découplage entre la vision initiale du producteur de données et les multiples utilisations possibles des données à l’aide de croisement avec d’autres sources de données et/ou d’autres points de vue.Nous avons enfin appliqué la méthodologie sur les données O-LiFE et avons pu extraire des croisements de données inter-bases (entre deux sources de données distinctes) et intra-bases (en juxtaposant des points de vue distincts sur une même source de données). Ce travail est une démonstration du rôle fondamental des outils du SI et des observatoires dans le rapprochement indispensable des communautés scientifiques autant que des porteurs d’enjeux pour la résolution des grands défis sociétaux environnementaux, notamment en Méditerranéen. / O-LiFE is an environmental observatory dedicated to the study of resources and biodiversity in the critical area of life, focused on the Mediterranean. It is also a structure at the interface between basic research and the holders of issues. This platform initiated in collaboration between Lebanese and French teams focuses first on systemic observation of the natural environment around the themes of water, biodiversity and environmental management. The foundation of the observatory is the implementation of a transdisciplinary approach to the challenge of global change.Organize, share, sustain and enhance environmental data is a priority objective to enable the wider community to converge towards a truly systemic and transdisciplinary approach to environmental issues in the Mediterranean. The construction of an information system allowing complete connection of data is therefore a priority. However, this implementation is complicated by a number of challenges to meet the end users and data producers expectations who do not share the same needs, and to take into account thenatural heterogeneity of data.In this PhD, we detail brainstorming and work needed for the development of the architecture of the information system of the observatory. The work was initiated by a survey to better understand theexisting sources of data. We then proposed to use observational data management environments based on shared ontologies and the recommendations of recognized consortia (OGC). Extensions are proposed to enable the inclusion of different perspectives on data through multi-mapping. This extension allows a decouplingbetween the original vision of the data producer and the many possible uses of the data with crossbreeding with other data sources and / or other views.We then applied the methodology on the O-LiFE data and were able to extract inter-data analysis (between two distinct data sources) and intra-bases analysis (by juxtaposing different points of view on the same data source). This work is a demonstration of the fundamental role of IS tools and observatories in the essential gathering of the scientific communities as much as stakeholders to resolve major environmental challenges facing society, particularly in Mediterranean.
6

Impact de la géomatique dans les organisations de l'archéologie

Costa, Laurent 12 January 2010 (has links) (PDF)
Ce travail traite de l'impact des systèmes d'information géographique (SIG) dans les organisations de la recherche archéologique. L'examen de projets puisés dans les différents contextes organisationnels de la recherche archéologique nationale (services archéologiques des collectivités territoriales, institut national de recherche archéologique préventive, ministère de la Culture, organismes de recherche et d'enseignement supérieur), nous a permis de dégager les singularités et les permanences des pratiques liées aux SIG. Cette approche est suivie par la mise en oeuvre et l'analyse de dix expérimentations réalisées avec les équipes archéologiques du service départemental d'archéologie du Val-d'Oise (SDAVO) et celles de l'UMR 7041 Archéologies et Sciences de l'Antiquité, qui nous ont permis de réfléchir sur les modalités du développement d'une base de données géographiques appliquée à la recherche archéologique. Cette double démarche montre qu'il est pertinent de questionner les méthodes et les techniques formelles de mise en œuvre des outils afin que soit pris d'avantage en compte la nature profonde des différents acteurs avec leurs rationalités et leurs perceptions. Elle met en exergue l'aspect stratégique des dispositifs de mutualisation et de partage des matériels, des données et des compétences. L'utilisation des SIG en archéologie doit se concevoir selon un double processus : intégration pour le développement de modèles de données permettant d'assimiler les spécificités organisationnelles et métiers de chacun ; généralisation par l'utilisation de standards dont la constitution est un des problèmes qui reste à résoudre.
7

Étude des collisions atmosphériques de rayons cosmiques d'énergie supérieure a $10^18$eV grâce aux événements hybrides de l'Observatoire Pierre AUGER

RANCHON, Stephane 15 April 2005 (has links) (PDF)
Depuis plus de 30 ans, des réseaux de détecteurs au sol ont observé une dizaine de rayons cosmiques d'origine probablement extragalactique, dont les énergies excèdent $10^20$ eV. L'Observatoire Pierre AUGER, actuellement en construction en Argentine, a été spécialement conçu pour éclaircir le mystère de leur origine. La première partie de cette thèse a été consacrée à l'exposé de la problématique physique et aux techniques de détection utilisées. La partie suivante traite du développement d'un nouvel outil de mesure du niveau d'eau dans les détecteurs de surface et de la mise en oeuvre d'une expérience de calibration des détecteurs à des électrons de quelques MeV. Puis finalement, 3 chapitres sont consacrés à l'exposé de nouvelles méthodes d'analyses visant à determiner la composition du rayonnement cosmique primaire et à étudier les phénomènes physiques qui ont lieu dans le développement des gerbes dans l'atmosphère.
8

Contribution à l'identification de la nature des rayons cosmiques d'énergie extrême à l'Observatoire Pierre Auger

Pham, Ngoc Diep 17 December 2010 (has links) (PDF)
Bien que la découverte des rayons cosmiques date d'un siècle, ce n'est que récemment qu'on est parvenu à identifier leurs sources galactiques comme étant des restes de jeunes Supernovae (SNR). La difficulté était la déviation de leurs trajectoires dans le champ magnétique du disque de la Voie Lactée, empêchant d'associer leurs sources à des objets célestes connus. C'est l'astronomie en rayons gamma qui a permis de sauter cet obstacle en associant les sources de rayons gamma d'énergies supérieures au TeV à des enveloppes de jeunes SNRs. Ces découvertes récentes n'ont toutefois pas été capables d'expliquer l'origine de la composante extra galactique des rayons cosmiques, dite d'ultra haute énergie (UHECR), ni d'identifier leurs sources et le mécanisme d'accélération. Ce n'est que tout récemment, avec la construction de l'Observatoire Pierre Auger (PAO), que la physique des UHECR est apparue sous un jour nouveau. Le PAO, avec lequel notre laboratoire est associé, et dans le cadre duquel cette thèse a été réalisée, est un immense réseau de 1600 compteurs Cherenkov (SD, pour détecteur de surface) couvrant une superficie de 3000 km2 dans la pampa argentine. Il abrite également des détecteurs de fluorescence (FD) qui permettent une détection hybride des grandes gerbes pendant les nuits claires et sans lune. Le PAO a déjà accumulé, pour la première fois au monde, une centaine d'UHECRs d'énergies supérieures à 50 EeV dont l'étude des propriétés est ainsi devenue possible. De fait, deux résultats majeurs ont déjà été obtenus, qui marquent un jalon important dans l'étude de la physique des UHECRs: l'observation d'une coupure dans la distribution en énergie, aux alentours de 100 EeV, associée pour l'essentiel au seuil de photoproduction de pions dans les interactions des UHECRs avec les photons du fond cosmique fossile; et la mise en évidence d'une corrélation entre les directions vers lesquelles pointent les UHECRs et les concentrations de matière extragalactique de l'univers proche, en particulier la région de Cen A. A plus basse énergie, jusqu'à une cinquantaine d'EeV, le PAO a mis en évidence une augmentation des masses primaires vers le fer quand l'énergie augmente. Cette observation se base sur des mesures de l'altitude à laquelle la gerbe atteint son développement maximal, censée être plus élevée pour les noyaux de fer que pour les protons. Toutefois, les estimations de la masse primaire basées sur la densité de muons au sol se heurtent à des incohérences entre observations et prédictions des modèles conventionnels de développement des gerbes qui empêchent de conclure. On n'est pas encore parvenu à assembler les pièces de ce puzzle de façon claire et définitive. Une possibilité serait que les UHECR qui pointent vers des galaxies proches, comme CenA, soient des protons et que les autres soient des noyaux de fer. Mais cela reste encore à prouver. Le travail présenté dans la thèse est une contribution modeste à ce programme de recherche. Il met l'accent sur des méthodes d'identification des masses primaires basées sur la mesure de la densité des muons au sol, en particulier sur la méthode des sauts (jump method) qui a été conçue et développée au LAL d'Orsay où une partie importante de la thèse a trouvé son inspiration. La méthode des sauts identifie la présence de sauts soudains dans les traces des FADC, formant un saut total J, avec celle de muons. La lumière Cherenkov produite par les particules de la gerbe qui traversent les détecteurs du SD est captée par des tubes photomultiplicateurs dont les signaux sont enregistrés en fonction du temps dans des convertisseurs analogue/digital rapides (FADC, 40 MHz). La relation entre le saut total, J, et les propriétés des traces des FADCs montre, en particulier, que pour avoir une chance d'apprendre quelque chose de sensé sur le nombre N de muons qui contribuent à la trace du FADC, il est nécessaire de restreindre l'observation à des détecteurs qui ne soient pas trop proches de l'axe de la gerbe. Une étude séparée des traces induites par des muons et par des électrons ou photons montre que J est approximativement proportionnel à N et à Q (la charge totale), ce qui n'est pas surprenant. En combinant des traces de muons et d'électrons/photons on trouve que J peut être décrit par une expression de la forme J={(43.9±0.5)10−3Q+(200±2)N }10-3. Nous étudions ensuite la séparation entre primaires légers (protons) et lourds (fer) à laquelle on peut s'attendre de la mesure des valeurs de J dans les compteurs touchés par la gerbe. Nous remarquons que même si nous connaissions N exactement (ce qui bien sûr n'est pas le cas) la séparation entre fer et proton ne dépasserait pas les 30%, ce qui donne une mesure de la corrélation entre la nature des primaires et la densité des muons au sol. Ceci implique que l'identification des primaires à un niveau de confiance correspondant à trois déviations standard requiert un minimum de cinquante détecteurs dans lesquels on puisse mesurer la valeur prise par J. Une autre remarque est que si l'on connaissait l'énergie des primaires, ce qui n'est pas le cas, non seulement J mais aussi Q et NJ (le nombre de saut dans chaque trace) seraient de bons discriminants entre fer et protons. Ceci dit, l'énergie des primaires étant inconnue, l'inversion de la relation J=AQ+BN en N=J+Q - dans le but de déduire N de Q et J - n'est pas aussi simple qu'il y paraît. Le problème est que la corrélation qui lie Q à J est si forte qu'il n'y a essentiellement rien à gagner de l'utilisation de la forme binomiale ci- dessus. Un corollaire important de cette forte corrélation est la difficulté qu'il y a à faire la différence entre deux gerbes induites par des protons d'énergies différentes et deux gerbes d'énergies égales, l'une induite par un proton et l'autre par un noyau de fer. Afin de surmonter cette difficulté, il est nécessaire d'utiliser des discriminants indépendants de l'énergie. Deux outils sont utilisés dans ce but : l'utilisation du rapport J/Q comme discriminant et la restriction de l'analyse aux compteurs situés dans une fourchette de distances à l'axe de la gerbe dépendant de S(1000) (la densité au sol de la gerbe à 1 km de son axe, utilisée comme mesure de l'énergie de la gerbe). Des gerbes simulées sont utilisées pour démontrer qu'en principe chacun de ces deux outils est efficace. Une analyse indépendante de l'énergie est ensuite appliquée à l'étude des gerbes détectées par le PAO, confirmant leur désaccord avec les prédictions des modèles de développement des gerbes et établissant un nouveau et important résultat: ce désaccord ne peut pas être résolu par un simple ajustement de la relation entre S(1000) et l'énergie. Enfin, la méthode des sauts est appliquée aux UHECRs pointant à 18o près vers Cen A. Contrairement à une autre analyse utilisant des données hybrides pour étudier le taux d'élongation, cette analyse préfère une origine protonique pour les gerbes associées à Cen A par rapport à celles pointant ailleurs dans le ciel. Tout ceci illustre la difficulté qu'il y a à identifier la nature des primaires à partir des données du SD. Le désaccord entre données et prédictions constitue un problème majeur qu'il faut à tout prix résoudre. On ne saurait se satisfaire d'une explication rejetant sur les modèles hadroniques la responsabilité du désaccord si les mécanismes physiques incriminés ne sont pas clairement identifiés. Les programmes de simulation utilisés de façon courante sont d'une complexité telle qu'il est difficile de les utiliser dans ce but. Le souci de reproduire au plus près la réalité physique les a rendus opaques. La seconde partie de la thèse se propose de faire un pas dans la direction de l'élaboration d'un code de simulation simplifié mais transparent dans l'espoir qu'il permette d'éclairer le problème. La simulation de la composante électromagnétique des grandes gerbes est relativement simple: il suffit, à une excellente approximation, de ne retenir que le rayonnement de freinage et la création de paires comme seuls mécanismes élémentaires et d'ignorer toute particule autre que photon, électron ou positon. Il est aussi facile de décrire les pertes d'énergie par ionisation, ce qui permet un traîtement particulièrement simple du développement de la gerbe qui est présenté et commenté en détail. On obtient ainsi des paramétrisations du profil longitudinal de la gerbe utilisant la forme de Gaisser-Hillas et les valeurs moyennes des paramètres sont évaluées en fonction de l'énergie en même temps que leurs fluctuations. Trois types de primaires sont pris en considération: électrons, photons et pions neutres. Le modèle, par itérations successives, permet d'atteindre simplement aux énergies les plus élevées. Son application à l'effet Landau-Pomeranchuk-Migdal et à l'effet Perkins permettent d'illustrer son efficacité et de montrer que ces deux effets sont, en pratique, d'incidence négligeable sur la physique des UHECRs. Le développement de la composante hadronique de la gerbe est beaucoup plus difficile à traîter. Il implique la production de muons, essentiellement des pions, dont la composante neutre est purement électromagnétique et par conséquent facile à décrire. Au contraire, le destin des pions chargés dépend de deux processus en compétition: interactions hadroniques avec les noyaux de l'atmosphère et désintégrations faibles en une paire muon-neutrino. Les échelles qui gouvernent ces deux processus sont différentes: la section efficace d'interaction ne dépend que peu de l'énergie mais le taux d'interaction dépend de la pression atmosphérique, c'est-à- dire de l'altitude; au contraire, le taux de désintégration est indépendant de l'altitude mais inversement proportionnel à l'énergie à cause de la dilatation de Lorentz. La méthode itérative utilisée avec tant d'efficacité pour la composante électromagnétique, pour laquelle la longueur de radiation est la seule échelle pertinente, n'est plus praticable. Le problème essentiel de l'extrapolation des données d'accélérateurs aux grandes gerbes d'UHECRs n'est pas tant l'énergie que la rapidité. De fait, 20 EeV dans le laboratoire correspondent à 200 TeV dans le centre de masse, seulement deux ordres de grandeur au dessus des énergies du Tevatron et un seul au dessus des énergies du LHC. La lente évolution de la physique hadronique en raison directe du logarithme de l'énergie rend peu probable qu'une extrapolation des données des collisionneurs vers les énergies des UHECRs soit grossièrement erronée. Par contre, en termes de rapidité, les gerbes UHECR sont dominées par la production vers l'avant, une région inaccessible aux collisionneurs. En particulier, il n'existe aucune mesure précise des inélasticités et de la forme du front avant du plateau de rapidité, toutes deux essentielles au développement des gerbes UHECR. Le modèle développé dans la thèse fait de l'inélasticité un paramètre ajustable et la forme du plateau de rapidité est accessible de façon transparente. Une attention particulière est consacrée aux caractéristiques de la gerbe qui permettent l'identification de la nature des primaires, noyaux de fer ou protons. Ceci concerne essentiellement la première interaction: une fois que le noyau primaire a interagi, le développement de la gerbe ne met plus en jeu que des interactions nucléon-air ou méson-air. Là encore, il n'existe pas de données de collisionneurs permettant de décrire les interactions de noyaux et de pions avec l'atmosphère dans le domaine d'énergie qui nous intéresse. Le modèle utilisé ici permet un accès facile et transparent aux paramètres pertinents. La présentation qui est donnée du modèle limite ses ambitions à en décrire les traits essentiels, laissant pour une phase ultérieure l'étude de la densité des muons au sol. L'accent est mis sur le développement de ce nouvel outil et sur son adéquation aux problèmes qu'il entend aborder mais son utilisation dépasse le cadre de la thèse et fera l'objet d'études ultérieures.
9

Des signaux radio aux rayons cosmiques

Rivière, Colas 17 December 2009 (has links) (PDF)
La radiodétection des rayon cosmiques de haute énergie est actuellement l'objet d'une intense activité de recherche, tant sur le plan expérimental que théorique. La problématique actuelle est de savoir si elle représente une technique compétitive par rapport à ou en complément des techniques de détection classiques; aussi bien afin de couvrir les surfaces permettant d'accumuler de la statistique aux plus hautes énergies (autours de 10^20 eV -- là où l'astronomie des particules deviendrait possible) que de caractériser précisément le rayonnement cosmique à des énergies plus modérées (quelques 10^18 eV). Au cours de ce travail, nous avons tenté de nous approcher de la réponse à cette question, grâce à des modélisations de l'émission radio, à l'analyse de données expérimentales et en préparant les détecteurs à venir. Au niveau modélisation, l'émission géosynchrotron des particules des gerbes a été abordée analytiquement en utilisant un modèle de gerbe simplifiée et d'autre part avec la simulation Monte Carlo AIRES pour obtenir un développement de gerbe réaliste. Différentes dépendances du champ électrique ont été extraite, dont une proportionnalité du champ avec le vecteur -v*B sous certaines conditions. Expérimentalement, l'analyse des données du détecteur CODALEMA a permis de mieux caractériser le champ électrique produit par les gerbes, avec notamment la topologie de la distribution du champ au sol, la dépendance avec l'énergie et un champ compatible avec une proportionnalité avec -v*B. Ces différents résultats sont regroupé sous la forme d'une formule générale du champ. Davantage de données sont probablement nécessaires avant de statuer définitivement sur l'intérêt de la radiodétection. La formule obtenue grâce à CODALEMA a finalement été utilisée pour extrapoler les résultats de CODALEMA a un futur grand réseau, résultat appliqué notamment au détecteur AERA de l'Observatoire Pierre Auger.
10

Le milieu interstellaire et le cycle des grains dans le Petit Nuage de Magellan

Bot, Caroline 22 November 2005 (has links) (PDF)
Cette thèse est consacrée à la caractérisation du milieu interstellaire (MIS) dans le Petit Nuage de Magellan (SMC). Cette galaxie, modèle proche des galaxies aux premiers stades d'évolution, a une faible métallicité et un fort taux de formation d'étoiles.<br /><br />Mes travaux sont consacrés en particulier à la définition des propriétés des poussières, du milieu diffus aux régions de formation stellaire du SMC. L'analyse et la modélisation de l'émission infrarouge dans ces environnements montre que (1) les grains sont globalement détruits dans le milieu diffus; (2) la destruction des PAHs ne serait pas systématique dans le MIS de faible métallicité.<br /><br />La seconde partie est dédiée à l'étude de l'émission millimétrique des poussières comme traceur du gaz moléculaire dans les nuages denses. La comparaison de ce traceur avec l'émission CO indique une dépendance linéaire avec la métallicité du facteur de conversion CO-vers-H$_2$. D'autre part, les masses de nuages moléculaires locaux déduites de ce traceur sont compatibles avec celles obtenues à partir des observations CO. Cependant, dans le SMC on observe un excès systématique par rapport aux masses virielles. L'ajout d'un champ magnétique comme support partiel de ces nuages permet d'expliquer l'excès observé.<br /><br />L'ensemble de mes travaux met en évidence une évolution du rapport gaz-sur-poussières dans le SMC. Dans le milieu diffus, les grains sont détruits par les nombreuses explosions de supernovae. Les éléments lourds réaccrètent sur les grains dans les régions plus denses.<br /><br />Ces études se placent comme cas scientifiques d'utilisation de l'Observatoire Virtuel (OV). Dans ce cadre, j'ai construit une base de données sur les nuages de Magellan, prototype des bases de données d'équipe de l'OV. De plus, la formalisation des étapes de traitement et d'analyse effectuées me permet de spécifier les développement nécéssaires à l'inclusion des objets étendus dans l'OV et de proposer des outils génériques.

Page generated in 0.0598 seconds