• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 155
  • 59
  • 33
  • Tagged with
  • 240
  • 240
  • 127
  • 123
  • 50
  • 48
  • 32
  • 28
  • 27
  • 26
  • 23
  • 23
  • 22
  • 20
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Remodelage de réseaux d'échangeurs de chaleur : collecte de données avancée, diagnostic énergétique et flexibilité. / Heat exchanger network retrofit : enhanced data collection, energy diagnosis and flexibility

Payet, Lucille 30 November 2018 (has links)
Dans un contexte de transition énergétique et numérique, L’Usine du Futur se définit commeéconome en énergie, mais aussi agile grâce à des moyens de production flexibles etreconfigurables. Conférer ces propriétés aux procédés existants est un challenge complexe quiinduit souvent une réorganisation des unités. Dans ce cadre, la méthodologie RREFlex a pourobjectif de proposer des solutions alternatives d’intégration énergétique à la fois viables, robusteset adaptables via le remodelage des réseaux d’échangeurs de chaleur déjà installés.Contrairement à la conception initiale consistant à réaliser de manière conjointe la conception duprocédé et du réseau d’échangeur de chaleur associé, l’exercice de remodelage d’unitésexistantes peut s’avérer sensiblement plus complexe. En effet, il s’inscrit souvent dans unedémarche d’amélioration continue sur des installations ayant déjà connu au cours de leur vie destransformations pour faire face aux évolutions de la demande ou à de nouvelles contraintesenvironnementales. Aujourd’hui, nombre d’analyses de récupération énergétique sont réaliséessur les sites industriels mais celles-ci ne donnent pas nécessairement lieu à des réalisationsconcrètes. Les raisons le plus souvent invoquées sont d’ordre financières mais aussi, pratiques.En effet, les solutions proposées ne sont pas toujours réalistes d’un point de vue opérationnellecar elles tiennent rarement compte de la variabilité du procédé, soit due à des perturbations nonmaitrisées sur les températures et les débits, soit due à la présence de multiples points defonctionnement (changement de campagne, évolution de la charge, etc.). De plus, ces solutionstiennent peu compte des contraintes spécifiques du site étudié (topologie des unités, compatibilitédes courants, sécurité, etc.), la formulation a priori de ces dernières ne pouvant être exhaustive.L’outil RREFlex - outil Robuste pour la synthèse de Réseaux d’Echangeurs Flexibles - a étédéveloppée pour pallier autant que possible ces limites. S’appuyant sur une analyse statistiquedes historiques de mesures remontés en salle de contrôle, un premier module - EDiFy : EnhancedData collection for Flexibility analysis - permet de localiser et de caractériser les différents cas demarche des unités. Notamment, la valeur moyenne et la variance des données caractéristiques duprocédé (températures, flux calorifiques) sont estimées pour chaque cas de marche. Ce jeu dedonnées étant souvent incomplet, il est nécessaire d’avoir recours à un modèle de simulation duprocédé pour le compléter et valider la cohérence des données mesurées pour chaque cas demarche potentiellement identifié. Sur cette base, une seconde étape dédiée au diagnosticénergétique permet d’évaluer la pertinence des échangeurs de récupération déjà installés. Cetteanalyse permet d’identifier et de prioriser un ensemble de scenarii de remodelage considéréscomme prometteurs. Chacun d’eux est défini par la liste des échangeurs à reconsidérer et uncertain nombre de paramètres de configuration. Chaque scenario retenu est alors exploité pour lasynthèse du réseau d’échangeurs associé. Cette étape s’appuie sur un modèle de programmationlinéaire mixte multi-période (PLM) pour déterminer la nouvelle topologie du réseau d’échangeurs.Dans ce cadre, le modèle a évidemment la possibilité d’introduire de nouveaux échangeurs maisaussi de déplacer les échangeurs existants et conservés dans un scénario donné, tant qu’ilscouplent la même paire de courant qu’initialement. Les réseaux obtenus sont donc adaptables auxdifférents cas de marche identifiés à la première étape et reconfigurable grâce à l’implantation deby-pass. Le panel de réseaux proposés est enfin évalué et classé au moyen d’indicateurs deperformance, dont notamment la robustesse vis-à-vis de la variabilité du procédé. L’approche aété validée sur deux sites de dimension industrielle: un procédé de fabrication de MVC et un trainde préchauffe de pétrole brut / In a context of numerical and energy transition, the Factory of the Future is meant to be moreenergy efficient but also smarter and agile through the use of flexible and reconfigurableproduction means. Enabling existing processes to achieve those properties is a difficult challengewhich often induces a reorganization of the units. In this context, RREFlex methodology wasdeveloped to provide several alternatives heat integration solutions both viable, robust andadaptable through the retrofitting of existing heat exchanger networks. Unlike grass-root design,which consists in designing both the process and the heat exchanger network at the same time(and thus, allowing many possibilities), retrofitting existing units can be a lot more complex.Indeed, as part of a continuous improvement process of the production, the plants have oftenalready undergone transformations during their life to cope with changes in demand or newenvironmental constraints. Currently, numerous energy recovery analysis are performed onindustrial sites but do not necessarily involves concrete industrial measures. The main reasons forthe lack of results are mainly financial but also practical. The provided solutions are often nonrealistic in terms of operability because of the lack of accounting for the variability of the process,whether due to external disturbances on temperatures and flowrates or due to multiple operatingconditions (many production campaigns, evolution in process load, etc.). Moreover, thosesolutions also do not take on-site constraints into account (units topology, process streamscompatibility, safety, etc.), as it is difficult to apprehend such constraints. The RREFlex module(Robust software tool for the synthesis of Flexible Heat Exchanger Networks), was developed toassess these issues. Based on a statistical analysis of historical data extracted from on-sitemeasurements, a first module - EDiFy : Enhanced Data collection for Flexibility analysis – enablesthe location and characterization of the multiple steady state regimes. The mean value andvariance of operating conditions characterizing the process (e.g. temperature, heat flow) areestimated for each steady state. As this data set is usually incomplete, it is necessary to use asimulation model of the process to complete and validate the consistency of the measurements ofeach identified steady state.Based upon those data, an energy diagnosis step enables the assessment of each existing heatexchanger liability. This analysis results in the identification and classification of several promisingretrofitting scenarios. Each one is defined by a list of heat exchangers to reconsider and severalconfiguration parameters.Each selected scenario is then used to design the corresponding optimal heat exchanger network.The latter step, which is based on a multi-period mixed linear programming model, aims at thedesign of a new heat exchanger network topology. In this context, the model includes not only thepossibility to add new heat exchangers but also to shift the preserved heat exchangers for a givenscenario, as long as the original pair of streams is kept. The resulting heat exchanger networksare thus adaptable to every operating conditions identified in the first step of the methodology butalso reconfigurable through the use of by-passes. The performances of the resulting networks areevaluated and classified using key performance indicators, especially the robustness which iscrucial to account for the process variability.The approach was validated on two industrial scale case studies: a MVC production process and arefinery heating train.
112

Analysis of the data of the EDELWEISS-LT experiment searching for low-mass WIMP / Analyse des données de l'expérience EDELWEISS-LT pour la recherche de WIMP de basse masse

Queguiner, Emeline 23 October 2018 (has links)
De nombreuses observations astrophysiques et cosmologiques tendent à prouver que la matière ordinaire (dite baryonique) ne constituerait qu'environ 5 % du contenu énergétique de l'Univers. Les principales composantes de celui-ci seraient l'énergie noire (à 70 %) ainsi que la matière noire (à 25 %). Cette dernière serait invisible et seuls ses effets gravitationnels traduiraient sa présence dans l'Univers. Plusieurs particules, regroupées sous le terme générique de WIMP (Weakly Interacting Massive Particles), pourraient correspondre à cette théorie et sont activement recherchées. Plusieurs dispositifs expérimentaux ont été développés dans ce but et s'appuyent sur les stratégies suivantes : la production de ces particules au sein de collisionneurs, l'observation de particules produites via l'annihilation de WIMP ou encore la détection directe de ces particules via leur interaction avec le noyau des atomes constitutifs d'un détecteur. C'est sur cette dernière méthode que s'appuie l'expérience EDELWEISS. Il s'agit d'une expérience de détection directe de matière noire dédiée à la recherche de WIMP de masse comprise entre 1 GeV et 1 TeV. Son but premier est de détecter les reculs nucléaires induits par la diffusion élastique de particule de matière noire dans les détecteurs. Les taux d'événements attendus < 10 /(kg.an) étant de plusieurs ordres de grandeur inférieurs à ceux induits par la radioactivité ambiante, une double mesure de l'ionisation et de la chaleur est employée pour discriminer les reculs électroniques induits par les bruits de fonds β et γ des reculs nucléaires induits par les WIMPs. De plus, l'expérience a été placée en site souterrain pour se prémunir des rayonnements cosmiques, induisant des événements dans les détecteurs. Ceux utilisés par l'expérience sont des bolomètres en germanium, appelés FID, refroidis à des températures cryogéniques (18 mK) et opérant à bas champ (1 V/cm). Depuis 2015, la nouvelle stratégie de l'expérience consiste à se focaliser sur les WIMPs de masse inférieure à 10 GeV, zone de recherche privilégiée pour les expériences utilisant des détecteurs cryogéniques. Le fonctionnement de l'expérience a donc été amélioré afin d'atteindre cet objectif.Le but de cette thèse consiste à analyser les campagnes de données de l'expérience, effectuées en 2015 et 2016. Celles-ci utilisaient les détecteurs FID soumis à un champ électrique plus important que précédemment afin d'améliorer leur sensibilité. La limite extraite à partir de ces données s'appuie sur la statistique de Poisson et a permis de mettre en évidence que le bruit de fond dominant de l'expérience à basse énergie impacte grandement les résultats. C'est pourquoi une étude de ces événements, appelés heat-only, a été réalisée. Ceux-ci se caractérisent par une élévation de chaleur vue par les senseurs thermiques sans que les électrodes du détecteur ne mesurent d'ionisation en son sein. Une étude de ce bruit de fond a été réalisée et a permis de mettre en évidence la possibilité de modéliser ces événements. Suite à ces résultats, une analyse par maximum de vraisemblance a été construite. Cette méthode d'analyse permet de soustraire de manière statistique les bruits de fond de l'expérience grâce à leurs spectres en énergie différents de ceux attendus pour un signal de matière noire. De cette façon, une limite sur la section efficace des WIMP a été calculée en utilisant pour la première fois des détecteurs FID soumis à des champs électriques supérieurs aux valeurs utilisées jusqu'à présent / Many astrophysical and cosmological observations lead to postulate the existence of an unknown matter, called dark matter. Ordinary matter can explain only 5 % of the energy content of the Universe : the main components would be the dark energy (70 %) and dark matter (25 %). This latter is invisible and manifest itself only via its gravitational effects. Several particles, grouped under the generic term of WIMP (Weakly Interacting Massive Particles), could correspond to this theory and are actively searched. Many experiments have been developed for this purpose and are based on three strategies: the production of these particles with colliders, the observation of the particles produced by their annihilation in astrophysical objects or the direct detection of these particles via their interaction with the nucleus of the atoms constituent of a detector. It is on this last method that the EDELWEISS experiment is based. It is a dark matter direct detection experiment dedicated to the search for WIMP with masses between 1 GeV and 1 TeV. Its primary purpose is to detect nuclear recoils induced by elastic scattering of dark matter particles in detectors. Since the expected event rates < 10 /(kg.year) are several orders of magnitude lower than those induced by ambient radioactivity, a double measurement of ionization and heat is used to discriminate electron-induced recoils arising from β and γ interactions from WIMP-induced nuclear recoils. In addition, the experiment was placed underground to guard against cosmic radiation, inducing events in the detectors. These are germanium bolometers, called FID, cooled to cryogenic temperatures (18 mK) and operating at low field (1 V/cm). Since 2015, the new strategy of the experiment consists of focusing on WIMPs with mass below 10 GeV, an interessant research area where experiments using cryogenic detectors can exploit their ability to operate with experimental thresholds well below 1 keV. The operation of the experiment has been improved to achieve this goal. The aim of this thesis is to analyze the data set recorded by EDELWEISS in 2015 and 2016. These used the FID detectors subjected to a greater electric field than previously to improve their sensitivity. It is expected that the limit on the spin-independent WIMP-nucleon crosssection extracted from these data will be greatly impacted by a dominant background, called heat-only events. That is why they are studied in detail in this work. They are characterized by a rise in heat seen by thermal sensors without any ionization signal on the collecting electrodes. This study resulted in to highlight a model for these events that can be used in the WIMP search analyses. Following these results, a maximum likelihood analysis was constructed. This method of analysis makes it possible to statistically subtract the background noise from the experiment by exploiting the difference between the energy spectra of signal and backgrounds. In this way, limits on the spin-independent WIMP-nucleon cross-section are obtained. They will be compared to the results of other experiments
113

Analyse des données de l’expérience NEMO3 pour la recherche de la désintégration double bêta sans émission de neutrinos. Étude des biais systématiques du calorimètre et développements d’outils d’analyse / Data analysis of the NEMO3 experiment for the neutrinoless double beta decay search. Study of the systematics errors of the calorimeter and analysis tools developments

Hugon, Christophe 29 November 2012 (has links)
L'expérience NEMO3 était dédiée à la recherche de la désintégration ββ0ν à l'aide de diverses sources d'isotopes de désintégration double bêta (principalement ¹ººMo, ⁸²Se, ¹¹⁶Cd et ¹³ºTe pour un total d'environ 10 kg). Le détecteur était localisé dans le Laboratoire souterrain de Modane, à mi-parcours du tunnel du Fréjus. Cette expérience a permis de démontrer que la technologie "tracko-calo" est très compétitive et a de plus offert de nouveaux résultats pour la recherche des désintégrations ββ2ν et ββ0ν. Par ailleurs, elle a ouvert la voie pour son successeur SuperNEMO, dont le but est d'atteindre 100 kg de ⁸²Se (pour une sensibilité de 10²⁶ années). Le but principal de cette thèse a été de mesurer le temps de demi-vie des désintégrations ββ2ν et ββ0ν du ¹ººMo vers les états excités 0₁⁺ du ¹ººRu à l'aide des données totales de NEMO3, avec de nouvelles méthodes d'analyse et un développement du programme d'analyse de la collaboration. Les résultats obtenus pour la désintégration ββ2ν du ¹ººMo vers l'état fondamental (gs) et excité (0₁⁺) du ¹ººRu sont T1/2(ββ2ν,gs)=(7,05±0,01(stat)±0,54(syst)).10¹⁸ ans et T1/2(ββ2ν,0₁⁺)=(6,15±1,1(stat)±0,78)).10²º ans. Ces résultats sont compatibles avec les résultats publiés par la collaboration. Quant à la désintégration ββ0ν(0₁⁺), ce travail permet d’obtenir un temps de demi-vie de T1/2(ββ0ν, 0₁⁺)>2,6.10²³ ans, améliorant significativement les derniers résultats publiés. De plus ces méthodes ont aussi permis de présenter un nouveau modèle de bruit de fond de l'expérience, plus exhaustif. Le second but de ce travail a été de mesurer les erreurs systématiques du calorimètre de NEMO3 dues, entre autres, à la longueur d'onde des systèmes d’étalonnage du détecteur. Ce travail a été réalisé notamment à l'aide d'un banc de test basé sur des DEL. Ce banc a aussi permis de contribuer au développement du calorimètre de SuperNEMO, particulièrement au travers de mesures de linéarité et de caractéristiques temporelles des PM destinés au démonstrateur de l'expérience. / The NEMO3 experiment was researching the ββ0ν decay by using various sources of double beta decay isotopes (mainly ¹ººMo, ⁸²Se, ¹¹⁶Cd and ¹³⁰Te for about 10 kg in total). The detector was located in the “Laboratoire Souterrain de Modane”, in the halfway point of the Frejus tunnel. This experiment demonstrated that the "tracko-calo" technology is really competitive and, in addition, it gives new results for the ββ2ν and the ββ0ν decay research. Moreover it opened a new way for its successor SuperNEMO, which aim is to reach a mass of 100 kg of ⁸²Se (for a sensitivity of 10²⁶ years). The main goal of the thesis is to measure the ββ2ν and ββ0ν decay of the ¹ººMo to the excited state 0₁⁺ of the ¹ººRu thanks to the whole NEMO3 data, with new original methods of analysis and through the development of the collaboration analysis software. The results obtained for the ground states (gs) and excited states ββ2ν of the ¹ººMo are T1/2(ββ2ν,gs)=(7,05±0,01(stat)±0,54(syst)).10¹⁸ years and T1/2(ββ2ν, 0₁⁺)=(6,15±1,1(stat)±0,78)).10²º years. Those results are compatibles with the last published ones by the collaboration. For the ββ0ν(0₁⁺), this work gave a half-life time of T1/2 (ββ0ν, 0₁⁺)>2,6.10²³ years, improving significantly the last published results. Furthermore those methods also allowed to present a new and more exhaustive background noise model for this experiment. The second point of this work was to measure the systematics errors of the NEMO3 calorimeter, among others, due to the wavelength of the NEMO3 calibration systems. This work was done using a new test bench based on LED. This bench also allowed to contribute to the development of the SuperNEMO calorimeter, especially in the time characteristic and the energy linearity measurement of the PMT intended to the demonstrator of the experiments.
114

Phénoménologie et détection du rayonnement cosmique nucléaire

Putze, Antje 25 September 2009 (has links) (PDF)
Un siècle après la découverte du rayonnement cosmique – un flux de particules énergétiques chargées qui bombarde les couches supérieures de l'atmosphère terrestre –, beaucoup de questions restent encore ouvertes sur son origine, sa nature et son transport. La mesure précise du flux des ions du rayonnement cosmique a pour objectif d'étudier les processus d'accélération et de propagation. En particulier la mesure des rapports secondaire sur primaire permet de contraindre très efficacement les modèles de propagation car elle est directement liée au grammage vu par les particules durant leur transport. La connaissance et la caractérisation des processus liés à la propagation permet de reconstruire le spectre source du rayonnement cosmique et donc de contraindre les processus d'accélération, mais aussi de tester l'existence dans le rayonnement cosmique de contributions exotiques comme l'annihilation de particules de matière noire. Cette thèse traite deux aspects de la physique du rayonnement cosmique: la phénoménologie et la détection. Concernant l'aspect phénoménologique, le travail présenté consiste à évaluer et à étudier les contraintes que les mesures actuelles permettent d'apporter sur les modèles de propagation du rayonnement dans la Galaxie à l'aide d'un Monte Carlo par chaînes de Markov. L'aspect expérimental de ce travail porte sur la participation à la construction, la validation et l'analyse des données du sous-détecteur CherCam – un imageur Cherenkov mesurant la charge des ions du rayonnement cosmique pour l'expérience CREAM –, dont les résultats préliminaires sont présentés.
115

Recherche du Rayonnement Gamma Diffus Galactique Autour de 100 GeV dans l'Expérience à Effet Tcherenkov Atmosphérique CELESTE

Britto, Richard 19 December 2006 (has links) (PDF)
L'étude de l'émission diffuse galactique est un sujet d'intérêt majeur en astronomie gamma au-delà du GeV pour l'étude des rayonnements cosmiques chargés de notre Galaxie. Face au peu de mesures au-dessus de 10 GeV, nous avons recherché la composante gamma diffuse dans les données hors-source (OFF) de CELESTE, premier télescope à effet Tcherenkov atmosphérique à avoir un seuil en énergie en-dessous de 100 GeV. La production et l'étude de simulations Monte-Carlo de gamma ont permis de valider l'accord entre les simulations et les données, et d'estimer la sensibilité de CELESTE aux gamma diffus. Afin de rechercher le rayonnement gamma diffus, essentiellement localisé aux faibles latitudes galactiques, nous avons entrepris une analyse de lots de données OFF, réalisant ainsi une association par paires OFF / OFF. Une première étape a consisté à vérifier l'absence d'effet systématique significatif en comparant paire par paire deux OFF pris à des dates différentes dans des régions de hautes latitudes galactiques où aucun signal gamma diffus n'était décelable, et sélectionnés selon des critères de stabilité de l'acquisition et de l'atmosphère, pour des pointés identiques. La deuxième étape, visant à rechercher un excès d'événements dans le plan galactique, a consisté à associer en paires les OFF de la nébuleuse du Crabe dont l'un des membres est situé à une latitude |l| < 2°, et l'autre à une latitude |l| = 10°. La soustraction OFF-OFF des données après coupures d'analyse sur des variables construites sur des propriétés géométriques et temporelles du front d'onde Tcherenkov, permettait ainsi la discrimination entre les candidats électromagnétiques et hadroniques. La région sondée était donc celle de l'anticentre galactique. Nous avons obtenu 7 paires, soit 108 min de données. Une limite supérieure à 95 % de niveau de confiance a été établie à 100 GeV, correspondant au flux limite intégral phi (E=100 GeV) = 6,6 x 10^-3 m^-2 s^-1 sr^-1.
116

De la prise d'information visuelle à la formation d'impressions : apports de l'oculométrie pour l'étude des processus de la perception et de la cognition visuelle des objets manufacturés

Couronné, Thomas 18 December 2007 (has links) (PDF)
L'intégration des facteurs humains dans la conception et le développement industriel est aujourd'hui un enjeu majeur de l'innovation technologique, et plus particulièrement pour l'automobile.<br />L'étude des processus d'évaluation des produits manufacturés apporte des informations clés sur la manière dont le produit va être perçu puis jugé. Par une approche pluridisciplinaire à la confluence des sciences de l'ingénieur et des sciences cognitives, notre travail contribue à la compréhension des processus de la cognition visuelle et de formation d'impression par l'usage de l'oculométrie. Les comportements oculomoteurs mesurés en situation d'évaluation visuelle du produit automobile sont caractérisés et catégorisés par des méthodes statistiques empruntées au traitement des images, à la biologie, à l'agronomie ou la psychophysique. Les liens entre l'attention visuelle et l'intégration cognitive des informations visuelles pour l'évaluation sont ensuite étudiés. Plusieurs paradigmes expérimentaux sont conçus : évaluation monadique ou par paire, à durée d'exposition libre ou limitée, depuis des positions d'observations libres ou contraintes. Il s'avère que les processus qui guident l'orientation du regard lors de l'évaluation visuelle de produits photographiés, tels que les habitacles automobiles, sont nombreux et imbriqués de manière complexe tant spatialement que temporellement. Ce travail développe un ensemble de protocoles et de préconisations d'usage de l'oculométrie, ainsi qu'une démarche d'analyse de ces données en cascade, afin de mettre en évidence les zones d'intérêt, les effets des consignes et les contributions relatives des différents processus attentionnels.
117

La gouvernance d'entreprise managériale : positionnement et rôle des gérants de fonds socialement responsables

Morvan, Jérémy 29 November 2005 (has links) (PDF)
Cette thèse développe une modélisation de la gouvernance de la firme fondée sur la légitimité du pouvoir. <br /><br />Dans la première partie, nous développons une approche théorique de la gouvernance. Dans le premier chapitre, nous présentons la théorie de l'agence et la théorie des parties prenantes pour identifier les acteurs du processus productif. Dans un deuxième chapitre, nous cherchons à faire évoluer le paradigme en présentant un modèle de légitimité du pouvoir dans la firme.<br /><br />Dans la seconde partie, nous produisons une approche empirique de la gouvernance. L'objectif est de comprendre l'imbrication des légitimités pragmatique, cognitive et morale de la firme dans sa recherche d'une adhésion des partenaires. Dans le troisième chapitre, une analyse de données textuelles permet d'identifer les attentes financières, partenariales et citoyennes de ces fonds socialement responsables (SR) en direction de l'entreprise. Dans le quatrième chapitre, nous comparons les performances de fonds et indices SR et traditionnels.
118

A la recherche des énergies extrêmes : détection des rayons cosmiques avec l'Observatoire Pierre Auger

Da Silva, Pierre 06 December 2004 (has links) (PDF)
Le spectre des rayons cosmiques semble se prolonger au-delà de la coupure GZK ; leur mode de production à ces énergies et leur propagation à travers l'espace ne sont pas bien compris. Malgré des flux extrêmement faibles, ces particules ultra énergétiques sont détectées sur Terre par des gerbes atmosphériques qui arrivent jusqu'au sol. Des simulations tentent de reproduire leur comportement en extrapolant les sections efficaces. L'Observatoire Pierre Auger détecte ces gerbes grâce à des télescopes de fluorescence et un réseau de cuves Cerenkov, qui couvriront finalement 3000 km2, nécessaires pour accumuler suffisamment de statistiques. Le système d'acquisition développé au LPNHE assure la communication avec le réseau et l'enregistrement des données. Un logiciel développé pendant la thèse permet la visualisation et la reconstruction des événements candidats. Les erreurs systématiques et aléatoires ont été identifiées et réduites dans tous les ajustements, afin que la détermination de la direction et de l'énergie du rayon cosmique primaire soit juste et précise. L'identification de la nature du primaire par l'âge de la gerbe améliore ces résultats.
119

Observatoire Pierre Auger : Analyse des gerbes inclinées, observation de neutrinos d'ultra haute énergie, et signature d'une origine locale pour les rayons cosmiques chargés

Deligny, Olivier 04 April 2003 (has links) (PDF)
L'observatoire Pierre Auger se propose de recueillir une statistique sans précédent concernant le spectre des rayons cosmiques d'ultra haute énergie. Les quelques données actuelles suggèrent une absence de coupure GZK, coupure liée à la distance d'atténuation des protons dans un milieu de propagation tel que le rayonnement fossile à 3K.<br> Après avoir étudié l'effet des champs magnétiques extragalactiques sur la propagation des rayons cosmiques et l'influence sur le spectre, une grande partie du chapitre consacré à la description de l'expérience Auger sera laissée au système d'acquisition des données.<br> L'étude des gerbes atmosphériques initiées dans la haute atmosphère sous incidence rasante est riche d'enseignements concernant la possibilité de détection de neutrinos. Une procédure de reconstruction de l'énergie des gerbes rasantes hadroniques est formalisée et appliquée aux événements du prototype dans le chapitre 4, et le calcul de la sensibilité aux neutrinos du détecteur complet est donné dans le chapitre 5.<br> Enfin, l'analyse des données de l'année 2002 du réseau prototype de l'expérience Auger est l'objet du chapitre 6.
120

Anisotropies et polarisation du rayonnement fossile: méthode de détection et traitement de données

Revenu, Benoît 15 May 2000 (has links) (PDF)
Le rayonnement fossile regorge d'une multitude d'informations physiques sur l'univers tel qu'il était quelques centaines de milliers d'années après le Big-Bang. L'analyse de ses fluctuations de température et de polarisation permet de mesurer les paramètres cosmologiques et de contraindre les théories de l'univers primordial. La polarisation permet en particulier de lever des dégénérescences entre certains paramètres cosmologiques en donnant un accès direct aux ondes gravitationnelles primordiales. <br>La première partie de cette thèse est consacrée au modèle standard de la cosmologie. Je présente en particulier la polarisation du rayonnement fossile. <br>Le signal polarisé, dont l'intensité n'excède pas dans la plupart des scénarios 10 % des fluctuations de température, est attendu à quelques micro kelvins. Pour le mesurer, on utilise souvent des bolomètres refroidis, couplés à des polariseurs. Je montre qu'il existe des dispositions optimales des détecteurs dans le plan focal de l'instrument minimisant le volume de la boîte d'erreurs et permettant d'avoir des erreurs décorrélées sur les paramètres de Stokes, caractérisant la polarisation. <br>La source majeure de bruit dans ces mesures provient des fluctuations du bain thermique dans lequel plongent les bolomètres, de l'électronique de lecture, des instabilités de gain et de l'optique. Ces processus engendrent des dérivez basses fréquences qui se traduisent par des niveaux de bruit relatifs entre détecteurs trop importants par rapport au signal recherché. J'applique aux donné polarisées une méthode simple permettant de soustraire aux dérives basses fréquences; elle utilise les redondances inhérentes à la stratégie de balayage du ciel par l'instrument. Les résultats montrent que ces dérives peuvent être soustraites jusqu'au niveau du bruit blanc. <br>Enfin, je décris l'expérience COSMOSOMAS et présente une analyse préliminaire. Elle fournira des cartes de l'émission polarisée de notre galaxie à des fréquences de l'ordre de 10 GHz.

Page generated in 0.0669 seconds