• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 178
  • 65
  • 18
  • Tagged with
  • 262
  • 106
  • 96
  • 49
  • 47
  • 43
  • 38
  • 33
  • 32
  • 28
  • 27
  • 27
  • 26
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Contribution à l'apprentissage et à la prise de décision, dans des contextes d'incertitude, pour la radio intelligente

Jouini, Wassim 15 June 2012 (has links) (PDF)
L'allocation des ressources spectrales à des services de communications sans fil, sans cesse plus nombreux et plus gourmands, a récemment mené la communauté radio à vouloir remettre en question la stratégie de répartition des bandes de fréquences imposée depuis plus d'un siècle. En effet une étude rendue publique en 2002 par la commission fédérale des communications aux Etats-Unis (Federal Communications Commission - FCC) mit en évidence une pénurie des ressources spectrales dans une large bande de fréquences comprise entre quelques mégahertz à plusieurs gigahertz. Cependant, cette même étude expliqua cette pénurie par une allocation statique des ressources aux différents services demandeurs plutôt que par une saturation des bandes de fréquences. Cette explication fut par la suite corroborée par de nombreuses mesures d'occupation spectrale, réalisées dans plusieurs pays, qui montrèrent une forte sous-utilisation des bandes de fréquences en fonction du temps et de l'espace, représentant par conséquent autant d'opportunité spectrale inexploitée. Ces constations donnèrent naissance à un domaine en plein effervescence connu sous le nom d'Accès Opportuniste au Spectre (Opportunistic Spectrum Access). Nos travaux suggèrent l'étude de mécanismes d'apprentissage pour la radio intelligente (Cognitive Radio) dans le cadre de l'Accès Opportuniste au Spectre (AOS) afin de permettre à des équipements radio d'exploiter ces opportunités de manière autonome. Pour cela, nous montrons que les problématiques d'AOS peuvent être fidèlement représentées par des modèles d'apprentissage par renforcement. Ainsi, l'équipement radio est modélisé par un agent intelligent capable d'interagir avec son environnement afin d'en collecter des informations. Ces dernières servent à reconnaître, au fur et à mesure des expériences, les meilleurs choix (bandes de fréquences, configurations, etc.) qui s'offrent au système de communication. Nous nous intéressons au modèle particulier des bandits manchots (Multi-Armed Bandit appliqué à l'AOS). Nous discutons, lors d'une phase préliminaire, différentes solutions empruntées au domaine de l'apprentissage machine (Machine Learning). Ensuite, nous élargissons ces résultats à des cadres adaptés à la radio intelligente. Notamment, nous évaluons les performances de ces algorithmes dans le cas de réseaux d'équipements qui collaborent en prenant en compte, dans le modèle suggéré, les erreurs d'observations. On montre de plus que ces algorithmes n'ont pas besoin de connaître la fréquence des erreurs d'observation afin de converger. La vitesse de convergence dépend néanmoins de ces fréquences. Dans un second temps nous concevons un nouvel algorithme d'apprentissage destiné à répondre à des problèmes d'exploitation des ressources spectrales dans des conditions dites de fading. Tous ces travaux présupposent néanmoins la capacité de l'équipement intelligent à détecter efficacement l'activité d'autres utilisateurs sur la bande (utilisateurs prioritaires dits utilisateurs primaires). La principale difficulté réside dans le fait que l'équipement intelligent ne suppose aucune connaissance a priori sur son environnement (niveau du bruit notamment) ou sur les utilisateurs primaires. Afin de lever le doute sur l'efficacité de l'approche suggérée, nous analysons l'impact de ces incertitudes sur le détecteur d'énergie. Ce dernier prend donc le rôle d'observateur et envoie ses observations aux algorithmes d'apprentissage. Nous montrons ainsi qu'il est possible de quantifier les performances de ce détecteur dans des conditions d'incertitude sur le niveau du bruit ce qui le rend utilisable dans le contexte de la radio intelligente. Par conséquent, les algorithmes d'apprentissage utilisés pourront exploiter les résultats du détecteur malgré l'incertitude inhérente liée à l'environnement considéré et aux hypothèses (sévères) d'incertitude liées au problème analysé.
92

Performance du spectromètre à muons d'ALICE. <br />Production et mesure des bosons faibles dans des collisions d'ions lourds auprès du LHC.

Conesa Del Valle, Zaida 12 July 2007 (has links) (PDF)
La QCD sur réseau prédit la transition d'une phase hadronique vers le Plasma de Quarks et Gluons (PQG) pour des températures au-dessus de 10^{13} K. Pour le recréer en laboratoire, des collisions d'ions lourds ont été proposées. Dans cette optique, le LHC produira des collisions Pb-Pb à 5.5 TeV/u, qui seront étudiées notamment auprès de l'expérience ALICE. En particulier, son spectromètre à muons permettra d'examiner les sondes muoniques (quarkonia, beauté ouverte, ...). Les performances attendues de ce dispositif pour mesurer des muons et des dimuons sont ici discutées. Des techniques de factorisation sont employées pour différencier les contributions à l'efficacité globale. Les résultats indiquent que le détecteur devrait être capable de mesurer des muons jusqu'à pt~100 GeV/c avec une résolution proche de 10%. On montre que la production des bosons faibles pourra être mesurée pour la première fois dans des collisions d'ions lourds. Les distributions de muons simples en pt et de la masse invariante des dimuons sonderont le W et le Z. Comme les muons issus des décroissances de quarks b et c peupleront principalement le domaine intermédiare en pt de 5-25 GeV/c, les calculs de perte d'énergie des quarks lourds dans le milieu indiquent que le spectre devrait être supprimé d'un facteur 2-4 dans les collisions Pb-Pb les plus centrales 0-10% à 5.5 TeV. Néanmoins, pour pt > 35 GeV/c la production des bosons faibles predomine, et aucune suppression n'est attendue. Des estimations indiquent que le point de croisement entre des muons issus de b et de W diminuera en pt de 5 à 7 GeV/c dans les collisions Pb-Pb les plus centrales 0-10% à 5.5 TeV.
93

Détection et Estimation en Environnement non Gaussien

Pascal, Frédéric 04 December 2006 (has links) (PDF)
Dans le contexte très général de la détection radar, les détecteurs classiques, basés sur l'hypothèse d'un bruit Gaussien, sont souvent mis en défaut dès lors que l'environnement (fouillis de sol, de mer) devient inhomogène, voire impulsionnel, s'écartant très vite du modèle Gaussien. Des modèles physiques de fouillis basés sur les modèles de bruit composé (SIRP, Compound Gaussian Processes) permettent de mieux représenter la réalité (variations spatiales de puissance et nature de fouillis, transitions, ...). Ces modèles dépendent cependant de paramètres (matrice de covariance, loi de texture, paramètres de "disturbance") qu'il devient nécessaire d'estimer. Une fois ces paramètres estimés, il est possible de construire des détecteurs radar optimaux (Generalized Likelihood Ratio Test - Linear Quadratic) pour ces environnements. Cette thèse, qui s'appuie sur ces modèles, propose une analyse complète de diverses procédures d'estimation de matrices de covariance, associées à ce problème de détection. Une étude statistique des principaux estimateurs de matrice de covariance, utilisés actuellement, est réalisée. De plus, un nouvel estimateur est proposé: l'estimateur du point fixe, très attractif grâce à ses bonnes propriétés statistiques et "radaristiques".<br />Elle décrit également les performances et les propriétés théoriques (SIRV-CFAR) du détecteur GLRT-LQ construits avec ces nouveaux estimateurs. En particulier, on montre l'invariance du détecteur à la loi de la texture mais également à la matrice de covariance régissant les propriétés spectrales du fouillis. Ces nouveaux détecteurs sont ensuite analysés sur des données simulées mais également testés sur des données réelles de fouillis de sol.
94

Analyse d'Acides Aminés non dérivés par Chromatographie en Phase Liquide avec le Détecteur Evaporatif à Diffusion de la Lumière et Couplage avec la Spectrométrie de Masse

Chaimbault, Patrick 08 February 2000 (has links) (PDF)
Les acides aminés forment une des plus importantes classes de molécules naturelles. Ils sont impliqués dans de nombreux processus biologiques dont le plus important est sans doute l'élaboration des peptides et protéines. Ils sont pour la plupart dépourvus de groupements chromophores, aussi, la majorité des méthodes chromatographiques proposées pour leur détermination en mélanges implique une dérivation pré- ou post colonne permettant alors une détection spectrophotométrique.<br />Pour éviter l'étape de dérivation, la Chromatographie en Phase Liquide (CPL) est ici associée au Détecteur Evaporatif à Diffusion de la Lumière (DEDL) ou couplée à la Spectrométrie de Masse (SM). Ces deux modes de détection sont quasi universels mais requièrent la mise au point de phases mobiles volatiles.<br />Parmi les systèmes CPL testés pour l'analyse directe des acides aminés, le carbone graphitique poreux a été retenu et évalué comme phase stationnaire. Une phase mobile aqueuse saline, volatile, composée d'acétate d'ammonium, ajustée à pH=9,3, permet notamment la séparation d'acides aminés soufrés analogues de la taurine et la séparation partielle d'acides aminés protéiques. En revanche, la séparation totale des 20 acides aminés protéiques est obtenue avec une phase mobile contenant un acide carboxylique perfluoré (acide nonafluoropentanoique) comme agent d'appariement d'ions volatil, en gradient d'élution, à 10°C, en une quarantaine de minutes.<br />Les systèmes CPL mis au point avec le DEDL sont directement compatibles avec la SM. En utilisant la spécificité de détection de la SM et la SM tandem, l'analyse des acides aminés protéiques est possible en 20 minutes. Si le DEDL ne permet pas de descendre à des concentrations détectées inférieures au mg/l, la SM tandem autorise des limites de détection avoisinant quelques dizaines de µg/l seulement. La CPL-SM tandem a permis le dosage direct d'acides aminés soufrés dans des invertébrés marins.
95

Détecteur en silicium sur cristal photonique par absorption non linéaire à deux photons

Haret, Laurent-Daniel 19 December 2012 (has links) (PDF)
L'optique non linéaire sur silicium a pris son essor en raison des nombreuses perspectives d'applications à l'optoélectronique en circuit intégré. Pour observer des effets non-linéaires sans travailler à des puissances trop élevées, il faut utiliser des résonateurs à très haut facteur de confinement optiques (Q/V). Les microcavités à cristal photonique bidimensionnel sont une technologie mature et planaire pour réaliser de tels résonateurs sur silicium. Au cours de cette thèse, nous avons travaillé sur une application des microcavités à cristal photonique à la détection télécom. Le silicium est en effet transparent dans cette plage de longueurs d'onde, sauf si on atteint des densités de puissance élevées, auquel cas l'absorption à deux photons intervient. Le principe du détecteur repose sur l'exaltation de absorption à deux photons grâce à la microcavité en cristal photonique. La collection des porteurs ainsi générés est assurée par une jonction latérale métal-semiconducteur-métal (MSM). Nous avons d'abord étudié numériquement la viabilité du concept du détecteur sous deux aspects : collection des porteurs libres à travers le cristal photonique et influence des métallisations sur le facteur de qualité. Les modèles standards pour le courant d'obscurité et le photocourant dans les photodétecteurs MSM ont été étendus pour tenir compte du cristal photonique. La fabrication d'une jonction MSM dans le cristal photonique a fait l'objet d'un travail approfondi en salle blanche de l'IEF. La mesure du courant circulant dans le dispositif a permis de mettre en évidence un photocourant résonnant. On retiendra que la réponse peut alors atteindre 90 mA/W et que la bande-passante est supérieure au GHz. Outre la démonstration du détecteur en elle-même, des résultats originaux ont été obtenus. Nous avons montré qu'il est possible de contrôler les densités de porteurs dans les microcavités à cristal photonique en jouant sur la polarisation externe. Enfin, le détecteur est un moyen de mesurer certaines grandeurs essentielles de la physique des microcavités sur silicium, comme l'absorption linéaire résiduelle ou la résistance thermique de la cavité.
96

Collisions profondément inélastiques entre ions lourds auprès du Tandem d'Orsay & Spectroscopie gamma des noyaux exotiques riches en neutrons de la couche fp avec le multi-détecteur germanium ORGAM

Ferraton, Mathieu 20 July 2011 (has links) (PDF)
Les travaux effectués au cours de cette thèse au sein du groupe de structure nucléaire de l'IPN d'Orsay s'articulent autour de la production, en vue d'une étude par spectroscopie gamma, de noyaux exotiques riches en neutron de la couche fp. Dans ce cadre, nous avons mis en place, auprès de l'accélérateur Tandem d'Orsay, un multi-détecteur au germanium baptisé ORGAM, destiné à la spectroscopie gamma à haute résolution. Au cours de l'année 2008-2009, les détecteurs amenés à composer ORGAM ont été testés individuellement, ainsi que le dispositif annexe de réjection Compton, en coopération avec la division instrumentation du laboratoire. Parallèlement, le système d'alimentation automatique en azote liquide, destiné au maintien des détecteurs à basse température, a été amélioré et fiabilisé. L'ensemble du dispositif a été mis en place sur une ligne de faisceau de l'accélérateur tandem avec le concours du personnel technique de l'accélérateur.La première expérience utilisant le dispositif ORGAM a été réalisée en juillet 2009. Cette expérience, dont les données ont été analysées dans le cadre de ce travail, visait à étudier les collisions profondément inélastiques entre un faisceau de 36S accéléré à 154 MeV, et une cible de 70Zn. Un dispositif permettant la détection des particules chargées émises à grand angle a été utilisé afin d'identifier les fragments de ces collisions. Il n'a pas été possible, du fait du fond important induit par la diffusion élastique du faisceau dans la cible, d'identifier directement ces fragments. L'étude des coïncidences gamma-gamma avec le détecteur ORGAM a cependant permis de mettre en évidence de nombreuses cascades de photons désexcitant des noyaux potentiellement produits par les réactions d'intérêt.Les données recueillies au cours d'une autre expérience, réalisée auprès du tandem d'Orsay en 2005, ont été analysées dans le cadre de ce travail. Cette expérience, visant à produire par fusion évaporation entre un faisceau de 14C à 25 MeV et une cible de 48Ca, les noyaux de 59Mn et de 57Cr, a permis d'établir une partie du spectre en énergie d'excitation de ces noyaux, jusqu'à une énergie d'excitation supérieure à 3 MeV.Une étude théorique des noyaux de chrome impairs de la couche fp a été tentée à l'aide d'un modèle phénoménologique de couplage intermédiaire. Ce modèle a permis une description satisfaisante du 53Cr. Les prédictions du modèle, qui ne prend pas en compte l'interaction entre nucléons de valence, se sont avérées beaucoup moins satisfaisante pour les noyaux de 55Cr et 57Cr.
97

LHC luminosity measurement with the ATLAS-MPX detectors

Asbah, Nedaa 12 1900 (has links)
En opération depuis 2008, l’expérience ATLAS est la plus grande de toutes les expériences au LHC. Les détecteurs ATLAS- MPX (MPX) installés dans ATLAS sont basés sur le détecteur au silicium à pixels Medipix2 qui a été développé par la collaboration Medipix au CERN pour faire de l’imagerie en temps réel. Les détecteurs MPX peuvent être utilisés pour mesurer la luminosité. Ils ont été installés à seize différents endroits dans les zones expérimentale et technique d’ATLAS en 2008. Le réseau MPX a recueilli avec succès des données indépendamment de la chaîne d’enregistrement des données ATLAS de 2008 à 2013. Chaque détecteur MPX fournit des mesures de la luminosité intégrée du LHC. Ce mémoire décrit la méthode d’étalonnage de la luminosité absolue mesurée avec les détectors MPX et la performance des détecteurs MPX pour les données de luminosité en 2012. Une constante d’étalonnage de la luminosité a été déterminée. L’étalonnage est basé sur technique de van der Meer (vdM). Cette technique permet la mesure de la taille des deux faisceaux en recouvrement dans le plan vertical et horizontal au point d’interaction d’ATLAS (IP1). La détermination de la luminosité absolue nécessite la connaissance précise de l’intensité des faisceaux et du nombre de trains de particules. Les trois balayages d’étalonnage ont été analysés et les résultats obtenus par les détecteurs MPX ont été comparés aux autres détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité. La luminosité obtenue à partir des balayages vdM a été comparée à la luminosité des collisions proton- proton avant et après les balayages vdM. Le réseau des détecteurs MPX donne des informations fiables pour la détermination de la luminosité de l’expérience ATLAS sur un large intervalle (luminosité de 5 × 10^29 cm−2 s−1 jusqu’à 7 × 10^33 cm−2 s−1 . / In operation since 2008, the ATLAS experiment is the largest of all the experiments at the LHC. The ATLAS-MPX (MPX) detectors installed in ATLAS are based on the Medipix2 silicon pixelated detector which has been developed by the Medipix Collaboration at CERN to perform real-time imaging. They can be used for luminosity measurements. They were installed at sixteen different positions in the ATLAS cavern at the LHC in 2008. The MPX network successfully collected data independently of the ATLAS data recording chain from 2008 to 2013. Each MPX detector provides measurements of the integrated LHC luminosity. This thesis describes the technique for calibrating the luminosity data and performance of MPX detectors for measuring the luminosity in 2012. The calibration was performed via the van der Meer (vdM) scans technique which allows the measurement of the convolved beam sizes in the vertical and the horizontal planes at the ATLAS interaction point (IP1). The determination of the absolute luminosity requires a precise knowledge of the beam intensities and the number of beam bunches. A luminosity calibration constant was determined. The three calibration scans were analyzed and the results were cross-checked among the MPX detectors and other ATLAS sub-detectors specifically dedicated to luminosity measurement. The luminosity determined from the calibration scans was compared to the luminosity of regular runs before and after the vdM scans. The MPX network gives reliable information for the overall ATLAS luminosity determination over a wide dynamic range (luminosity from 5 × 10^29 cm−2 s−1 up to 7 × 10^33 cm−2 s−1).
98

Oscillations des neutrinos sur et hors faisceau : étude des performances du système d’acquisition d’OPERA / Neutrino oscillations " on " and " off -beam" : studies of the OPERA acquisition system performance

Brugière, Timothée 25 February 2011 (has links)
OPERA (Oscillation Project with Emulsion-tRacking Apparatus) est une expérience sur faisceau de neutrino située dans le Hall C du laboratoire souterrain du Gran Sasso (LNGS), en Italie, à une profondeur équivalente à 3.8 km d'eau (correspondant à une coupure en énergie à 1.5 TeV pour les muons à la surface). L'objectif premier d'OPERA est l'observation directe de l'oscillation νμ ➝ ντ dans le secteur des neutrinos atmosphériques par apparition d'événements ντ à 730km de la cible, dans un faisceau (CNGS) quasiment pur en νμ. OPERA est un détecteur hybride contenant une partie cible (~125 000 briques composées d'une succession de feuilles d'émulsion et de plomb) instrumentée et d'un spectromètre. La prise de données a commencé en 2006 et 55 000 événements neutrinos ont été enregistrés à ce jour. Le premier candidat ντ a été observé cette année. Le travail produit pendant cette thèse est axé suivant trois sujets principaux : la définition de règles de déclenchement du système d'acquisition du trajectographe pour les événements neutrinos du faisceau, la synchronisation des éléments du trajectographe et des plans de RPC ainsi que l'implémentation des résultats dans la simulation et l'étude de la faisabilité d'une analyse des oscillations des neutrinos atmosphériques dans les données hors-faisceau. La modification des règles de déclenchement du trajectographe a permis d'atteindre les valeurs proposées dans le proposal d'OPERA, ie une efficacité de déclenchement supérieure à 99%. Cette évolution a été rendu possible par la mise en place de fenêtres en temps en coïncidence avec le faisceau CNGS pendant lesquelles les coupures sont abaissées, permettant de récupérer les événements de basse multiplicité. Une étude poussée de l'intercalibration des détecteurs électroniques a permis la synchronisation de l'ensemble des informations venant des éléments du trajectographe et des RPC. Les résultats de cette analyse sont maintenant inclus dans la simulation du détecteur. Le travail de calibration a permis de produire une étude sur l'oscillation des neutrinos atmosphériques "hors-faisceau" grace à la détection de particules montantes. Les analyses présentées dans cette thèse ont permis une meilleure compréhension du détecteur d'OPERA et démontré sa capacité à observer des phénomènes ne dépendant pas du faiseau CNGS. Des analyses sur la détection des neutrinos atmosphériques et la caractérisation du flux de muons cosmiques (variations saisonnières entre autres) sont désormais possibles grace à la statistique accumulée et la compréhension plus fine des systèmes d'acquisition. Les corrections sur la propagation des signaux dans les détecteurs électroniques sont aujourd'hui utilisées pour la mesure de la vélocité des neutrinos du faisceau / OPERA (" Oscillation Project with Emulsion-tRacking Apparatus ") is a neutrino beam experiment located in hall C of the Gran Sasso underground laboratory (LNGS), in Italia, under a equivalent of 3.8 km water (corresponding to a cut at 1.5 TeV for the muons). The first purpose of OPERA is the direct observation of the νμ ➝ ντ oscillation in the atmospheric sector observing an ντ appearance 730 km away from the target in a quasi pure νμ beam (CNGS). OPERA is an hybrid detector with an instrumented target part (~125 000 bricks made with emulsion and lead sheets) and a spectrometer. The data taking have started in 2006 and 55 000 events have been registred. The first ντ candidate have been observed this year. The work done during this thesis is oriented around three main topics : Define the trigger rules of the target tracker acquisition system for beam neutrino events, synchronise target tracker and RPC elements, implement the results inside the simulation and the study of the feasibility of an atmospheric neutrino analysis using off-beam data. The new trigger rules succeeds to reach the values of OPERA proposal, ie a trigger efficiency greater than 99%. This improvement have been done thanks to coincidence time windows with the CNGS beam during which lower cut are applied, allowing low multiplicity events to be kept. A deep study of electronic detectors intercalibration makes possible the target tracker and RPC data synchronisation. The analysis results are now included in the official simulation. This calibration work have been then used for a study of " off-beam " atmospheric neutrino oscillation thanks to the selection of up-going particles. The analysis showed in the thesis have improved the OPERA detector understanding and demonstrate the feasability of an observation of phenomenoms independant from the CNGS beam. Analysis on atmospherics neutrino detection and muons flux caracterisation (seasonal variations for example) are now possible thanks to the accumulated statistics and the deeper understanding of the acquisition systems. Correction on signal propagation inside the electronic detectors are now used for a neutrino velocity measurement
99

Optimisation de la performance thermique du détecteur Pixel Alpine / Optimization of the Thermal Performance of the Alpine Pixel Detector

Zhang, Zhan 01 December 2015 (has links)
Le détecteur ATLAS est le plus grand détecteur après du Grand Collisionneur de hadrons (LHC) du CERN. L'un des objectifs les plus importants de ATLAS était la recherche de la pièce manquante du Modèle Standard, le boson, de Higgs, qui a été trouvé en 2012. Afin de continuer à chercher les inconnues, il est prévu d'améliorer le LHC. La haute luminosité pour le LHC est un projet, visant à augmenter la luminosité d'un facteur cinq ou plus au-dessus de la conception nominale. En parallèle à l'amélioration de l'accélérateur aussi ATLAS sera amélioré pour faire face au vieillissement des détecteurs et parvenir à la même ou meilleure performance avec un taux d'événements augmenté et une dose de rayonnement plus important.Cette thèse discute un nouveau design pour le détecteur pixel d'ATLAS , appelé “détecteur Alpine“ , pour la phase de haute luminosité du LHC. La structure du support local du détecteur Alpine est proposé, optimisé et testé avec un système avancé de refroidissement à deux phases qui utilise le dioxide de carbone ( CO2).Un programme de simulation du transfert de chaleur par évaporation du CO2 est mis au point au utilisant les modelés le plus récent de transfert de chaleur du CO2 pour caractériser le fonctionnement d'un évaporateur. Ce programme peut être utilisé pour analyser les aspects concernant les paramètres du système de refroidissement à l'intérieur et à l'extérieur du détecteur. Dans cette thèse, ce programme est principalement utilisé pour vérifier que un système à deux phases avec le CO2 peut être employé pour refroidir le détecteur Alpine. Plusieurs fonctions de calcule sont intégrées dans le programme dans une interface utilisateur graphique (GUI) afin d'avoir une large utilisation à l'intérieur de la communauté ATLAS.Pour faciliter l'analyse de la performance thermique du prototype, le modèle de la structure de support local est construit et analysé par analyse par éléments finis (FEA). Des nouveaux matériaux sont étudiés afin de faire face à la plus forte densité de puissance dégagée pour les modules au cours de la prise de donnée du HL-LHC.Les deux simulations par le programme numérique et par FEA sont combinées a fin de caractériser la performance thermique des deux prototypes: prototype Proof-of-Concept (PoC) et prototype Démonstration Fonctionnelle (FD). Ils sont produits par une société et un laboratoire de recherche respectivement et sont analysées et testées. Des études préliminaires des incertitudes les résultats ont été effectués. Les mesures du prototype PoC montrent que le refroidissement par évaporation du CO2 est efficace pour le détecteur Alpine.Par contre le premier prototype FD produit sur la base de la géométrie alpin avec une amélioration limitée de la matière n'aboutit pas à un résultat satisfaisant. Effets possibles pendant la production sont identifiés. Afin d'obtenir la performance thermique attendue, les futurs prototypes FD seront produits avec une procédure de production améliorée et de nouveaux matériaux. / The ATLAS (A Toroidal LHC ApparatuS) detector is the largest detector of the Large Hadron Collider (LHC). One of the most important goals of ATLAS was to search for the missing piece of the Standard Model, the Higgs boson that had been found in 2012. In order to keep looking for the unknowns, it is planned to upgrade the LHC. The High Luminosity Large Hadron Collider (HL-LHC) is a novel configuration of the accelerator, aiming at increasing the luminosity by a factor five or more above the nominal LHC design. In parallel with the accelerator upgrade also the ATLAS will be upgraded to cope with detector aging and to achieve the same or better performance under increased event rate and radiation dose expected at the HL-LHC.This thesis discusses a novel design for the ATLAS Pixel Detector called the Alpine layout for the high luminosity of the LHC. To support the Alpine Pixel Detector, a local support structure is proposed, optimized and tested with an advanced CO2 two-phase cooling system.A numerical program simulating the CO2 evaporative heat transfer flowing through a pipe is developed by the author of this thesis using the most up to date CO2 heat transfer models to characterize the heat transfer properties of an evaporator. This program can be used to analyze the aspects concerning the parameters of the cooling system inside and outside the detector. In this thesis, the program is mainly used to verify that a CO2 two-phase system can be used to efficiently cool down the Alpine Detector. Several functions in the program are built into a Graphic User Interface (GUI) in order to facilitate a wide use inside the ATLAS community.A model of the local support structure is built and analyzed by Finite Element Analysis (FEA) in order to facilitate the analysis of the thermal performance of the prototype. Candidate new materials are investigated in order to cope with the high power density from the detector modules during HL-LHC. The two simulations (the CO2 evaporative numerical program and the FEA ) are combined to characterize the thermal performance of two prototypes: Proof-of-Concept (PoC) prototype and Functional-Demonstration (FD) prototype. They are produced by a company and an institute respectively and are analyzed and tested. Studies of the systematic uncertainty affecting the result are present. The PoC prototype measurement shows that the Alpine design can be effectively cooled down. The measurements agree with the predictions within the considered systematic uncertainties. The first FD prototype produced based on the Alpine geometry with limited improvement on materials yet show a less satisfactory behavior. Possible effects occurring during the production that can be improved are identified. The future FD prototypes will be produced with an improved production procedure and using new materials in order to obtain the expected thermal performance
100

Etude et conception d’un détecteur 2D transparent permettant le suivi en temps réel de l'administration des traitements rcmi / Study and conception of a 2D transparent detector to monitor the beam in real time for modulated radiotherapy treatments

Fonteille, Isabelle 27 May 2016 (has links)
La Radiothérapie Conformationnelle avec Modulation d'Intensité (RCMI), aussi dénommée IMRT, est une technique avancée de radiothérapie de haute précision qui repose sur l'utilisation d'un collimateur multi-lames, placé en sortie de l'accélérateur, dont les lames vont se déplacer pendant la séance d'irradiation afin de produire un faisceau d'intensité modulée, adaptée à la forme des structures anatomiques du patient. Un tel dispositif permet d'obtenir une répartition de dose homogène dans le volume cible et d'épargner au mieux les tissus sains environnants1, ouvrant la voie à l'escalade de dose et donc à l'amélioration des résultats thérapeutiques. Néanmoins, la mise en œuvre d'une telle technique nécessite la réalisation d'un contrôle du système de délivrance de la dose de manière à s'assurer que la fluence délivrée par l'appareil de traitement est bien conforme à la fluence attendue. / Intensity Modulated Radiotherapy (IMRT) is a high-precision radiotherapy technique based on the use of a multi-leaf collimator, placed at the output of the accelerator. The modulation is adapted to the patient's anatomical structures and obtained by leaves movement during the beam administration. To ensure that the delivered fluence is consistent with the expected one, a control is necessary. In clinical routine, this control isn't achieved on the patient, but on a phantom, before the beginning of the treatment New emerging solutions make possible an online control, done during the treatment of the patient. They can be divided into three classes: those which use data acquired by the accelerator, those which exploit the portal imager and those which use a dedicated detector placed at the exit of the head of the accelerator, upstream of the patient. The thesis work presented here relate to the development of a detector of this third class, Tradera (Transparent Detector for Radiotherapy). The choice was made to use a segmented plane ionization chamber.The first phase of the project was to design the detector thanks to studies made by Monte Carlo simulations. For this it was necessary to model the photon beam. The choice of a point source of photons, quick to set up, has been retained. The characteristics of the particles at the detector input obtained with our model were compared with those obtained with a more complex model: a phase space obtained from the database of the IAEA. Once the model validated, Geant4 code was used to size the various elements of our detector. A innovative geometry has been proposed. It consists in introducing material in the sensitive volume of the detector to limit the lateral travel of the electrons from the interaction of photons, and thus improve the spatial resolution of the detector. In practice, a checkerboard with plastic pads is introduced in the sensitive volume. The benefit of this solution has been shown by simulations.The second phase was to assess a prototype in a clinical beam with radiation equipment and test the performance of various associated acquisition electronics. For a long time, reading was made at the output of a single channel at a time. First, a picoammeter was used to measure the average output current. Then the ionization current has been studied at the time scale of a pulse of the beam, allowing the development of a charge preamplifier dedicated to our application. This charge preamplifier permit to know, for a single beam pulse, the electrical charge measured by one channel of the prototype with a uncertainty of 5%, and thus makes it possible to study the evolution of the charge pulse as a function of irradiation time. Once the choice of this readout electronics was validated, the charge preamplifier was realized in small series : the acquisition in multi-channels on an area of ​​3 cm square was possible. The first beam images could then be obtained for static and dynamic beam.

Page generated in 0.0759 seconds