Spelling suggestions: "subject:"détecteurs"" "subject:"detecteurs""
181 |
Étude de la pré-formation de particules α dans les noyaux de 40Ca et d'40Ar par cassure nucléaire / Study of α clusters in 40Ca and 40Ar through nuclear break-upLefebvre, Laurent 20 September 2013 (has links)
Le noyau est un objet quantique complexe formé de protons et neutrons. Dans l'approche champ moyen, les nucléons sont considérés comme des particules indépendantes évoluant dans un potentiel moyen. Cependant dans certaines conditions, des nucléons peuvent se regrouper pour former des amas ou « clusters ».Pour comprendre ce phénomène de « clusters » dans les noyaux, nous avons étudié la structure dans l'état fondamental du 40Ca et de l'40Ar. En effet, des calculs théoriques tendent à montrer que les noyaux N = Z pourraient plus facilement adopter une structure en « clusters » que les noyaux N ≠ Z en raison d'un plus grand recouvrement des fonctions d'onde des neutrons et protons. Dans ce cas, l'émission de particules α par les noyaux N = Z sous l'effet du potentiel nucléaire attractif d'un noyau projectile, appelée « Towing-Mode » sera plus important que pour un noyau N ≠ Z. Dans ce but, nous avons réalisé une expérience au GANIL utilisant un faisceau d'40Ar à 35 MeV/A et une cible de 40Ca. Le spectromètre SPEG a permis d'identifier avec une très bonne résolution les ions lourds produits durant la réaction. Les détecteurs silicium MUST2 furent placés tout autour de la cible pour mesurer les particules α émises par la cible et le projectile et le prototype de calorimètre EXL fut utilisé pour la détection des photons de décroissance des noyaux résiduels d'36Ar et de 36S.Un modèle théorique basé sur la résolution de l'équation de Schrödinger dépendante du temps (TDSE) a été utilisé pour reproduire certains résultats expérimentaux comme les distributions angulaires. L'analyse des données a permis de reconstruire des spectres d'énergies d'excitation et des sections efficaces différentielles. De la comparaison entre ces distributions expérimentales et celles calculées par le modèle théorique, nous avons pu extraire des facteurs spectroscopiques Sα pour les deux noyaux d'intérêt. Les taux de « clusterisation » observés pour ces deux noyaux semblent indiquer que la structure en « clusters » n'est pas plus favorisée dans le 40Ca que dans l'40Ar. / Nuclei are complex self-bound systems formed by nucleons. Conjointly to a mean-field picture in which nucleons can be regarded as independent particles, few nucleons might self-organize into compact objects, called clusters, inside the nucleus. It is theoretically predicted that it should manifest itself most strikingly for N = Z nuclei close to the emission thresholds and has been studied extensively in this region. We propose to study α-clusterization in the ground state of the N = Z 40Ca nucleus and the N ≠ Z 40Ar nucleus. We have studied the nuclear break-up of 40Ca when the 40Ar projectile passes by. If α clusters are preformed in 40Ca, the probability of α-emission through nuclear break-up will be enhanced as compared to 40Ar N ≠ Z nuclei. The nuclear break-up of 40Ca was studied with an 40Ar beam produced at GANIL at 35 MeV/A. The SPEG spectrometer was used to detect the heavy projectile with accurate resolution. The MUST2 Silicon detectors were placed around the target to measure the emitted α and the EXL calorimeter prototype was used to identify the γ rays from the decay of the residual 36Ar and 36S.A theoretical approach based on Time-Dependent Schrödinger Equation (TDSE) theory has been used to reproduce some experimental results like angular distributions.From the data analysis, we reconstructed excitation energy spectra and angular distributions which are compared to TDSE theory to extract some spectroscopic factors Sα. These factors show that there is no more clusterization state in the ground state of the 40Ca than in the ground state of 40Ar.
|
182 |
Développement d'un télescope Comton avec un calorimètre imageur 3D pour l'astronomie gamma / Development of a Compton Telescope with 3D Imaging Calorimeter for Gamma-Ray AstronomyGostojić, Aleksandar 21 April 2016 (has links)
La thèse porte sur le développement d’un petit prototype de télescope Compton pour l'astronomie gamma spatiale dans la gamme d’énergie du MeV (0.1-100 MeV). Nous avons étudié de nouveaux modules de détection destinés à l'imagerie Compton. Nous avons assemblé et testé deux détecteurs à scintillation, l'un avec un cristal de bromure de lanthane dopé au cérium (LaBr₃:Ce) et l'autre avec un cristal de bromure de cérium (CeBr₃). Les deux cristaux sont couplés à des photomultiplicateurs multi-anodes 64 voies sensibles à la position. Notre objectif est d’optimiser la résolution en énergie en même temps que la résolution en position du premier impact d'un rayon gamma incident dans le détecteur. Les deux informations sont vitales pour la reconstruction d'une image avec le prototype de télescope à partir de l’effet Compton. Nous avons développé un banc de test pour étudier expérimentalement les deux modules, avec une électronique de lecture et un système d'acquisition de données dédiés. Nous avons entrepris un étalonnage précis du dispositif et effectué de nombreuses mesures avec différentes sources radioactives. En outre, nous avons réalisé une simulation numérique détaillée de l'expérience avec le logiciel GEANT4 et effectué une étude paramétrique extensive pour modéliser au mieux la propagation des photons ultraviolet de scintillation et les propriétés optiques des surfaces à l'intérieur du détecteur. Nous avons alors développé une méthode originale de reconstruction de la position d’impact en 3D, en utilisant un réseau de neurones artificiels entrainé avec des données simulées. Nous présentons dans ce travail tous les résultats expérimentaux obtenus avec les deux modules, les résultats de la simulation GEANT4, ainsi que l'algorithme basé sur le réseau de neurones. En plus, nous donnons les premiers résultats sur l'imagerie Compton obtenus avec le prototype de télescope et les comparons avec des performances simulées. Enfin, nous concluons en donnant un aperçu des perspectives d'avenir pour l'imagerie gamma Compton et considérons une application possible en discutant d’un concept de télescope spatial semblable à notre prototype. / The thesis aims to develop a small prototype of a Compton telescope for future space instrumentation for gamma-ray astronomy. Telescope’s main target is the MeV range (0.1-100MeV). We studied novel detector modules intended for Compton imaging. We assembled and tested 2 modules, one with a cerium-doped lanthanum(III) bromide (LaBr₃:Ce) crystal and the other with cerium(III) bromide (CeBr₃). Both modules are coupled to and read out by 64-channel multi-anode PMTs. Our goals are to obtain the best possible energy resolution and position resolution in 3D on the first impact of an incident gamma-ray within the detector. Both information are vital for successful reconstruction of a Compton image with the telescope prototype. We developed a test bench to experimentally study both modules and have utilized a customized readout electronics and data acquisition system. We conducted a precise calibration of the system and performed experimental runs utilizing different radioactive sources. Furthermore, we have written a detailed GEANT4 simulation of the experiment and performed an extensive parametric study on defining the surfaces and types of scintillation propagation within the scintillator. We utilized simulated data to train an Artificial Neural Network (ANN) algorithm to create a simplified 3D impact position reconstruction method and in addition developed an approximation routine to estimate the standard deviations for the method. We show all experimental results obtained by both modules, results from the GEANT4 simulation runs and from the ANN algorithm. In addition, we give the first results on Compton imaging with the telescope prototype and compare them with simulated performance. We analyzed and discussed the performance of the modules, specifically spectral and position reconstruction capabilities. We conclude by giving an overview of the future prospects for gamma-ray imaging and consider possible applications showing a concept of a space telescope based on our prototype.
|
183 |
Approche d'intégrité bout en bout pour les communications dans les systèmes embarqués critiques : application aux systèmes de commande de vol d'hélicoptères / End to end integrity approach for communication incritical embedded systems : application to helicopters flight control systemsZammali, Amira 13 January 2016 (has links)
Dans les systèmes embarqués critiques, assurer la sûreté de fonctionnement est primordial du fait, à la fois, des exigences en sûreté dictées par les autorités de certification et des contraintes en sûreté de ces systèmes où des défaillances pourraient conduire à des évènements catastrophiques, voire la perte de vies humaines. Les architectures de ces systèmes sont aujourd'hui de plus en plus distribuées, s'appuyant sur des réseaux numériques complexes, ce qui pose la problématique de l'intégrité des communications. Dans ce contexte, nous proposons une approche bout en bout pour l'intégrité des communications, basée sur le concept du " canal noir " introduit par l'IEC 61508. Elle utilise les codes détecteurs d'erreurs CRC, Adler et Fletcher. Selon le niveau de redondance des systèmes, nous proposons une approche multi-codes (intégrité jugée sur un lot de messages) pour les systèmes dotés d'un niveau de redondance important et une approche mono-code (intégrité jugée sur chaque message) pour les autres cas. Nous avons validé ces propositions par des expérimentations évaluant le pouvoir de détection intrinsèque de chaque code détecteur et la complémentarité entre ces code en termes de pouvoir de détection, ainsi que leurs coûts de calcul avec une analyse de l'impact du type de leur implémentation et de l'environnement matériel (standard et embarqué : processeurs i7, STM32, TMS320C6657 et P2020). L'approche mono-code a été appliquée à un cas d'étude industriel : les futurs systèmes de commande de vol d'Airbus Helicopters. / In critical embedded systems, ensuring dependability is crucial given both dependability requirements imposed by certification authorities and dependability constraints of these systems where failures could lead to catastrophic events even loss of human lives. The architectures of these systems are increasingly distributed deploying complex digital networks which raise the issue of communication integrity. In this context, we propose an end to end approach for communication integrity. This approach is based on the "black channel" concept introduced by IEC 61508. It uses error detection codes particularly CRC, Adler and Fletcher. Depending on the redundancy level of targeted systems, we propose a multi-codes approach (integrity of a set of messages) for systems with an important redundancy level and a single- code approach (integrity per message) for the other cases. We validated our proposals through experiments in order to evaluate intrinsic error detection capability of each error detection code, their complementarity in terms of error detection and their computational costs by analyzing the impact of the type of implementation and the hardware environment (standard or embedded: i7, STM32, TMS320C6657 and P2020 processors). The single-code approach was applied to an industrial case study: future flight control systems of Airbus Helicopters.
|
184 |
Modélisation Monte Carlo du CyberKnife M6 et ses applications à la dosimétrie de petits champs de radiothérapieDuchaine, Jasmine 06 1900 (has links)
L’appareil de radiochirurgie CyberKnife performe des traitements avancés de radiothérapie qui offrent des avantages nets pour certains types de cancer. Or, cet appareil produit uniquement des petits faisceaux circulaires ce qui complexifie les procédures de dosimétrie en milieu clinique. En effet, en conditions de petits champs, les diverses perturbations au niveau du détecteur peuvent être très grandes. Ainsi, l’utilisation de la méthode Monte Carlo est nécessaire lors de l’étalonnage et la caractérisation de faisceaux. Ces processus, lors desquels des valeurs de dose de référence et relative sont mesurées et entrées dans les systèmes de planification de traitement, assurent l’efficacité des traitements ainsi que la sécurité des patients. Cette thèse porte sur la modélisation Monte Carlo du CyberKnife M6 et étudie diverses applications à la dosimétrie de petits champs de radiothérapie.
En premier lieu, une nouvelle méthode permettant la correction de la dépendance au débit de dose des diodes au silicium est proposée. Cette dernière est validée puis appliquée à des mesures relatives effectuées au CyberKnife du Centre hospitalier de l’Université de Montréal (CHUM). Les résultats illustrent la correction de l’erreur systématique induite dans les mesures due à la dépendance au débit de dose de la diode considérée. La méthode proposée fournit alors une solution efficace à cette problématique.
En second lieu, une méthode pour l’optimisation des paramètres sources requis en entrée lors de la modélisation Monte Carlo de faisceaux de radiothérapie est introduite. Cette dernière est basée sur une approche probabiliste portant sur la comparaison de mesures et de simulations pour divers détecteurs, et permet la détermination de l’énergie du faisceau d’électrons incident sur la cible d’un appareil, ainsi que de la largeur à mi-hauteur de sa distribution radiale. La méthode proposée, qui est appliquée au CyberKnife du CHUM, fournit une nouvelle approche permettant l’optimisation d’un modèle Monte Carlo d'un faisceau ainsi que l’estimation des incertitudes sur ses paramètres sources.
En troisième lieu, le modèle de faisceau du CyberKnife développé est utilisé afin d’estimer l’impact des incertitudes des paramètres sources sur diverses fonctions dosimétriques couramment utilisées en milieu clinique, ainsi que sur des distributions de dose obtenues par simulation de plans de traitement. Les résultats illustrent l’augmentation de l’impact des incertitudes du modèle de faisceau avec la réduction de la taille de champ, et fournissent une nouvelle perspective sur la précision de calcul atteignable pour ce type de calcul de dose Monte Carlo en petits champs.
En quatrième lieu, les protocoles de dosimétrie TG-51 (version adaptée du manufacturier) et TRS-483 sont respectivement appliqués et comparés pour l’étalonnage du CyberKnife M6 se trouvant au CHUM. Il est observé que le TRS-483 est cohérent avec le TG-51. Des facteurs de correction de la qualité et corrigeant pour les effets de moyenne sur le volume propres au CyberKnife du CHUM sont estimés par simulations Monte Carlo pour une chambre à ionisation Exradin A12. Les résultats illustrent que la valeur générique fournie dans le TRS-483 pourrait être surestimée en comparaison à notre modèle de CyberKnife et que cette surestimation pourrait être due à la composante de moyenne sur le volume. / The CyberKnife radiosurgery system performs advanced radiotherapy treatments that offer clear benefits for certain types of cancer. However, this device produces small circular fields only, which complicates dosimetry procedures in a clinical environment. Indeed, under small field conditions, the various perturbations at the detector level can become very large. Thus, the use of the Monte Carlo method is necessary when calibrating and characterizing beams. Such processes, during which reference and relative dose values are measured and entered into treatment planning systems, ensure the validity of treatments as well as patient safety. This thesis focuses on the Monte Carlo modeling of the CyberKnife M6 and studies various applications to small photon fields dosimetry.
Firstly, a new method for the correction of the dose rate dependency of silicon diode detectors is proposed. The latter is validated and applied to relative measurements performed at the CyberKnife of the Centre hospitalier de l’Université de Montréal (CHUM). Results illustrate the correction of the systematic error induced in the measurements due to the dose rate dependency of the considered diode. The proposed method provides an efficient solution to this issue.
Secondly, a method for the optimization of the source parameters required as input during Monte Carlo beam modeling is introduced. The latter is based on a probabilistic approach and on the comparison of measurements and simulations for various detectors. The method allows the determination of the energy of the electron beam incident on the target of a linac, as well as the full width at half-maximum of its radial distribution. The proposed method, which is applied to the CyberKnife unit of the CHUM, provides a new approach for the optimization of a Monte Carlo beam model and a way to estimate the uncertainties on its source parameters.
Thirdly, the developed CyberKnife beam model is used to estimate the impact of source parameter uncertainties on various dosimetric functions commonly used in the clinic environment, and on dose distributions obtained by simulation of treatment plans. Results illustrate the increase of the impact of beam modeling uncertainties with the decrease of the field size, and provide insights on the reachable calculation accuracy for this type of Monte Carlo dose calculation in small fields.
Lastly, the TG-51 (manufacturer’s adapted version) and TRS-483 dosimetry protocols are respectively applied and compared for the calibration of the CHUM’s CyberKnife. We observe that TRS-483 is consistent with TG-51. Beam quality and volume averaging correction factors specific to the CHUM's CyberKnife are estimated using Monte Carlo simulations for an Exradin A12 ionization chamber. Results illustrate that the generic value provided in the TRS-483 could be overestimated in comparison to our CyberKnife model and that this overestimation could be due to the volume averaging component.
|
185 |
A contribution to gamma-ray astronomy of GeV-TeV Active Galaxies with Fermi and H.E.S.S.Giebels, Berrie 20 April 2011 (has links) (PDF)
L'astronomie des rayons g de haute (E > 100MeV, HE) et de très haute énergie (E 100GeV, VHE) ont effectué des progrès considérables en moins d'une décennie. Le nombre de sources émettrices dans ce régime d'énergie a augmenté de plus d'un ordre de grandeur, de nouvelles classes d'émetteurs ont été découvertes et des nouvelles sous-classes ont été établies basées sur l'émission gamma, et les sources connues sont à présent résolues à des échelles spatiales ou temporelles sans précédent révélant de nouvelles propriétés. Les noyaux actifs de galaxie (AGN) sont l'une des classes d'émetteurs les plus énergétiques, dont le pic de puissance émis dans le spectre électromagnétique peut dans certains cas dépasser la capacité de mesure des instruments actuels, et dont l'investigation requiert la maîtrise simultanée du ciel g HE et VHE qu'apportent les expériences Cerenkov au sol (atmospheric Cerenkov telescope, ou ACT) et le satellite Fermi.
|
186 |
Influence de la structure des couverts végétaux en télédétection de la fluorescence chlorophyllienneFournier, Antoine 28 November 2011 (has links) (PDF)
La télédétection de la végétation continentale repose classiquement sur des indices de réflectance qui renseignent sur l'état des couverts (indice foliaire, fraction de trou, biomasse). L'émission de fluorescence qui accompagne l'activité photosynthétique porte une information sur le fonctionnement de la végétation. Les récentes évolutions instrumentales permettent de suivre la fluorescence des couverts, néanmoins l'interprétation de ce signal en termes physiologiques nécessite de prendre en compte l'influence de la structure du couvert sur le signal de fluorescence. Le défi actuel est de passer du niveau de la feuille (2D) au niveau des couverts végétaux (3D). Un premier travail a été le développement d'un dispositif pour la mesure quantitative de la déformation spectrale de l'émission de fluorescence lors du changement d'échelle. Ce dispositif appliqué sur différents couverts, a permis d'identifier les paramètres prépondérants de la déformation spectrale. La simulation à l'aide du modèle FluoSAIL confirme ces observations. Un couvert de blé sénescent (3D, non fluorescent) a également été suivi pour quantifier l'impact de la géométrie du couvert sur la mesure de fluorescence. Une simulation réalisée à l'aide des modèles SAIL et MODTRAN a permis de dégager les configurations de mesures pour lesquelles cet effet peut être négligé. Les campagnes de mesures ont également permis d'approfondir la signification de la fluorescence mesurée au niveau du couvert. En particulier, la mesure simultanée de fluorescence et d'échanges gazeux d'un couvert agricole a permis l'étude de la relation entre les indices de fluorescence et l'assimilation de CO2 du couvert.
|
187 |
Mesure et analyse du rayonnement Xmou d'un plasma de Tokamak en vue d'un contrôle en temps réel / Soft X-Ray measurements and analysis on Tokamaks in view of real-time controlVezinet, Didier 22 October 2013 (has links)
Cette thèse est centrée sur la mesure et l'interprétation du rayonnement X mou ([1 keV; 15 keV] environ) dans les Tokamaks. Le chapitre 2 montre que ce rayonnement véhicule des informations sur la température et la densité du plasma, sur sa configuration magnétique, et sur son contenu en impuretés. Malheureusement les mesures effectuées sont intégrées spatialement et spectralement et résultent des contributions de tous les ions présents.Le diagnostic X mou de Tore Supra s'articule autour de diodes semi-conductrices présentée dans le chapitre 3 aux côté d'un détecteur à gaz testé avec succès. Une nouvelle méthode de détermination de la réponse spectrale d'un photodétecteur n'utilisant qu'un tube X mou portable est également décrite.Les inversions tomographiques, qui permettent d'accéder au champ d'émissivité reconstruit dans une section poloidale, font l'objet du chapitre 4. Les améliorations apportées à un algorithme particulier sont détaillées.Une comparaison systématique entre les positions horizontales du maximum d'émissivité et de l'axe magnétique est présentée au chapitre 5.Le chapitre 6 décrit une hypothèse concernant la résilience de la fonction de rayonnement X mou d'une impureté vis-à-vis du transport de cette impureté. Cette hypothèse permet de déduire la densité d'une impureté de son émissivité X mou. Les processus physiques justifiant cette hypothèse, ainsi que leur domaine de validité sont analysés avec soin.Le chapitre 7 présente les asymétries poloidales d'émissivité X mou. Les premiers résultats d'expériences mises en oeuvres à ASDEX-U pour vérifier les dépendences paramétriques de deux types particuliers d'asymétries sont détaillés. / This thesis focuses on measuring and interpreting the Soft X-Ray (SXR) radiation (approximately [1 keV; 15 keV]) in Tokamaks.As explained in Chapter 2, this radiation conveys information about the plasma density, temperature, magnetic equilibrium and impurity content. However, the measured data is spectrally and spatially-integrated and results from several physical phenomena affecting every ion species. Tore Supra's SXR diagnostics is based on semiconductor diodes presented in Chapter 3, along with a new gas detector successfully tested in laboratory and on Tore Supra. A new methodology for absolute spectral characterisation of photo detectors using a portable SXR tube is presented. Tomographic inversion algorithms, that grant access to reconstructions of the SXR emissivity field in a poloidal cross-section, are presented in Chapter 4. Improvements implemented on one particular algorithm are detailed with examples of application. A comparison between the position of the SXR emissivity maximum and the magnetic axis reconstructed by an equilibrium code is presented in Chapter 5.Chapter 6 presents an approach used to derive an impurity density from its SXR emissivity using the robustness of its SXR cooling factor with respect to impurity transport. The physics accounting for this robustness is studied and a first map of the domain of validity of this method is provided. Chapter 7 addresses poloidal asymmetries of the SXR emissivity field. Two types of asymmetries are presented as well as experiments conducted on ASDEX-U to verify their parametric dependences. A new type of SXR asymmetry, observed on Tore Supra is introduced.
|
188 |
Étude et réalisation d'un radar ULB à conjugaison de phase en micro-ondesBellomo, Lucio 16 February 2012 (has links) (PDF)
Cette thèse s'inscrit dans le domaine de l'imagerie non-destructive en électromagnétisme. L'originalité du travail réside, tout d'abord, dans sa forte connotation expérimentale. Celle-ci a abouti à la construction d'un prototype RADAR capable d'acquérir des données multisources-multistatiques dans la gamme de fréquence [2-4] GHz. De plus, ce système implémente la formation de voies au moyen d'un réseau d'atténuateurs/déphaseurs commandé numériquement.Les expériences menées relèvent, d'une part, de l'imagerie qualitative. Le Retournement Temporel, ainsi que les méthodes DORT et TR-MUSIC, ont été appliqués afin de détecter et localiser des cibles diffractantes. Le cas des milieux réverbérants a notamment été abordé.D'autre part, le prototype a été utilisé dans le cadre de la diffraction inverse quantitative sur des données très limitées en ouverture. Un algorithme itératif non-linéarisé prenant en compte l'aspect multi-fréquentiel des données a été adapté à la configuration expérimentale notamment grâce à une procédure de calibration performante.Enfin, la possibilité de greffer les avantages du Retournement Temporel sur ces techniques quantitatives a été étudiée. L'objectif est l'amélioration des résultats dans des milieux aléatoires proches de ceux rencontrés notamment en imagerie médicale (détection de tumeurs) ou en sondage du sous-sol (détection de mines, de nappes de pétrole).
|
189 |
Etude théorique et expérimentale des corrections électrofaibles au processus de production inclusive de jets. Développement de méthodes de détection de topologies extrêmes.Meric, Nicolas 19 September 2013 (has links) (PDF)
Nous avons réalisé une étude du comportement des processus de production inclusive de jets et de production associée d'un boson vecteur faible et de jets du point de vue phénoménologique et expérimental dans le cadre de l'expérience ATLAS au LHC pour comprendre quel est l'impact des logarithmes de Sudakov dans les corrections electrofaibles et lors de la production associée de bosons vecteurs faibles et de jets au LHC. En particulier l'étude des corrections électrofaibles au processus de production inclusive de jets, du fait de l'émission de bosons faibles réels par les quarks a été réalisée à 7TeV, 8TeV et 14TeV à l'aide des générateurs MCFM et NLOjet++. Cette étude a permis de mettre en évidence, pour la mesure de la section efficace de production inclusive de jets, l'annulation partielle des corrections virtuelles électrofaibles (dans le cas où les bosons faibles interviennent dans les boucles) lorsque les corrections électrofaibles avec émission réelle de bosons faibles sont ajoutées. L'annulation de Bloch-Nordsieck est donc partiellement rétablie pour ce processus. Nous avons ensuite participé à la mesure des sections efficaces de production inclusive de jets et de production associée d'un boson vecteur avec au moins un jet, à une énergie de 7TeV dans le centre de masse de collision de protons avec l'expérience ATLAS au LHC. Nous avons, dans le cadre de ces mesures, étudié le bruit de fond QCD pour le processus W+jets dans le canal muonique. Les résultats obtenus dans le canal muonique ont ensuite été combinés et comparés afin de mettre en évidence le comportement des corrections électrofaibles liées à l' émission réelle d'un boson faible par les jets. En particulier, cette étude semble mettre en avant la présence de plusieurs effets qui augmentent la section efficace différentielle de production associée d'un boson faible et de jets. Cette étude est une étude préliminaire dont le but est de mettre en évidence l'intérêt de comparer les processus de production associée étudiés dans cette thèse avec les processus purement hadroniques. Finalement, une étude exhaustive des bruits de fond détecteur affectant le calorimètre électromagnétique a été réalisée. Cette étude a permis le développement d'une nouvelle méthode de détection temporelle et spatiale dans le but de détecter en toute circonstance la présence de tels bruits de fond dans les données. Nous présentons cette méthode dans une partie dédiée.
|
190 |
Development of a CMOS pixel sensor for the outer layers of the ILC vertex detectorZhang, Liang 30 September 2013 (has links) (PDF)
This work deals with the design of a CMOS pixel sensor prototype (called MIMOSA 31) for the outer layers of the International Linear Collider (ILC) vertex detector. CMOS pixel sensors (CPS) also called monolithic active pixel sensors (MAPS) have demonstrated attractive performance towards the requirements of the vertex detector of the future linear collider. MIMOSA 31developed at IPHC-Strasbourg is the first pixel sensor integrated with 4-bit column-level ADC for the outer layers. It is composed of a matrix of 64 rows and 48 columns. The pixel concept combines in-pixel amplification with a correlated double sampling (CDS) operation in order to reduce the temporal and fixed pattern noise (FPN). At the bottom of the pixel array, each column is terminated with an analog to digital converter (ADC). The self-triggered ADC accommodating the pixel readout in a rolling shutter mode completes the conversion by performing a multi-bit/step approximation. The ADC design was optimized for power saving at sampling frequency. Accounting the fact that in the outer layers of the ILC vertex detector, the hit density is inthe order of a few per thousand, this ADC works in two modes: active mode and inactive mode. This thesis presents the details of the prototype chip and its laboratory test results.
|
Page generated in 0.0438 seconds