Spelling suggestions: "subject:"d'émissions""
41 |
Etude expérimentale et modélisation des propriétés radiatives des mélanges gazeux de type CO2-N2 à très haute température en vue de l'application aux rentrées atmosphériques martiennes, / Experimental study and modeling of the radiative properties of CO2-N2 type gaseous mixtures at very high temperatures, with the perspective of applications to Martian atmospheric entriesDepraz, Sebastien 28 November 2011 (has links)
La modélisation du rayonnement du CO2 à plus de 2000 K reste un défi pour la prédiction des transferts radiatifs à très haute température, en particulier pour le dimensionnement des protections thermiques des véhicules spatiaux entrant dans l’atmosphère de Mars. Le défi concerne aussi bien la constitution de bases de données que le développement de modèles permettant de réaliser des calculs couplés entre l’aérothermodynamique et les transferts radiatifs. Plusieurs bases de données spectroscopiques ont été développées dans les dernières décennies. Des simulations effectuées sur des mélanges CO2-N2 à l’équilibre ont montré que l’émission IR de CO2 reste importante, si ce n’est prédominante, jusqu’à 4000 K. Mais les données expérimentales permettant de vérifier leur précision à haute température sont peu nombreuses et limitées à la basse résolution spectrale, à des températures plus faibles, ou encore impliquent des incertitudes importantes. L’objectif principal de ces travaux est donc de fournir des données expérimentales à moyenne ou haute résolution spectrale et à haute température pour permettre de vérifier la précision des bases théoriques développées. Le mélange gazeux à très haute température dont nous mesurons les spectres d’émission est obtenu grâce à une décharge micro-ondes traversant un flux de CO2 pur. Aux températures atteintes (environ 6000 K), le mélange est à l’équilibre thermodynamique local (ETL) et contient principalement les espèces suivantes : CO2, CO, O2 et O. La mesure des spectres est effectuée grâce à un spectromètre à transformée de Fourier dans l’infrarouge. L’émission des bandes harmoniques de CO dans la région 3800-4400 cm puissance-1 permet la détermination précise du champ de température radial dans le plasma. L’émission théorique de CO2, que ce soit en coefficient d’émission ou en luminance intégrée sur un chemin optique, dans les régions de 2,7 _m et 4,3 _m, est alors calculée à partir des bases de données spectroscopiques et comparée aux mesures. Les bases de données spectroscopiques étudiées sont la base CDSD-4000 récemment publiée et EM2C-1994 qui est plus ancienne. Les résultats montrent que cette dernière est suffisante pour des applications classiques en combustion, nécessitant typiquement de faibles résolutions spectrales et des températures inférieures à 2500 K, pour lesquelles elle fut initialement développée. En revanche, la base CDSD-4000 est généralement en très bon accord avec les données expérimentales, en particulier dans les ailes de bandes ce qui indique sa fiabilité pour des applications à très haute température. Bien que des comparaisons aient révélé que les positions de raies pour les transitions à haute énergie manquent de précision dans cette base, le degré élevé de recouvrement des raies dans les régions 2,7 _m et 4,3 _m devrait grandement limiter l’impact de cette imprécision dans la pratique. L’autre objectif de ces travaux concerne la difficulté que pose la couplage entre les calculs d’aérothermodynamique et de transferts radiatifs. En effet, les calculs de transferts iv radiatifs impliquant des molécules polyatomiques doivent prendre en compte un nombre très important de transitions rovibroniques. Par conséquent, un modèle approché de propriétés radiatives (modèle Statistique à Bandes Etroites) a été développé et sa précision a été étudiée pour les systèmes électroniques optiquement épais des molécules carbonées diatomiques rencontrées dans les problèmes de rentrées atmosphériques martiennes. Ces systèmes sont CO 4eme positif, C2 Swan, et CN violet. Diverses conditions à l’ETL et hors ETL, ainsi que différents mélanges ont été étudiés pour différents régimes d’élargissement de raies. Les comparaisons effectuées avec les calculs "raie par raie" ont révélé d’excellents accords. Les paramètres de ce modèle ont été tabulés en fonction de deux températures, Tv (température vibrationnelle) et Tr (température rotationnelle). / Modeling of the radiation of CO2 above 2000 K remains a challenge for the prediction of radiative transfer at high temperatures, especially for the design of thermal protection of space vehicles entering the Martian atmosphere. The challenge for both the creation of databases that the development of models to perform calculations coupled between Aerothermodynamics and radiative transfer. Several spectroscopic databases have been developed in recent decades. Simulations of CO2-N2 mixtures at equilibrium showed that the IR emission of CO2 is important, if not predominant, up to 4000 K. But the experimental data to verify their accuracy at high temperature are few and limited to the low spectral resolution, at lower temperatures, or involve significant uncertainties. The main objective of this work is to provide experimental data at medium or high spectral resolution and high temperature in order to verify the accuracy of the theoretical foundations developed. The gas mixture at high temperature we measure the emission spectra is achieved through a microwave discharge through a stream of pure CO2. The temperatures reached (about 6000 K), the mixture is in local thermodynamic equilibrium (LTE) and mainly contains the following species: CO2, CO, O2 and O. The measurement of the spectra is carried out using a Fourier transform spectrometer in the infrared. The harmonic emission bands of CO in the region 3800-4400 cm-1 power allows accurate determination of the radial temperature field in the plasma. The theoretical CO2 emissions, both in emission coefficient or radiance integrated on an optical path, in the regions of 2.7 and 4.3 _m _m, is then calculated from the spectroscopic database and compared measures. The databases are based spectroscopic studied CDSD-4000 and recently published EM2C-1994 which is older. The results show that the latter is sufficient for combustion in conventional applications, typically requiring low spectral resolutions and temperatures below 2500 K, for which it was originally developed. However, based CDSD-4000 is generally in good agreement with experimental data, especially in the wings of bands indicating reliability for applications at very high temperatures. Although comparisons have revealed that the line positions for high energy transitions are unclear in this basis, the high degree of overlap of the lines in the regions 2.7 and 4.3 _m _m should greatly reduce the impact of this imprecision in practice. The other objective of this work concerns the difficulty of coupling between the calculations of radiative transfer and aerothermodynamics. Indeed, calculations of radiative transfer iv involving polyatomic molecules must take into account a large number of rovibronic transitions. Therefore, an approximate model of radiative properties (Statistics narrowband model) was developed and its accuracy has been studied for electronic systems optically thick carbon diatomic molecules encountered in problems of Martian atmospheric reentry. These systems are CO 4th positive, C2 Swan and CN violet. Various conditions to the non-LTE and LTE, and various mixtures have been studied for different regimes of line broadening. Comparisons with calculations "line by line" showed excellent agreement. The model parameters were tabulated in terms of two temperatures, Tg (vibrational temperature) and Tr (rotational temperature).
|
42 |
Coupling between optical Tamm states and fluorescent nanocrystals ; determination of the dipole nature of single colloidal nanoplatelets / Propriétés optiques du couplage entre les nanocrystaux et optique mode Tamm et détermination la nature et l'orientation du dipôle associé à un nanoplaquetteFeng, Fu 19 September 2016 (has links)
Ce travail de thèse porte sur le couplage d’émetteurs fluorescents (en l’occurrence des nanostructures semi-conductrices colloïdales) à leur environnement optique. Il se décompose en deux parties : dans la première, des structures photoniques (modes de Tamm optiques) sont caractérisées par le biais de la fluorescence de nanocristaux insérés dans ces structures. Dans la seconde, des nanoplaquettes individuelles de CdSe/CdS sont caractérisées par des études de microphotoluminescence sur différents types de substrats. Dans ces deux études, la mesure du diagramme de rayonnement par imagerie dans le plan de Fourier joue un rôle important, et son principe sera présenté en détail. Le mode optique de Tamm est un mode électromagnétique confiné entre un miroir de Bragg et une couche métallique. Nous avons couplé une couche de nanocristaux de CdSe/CdS avec des modes de Tamm optiques 2D et 0D. Le confinement latéral dans le cas du mode 0D est mis en évidence. Nous avons étudié la relation de dispersion de l’émission issue de différentes portions du disque et comparé ces résultats avec les simulations numériques. Enfin, en excitant différentes position sur le disque, nous avons montré que la direction d’émission dépend fortement de la position de la source au sein de la structure. D’autre part, nous avons mis en place une méthode fine pour déterminer la nature dipolaire (dipôle 1D ou 2D) et l’orientation d’un nano-émetteur individuel. L’idée principale est de mesurer à la fois, pour un seul émetteur, le diagramme de rayonnement et la polarisation d’émission. En choisissant un substrat adapté (de l’or ou du verre), ces mesures donnent des résultats théoriques très différents selon la nature et l’orientation du dipôle. Nous avons ensuite appliqué cette méthode sur les émetteurs nanoplaquettes de CdSe/CdS (dimensions 20x20x2 nm). Un accord parfait entre les mesures et les calculs analytiques nous confirme que l’émission d’une plaquette carrée peut être décrite par un dipôle 2D orienté dans le plan de la plaquette. Nous avons ensuite étudié l’émission d’une plaquette rectangulaire et montré une asymétrie dans le dipôle émetteur. Cette étude montre le rôle de la forme de la plaquette sur son dipôle d’émission, qui pourrait être expliqué par un effet d’antenne diélectrique. / Technological progress in the recent 30 years for reducing the size of semi-conductor materials offers the possibility to fabricate devices in which the electrons and holes are confined in a very small volume in three dimensions. When the dimension of the material is small (a few nanometers), the charges experience quantum confinement effects. This kind of nanomaterial is called nanocrystal or quantum dot [1]. These structures have the remarkable property that the energy levels are discretized, in a sense making them artificial atoms. At the beginning of 1980s, Efros, Ekimov et al. started the growth of II/VI semi-conductor nanocrystals in a vitreous matrix [2]. A few years later, colloidal synthesis methods were developed and nanocrystals with increasingly good optical properties were obtained [3-5]. These emitters have drawn intense attention because of their versatile manipulation in solution and biochemical functionalization, high quantum effciency, and photostability, tunable emission wavelength and broad absorption spectrum. By fluorescence microscopy, it is possible to study the optical properties of individual nanocrystals ; non classical effects such as single photon emission (even for nanocrystals at room temperature) are evidenced. Studying individual nano-emitters offers new ways to test the concepts of electromagnetics in the visible domain. Other manipulations are possible by nano structuring the environment around an emitter ; for instance, the use of antennas, which is ubiquitous in the radio and microwave domains, can be extended to nano-photonics, provided that sufficiently precise nano-fabrication techniques are available. The group "Nanophotonics and quantum optics" at the Institut de NanoSciences de Paris (INSP) studies how to manipulate light by coupling fluorescent emitters (individually or collectively) with their optical environment. The emission properties of nanoemitters depend strongly on their optical environment. This is expressed, as for the decay time of a radiating dipole, by Fermi's golden rule: where the initial and final state of the nanoemitter transition are taken into consideration; the polarization of these states can infuence highly the emission properties (determined by the symmetries of the transition and its associated orientation). The local state density which is mainly determined by the optical environment around the emitter and depends on the emission angular frequency. The electric field at the emitter position is included in the Hamiltonian (for a dipolar electric transition). Previously, our team has studied the coupling between the nanocrystal and different nanophotonic structures such as photonic crystals, plasmonic structures, plasmonic patch antennas etc...
|
43 |
Étalonnage automatique des détecteurs pour scanner LabPET IIJürgensen, Nadia January 2017 (has links)
Depuis une vingtaine d'années, le GRAMS et le CIMS travaillent en collaboration dans le domaine de l'imagerie médicale, plus précisément sur la tomographie d'émission par positrons destinée à la recherche préclinique sur petits animaux. Après le scanner TEP Sherbrooke en 1994 et le LabPET I commercialisé par Advanced Molecular Imaging (AMI) Inc., Gamma Medica Ideas et GE Healthcare au cours des années 2000, l'aspiration vers de meilleures performances est le moteur de la réalisation d'une nouvelle version : le LabPET II. L'augmentation importante du nombre de détecteurs, nécessaire pour atteindre une meilleure résolution spatiale, amène de nouveaux défis autant sur le plan matériel que logiciel. Un des défis est de compenser les disparités en gain des détecteurs à base de photodiodes à avalanche (PDA) qui engendrent des différences intercanaux. Le but de ce projet de maîtrise est de développer et d'implémenter un algorithme capable de corriger ces différences de façon automatisée.
|
44 |
Analyse dynamique en champ proche de la contribution des sources de composés organiques volatils, en région urbaine sous influence industrielle / New-field dynamic analysis of the contribution of Volatile Organic Compounds sources, in urban region under industrial influenceXiang, Yang 14 December 2011 (has links)
À ce jour, l'identification des sources de Composés Organiques Volatils (COV) a fait l'objet de nombreuses études, afin de déterminer leur contribution à la pollution atmosphérique. Néanmoins, le comportement dynamique de l'atmosphère, dans sa dimension micro-météorologique, n'a jamais été pris en compte dans une approche sources-récepteur. Celui-ci est pourtant essentiel dans l'interprétation des mesures physico-chimiques de la pollution de l'air en champ proche, dans une région urbaine sous influence industrielle. La complexité de ces zones d'études provient non seulement des différents modes d'émissions et de la variété des activités industrielles, mais aussi des phénomènes météorologiques à multi-échelles, qui influent la dispersion et le transport à petite échelle spatiale (typiquement quelques kilomètres). En nous appuyant sur la mesure de 85 COV (dont 23 COV oxygénés) sur une durée de plusieurs mois, nous avons développé une méthodologie novatrice, associant lors de l'analyse des résultats d'un modèle sources-récepteur PMF (Positive Matrix Factorization) des grandeurs météorologiques, pour identifier des sources et comprendre leur comportement dynamique. En introduisant la turbulence verticale, pour la première fois dans ce type d'analyse, la température et le rayonnement solaire, comme paramètre d'analyse des facteurs de comportements ont pu être différenciés, permettant de distinguer les modes d'émissions diffuses et canalisées. Ainsi, nous avons pu classer les sources des COV par nature et par mode d'émissions, et également mettre en évidence des masses d'air âgées contenant des espèces secondaires. / Recently, sources apportionment of Volatile Organic Compounds (VOC) has been the subject of a great numbers of studies, in order to determine their contributions to atmospheric pollution. However, the dynamical behavior of atmosphere, within its micro-meteorological scale, has never been taken into account in the sources-receptor approach, yet it is the main factor to interpret near-field physic-chemical measurements of air pollution, in an urban area under industrial influences. The complexity of such a study area results from not only the emission modes and the various industrial activities, but also the meteorological phenomenon in multi-scale, which influences the dispersion and transport in a small scale (tipically several kilometers). With measurements of 85 VOC (including 23 oxygenated VOC) during several months, we have developed an innovative methodology, associating the results of the PMF (Positive Matrix Factorization) modeling and the meteorological parameters, in order to identify the sources and to understand their dynamical behaviors. By introducing the vertical turbulence for the first time in this kind of analysis, the temperature and the solar radiation, as parameters of factor analyses, two behaviors have been distinguished, leading to identify the emissions near ground and in the upper part of surface layer. In this way, we have labeled the sources according to their nature as well as their emission mode, and we have highlighted the aged air mass containing secondary pollutants.
|
45 |
Approche de quantification et de récompense des bénéfices climatiques associés à un projet de séquestration de carbone en milieu forestier : implications pour le marché du carbone québécoisFortin, Claude 10 July 2019 (has links)
Cette étude s’inscrit dans la mouvance internationale qui vise à développer et à mettre en place des mécanismes de marché efficaces pour lutter contre les changements climatiques. Dans le contexte québécois, cela s’est principalement traduit par la mise en place d’un système de plafonnement et d’échange de droits d’émission de gaz à effet de serre et d’un volet des crédits compensatoires (CrC). Contrairement à un projet de réduction de GES, un projet de séquestration de carbone en milieu forestier est intrinsèquement non permanent. Cette caractéristique limite le potentiel réel des CrC délivrés à annuler ou compenser la totalité des effets négatifs résultant d’une émission de GES dans l’atmosphère. C’est principalement pour cette raison que le secteur forestier est actuellement exclu du volet des CrC québécois. Actuellement, peu importe le type de marché (volontaire ou réglementaire), l’approche de délivrance de CrC adoptée pour les projets de séquestration de carbone anticipe un bénéfice climatique, forçant ainsi les promoteurs de projet et les autorités d’un volet de CrC à mettre en place des mesures contraignantes et à long terme de suivi pour assurer l’intégrité environnementale. L’objectif du projet de recherche est de proposer une nouvelle approche de quantification et de délivrance de CrC pour les projets de séquestration de carbone. À l’instar de l’approche actuelle, l’approche proposée doit non seulement quantifier et récompenser une quantité de carbone séquestré, mais également et surtout, quantifier et récompenser la dimension temporelle implicite aux bénéfices de maintenir une quantité de carbone hors de l’atmosphère pendant une période de temps donnée. En utilisant le forçage radiatif comme indicateur d’un effet sur le système climatique, l’approche démontre qu’il est possible d’intégrer ces deux variables dans la détermination du nombre de CrC à délivrer à un promoteur de projet. Par conséquent, les contraintes associées au critère de la permanence deviennent caduques. / This study is part of the international movement to develop and implement effective market mechanisms to fight climate change. In Québec, this is mainly reflected in the establishment of a cap-and-trade system for greenhouse gas emission allowances and an offset credit component. Unlike a GHG reduction project, a forest carbon sequestration project is inherently non-permanent. This feature limits the real potential to cancel or offset all the negative effects resulting from a GHG emission into the atmosphere behind the used of an offset credit (OCr). It is mainly for this reason that the forestry sector is currently excluded from the Quebec OCr component. Currently, regardless of the type of market (voluntary, regulatory), the OCr issuance approach adopted for carbon sequestration projects anticipates a climate benefit, forcing project proponents and OCr to put in place binding and long-term follow-up measures to ensure the environmental integrity. The main objective of the research project is to propose a new approach for quantifying and delivering OCr for carbon sequestration projects. Like the current approach, the proposed approach must not only quantify and reward a quantity of carbon sequestered, but also and above all, quantify and reward the temporal dimension implicit in the creation of climate benefits associated with the maintenance of an amount of carbon out of the atmospheric atmosphere for a given period of time. Using radiative forcing as an indicator of an effect on the climate system, the approach demonstrates that it is possible to integrate these two variables into the determination of the number of OCrs to be delivered to a project promoter. As a result, the constraints associated with the permanence test become obsolete.
|
46 |
Stratégie analytique pour la résolution de problématiques reliées à la présence de fondant dans une solution préparée par fusionGagnon, Maxime 23 May 2019 (has links)
L’analyse par plasma à induction par micro-ondes (MIP) est l’une des techniques les plus prometteuses dû à ses nombreux avantages et à sa simplicité d’utilisation pour la détermination de métaux, incluant ceux pertinents pour le domaine minier. Cependant, l’introduction d’échantillons solide nécessite une mise en solution complète ou partielle. De nombreuses études comparatives ont été publiées concernant ces modes de mises en solution pour divers analytes. Pour des matrices et des éléments réfractaires, la fusion alcaline permet généralement une mise en solution complète et de façon rapide. Néanmoins, la solubilisation par fusion possède certaines limitations en lien avec la mesure des métaux. La principale étant qu’une fois l’échantillon dissout par fusion dans l’acide, la charge en sel provenant du fondant est très élevée dans la solution obtenue, ce qui affecte grandement les performances d’ionisation du plasma. Considérant l’émergence d’instrumentation de type MIP dans les domaines traditionnels d’applications de la fusion, la présence d’espèces facilement ionisables (EFI) dans un plasma à plus faible température peut résulter en un biais analytique important. Par conséquent, l’objectif de ce mémoire est de réduire la charge en sel des échantillons dissout par fusion avant leur introduction dans le système d’analyse afin de minimiser les coûts de la main-d’oeuvre et le temps nécessaire à l’entretien de l’instrumentation tout en bonifiant les performances analytiques. Ceci sera effectué à l’aide d’approches analytiques basées sur des principes de séparation chromatographiques. Initialement, les profils d’élutions de divers éléments d’intérêts seront étudiés et analysé par ICP-AES. Par la suite, les paramètres des méthodes développées seront optimisés et validée à l’aide d’un matériel de référence certifié (MRC). Finalement, plusieurs paramètres analytiques, dont les limites de détection (LDM) et les limites de quantification des méthodes développées, seront déterminés par MIP-AES / Microwave induction plasma (MIP) is one of the most promising techniques because of its many advantages and its ease of use for determining metals, including those relevant to the mining industry. However, the introduction of solid samples requires complete or partial dissolution. Numerous comparative studies have been published concerning these dissolution modes for various analytes. For matrices and refractory elements, the alkaline fusion generally allows a fast and complete dissolution. Nevertheless, fusion solubilization has some limitations in connection with the measurement of metals. The main one being that once the sample melts in the acid, the salt load from the flux is very high in the resulting solution, which greatly affects the ionization performance of the plasma. Considering the emergence of MIP type instrumentation in traditional areas of fusion applications, the presence of easily ionizable species (EIS) in a lower temperature plasma can result in an important analytical bias. Therefore, the purpose of this study is to reduce the salt load of melt-dissolved samples prior to introduction into the analysis system to minimize labor costs and the time required for maintenance instrumentation while improving analytical performance. This will be done using analytical approaches based on chromatographic separation principles. Initially, the elution profiles of various elements of interest will be studied and analyzed by ICP-AES. Subsequently, the parameters of the methods developed will be optimized and validated using a certified reference material (CRM). Finally, several analytical parameters, including the detection limits (DL) and the quantification limits (QL) of the methods developed, will be determined by MIP-AES
|
47 |
Electrifying natural gas : a dynamic model of Québec's energy transitionBoudreau, Julien 10 February 2024 (has links)
Dans ce mémoire, j’évalue les implications économiques d’une électrification efficace des usages du gaz naturel. Pour ce faire, je développe un modèle dynamique en équilibre partiel des marchés du gaz naturel et de l’électricité dans lequel la demande est détaillée par service énergétique. Le modèle tient également compte des contraintes de capacité et des coûts d’ajustement du réseau électrique. L’implémentation numérique du modèle, laquelle est calibrée au contexte québécois, révèle que la transition énergétique est guidée par le prix des émissions de GES. Une transition optimale implique que les investissements dans les énergies renouvelables débutent tôt et soient répartis à travers le temps. Par ailleurs, le prix du carbone en place ne mène pas à une électrification qui permette l’atteinte des cibles du gouvernement du Québec. / In this thesis, I evaluate the economic implications of the efficient electrification of natural-gas usages. To do so, I develop a dynamic partial equilibrium model of the electricity and natural gas markets with multiple energy demands. The model accounts for the capacity constraint and adjustment cost of the electric grid. The numerical implementation, calibrated to Québec’s contexts, reveals that the electrification’s main driver is the cost of greenhouse gas emissions. An optimal transition implies that investments in renewables start early-on and are smoothed through time. Québec’s actual carbon price does not lead to an electrification pathway that satisfies the province’s emission target.
|
48 |
Conception d'un capteur de température, d'un récepteur LVSD et d'un générateur de charge en technologie CMOS 0,18 um pour un scanner TEP/TDMBen Attouch, Mohamed Walid January 2011 (has links)
La recherche en imagerie moléculaire repose beaucoup sur les performances en tomographie d'émission par positrons (TEP). Les avancées technologiques en électronique ont permis d'améliorer la qualité de l'image fournie par les scanners TEP et d'en augmenter le champ d'application. Le scanner LabPET II, en développement à l'Université de Sherbrooke, permettra d'atteindre des résolutions spatiales inégalées.La conception de ce scanner requiert une très grande densité de détecteurs de l'ordre de 39 000 sur un anneau de 15 cm de diamètre par 12 cm de longueur axiale. D'autre part, l'Université de Sherbrooke mène également des travaux en tomodensitométrie (TDM) par comptage de photons individuels. Ces travaux s'insèrent dans un programme de recherche menant à réduire par un facteur 1,5 à 10 la dose de rayon X par rapport aux doses actuelles en TDM. Un circuit intégré (ASIC) a été développé pour supporter les performances attendues en TEP et en TDM. Cependant, la très grande densité de canaux rend inadéquate la vérification externe, sur circuits imprimés (PCB), des fonctionnalités des 64 canaux d'acquisition du circuit intégré actuellement en conception. Ainsi, un générateur de charge électronique a été conçu et intégré dans l'ASIC afin de pouvoir vérifier directement sur le circuit intégré ( On-Chip ) le fonctionnement de la chaine d'acquisition. Il permettra aussi de faire les tests pour le calcul de la résolution d'énergie et de la résolution en temps intrinsèque. La communication des données avec l'ASIC se fait par une ligne différentielle afin de maximiser l'immunité des signaux contre le bruit et d'assurer la vitesse de communication voulue.La norme Low-Voltage Differential Signaling (LVDS) a été choisie pour ce type de communication. En effet, trois récepteurs LVDS, basse consommation, ont été conçus et intégrés dans l'ASIC afin de recevoir les commandes de fonctionnement de l'ASIC à partir d'une matrice de portes programmables Field-Programmable Gate Array (FPGA) et de communiquer le signal d'horloge aux différents blocs. Pour augmenter la fiabilité du traitement effectué par l'électronique frontale, une mesure en température de l'ASIC est nécessaire. Un capteur de température basé sur la boucle à délais Delay-Locked Loop (DLL) a été conçu et intégré. En effet, la mesure de la température de l'ASIC permet d'intervenir en réalisant une compensation sur les mesures et en contrôlant le système de refroidissement en cas de sur-échauffement.
|
49 |
Réalisation d'un convertisseur temps-numérique en CMOS 65 nm pour une intégration par pixel dans un module de comptage monophotoniqueRoy, Nicolas January 2015 (has links)
Les applications nécessitant une grande précision temporelle sont de plus en plus nombreuses, notamment lorsqu'elles requièrent des mesures par temps de vol, c'est-à-dire de mesurer le temps de propagation de la lumière ou de particules. La télémétrie laser et certaines modalités d'imagerie médicale dont la tomographie d'émission par positrons (TEP) en sont des exemples. Ces applications requièrent l'attribution d'étampes temporelles aux photons détectés, tout en assurant une précision temporelle exceptionnelle. Le Groupe de Recherche en Appareillage Médical de Sherbrooke (GRAMS) développe des scanners TEP visant à intégrer des mesures par temps de vol pour améliorer le contraste des images. Pour ce faire, une partie du GRAMS (GRAMS3D) se concentre sur la réalisation de modules de comptage monophotoniques (MCMP) à grande précision temporelle pour intégrer les prochaines générations de scanners TEP. D'autres projets pourraient également se concrétiser dans les prochaines années, dont l'intégration des MCMP du GRAMS dans le Grand Collisionneur de Hadrons (Large Hadron Collider, LHC) au CERN pour des expériences en physique des hautes énergies. Pour atteindre de tels niveaux de performances, le MCMP se compose d'une matrice de photodiodes à avalanche monophotoniques intégrée en 3D avec l'électronique frontale et l'électronique de traitement de l'information. Certains MCMP n'utilisent qu'un seul convertisseur temps-numérique (CTN) pour une matrice de photodétecteurs, limitant le nombre d'étampes temporelles disponibles en plus d'obtenir un temps de propagation différent entre chacun des pixels et le CTN. Pour surpasser ces inconvénients, une autre approche consiste à intégrer un CTN à chacun des pixels. C'est dans cette perspective que le présent ouvrage se concentrera sur le CTN implanté dans chacun des pixels de 50 × 50 µm[indice supérieur 2] du MCMP développé au GRAMS. Le CTN proposé est basé sur une architecture vernier à étage unique afin d'obtenir une excellente résolution et une linéarité indépendante des variations de procédé. Sa taille de 25 × 50 µm[indice supérieur 2] et sa consommation de 163 µW en font un excellent choix pour une implantation matricielle. Le CTN, calibré en temps réel grâce à une boucle à verrouillage de phase numérique, a démontré une résolution de 14,4 ps avec une non-linéarité intégrale (INL)/non-linéarité différentielle (DNL) de 3,3/0,35 LSB et une précision temporelle inférieure à 27 ps[indice inférieur rms]. Les résultats obtenus prouvent qu'il est possible de concilier d'excellentes résolution et précision temporelles avec de très faibles dimensions et consommation.
|
50 |
Efficacité de détection en tomographie d'émission par positrons: une approche par intelligence artificielleMichaud, Jean-Baptiste January 2014 (has links)
En Tomographie d'Émission par Positrons (TEP), la course à la résolution spatiale nécessite des détecteurs de plus en plus petits, produisant plus de diffusion Compton avec un impact négatif sur l’efficacité de détection du scanner. Plusieurs phénomènes physiques liés à cette diffusion Compton entachent tout traitement des coïncidences multiples d'une erreur difficile à borner et à compenser, tandis que le nombre élevé de combinaisons de détecteurs complexifie exponentiellement le problème. Cette thèse évalue si les réseaux de neurones constituent une alternative aux solutions existantes, problématiques parce que statistiquement incertaines ou complexes à mettre en œuvre. La thèse réalise une preuve de concept pour traiter les coïncidences triples et les inclure dans le processus de reconstruction, augmentant l'efficacité avec un minimum d'impact sur la qualité des images. L'atteinte des objectifs est validée via différents critères de performance comme le gain d'efficacité, la qualité de l'image et le taux de succès du calcul de la ligne de réponse (LOR), mesurés en priorité sur des données réelles. Des études paramétriques montrent le comportement général de la solution : un réseau entraîné avec une source générique démontre pour le taux d'identification de la LOR une bonne indépendance à la résolution en énergie ainsi qu'à la géométrie des détecteurs, du scanner et de la source, pourvu que l'on ait prétraité au maximum les données pour simplifier la tâche du réseau. Cette indépendance, qui n'existe en général pas dans les solutions existantes, laisse présager d'un meilleur potentiel de généralisation à d'autres scanners. Pour les données réelles du scanner LabPET[indice supérieur TM], la méthode atteint un gain d'efficacité aux alentours de 50%, présente une dégradation de résolution acceptable et réussit à recouvrer le contraste de manière similaire aux images de référence, en plus de fonctionner en temps réel. Enfin, plusieurs améliorations sont anticipées.
|
Page generated in 0.0714 seconds