• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 153
  • 37
  • 23
  • 13
  • 12
  • 6
  • 5
  • 5
  • 4
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 300
  • 70
  • 48
  • 47
  • 45
  • 44
  • 44
  • 39
  • 36
  • 33
  • 30
  • 30
  • 27
  • 26
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Utilisation de capteurs CMOS rapides pour l'imagerie X à très haute sensibilité / Use of swift CMOS sensors for X ray imaging with high sensitivity

Bachaalany, Mario 07 December 2012 (has links)
Cette étude évalue le potentiel, comme détecteur de rayons X, des capteurs à pixel CMOS conçus pour la trajectométrie des particules chargée. Nous démontrons l’intérêt de la construction d’une image par comptage de photons uniques pour la définition de celle-ci. Un dispositif exploitant une source X est développé pour mesurer la résolution spatiale sur l’impact des photons. Une simulation complète sous GEANT4 montre que le système permet d’estimer cette résolution avec une incertitude de 2 µm. L’application du protocole caractérise la détection directe des rayons X de basse énergie (< 10 keV) par un capteur CMOS avec une résolution de 52 lp/mm. Une méthode de détection indirecte, couplant un cristal de CsI(Tl) finement segmenté au capteur CMOS, est employée pour les énergies supérieures à 10 keV. La résolution spatiale dans ces conditions atteint 15 lp/mm. Une simulation détaillée explique cette performance limitée par les caractéristiques d’émission de lumière du cristal employé. / This work investigates the potential application of CMOS pixel sensors, designed for particle tracking, for the detection of X rays. We explain how the image definition can be improved exploiting the single photon counting technique. An experimental system, based on an X ray source, is developed to measure the single point resolution of photons. Thanks to a full GEANT4 simulation of the device, the evaluation uncertainty is predicted to be 2 µm. We apply our method to the direct detection of low energy (< 10 keV) X rays by a CMOS pixel to measure a spatial resolution of 52 lp/mm. For higher energies, an hybrid device, coupling a CSi(Tl) highly segmented crystal with a CMOS sensor, is used. The spatial resolution reaches in this case 15 lp/mm. A detailed simulation study demonstrated that this limited performance is related to the characteristics of the light emitted by the crystal.
62

Traitement d'images bas niveau intégré dans un capteur de vision CMOS / integrated low level image processing in a CMOS imager

Amhaz, Hawraa 10 July 2012 (has links)
Le traitement d’images classique est basé sur l’évaluation des données délivrées par un système à basede capteur de vision sous forme d’images. L’information lumineuse captée est extraiteséquentiellement de chaque élément photosensible (pixel) de la matrice avec un certain cadencementet à fréquence fixe. Ces données, une fois mémorisées, forment une matrice de données qui estréactualisée de manière exhaustive à l’arrivée de chaque nouvelle image. De fait, Pour des capteurs àforte résolution, le volume de données à gérer est extrêmement important. De plus, le système neprend pas en compte le fait que l’information stockée ai changé ou non par rapport à l’imageprécédente. Cette probabilité est, en effet, assez importante. Ceci nous mène donc, selon « l’activité »de la scène filmée à un haut niveau de redondances temporelles. De même, la méthode de lectureusuelle ne prend pas en compte le fait que le pixel en phase de lecture a la même valeur ou non que lepixel voisin lu juste avant. Cela rajoute aux redondances temporelles un taux de redondances spatialesplus ou moins élevé selon le spectre de fréquences spatiales de la scène filmée. Dans cette thèse, nousavons développé plusieurs solutions qui visent contrôler le flot de données en sortie de l’imageur enessayant de réduire les redondances spatiales et temporelles des pixels. Les contraintes de simplicité etd’« intelligence » des techniques de lecture développées font la différence entre ce que nousprésentons et ce qui a été publié dans la littérature. En effet, les travaux présentés dans l’état de l’artproposent des solutions à cette problématique, qui en général, exigent de gros sacrifices en terme desurface du pixel, vu qu’elles implémentent des fonctions électroniques complexes in situ.Les principes de fonctionnement, les émulations sous MATLAB, la conception et les simulationsélectriques ainsi que les résultats expérimentaux des techniques proposées sont présentés en détailsdans ce manuscrit. / The classical image processing is based on the evaluation of data delivered by a vision sensor systemas images. The captured light information is extracted sequentially from each photosensitive element(pixel) of the matrix with a fixed frequency called frame rate. These data, once stored, form a matrixof data that is entirely updated at the acquisition of each new image. Therefore, for high resolutionimagers, the data flow is huge. Moreover, the conventional systems do not take into account the factthat the stored data have changed or not compared to the previously acquired image. Indeed, there is ahigh probability that this information is not changed. Therefore, this leads, depending on the "activity"of the filmed scene, to a high level of temporal redundancies. Similarly, the usual scanning methodsdo not take into account that the read pixel has or not the same value of his neighbor pixel read oncebefore. This adds to the temporal redundancies, spatial redundancies rate that depends on the spatialfrequency spectrum of the scene. In this thesis, we have developed several solutions that aim to controlthe output data flow from the imager trying to reduce both spatial and temporal pixels redundancies. Aconstraint of simplicity and "Smartness" of the developed readout techniques makes the differencebetween what we present and what has been published in the literature. Indeed, the works presented inthe literature suggest several solutions to this problem, but in general, these solutions require largesacrifices in terms of pixel area, since they implement complex electronic functions in situ.The operating principles, the emulation in MATLAB, the electrical design and simulations and theexperimental results of the proposed techniques are explained in detail in this manuscript
63

Optimisation de la performance thermique du détecteur Pixel Alpine / Optimization of the Thermal Performance of the Alpine Pixel Detector

Zhang, Zhan 01 December 2015 (has links)
Le détecteur ATLAS est le plus grand détecteur après du Grand Collisionneur de hadrons (LHC) du CERN. L'un des objectifs les plus importants de ATLAS était la recherche de la pièce manquante du Modèle Standard, le boson, de Higgs, qui a été trouvé en 2012. Afin de continuer à chercher les inconnues, il est prévu d'améliorer le LHC. La haute luminosité pour le LHC est un projet, visant à augmenter la luminosité d'un facteur cinq ou plus au-dessus de la conception nominale. En parallèle à l'amélioration de l'accélérateur aussi ATLAS sera amélioré pour faire face au vieillissement des détecteurs et parvenir à la même ou meilleure performance avec un taux d'événements augmenté et une dose de rayonnement plus important.Cette thèse discute un nouveau design pour le détecteur pixel d'ATLAS , appelé “détecteur Alpine“ , pour la phase de haute luminosité du LHC. La structure du support local du détecteur Alpine est proposé, optimisé et testé avec un système avancé de refroidissement à deux phases qui utilise le dioxide de carbone ( CO2).Un programme de simulation du transfert de chaleur par évaporation du CO2 est mis au point au utilisant les modelés le plus récent de transfert de chaleur du CO2 pour caractériser le fonctionnement d'un évaporateur. Ce programme peut être utilisé pour analyser les aspects concernant les paramètres du système de refroidissement à l'intérieur et à l'extérieur du détecteur. Dans cette thèse, ce programme est principalement utilisé pour vérifier que un système à deux phases avec le CO2 peut être employé pour refroidir le détecteur Alpine. Plusieurs fonctions de calcule sont intégrées dans le programme dans une interface utilisateur graphique (GUI) afin d'avoir une large utilisation à l'intérieur de la communauté ATLAS.Pour faciliter l'analyse de la performance thermique du prototype, le modèle de la structure de support local est construit et analysé par analyse par éléments finis (FEA). Des nouveaux matériaux sont étudiés afin de faire face à la plus forte densité de puissance dégagée pour les modules au cours de la prise de donnée du HL-LHC.Les deux simulations par le programme numérique et par FEA sont combinées a fin de caractériser la performance thermique des deux prototypes: prototype Proof-of-Concept (PoC) et prototype Démonstration Fonctionnelle (FD). Ils sont produits par une société et un laboratoire de recherche respectivement et sont analysées et testées. Des études préliminaires des incertitudes les résultats ont été effectués. Les mesures du prototype PoC montrent que le refroidissement par évaporation du CO2 est efficace pour le détecteur Alpine.Par contre le premier prototype FD produit sur la base de la géométrie alpin avec une amélioration limitée de la matière n'aboutit pas à un résultat satisfaisant. Effets possibles pendant la production sont identifiés. Afin d'obtenir la performance thermique attendue, les futurs prototypes FD seront produits avec une procédure de production améliorée et de nouveaux matériaux. / The ATLAS (A Toroidal LHC ApparatuS) detector is the largest detector of the Large Hadron Collider (LHC). One of the most important goals of ATLAS was to search for the missing piece of the Standard Model, the Higgs boson that had been found in 2012. In order to keep looking for the unknowns, it is planned to upgrade the LHC. The High Luminosity Large Hadron Collider (HL-LHC) is a novel configuration of the accelerator, aiming at increasing the luminosity by a factor five or more above the nominal LHC design. In parallel with the accelerator upgrade also the ATLAS will be upgraded to cope with detector aging and to achieve the same or better performance under increased event rate and radiation dose expected at the HL-LHC.This thesis discusses a novel design for the ATLAS Pixel Detector called the Alpine layout for the high luminosity of the LHC. To support the Alpine Pixel Detector, a local support structure is proposed, optimized and tested with an advanced CO2 two-phase cooling system.A numerical program simulating the CO2 evaporative heat transfer flowing through a pipe is developed by the author of this thesis using the most up to date CO2 heat transfer models to characterize the heat transfer properties of an evaporator. This program can be used to analyze the aspects concerning the parameters of the cooling system inside and outside the detector. In this thesis, the program is mainly used to verify that a CO2 two-phase system can be used to efficiently cool down the Alpine Detector. Several functions in the program are built into a Graphic User Interface (GUI) in order to facilitate a wide use inside the ATLAS community.A model of the local support structure is built and analyzed by Finite Element Analysis (FEA) in order to facilitate the analysis of the thermal performance of the prototype. Candidate new materials are investigated in order to cope with the high power density from the detector modules during HL-LHC. The two simulations (the CO2 evaporative numerical program and the FEA ) are combined to characterize the thermal performance of two prototypes: Proof-of-Concept (PoC) prototype and Functional-Demonstration (FD) prototype. They are produced by a company and an institute respectively and are analyzed and tested. Studies of the systematic uncertainty affecting the result are present. The PoC prototype measurement shows that the Alpine design can be effectively cooled down. The measurements agree with the predictions within the considered systematic uncertainties. The first FD prototype produced based on the Alpine geometry with limited improvement on materials yet show a less satisfactory behavior. Possible effects occurring during the production that can be improved are identified. The future FD prototypes will be produced with an improved production procedure and using new materials in order to obtain the expected thermal performance
64

Optimization in an Error Backpropagation Neural Network Environment with a Performance Test on a Pattern Classification Problem

Fischer, Manfred M., Staufer-Steinnocher, Petra 03 1900 (has links) (PDF)
Various techniques of optimizing the multiple class cross-entropy error function to train single hidden layer neural network classifiers with softmax output transfer functions are investigated on a real-world multispectral pixel-by-pixel classification problem that is of fundamental importance in remote sensing. These techniques include epoch-based and batch versions of backpropagation of gradient descent, PR-conjugate gradient and BFGS quasi-Newton errors. The method of choice depends upon the nature of the learning task and whether one wants to optimize learning for speed or generalization performance. It was found that, comparatively considered, gradient descent error backpropagation provided the best and most stable out-of-sample performance results across batch and epoch-based modes of operation. If the goal is to maximize learning speed and a sacrifice in generalisation is acceptable, then PR-conjugate gradient error backpropagation tends to be superior. If the training set is very large, stochastic epoch-based versions of local optimizers should be chosen utilizing a larger rather than a smaller epoch size to avoid inacceptable instabilities in the generalization results. (authors' abstract) / Series: Discussion Papers of the Institute for Economic Geography and GIScience
65

Etude de la fragmentation lors de la réaction 12C+12C à 95 MeV/n et 400MeV/n dans le cadre de la hadronthérapie / Study of fragmentation cross-sections for 12C+12C reaction at 95 MeV/u and 400 MeV/u for hadrontherapy

Juliani, Didier 11 September 2013 (has links)
La hadronthérapie est une méthode de radiothérapie utilisant des ions (ici le carbone) comme faisceau plutôt que des rayons X plus conventionnels pour le traitement des cancers. Étant donné le parcours spécifique des ions dans la matière, ils permettent de traiter des tumeurs profondes dans des zones délicates telles que le cerveau par exemple. Ceci est complémentaire à tout ce qui existe depuis des dizaines d’années (intervention chirurgicale, rayons X, chimiothérapie). Deux futurs centres de traitement et de recherche (ARCHADE à Caen et ETOILE à Lyon) seront opérationnels en France à partir de 2018 en ce qui concerne ARCHADE afin de profiter des avancées récentes et de poursuivre les recherches sur cette méthode. La perte d’énergie des ions carbone dans la matière suit la loi de Bethe-Bloch, le maximum de dépôt d’énergie se situant dans une zone restreinte appelée « pic de Bragg ». En modulant la position et l’énergie du faisceau, il est possible d’irradier l’ensemble du volume de la tumeur. Cependant, les réactions nucléaires de l’ion carbone dans les tissus entrainent la production de fragments plus légers (H, He, Li etc.) qui déposent leur énergie au-delà du pic de Bragg. Les modèles implémentés dans les codes de simulation couramment utilisés en hadronthérapie (FLUKA, GEANT4 etc.) sont incapables de reproduire en même temps les distributions angulaires des fragments générés ainsi que les distributions en énergie. Le fait de ne pas reproduire fidèlement ce phénomène de fragmentation nuit à la précision des systèmes de planification de traitement utilisés cliniquement. En effet, une mauvaise estimation du processus de fragmentation entraine un biais dans le calcul de la dose déposée dans les cellules saines en arrière du pic de Bragg. Ainsi, afin de mieux contraindre les modèles, deux expériences de mesure de sections efficaces de fragmentation du carbone ont été menées. La première en mai 2011 avec un faisceau à 95MeV/n au GANIL à CAEN avec les collaborateurs du LPC Caen et la seconde en août 2011 avec un faisceau à 400 MeV/n au GSI à Darmstadt, avec la collaboration FIRST. L’expérience E600 étudie la fragmentation des ions du faisceau de carbone à 95 MeV/n dans différentes cibles minces (Au, C, , Ti etc.) correspondant aux différents constituants élémentaires du corps humain. Les différents fragments sont détectés à l’aide de cinq télescopes. Chacun d’eux est constitué de 3 étages (2 détecteurs silicium et un scintillateur CsI) afin de faire des mesures de perte d’énergie et d’énergie totale permettant une identification par la méthode du ΔE-E. Ces télescopes étaient disposés sur des raquettes pilotées à distance afin de pouvoir modifier leur position angulaire par rapport à la position de la cible. Ainsi, les taux de production des différents fragments permettent de remonter aux sections efficaces de fragmentation doublement différentielles (en énergie et en angle). [...] / The hadrontherapy is a radiotherapy method using ions (carbon ions here) instead of the more conventional X-rays for cancer treatment. Deep radioresistant tumour areas, as brain carcinoma for example, can be treated thanks to the specific dosedeposition at the end of the ion path. This is an additional method to older classic ones (surgery, X-rays, chemotherapy). Two hadrontherapy centres for treatment and research are planned in France from 2018 (ARCHADE) in order to benefit from the newest progress and to keep improving this method. Carbon ions energy loss in the matter follows the Bethe-Bloch law. The maximum of energy depth is located in a limited area called “Bragg peak”. By adjusting the beam position and energy, the whole volume of the tumor can be irradiated. Nevertheless, nuclear reactions of carbon ion in tissues generate the production of lighter fragments (H, He, Li etc.) that deposit their energy beyond the Bragg peak. Models implemented in hadrontherapy simulation codes (FLUKA, GEANT4 etc.) cannot reproduce angular distributions of the lighter fragments and energy distributions at the same time. These poor estimations affect the treatment planning systems accuracy that are clinically used.Indeed, a bad estimation of fragmentation process induces a bias in the dose calculation concerning healthy cells beyond the Bragg peak. In order to better constraint models, two experiments based on fragmentation cross-sections measurements have been performed. The first one in may 2011 with a beam at 95 MeV/u (GANIL) in collaboration with the LPC Caen and the second one in august 2011 with a beam at 400 MeV/u (GSI) with the FIRST collaboration. E600 experiment is devoted to the study of carbon ions fragmentation at 95 MeV/u in several thin targets (Au, C, , Ti etc.) corresponding to the basic building blocks of human body. Five telescopes are designed for the fragments detection. Each one is a three-stage detector (2 silicon detectors and one CsI scintillator) that allows energy loss and total energy measurements for the ΔE-E identification method.Telescopes were disposed two by two in the reaction chamber with a remote control of the angular position. From the production rate measurements, the double differential fragmentation cross-sections (energy and angle) can be computed.From the experimental data for + reaction at 95 MeV/u on a 250 μm thick carbon target, all cross-sections were deduced.FIRST experiment uses a very different set-up. It is composed of: a beam monitoring, a vertex detector (CMOS), a calorimeter(KENTROS), a magnet (ALADIN), MUSIC (3 ionization chambers and 4 proportional counters) and a TOF-wall. Generated particles trajectory is reconstructed thanks to the vertex detector + TOF-wall for all fragments emitted with an angle lower than 5° and thanks to the vertex detector + KENTROS for higher angles. In the first case, the ALADIN magnet deflects the trajectory of the particles (MUSIC detector ran out). One 8 mm thick target has been used here. Preliminary results concerning production rates of the different charges, angular distributions and reconstruction efficiencies have been obtained. Heavier fragments mass identification is quite difficult because of the non-working MUSIC detector; it degrades the fragments momentumaccuracy.[...]
66

Detekce malých změn objektů pomocí kamery / Detection of small object movements using camera

Udvardy, Bálint January 2020 (has links)
One of the basic problems in computer vision is motion detection and analysis in a given scene. This work focuses on detecting small changes in the image by using the moiré phenomenon. The main goal of this thesis is to detect different types of dislocations with algorithms used in computer vision. In this work synthetically created pictures are analysed, which were created with the mathematical model of a pinhole camera.
67

Development of CMOS sensor with digital pixels for ILD vertex detector / Développement de capteurs à CMOS avec pixel numérique pour le ILD détecteur de vertex

Zhao, Wei 25 March 2015 (has links)
La thèse présente le développement de CPS (CMOS Pixel Sensors) intégré avec CAN au niveau du pixel pour les couches externes du détecteur de vertex de l’ILD (International Large Detector). Motivé par la physique dans l’ILC (International Linear Collider), une précision élevée est nécessaire pour les détecteurs. La priorité des capteurs qui montre sur les couches externes est une faible consommation d’énergie en raison du rapport élevé de couverture de la surface sensible (~90%) dans le détecteur de vertex. Le CPS intégré avec CAN est un choix approprié pour cette application. L’architecture de CAN de niveau colonne ne fournit pas une performance optimisée en termes de bruit et la consommation d’énergie. La conception de CAN au niveau du pixel a été proposée. Bénéficiant des sorties de pixels tout-numérique, CAN au niveau des pixels présentent les mérites évidents sur le bruit, la vitesse, la zone sensible et la consommation d’énergie. Un prototype de capteur, appelé MIMADC, a été implémenté par un processus de 0.18 μm CIS (CMOS Image Sensor). L’objectif de ce capteur est de vérifier la faisabilité du CPS intégré avec les CAN au niveau des pixels. Trois matrices sont incluses dans ce prototype, mais avec deux types différents de CAN au niveau de pixel: une avec des CAN à registre à approximations successives (SAR), et les deux autres avec des CAN à une seule pente (Single-Slope, SS) CAN. Toutes les trois possédant les pixels de la même taille de 35×35 μm2 et une résolution de 3-bit. Dans ce texte, des analyses théoriques et le prototype sont présentés, ainsi que la conception détaille des circuits. / This thesis presents the development of CMOS pixel sensors (CPS) integrated with pixel-level ADCs for the outer layers of the ILD (International Large Detector) vertex detector. Driven by physics in the ILC (International Linear Collider), an unprecedented precision is required for the detectors. The priority of the sensors mounted on the outer layers is low power consumption due to the large coverage ratio of the sensitive area (~90%) in the vertex detector. The CPS integrated with ADCs is a promising candidate for this application. The architecture of column-level ADCs, exists but do not provide an optimized performance in terms of noise and power consumption. The concept of pixel-level ADCs has been proposed. Benefiting from the all-digital pixel outputs, pixel-level ADCs exhibit the obvious merits on noise, speed, insensitive area, and power consumption. In this thesis, a prototype sensor, called MIMADC, has been implemented by a 0.18 μm CIS (CMOS Image Sensor) process. The target of this sensor is to verify the feasibility of the CPS integrated with pixel-level ADCs. Three matrices are included in this prototype but with two different types of pixel-level ADCs: one with successive approximation register (SAR) ADCs, and the other two with single-slope (SS) ADCs. All of them feature a same pixel size of 35×35 μm2 and a resolution of 3-bit. In this thesis, the prototype is presented for both theoretical analyses and circuit designs. The test results of the prototype are also presented.
68

Détection et dénombrement de la moyenne et grande faune par imagerie visible et infrarouge thermique acquise à l'aide d'un aéronef sans pilote (ASP)

Chrétien, Louis-Philippe January 2016 (has links)
L’inventaire aérien est une approche pratique pour effectuer l’inventaire de la grande faune sur de grands territoires; particulièrement pour les zones peu accessibles. Toutefois, les limitations liées aux capacités de détection des observateurs, la coloration cryptique de certaines espèces fauniques et la complexité structurelle de certains habitats font en sorte que les inventaires ont généralement des biais qui sous-estiment la densité réelle de la population. Par ailleurs, peu d’études ont démontré la capacité d’effectuer la détection aérienne simultanée de plusieurs espèces. La détection multiespèce peut s’avérer utile pour les espèces qui se côtoient spatialement afin de connaître leur utilisation de l’espace, pour étudier la relation proie/prédateur et pour limiter les coûts à un seul inventaire. Cette pratique s’avère néanmoins trop exigeante pour les observateurs qui doivent déjà faire preuve de beaucoup de concentration pour détecter une seule espèce lors d’un inventaire aérien traditionnel. L’utilisation d’imagerie aérienne multispectrale acquise avec un aéronef sans pilote (ASP) représente une méthode potentielle pour la détection d’une ou plusieurs espèces fauniques. Ce projet de recherche consistait donc dans un premier temps à détecter, identifier et dénombrer à l’aide d’imagerie acquise avec un ASP et par traitements d’images les cerfs de Virginie (Odocoileus virginianus). Différentes combinaisons de bandes spectrales, méthodes d’analyses d’images et résolutions spatiales ont été testées pour déterminer la méthode la plus efficace pour la détection du cerf. Dans un deuxième temps, la meilleure méthode identifiée pour les cerfs a été utilisée et adaptée pour effectuer la détection simultanée des bisons d’Amérique (Bison bison), des daims européens (Dama dama), des loups gris (Canis lupus) et des wapitis (Cervus canadensis). L’inventaire de la faune a été réalisé au Centre d’observation de la faune et d’interprétation de l’agriculture de Falardeau à Saint-David-de-Falardeau, Québec, Canada. Les résultats démontrent que l’imagerie visible et infrarouge thermique avec une résolution spatiale de 0.8 cm/pixel combinée à une analyse d’images par objet constitue la combinaison la plus efficace parmi celles testées pour la détection des cerfs de Virginie. Tous les individus visibles à l’œil nu sur les mosaïques ont été détectés. Néanmoins, considérant l’obstruction visuelle causée par la canopée coniférienne, cette approche offre un taux de détectabilité moyen de 0.5, comparable aux inventaires aériens classiques. La complexité structurelle de l’habitat demeure ainsi un problème non résolu. Quant à l’analyse multiespèce, les bisons et les wapitis ont tous été détectés même en présence d’autres espèces comme l’autruche (Struthio camelus), le coyote (Canis latrans) et l’ours noir (Ursus americanus). Pour les daims et les loups, entre 0 à 1 individu par parcelle a été confondu avec les autres éléments du paysage tels que le sol. De plus, entre 0 à 2 individus par parcelle n’ont pas été détectés alors qu’ils étaient présents dans la ligne de vol. Non seulement cette approche a démontré sa capacité à détecter une ou plusieurs espèces, mais également son adaptabilité à cibler spécifiquement les espèces d’intérêts pour le gestionnaire et à ignorer celles qui ne sont pas ciblées. Ce projet a donc permis de valider le potentiel des ASP pour l’acquisition d’imagerie d’une qualité permettant l’extraction de données d’inventaires. Cela ouvre la voie à l’utilisation de ce type de plateforme d’acquisition pour des applications reliées à la gestion de la faune grâce à leur faible impact sonore et leur haut taux de revisite. Toutefois, la réglementation canadienne actuelle limite l’utilisation de ces appareils sur de faibles superficies. Il n’en demeure pas moins que la technologie peut être développée en attendant les futurs progrès du domaine des ASP et de la réglementation.
69

Etude et construction d'un tomographe TEP/TDM pour petits animaux, combinant modules phoswich à scintillateurs et détecteur à pixels hybrides / Design and construction of a small animal PET/CT scanner combining scintillation phoswich modules and hybrid pixels detectors

Nicol, Stanislas 20 July 2010 (has links)
L’approche qui a été développée dans l’équipe imXgam du CPPM est de combiner sur un unique support rotatif les modules de détection de la caméra pour petit animal ClearPET avec un détecteur de rayons X à comptage de photons dans le but d’acquérir simultanément des images anatomiques (TDM) et fonctionnelles (TEP) du même champ de vue. L’étude préliminaire du système hybride ClearPET/XPAD3 menée en simulation avec Gate a permis d’implémenter une nouvelle géométrie de détection TEP à 21 détecteurs phoswich, de fixer les grandes lignes de l’assemblage TEP/TDM, ainsi que d’étudier et de solutionner les difficultés liées au régime de fonctionnement bimodal. Pour finir, l’outil de simulation a également permis d’imaginer comment un tel système pourrait judicieusement exploiter la corrélation spatiale et temporelle des informations anatomo-fonctionnelles.Du point de vue de l’instrumentation, ce projet a vu la mise en œuvre du système hybride simultané ClearPET/XPAD3. Une fois les deux systèmes TEP et TDM opérationnels individuellement,il a été démontré, d’une part que le ClearPET est parfaitement capable d’opérer en régime de fonctionnement simultané moyennant un blindage approprié de ses modules de détection, et d’autre part que la nouvelle génération de caméra à pixels hybrides XPAD3-S/Si s’avère très prometteuse compte tenu de la bonne qualité des premières images reconstruites.Finalement, la preuve de concept d’une acquisition TEP/TDM simultanée avec une source de positons scellée et un tube à rayons X a pu être concrètement démontrée. / The pathway that has been followed by the imXgam team at CPPM was to combine on a single rotating device the detector modules of the small animal PET scanner ClearPET witha photon counting X-ray detector in order to perform simultaneous acquisition of images from the anatomy (X-ray CT) and from the metabolic function (PET) of the common field-of-view.A preliminary study of the hybrid imaging system ClearPET/XPAD3 carried out using Gateled us to form a new PET detection assembly based on 21 phoswich modules, to fix the design of the PET/CT device, as well as to study and solve the difficulties arising from simultaneous hybrid imaging. Last but not least, the simulation tool also allowed us for thinking how wellsuch a system could judiciously use the spatial and temporal correlations between anatomicand functional information.From an instrumentation point of view, we succeeded to set up the ClearPET/XPAD3 prototype.Once both imaging systems were operational individually, we demonstrated on one sidethat the ClearPET prototype was perfectly capable of performing correctly in simultaneousacquisition conditions, providing that the detector modules were appropriately shielded. Onthe other side, the new generation of the hybrid pixel camera using the XPAD3-S chip provedto be quite promising given the good quality of the first reconstructed images.Finally, the proof of concept of simultaneous PET/CT data acquisition was made using a sealed positron source and an X-ray tube.
70

Observations cosmologiques avec un télescope grand champ spatial : Simulations pixels du spectromètre sans fente d'EUCLID

Zoubian, Julien 21 May 2012 (has links)
Les observations des supernovae, du fond diffus cosmologique, et plus récemment la mesure des oscillations acoustiques des baryons et des effets de lentilles gravitationnelles faibles, favorisent le modèle cosmologique LambdaCDM pour lequel l'expansion de l'Univers est actuellement en accélération. Ce modèle fait appel à deux composants insaisissables, la matière sombre et l'énergie sombre. Deux approches semblent particulièrement prometteuses pour sonder à la fois la géométrie de l'Univers et la croissance des structures de matière noire, l'analyse des distorsions faibles des galaxies lointaines par cisaillement gravitationnel et l'étude des oscillations acoustiques des baryons. Ces deux méthodes demandent de très grands relevés du ciel, de plusieurs milliers de degrés carrés, en imagerie et en spectroscopie. Dans le contexte du relevé spectroscopique de la mission spatiale EUCLID, dédiée à l'étude des composantes sombres de l'univers, j'ai réalisé des simulations pixels permettant l'analyse des performances instrumentales. La méthode proposée peut se résumer en trois étapes. La première étape est de simuler les observables, c'est à dire principalement les sources du ciel. Pour cela j'ai développé une nouvelle méthode, adapté à la spectroscopie, qui permet d'imiter un relevé existant, en s'assurant que la distribution des propriétés spectrales des galaxies soit représentative des observations actuelles, en particulier la distribution des raies d'émission. La seconde étape est de simuler l'instrument et de produire des images équivalentes aux images réelles attendues. / The observations of the supernovae, the cosmic microwave background, and more recently the measurement of baryon acoustic oscillations and the weak lensing effects, converge to a LambdaCDM model, with an accelerating expansion of the today Universe. This model need two dark components to fit the observations, the dark matter and the dark energy. Two approaches seem particularly promising to measure both geometry of the Universe and growth of dark matter structures, the analysis of the weak distortions of distant galaxies by gravitational lensing and the study of the baryon acoustic oscillations. Both methods required a very large sky surveys of several thousand square degrees. In the context of the spectroscopic survey of the space mission EUCLID, dedicated to the study of the dark side of the universe, I developed a pixel simulation tool for analyzing instrumental performances. The proposed method can be summarized in three steps.The first step is to simulate the observables, ie mainly the sources of the sky. I work up a new method, adapted for spectroscopic simulations, which allows to mock an existing survey of galaxies in ensuring that the distribution of the spectral properties of galaxies are representative of current observations, in particular the distribution of the emission lines. The second step is to simulate the instrument and produce images which are equivalent to the expected real images. Based on the pixel simulator of the HST, I developed a new tool to compute the images of the spectroscopic channel of EUCLID. The new simulator have the particularity to be able to simulate PSF with various energy distributions and detectors which have different pixels

Page generated in 0.0379 seconds