• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 77
  • 33
  • 9
  • 1
  • Tagged with
  • 111
  • 43
  • 32
  • 19
  • 17
  • 15
  • 13
  • 13
  • 12
  • 12
  • 11
  • 11
  • 11
  • 11
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Utilisation de capteurs CMOS rapides pour l'imagerie X à très haute sensibilité / Use of swift CMOS sensors for X ray imaging with high sensitivity

Bachaalany, Mario 07 December 2012 (has links)
Cette étude évalue le potentiel, comme détecteur de rayons X, des capteurs à pixel CMOS conçus pour la trajectométrie des particules chargée. Nous démontrons l’intérêt de la construction d’une image par comptage de photons uniques pour la définition de celle-ci. Un dispositif exploitant une source X est développé pour mesurer la résolution spatiale sur l’impact des photons. Une simulation complète sous GEANT4 montre que le système permet d’estimer cette résolution avec une incertitude de 2 µm. L’application du protocole caractérise la détection directe des rayons X de basse énergie (< 10 keV) par un capteur CMOS avec une résolution de 52 lp/mm. Une méthode de détection indirecte, couplant un cristal de CsI(Tl) finement segmenté au capteur CMOS, est employée pour les énergies supérieures à 10 keV. La résolution spatiale dans ces conditions atteint 15 lp/mm. Une simulation détaillée explique cette performance limitée par les caractéristiques d’émission de lumière du cristal employé. / This work investigates the potential application of CMOS pixel sensors, designed for particle tracking, for the detection of X rays. We explain how the image definition can be improved exploiting the single photon counting technique. An experimental system, based on an X ray source, is developed to measure the single point resolution of photons. Thanks to a full GEANT4 simulation of the device, the evaluation uncertainty is predicted to be 2 µm. We apply our method to the direct detection of low energy (< 10 keV) X rays by a CMOS pixel to measure a spatial resolution of 52 lp/mm. For higher energies, an hybrid device, coupling a CSi(Tl) highly segmented crystal with a CMOS sensor, is used. The spatial resolution reaches in this case 15 lp/mm. A detailed simulation study demonstrated that this limited performance is related to the characteristics of the light emitted by the crystal.
42

Contribution à la quantification des incertitudes portées par la variabilité spatiale des déchets radioactifs enterrés à Tchernobyl / Contribution to spatial variability uncertainty quantification of radioactive waste in Chernobyl

Nguyen, Huong Liên 14 December 2017 (has links)
Après l’accident de la centrale de Tchernobyl, environ 800 tranchées peu profondes ont été creusées dans la zone d’exclusion afin d’y enfouir des déchets radioactifs. Cependant, ces tranchées, construites dans des sables éoliens, ne constituent pas une barrière efficace contre la migration des radionucléides dans l’aquifère superficiel. La tranchée T22 sert de support pour étudier des questions générales : quelles sont les incertitudes sur le volume et l’activité des déchets contaminés, et sur la qualité des eaux en aval ?Les estimations antérieures de l’inventaire de la tranchée supposent linéaire la corrélation entre l’activité spécifique mesurée sur des échantillons de sol et le taux de comptage gamma in situ. Des simulations géostatistiques sont utilisées pour étudier cette corrélation, et sa sensibilité à la variabilité spatiale de l'activité ainsi qu'au milieu environnant. Si la corrélation peut effectivement être supposée linéaire, l'étude des données d’une campagne de terrain menée en septembre 2015 montre qu'il est préférable de cokriger l'activité par le comptage radiométrique plutôt que de transformer les données de comptage.L’inventaire en 137Cs présent dans la tranchée en 1999 est révisé ici puis comparé à une estimation antérieure. La profondeur de la tranchée est interpolée en utilisant conjointement les résultats de profils géoradar, et des données de sondages radiométriques forés dans la tranchée. Les résultats de cette nouvelle analyse géostatistique, complétée par des simulations, ont permis de quantifier l’incertitude sur le stock de 137Cs dans la tranchée.Enfin, un modèle hydrogéologique 2D non saturé est construit afin d’évaluer l’effet de la variabilité spatiale du terme source sur le panache de 90Sr généré par la tranchée T22. Ce modèle simule par ailleurs le battement de la nappe qui pourrait expliquer les différences observées entre les modèles antérieurs et les observations. Une analyse de sensibilité est conduite en dernier lieu afin d’évaluer l’influence des différents paramètres d’écoulement et de transport sur les chroniques de concentrations en 90Sr simulées au cours du temps. / Following the explosion at the Chernobyl nuclear power plant, about 800 shallow trenches were dug to bury radioactive waste in the exclusion zone. However, these trenches were built in permeable aeolian sand and do not prevent the migration of radionuclides in the superficial aquifer. Trench T22 allows us to explore general research problems such as the uncertainty linked to the volume and the activity of radioactive waste, and to the water quality in groundwater downstream the trench.Previous estimations of the trench inventory assume that the correlation between specific activity measured in soil samples and in situ count rate is linear. Geostatistical simulations are used to analyze this correlation and its sensitivity to the activity spatial variability and to its surrounding environment. If the correlation can be considered as linear, the study of field measurements undertaken in 2015 demonstrates that it is better to apply cokriging to estimate the activity by the count rate rather than transforming the count rate data.The inventory of 137Cs calculated for 1999 is then compared to a previous estimation. The trench boundaries are interpolated using the results of ground penetrating radar profiles and gamma logging carried on boreholes drilled into the trench. The new estimation is completed by geostatistical simulations and enables us to quantify the uncertainty of 137Cs trench inventory.Finally, the effect of the source term spatial variability is explored with the 90Sr migration modeling. The previous 90Sr transport model did not take into account the water table fluctuations which may cause some discrepancies between model predictions and field observations. They are thus reproduced in a 2D non saturated model. A sensitivity analysis on the flow and transport parameters as well as the source term variability is undertaken.
43

Etude de la morphologie et de la distribution des neurones dans le cerveau de macaque par microscopie optique / Study of the morphology and distribution of neurons in the macaque brain using optical microscopy

You, Zhenzhen 09 October 2017 (has links)
La compréhension des mécanismes impliqués dans les cas sains, les maladies neurodégénératives ainsi que le développement de nouvelles approches thérapeutiques repose sur l’utilisation de modèles expérimentaux pertinents et de techniques d’imagerie adaptées. Dans ce contexte, la microscopie virtuelle offre la possibilité unique d’analyser ces modèles à l’échelle cellulaire avec une très grande variété de marquages histologiques. Mon projet de thèse consiste à mettre en place et à appliquer une méthode d’analyse d’images histologiques en couleur permettant de segmenter et de synthétiser l’information relative aux neurones à l’aide de l’anticorps NeuN sur des coupes de cerveau de macaque. Dans ce travail, nous appliquons d’abord la méthode de Random Forest (RF) pour segmenter les neurones ainsi que le tissu et le fond. Ensuite, nous proposons une méthode originale pour séparer les neurones qui sont accolés afin de les individualiser. Cette méthode s’adapte à l’ensemble des neurones présentant une taille variable (diamètre variant entre 5 et 30 μm). Elle est également efficace non seulement pour des régions dites « simples » caractérisées par une faible densité de neurones mais aussi pour des régions dites « complexes » caractérisées par une très forte densité de plusieurs milliers de neurones. Le travail suivant se concentre sur la création de cartes paramétriques synthétisant la morphologie et la distribution des neurones individualisés. Pour cela, un changement d’échelle est mis en œuvre afin de produire des cartographies présentant des résolutions spatiales plus faibles (résolution originale de 0,22 μm et cartographies créées proposant une résolution spatiale adaptative de quelques dizaines à quelques centaines de micromètres). Plusieurs dizaines de paramètres morphologiques (rayon moyen, surface, orientation, etc.) sont d’abord calculés pour chaque neurone ainsi que des paramètres colorimétriques. Ensuite, il est possible de synthétiser ces informations sous la forme de cartes paramétriques à plus basse résolution à l’échelle de régions anatomiques, de coupes voire, à terme, de cerveaux entiers. Cette étape transforme des images microscopiques qualitatives couleur en images mésoscopiques quantitatives, plus informatives et plus simples à analyser. Ce travail permet d’analyser statistiquement de très grands volumes de données, de synthétiser l’information sous la forme de cartographies quantitatives, d’analyser des problèmes extrêmement complexes tels que la mort neuronale et à terme de tester de nouveaux médicaments voire de confronter ces informations acquises post mortem avec des données acquises in vivo. / Understanding the mechanisms involved in healthy cases, neurodegenerative diseases and the development of new therapeutic approaches is based on the use of relevant experimental models and appropriate imaging techniques. In this context, virtual microscopy offers the unique possibility of analyzing these models at a cellular scale with a very wide variety of histological markers. My thesis project consists in carrying out and applying a method of analyzing colored histological images that can segment and synthesize information corresponding to neurons using the NeuN antibody on sections of the macaque brain. In this work, we first apply the Random Forest (RF) method to segment neurons as well as tissue and background. Then, we propose an original method to separate the touching or overlapping neurons in order to individualize them. This method is adapted to process neurons presenting a variable size (diameter varying between 5 and 30 μm). It is also effective not only for so-called "simple" regions characterized by a low density of neurons but also for so-called "complex" regions characterized by a very high density of several thousands of neurons. The next work focuses on the creation of parametric maps synthesizing the morphology and distribution of individualized neurons. For this purpose, a multiscale approach is implemented in order to produce maps with lower spatial resolutions (0.22 μm original resolution and created maps offering adaptive spatial resolution from a few dozens to a few hundred of micrometers). Several dozens of morphological parameters (mean radius, surface, orientation, etc.) are first computed as well as colorimetric parameters. Then, it is possible to synthesize this information in the form of lower-resolution parametric maps at the level of anatomical regions, sections and even, eventually, the entire brains. This step transforms qualitative color microscopic images to quantitative mesoscopic images, more informative and easier to analyze. This work makes it possible to statistically analyze very large volumes of data, to synthesize information in the form of quantitative maps, to analyze extremely complex problems such as neuronal death, to test new drugs and to compare this acquired information post mortem with data acquired in vivo.
44

Scanner pour tomographie optique diffuse sans contact à canaux de détection dans le domaine temporel à deux bandes de longueur d'onde pour imagerie intrinsèque et par fluorescence sur petit animal

Lapointe, Eric January 2011 (has links)
Ce mémoire décrit le développement opto-mécanique et électro-mécanique de la 2ième version du scanner TomOptUS pour tomographie optique diffuse (TOD).Ce scanner est destiné à l'imagerie moléculaire 3D de l'intérieur d'un petit animal. Les buts de la TOD sont : 1) d'obtenir la distribution spatiale des coefficients d'absorption ([mu][indice inférieur a]) et de diffusion ([mu][indice inférieur s]) dans les tissus biologiques (imagerie intrinsèque) et 2) de localiser des agents fluorescents injectés et à suivre leur distribution spatiale (imagerie par fluorescence). La TOD sur petit animal est d'un grand intérêt en pharmacologie et en oncologie pour l'étiquetage de médicaments afin de suivre leur progression, pour suivre l'évolution d'une pathologie sous traitement sur un même individu, ou pour repérer des cellules cancéreuses par marquage des protéines membranaires qu'elles expriment. La diffusion de la lumière dans les tissus biologiques est le plus grand obstacle en TOD. Les mesures en régime continu ne permettent pas de distinguer les photons détectés selon le degré de diffusion qu'ils subissent. La diffusion mène à une perte d'information quant à la trajectoire suivie par les photons. La détection résolue en temps permet de garder une partie de cette information. Le scanner TomOptUS utilise un système ultra-rapide de comptage de photons corrélé en temps et des tubes photomultiplicateurs pour mesurer la distribution temporelle de pulses lumineux transmis et/ou rétrodiffusés dans le sujet à imager suite à l'illumination à l'aide d'impulsions laser ultra-brèves. La 2 ième version du scanner est un système multicanal à géométrie annulaire sur 360 [degrés] autour du sujet. Il est muni de 7 canaux de détection optique permettant l'acquisition simultanée de données tomographiques dans deux bandes de longueurs d'onde (intrinsèque et fluorescence). L'acquisition des données est automatisée par ordinateur.Ce scanner a l'avantage d'effectuer des mesures sans contact avec le sujet. Ceci facilite l'acquisition des données et permettra éventuellement de le combiner à d'autres modalités d'imagerie médicale sans contact (tomographie d'émission par positrons, tomodentométrie [i.e. tomodensitométrie] ou imagerie par résonance magnétique) pour réaliser des séances d'imagerie multimodales. Le scanner est aussi équipé d'un système de vision numérique stéréo à 2 caméras permettant de mesurer la surface externe du sujet en 3D. Les mesures tomographiques et de surface se font simultanément en utilisant le faisceau laser incident sur le sujet. On présente des résultats de localisation d'un nombre a priori inconnu d'inclusions fluorescentes ponctuelles dans une mire (ou fantôme) absorbante et diffusante. L'algorithme de localisation repose sur la mesure des temps d'arrivée des premiers photons à différentes positions angulaires autour du sujet. Ceci requiert une résolution temporelle très élevée dans la détection des photons, une très grande synchronisation des différents canaux de détection et une grande stabilité dans la détection des signaux optiques. L'architecture du scanner ainsi qu'une méthode de calibration élaborée dans le cadre des présents travaux permettent d'atteindre de telles performances. On présente également des résultats préliminaires de l'effet d'un milieu hétérogène sur le temps de vol des photons.
45

Conception d'un circuit d'étouffement de photodiodes avalanches monophotoniques pour une intégration matricielle dans un module de comptage monophotonique

Nolet, Frédéric January 2016 (has links)
De nombreuses applications en sciences nucléaires bénéficieraient d’un détecteur possédant une précision temporelle de 10 ps largeur à mi-hauteur à la mesure d’un photon unique. Par exemple, le projet de Time-Imaging Calorimeter en cours de conception au CERN requiert un détecteur possédant une telle précision temporelle afin de mesurer le temps de vol (TDV) et la trajectoire des particules émises lors des collisions dans les expériences du Large Hadron Collider (LHC), ce qui permet d’identifier ces dites particules. De plus, un détecteur possédant une précision temporelle de l’ordre de 10 ps permettra la mitigation de l’empilement des événements. Un second exemple est la tomographie d’émission par positrons (TEP), une modalité d’imagerie médicale non-invasive qui mesure la distribution d’un traceur radioactif afin d’étudier et détecter le cancer. Dans le but de développer un scanner TEP temps réel, le groupe de recherche en appareillage médical de Sherbrooke (GRAMS) travaille sur l’intégration de la mesure du TDV de l’interaction TEP. Les meilleures performances actuelles des détecteurs TEP se situent aux alentours de 150 ps, ce qui n’est pas suffisant pour intégrer le TDV dans un scanner TEP préclinique. Cette mesure exige une résolution temporelle TEP de l’ordre de 10 ps. La solution proposée par le GRAMS est de développer un module de comptage monophotonique (MCMP) 3D qui est composé d’une matrice de photodiodes avalanches monophotoniques (PAMP) reliée par des interconnexions verticales (TSV) à une matrice de circuits de lecture composée d’un circuit d’étouffement et d’un convertisseur temps-numérique. Ce détecteur permet donc de mesurer précisément le temps d’arrivée de chaque photon détecté. Ce document présente la conception du circuit d’étouffement réalisé en technologie CMOS 65 nm de TSMC (Taiwan Semiconductor Manufacturing Company) intégré à chaque pixel de 50 × 50 µm2 dans un MCMP 3D. Afin de répondre au besoin de précision temporelle de 10 ps dans un détecteur 3D, le circuit proposé est un circuit d’étouffement passif avec une recharge active possédant un amplificateur opérationnel en boucle ouverte à titre de comparateur de tension. L’amplificateur opérationnel utilisé possède un seuil ajustable de 0 à 2,5 V afin d’être en mesure d’évaluer le seuil optimal pour la mesure de gigue temporelle avec une PAMP. La taille finale du circuit d’étouffement est de 18 × 30 µm2 incluant l’amplificateur qui est d’une taille de 13 × 8 µm2, ce qui représente respectivement environ 22% et 4% de la taille totale du pixel. Le circuit d’étouffement possède une gigue temporelle de 4 ps largeur à mi-hauteur (LMH). Les résultats obtenus prouvent qu’il est possible d’intégrer de l’électronique de lecture de PAMP dans un MCMP 3D possédant des performances temporelles sous les 10 ps.
46

Jonctions supraconductrices à effet Tunnel pour le comptage de photons en astronomie

Delaet, Bertrand 01 December 2000 (has links) (PDF)
Ce mémoire présente la réalisation et l'étude des Jonctions Supraconductrices à Effet Tunnel (JSET) de type Nb/Al-AIOx-Al/Nb, ainsi que les résultats préliminaires obtenus sur la détection et le comptage de photons à partir de ces jonctions. Les JSET incluent une couche supraconductrice photo-absorbante, en niobium ou en tantale épitaxié, dans laquelle l'énergie du photon incident est convertie en quasiparticules de durée de vie suffisante, à très basse température, pour être comptées par effet tunnel. Les couches eu aluminium, de gap réduit, fonctionnent comme un piège à quasiparticules et permettent d'augmenter l'efficacité du comptage. Une première étude a consisté en l'optimisation de la qualité cristalline des absorbeurs en niobium et en tantale. Les analyses structurale et électrique réalisées démontrent que ces films, déposés par pulvérisation cathodique magnétron sur saphir plan R chauffé à 600 °C, sont épitaxiés suivant la direction (100) et possèdent des rapports résistifs de l'ordre de 30 conduisant à des libres parcours moyens supérieurs à 50 nm. Dans un second temps, nous avons mis au point le procédé collectif d'élaboration des JSET, isolées ou sous forme matricielle, sur substrat trois pouces, en parallèle avec leur caractérisation électrique et magnétique à 4,2 K et 200 mK. La majorité des jonctions ont un excellent facteur de qualité (rapport de la résistance dynamique dans la partie sous le gap d'une caractéristique courant-tension sur la résistance normale de la jonction) supérieur à 250000 à 200 mK, preuve d'un procédé de fabrication fiable et reproductible. Finalement, nous démontrons la faisabilité du comptage de photons dans F l'infrarouge proche (.>.. = 0,78 mu m) à l'aide d'un détecteur mono-pixel basé sur une JSET à absorbeur en niobium, refroidie à 200 mK dans un réfrigérateur à dilution et lue par une électronique d'amplification et d'aquisition. L'utilisation de tels détecteurs aux performances inégalées ouvre la voie à d'importantes applications en astronomie dans le domaine du visible au proche infrarouge.
47

Prédiction de la violation d’un seuil de 400 000 cellules/mL au réservoir de lait à l’aide du portrait et de la dynamique de santé du pis des troupeaux laitiers québécois

Fauteux, Véronique 06 1900 (has links)
Avec la mise en place de la nouvelle limite maximale de 400 000 cellules somatiques par millilitres de lait (c/mL) au réservoir, le mois d’août 2012 a marqué une étape importante en termes de qualité du lait pour les producteurs de bovins laitiers du Canada. L’objectif de cette étude consistait en l’établissement d’un modèle de prédiction de la violation de cette limite au réservoir à l’aide des données individuelles et mensuelles de comptages en cellules somatiques (CCS) obtenues au contrôle laitier des mois précédents. Une banque de donnée DSA comprenant 924 troupeaux de laitiers québécois, en 2008, a été utilisée pour construire un modèle de régression logistique, adapté pour les mesures répétées, de la probabilité d’excéder 400 000 c/mL au réservoir. Le modèle final comprend 6 variables : le pointage linéaire moyen au test précédent, la proportion de CCS > 500 000 c/mL au test précédent, la production annuelle moyenne de lait par vache par jour, le nombre de jours en lait moyen (JEL) au test précédent ainsi que les proportions de vaches saines et de vaches infectées de manière chronique au test précédant. Le modèle montre une excellente discrimination entre les troupeaux qui excèdent ou n’excèdent pas la limite lors d’un test et pourrait être aisément utilisé comme outil supplémentaire de gestion de la santé mammaire à la ferme. / August 2012 represents an in important step in terms of milk quality for the Canadian bovine dairy producers because the upper tolerance limit for bulk tank somatic cell count (BTSCC) was lowered to 400 000 somatic cells per millilitre (c/mL). The objective of this study was to develop a predictive model of exceeding the BTSCC limit based on monthly individuals somatic cell count (SCC) measures obtained in the previous months. A database including DHI data from the year 2008 of 924 dairy herds in Québec, Canada was used. A logistic regression model for repeated measures was constructed. The final model included 6 variables related to monthly individual cow somatic cell count: mean individual linear score at the previous test, proportion of cows over 500 000 cells/mL at the previous test, mean herd annual daily milk production per cow, average days in milk at the previous test, proportion of healthy cows at previous test, proportion of chronic cows at previous test. The model has excellent discrimination between herd that exceeded and herd that did not exceed 400 000 cells/mL and can be use to advise dairy producers of impending risks of exceeding the BTSCC limit.
48

Optimisation des observations et des données cinématiques H[alpha] de l'échantillon de galaxies proches SINGS

Daigle, Olivier January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
49

Les moments cumulant d'ordre supérieur à deux points des champs cosmologiques : propriétés théoriques et applications.

Bel, Julien 04 December 2012 (has links)
La philosophie de cette thèse est de dire que nos plus grandes chances de trouver et de caractériser les ingrédients essentiels du modèle cosmologique passe par l'élargissement de l'éventail des méthodes que l'on peut utiliser dans le but de trouver une nouvelle physique. Bien qu'il soit d'une importance primordiale de continuer à affiner, à de-biaiser et à rendre plus puissantes, les stratégies qui ont contribué à établir le modèle de concordance, il est également crucial de remettre en question, avec de nouvelles méthodes, tous les secteurs de l'actuel paradigme cosmologique. Cette thèse, par conséquent, s'engage dans le défi de développer des sondes cosmologiques nouvelle et performantes qui visent à optimiser les résultats scientifiques des futures grand sondages de galaxies. L'objectif est double. Du côté théorique, je cherche à mettre au point de nouvelles stratégies de test qui sont peu (voire pas du tout) affectées par des incertitudes astrophysiques ou par des modèles phénoménologiques qui ne sont pas complet . Cela rendra les interprétations cosmologiques plus facile et plus sûr. Du côté des observations, l'objectif est d'évaluer les performances des stratégies proposées en utilisant les données actuelles, dans le but de démontrer leur potentiel pour les futures grandes missions cosmologiques tels que BigBoss et EUCLID. / The philosophy of this thesis is that our best chances of finding and characterizing the essential ingredients of a well grounded cosmological model is by enlarging the arsenal of methods with which we can hunt for new physics. While it is of paramount importance to continue to refine, de-bias and power, the very same testing strategies that contributed to establish the concordance model, it is also crucial to challenge, with new methods, all the sectors of the current cosmological paradigm. This thesis, therefore, engages in the challenge of developing new and performant cosmic probes that aim at optimizing the scientific output of future large redshift surveys. The goal is twofold. From the theoretical side, I aim at developing new testing strategies that are minimally (if not at all) affected by astrophysical uncertainties or by not fully motivated phenomenological models. This will make cosmological interpretations easier and safer. From the observational side, the goal is to gauge the performances of the proposed strategies using current, state of the art, redshift data, and to demonstrate their potential for the future large cosmological missions such as BigBOSS and EUCLID.
50

Tomographie spectrale à comptage de photons : développement du prototype PIXSCAN et preuve de concept / Photon Counting Spectral Tomography : Development of the Demonstrator PIXSCAN and Proof of Concept

Dupont, Mathieu 18 April 2014 (has links)
Dans le domaine de la tomographie par rayons X préclinique, la tomographie spectrale est une voie de plus en plus en plus explorée. Les objectifs de la tomographie spectrale sont la caractérisation et la quantification des tissus et agents de contraste que l'amélioration de contraste entre tissus mous. Cela passe par l'exploitation de l'information spectrale (ou énergétique) des photons X et non plus seulement par leur quantité détectée comme en tomographie standard par rayons X. L'intérêt de la tomographie spectrale se trouve renforcé par l'arrivée des caméras à pixels hybrides comme le XPAD qui ont la capacité de sélectionner les photons X en fonction de leur énergie. La caméra XPAD3, la troisième version du XPAD est construite pour fonctionner dans le micro-tomodensitomètre, PIXSCAN développé au CPPM.Dans ce contexte, cette thèse a deux buts~: participer au développement du PIXSCAN et effectuer une preuve de concept de la tomographie spectrale à l'aide du PIXSCAN. Le premier but est rempli grâce au développement de l'interface d'acquisition du PIXSCAN. Le second est accompli par l'implantation de la méthode par séparation de composantes dont le but est d'isoler les contributions photoélectrique, Compton et des agents de contraste. Ce travail débute par la caractérisation de la méthode et se termine par la preuve de concept sur données réelles acquises à l'aide du PIXSCAN. / In the field of preclinical X-ray tomography, spectral tomography is actively explorated. The aims of spectral tomography are the caracterisation of tissues and contrast agentstogether with the quantification of the latter and the enhancement of contrast between soft tissues. This is achived by the exploitation of spectral information (i.e. energy) and not only the detected quantities of photons X. The interest in spectral tomography is enforced by the arrival of hybrid pixel cameras like XPAD, because of their ability to select photons according to their energy. The XPAD3 camera, third version of XPAD, is built to be used in the micro-CT demonstrator PIXCAN fully developped at CPPM.In this context, this thesis has two goals : a contribution to the developement of the PIXSCAN and a realisation of a proof of concept of spectral tomography in PIXSCAN. The first goal is done by developing the data acquisition system of PIXSCAN. To accomplish the second one, we perform spectral tomography by implementing component separation in order to isolate photoelectric, compton and contrast agents contribution. This work begins by the caracterisation of this method and ends by a proof of concept on real data acquired by PIXSCAN.

Page generated in 0.0416 seconds