• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 116
  • 56
  • 10
  • 9
  • 6
  • 1
  • 1
  • 1
  • Tagged with
  • 209
  • 85
  • 53
  • 30
  • 28
  • 27
  • 24
  • 24
  • 23
  • 21
  • 18
  • 16
  • 13
  • 13
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Synthèse des matériaux électroactifs à base de thiophènes et de bipyrroles dissymétriques

Tshibaka, Tshitundu 07 1900 (has links)
Le couplage des aldéhydes aryliques et des amines pour donner les azométhines est une alternative intéressante pour la synthèse des comonomères conjugués. Contrairement aux techniques de couplage classiques qui conduisent à des mélanges de produits, il est possible, par cette méthode, d’obtenir sélectivement des composés ciblés et dissymétriques tout en contrôlant la stœchiométrie des réactifs et les solvants. Dans le cadre de nos recherches sur les matériaux fonctionnels ayant des propriétés électrochromiques améliorées, nous avons planifié de conjuguer des thiophènes et des bipyrroles dissymétriques par les liaisons azométhines. Tout d’abord des analogues des 4-méthoxy-2,2’-bipyrroles 1-2 (chapitre 2) et 3-6 (chapitre 3) ont été synthétisés par une voie générale à partir de 4-hydroxyproline et convertis ensuite en dialdéhydes 8-13 (chapitre 3) qui, à leur tour, ont subit des condensations avec différents aminothiophènes pour donner les azométhines conjugués 17-23 (chapitre 3). / The condensation of amine and aldehyde functional groups is an attractive strategy for the synthesis of conjugated, conductive polymers. Unlike conventional coupling techniques that give a mixture of products, selective product formation affording unsymmetric products is possible by controlling the reagent stoechiometry and solvents. A series of such polymers 17-23 (chapter 3) were synthesized by the dehydration of aminothiophenes and a series of asymmetric bisaldehydes 8-13 (chapter 3) featuring an asymmetric 4-methoxy-2,2'-bipyrrole core. The latter was constructed by a general route from 4-hydroxyproline providing derivatives 1-2 (chapter 2) and 3-6 (chapter 3), which were diformylated in the last step to afford the bisaldehyde monomers 8-13 (chapter 3). In the search for functional materials, the electrochromic properties of polymers 17-23 (chapter 3) were evaluated. / Ces travaux ont été réalisés en collaboration avec le groupe du professeur William Skene.
162

Complexes pinceurs de type diphosphinito (POCOP) de Ni(II) / Ni(III)

Pandarus, Valerica January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
163

Etudes structurales et fonctionnelles de lectines et d'adhésines chez Pseudomonas aeruginosa

Ganne, Géraldine 01 February 2013 (has links) (PDF)
Pseudomonas aeruginosa est un pathogène opportuniste responsable de nombreuses maladies nosocomiales chez les patients immunodéprimés ainsi que d'infections graves chez les patients atteints de la mucoviscidose (CF). La colonisation des voies respiratoires des patients CF est souvent mortelle car une fois installée, cette bactérie est difficile à éradiquer et provoque le déclin des fonctions respiratoires des patients. L'antibiothérapie devient inefficace face au développement de souches multi-résistantes et sa capacité à former un biofilm. L'étape cruciale initiant l'infection ou la formation du biofilm est l'adhésion durant laquelle des interactions spécifiques lectines/oligosaccharides permettent la fixation de la bactérie à la surface de la cellule hôte. Bloquer l'adhésion serait un moyen de lutter contre l'infection. Dans l'approche d'une thérapie anti-adhésive, plusieurs lectines impliquées dans l'adhésion et l'élaboration du biofilm sont prises comme cibles. Dans un premier temps, des lectines fimbriales putatives identifiées récemment, CupB6 et CupE6, ont fait l'objet d'une étude. Des essais d'expression, de purification et de cristallisation ont été réalisés dans l'objectif de résoudre leur structure cristallographique. Une étude visant à identifier le ligand naturel de CupB6 a également été entreprise. Puis une étude a été menée pour caractériser le potentiel d'inhibition de plusieurs molécules dérivées du galactose sur la lectine soluble, PA-IL. Certaines de ces molécules pourraient être utilisées comme glycomimétiques offrant une alternative aux antibiotiques. Une étude par microcalorimétrie et cristallographie aux rayons X a permis d'étudier la spécificité d'une lectine de légumineuse, PELa.
164

Amélioration des simulations thermiques dans les systèmes d'éclairage automobiles / Improvement of the accuracy of thermal simulations in automotive lighting systems

Dauphin, Myriam 10 April 2014 (has links)
Les systèmes d'éclairage automobiles sont conçus pour éclairer la route de manière optimale. Une dégradation des optiques et des matériaux plastiques peut altérer la qualité du faisceau lumineux. En phase de conception, les simulations thermiques visent à minimiser les coûts engendrés par les tests expérimentaux réalisés sur des maquettes. Avec le développement de nouvelles optiques, la méthode numérique des ordonnées discrètes, utilisée pour le calcul des transferts radiatifs, souffre d'un manque de précision en raison d'une discrétisation spatiale limitée pour les réflexions spéculaires. Une augmentation de la discrétisation pourrait mener à des temps de calculs importants. Pour palier à ce problème, la méthode de Monte Carlo a été choisie afin d'évaluer les densités de flux aux parois dans le cas des surfaces opaques, ou un terme source radiatif dans le cas des matériaux semi-Transparents. Notre algorithme est implémenté dans l'environnement de développement EDStar. Cet environnement inclut la bibliothèque de synthèses d'images PBRT permettant de reproduire les trajets optiques dans une géométrie 3D complexe. L'étude porte sur des produits d'éclairage composés de lampes, ainsi le développement d'un modèle numérique fiable requiert des paramètres pertinents en entrée de modèle. Les travaux ont donc été scindés en trois axes d'études. Le premier inclut une phase de caractérisation des propriétés thermiques d'une lampe à incandescence (25W). Différentes méthodes de mesures ont été étudiées pour déterminer la température du filament, moteur des transferts thermiques, et la température de l'enveloppe. Le second axe consiste à développer un modèle des transferts radiatifs dans le système d'éclairage. L'objectif est de localiser les zones de concentration du rayonnement et estimer leur étendue. Enfin, le troisième axe vise à coupler le calcul radiatif à des simulations thermiques dans l'outil de CFD Fluent. La CFD (Computational Fluid Dynamics) est ici nécessaire pour résoudre les problèmes convectifs couplés aux autres transferts thermiques dans un produit industriel. / Automotive lighting systems are designed to illuminate the road optimally. Degradation of optical properties or plastics materials may altering the quality of lighting. In the design stage, thermal simulations are intended to minimize the costs of experimental tests performed on prototypes. With the apparition of new headlights optics, the Discrete Ordinates method (DO) is not suitable in certain cases due to a lack of accuracy when dealing with specular reflections and refractions. A raise of the spatial discretization could lead to significant time computation. To overcome this problem, we chose the Monte Carlo method in order to estimate flux densities to the walls in the case of opaque surfaces, or to estimate a radiative source term in the case of semi-Transparent media. Our algorithm is implemented in EDStar coding environment. This environment includes the PBRT synthesis images library allowing the use of raytracing techniques with our algorithm, thus reproducing optical paths of rays in a complex 3D geometry. The development of a reliable numerical model requires relevant parameters in input. This need led us to split the work into three main parts. The first axis includes a characterization phase of thermal properties of an incandescent lamp (25W) in order to model its radiative emission. Different measurements methods have been investigated to determine the temperature of the filament, which is the origine of heat transfers, and the temperature of the glass envelope. The second axis consists in obtaining a precise distribution of flux density distributions in order to locate hot spots and assess their extent. Finally, the third part of study is to couple the radiative calculation to CFD (Computational Fluid Dynamics) simulations. CFD is here necessary to solve problems with convective phenomena coupled with other heat transfers in an industrial product.
165

Imagerie multi-résolution par tomographie aux rayons X : application à la tomographie locale en science des matériaux / Imagering multi-resolution by the X-ray tomography : application to the local tomography in materials science

Zhang, Tao 22 May 2012 (has links)
L'objectif de cette thèse étudie puis d’implémenter une méthode de reconstruction sur la tomographie aux rayons X qui permette de scanner des gros échantillons avec une bonne résolution qui permettrait de scanner l’intérieur d’un cylindre(tomographie locale) et caractériser des matériaux réels. Notre méthode peut être réalisé pour améliorer la quantitative et la qualitative d'image de fantôme. Dans cette thèse, cet méthode est utilisé sue les matériaux cellulaires. Nous avons réalisé des essais in situ en tomographie aux rayons X sur le mousse ERG et les sphères creuses. Un comparaison entre les résultats d’Élément Finis et des essais réels montre le mécanisme d'endommagement de ces matériaux. / The objective of this thesis studies to implement a method of reconstruction of the X-ray tomography that scanner a large samples with good resolution that would scan inside a cylinder (local tomography) and characterize reals materials. Our method can be done to improve the quantitative and qualitative picture of a ghost. In this thesis, this method is used sue the cellular materials. We conducted tests in situ X-ray tomography on the ERG foam and hollow spheres. A comparison between the results of Finite Element and live testing shows the damage mechanism of these materials.
166

Etudes structurales et fonctionnelles de lectines et d'adhésines chez Pseudomonas aeruginosa / Structural and functional characterisation of lectines and adhesins from Pseudomonas aeruginosa.

Ganne, Géraldine 01 February 2013 (has links)
Pseudomonas aeruginosa est un pathogène opportuniste responsable de nombreuses maladies nosocomiales chez les patients immunodéprimés ainsi que d'infections graves chez les patients atteints de la mucoviscidose (CF). La colonisation des voies respiratoires des patients CF est souvent mortelle car une fois installée, cette bactérie est difficile à éradiquer et provoque le déclin des fonctions respiratoires des patients. L'antibiothérapie devient inefficace face au développement de souches multi-résistantes et sa capacité à former un biofilm. L'étape cruciale initiant l'infection ou la formation du biofilm est l'adhésion durant laquelle des interactions spécifiques lectines/oligosaccharides permettent la fixation de la bactérie à la surface de la cellule hôte. Bloquer l'adhésion serait un moyen de lutter contre l'infection. Dans l'approche d'une thérapie anti-adhésive, plusieurs lectines impliquées dans l'adhésion et l'élaboration du biofilm sont prises comme cibles. Dans un premier temps, des lectines fimbriales putatives identifiées récemment, CupB6 et CupE6, ont fait l'objet d'une étude. Des essais d'expression, de purification et de cristallisation ont été réalisés dans l'objectif de résoudre leur structure cristallographique. Une étude visant à identifier le ligand naturel de CupB6 a également été entreprise. Puis une étude a été menée pour caractériser le potentiel d'inhibition de plusieurs molécules dérivées du galactose sur la lectine soluble, PA-IL. Certaines de ces molécules pourraient être utilisées comme glycomimétiques offrant une alternative aux antibiotiques. Une étude par microcalorimétrie et cristallographie aux rayons X a permis d'étudier la spécificité d'une lectine de légumineuse, PELa. / P. aeruginosa is an opportunistic pathogenic bacterium responsible for numerous nosocomial infections in immunosuppressed patients. It is the first mortal pathogen in cystic fibrosis (CF) patients. The invasion of the respiratory tract of CF patients by the bacterium is often lethal because it is hard to eradicate and it rapidly impairs the respiratory functions of the patients. None of the current antibiotherapy procedures are efficient against multiresistant, biofilm forming P. aeruginosa. The first step leading to infection or biofilm formation involves the initial adhesion of bacterial cells to the host pulmonary cells via specific lectin/oligosaccharid interactions. Blocking the adhesion would be a way to fight against the infection. The anti-adhesion therapy targets several bacterial lectins involved in adhesiveness and biofilm formation. In this work, the recently identified putative fimbrial lectins CupB6 and CupE6 have been studied. Expression and purification tests followed by crystallization trials have been performed. In parallel, attempts to identify the natural ligand of CupB6 were also carried out. This work also presents a systematic characterization of the inhibitory effects of various galactose-derived molecules on the PA-IL lectin. Some of these molecules could be used as glycomimetic drugs thus offering an interesting alternative to standard antibiotics. Finally, the combination of microcalorimetry together with X-ray crystallography enabled us to gain insights into the ligand specificity of PELa, a legume lectin.
167

Thermal characterization of nanostructures using scanning thermal microscopy / Caractérisation thermique des nanostructures avec une microscopie thermique à balayage « SThM »

De, Indrayush 31 March 2017 (has links)
La caractérisation thermique est cruciale pour la conception et le développement d'applications critiques dans divers domaines. Elle trouve son utilisation dans la détection de défauts et de points chauds dans la fabrication de semi-conducteurs, l'imagerie sous-sol ainsi que la recherche de transport thermique et de charge à des longueurs inférieures à 100 nm. La capacité de comprendre et de contrôler les propriétés thermiques des nanostructures à un niveau de sous-micron est essentielle pour obtenir les performances souhaitées. Pour atteindre cet objectif, la microscopie thermique à balayage (SThM) est très bien adaptée pour cartographier la conductivité thermique à la surface des matériaux et des appareils à l'échelle nanométrique.SThM est une technique d'imagerie "champ proche". C'est une méthode de contact, la sondeétant en contact avec la surface à une force contrôlée. STHM utilise une structure cantilever identique à celle des sondes utilisées dans un Microscope à Force Atomique (AFM). La principale différence est le fait qu'un capteur thermique est intégré à la pointe de la sonde. En outre, ce capteur peut également être utilisé comme chauffage dans le cas d'éléments thermorésistants tels que Pt ou Pd. Par conséquent, le SThM est le résultat d'un AFM équipé d'une sonde thermique. Cet instrument fournit une résolution sous-micromètre dans la résolution spatiale, c'est-à-dire plus que la résolution des techniques optiques dans la gamme de longueurs d'onde visible. La résolution classique qui est réalisée de nos jours est de l'ordre de moins de 100nanomètres alors que celle obtenue avec la première sonde Wollaston était environ 10 fois plus élevée.Par conséquent, mesurer la température et les propriétés thermiques de la matière à la microscales ont deux objectifs difficiles qui ont monopolisé l'énergie et le temps de nombreux chercheurs partout dans le monde depuis plusieurs décennies. Ces deux objectifs ne sont pas similaires. Tout d'abord, la mesure d'une température dans un domaine dont la dimension caractéristique est inférieure au micromètre semble moins difficile que mesurer la conductivité thermique d'un matériau à cette échelle. [...] / The objective of this thesis is to master quantitative aspects when using nearfield thermal microscopy by using the scanning thermal microscopy technique (SThM). We start by taking an in-depth look into the work performed previously by other scientist and research organizations. From there, we understand the progress the SThM probes have made through the decades, understand the probe sensitivity to the range of conductivity of the materials under investigation, verify the resistances encountered when the probe comes in contact with the sampl and the applications of SThM.Then we look into the equipment necessary for performing tests to characterize material thermal properties. The SThM we use is based on atomic force microscope (AFM) with a thermal probe attached at the end. The AFM is described in this work along with the probes we have utilized.For the purpose of our work, we are only using thermoresistive probes that play the role of the heater and the thermometer. These probes allow us to obtain sample temperature and thermalconductivity. We use two different types of thermal probes – 2-point probe and 4-point probe with SiO2 or with Si3N4 cantilever. Both the probes are very similar when it comes to functioning with the major difference being that the 4-point probe doesn’t have current limiters. Then, we present the use of recent heat-resistive probes allowing to reach a spatial resolution of the orde rof 100 nm under atmosphere and of 30 nm under vacuum. These probes can be used in passive mode for measuring the temperature at the surface of a material or component and in activemode for the determination of the thermal properties of these systems. Using thermoresistive probes means that no specialized devices are necessary for operation. Using simple commercialsolutions like simple AC or DC current and Wheatstone bridge are sufficient to provide basic thermal images. In our case we have also utilized other industrial devices and a home madeSThM setup to further improve the quality of measurement and accuracy. All the elements of the experimental setup have been connected using GPIB and that have been remotely controlled from a computer using a code developed under Python language. This code allows to make the frequency dependent measurement as well as the probe calibration. [...]
168

L’économie du blé dans le département de la Seine au XIXème siècle : permanences et mutations / The wheat economy in the Seine department in the 19th century : permanences and transformations

Berthelot, Christiane 03 December 2015 (has links)
Cette étude est à replacer dans le débat sur le retard de l’agriculture française à la veille de la première guerre mondiale, et dans la façon d’aborder cette analyse, entre la macro et la micro-histoire. L’économie du blé au XIXe siècle est une des portes d’entrée de l’analyse. Le blé, culture alimentaire de première nécessité, couvrait la plus grande partie des terres labourables, alimentait des très nombreux moulins, donnait naissance à un trafic de grande envergure tant national qu’international, et se retrouvait, sous forme de pain, dans l’alimentation de tous les foyers. L’impact de cette céréale était si important, que la priorité de tous les gouvernements, était de nourrir en priorité le peuple de cette denrée pour assurer la paix sociale. Ainsi donc, d’un aspect agricole, on passait d’emblée à un aspect politique et social de l’étude. La façon dont le blé était collecté, emmagasiné, distribué, déterminait un marché, plus ou moins ouvert selon que les récoltes s’avéraient suffisantes, ou insuffisantes. L’étude ouvrait donc sur la politique commerciale de la France. Les revenus des producteurs de blé étaient fonction de leur place dans le marché, leurs gains dépendaient de l’élasticité du marché, de la loi de l’offre et de la demande, et des exigences des donneurs d’ordre. L’aspect économique de la question prenait tout son sens. Enfin, la quantité de blé récolté et livré était fonction de la taille de l’exploitation, de l’agencement des terres, de leur qualité et de l’habilité du paysan à optimiser les rendements. L’aspect purement agraire et technique de la production s’avéraient être un préalable à la réflexion. Autant de sujets de réflexion encore d’actualité. / This study is part of the debate about The French agriculture backwardness before the First World War, and in the way to situate this analysis between macro and micro history. Wheat economy in the XIXth century is one of the introductions to this analysis. Wheat, being the essential food producing farming, was grown on most of the cultivated lands. It supplied a lot of granaries, gave birth to a tremendous national and international trade and was essentially dedicated to the making of bread for families. The impact of that cereal was so important that the governments’ priority was to feed the population to maintain social peace. Consequently the agricultural subject of our analysis implied to consider the political and social aspect of it. The way wheat was collected, stored, distributed and finally delivered, implied a market, more or less opened, depending on plentiful or insufficient harvests. The study opened on the French external commercial policy. The incomes of wheat producers depended on their situation on the market, their incomes depended on the fluctuations of the market, offer and supply and the demands of the principals. The economical aspect was quite meaningful. Finally, the quantity of wheat sales depended on the sizes of farms, their situation, their quality and the ability of peasants to increase the yields. The mere agricultural and technical aspect of production could not be avoided and turned out to be prior to our reflection. That sort of questioning is quite valid in the present day world.
169

Analyse mésoscopique par éléments finis de la déformation de renforts fibreux 2D et 3D à partir de microtomographies X / Meso-scale fe analysis of 2D and 3D fibrous reinforcements deformation based on X-ray computed tomography

Naouar, Naïm 29 September 2015 (has links)
La simulation à l'échelle mésoscopique de la déformation des renforts composites fournit des informations importantes. En particulier, elle donne la direction et la densité de fibres qui conditionne la perméabilité du renfort textile et les propriétés mécaniques du composite final. Ces analyses mésoscopiques par éléments finis dépendent fortement de la qualité de la géométrie initiale du modèle. Certains logiciels ont été développés pour décrire ces géométries de renforts composites. Mais, les géométries obtenues impliquent une simplification (notamment dans la section transversale de mèche) qui peut perturber le calcul de déformation du renfort. Le présent travail présente une méthode directe utilisant la microtomographie à rayon X pour générer des modèles éléments finis, basée sur la géométrie réelle de l'armure textile. Le modèle EF peut être obtenu pour tout type de renfort, plus ou moins complexe. Les problèmes d’interpénétrations de mèches sont évités. Ces modèles sont utilisés avec deux lois de comportement : une loi hypoélastique et une loi hyperélastique. Les propriétés de chacune d'entre elles, ainsi que les grandeurs caractéristiques nécessaires à leur implémentation dans le logiciel ABAQUS sont développées. Enfin, une identification des paramètres matériau à l'aide d'une méthode inverse est proposée. Les résultats obtenus pour les simulations de mise en forme sont comparés avec les résultats expérimentaux et montrent une bonne correspondance entre les deux. / The simulation at meso-scale of textile composite reinforcement deformation provides important information. In particular, it gives the direction and density of the fibres that condition the permeability of the textile reinforcement and the mechanical properties of the final composite. These meso FE analyses are highly dependent on the quality of the initial geometry of the model. Some software have been developed to describe composite reinforcement geometries. The obtained geometries imply simplification that can disrupt the reinforcement deformation computation. The present work presents a direct method using computed microtomography to determine finite element models based on the real geometry of the textile reinforcement. The FE model is obtained for any specificity or variability of the textile reinforcement, more or less complex. The yarns interpenetration problems are avoided. These models are used with two constitutive laws : a hypoelastic law and a hyperelastic one. An analysis of their properties is presented and their implementation in the software ABAQUS is detailed. Finally, an identification method is presented and the results of forming simulations are compared to experimental tests, which shows a good fit between the both.
170

Scattering correction in cone beam tomography using continuously thickness-adapted kernels / Correction du diffusé en tomographie par une méthode de convolution par noyaux continus

Bhatia 1990-...., Navnina 29 September 2016 (has links)
La tomodensitométrie intégrant une source de rayons X à faisceau divergent et un détecteur grand champ est une technique bien connue dans le domaine de la tomographie industrielle. La nature des matériaux et les épaisseurs traversées conduisent inévitablement à la génération de rayonnement diffusé. Ce dernier est généré par l’objet mais également par le détecteur. La présence de rayonnement parasite conduit à ne plus respecter l’hypothèse de la loi de Beer-Lambert. Par conséquent, on voit apparaitre sur les coupes tomographiques des artefacts de reconstruction comme des streaks, des effets ventouses ou des valeurs d’atténuation linéaire erronée. Par conséquence, on retrouve dans la littérature de nombreuses méthodes de correction du diffusé. Ce travail vise à mettre en point et tester une méthode originale de correction du diffusé. Le premier chapitre de cette étude, dresse un état de l’art de la plupart des méthodes de corrections existantes. Nous proposons, dans le deuxième chapitre, une évolution de la méthode de superposition des noyaux de convolution (Scatter Kernel Superposition). Notre méthode repose sur une description continue des noyaux en fonction de l’épaisseur traversée. Dans cette méthode, les noyaux de diffusion sont paramétrés analytiquement sur toute la plage d'épaisseur. Le procédé a été testé pour des objets à la fois mono-matériaux et poly-matériaux, ainsi que sur des données expérimentales et simulées. Nous montrons dans le troisième chapitre l’importance de la contribution du diffusé détecteur dans la qualité de l’image reconstruite. Mais également l’importance de décrire les noyaux de convolution à l'aide d'un modèle à quatre gaussienne. Les résultats obtenus à partir de données expérimentales prouvent que la correction du diffusé de l'objet seul ne suffit pas pour obtenir une image de reconstruite sans artefacts. Afin de disposer d’une meilleur modélisation du diffusé du détecteur, nous décrivons, dans le dernier chapitre, une méthode basée sur la combinaison de données expérimentales et simulées permettant d’améliorer l’estimation des noyaux de diffusé. / Advanced Cone Beam Computed Tomography (CBCT) typically uses a divergent conebeam source and a large area detector. As a result, there an inevitable increase in the size area of illumination causing an increase in the intensity of X-ray scatter signal, both from the object and the detector. This leads to the violation of prime assumption of reconstruction process which is based on straight line integrals path followed by the photons. Consequently scatter artifacts appear in the reconstruction images as steaks, cupping effect and thus produce wrong reconstruction values. Due to the severity of the reconstruction artifact caused by scatter, many scatter corrections methods have been adopted in literature. The first part of this study, reviews most of the existing scatter correction methods. The effect of scattering becomes more prominent and challenging in case of X-ray source of high energy which is used in industrial Non Destructive Testing (NDT), due to higher scatter to primary ratio (SPR). Therefore, in this study, we propose a continuously thickness-adapted deconvolution approach based on improvements in the Scatter Kernel Superposition (SKS) method. In this method, the scatter kernels are analytically parameterized over the whole thickness range of the object under study to better sample the amplitude and shape of kernels with respect to the thickness. The method is tested for both homogeneous and heterogeneous objects as well as simulated and experimental data. Another important aspect of this study is the comprehensive evaluation of contribution of the detector scatter performed using continuous method by separating the contribution of scatter due to the object and the detector. This is performed by modeling the scatter kernels using a four-Gaussian model. In the first approach, we performed this evaluation based on simulation of kernels from Monte Carlo simulations and the corrections are performed on typical industrial experimental data. The results obtained prove that the scatter correction only due to the object is not sufficient to obtain reconstruction image, free from artifacts, as the detector also scatters considerably. In order to prove this point experimentally and to have a better modeling of the detector, we describe a method based on combination of experiments and simulations to calculate the scatter kernels. The results obtained also prove, the contribution of the detector scattering becomes important and the PSF of the detector is not constant as considered in the studies so far, but it varies to a great extend with the energy spectrum.

Page generated in 0.0575 seconds