• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 190
  • 71
  • 24
  • Tagged with
  • 278
  • 97
  • 84
  • 78
  • 44
  • 38
  • 37
  • 34
  • 34
  • 31
  • 28
  • 24
  • 22
  • 22
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Vers une anatomie fonctionnelle de la substance blanche cérébrale chez l'homme : Étude par dissection de fibres et électrostimulation des voies du langage / Towards a functional anatomy of the white matter of the human brain : A STUDY ON FIBER DISSECTION AND ELECTRICAL STIMULATION OF LANGUAGE PATHWAYS

Lima Maldonado, Igor 15 December 2011 (has links)
La connaissance de la forme et de la fonction des faisceaux d'association aide à la modélisation des réseaux cognitifs, sert au développement d'abords neurochirurgicaux et à l'interprétation de la neuro-imagerie. Nous avons employé une approche hybride anatomique et neurophysiologique dont l'objectif principal a été la caractérisation des sous-parties du complexe faisceau longitudinal supérieur / faisceau arqué (FLS/FA) et de leur participation dans les fonctions langagières articulatoire, phonologique et sémantique. Soixante-huit hémisphères cérébraux ont été préparés par une variante de la technique de dissection de fibres connue sous le nom de méthode de Klingler. En parallèle, nous avons étudié les cartographies fonctionnelles électriques de quatorze patients opérés en condition éveillée pour des tumeurs cérébrales dans le carrefour temporo-pariétal de l'hémisphère dominant. En se basant sur nos constatations en laboratoire, sur la neuro-imagerie et sur la littérature disponible, nous avons procédé à la mise en corrélation des manifestations cliniques provoquées par la stimulation électrique et la topographie des faisceaux d'association. Les préparations anatomiques ont permis d'étudier l'organisation tridimensionnelle de la substance blanche hémisphérique, de réaliser la première description par dissection de fibres du faisceau longitudinal moyen et de caractériser trois composants du FLS/FA : le majeur, le ventral et l'arqué. L'existence d'un composant dorsal le long du bord supérieur de l'hémisphère, hypothèse basée sur l'anatomie du primate non humain et sur la neuro-imagerie, n'a pas été confirmée. L'anatomie fonctionnelle du lobule pariétal inférieur a été revisitée ainsi que celle des voies de substance blanche à l'intérieur. La variabilité interindividuelle dans la distribution des aires fonctionnelles a été évidente, surtout pour le langage. Ces aires ont servi à délimiter la résection tumorale, à savoir : le cortex sensitif primaire, en avant ; l'aire de Wernicke, en inféro-latéral ; et les voies de substance blanche du FLS/FA en profondeur. A ce niveau, l'observation des manifestations cliniques induites par la perturbation électrique ont permis de conclure que le composant ventral operculaire du FLS/FA joue un rôle dans la fonction articulatoire et que le composant arqué, plus profond, est impliqué dans la fonction phonologique. L'exploration fonctionnelle n'a pas fourni d'argument en faveur d'une participation de ce complexe associatif dans le traitement sémantique, une hypothèse de la littérature basée sur la neuro-imagerie uniquement. Ces constatations peuvent avoir des implications importantes, tant dans la pratique clinique que dans la recherche fondamentale, notamment en ce qui concerne la modélisation des bases neurales du langage. / The knowledge of the form and function of fiber pathways supports the modeling of cognitive networks, the development of neurosurgical approaches and the interpretation of neuroimaging. We used a hybrid anatomical and neurophysiological methodology whose main objective was to characterize the subunits of the complex comprised of the Superior Longitudinal and the Arcuate Fasciculus (SLF/AF) as well as their participation in the articulatory, phonological and semantic language functions. Sixty-eight cerebral hemispheres were prepared using a variant of the fiber dissection technique known as the Klingler's method. In parallel, we studied the electrical functional maps of fourteen patients operated on using a sleep-awake-sleep technique for brain tumors of the temporo-parietal junction in the dominant hemisphere. Based on our laboratory and neuroimaging findings, as well as on the available literature, we conducted a correlation of clinical manifestations caused by the electrical stimulation and the topography of the association bundles. The anatomical preparations allowed us to detail the three-dimensional organization of hemispheric white matter, to perform the first description of the Middle Longitudinal Fasciculus using fiber dissection, and to characterize three of the four components of the SLF: the major, the ventral and the arcuate. The existence of a dorsal component along the superior edge of the hemisphere was not confirmed by our findings, a hypothesis in the literature that was based on the anatomy of the nonhuman primate and on previous studies on neuroimaging. The functional anatomy of the inferior parietal lobule was revisited as well as the pathways of white matter in its depth. The inter-individual variability in the distribution of eloquent areas was evident, especially for language. These areas were used to delineate the tumor resection, namely: the primary sensory cortex, anteriorly; the Wernicke's area, inferiorly and laterally, and the white matter pathways from the SLF/AF in the white matter. At this level, the observation of the clinical manifestations in connection with the electrical disturbance caused by the cerebral stimulation allowed us to conclude that the ventral opercular component of the SLF has a role in the articulatory function and the deeper arcuate component is involved in the phonological function. The functional mapping does not provide any argument for a participation of this association complex in the treatment of semantics, an assumption in the literature that was based only on neuroimaging. These findings may have important implications, both in clinical practice and in fundamental research, including for modeling the neural basis of language.
22

Mesures de l'Impédance Longitudinale avec le Faisceau du CERN Super Proton Synchrotron / Beam Measurements of the Longitudinal Impedance of the CERN Super Proton Synchrotron

Lasheen, Alexandre Samir 13 January 2017 (has links)
Un des défis pour les futurs projets en physique basé sur les accélérateurs de particules est le besoin de faisceaux à hautes intensités. Les effets collectifs sont cependant une limitation majeure qui peuvent détériorer la qualité du faisceau ou limiter l'intensité maximale à cause des pertes. Le CERN SPS, qui est le dernier injecteur pour le LHC, n'est actuellement pas en mesure de délivrer les faisceaux requis pour les futurs projets à cause des instabilités longitudinales.Les nombreux équipements dans la machine (les cavités RF accélératrices, les aimants d'injection et d'extraction, les brides de vide, etc.) entrainent des variations dans la géométrie et les matériaux de la chambre dans laquelle le faisceau transite. Les interactions électromagnétiques internes au faisceau (charge d'espace) et du faisceau avec son environnement sont représentées par une impédance de couplage qui affectent le mouvement des particules et mènent à des instabilités pour des intensités élevées de faisceau. Par conséquent, les sources d'impédance critiques doivent être identifiées et des solutions évaluées. Pour avoir un modèle d'impédance fiable d'un accélérateur, les contributions de tous les équipements dans l'anneau doivent être évaluées à partir de simulations et de mesures électromagnétiques. Dans cette thèse, le faisceau lui-même est utilisé comme une sonde de l'impédance de la machine en mesurant le déplacement de la fréquence synchrotronique avec l'intensité et la longueur du paquet, ainsi que la modulation de longs paquets injectés avec la tension RF éteinte. Ces mesures sont comparées avec des simulations par macroparticules en utilisant le modèle d'impédance du SPS existant, et les déviations sont étudiées pour identifier les sources d'impédance manquantes pour raffiner le modèle.L'étape suivante consiste à reproduire en simulations les instabilités mesurées pour un paquet unique durant l'accélération. Grâce à l'amélioration du modèle d'impédance, une meilleure compréhension des mécanismes de l'instabilité est rendue possible pour les faisceaux de protons et d'ions. Finalement, le modèle pour les simulations étant digne de confiance, il est utilisé pour estimer les caractéristiques du faisceau après les améliorations prévues du SPS pour le projet High Luminosity-LHC au CERN. / One of the main challenges of future physics projects based on particle accelerators is the need for high intensity beams. However, collective effects are a major limitation which can deteriorate the beam quality or limit the maximum intensity due to losses. The CERN SPS, which is the last injector for the LHC, is currently unable to deliver the beams required for future projects due to longitudinal instabilities.The numerous devices in the machine (accelerating RF cavities, injection and extraction magnets, vacuum flanges, etc.) lead to variations in the geometry and material of the chamber through which the beam is travelling. The electromagnetic interaction within the beam (space charge) and of the beam with its environment are described by a coupling impedance which affects the motion of the particles and leads to instabilities for high beam intensities. Consequently, the critical impedance sources should be identified and solutions assessed. To have a reliable impedance model of an accelerator, the contributions of all the devices in the ring should be evaluated from electromagnetic simulations and measurements.In this thesis, the beam itself is used to probe the machine impedance by measuring the synchrotron frequency shift with intensity and bunch length, as well as the line density modulation of long bunches injected with the RF voltage switched off. These measurements are compared with macroparticle simulations using the existing SPS impedance model, and the deviations are studied to identify missing impedance sources and to refine the model.The next important step is to reproduce in simulations the measured single bunch instabilities during acceleration, in single and double RF system operation. Thanks to the improved impedance model, a better understanding of instability mechanisms is achieved for both proton and ion beams.Finally, as the simulation model was shown to be trustworthy, it is used to estimate the beam characteristics after the foreseen SPS upgrades the High Luminosity-LHC project at CERN.
23

Développement d'une méthode de mesure de la longueur de la couche limite triphasée utilisant une méthode tomographique

Rivard, Tony January 2014 (has links)
Dans les piles à combustible à électrolyte solide, l’interface électrode/électrolyte appelée la couche limite triphasée est le site de la réaction électrochimique permettant aux piles à combustible de fournir de la puissance. Le présent travail propose une approche tomographique par faisceau d’ions focalisés pour mesurer la longueur de la couche limite triphasée. Les images sont ensuite capturées par microscopie à balayage électronique et sont transformées en matrices binaires pour le traitement Matlab. Un algorithme, basé sur la théorie de Hoshen-Kopelman, a ensuite été appliqué pour mesurer la longueur de la couche limite triphasée et le pourcentage de connectivité. Cet algorithme a été appliqué sur un empilement de 80 images obtenues par tomographie d’une cathode réelle obtenu par sérigraphie. Le résultat obtenu est de 0,0142 voxels/voxels[indice supérieur 3], ce qui équivaut à 207,2 nm/nm[indice supérieur 3] selon le calcul en fonction de la longueur caractéristique d’un voxel. Une courbe de calibration a été produite afin de transformer la valeur de la longueur de la couche limite triphasée en valeur de résistance au transfert de charges par l’entremise du spectre d’impédance, mesurée à partir d’un système de microélectrodes à motifs.
24

Simulation numérique et modélisation de la turbulence statistique et hybride dans un écoulement de faisceau de tubes à nombre de Reynolds élevé dans le contexte de l'interaction fluide-structure / Numerical simulation, statistical and hybrid turbulence modelling in a tube bundle under crossflow at high Reynolds number in the context of fluid-structure interaction

Marcel, Thibaud 16 November 2011 (has links)
La prédiction des instabilités fluide-élastique qui se développent dans un faisceau de tubes est importante pour la conception des générateurs de vapeur dans les centrales nucléaires, afin de prévenir les accidents liés à ces instabilités. En effet, ces instabilités fluide-élastique, ou flottements, conduisent à une fatigue vibratoire des matériaux, voire à des chocs entre les tubes, et par la suite, à des dégâts importants. Ces aspects sont d'une grande complexité pour les applications scientifiques impliquant l'industrie nucléaire. Le présent travail est issu d'une collaboration entre l'EDF, le CEA et l'IMFT. Elle vise à améliorer la simulation numérique de cette interaction fluide- structure dans le faisceau de tubes, en particulier dans la gamme de paramètres critiques favorisant l'apparition d'un amortissement négatif du système et de l'instabilité fluide-élastique. / The prediction of fluid-elastic instabilities that develop in a tube bundle is of major importance for the design of modern heat exchangers in nuclear reactors, to prevent accidents associated with such instabilities. The fluid-elastic instabilities, or flutter, cause material fatigue, shocks between beams and damage to the solid walls. These issues are very complex for scientific applications involving the nuclear industry. This work is a collaboration between EDF, CEA and IMFT. It aims to improve the numerical simulation of the fluid-structure interaction in the tube bundle, in particular in the range of critical parameters contribute to the onset of damping negative system and the fluid-elastic instability.
25

Experimental study of soot formation in laminar premixed flames of fuels of interest for automobile and aeronautics : a focus on the soot nucleation process / Etude expérimental sur la formation des suies dans des flammes laminaires prémélangées d’hydrocarbure d’intérêt automobile et aéronautique : accent sur le processus de nucléation des particules de suie

Betrancourt, Christopher 12 December 2017 (has links)
Les particules de suies émissent lors de la combustion incomplète de carburants fossiles et biosourcés sont reconnues comme étant un problème environnemental et sanitaire majeur. Il est essentiel d'acquérir une compréhension fondamentale de leur formation, dont l'étape de nucléation donnant naissance aux premières particules de suie, les nucléis, afin de développer des modèles capable de prédire leur formation et d'aider à la conception de dispositifs de combustion plus efficaces et plus propres. Ce travail démontre en combinant différentes techniques expérimentales: incandescence induite par laser (LII), granulométres SMPS et de microscopie à faisceau d'ions d’hélium (HIM) que ces nucléis ont une taille comprise entre 2 et 4 nm et sont capable d’émettre un rayonnement de type corps noir. Ces nucléis ont été étudiés dans des flammes prémélangées dites de nucléation dans lesquelles les particules de suie sont formées par nucléation, sans croissance de surface et standard où ces nucléis subissent les processus de croissance. Les résultats obtenus offrent une base de données expérimentale utile à l’amélioration des modèles cinétique de formation des suies notamment sur la phase de nucléation dans diffèrent carburants: n-butane et un mélange de n-butane et n-propylbenzene. Pour chaque carburant une flamme de nucléation et une flamme standard sont étudiées. La base de donnée comprend des profils d’espèces obtenus par chromatographie, profils de température mesurés par fluorescence induite par laser sur NO, les profils de fractions volumique de suies mesurés par LII et calibrés par extinction multi passage et les distributions de taille des particules de suies obtenus par SMPS et HIM. / Emission of soot formed from incomplete combustion of fossil fuels, biofuels and biomass is a serious concern due to soot’s harmful impact on human health, environment and its radiative forcing on climate. Gaining fundamental understanding of soot formation, particularly the nucleation step leading to the formation of the nascent soot particles, is critical to develop reliable predictive soot models and to help the design of more efficient and cleaner combustion devices. This work demonstrates that nascent soot particles in the size range of 2-4 nm are able to emit a black body radiation by combined Laser Induced Incandescence (LII), scanning mobility particle sizer (SMPS) and helium-ion microscopy (HIM). These nascent soot particles are investigated in nucleation premixed flames in which soot particles are essentially formed by nucleation, without growth by soot surface processes and in standard sooting premixed flames in which growth processes occur. This work provides an extensive database for improvement of kinetics modelling of sooting flames with a focus on the soot nucleation in flames. Two kinds of fuels have been selected: n-butane and mixture of n-butane and n-propylbenzene. For each fuels two flames have been studied: a nucleation and a standard sooting flames. The database consist of species profiles obtained by online gas chromatography, temperature profiles measured by Laser induced fluorescence thermometry, soot volume fraction profiles obtained by LII calibrated by cavity ring-down extinction and particles size distributions obtained in n-butane flames by SMPS and HIM. From this database effect of equivalence ratio and fuel composition is analyzed.
26

Identification of LHC beam loss mechanism : a deterministic treatment of loss patterns / Identification des mécanismes de perte de faisceau au LHC : un traitement déterministe des structures de pertes

Marsili, Aurélien 21 November 2012 (has links)
Le Large Hadron Collider (LHC) du CERN, avec un périmètre de 26,7 km, est la plus grande machine jamais construite et l'accélérateur de particules le plus puissant, à la fois par l'énergie des faisceaux et par leur intensité. Les aimants principaux sont supraconducteurs, et maintiennent les particules en deux faisceaux circulants à contre-sens, qui entre en collision en quatre points d'interaction différents. Ces aimants doivent être protégés contre les pertes de faisceau : ils peuvent subir une transition de phase et redevenir résistifs, et peuvent être endommagés. Pour éviter cela, des moniteurs de pertes de faisceau, appelés Beam Loss Monitors (BLM) ont été installés. Si les seuils de pertes maximum autorisées sont dépassés, les faisceaux sont rapidement enlevés de la machine. Les détecteurs du système BLM sont en majorité des chambres d'ionisation situées à l'extérieur des cryostats. Au total, plus de 3500 chambres d'ionisation sont installées. Les difficultés supplémentaires comprennent la grande amplitude dynamique des pertes : les courants mesurés s'échelonnent de 2 pA jusqu'à 1 mA. Le sujet de cette thèse est d'étudier les structures de pertes et de trouver l'origine des pertes de façon déterministe, en comparant des profils de pertes mesurés à des scénarios de pertes connus. Ceci a été effectué par le biais d'une étude de cas : différentes techniques ont été utilisées sur un ensemble restreint de scénarios de pertes, constituant une preuve de concept de la possibilité d'extraire de l'information d'un profil de pertes. Trouver l'origine des pertes doit pouvoir permettre d'agir en conséquence, ce qui justifie l'intérêt du travail doctoral. Ce travail de thèse se focalise sur la compréhension de la théorie et la mise en place de la décomposition d'un profil de pertes mesuré en une combinaison linéaire des scénarios de référence; sur l'évaluation de l'erreur sur la recomposition et sa validité. Un ensemble de scénarios de pertes connus (e.g. l'augmentation de la taille du faisceau dans les plans vertical et horizontal ou la différence d'énergie lors de mesures de profils de pertes) ont été réunis, permettant l'étude et la création de vecteurs de référence. Une technique d'algèbre linéaire (inversion de matrice), l'algorithme numérique de décomposition en valeurs singulières (SVD), a été utilisé pour effectuer cette décomposition vectorielle. En outre, un code spécifique a été développé pour la projection vectorielle sur une base non-orthogonale d'un sous-espace vectoriel. Ceci a été mis en place avec les données du LHC. Ensuite, les outils de décomposition vectorielle ont été systématiquement utilisés pour étudier l'évolution temporelle des pertes : d'abord par la variation d'une seconde à l'autre, puis par différentes comparaisons avec un profil de pertes par défaut calculé pour l'occasion. Puis, les résultats des décompositions ont été calculés pour les pertes à chaque seconde des périodes de ''faisceaux stables'' de l'année 2011, pour l'étude de la distribution spatiale des pertes. Les résultats obtenus ont été comparés avec les mesures d'autres instruments de faisceau, pour permettre différentes validations. En conclusion, l'intérêt de la décomposition vectorielle est présenté. Ensuite, l'annexe A, décrit le code développé pour permettre l’accès aux données des BLMs, pour les représenter de façon utilisable, et pour les enregistrer. Ceci inclus la connexion à différentes bases de données. L'instrument utilise des objets ROOT pour envoyer des requêtes SQL aux bases de données ainsi que par une interface Java, et est codé en Python. Un court glossaire des acronymes utilisés dans cette thèse est disponible à la fin du document, avant la bibliographie. / CERN's Large Hadron Collider (LHC) is the largest machine ever built, with a total circumference of 26.7 km; and it is the most powerful accelerator ever, both in beam energy and beam intensity. The main magnets are superconducting, keeping the particles into two counter circulating beams, which collide in four interaction points. CERN and the LHC will be described in chap. 1. The superconducting magnets of the LHC have to be protected against particle losses. Depending on the number of lost particles, the coils of the magnets will become normal conducting and/or will be damaged. To avoid these events a beam loss monitoring (BLM) system was installed to measure the particle loss rates. If the predefined safe thresholds of loss rates are exceeded, the beams are directed out of the accelerator ring towards the beam dump. The detectors of the BLM system are mainly ionization chambers located outside of the cryostats. In total, about 3500 ionisation chambers are installed. Further challenges include the high dynamical range of losses (chamber currents ranging between 2 pA and 1 mA). The BLM system will be further described in chap. 2. The subject of this thesis is to study the loss patterns and find the origin of the losses in a deterministic way, by comparing measured losses to well understood loss scenarios. This is done through a case study: different techniques were used on a restrained set of loss scenarios, as a proof of concept of the possibility to extract information from a loss profile. Finding the origin of the losses should allow acting in response. A justification of the doctoral work will be given at the end of chap. 2. Then, this thesis will focus on the theoretical understanding and the implementation of the decomposition of a measured loss profile as a linear combination of the reference scenarios; and the evaluation of the error on the recomposition and its correctness. The principles of vector decomposition are developed in chap. 3. An ensemble of well controlled loss scenarios (such as vertical and horizontal blow-up of the beams or momentum offset during collimator loss maps) has been gathered, in order to allow the study and creation of reference vectors. To achieve the Vector Decomposition, linear algebra (matrix inversion) is used with the numeric algorithm for the Singular Value Decomposition. Additionally, a specific code for vector projection on a non-orthogonal basis of a hyperplane was developed. The implementation of the vector decomposition on the LHC data is described in chap. 4. After this, the use of the decomposition tools systematically on the time evolution of the losses will be described: first as a study of the variations second by second, then by comparison to a calculated default loss profile. The different ways to evaluate the variation are studied, and are presented in chap. 5. The next chapter (6) describes the gathering of decomposition results applied to beam losses of 2011. The vector decomposition is applied on every second of the ``stable beans'' periods, as a study of the spatial distribution of the loss. Several comparisons of the results given by the decompositions with measurements from other LHC instruments allowed different validations. Eventually, a global conclusion on the interest of the vector decomposition is given. Then, the extra chapter in Appendix A describes the code which was developed to access the BLM data, to represent them in a meaningful way, and to store them. This included connecting to different databases. The whole instrument uses ROOT objects to send SQL queries to the databases, as well as java API, and is coded in Python. A short glossary of the acronyms used here can be found at the end, before the bibliography.
27

Etablissement de références dosimétriques dans les faisceaux de rayons X de hautes énergies et de très petites sections (< 1cm²) pour la radiothérapie / Establishment of dosimetric references for high energy X-ray beams of very small field sizes (< 1 cm²) used in radiotherapy

Dufreneix, Stéphane 17 December 2014 (has links)
En tant que laboratoire national pour la métrologie des rayonnements ionisants, le Laboratoire National Henri Becquerel met au point les méthodes de mesures absolues pour établir les références dosimétriques. Il dispose, entre autres, de références dans des faisceaux de rayons X utilisés en radiothérapie et ayant une taille de champ comprise entre 10 et 2 cm de côté. Afin de s’approcher des plus petits champs utilisés en clinique, la miniaturisation des détecteurs absolus n’étant pas possible, il est proposé dans cette thèse de remplacer la dose absorbée en un point par le produit dose surface (PDS). L’applicabilité du PDS mesuré à l’aide de dosimètres dont la surface sensible est plus grande que celle du champ de rayonnement a été vérifiée. Ainsi, un calorimètre graphite avec une surface sensible de 3 cm de diamètre a été conçu, construit et testé. En vue du transfert des références dosimétriques à l’utilisateur, une chambre d’ionisation de même diamètre a elle aussi été réalisée et testée. Son coefficient d’étalonnage en termes de PDS a été déterminé dans des faisceaux circulaires de 2, 1 et 0.75 cm de diamètre avec une incertitude type inférieure à 0.7 %. La distribution relative de la dose absorbée dans l’eau en deux dimensions a été mesurée au moyen d’un dosimètre diamant, d’une chambre d’ionisation PinPoint et de films gafchromiques, pour lesquels un protocole de lecture spécifique a été mis au point. Les résultats dans le faisceau de 2 cm de diamètre ont montré un bon accord entre les approches en termes de PDS et de dose absorbée dans l’eau en un point, après application des facteurs de correction obtenus au moyen de simulations Monte Carlo et des mesures de distribution de dose. Les coefficients d’étalonnage de la chambre d’ionisation de grandes dimensions établis dans les champs de 1 et 0.75 cm de diamètre sont compatibles aux incertitudes près mais s’écartent de -2.6 % de celui établi dans le champ de 2 cm de diamètre. L’utilisation du PDS nécessite donc une surface de détection notablement plus grande que la section du mini-Faisceau. / The French primary standard dosimetry laboratory “Laboratoire National Henri Becquerel” is in charge of the establishment of dosimetric standards for ionizing radiation beams. Absolute dose measurements are thus available for X-Ray beams used in radiotherapy for field sizes between 10 and 2 cm. Since the miniaturization of absolute dosimeters is not possible for smaller field sizes, a dose area product (DAP) has been suggested as a substitute to the absorbed dose at a point.In order to measure a DAP with dosimeters which sensitive surface is larger than the beam, a graphite calorimeter with a sensitive surface of 3 cm diameter was designed, built and tested. An ionization chamber with the same diameter was realized and tested to transfer the dosimetric references to the end users. Its calibration factor in terms of DAP was determined in circular beams of 2, 1 and 0.75 cm diameter with an uncertainty smaller than 0.7 %. The two-Dimension relative dose distribution was measured thanks to a diamond dosimeter, a PinPoint ionization chamber and gafchromic films, using a specific protocol.Both approaches, respectively based on a PDS and an absorbed dose to water at a point, were in good agreement in the 2 cm beam. Correction factors determined from Monte Carlo simulations and measured dose distributions were needed for this comparison. The calibration factor of the large ionization chamber in the 1 and 0.75 cm diameter beams were in good agreement within the uncertainties but a gap of -2.6 % was found with the one established in the 2 cm diameter beam. As a result, the DAP can be used if the sensitive surface is much larger than the beam section.
28

Production d’hydrogène solide sous forme de films de taille micronique. / Production of micron-sized films of solid hydrogen.

Garcia, Stéphane 06 November 2015 (has links)
Le développement des lasers de fortes puissances réalisé au cours des dix dernières années a ouvert de nouveaux champs de recherche dans de nombreux domaines tels que la production de faisceaux de particules chargées. Lors de l'interaction d'un faisceau laser avec une cible, il est en effet possible de générer un faisceau d'ions ou d'électrons d'une large gamme énergétique dépendant de la puissance du laser et de la nature de la cible.Les physiciens qui étudient les interactions laser-matière montrent un grand intérêt à pouvoir réaliser des expériences avec une cible d'hydrogène pure de l'ordre d'une dizaine de micromètres d'épaisseur. Lors d'une telle interaction, un faisceau constitué uniquement de protons accélérés est produit. La protonthérapie est l'une des applications phares qui utilise les propriétés particulières des protons accélérés pour détruire des tumeurs cancéreuses. Cette technique, plus légère et moins coûteuse, pourrait remplacer dans les années à venir les gros accélérateurs de particules, situés en sous-sol des hôpitaux. Les travaux menés durant cette thèse ont permis de développer un moyen d'obtenir et de caractériser de telles cibles, et ce en utilisant un nouveau procédé d'extrusion.L'extrusion d'hydrogène solide requiert des fortes pressions (100 à 400 bar) et des basses températures (inférieures à 13 K). Les fortes pressions sont obtenues à l'aide des propriétés thermodynamiques du fluide. Dans un premier temps, de l'hydrogène est introduit puis solidifié dans la cellule expérimentale jusqu'à remplir celle-ci. La cellule est alors fermée et chauffée en partie haute afin de liquéfier l'hydrogène qui s'y trouve. La dilatation qui résulte du changement de phase, génère une pression sur l'hydrogène solide qui est situé sous le liquide. Cette pression permet d'obtenir la force nécessaire à l'extrusion qui est réalisée au travers d'une buse se situant à l'extrémité basse de la cellule. La principale différence avec un procédé classique d'extrusion est l'absence de parties mobiles.Des premiers rubans d'hydrogène d'une largeur de 1 mm et d'une épaisseur de 100 µm ont été obtenus et ont donné lieu à publication en mars 2014. Une évolution de la cellule et du cryostat a ensuite été réalisée dans le but d'atteindre des épaisseurs de rubans plus faibles (25 et 50 µm).Une buse cylindrique d'un diamètre de 140 µm a également permis d'obtenir de longs cylindres d'hydrogène solide et de comprendre le comportement de l'écoulement dans des géométries simples. En parallèle, de nombreuses simulations numériques ont été réalisées dans le but de caractériser ce comportement. Un modèle dédié a ainsi été établi, pour lequel les résultats expérimentaux et les simulations sont en bon accord.Un algorithme de mesure de vitesses d'écoulement, basé sur le suivi de défauts présents dans le film d'hydrogène a également été développé. Celui-ci est basé sur une technique d'inter-corrélation d'images. L'épaisseur du ruban est également obtenue par analyse d'images acquises. Ces résultats sont en adéquation avec la mesure du débit d'hydrogène pompé, réalisée en aval du cryostat.De nombreux laseristes ont alors manifesté leur intérêt autour de ce nouveau procédé et une collaboration a été mise en place avec l'équipe du laser PALS, à Prague, dans le but d'installer une nouvelle version du cryostat, capable de se fixer sur la chambre à vide de leur laser. Cette équipe, qui sera la première à tirer sur des cibles d'hydrogène solide courant novembre 2015, souhaite valider certaines théories et accélérer des protons en utilisant le principe de la TNSA (Target Normal Shealth Acceleration). Les laseristes du LULI (situés à Palaiseau, en France) sont également intéressés pour utiliser de telles cibles et une installation sur leur chambre laser a été planifiée au mois de janvier 2016. En parallèle, des physiciens de l'Institut Lumière Matière du CNRS de Lyon souhaitent également utiliser ces cibles pour générer des rayons X-UV. / The development of very high power lasers in the latest decade opened up new horizons in a various field, such as the production of accelerated ion beams. When a laser beam interacts with a target, the generated beam can contain energetic ions or electrons with a large energy spectrum (1–200 MeV). This energy distribution depends on the laser power and the nature of the target.Physicists studying the interaction between laser and materials are really interested in having very thin (10 µm) ribbons of solid hydrogen that could be used as a target. Indeed, during the interaction between a laser and such a target, a pure proton beam can be created. Protontherapy is one of the main potential applications which uses the special properties of accelerated protons to destroy cancerous tumor. This technique, lighter and cheaper, could replace in the next years huge particle accelerators situated underground the equipped hospitals. This PhD thesis was about developing a way to get and characterize such ribbons, using a new extrusion process.Extrusion of solid hydrogen requires a high pressure (10 MPa to 40 MPa) and a low temperature (below 13K). This is achieved by using the thermodynamic properties of the fluid. First, the cell is filled in with solid H2, then closed. Afterward, the upper part is heated to liquefy the solid. The expansion, resulting from the phase change creates a pressure on the solid hydrogen, located below the liquid. The extrusion is realized through a micron-sized hole at the bottom of the cell. The main difference with a classic extrusion process is the absence of moving parts.First solid hydrogen ribbons (1mm large and 100 microns of thickness) have been obtained in March 2014, leading to an article in a peer review (laser and particle beams (2014) 32,569-575, Continuous production of a thin ribbon of solid hydrogen). The use of a 50 micron nozzle was satisfying but it showed the limitation in the design of the cell, leading to an upgraded one, which will enable to extrude thinner ribbons.A cylindrical nozzle (140 microns diameter) has also been used to obtain long cylinders of solid hydrogen and to be able to understand the solid hydrogen flow in simple geometries. In parallel, several numerical simulations have been carried out to establish the flow behavior of solid hydrogen during the extrusion process. An “home made” model has been developed for which experimental results and numerical calculations fit quite well for different nozzles' geometries.Using small ribbon defaults as velocity tracers, cross-correlation algorithm has also been developed to measure the velocity during the extrusion process. The ribbon thickness is also extracted from image analysis. These results are also correlated by flowmeter measurements and appeared to be accurate.Several laser teams have shown a great interest for these results and a collaboration contract has been signed with the laser PALS team (Prague) to install an updated version of this cryostat, able to be plugged in their vacuum chamber. The team wants to shoot the solid hydrogen target to understand the laser/matter interaction and accelerate proton through the TNSA (Target Normal Sheath Acceleration) principle. It will be the first time such target will be shot. The installation of the cryostat is scheduled by the end of august and the first experiments are planned during november 2015. LULI's laser team at Palaiseau in France is also interested in using these targets and is planning to shoot them in January 2016. In parallel, CNRS physicists of the ILM (Institut Lumière Matière de Lyon) would like to use these targets to generate X-UV radiation.
29

Etude et réalisation d'empilements multicouches sur des optiques asphériques de grandes dimensions pour des applications en lithographie Extrême U.V

Sassolas, Benoit 01 July 2008 (has links) (PDF)
La réalisation d'optiques de grandes dimensions est un élément clé à la réussite de la lithographie Extrême-Ultraviolet à 13,5 nm. Leur intégration dans les appareils de production doit permettre d'acheminer un flux lumineux intense de la source jusqu'au wafer et ainsi d'augmenter la productivité. Nous avons étudié et développé des systèmes multicouches à base de molybdène et silicium. Leurs structures ont été étudiées par réflectométrie des rayons X et leurs performances mesurées à 13,5 nm sous rayonnement synchrotron. Les résultats ont révélé une réflectivité à 13,5 nm limitée principalement à cause de la faible qualité des interfaces due à l'inter-diffusion des 2 matériaux. Nous avons aussi porté une attention particulière au traitement de substrats asphériques de grandes dimensions. Nous avons notamment utilisé des techniques de masquage permettant de contrôler les épaisseurs déposées sur des diamètres de près de 500 mm et malgré des flèches proches de 100 mm.
30

Étude et réalisation d'une électronique rapide à bas bruit pour un détecteur de rayons X à pixels hybrides destiné à l'imagerie du petit animal

Chantepie, B. 08 December 2008 (has links) (PDF)
Depuis l'invention du scanner, les détecteurs à intégration de charges sont largement employés pour les applications d'imagerie biomédicale utilisant des rayons X. Néanmoins, des alternatives existent. Les développements réalisés en instrumentation pour les expériences en physique des hautes énergies ont permis l'émergence d'une nouvelle technologie de détection directe à base de semiconducteur. Cette nouvelle technologie, appelée détecteur à pixels hybrides, fonctionne en mode comptage de photons et permet de sélectionner l'énergie minimum des photons comptés. Le groupe imXgam du CPPM développe le démonstrateur PIXSCAN, un tomodensitomètre à rayons X basé sur le détecteur à pixels hybrides XPAD. L'objectif de ce développement est d'évaluer l'impact de la technologie à pixels hybrides sur la qualité des images et sur la dose délivrée lors d'examens tomodensitométriques du petit animal. Suite à un premier prototype de détecteur à pixels hybrides XPAD1 démontrant la faisabilité du projet, un imageur complet XPAD2 a été conçu et intégré dans le démonstrateur PIXSCAN. Depuis, avec l'évolution de l'industrie de la microélectronique, des améliorations notables ont été envisageables. Pour réduire la taille des pixels et améliorer la précision en énergie des détecteurs, une troisième version XPAD3 a été développée et sera prochainement intégrée dans un démonstrateur PIXSCAN de deuxième génération. Dans ce projet, mon travail de thèse a porté sur une participation à la conception des électroniques de lecture des détecteurs, la caractérisation des circuits et des détecteurs à pixels hybrides ainsi que sur la définition d'une architecture d'autocalibration des pixels en énergie.

Page generated in 0.0285 seconds