• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 16
  • 1
  • Tagged with
  • 38
  • 14
  • 9
  • 8
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Mesures de l'Impédance Longitudinale avec le Faisceau du CERN Super Proton Synchrotron / Beam Measurements of the Longitudinal Impedance of the CERN Super Proton Synchrotron

Lasheen, Alexandre Samir 13 January 2017 (has links)
Un des défis pour les futurs projets en physique basé sur les accélérateurs de particules est le besoin de faisceaux à hautes intensités. Les effets collectifs sont cependant une limitation majeure qui peuvent détériorer la qualité du faisceau ou limiter l'intensité maximale à cause des pertes. Le CERN SPS, qui est le dernier injecteur pour le LHC, n'est actuellement pas en mesure de délivrer les faisceaux requis pour les futurs projets à cause des instabilités longitudinales.Les nombreux équipements dans la machine (les cavités RF accélératrices, les aimants d'injection et d'extraction, les brides de vide, etc.) entrainent des variations dans la géométrie et les matériaux de la chambre dans laquelle le faisceau transite. Les interactions électromagnétiques internes au faisceau (charge d'espace) et du faisceau avec son environnement sont représentées par une impédance de couplage qui affectent le mouvement des particules et mènent à des instabilités pour des intensités élevées de faisceau. Par conséquent, les sources d'impédance critiques doivent être identifiées et des solutions évaluées. Pour avoir un modèle d'impédance fiable d'un accélérateur, les contributions de tous les équipements dans l'anneau doivent être évaluées à partir de simulations et de mesures électromagnétiques. Dans cette thèse, le faisceau lui-même est utilisé comme une sonde de l'impédance de la machine en mesurant le déplacement de la fréquence synchrotronique avec l'intensité et la longueur du paquet, ainsi que la modulation de longs paquets injectés avec la tension RF éteinte. Ces mesures sont comparées avec des simulations par macroparticules en utilisant le modèle d'impédance du SPS existant, et les déviations sont étudiées pour identifier les sources d'impédance manquantes pour raffiner le modèle.L'étape suivante consiste à reproduire en simulations les instabilités mesurées pour un paquet unique durant l'accélération. Grâce à l'amélioration du modèle d'impédance, une meilleure compréhension des mécanismes de l'instabilité est rendue possible pour les faisceaux de protons et d'ions. Finalement, le modèle pour les simulations étant digne de confiance, il est utilisé pour estimer les caractéristiques du faisceau après les améliorations prévues du SPS pour le projet High Luminosity-LHC au CERN. / One of the main challenges of future physics projects based on particle accelerators is the need for high intensity beams. However, collective effects are a major limitation which can deteriorate the beam quality or limit the maximum intensity due to losses. The CERN SPS, which is the last injector for the LHC, is currently unable to deliver the beams required for future projects due to longitudinal instabilities.The numerous devices in the machine (accelerating RF cavities, injection and extraction magnets, vacuum flanges, etc.) lead to variations in the geometry and material of the chamber through which the beam is travelling. The electromagnetic interaction within the beam (space charge) and of the beam with its environment are described by a coupling impedance which affects the motion of the particles and leads to instabilities for high beam intensities. Consequently, the critical impedance sources should be identified and solutions assessed. To have a reliable impedance model of an accelerator, the contributions of all the devices in the ring should be evaluated from electromagnetic simulations and measurements.In this thesis, the beam itself is used to probe the machine impedance by measuring the synchrotron frequency shift with intensity and bunch length, as well as the line density modulation of long bunches injected with the RF voltage switched off. These measurements are compared with macroparticle simulations using the existing SPS impedance model, and the deviations are studied to identify missing impedance sources and to refine the model.The next important step is to reproduce in simulations the measured single bunch instabilities during acceleration, in single and double RF system operation. Thanks to the improved impedance model, a better understanding of instability mechanisms is achieved for both proton and ion beams.Finally, as the simulation model was shown to be trustworthy, it is used to estimate the beam characteristics after the foreseen SPS upgrades the High Luminosity-LHC project at CERN.
32

Development of the new trigger and data acquisition system for the CMS forward muon spectrometer upgrade

Verhagen, Erik 05 March 2015 (has links)
La physique des particules élémentaires, aussi appelé physique des hautes énergies, est l'étude de l'infiniment petit, popularisée récemment par la découverte de nouvelles particules fondamentales permettant de consolider notre connaissance de la matière. Pour réaliser des mesures à une échelle aussi réduite, une méthode consiste à augmenter l’énergie des constituants de la matière, à l'aide d'accélérateur de particules, puis de les briser pour révéler leur constitution. Au-delà de l'intérêt en termes de physique expérimentale, réaliser des expériences de ce type est devenu une prouesse technologique grandissante avec les niveaux d’énergie atteints. La complexité de l’expérience CMS, cadre dans laquelle ce travail a été réalisé, donne une bonne mesure des défis technologiques relevés.<p>Afin d'affiner encore notre connaissance des processus mis en jeu lors collision de particules dans CMS, une mise à niveau du détecteur est prévue avant la fin de cette décennie. Certains sous-détecteurs actuellement installés, et notamment le spectromètre à muon dans la zone des bouchons, sont d’ores et déjà identifiés comme offrant des performances trop faibles pour l'augmentation du nombres d’événements prévu après cette mise à jour. Ce travail propose de réaliser une étude de faisabilité sur l'utilisation d'une technologie alternative pour ce sous-détecteur, notamment le Triple-GEM, pour combler ces limitations.<p>Une première partie de ce travail consiste en l'étude de cette nouvelle technologie de détecteur à gaz. Cependant, la mise en œuvre de cette technologie conduit à des modifications dans le système d'acquisition de données de CMS. La situation actuelle puis les implications d'un point de vue technique des modifications sont donc détaillées par la suite. Enfin, après avoir identifié les composants et les solutions permettant la collecte de résultats à l’échelle de l'ensemble du sous-détecteur, un système d'acquisition de données similaire a été réalisé et est décrit dans une dernière partie de ce travail. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
33

Injection induite par ionisation pour l’accélération laser-plasma dans des tubes capillaires diélectriques / Laser wakefield acceleration with ionization-induced injection in dielectric capillary tubes

Desforges, Frédéric 10 July 2015 (has links)
L’interaction d’une impulsion laser, courte (~ 10 - 100 fs) et ultra-intense (> 10^18 W/cm²), avec un plasma sous-dense (< 10^19 cm^-3) peut accélérer, de manière compacte, une fraction des électrons du plasma jusqu’à des énergies relativistes (~ 100 - 300MeV). Ce phénomène, nommé accélération plasma par sillage laser (APSL), pourrait avoir de nombreuses applications telles que le futur collisionneur d’électrons a ultra-hautes énergies. Cependant, cela requiert au préalable des développements supplémentaires afin que l’APSL produise des paquets d’électrons stables et reproductibles avec une excellente qualité, c’est-à-dire de faibles émittances longitudinale et transverses.Au cours de cette thèse, une étude expérimentale de la stabilité et de la reproductibilité des paquets d’électrons auto-injectes a été réalisée dans des tubes capillaires diélectriques, de longueur 8-20mm et de rayon interne 76-89 µm, contenant du H2 pur a une densité électronique de (10 +/- 1, 5)x10^18 cm^-3. Des paquets d’électrons auto-injectes ont été produits, a une cadence de deux tirs par minute, avec une charge accélérée au-delà de 40 MeV de (66+/-7) pC, une énergie moyenne de (65+/-6) MeV, une divergence de (9+/-1) mrad et une fluctuation de pointe de 2,3 mrad. Trois sources de fluctuations et de dérives des propriétés des paquets d’électrons ont été discutées : dérive d’énergie laser, modification du gradient montant de densité électronique et fluctuations du pointé laser. Des contraintes sur le régime de fonctionnement ont été proposées afin d’améliorer la stabilité et la reproductibilité de la source laser-plasma d’électrons.Un mécanisme alternatif d’injection d’électrons dans l’onde de plasma a également été examiné : l’injection induite par ionisation. Une étude expérimentale a montré que les paquets d’électrons accélérés dans un mélange de 99%H2 + 1%N2 ont une charge deux fois plus importante qu’en présence de H2 pur. De plus, une injection plus précoce a été observée pour le mélange de 99%H2 + 1%N2, indiquant que les premiers électrons sont captures selon le mécanisme d’injection induite par ionisation. Une étude complémentaire, utilisant des simulations Particle-In-Cell avec le code WARP, confirment les résultats expérimentaux et suggèrent que l’auto-injection est supprimée par l’injection induite par ionisation. / The interaction of a short (~ 10 - 100 fs) and ultra-intense (> 10^18 W/cm²) laser pulse with an underdense (< 10^19 cm^-3) plasma can accelerate, in a compact way, a fraction of the electrons of the plasma toward relativistic energies (~ 100 - 300MeV). This mechanism, called laser wakefield acceleration (LWFA), might have various applications such as the future ultra-high energy electron collider. Prior to this, additional investigations are needed to ensure, through LWFA, a stable and reproducible generation of electron bunches of high quality, i.e. low transverse and longitudinal emittances.In this thesis, the stability and the reproducibility of the electron self-injection were experimentally investigated in 8-20mm long, dielectric capillary tubes, with an internal radius of 76-89 µm, and filled with pure H2 at an electronic density of de (10 +/- 1.5)x10^18 cm^-3. Electron bunches were produced, at a rate of two shots per minute, with an accelerated charge above 40 MeV of (66+/-7) pC, a mean energy of (65+/-6) MeV, a divergence of (9+/-1) mrad, and a pointing fluctuation of 2.3 mrad. Three sources were identified for the fluctuations and drifts of the electron bunch properties: laser energy drift, change of the electron number density upramp, and laser pointing fluctuations. Restrictions on the operating regime were proposed in order to improve the stability and the reproducibility of the laser-plasma electron source.An alternative mechanism of electron injection into the plasma wave was also investigated: the ionization-induced injection. An experimental study demonstrated that electron bunches generated in a mixture of 99%H2 + 1%N2 have twice more accelerated charge than in the case of pure H2. Moreover, the earlier onset of electron injection was observed for the mixture 99%H2 + 1%N2, indicating that the first electrons were trapped under the mechanism of ionization-induced injection. Particle-In-Cell simulations performed with the code WARP confirm the experimental results and suggest that the self-injection was inhibited by the ionization-induced injection.
34

Implementation trade-offs for FGPA accelerators / Compromis pour l'implémentation d'accélérateurs sur FPGA

Deest, Gaël 14 December 2017 (has links)
L'accélération matérielle désigne l'utilisation d'architectures spécialisées pour effectuer certaines tâches plus vite ou plus efficacement que sur du matériel générique. Les accélérateurs ont traditionnellement été utilisés dans des environnements contraints en ressources, comme les systèmes embarqués. Cependant, avec la fin des règles empiriques ayant régi la conception de matériel pendant des décennies, ces quinze dernières années ont vu leur apparition dans les centres de calcul et des environnements de calcul haute performance. Les FPGAs constituent une plateforme d'implémentation commode pour de tels accélérateurs, autorisant des compromis subtils entre débit/latence, surface, énergie, précision, etc. Cependant, identifier de bons compromis représente un défi, dans la mesure où l'espace de recherche est généralement très large. Cette thèse propose des techniques de conception pour résoudre ce problème. Premièrement, nous nous intéressons aux compromis entre performance et précision pour la conversion flottant vers fixe. L'utilisation de l'arithmétique en virgule fixe au lieu de l'arithmétique flottante est un moyen efficace de réduire l'utilisation de ressources matérielles, mais affecte la précision des résultats. La validité d'une implémentation en virgule fixe peut être évaluée avec des simulations, ou en dérivant des modèles de précision analytiques de l'algorithme traité. Comparées aux approches simulatoires, les méthodes analytiques permettent une exploration plus exhaustive de l'espace de recherche, autorisant ainsi l'identification de solutions potentiellement meilleures. Malheureusement, elles ne sont applicables qu'à un jeu limité d'algorithmes. Dans la première moitié de cette thèse, nous étendons ces techniques à des filtres linéaires multi-dimensionnels, comme des algorithmes de traitement d'image. Notre méthode est implémentée comme une analyse statique basée sur des techniques de compilation polyédrique. Elle est validée en la comparant à des simulations sur des données réelles. Dans la seconde partie de cette thèse, on se concentre sur les stencils itératifs. Les stencils forment un motif de calcul émergeant naturellement dans de nombreux algorithmes utilisés en calcul scientifique ou dans l'embarqué. À cause de cette diversité, il n'existe pas de meilleure architecture pour les stencils de façon générale : chaque algorithme possède des caractéristiques uniques (intensité des calculs, nombre de dépendances) et chaque application possède des contraintes de performance spécifiques. Pour surmonter ces difficultés, nous proposons une famille d'architectures pour stencils. Nous offrons des paramètres de conception soigneusement choisis ainsi que des modèles analytiques simples pour guider l'exploration. Notre architecture est implémentée sous la forme d'un flot de génération de code HLS, et ses performances sont mesurées sur la carte. Comme les résultats le démontrent, nos modèles permettent d'identifier les solutions les plus intéressantes pour chaque cas d'utilisation. / Hardware acceleration is the use of custom hardware architectures to perform some computations faster or more efficiently than on general-purpose hardware. Accelerators have traditionally been used mostly in resource-constrained environments, such as embedded systems, where resource-efficiency was paramount. Over the last fifteen years, with the end of empirical scaling laws, they also made their way to datacenters and High-Performance Computing environments. FPGAs constitute a convenient implementation platform for such accelerators, allowing subtle, application-specific trade-offs between all performance metrics (throughput/latency, area, energy, accuracy, etc.) However, identifying good trade-offs is a challenging task, as the design space is usually extremely large. This thesis proposes design methodologies to address this problem. First, we focus on performance-accuracy trade-offs in the context of floating-point to fixed-point conversion. Usage of fixed-point arithmetic instead of floating-point is an affective way to reduce hardware resource usage, but comes at a price in numerical accuracy. The validity of a fixed-point implementation can be assessed using either numerical simulations, or with analytical models derived from the algorithm. Compared to simulation-based methods, analytical approaches enable more exhaustive design space exploration and can thus increase the quality of the final architecture. However, their are currently only applicable to limited sets of algorithms. In the first part of this thesis, we extend such techniques to multi-dimensional linear filters, such as image processing kernels. Our technique is implemented as a source-level analysis using techniques from the polyhedral compilation toolset, and validated against simulations with real-world input. In the second part of this thesis, we focus on iterative stencil computations, a naturally-arising pattern found in many scientific and embedded applications. Because of this diversity, there is no single best architecture for stencils: each algorithm has unique computational features (update formula, dependences) and each application has different performance constraints/requirements. To address this problem, we propose a family of hardware accelerators for stencils, featuring carefully-chosen design knobs, along with simple performance models to drive the exploration. Our architecture is implemented as an HLS-optimized code generation flow, and performance is measured with actual execution on the board. We show that these models can be used to identify the most interesting design points for each use case.
35

Production de noyaux exotiques par photofission,<br />Le projet ALTO : Premiers Résultats

Cheikh Mhamed, Maher 13 December 2006 (has links) (PDF)
Ce travail de thèse s'inscrit dans le cadre du projet ALTO (Accélérateur Linéaire Auprès du Tandem d'Orsay), projet exploitant la photofission comme mode de production de noyaux riches en neutrons pour la séparation en ligne. Nos travaux portent sur l'étude des modes d'adaptation de l'environnement de production représenté par son ensemble cible-source d'ions.<br /> Nous avons mené une étude exhaustive de radioprotection pour dimensionner et définir la nature des blindages nécessaires pour faire face aux flux intenses de photons et de neutrons générés dans la cible de production.<br /> Les simulations Monte Carlo avec le code FLUKA nous ont permis de calculer le transport simultané des photons et des neutrons avec une modélisation intégrale des structures géométriques très complexes. Pour l'ensemble cible-source d'ions et les points critiques de pertes de faisceaux, nous proposons des blindages optimisés basés essentiellement sur la structure segmentée.<br /> Nous avons étudié l'adéquation d'une cible épaisse de carbure d'uranium pour la production de noyaux radioactifs riches en neutrons par photofission. En particulier, nous avons montré la validité du code FLUKA pour la photofission avec un faisceau d'électrons de 50 MeV, en comparant les résultats de calculs aux mesures expérimentales réalisées.<br /> Enfin, nous présentons nos travaux de conception et de développement d'un prototype de source d'ions de type FEBIAD destinée aux installations de seconde génération : la source IRENA. Ces travaux montrent à quel point les considérations de radioprotection sont également impliquées dans le développement de la source.
36

Accélération matérielle pour l'imagerie sismique : modélisation, migration et interprétation

Abdelkhalek, Rached 20 December 2013 (has links) (PDF)
La donnée sismique depuis sa conception (modélisation d'acquisitions sismiques), dans sa phase de traitement (prétraitement et migration) et jusqu'à son exploitation pour en extraire les informations géologiques pertinentes nécessaires à l'identification et l'exploitation optimale des réservoirs d'hydrocarbures (interprétation), génère un volume important de calculs. Lors de la phase d'imagerie, ce volume est d'autant plus important que les différentes simulations mises en jeu se veulent fidèles à la physique du sous sol. Une puissance de calcul importante est donc nécessaire pour réduire le temps, et donc le coût, des études en imagerie sismique et pour améliorer le résultat final de ces études en reproduisant plus fidèlement les phénomènes physiques mis en jeu et en considérant de plus larges plages de fréquences. Lors de la phase d'interprétation, le calcul d'attributs sismiques (type : cohérence, lissage, analyse spectrale, etc.) offre une aide de choix à l'interprétateur. Ces calculs se font usuellement selon un cycle itératif pour sélectionner les paramètres les plus adaptés. Ce cycle est rendu fastidieux par la complexité et donc le temps des calculs. L'exploitation optimale des ressources de calcul disponibles dans la station d'interprétation est nécessaire pour raccourcir ce cycle ainsi que pour la mise en œuvre d'algorithmes de traitements plus performants. Les technologies accélératrices permettent de déléguer certains types de calculs à des unités puissantes (GPGPU, FPGA, MIC) dans le cadre de plateformes hétérogènes en alternative au CPU utilisé habituellement. La puissance de calcul accessible par ce biais dépasse de plusieurs ordres de grandeur ce que peuvent proposer les architectures généralistes utilisées traditionnellement en calcul hautes performances. Ces nouvelles architectures sont une alternative très intéressante pour augmenter la puissance de calcul sans augmenter pour autant la puissance électrique consommée et thermique dissipée. Néanmoins, les contraintes d'utilisation font qu'à l'heure actuelle ces nouveaux types de calculateurs sont difficiles à programmer et à optimiser dans le cadre du calcul scientifique et conduisent à des codes dédiés à une architecture particulière. Les simulations reposant sur la résolution de l'équation des ondes en 2D ou 3D discrétisée sur des grilles (utilisées pour la modélisation et la migration sismiques), ainsi que les algorithmes de traitement d'images (utilisés lors de l'interprétation des données sismiques) sont des candidats potentiels pour une implémentation très efficace sur ces nouvelles architectures. Dans cette thèse, nous proposons une étude de l'apport, des contraintes ainsi que des limites éventuelles de ces technologies accélératrices pour l'imagerie et l'interprétation sismiques. Dans la première partie du manuscrit, après une brève introduction à l'imagerie sismique dans le premier chapitre, nous passons en revue dans le deuxième chapitre les algorithmes utilisés dans ce cadre pour mettre en exergue la complexité de ces algorithmes et les besoins en puissance de calcul qui en découlent. Nous exposons ensuite dans le chapitre 3 les différentes technologies matérielles et logicielles actuelles permettant de répondre à ces besoins. Dans la deuxième partie de ce manuscrit, nous étudions l'impact de l'utilisation des technologies accélératrices en imagerie sismique (chapitre 4) et dans le cadre de l'interprétation sismique (chapitre 5). Dans le chapitre 4, nous proposons ainsi diverses implémentations d'algorithmes utilisés en imagerie sismique reposant sur la simulation de la propagation des ondes sismiques dans le sous- sol via une discrétisation de l'équation d'onde en 2D et en 3D et sa résolution par différences finies. Nous analysons le comportement de ces implémentations sur divers types d'accélérateurs. Nous montrons qu'une prise en compte fine des ressources disponibles au niveau de l'unité de calcul (bandes passantes, capacité mémoire, organisation des données en mémoire et motifs d'accès à ses différents niveaux) est nécessaire pour tirer partie de chaque type d'architecture et au-delà de cela, de chaque génération d'une architecture donnée. De plus, les communications entre l'accélérateur et la machine hôte ont un coût qu'il est nécessaire de limiter pour ne pas pénaliser les temps de calcul. Nous proposons différentes techniques pour minimiser ces coûts et analysons leur comportement. Ces implémentations reposent sur une décomposition du domaine de simulation global, qui peut être de taille importante, en sous-domaines ce qui induit également des communications entre nœuds dans le cadre de systèmes à mémoire distribuée. Dans le chapitre 5, une étude similaire est proposée pour le calcul d'attributs sismiques. Contrairement aux algorithmes d'imagerie sismique, ce sont les ressources de la station de travail locale qui sont exploitées pour tendre vers un calcul interactif des attributs facilitant ainsi la tâche de l'interprétateur. Une implémentation performante de la transposition de cubes sismiques 3D est proposée. Elle sert de base aux algorithmes étudiés par la suite. Est étudiée ensuite une première classe d'algorithmes basés sur le calcul de la similarité entre traces sismiques voisines : cohérence, calcul de pendage ainsi qu'un algorithme innovant mis au point lors de cette étude. Les calculs sur accélérateur graphique du lissage gaussien par filtres FIR et IIR sont comparés. Des facteurs d'accélération variant entre 8 et 160 par rapport aux processeurs classiques sont reportés. Ces travaux ouvrent la voie à une intégration complète et systématique des accélérateurs de calcul tout le long du cycle de traitement des données sismiques et ce d'autant plus que nous avons démontré que cette intégration ne se fait pas aux dépends de la fiabilité et de la maintenabilité du code existant.
37

Development of SRF monolayer/multilayer thin film materials to increase the performance of SRF accelerating structures beyond bulk Nb / Développement de couches minces de matériaux SRF pour augmenter les performances des structures SRF au-delà du Nb massif

Valente-Feliciano, Anne-Marie 30 September 2014 (has links)
La réduction du cout de construction et d’exploitation des futurs accélérateurs d particules, a grande et petite échelles, dépend du développement de nouveaux matériaux pour les surfaces actives des structures supraconductrices en radiofréquence (SRF). Les propriétés SRF sont essentiellement un phénomène de surface vu que la profondeur de pénétration (profondeur de pénétration de London, λ) des micro-ondes (RF) est typiquement de l’ordre de 20 à 400 nm en fonction du matériau. Lorsque les procédés de préparation de surface sont optimises, la limite fondamentale du champ RF que les surfaces SRF peuvent supporter est le champ RF maximum, Hc₁, au-delà duquel le flux magnétique commence à pénétrer la surface du supraconducteur. Le matériau le plus utilise pour des applications SRF est le niobium (Nb) massif, avec un champ Hc₁ de l’ordre de 170 mT, qui permet d’atteindre un champ accélérateur de moins de 50 MV/m. Les meilleures perspectives d’amélioration des performances des cavités SRF sont liées à des matériaux et méthodes de production produisant la surface SRF critique de façon contrôlée. Dans cette optique, deux avenues sont explorées pour utiliser des couches minces pour augmenter les performances des structures SRF au-delà du Nb massif, en monocouche ou en structures multicouches Supraconducteur-Isolant-Supraconducteur (SIS) : La première approche est d’utiliser une couche de Nb déposée sur du cuivre (Nb/Cu) à la place du Nb massif. La technologie Nb/Cu a démontré, au cours des années, être une alternative viable pour les cavités SRF. Toutefois, les techniques de dépôt communément utilisées, principalement la pulvérisation magnétron, n’ont jusqu’à présent pas permis de produire des surfaces SRF adaptées aux performances requises. Le récent développement de techniques de dépôt par condensation énergétiques, produisant des flux d’ions énergétiques de façon contrôlée (telles que des sources d’ions ECR sous ultravide) ouvrent la voie au développement de films SRF de grand qualité. La corrélation entre les conditions de croissance, l’énergie des ions incidents, la structure et les performances RF des films produits est étudiée. Des films Nb avec des propriétés proches du Nb massif sont ainsi produits. La deuxième approche est basée sur un concept qui propose qu’une structure multicouche SIS déposée sur une surface de Nb peut atteindre des performances supérieures à celles du Nb massif. Bien que les matériaux supraconducteurs à haute Tc aient un champ Hc₁ inférieur à celui du Nb, des couches minces de tels matériaux d’une épaisseur (d) inférieure à la profondeur de pénétration voient une augmentation de leur champ parallèle Hc₁ résultant au retardement de la pénétration du flux magnétique. Cette surcouche peut ainsi permettre l’écrantage magnétique de la surface de Nb qui est donc maintenue dans l’état de Meissner à des champs RF bien plus importants que pour le Nb massif. La croissance et performance de structures multicouches SIS basées sur des films de NbTiN, pour le supraconducteur, et de l’AlN, pour le diélectrique, sont étudiées. Les résultats de cette étude montrent la faisabilité de cette approche et le potentiel qui en découle pour l’amélioration des performances SRF au-delà du Nb massif. / The minimization of cost and energy consumption of future particle accelerators, both large and small, depends upon the development of new materials for the active surfaces of superconducting RF (SRF) accelerating structures. SRF properties are inherently a surface phenomenon as the RF only penetrates the London penetration depth λ, typically between 20 and 400 nm depending on the material. When other technological processes are optimized, the fundamental limit to the maximum supportable RF field amplitude is understood to be the field at which the magnetic flux first penetrates into the surface, Hc₁. Niobium, the material most exploited for SRF accelerator applications, has Hc₁~170 mT, which yields a maximum accelerating gradient of less than 50 MV/m. The greatest potential for dramatic new performance capabilities lies with methods and materials which deliberately produce the sub-micron-thick critical surface layer in a controlled way. In this context, two avenues are pursued for the use of SRF thin films as single layer superconductor or multilayer Superconductor-Insulator-Superconductor structures: Niobium on copper (Nb/Cu) technology for superconducting cavities has proven over the years to be a viable alternative to bulk niobium. However the deposition techniques used for cavities, mainly magnetron sputtering, have not yielded, so far, SRF surfaces suitable for high field performance. High quality films can be grown using methods of energetic condensation, such as Electron Cyclotron Resonance (ECR) Nb ion source in UHV which produce higher flux of ions with controllable incident angle and kinetic energy. The relationship between growth conditions, film microstructure and RF performance is studied. Nb films with unprecedented “bulk-like” properties are produced. The second approach is based on the proposition that a Superconductor/Insulator/Superconductor (S-I-S) multilayer film structure deposited on an Nb surface can achieve performance in excess of that of bulk Nb. Although, many higher-Tc superconducting compounds have Hc₁ lower than niobium, thin films of such compounds with a thickness (d) less than the penetration depth can exhibit an increase of the parallel Hc₁ thus delaying vortex entry. This overlayer provides magnetic screening of the underlying Nb which can then remain in the Meissner state at fields much higher than in bulk Nb. A proof of concept is developed based on NbTiN and AlN thin films. The growth of NbTiN and AlN films is studied and NbTiN-based multilayer structures deposited on Nb surfaces are characterized. The results from this work provide insight for the pursuit of major reductions in both capital and operating costs associated with future particle accelerators across the spectrum from low footprint compact machines to energy frontier facilities.
38

A contribution to gamma-ray astronomy of GeV-TeV Active Galaxies with Fermi and H.E.S.S.

Giebels, Berrie 20 April 2011 (has links) (PDF)
L'astronomie des rayons g de haute (E > 100MeV, HE) et de très haute énergie (E 100GeV, VHE) ont effectué des progrès considérables en moins d'une décennie. Le nombre de sources émettrices dans ce régime d'énergie a augmenté de plus d'un ordre de grandeur, de nouvelles classes d'émetteurs ont été découvertes et des nouvelles sous-classes ont été établies basées sur l'émission gamma, et les sources connues sont à présent résolues à des échelles spatiales ou temporelles sans précédent révélant de nouvelles propriétés. Les noyaux actifs de galaxie (AGN) sont l'une des classes d'émetteurs les plus énergétiques, dont le pic de puissance émis dans le spectre électromagnétique peut dans certains cas dépasser la capacité de mesure des instruments actuels, et dont l'investigation requiert la maîtrise simultanée du ciel g HE et VHE qu'apportent les expériences Cerenkov au sol (atmospheric Cerenkov telescope, ou ACT) et le satellite Fermi.

Page generated in 0.0812 seconds