• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 69
  • 18
  • 3
  • 1
  • Tagged with
  • 93
  • 93
  • 93
  • 34
  • 16
  • 12
  • 11
  • 10
  • 10
  • 10
  • 10
  • 10
  • 9
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Interaction lumière-nuage de particules micrométriques hautes vitesses : application à la Vélocimétrie Hétérodyne / Insight into the Photon Doppler Velocimetry response of high-speed micron-sized metallic ejecta cloud

Franzkowiak, Jean-Eloi 29 November 2018 (has links)
Au passage d’un choc sur la surface rugueuse d’un métal, un nuage de débris micrométriques est éjecté. Sa signature spectrale temps-vitesse est mesurée au moyen d’un système optique interférométrique : la Vélocimétrie Hétérodyne (VH).Dans un régime de diffusion simple de la lumière, une étude paramétrique a mis en évidence l’influence des paramètres clés du nuage sur sa réponse Doppler. Nous avons estimé, par Maximum de Vraisemblance, la courbe masse-vitesse d’un nuage d’étain et l’incertitude associée. L’allure de la mesure a également été étudiée en incorporant aux calculs le rendement optique de la sonde.Nous présentons une méthode de calcul Monte Carlo, rendant compte des effets de diffusion multiple. Appliquée à trois expériences d’éjection d’or et d’étain, la présence de vitesses non physiques sur la mesure VH, liée aux diffusions multiples nuage-surface-nuage, a été soulignée, et les décroissances progressives de la visibilité en vitesse et de la puissance rétrodiffusée justifiées. Quelle que soit la masse éjectée, la diffusion multiple doit être intégrée aux calculs, un régime de diffusion simple n’étant valable qu’asymptotiquement, dans les limites d’un temps infini et/ou d’un faisceau sonde de dimension réduite par rapport aux libres parcours moyen de diffusion. / As a shockwave reaches a roughened metal’s surface, high-speed micron-sized particles are ejected. The spectral signature of the cloud can be measured using a fiber-based interferometric setup, so-called Photon Doppler velocimetry (PDV).In the single scattering regime, we study how the parametric dependencies of the cloud influence its Doppler response. Using a Maximum Likelihood technique, we estimate the mass-velocity function of ejected material, and its uncertainty. The time-dependent statistical properties of the spectrum, coming from the complex optical collection efficiency of the probe, are also explained.We present a Monte Carlo method to incorporate multiple scattering. Three different ejecta experiments are studied and the presence of non-physical velocities attributed to multiple scattering between surface and ejecta. Cloud’s visibility and backscattered power decrease with time due to the existence of different scattering regimes. Whatever the ejected mass, multiple scattering effects have to be integrated in PDV calculations. A single scattering will only be asymptotically valid, when time reaches infinity and/or the beam diameter is negligible with respect to the scattering mean free paths.
32

Développement d'algorithmes de détection et d'identification gamma : application à la spectrométrie gamma embarquée / Embedded gamma spectrometry : development of gamma detection and identification algorithms

Wilhelm, Emilien 24 November 2016 (has links)
Depuis le début des années 1980, le Commissariat à l’Énergie Atomique développe et met en oeuvre un système de spectrométrie gamma aéroportée, appelé HELINUCTM. Ce système, composé de détecteurs NaI(Tl) d’un volume de 16 L, est utilisé afin d’établir un état des lieux radiologique des sites survolés. Les principales missions du système HELINUC consistent en la réalisation de contrôles environnementaux, l’intervention en situation de crise et la recherche de sources ponctuelles. La réalisation de ces missions nécessite le développement de méthodes d’analyse adaptées. L’approche considérée dans cette thèse repose sur une rupture conceptuelle de l’analyse des spectres par rapport aux méthodes utilisées jusqu’alors au CEA : l’analyse ne repose plus sur une considération individuelle et séquentielle des mesures aéroportées, mais sur une considération globale et simultanée de celles-ci. L’étude et le développement de méthodes statistiques adaptées à la quantification des radionucléides naturels et du 137Cs (de 600 keV à 3 MeV), à l’estimation de la contamination en 241Am (basse énergie, inférieure à100 keV) en cas de crise radiologique et la détection de sources ponctuelles (moyenne énergie, entre 100 keV et600 keV) permettent d’améliorer la précision sur les activités déterminées en vol et la détection de sources de faibles activités. / Since the beginning of 1980’s, the CEA has been developing an airborne gamma spectrometry (AGS) system called HELINUCTM using large volume (16 L) NaI(Tl) detectors. HELINUC is used to produce radioactivity mapping of the soil. The different missions of HELINUC are environmental control of radioactivity, nuclear emergency response and research of orphan sources. The continuous development of analysis methods is then required.The approach considered in this thesis is based on a conceptual break from the analysis of spectra compared to the methods used at the CEA until now: the analysis does not rely on an individual and sequential consideration of airborne measurements, but on an overall and simultaneous consideration of them. The study and development of statistical methods for the quantification of natural radionuclides and 137Cs (from 600 keV to 3 MeV), for the estimation of 241Am contamination (low energy, inferior to 100 keV) in case of radiological emergency and for the detection of orphan sources (medium energy, between 100 keV and 600 keV) improve the accuracy of activities estimation and detection of low activities sources.
33

Étude du couplage entre structure et ordre chimique dans les agrégats bimétalliques : vers l’établissement de diagrammes de phases à l’échelle nanométrique / Study of the coupling between structural and chemical order in bimetallic clusters : towards the establishment of phase diagram at the nanoscale

Briki, Mohamed 04 February 2013 (has links)
Si les diagrammes de phase des alliages binaires massifs sont désormais bien connus, il en va tout autrement de ceux des nanoalliages, particules constituées de quelques centaines à quelques milliers d’atomes. Le développement des nanotechnologies est un puissant moteur pour développer la connaissance des diagrammes de phase des nanoparticules. Dans ce but, nous avons étudié le polyèdre de Wulff de 405 atomes (PW405) dans le système Cu-Ag caractérisé par une forte différence de rayons atomiques entre les constituants et une tendance à la démixtion, du moins dans sa forme massive. L’étude est réalisée par simulations Monte Carlo utilisant un potentiel interatomique à N-corps, en tirant parti de la richesse de deux ensembles thermodynamiques, à savoir les ensembles pseudo-grand canonique, i.e. à différence de potentiel chimique fixée, et canonique, i.e. à concentration nominale fixée. Nous montrons tout d’abord qu’un diagramme de phase de nanoalliage est constitué d’un ensemble de diagrammes de phase attachés à des classes de sites de surface ou des couches internes. Ainsi, pour le PW405, nous distinguons trois diagrammes de phase : ceux des facettes (100) et (111) et celui des couches de cœur. Chacun de ces trois diagrammes est attaché à des phénomènes physiques très différents. Ainsi, le diagramme de phase des facettes (100) est relatif à une transition structuro-chimique, alors que celui des facettes (111) caractérise une transition démixtion – désordre sans évolution structurale. Dans l’ensemble p-GC, cela se traduit par une bistabilité collective pour les facettes (100) et individuelle pour les facettes (111). Une conséquence de ce dernier point est la possibilité d’observer des facettes (111) pures en cuivre et d’autres pures en argent au sein d’un même agrégat !L’utilisation de la méthode de Widom pour déterminer dans l’ensemble canonique s’est révélée déterminante pour pouvoir séparer les régimes monophasés de ségrégation superficielle ou sub-superficielle des régimes biphasés. La différence de rayons atomiques joue un rôle important, tant dans la stabilisation dans l’état biphasé de la configuration Janus dissimulée par une coquille d’argent, que dans l’abaissement de la température critique par un facteur d’environ 2 par rapport au diagramme de phase massif.Une analyse des simulations Monte Carlo par une approche en champ moyen sur réseau effectif s’est révélée d’une richesse insoupçonnée pour déterminer les fores motrices de chaque type de transition, tant à la surface que dans les couches de cœur. Cela nous a permis de plus de montrer que les arêtes jouent le rôle d’une véritable nano-armature pour l’agrégat. Ce travail s’achève par ce qui constitue, à notre connaissance, la proposition du premier diagramme de phase de nanoalliage. / If bulk phase diagrams of binary alloys are now well known, it is not the case for nanoalloys, which are particles consisting in a few hundred to a few thousand of atoms. The development of nanotechnologies is a powerful driving force to develop the interest in the phase diagrams of nanoparticles. For this purpose, we have studied the Wulff polyhedron of 405 atoms (PW405) in the Cu-Ag system characterized by a large difference in atomic radii between the components and a tendency to phase separation, at least in the bulk. The study is carried out by Monte Carlo simulations using N-body interatomic potentials, taking advantage of the complementarity of two thermodynamic ensembles, namely the semigrand canonical ensemble (sGC), i.e. at fixed difference in chemical potentials and the canonical ensemble, i.e. at fixed nominal concentration.We first show that a phase diagram of nanoalloy consists in a set of phase diagrams related to the various classes of surface sites or to the internal layers. Thus, for the PW405, we distinguish three phase diagrams: the (100) facets diagram, the (111) facets diagram and the phase diagram for the layers of the core. Each of these diagrams is linked to very different physical phenomena. Thus, the phase diagram of the (100) facets is related to a structural and chemical transition, while the one of the (111) facets characterizes a transition between phase separation and disorder, without structural evolution. In the sGC ensemble, this results in a collective bistability for the (100) facets and an individual bistability for the (111) facets. A consequence of this last point is the possibility to observe some (111) facets pure in copper and other (111) facets pure in silver within the same nanoparticle !The use of the Widom method to determine in the canonical ensemble is decisive in order to discriminate between a single-phase regime (with surface or subsurface segregation) and a two-phase regime. Furthermore, the difference of atomic radii between Cu and Ag plays an important role, both for stabilizing the Janus configuration (with an Ag shell) in the two-phase state, and for lowering the critical temperature of the core layers by a factor of about 2 with respect to the bulk phase diagram.An analysis of the Monte Carlo simulations within an effective lattice formalism and a mean-field approximation is very powerful to determine the driving forces at the origin of each type of transition, both for the different facets of the surface layers and for the core. Moreover, this allowed us to show that the edges act as a nano-armature for the nanoparticles. This work ends with the establishment of what should be considered as the first phase diagram of nanoalloys, to the best of our knowledge.
34

Développement d'outils de simulation et de reconstruction de gerbes de particules pour l'astronomie gamma avec les futurs imageurs Tcherenkov

Sajjad, Saeeda 17 September 2007 (has links) (PDF)
Le futur de l'astronomie gamma au sol repose sur l'utilisation de grands réseaux d'imageurs Tcherenkov atmosphériques (IACT) avec des capacités améliorées : seuil en énergie plus bas, meilleure sensibilité, meilleurs résolution et pouvoir de rejet. Pour concevoir ces systèmes et optimiser leurs caractéristiques, il est nécessaire de comprendre les gerbes atmosphériques et de disposer d'outils de simulation adaptés permettant d'évaluer les performances des réseaux. La première partie de cette thèse traite des gerbes atmosphériques, des propriétés de la lumière Tcherenkov qu'elles émettent et de leur simulation. La seconde partie présente les outils que nous avons développés pour la simulation des télescopes à imagerie Tcherenkov atmosphérique et les caractéristiques des images qu'ils obtiennent. La troisième partie de cette thèse contient une présentation des outils dévéloppés pour la reconstruction de la source, du pied de gerbe et de l'énergie ainsi que des propositions pour la séparation gamma-hadrons. Dans la dernière partie, ces outils sont utilisés pour étudier deux grands réseaux de télescopes à deux altitudes différentes et pour donner leurs performances pour la détection des rayons gamma.
35

Recherche du Rayonnement Gamma Diffus Galactique Autour de 100 GeV dans l'Expérience à Effet Tcherenkov Atmosphérique CELESTE

Britto, Richard 19 December 2006 (has links) (PDF)
L'étude de l'émission diffuse galactique est un sujet d'intérêt majeur en astronomie gamma au-delà du GeV pour l'étude des rayonnements cosmiques chargés de notre Galaxie. Face au peu de mesures au-dessus de 10 GeV, nous avons recherché la composante gamma diffuse dans les données hors-source (OFF) de CELESTE, premier télescope à effet Tcherenkov atmosphérique à avoir un seuil en énergie en-dessous de 100 GeV. La production et l'étude de simulations Monte-Carlo de gamma ont permis de valider l'accord entre les simulations et les données, et d'estimer la sensibilité de CELESTE aux gamma diffus. Afin de rechercher le rayonnement gamma diffus, essentiellement localisé aux faibles latitudes galactiques, nous avons entrepris une analyse de lots de données OFF, réalisant ainsi une association par paires OFF / OFF. Une première étape a consisté à vérifier l'absence d'effet systématique significatif en comparant paire par paire deux OFF pris à des dates différentes dans des régions de hautes latitudes galactiques où aucun signal gamma diffus n'était décelable, et sélectionnés selon des critères de stabilité de l'acquisition et de l'atmosphère, pour des pointés identiques. La deuxième étape, visant à rechercher un excès d'événements dans le plan galactique, a consisté à associer en paires les OFF de la nébuleuse du Crabe dont l'un des membres est situé à une latitude |l| < 2°, et l'autre à une latitude |l| = 10°. La soustraction OFF-OFF des données après coupures d'analyse sur des variables construites sur des propriétés géométriques et temporelles du front d'onde Tcherenkov, permettait ainsi la discrimination entre les candidats électromagnétiques et hadroniques. La région sondée était donc celle de l'anticentre galactique. Nous avons obtenu 7 paires, soit 108 min de données. Une limite supérieure à 95 % de niveau de confiance a été établie à 100 GeV, correspondant au flux limite intégral phi (E=100 GeV) = 6,6 x 10^-3 m^-2 s^-1 sr^-1.
36

Simulations de la caméra d'imagerie grand champ d'ECLAIRS – Modélisation des régions internes des Noyaux Actifs de Galaxies

Godet, Olivier 04 May 2005 (has links) (PDF)
La première partie de cette thèse est centrée sur la mission ECLAIRs, dédiée à l'étude de l'émission prompte multi-longueurs d'onde des sursauts γ. Les performances de la caméra X/γ d'imagerie grand champ d'ECLAIRs sont estimées par des simulations Monte-Carlo. La sensibilité de détection des sursauts γ dépend principalement du bruit de fond sur la caméra. En prenant en compte les principales composantes de l'environnement spatial (le fond diffus X extra-galactique, les protons du rayonnement cosmique et atmosphériques, les neutrons atmosphériques, et les photons X-γ de l'albédo terrestre) pour une orbite d'ECLAIRs à 600 km d'altitude et à 20o d'inclinaison, le bruit de fond dans la bande d'imagerie de 4 à 50 keV est estimé à 7,1 coups cm-2 s-1. La sensibilité limite pour un seuil de détection de 5,5 σ de fluctuations du bruit de fond est estimée à 530 milli-Crabe sur une seconde d'intégration dans la bande d'énergie de 4 à 50 keV. Compte tenu des niveaux de bruit de fond, le taux de sursauts γ détectables par an, dans la bande 4-300 keV, est estimé entre 50 et 90 sursauts γ suivant la dureté du sursaut. Pour un échantillon d'une centaine de sursauts détectés, 47% seront localisés à mieux que 10' et 61% à mieux 20' pour un temps d'intégration de 1,024 secondes. Par ailleurs, avec un champ de vue de 105o x 105o et une sensibilité limite de 10 milli-Crabe sur 10 h d'intégration dans la bande 20-200 keV et 3 milli-Crabe dans la bande 4-10 keV, la caméra X-γ fera également un balayage de la sphère céleste, à la recherche de noyaux actifs de galaxies (NAG), de novae X, et de Soft Gamma Repeaters.<br /><br />Dans la seconde partie de cette thèse, nous nous intéressons à l'apport du code de photo-ionisation, Titan, dans l'interprétation des spectres de haute résolution des NAG, obtenus en X avec les satellites XMM-Newton et Chandra. Nous montrons que les formalismes approchés utilisés pour résoudre le transfert radiatif induisent des interprétations imprécises des spectres des NAG en X, car les flux de raies calculées (notamment les raies de résonance) sont systématiquement surestimés par 30% pour des milieux avec une densité de colonne totale CD < 1021 cm-2 à un ordre de grandeur pour des milieux avec CD > 1024 cm-2. A partir d'une étude théorique du triplet de raies des ions héliumoïdes, nous mettons également en évidence un jeu de diagnostics spectroscopiques. Ces diagnostics permettent de déterminer la densité, la densité de colonne totale et le paramètre d'ionisation des milieux photo-ionisés observés, à partir de la mesure des flux de raies et de la température des continus de recombinaison radiative.
37

Refroidissement Raman et vols de Lévy: Atomes de césium au nanoKelvin

Reichel, Jakob 28 June 1996 (has links) (PDF)
Les températures que l'on peut atteindre par refroidissement laser sub-recul d'atomes libres ne sont limitées que par le temps d'interaction. Cette thèse présente dans sa première partie une théorie du refroidissement sub-recul qui utilise les vols de Lévy, qui est confirmée par simulations Monte-Carlo et appliquée à la méthode du refroidissement Raman. Ce travail montre l'importance de la forme des impulsions Raman et donne la première expression quantitative de la température la plus basse que l'on peut atteindre avec une bonne efficacité dans un temps donné. En particulier, de simples impulsions carrées sont plus efficaces pour le refroidissement unidimensionnel que les impulsions Blackman utilisées auparavant. De plus, nous montrons comment la théorie et les simulations permettent de déterminer les valeurs optimales des paramètres tels que durée et désaccord des impulsions.<br /><br />Ces résultats nouveaux sont appliqués dans une expérience de refroidissement Raman unidimensionnel utilisant des atomes de césium. Le dispositif, qui utilise uniquement des diodes laser, comprend un piège magnéto-optique en cellule et deux lasers verrouillés en phase avec une différence de fréquence de 9.19 GHz pour exciter la transition Raman. En utilisant des impulsions carrées, on obtient une température unidimensionnelle de 2.8 nK avec une hauteur du pic à vitesse nulle qui est 10 fois celle de la distribution initiale. Nous avons atteint des températures encore plus basses, jusqu'à 0.8 nK, avec un gain légèrement inférieur. Ces résultats représentent à notre connaissance les plus basses températures atteintes par refroidissement laser. A ces températures, la fonction d'onde atomique est délocalisée sur plus de 10 longueurs d'onde optiques.<br /><br />Les applications d'un tel ensemble atomique ultrafroid vont de l'observation d'oscillations de Bloch d'atomes dans un potentiel périodique lumineux jusqu'à l'amélioration des horloges atomiques. Le refroidissement sub-recul d'atomes piégés dans un potentiel lumineux constitue une voie prometteuse pour la production d'un gaz quantique dégénéré avec des techniques purement optiques.
38

Dosimétrie personnalisée par simulation Monte Carlo GATE sur grille de calcul. Application à la curiethérapie oculaire.

Maigne, Lydia 07 November 2005 (has links) (PDF)
Bien que souvent assez consommatrice en temps de calcul, la méthode Monte Carlo est l'algorithme de calcul qui modélise au plus près la physique liée aux processus de dépôts d'énergie. L'idée est d'utiliser les calculs Monte Carlo dans le traitement quotidien du cancer par rayonnement pour rivaliser avec les systèmes de planification de traitement (TPS) existants dans le but de délivrer une dose absorbée à la tumeur pour des traitements spécifiques. Pour atteindre cet objectif, deux points ont été particulièrement étudiés au cours de cette thèse : la validation de la plate-forme de simulation GATE pour des applications en dosimétrie utilisant des électrons, une étude particulière est faite concernant les traitements de curiethérapie oculaire utilisant des applicateurs ophtalmiques de 106Ru/106Rh, et le déploiement des simulations GATE dans un environnement de grille pour réduire les temps de calcul très élevés de ces simulations.<br />Des points kernels de dose d'électrons mono-énergétiques et poly-énergétiques ont été simulés en utilisant la plate-forme GATE et comparés à d'autres codes Monte Carlo. Trois versions des packages de librairies ont été utilisées pour les comparaisons (5.2, 6.2 et 7.0). Les résultats montrent que l'implémentation de la diffusion multiple est responsable des différences observées entre les codes. Les simulations de traitements de curiethérapie oculaire comparées avec d'autres Monte Carlo et des mesures montrent un bon accord. La transcription des unités Hounsfield, à partir des données scanner sur l'anatomie du patient, en paramètres tissulaires est l'autre étude présentée pour une utilisation prochaine de GATE sur des images voxélisées pour la dosimétrie personnalisée. Les infrastructures des projets DataGrid puis d'EGEE ont été utilisées pour déployer les simulations GATE afin de réduire leur temps de calcul dans le but de les utiliser en routine clinique.<br />La méthode utilisée pour paralléliser les simulations GATE est la division du générateur de nombres aléatoires (RNG) en séquences indépendantes. Des tests de temps de calcul réalisés sur des bancs tests de grille montrent qu'un gain significatif est obtenu. Les fonctionnalités pour diviser, lancer et contrôler les simulations GATE sur une infrastructure de grille ont été implémentées sur le portail web GENIUS. Un premier prototype de ce portail est accessible à partir d'un centre hospitalier pour l'utilisation de la précision des algorithmes Monte Carlo de manière transparente et sécurisée pour des traitements de cancer de l'œil.
39

Détection de rayons gamma cosmiques et potentiel de découvertes avec le spectromètre AMS-02

Girard, Loic 09 December 2004 (has links) (PDF)
Le spectromètre magnétique AMS-02 sera installé sur la Station Spatiale Internationale en 2007 pour une durée minimale de 3 ans. Le rayonnement gamma du GeV au TeV est détectable au moyen du trajectomètre pour les gamma convertis en e+e- et du calorimètre électromagnétique pour les gamma non-convertis. Dans la première partie de cette thèse sont présentées la calibration et les performances du modèle d'ingénierie du calorimètre, résultant de l'analyse de données prises lors d'un faisceau-test mené au CERN en juillet 2002. Deux méthodes de calibration, basées sur des Particules au Minimum d'Ionisation (MIPs) et sur des électrons d'une énergie nominale fixe, sont développées. Les performances déduites - linéarité, résolutions en énergie et angulaire, mesure de la longueur de radiation - sont comparées aux simulations Monte-Carlo. Dans la seconde partie de cette thèse, le potentiel de découverte pour l'astrophysique gamma est présenté. Des cartes d'observabilité du ciel sont construites pour un an de fonctionnement des détecteurs-gamma. L'acceptance du calorimètre est considérée à l'aide de simulations Monte-Carlo, les protons n'activant pas le système de déclenchement chargé et les gamma, non-convertis en e+e-, arrivant sur le calorimètre. Des variables, basées sur la forme et la direction de la gerbe développée, sont construites et utilisées pour la discrimination gamma/proton. Une acceptance pour les gamma est trouvée et le flux de protons survivants comparé au flux attendu de gamma diffus. Si l'on s'intéresse à une source ponctuelle, la mesure du fond-gamma, basée sur le déplacement du cône de détection autour de la source ponctuelle, permet la soustraction de ce dernier fond. Puis, pour le pulsar Vela, la possibilité de distinguer au bout d'un an avec le spectre gamma les mécanismes d'émission est estimée. Enfin le potentiel du calorimètre pour l'observation d'un signal gamma supersymétrique provenant du Centre Galactique est illustré avec divers jeux de paramètres, ce pour un ou dix an(s) de fonctionnement.
40

Contributions à la simulation et à l'analyse de discrétisation de processus, et applications.

GOBET, Emmanuel 24 November 2003 (has links) (PDF)
Nous présentons quelques contributions à la simulation et à l'analyse de discrétisation de processus, avec leurs applications notamment en finance. Nous avons regroupé nos travaux selon 4 thèmes: 1. statistique des processus avec observations discrètes; 2. couverture en temps discret en finance; 3. sensibilités d'espérances; 4. analyses d'erreurs de discrétisation. Le premier chapitre sur la statistique des processus est assez indépendant du reste. En revanche, les trois autres chapitres correspondent à une cohérence et une progression dans les questions soulevées. Néanmoins au fil de la lecture, on remarquera des liens entre les quatre parties: différentiation par rapport à des domaines et amélioration de simulation de temps de sortie, sensibilités d'espérances et statistique asymptotique avec le calcul de Malliavin, sensibilités d'espérances et analyse d'erreur etc... Les preuves des résultats s'appuient notamment sur les outils du calcul de Malliavin, des martingales, des Équations aux Dérivées Partielles et de leurs liens avec les Équations Différentielles Stochastiques.

Page generated in 0.1352 seconds