Spelling suggestions: "subject:"physique nucléaire"" "subject:"physique binucléaire""
121 |
Étude du potentiel de la détection des antineutrinos pour la surveillance des réacteurs nucléaires à des fins de lutte contre la prolifération.Cormon, Sandrine 07 December 2012 (has links) (PDF)
Ces dernières années, la physique des neutrinos a présenté de nouvelles perspectives de physique appliquée. En effet, les antineutrinos (ne) émis par une centrale nucléaire dépendent du combustible : leur détection constituerait donc une sonde permettant de déterminer la composition isotopique du coeur. L'Agence Internationale de l'Énergie Atomique (AIEA) a montré son intérêt pour le potentiel de cette détection comme nouvel outil au profit de son département des Garanties et a créé un groupe de travail ad hoc dédié. Notre objectif est de déterminer le degré de précision d'une part atteint par la détection des ne et d'autre part requis pour être utile à l'AIEA et d'en déduire les performances requises pour un détecteur de l'ordre du m3. Nous présentons d'abord la physique sur laquelle repose notre étude de faisabilité : les neutrinos, la décroissance b des produits de fission (PF) et leur conversion en spectre d'ne. Nous présentons ensuite nos outils de simulation : le code MCNP Utility for Reactor Evolution (MURE) développé au sein de l'IN2P3 initialement pour étudier les réacteurs de Génération IV. Grâce au code MURE couplé aux bases de données nucléaires, nous construisons les spectres d'ne en sommant les contributions des PF. Cette méthode est la seule qui permette de calculer les spectres d'ne associés à des réacteurs du futur : nous présentons les prédictions de spectres pour des combustibles innovants. Nous calculons ensuite l'émission en ne associée à différents concepts de réacteurs actuels et futurs, dans le but de déterminer la sensibilité de la sonde ne à différents scénarios de détournement en tenant compte des contraintes imposées par la neutronique.
|
122 |
Mesures du coefficient de corrélation angulaire B-v dans les transitions B nucléairesLiénard, E. 30 April 2010 (has links) (PDF)
Les mesures de corrélation dans les transitions B sont des mesures de précision effectuées à basse énergie dans le but de mettre en évidence une physique au-delà du Modèle Standard. Le groupe Interactions fondamentales du LPC Caen a développé dans ce cadre un dispositif de piégeage d'ions, LPCTrap, installé sur la ligne LIRAT au GANIL. Le projet initial, dont l'objectif était de mesurer précisément le coefficient de corrélation angulaire B-v dans la décroissance B des noyaux 6He, arrive à son terme. Ce coefficient est sensible aux constantes de couplage de l'interaction faible et l'expérience permet donc de tester l'existence éventuelle d'un couplage exotique rejeté par le Modèle Standard. L'objectif du travail présenté est de donner l'état des lieux de l'expérience 6He en fin de parcours en la resituant dans son cadre théorique et expérimental, et de présenter les perspectives du groupe dans le domaine à court et moyen termes.
|
123 |
Spallation : comprendre (p)ou(r) prédire (!) ?David, Jean-Christophe 13 December 2012 (has links) (PDF)
Ce mémoire de HDR traite d'une dizaine d'années de travaux autour de la modélisation des réactions de spallation. Ces réactions sont définies comme l'interaction nucléaire entre une particule légère, le plus souvent un nucléon, et un noyau atomique à une énergie de l'ordre de 100 MeV à 2-3 GeV. Deux étapes les caractérisent. Une phase rapide, la réaction directe appelée aussi cascade intra- nucléaire, et une phase plus lente, la désexcitation du noyau issu de la première phase. À partir de l'association du code développé par le groupe pour la cascade, INCL4, et du code de désexcitation Abla, de GSI, sont présentés les différentes facettes des réactions de spallation. D'abord la physique et les codes sont présentés, ce sont ensuite les différents types de validations des modèles qui sont exposés, puis les multiples domaines dans lesquels la modélisation de la spallation joue un rôle, pour enfin, tirant profit de tout ce qui aura été dit et d'autres travaux passés, montrer les différents voies qu'il reste à explorer ou redécouvrir.
|
124 |
Etudes expérimentales et simulations Monte Carlo en spectrométrie gamma: Correction des effets de cascade et de matrice pour des mesures environnementalesDziri, Samir 29 May 2013 (has links) (PDF)
Les mesures fines des faibles radioactivités par la spectrométrie gamma nécessitent l'optimisation de la géométrie de détection et la connaissance du schéma de niveaux des raies gamma. Ainsi, on peut augmenter le taux de comptage et par conséquent, réduire l'incerti- tude statistique des pics spectraux exploités pour le calcul de l'activité des radio-isotopes en rapprochant le plus possible l'échantillon du détecteur. Cependant, l'augmentation du volume de l'échantillon demande une correction de l'auto-absorption des émissions par l'échantillon même, et le rapprochement du détecteur est à l'origine du phénomène de pic-somme. L'utilisation de MCNPX a permis de mettre en évidence les effets séparés de la densité de l'échantillon et le nombre atomique effectif dans l'atténuation des photons d'énergie inférieure à 100 keV. Les facteurs de correction du pic-somme sont obtenus par MCNPX, GESPCOR et ETNA. Ainsi, une base des données pour 244 radionucléides a été établie pour des géométrie SG50 et SG500 au contact d'un détecteur. Dans une application à la radioprotection, des échantillons de mat'eriaux de construction ont été analysés par la spectrométrie gamma. L'Uranium-238, le Thorium-232 et le Potassium-40 ont été identifiés et corrigés des effets sus-cités. La dosimétrie de leurs rayonnements gamma a permis d'évaluer les indices de risque, la dose absorbée et la dose efficace annuelle reçues provenant de ces matériaux. Les simulations par MCNPX corroborent le modèle de calcul de la dose absorbée. Il a permis aussi d'étudier la distribution de la dose dans les habitations de diff'erentes dimensions. Les résultats obtenus sont dans les limites réglementaires.
|
125 |
Le Crédit Burnup des combustibles REP-MOx français : méthodologie et conservatismes associés à l'évaluation JEFF-3.1.1. / Burnup Credit of French PWR-MOx fuels : methodology and associated conservatisms with the JEFF-3.1.1 evaluationChambon, Amalia 17 October 2013 (has links)
En règle générale, les études de sûreté-criticité concernant les combustibles usés stockés, transportés ou retraités sont très conservatives et considèrent ce combustible comme neuf donc le plus réactif possible. Le « Crédit Burn-up » (CBU) est la prise en compte de l’antiréactivité du combustible irradié par rapport au combustible neuf. Une méthodologie CBU rigoureuse, développée par le CEA en collaboration avec AREVA-NC a récemment été validée et réévaluée pour les combustibles REP-UOx. Cependant, 22 réacteurs sur les 58 que compte la France utilisent également du combustible MOx. De plus en plus d’assemblages MOx irradiés doivent donc être entreposés et transportés, ce qui conduit les industriels à s’intéresser à la prise en compte du CBU pour ces applications, dans le but de pouvoir gagner des marges en terme de dimensionnement des installations. Des publications récentes et les travaux du Groupe de Travail Français sur le CBU ont souligné l’importance de la prise en compte des 15 produits de fission stables et non volatiles les plus absorbants qui sont à l’origine de la moitié de l’antiréactivité totale apportée dans les combustibles REP-MOx. C’est pourquoi, dans le but de garantir la sous-criticité de la configuration étudiée suivant les dispositions règlementaires relatives à la sûreté des installations, les biais de calcul affectant leur bilan-matière et leur effet individuel en réactivité doivent également être pris en considération dans les études de sûreté-criticité s’appuyant sur des calculs de criticité. Dans ce contexte, une revue bibliographique exhaustive a permis d’identifier les particularités des combustibles REP-MOx et une démarche rigoureuse a été suivie afin de proposer une méthodologie CBU adaptée à ces combustibles validée et physiquement représentative, permettant de prendre en compte les produits de fission et permettant d’évaluer les biais liés au bilan-matière et à l’antiréactivité des isotopes considérés. Cette démarche s’est articulée autour des études suivantes : • détermination de facteurs correctifs isotopiques permettant de garantir le conservatisme du calcul de criticité sur la base de la qualification du formulaire d’évolution DARWIN-2.3 pour les applications REP-MOx et d’une analyse des données nucléaires des produits de fission métalliques afin de déterminer l’impact des incertitudes associées sur le calcul de leur bilan matière ; • évaluation de l’antiréactivité individuelle des produits de fission sur la base des résultats d’interprétation des expériences d’oscillation des programmes CBU et MAESTRO, réalisés dans le réacteur expérimental MINERVE à Cadarache, avec le formulaire dédié PIMS développé au SPRC/LEPh avec mise à jour des schémas de calcul pour la criticité ; • élaboration de matrices de covariances réalistes associées à la capture de deux des principaux produits de fission du CBU REP-MOx : 149Sm et le 103Rh associées à l’évaluation JEFF-3.1.1 ; • détermination des biais et incertitudes « a posteriori » dus aux données nucléaires des actinides et produits de fission considérés pour deux applications industrielles (piscine d’entreposage et château de transport) par une étude de transposition réalisée avec l’outil RIB, développé au SPRC/LECy, qui a bénéficié à cette occasion de développements spécifiques et de mises à jour des données utilisées (importation des données de covariance issues de la bibliothèque COMAC V0 associée à JEFF-3.1.1 pour les isotopes 235,238U, 238,239,240,241,242Pu, 241Am et 155Gd et prise en compte des corrélations inter-réactions pour un même isotope). • évaluation de la méthodologie proposée pour deux applications industrielles (piscine d’entreposage et château de transport), démonstration de son intérêt et de sa robustesse. / Considering spent fuel management (storage, transport and reprocessing), the approach using « fresh fuel assump-tion » in criticality-safety studies results in a significant conservatism in the calculated value of the system reactivity.The concept of Burnup Credit (BUC) consists in considering the reduction of the spent fuel reactivity due to its burnup.A careful BUC methodology, developed by CEA in association with AREVA-NC was recently validated and writtenup for PWR-UOx fuels. However, 22 of 58 french reactors use MOx fuel, so more and more irradiated MOx fuelshave to be stored and transported. As a result, why industrial partners are interested in this concept is because takinginto account this BUC concept would enable for example a load increase in several fuel cycle devices. Recent publi-cations and discussions within the French BUC Working Group highlight the current interest of the BUC concept inPWR-MOx spent fuel industrial applications. In this case of PWR-MOx fuel, studies show in particular that the 15FPs selected thanks to their properties (absorbing, stable, non-gaseous) are responsible for more than a half of the totalreactivity credit and 80% of the FPs credit. That is why, in order to get a conservative and physically realistic valueof the application keff and meet the Upper Safety Limit constraint, calculation biases on these 15 FPs inventory andindividual reactivity worth should be considered in a criticality-safety approach. All of this work is supported by the use of the CEA reference calculation tools : the deterministic code APOLLO-2.8and the probabilistic code TRIPOLI-4 used by the CRISTAL V2 criticality-safety package, the DARWIN-2.3 packagefor fuel cycle applications, the JEFF-3.1.1 nuclear data library and the Integral Experiment Methodology based on thestatistical adjustment method of the nuclear data and the integral experiment representativity.The feedback on the nuclear data of the oscillation programmes BUC and MAESTRO allows to halve the prioruncertainties linked to 149Sm and 103Rh capture cross sections. The application of the developed methodology,benefiting from the CEA dedicated experimental programmes quality and better physically justified to twoapplications, representative of fuel storage and transport, shows that the introduced conservatisms represents40 % of the total Burnup Credit. On top of that, the two configurations results comparison shows that theevaluated BUC is independent from the considered application and proves the calculation route robustness.
|
126 |
Microscopic cluster model of elastic scattering and bremsstrahlung of light nuclei / Etude microscopique de la diffusion élastique et du bremsstrahlung entre noyaux légers par un modèle en amasDohet-Eraly, Jérémy 12 September 2013 (has links)
Microscopic approaches enable one to study nuclear bound states as well as nuclear collisions in a unified framework.<p>At non-relativistic energies, all physical quantities are determined by the solutions of the many-body Schrödinger equation based on an interaction potential between nucleons.<p>The difficulty of solving this equation for collisions and taking the antisymmetrization principle into account restricts these approaches to light nuclei and requires the development of nuclear models based on some simplifying assumptions.<p>One of these assumptions, which is done in this work, is to consider that the nucleons are aggregated in clusters in the nuclear systems. <p><p>Another major problem of the microscopic description is the difficulty of determining a reliable interaction potential between nucleons.<p>In spite of many years of efforts to establish such potentials, none has yet been proved to accurately describe both the spectroscopic properties of nuclei and the reactions between light nuclei.<p>For this reason, many effective NN interactions, adapted to the model space and to the studied collision, have been built and used in microscopic models.<p>In parallel, for a few years, some efforts have been done to use in the microscopic models more realistic NN interactions, adjusted to reproduce the two-nucleon properties.<p>However, this requires solving much more accurately the Schrödinger equation by relaxing, for instance, the cluster assumption.<p>These approaches therefore need large computational times, which limits the size of the systems that can be studied.<p><p>In this work, a two-body realistic interaction has been adapted to the simple microscopic cluster model by using the Unitary Correlation Operator Method. This new realistic effective interaction has been adjusted so that the α+α elastic phase shifts obtained with the microscopic cluster model agree rather well with the experimental data.<p>This interaction has been used to study α+N and α+3He scattering.<p>The calculated phase shifts give a rather good agreement with experimental data without additional adjustment, without three-body interactions and with simple basis functions. <p><p>Besides this study of elastic scattering between light nuclei, this work deals with the nucleus-nucleus bremsstrahlung.<p>Previous microscopic models of nucleus-nucleus bremsstrahlung were based on a photon-emission operator fully neglecting the meson-exchange currents. <p>In this work, a microscopic cluster model of bremsstrahlung is developed, which implicitly takes them partially into account by using an extension of the Siegert theorem. <p>Then, the photon-emission operator can be deduced from the charge density rather than from the current density.<p>Although this extension of the Siegert theorem does not fully remove the nuclear-current dependence, the effects of the meson-exchange currents should be largely reduced, especially at low photon energy.<p><p>The microscopic cluster model of nucleus-nucleus bremsstrahlung developed in this work has been applied to the α+ α and α+N systems. This model is based on an effective NN interaction, which enables a good reproduction of the elastic phase shifts for the α+ α and α+N systems.<p>The agreement with experimental bremsstrahlung cross sections is rather good but the comparison between theory and experiment requires more numerous and more accurate data to be conclusive. With an extension to the p shell, the present model could also describe heavier cluster systems such as 12C+p and 16O+p for which experimental data exist at low energies.<p> / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
|
127 |
Recherche d'un flux diffus de neutrinos tauiques d'origine cosmique dans le détecteur IceCubeBechet, Sabrina 22 October 2012 (has links)
Le détecteur IceCube est constitué d'un réseau de modules optiques digitaux (DOMs) déployés sur un volume d'1 km³ dans la glace antarctique. Les DOMs enregistrent la lumière Cerenkov émise par les particules secondaires issues des interactions des neutrinos avec la glace. Selon la répartition géographique des signaux lumineux dans la glace, on peut différencier les différentes saveurs de leptons et ainsi identifier la saveur du neutrino primaire. Les modèles astrophysiques prédisent une production dominante de neutrinos électroniques et muoniques au sein d'accélérateurs cosmiques. Cependant, lors de leur propagation dans l'univers, ces neutrinos oscillent et on s'attend à observer sur Terre le même flux des trois saveurs de neutrinos. Comme la production de neutrinos tauiques dans l'atmosphère est négligeable, ce canal est affecté d'un bruit de fond intrinsèque quasi nul.<p><p>Ce travail porte sur la détection de neutrinos tauiques d'origine cosmique. A haute énergie (E>PeV), le lepton tau, produit par le neutrino tauique, se propage sur une centaine de mètres avant de se désintégrer. Nous optimisons notre recherche pour le canal de désintégration muonique qui, s'il se produit dans le volume de détection, présente une signature unique. En effet, les différences de masse du tau et du muon induisent des différences quant à leur processus de perte d'énergie qui mènent à une différence de luminosité le long des traces du tau et du muon. <p><p>Nous avons développé une observable originale reposant sur les charges enregistrées par les différents DOMs pour caractériser la luminosité le long d'une trace afin de différencier les traces de muons de celles de taus se désintégrant en muon .Cependant, au niveau de déclenchement du détecteur, on est confronté à un bruit de fond de muons atmosphèriques un million de fois supérieur au signal. Nous avons donc mis en place une série de coupures afin de réduire ce bruit de fond et ainsi augmenter la pureté de notre échantillon. <p><p>Enfin l'application de ces coupures sur un échantillon de données réelles enregistrées durant la saison 2009-2010 et l'absence de signal détecté permettent de poser une limite supérieure sur le flux de neutrinos tauiques. Ceci constitue la première limite expérimentale pour des neutrinos tauiques d'énergies inférieures à 20 PeV. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
128 |
Atomistic kinetic Monte Carlo simulation of precipitation and segregation in metals for nuclear applications, using a novel methodology based on artificial neural networksCastin, Nicolas 24 June 2011 (has links)
La sécurité des installations nucléaires est constamment un souci majeur lors de leur exploitation, mais aussi lors de la conception de nouveaux réacteurs. Leurs durées de vie est limitée à cause des changements de comportement mécanique de leurs composants métalliques (principalement la cuve du réacteur mais aussi ses composants internes), qui sont accélérés ou induits par l’irradiation de neutrons. Une prédiction quantitative précise de ces changements, en fonction de la composition des matériaux et des conditions d'irradiation, est par conséquent un objectif de première importance pour la science des matériaux nucléaires. La modélisation est, de nos jours, considérée comme un complément vital aux approches expérimentales, avec l'objectif d’apporter une meilleure compréhension des processus physiques et chimiques qui se produisent dans les matériaux métalliques sous irradiation de neutrons.<p><p>La modélisation des effets de l'irradiation de neutrons dans les aciers est par nature un problème multi-échelle. Le point de départ est la simulation des cascades de collisions atomiques initiées par les neutrons à hautes énergies qui pénètrent dans le matériau, créant ainsi des défauts ponctuels mobiles. Différents modèles physiques, considérant des échelles de temps et de longueur croissantes, doivent être développés afin de convenablement tenir en compte de tous les différents processus qui provoquent des changements de comportement macroscopique, à cause de la présence de ces défauts ponctuels mobiles. En outre, des liens entre les différents modèles doivent être créés, parce que les prédictions de chacun d'entre eux doivent servir de paramètres d'entrée pour les modèles qui travaillent aux échelles supérieures. Dans cette thèse, un tel lien est créé entre le niveau atomique et les modèles à gros-grains, en développant un nouvel algorithme Monte-Carlo cinétique atomistique (MCCA), où le matériau est décrit comme une collection d'atomes occupant des sites cristallographiques réguliers. Le processus simulé est dès lors naturellement décomposé en séries d'évènements élémentaires activés thermiquement, correspondant à la migration des défauts ponctuels (lacunes ou interstitiels) vers des positions de proches voisins, qui sont en permanence en compétition en fonction de leurs fréquences d'occurrences respectives. Ces dernières sont calculées en fonction des énergies de migrations, qui sont elles-mêmes calculées avec peu d'approximations par une méthode qui prend en compte tous les effets de la relaxation statique et des interactions chimiques à longue portée. Le nouvel algorithme MCCA est par conséquent un modèle physique, entièrement basé sur un potentiel inter-atomique approprié qui est utilisé de la manière la plus complète possible, sans définir de paramètres empiriques qui devraient être, par exemple, fittés depuis des données expérimentales. Finalement, l'algorithme est accéléré de plusieurs ordres de grandeur en utilisant des réseaux de neurones artificiels (RNA), entraînés à prédire les énergies de migrations des défauts ponctuels en fonction de leur environnement atomique local.<p><p>Le nouvel algorithme MCCA est utilisé avec succès pour simuler des expériences de recuits (pour lesquels une seule lacune doit être introduite dans la boîte), afin de valider le modèle grâce à une comparaison directe de ses prédictions avec des résultats expérimentaux trouvés dans la littérature. Une comparaison très satisfaisante est accomplie pour deux alliages modèles importants pour la science des matériaux nucléaires. Dans les deux cas, l'évolution avec le temps de recuit du rayon moyen des précipités formés, ainsi que de leur densité, est en très bonne adéquation avec les mesures expérimentales trouvées dans la littérature, contrairement à ce que d'autres auteurs avaient jusqu’à présent réussi. Ensuite, l'algorithme est généralisé avec succès afin de permettre l'introduction d'un grand nombre de lacunes, ce qui est un des deux ingrédients nécessaires pour la simulation des effets de l'irradiation de neutrons dans les métaux. Cet accomplissement permet la simulation de processus longs et complexes, par exemple le calcul de coefficients de diffusions et temps de vies d'amats de cuivre-lacunes, qui sont des paramètres d'entrée nécessaires pour des modèles de simulation à gros-grains. Finalement, des preuves convaincantes sont apportées que l'algorithme MCCA peut être, dans un futur proche, généralisé d'avantage et permettre la prise en compte des interstitiels, ouvrant ainsi la voie vers la simulation de cycles complets d'irradiation.<p> / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
129 |
Mesure de la diffusion Compton à haute virtualité à Hera IIRoland, Benoît 22 September 2008 (has links)
La these de doctorat intitulee ``Mesure de la diffusion Compton a haute virtualite a HERA II'<p>a ete realisee au sein du service de physique des particules elementaires de l'ULB sous<p>la direction de mon promoteur Laurent Favart<p>et porte sur l'analyse des donnees enregistrees par l'experience H1 situee aupres du collisionneur<p>electron-proton HERA du laboratoire DESY a Hambourg. <p><p>L'analyse presentee concerne l'etude d'un processus diffractif exclusif particulier,<p>le processus de diffusion Compton a haute virtualite ou DVCS (Deeply Virtual Compton Scattering), e p -> e p gamma, qui correspond a <p>la diffusion gamma* p -> gamma p$ d'un photon<p>hautement virtuel par le proton, dans le domaine cinematique 6.5 < Q^2 < 80 GeV2,<p>30 < W < 140 GeV et / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
130 |
Intérêt des mesures de polarisation dynamique nucléaire induite chimiquement pour l'étude des photo-réactions de complexes polyazaaromatiques du Ru(II)Mugeniwabagara, Epiphanie 14 December 2012 (has links)
A l’Université Libre de Bruxelles, les complexes polyazaaromatiques du Ru(II) sont synthétisés et étudiés dans le cadre du développement d’outils de diagnostic de l’ADN, de drogues photo-activables, de nouveaux matériaux opto-électroniques … Certains de ces complexes possèdent une importante photoréactivité vis à vis de l’ADN ;elle résulte d’un transfert d’électron photo-induit entre une guanine, jouant le rôle de donneur, et le complexe dans un état excité 3MLCT. La photo-oxydation des acides aminés tryptophane et tyrosine a également été observée. La photo-oxydation de cibles biologiques peut conduire à la formation de photo-adduits covalents avec la guanine et avec le Trp. Ceci est à la base des travaux visant à développer des drogues photo-activables.\ / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
Page generated in 0.0877 seconds