201 |
Quelques propriétés symplectiques des variétés Kählériennes / Some symplectic properties of Kähler manifoldsVérine, Alexandre 28 September 2018 (has links)
La géométrie symplectique et la géométrie complexe sont intimement liées, en particulier par les techniques asymptotiquement holomorphes de Donaldson et Auroux d'une part et par les travaux d’Eliashberget et Cieliebak sur la pseudoconvexité d'autre part. Les travaux présentés dans cette thèse sont motivés par ces deux liens. On donne d’abord la caractérisation symplectique suivante des constantes de Seshadri. Dans une variété complexe, la constante de Seshadri d’une classe de Kähler entière en un point est la borne supérieure des capacités de boules standard admettant, pour une certaine forme de Kähler dans cette classe, un plongement holomorphe et iso-Kähler de codimension 0 centré en ce point. Ce critère était connu de Eckl en 2014 ; on en donne une preuve différente. La deuxième partie est motivée par la question suivante de Donaldson : <<Toute sphère lagrangienne d'une variété projective complexe est-elle un cycle évanescent d'une déformation complexe vers une variété à singularité conique ?>> D'une part, on présente toute sous-variété lagrangienne close d’une variété symplectique/kählérienne close dont les périodes relatives sont entières comme lieu des minima d’une exhaustion <<convexe>> définie sur le complémentaire d'une section hyperplane symplectique/complexe. Dans le cadre kählérien, <<convexe>> signifie strictement plurisousharmonique tandis que dans le cadre symplectique, cela signifie de Lyapounov pour un champ de Liouville. D'autre part, on montre que toute sphère lagrangienne d'un domaine de Stein qui est le lieu des minima d’une fonction <<convexe>> est un cycle évanescent d'une déformation complexe sur le disque vers un domaine à singularité conique. / Symplectic geometry and complex geometry are closely related, in particular by Donaldson and Auroux’s asymptotically holomorphic techniques and by Eliashberg and Cieliebak’s work on pseudoconvexity. The work presented in this thesis is motivated by these two connections. We first give the following symplectic characterisation of Seshadri constants. In a complex manifold, the Seshadri constant of an integral Kähler class at a point is the upper bound on the capacities of standard balls admitting, for some Kähler form in this class, a codimension 0 holomorphic and iso-Kähler embedding centered at this point. This criterion was known by Eckl in 2014; we give a different proof of it. The second part is motivated by Donaldon’s following question: ‘Is every Lagrangian sphere of a complex projective manifold a vanishing cycle of a complex deformation to a variety with a conical singularity?’ On the one hand, we present every closed Lagrangian submanifold of a closed symplectic/Kähler manifold whose relative periods are integers as the lowest level set of a ‘convex’ exhaustion defined on the complement of a symplectic/complex hyperplane section. In the Kähler setting ‘complex’ means strictly plurisubharmonic while in the symplectic setting it refers to the existence of a Liouville pseudogradient. On the other hand, we prove that any Lagrangian sphere of a Stein domain which is the lowest level-set of a ‘convex’ function is a vanishing cycle of some complex deformation over the disc to a variety with a conical singularity.
|
202 |
Modélisation et analyse des étapes de simulation des émetteurs de positons générés lors des traitements en protonthérapie - du faisceau à la caméra TEP - pour le suivi des irradiations / Modeling and analysis of all the positron emitters simulation steps generated during the treatment phase in protontherapy - from the beam to the PET camera - for the follow-up of the irradiationsVan Ngoc Ty, Claire 19 December 2012 (has links)
La protonthérapie est une technique innovante de traitement des cancers dans les zones critiques, telles que les yeux ou la base du crâne. Même si le phénomène physique d’interactions des protons dans les tissus est bien connu et présente des avantages pour la protonthérapie, il existe des incertitudes sur le parcours des protons liées aux hétérogénéités des tissus traversés en situation clinique et liées au calcul des paramètres du faisceau dans le planning de traitement qui contrebalancent les avantages théoriques des protons pour la délivrance de la dose. Des méthodes de contrôle de qualité de l’irradiation ont donc été proposées. La plupart reposent sur l’exploitation de la cartographie des émetteurs de positons générés lors de l’irradiation. Ceux-ci peuvent être détectés et quantifiés à l’aide de la tomographie par émission de positons (TEP), une technique d’imagerie médicale utilisée principalement pour établir le bilan d’extension des cancers par imagerie. Des acquisitions TEP ont donc été proposées et validées sur des fantômes et chez des patients après protonthérapie pour le contrôle du parcours des protons. Le contrôle s’effectue en comparant la distribution radioactive mesurée en TEP et la distribution β+ simulée. La simulation de l’activité positronique générée par les protons dans le milieu traversé peut être décomposée en plusieurs étapes : une étape de simulation du faisceau de protons, une étape de modélisation des interactions des protons dans l’objet irradié et une étape d’acquisition TEP. Différentes modélisations de ces étapes sont possibles. Au cours de cette thèse, nous avons proposé plusieurs modélisations pour les 3 étapes et nous avons évalué l’apport pour la qualité du contrôle de l’irradiation. Nous avons restreint notre évaluation à la vérification du parcours des protons. Ce travail de thèse s’appuie sur des irradiations en milieu homogène et inhomogène (dans un modèle de tête) réalisé au centre de protonthérapie d’Orsay. Les objets irradiés ont été transportés dans le Service Hospitalier Frédéric Joliot pour l’acquisition TEP. Nous avons comparé l’incertitude sur le parcours des protons à partir des modélisations de la distribution β+ obtenues : 1) En modélisant l’irradiation par un faisceau de protons sous une forme simplifiée et par simulation Monte Carlo. En modélisant la production des émetteurs β+ dans les tissus par simulation Monte Carlo avec le logiciel GEANT4 en incluant les modèles de physiques des versions 9.2 et 9.4 et en utilisant des sections efficaces ; 2) En modélisant l’acquisition TEP avec une modélisation simplifiée et une modélisation Monte Carlo de l’acquisition par la caméra TEP ; 3) Les résultats montrent qu’une modélisation simplifiée du faisceau n’affecte pas l’estimation du parcours des protons. La modélisation Monte-Carlo de la caméra permet de mieux modéliser le bruit présent dans le signal TEP mesuré en milieu homogène. Des résultats préliminaires de la modélisation de la caméra TEP sont présentés dans un modèle de tête (inhomogène). En conclusion, une modélisation simplifiée de la caméra TEP permet d’évaluer le parcours des protons en milieu homogène à 1 mm près, qui est équivalent à la reproductibilité de la mesure TEP post-irradiation telle qu’elle est mesurée par Knopf et al. (2008). / The protontherapy is an innovative technique for cancer treatment in critical areas, such as the eye or the head. Even though the interaction of protons with human tissues is a well-known physical phenomenon which gives rise to the protontherapy, there are uncertainties on the proton trajectory due to heterogeneities in the irradiated tissue, the calculation of the beam parameters in the planning treatment affects the theoretical benefits of the protons and the chosen dose delivery process. Thus, methods for irradiation quality control have been suggested. Most of them rely on utilizing the mapping of the positron emitters generated during the irradiation. They are detectable and quantifiable thanks to the use of the PET (positron emitter tomography), a medical imaging technique mainly used for the cancer expansion assessment. PET acquisitions were proposed and then realized on phantoms and patients after protontherapy. The quality control relies on comparing the measured radioactive distribution to the simulated β+ distribution. The modeling of the positronic activity generated by protons in the irradiated area can be divided into three steps: the simulation of the proton beam, the modeling of the proton interactions in the irradiated object and the modeling of the PET acquisition. Different ways of simulating these steps are possible. This PhD work suggests different ways of modeling the three steps and evaluates theirs benefits for the irradiation quality control. We have restrained our evaluation to the verification of the proton range and to the uncertainties related to the proton range. This research work utilizes on irradiations in homogenous and inhomogeneous areas in a head model. We have compared the uncertainties on the proton range measured thanks to the following β+ distributions: 1) A β+ distribution obtained by modeling the irradiation with a proton beam simulated analytically and simulated using the complete Monte Carlo method; 2) A Monte Carlo modeling of the proton range using the GEANT4 software (versions 9.2 and 9.4) relying and using cross-sections; 3) A simulation of the PET acquisition using a simplified modeling and a Monte Carlo modeling. Our results show that a simplified modeling of the beam does not affect the estimation of the proton range. Besides, the Monte Carlo modeling of the PET camera enables modeling the noise present in the PET signal measured in a homogeneous area. Preliminary results of the PET camera modeling are presented in a head model (inhomogeneous). Finally, a simplified modeling of the PET camera enables evaluate the proton range in a homogeneous area with a 1mm-precision, which is equivalent to the reproducibility of the PET offline measure as described in (Knopf et al., 2008).
|
203 |
Modélisation du transport des électrons de basse énergie avec des modèles physiques alternatifs dans Geant4-DNA et application à la radioimmunothérapie / Low-energy electron transport with alternative physics models within Geant4-DNA code and radioimmunotherapy applicationsBordes, Julien 11 December 2017 (has links)
Ce travail de thèse nous a mené à apporter de nouveaux développements au code Monte-Carlo de simulation détaillée Geant4-DNA pour étudier les interactions des électrons de basse énergie dans l'eau liquide, principal constituant des organismes biologiques. La précision des résultats obtenus avec les codes Monte-Carlo repose sur le réalisme de leurs modèles physiques : les sections efficaces. CPA100 est un autre code Monte-Carlo de structure de trace. Il dispose de sections efficaces d'ionisation, d'excitation électronique et de diffusion élastique dont les méthodes de calculs sont indépendantes de celles utilisées pour les sections efficaces de Geant4-DNA (modèles physique " option 2 " et son amélioration " option 4 "). De plus, les sections efficaces de CPA100 sont en meilleur accord avec certaines données expérimentales. Nous avons implémenté les sections efficaces de CPA100 dans Geant4-DNA pour offrir aux utilisateurs l'opportunité d'utiliser des modèles physiques alternatifs désignés Geant4-DNA-CPA100. Ils sont disponibles en libre accès dans la plateforme Geant4 depuis juillet 2017. La vérification de l'implémentation correcte de ces modèles physiques dans Geant4-DNA a consisté à comparer la simulation de plusieurs grandeurs de base obtenues avec Geant4-DNA-CPA100 et CPA100 et des résultats très similaires ont été obtenus. Par exemple, un excellent accord entre les longueurs de trajectoire et les nombres d'interactions a été mis en évidence. Puis, nous avons évalué l'impact des sections efficaces en utilisant les modèles physiques originaux de Geant4-DNA (" option 2 " et " option 4 "), Geant4-DNA-CPA100 et le code PENELOPE, pour obtenir des grandeurs d'intérêt pour des calculs dosimétriques : les " dose-point kernels " (DPK, pour des électrons monoénergétiques) et les facteurs S (pour des électrons monoénergétiques et des émetteurs d'électrons Auger). Les calculs de DPK de Geant4-DNA avec les modèles physiques " option 2 " et " option 4 " sont similaires et une différence systématique a été mise en évidence avec Geant4-DNA-CPA100. Les DPK calculés par ce dernier ont montré un bon accord avec le code PENELOPE. Les facteurs S obtenus avec Geant4-DNA " option 2 " sont globalement proches de Geant4-DNA-CPA100. Enfin, nous avons cartographié les dépôts d'énergie dans un contexte de radioimmunothérapie. De telles simulations sont habituellement réalisées en considérant des tumeurs sphériques et des biodistributions uniformes d'anticorps monoclonaux. Nous avons extrait des données plus réalistes d'un modèle 3D innovant de lymphome folliculaire, incubé avec des anticorps. Les dépôts d'énergie ont été calculés pour différents émetteurs d'électrons Auger (111In et 125I) et de particules ß- (90Y, 131I et 177Lu). Ces calculs ont montré que les émetteurs de particules ß- délivrent plus d'énergie et irradient une plus grande fraction du volume que les émetteurs d'électrons Auger. L'émetteur de particule ß- le plus efficace dépend de la taille du modèle qui est utilisé. / During this PhD thesis, new developments have been brought to Geant4-DNA step-by-step Monte Carlo code. They were used to study low-energy electron interactions in liquid water - the major component of living organisms. The accuracy of results obtained through Monte Carlo code is limited by the validity of their cross sections. CPA100 is another step-by-step Monte Carlo code. It is equipped with ionization, electronic excitation and elastic scattering cross sections. However, these cross sections are calculated according to methods independent of those used for Geant4-DNA cross section calculations, which consisted of two original physics models: "option 2" and its improvement, "option 4". Moreover, in some cases CPA100 cross sections are in better agreement with experimental data. Therefore, the first objective of this research was to implement CPA100 cross sections into Geant4-DNA in order to give users the choice of alternative physics models, known as Geant4-DNA-CPA100. They have been available to users since July 2017. The verification of the correct implementation of these physics models within Geant4-DNA involved a comparison of different basic quantities between Geant4-DNA-CPA100 and CPA100 and extremely similar results were obtained. For instance, a very good agreement was highlighted between the calculations of the track length and the number of interactions. Consequently, the impact of cross sections was assessed using the original Geant4-DNA physics models ("option 2" and "option 4"), the alternative Geant4-DNA-CPA100 physics models and PENELOPE code for calculations of useful quantities in nuclear medicine, such as dose-point kernels (DPKs for monoenergetic electrons) and S values (for monoenergetic electrons and Auger electron emitters). With regards to DPK calculations, Geant4-DNA with "option 2" and "option 4" physics models were in close agreement, showing a systematic difference with Geant4-DNA-CPA100, which in turn were close to those calculated with PENELOPE code. For S value calculations, however, Geant4-DNA results were in good agreement with Geant4-DNA-CPA100. Finally, in the context of radioimmunotherapy, energy depositions were mapped. Such simulations are usually performed assuming spherical tumor geometries and uniform monoclonal antibody distributions. Realistic data was extracted from an innovative 3D follicular lymphoma model incubated with antibodies. Energy depositions were calculated for Auger electron (111In and 125I) and ß- particle (90Y, 131I and 177Lu) emitters. It was demonstrated that ß- particle emitters delivered more energy and irradiated greater volume than Auger electron emitters. The most effective ß- particle emitter depends on the size of the model that is used.
|
204 |
CÃnicas : apreciando uma obra-prima da matemÃtica / Conic : appreciating a masterpiece of mathematicsLuiz EfigÃnio da Silva Filho 15 May 2015 (has links)
Neste trabalho abordaremos alguns assuntos relacionados Ãs SeÃÃes CÃnicas: elipse, parÃbola e hipÃrbole. O trabalho està dividido em cinco capÃtulos: IntroduÃÃo; Origem das CÃnicas; EquaÃÃes das CÃnicas; Propriedades de ReflexÃo das CÃnicas; Construindo CÃnicas. No segundo capÃtulo, falaremos sobre o problema da duplicaÃÃo do cubo que, segundo a HistÃria da MatemÃtica, deu origem as cÃnicas e citaremos alguns matemÃticos cujos trabalhos contribuÃram para o desenvolvimento do estudo dessas curvas. No terceiro capÃtulo, estudaremos as equaÃÃes cartesianas das cÃnicas, bem como as suas representaÃÃes grÃficas e os principais elementos da cada cÃnica. No quarto capÃtulo, apresentaremos as propriedades de reflexÃo das cÃnicas e algumas aplicaÃÃes muito interessantes dessas propriedades. No Ãltimo capÃtulo, demonstraremos alguns mÃtodos para construir cÃnicas e em seguida faremos essas construÃÃes na prÃtica atravÃs de materiais concretos e por meio de um programa de Geometria DinÃmica, chamado Geogebra. / In this paper we discuss some issues related to Conic Sections: ellipse, parabola and hyperbole. The work is divided into five chapters: Introduction; Origin of Conic Sections; Equations of Conic Sections; Reflection Properties of Conic Sections; Building Conic Sections. In the second chapter, weâll talk about doubling the cube problem that, according to the History of Mathematics, originated the conic sections and talk about some mathematicians whose work contributed to the study of these curves. In the third chapter, we will study the Cartesian equations of conic sections, as well as their graphical representations and the main elements of each curve. In the fourth chapter, we presented the reflection properties of conic sections and some very interesting applications of these properties. In the last chapter, we will show some methods to construct conic sections and then we will make these constructs in practice through concrete materials and through a dynamic geometry program, called Geogebra.
|
205 |
Branch Plate-to-circular Hollow Structural Section ConnectionsVoth, Andrew Peter 17 February 2011 (has links)
Although branch plate connections with circular hollow section (CHS) members are simple to fabricate and cost-effective, they are generally very flexible under low load application resulting in the limit states design resistance being governed by an imposed deformation limit. Restricting the ultimate capacity of a branch plate connection by a deformation limit results in the inherent strength of the CHS member being
under-utilized, highlighting the need to develop connection stiffening methods. Two methods to stiffen branch plate-to-CHS connections are examined: a through plate connection and a grout-filled CHS branch
plate connection. Further, the current design guidelines of various plate-to-CHS connection types are reexamined including the effect of chord axial stress and chord length on connection behaviour. Finally, the
behaviour of connections with non-orthogonal or skew plate orientation, which has not previously been examined, was studied in depth.The behaviour of these uniplanar connection types under quasi-static axial loading was studied through 16 large-scale laboratory experiments and 682 numerical finite element analyses, as well as an extensive review of all previous international experimental and numerical findings. The extensive study formed the
basis for a complete set of proposed design guidelines and provided insight into plate-to-CHS connection behaviour. For all plate-to-CHS connection types, the plate thickness is shown to effect connection capacity, though previously this was thought not to have significant impact on connection behaviour. The existing ideology of using the same design recommendations for tension- and compression-loaded connections, which was developed from compression results, under-utilizes an inherent increase in capacity provided by a connection primarily loaded in tension. As such, the recommended design guidelines split the two load senses into separate expressions that reflect the difference in behaviour. Stiffened through plate connection behaviour was determined to be the summation of branch plate behaviour in compression and tension, leading to a significant increase in capacity and identical behaviour regardless of branch load sense. The skewed branch plate connection behaviour was found to relate directly to the established behaviour of longitudinal and transverse plate connections. A design function was developed that interpolates the capacities of intermediate angles by using the proposed design recommendations of the two extreme connection types. Finally, the examination of chord axial stress and chord length for plate-to-CHS connections yielded results similar to previous international studies on CHS-to-CHS connections. The effect of chord length, however, has wide-reaching implications as to how experimental and numerical FE research programs are developed.
|
206 |
Branch Plate-to-circular Hollow Structural Section ConnectionsVoth, Andrew Peter 17 February 2011 (has links)
Although branch plate connections with circular hollow section (CHS) members are simple to fabricate and cost-effective, they are generally very flexible under low load application resulting in the limit states design resistance being governed by an imposed deformation limit. Restricting the ultimate capacity of a branch plate connection by a deformation limit results in the inherent strength of the CHS member being
under-utilized, highlighting the need to develop connection stiffening methods. Two methods to stiffen branch plate-to-CHS connections are examined: a through plate connection and a grout-filled CHS branch
plate connection. Further, the current design guidelines of various plate-to-CHS connection types are reexamined including the effect of chord axial stress and chord length on connection behaviour. Finally, the
behaviour of connections with non-orthogonal or skew plate orientation, which has not previously been examined, was studied in depth.The behaviour of these uniplanar connection types under quasi-static axial loading was studied through 16 large-scale laboratory experiments and 682 numerical finite element analyses, as well as an extensive review of all previous international experimental and numerical findings. The extensive study formed the
basis for a complete set of proposed design guidelines and provided insight into plate-to-CHS connection behaviour. For all plate-to-CHS connection types, the plate thickness is shown to effect connection capacity, though previously this was thought not to have significant impact on connection behaviour. The existing ideology of using the same design recommendations for tension- and compression-loaded connections, which was developed from compression results, under-utilizes an inherent increase in capacity provided by a connection primarily loaded in tension. As such, the recommended design guidelines split the two load senses into separate expressions that reflect the difference in behaviour. Stiffened through plate connection behaviour was determined to be the summation of branch plate behaviour in compression and tension, leading to a significant increase in capacity and identical behaviour regardless of branch load sense. The skewed branch plate connection behaviour was found to relate directly to the established behaviour of longitudinal and transverse plate connections. A design function was developed that interpolates the capacities of intermediate angles by using the proposed design recommendations of the two extreme connection types. Finally, the examination of chord axial stress and chord length for plate-to-CHS connections yielded results similar to previous international studies on CHS-to-CHS connections. The effect of chord length, however, has wide-reaching implications as to how experimental and numerical FE research programs are developed.
|
207 |
Three-body Forces in Photoreactions on 3HeSilvia Niccolai January 2003 (has links)
Thesis; Thesis information not provided; 1 Feb 2003. / Published through the Information Bridge: DOE Scientific and Technical Information. "JLAB-PHY-03-39" "DOE/ER/40150-2763" Silvia Niccolai. 02/01/2003. Report is also available in paper and microfiche from NTIS.
|
208 |
Study of the N to Delta Transition via p({rvec e}, e'{rvec p}){pi}{sup 0} ReactionZhengwei Chai January 2003 (has links)
Thesis (Ph.D.); Submitted to the Massachusetts Inst. of Tech., Cambridge, MA (US); 1 Oct 2003. / Published through the Information Bridge: DOE Scientific and Technical Information. "JLAB-PHY-03-174" "DOE/ER/40150-2571" Zhengwei Chai. 10/01/2003. Report is also available in paper and microfiche from NTIS.
|
209 |
Développement d'une nouvelle modélisation de la loi de choc dans les codes de transport neutronique multigroupes / A new modelling of the multigroup scattering cross section in deterministic codes for neutron transport.Calloo, Ansar 10 October 2012 (has links)
Dans le cadre de la conception des réacteurs, les schémas de calculs utilisant des codes de cal- culs neutroniques déterministes sont validés par rapport à un calcul stochastique de référence. Les biais résiduels sont dus aux approximations et modélisations (modèle d'autoprotection, développement en polynômes de Legendre des lois de choc) qui sont mises en oeuvre pour représenter les phénomènes physiques (absorption résonnante, anisotropie de diffusion respec- tivement). Ce document se penche sur la question de la pertinence de la modélisation de la loi de choc sur une base polynômiale tronquée. Les polynômes de Legendre sont utilisés pour représenter la section de transfert multigroupe dans les codes déterministes or ces polynômes modélisent mal la forme très piquée de ces sections, surtout dans le cadre des maillages énergétiques fins et pour les noyaux légers. Par ailleurs, cette représentation introduit aussi des valeurs négatives qui n'ont pas de sens physique. Dans ce travail, après une brève description des lois de chocs, les limites des méthodes actuelles sont démontrées. Une modélisation de la loi de choc par une fonction constante par morceaux qui pallie à ces insuffisances, a été retenue. Cette dernière nécessite une autre mod- élisation de la source de transfert, donc une modification de la méthode actuelle des ordonnées discrètes pour résoudre l'équation du transport. La méthode de volumes finis en angle a donc été développée et implantée dans l'environ- nement du solveur Sn Snatch, la plateforme Paris. Il a été vérifié que ses performances étaient similaires à la méthode collocative habituelle pour des sections représentées par des polynômes de Legendre. Par rapport à cette dernière, elle offre l'avantage de traiter les deux représenta- tions des sections de transferts multigroupes : polynômes de Legendre et fonctions constantes par morceaux. Dans le cadre des calculs des réacteurs, cette méthode mixte a été validée sur différents motifs : des cellules en réseau infini, des motifs hétérogènes et un calcul de réflecteur. Les principaux résultats sont : - un développement polynômial à l'ordre P 3 est suffisant par rapport aux biais résiduels dus aux autres modélisations (autoprotection, méthode de résolution spatiale). Cette modéli- sation est convergée au sens de l'anisotropie du choc sur les cas représentatifs des réacteurs à eau légère. - la correction de transport P 0c n'est pas adaptée, notamment sur les calculs d'absorbant B4 C. / In reactor physics, calculation schemes with deterministic codes are validated with respect to a reference Monte Carlo code. The remaining biases are attributed to the approximations and models induced by the multigroup theory (self-shielding models and expansion of the scattering law using Legendre polynomials) to represent physical phenomena (resonant absorption and scattering anisotropy respectively). This work focuses on the relevance of a polynomial expansion to model the scattering law. Since the outset of reactor physics, the latter has been expanded on a truncated Legendre polynomial basis. However, the transfer cross sections are highly anisotropic, with non-zero values for a very small range of the cosine of the scattering angle. Besides, the finer the energy mesh and the lighter the scattering nucleus, the more exacerbated is the peaked shape of this cross section. As such, the Legendre expansion is less suited to represent the scattering law. Furthermore, this model induces negative values which are non-physical. In this work, various scattering laws are briefly described and the limitations of the existing model are pointed out. Hence, piecewise-constant functions have been used to represent the multigroup scattering cross section. This representation requires a different model for the dif- fusion source. The discrete ordinates method which is widely employed to solve the transport equation has been adapted. Thus, the finite volume method for angular discretisation has been developed and imple- mented in Paris environment which hosts the Sn solver, Snatch. The angular finite volume method has been compared to the collocation method with Legendre moments to ensure its proper performance. Moreover, unlike the latter, this method is adapted for both the Legendre moments and the piecewise-constant functions representations of the scattering cross section. This hybrid-source method has been validated for different cases: fuel cell in infinite lattice, heterogeneous clusters and 1D core-reflector calculations. The main results are given below : - a P 3 expansion is sufficient to model the scattering law with respect to the biases due to the other approximations used for calculations (self-shielding, spatial resolution method). This order of expansion is converged for anisotropy representation in the modelling of light water reactors. - the transport correction, P 0c is not suited for calculations, especially for B4 C absorbant.
|
210 |
Low-Velocity K-Shell Ionization Cross Sections for Protons, Deuterons and Alpha Particles Bombarding Thin Metal TargetsRice, Roger Karl 05 1900 (has links)
The purpose of this work was to examine the effect of the use the assumption κω2K/ΕCM «1 in calculating K-shell ionization cross sections in the plane wave Born approximation (PWBA) where κω2K is the observed binding energy of the K-shell and ECM is the energy of the incident particle in the center of mass system. Avoiding this assumption produces a threshold for ionization at Ecm = κω2K. Calculations employing the assumption, which leads to the use of approximate limits of integration, do not go to zero for even the .Lowest values of the incident energy.
|
Page generated in 0.0252 seconds