551 |
Mesures de rendements isobariques et isotopiques des produits de fission lourds sur le spectromètre de masse LOHENGRINBail, Adeline 27 May 2009 (has links) (PDF)
Les rendements de fission sont des données très importantes pour les applications nucléaires. Elles représentent par exemple une partie des données d'entrée des différents codes de simulation. De même les modèles théoriques qui tentent de reproduire ces distributions ont besoin de valeurs expérimentales auxquelles ils peuvent se comparer. Par le passé le spectromètre de masse Lohengrin a permis, grâce à sa très bonne résolution en masse et en énergie, de déterminer avec une grande précision les rendements des produits de fission légers pour de nombreux systèmes fissionants. Cependant la méthode expérimentale utilisée dans cette région de la fission, détection par chambre à ionisation, ne permet pas la séparation des isotopes dans la région des produits de fission lourds. Pour cette raison un nouveau dispositif expérimental par spectrométrie a été mis en place au cours de cette thèse. Il a été validé par comparaison des précédentes mesures dans la région des produits de fission légers et permet de déterminer les rendements isotopiques que ce soit pour les produits de fission légers comme pour les produits de fission lourds. Ainsi au cours de ces travaux, afin de compléter et d'améliorer les bibliothèques de donn ées, les rendements en masse des produits de fission lourds pour les réactions 235U(nth,f), 239Pu(nth,f) et 241Pu(nth,f) ont été mesurés pour la première fois sur le spectromètre Lohengrin. Ils ont permis d'améliorer considérablement les incertitudes associées. De la même manière les rendements isotopiques des produits de fission lourds pour le 239Pu(nth,f) ont été déterminés par spectrométrie . De plus les distributions en charge ionique et en énergie cinétique des produits de fission ont été particulièrement étudiées. Elles ont entre autres mis en évidence la présence d'isomères nanosecondes pour certains noyaux.
|
552 |
Contribution à l'étude des partages, probabilités et statistiques sur le simplexe unitéMaurin, Michel 25 October 1983 (has links) (PDF)
.
|
553 |
Etude du passage micro-macro pour le transport par diffusion en milieu poreux. Application aux expériences de RMN-GCPRodts, Stéphane 25 October 2001 (has links) (PDF)
Ce travail a un double but : <br />1) Observer et identifier les mécanismes physiques via lesquels, dans les matériaux poreux homogènes, les lois microscopiques du transport par diffusion induisent généralement des lois de transport effectives macroscopiques très simples, quelque soit la complexité du réseaux poreux sous jacent.<br />2) Contribuer à développer le cadre d'interprétation des expériences RMN de Gradient de Champ Pulsé (GCP) pour la mesure de l'autodiffusion dans les fluides confinés dans les systèmes poreux.<br />Nous étudions le cas académique de la diffusion Fickienne sans adsorption. Nous observons le transport à échelle de longueur fixée, en suivant la cinétique avec laquelle "s'affaisse" par diffusion l'amplitude G(q,t) de "profils de concentration sinusoïdaux" de vecteur d'onde q variable. Vis à vis de la RMN cette approche revient à étudier le propagateur de diffusion G(q,t) - grandeur mesurée par l'expérience - de manière non traditionnelle, c'est à dire, à q fixé en fonction du temps t. A q donné, 3 régimes de temps sont mis en évidence : un régime de temps court de diffusion non confinée, un régime de temps intermédiaire renseignant sur la diffusion à l'échelle de longueur 2pi/q, et un régime de temps long sensible à la "dimensionnalité" de l'espace poral.<br />Nous caractérisons la cinétique d'affaissement aux temps intermédiaires par un coefficient e diffusion D(q). Son étude théorique et expérimentale en fonction de q dans des systèmes périodiques et/ou désordonnés simples fait apparaître clairement trois phénomènes lors du passage micro-macro : une première interaction avec l'interface, une différentiation brutale du rôle des différents pores, puis une diffusion anormale due à cette différentialité, susceptible de perdurer aux échelles macroscopiques, et suivie par un retour au régime "Fickien".<br />Une expérience macroscopique de traceur est enfin proposée et développée pour observer ces phénomènes de diffusion anormale dans quelques systèmes modèles.
|
554 |
Etude des atomes d'hélium et de béryllium en champ laser intense et brefLaulan, Stéphane 17 September 2004 (has links) (PDF)
Nous présentons une étude théorique de l'interaction entre un atome à deux électrons actifs et un champ laser de fort éclairement (10e14 à 10e15 W/cm²) et de durée d'impulsion ultra-brève (quelques 10e-15 à quelques 10e-18 s). Nous décrivons dans un premier temps les techniques expérimentales actuelles capables de produire un rayonnement cohérent de haute puissance dans le domaine spectral UV-XUV, et de durée d'impulsion de l'ordre de la femtoseconde ou subfemtoseconde. Un modèle semi-classique d'une impulsion laser avec de telles caractéristiques est alors défini. Puis, nous développons une méthode numérique basée sur l'utilisation des fonctions B-splines pour décrire la structure électronique d'un atome à deux électrons actifs. Un traitement non perturbatif de type spectral est alors proposé pour représenter la propagation dans le temps de la fonction d'onde du système irradié, où le point important est de définir le plus précisément possible la région du double continuum atomique. Nous exposons finalement des résultats sur la double ionisation des atomes d'hélium et de béryllium en présence d'un champ laser intense et bref, issus de notre approche numérique. Ils concernent en particulier des calculs de sections efficaces totales d'ionisation, et de distributions énergétiques entre les électrons éjectés dans le double continuum après absorption d'un photon et de deux photons.
|
555 |
Analyses factorielles des distributions marginales de processusBoumaza, Rachid 04 January 1999 (has links) (PDF)
On définit la mesure d'affinité de deux densités de probabilité de p-vecteurs aléatoires par le produit scalaire de ces deux densités dans l'espace des fonctions de carré intégrable. On la calcule pour différents types de densités. On présente les propriétés asymptotiques de cette mesure d'affinité dans le cas de densités gaussiennes ; on montre en particulier la normalité asymptotique de cette mesure lorsque les paramètres de ces densités sont estimés par le maximum de vraisemblance. On utilise cette mesure d'affinité pour définir l'analyse en composantes principales de T densités de probabilité (ou des fonctions caractéristiques associées) avec l'objectif d'apprécier l'évolution de ces densités en les visualisant dans des espaces de dimension réduite. On en montre les liens avec la méthode Statis Dual (sur matrices de variance) et on en propose une estimation convergente. On montre les représentations obtenues sur des données de cardiologie et sur des données de processus gaussiens en en faisant varier les paramètres. Aux densités précédentes indicées par t (t=1,...,T) on ajoute une variable qualitative Y définie sur l'ensemble des indices. Cette variable engendrant une partition des densités en Q catégories, on définit l'analyse discriminante de ces densités et on propose quatre règles d'affectation d'une nouvelle densité gaussienne à l'une des Q catégories. Deux règles sont de type probabiliste (vraisemblance maximale) et s'appuient sur le caractère asymptotiquement gaussien de la mesure d'affinité ; deux règles sont de type géométrique (distance minimale) et s'appuient sur la distance induite par la mesure d'affinité. On applique cette méthode à des données archéologiques (mesures de pierres de châteaux d'Alsace), l'objectif étant de dater ces châteaux.
|
556 |
Marchés financiers avec une infinité d'actifs, couverture quadratique et délits d'initiésCampi, Luciano 18 December 2003 (has links) (PDF)
Cette thèse consiste en une série d'applications du calcul stochastique aux mathématiques financières. Elle est composée de quatre chapitres. Dans le premier on étudie le rapport entre la complétude du marché et l'extrémalité des mesures martingales equivalentes dans le cas d'une infinité d'actifs. Dans le deuxième on trouve des conditions équivalentes à l'existence et unicité d'une mesure martingale equivalente sous la quelle le processus des prix suit des lois n-dimensionnelles données à n fixe. Dans le troisième on étend à un marché admettant une infinité dénombrable d'actifs une charactérisation de la stratégie de couverture optimale (pour le critère moyenne-variance) basé sur une technique de changement de numéraire et extension artificielle. Enfin, dans le quatrième on s'occupe du problème de couverture d'un actif contingent dans un marché avec information asymetrique.
|
557 |
Contributions à l'analyse des lois d'échelles et de la qualité de service dans les réseaux : aspects expérimentaux et théoriquesLoiseau, Patrick 11 December 2009 (has links) (PDF)
Dans le contexte actuel d'expansion rapide de l'Internet, la compréhension profonde des propriétés statistiques du trafic réseau est essentielle pour que les fournisseurs d'accès puisse offrir la meilleure "Qualité de Service" possible aux utilisateurs. Une avancée majeure dans cette direction a été la découverte en 1993 de l'auto-similarité du trafic, suivie en 1997 par le modèle ON/OFF qui interprète cette propriété par les tailles de fichiers à queue lourde. Bien qu'ils soient d'un grand intérêt, de tels modèles mathématiques s'appuient nécessairement sur des hypothèses simplificatrices qui peuvent en limiter l'applicabilité en situation réelle, en particulier du fait de la complexité du protocole TCP. Dans cette thèse, nous utilisons une approche hybride, basée sur la combinaison de traces de trafic réelles, d'expériences contrôlées et de modèles théoriques, pour aborder certaines questions ouvertes sur le trafic réseau et la Qualité de Service. Nos expériences utilisent une plate-forme contrôlable à grande échelle et un système performant de capture du trafic. Nous abordons dans un premier temps des questions liées au trafic agrégé : nous étendons les modèles existants de longue mémoire et nous proposons un estimateur du paramètre de queue lourde sous échantillonnage. Nous étudions ensuite empiriquement l'impact de la longue mémoire et des queues lourdes sur la Qualité de Service. Nous nous tournons enfin vers le trafic d'une seule source TCP et montrons, à l'aide d'un principe de grandes déviations, qu'il peut être finement caractérisé par une structure multifractale reliée au mécanisme de contrôle AIMD, et naturellement reproduite par des modèles markoviens.
|
558 |
Impact of residential wood combustion on urban air qualityKrecl, Patricia January 2008 (has links)
<p>Wood combustion is mainly used in cold regions as a primary or supplemental space heating source in residential areas. In several industrialized countries, there is a renewed interest in residential wood combustion (RWC) as an alternative to fossil fuel and nuclear power consumption. The main objective of this thesis was to investigate the impact of RWC on the air quality in urban areas. To this end, a field campaign was conducted in Northern Sweden during wintertime to characterize atmospheric aerosol particles and polycyclic aromatic hydrocarbons (PAH) and to determine their source apportionment.</p><p>A large day-to-day and hour-to-hour variability in aerosol concentrations was observed during the intensive field campaign. On average, total carbon contributed a substantial fraction of PM10 mass concentrations (46%) and aerosol particles were mostly in the fine fraction (PM1 accounted for 76% of PM10). Evening aerosol concentrations were significantly higher on weekends than on weekdays which could be associated to the use of wood burning for recreational purposes or higher space heat demand when inhabitants spend longer time at home. It has been shown that continuous aerosol particle number size distribution measurements successfully provided source apportionment of atmospheric aerosol with high temporal resolution. The first compound-specific radiocarbon analysis (CSRA) of atmospheric PAH demonstrated its potential to provide quantitative information on the RWC contribution to individual PAH. RWC accounted for a large fraction of particle number concentrations in the size range 25-606 nm (44-57%), PM10 (36-82%), PM1 (31-83%), light-absorbing carbon (40-76%) and individual PAH (71-87%) mass concentrations.</p><p>These studies have demonstrated that the impact of RWC on air quality in an urban location can be very important and largely exceed the contribution of vehicle emissions during winter, particularly under very stable atmospheric conditions.</p>
|
559 |
Etude de la structure du nucléon par des calculs de QCD sur réseau avec des fermions de masse twistéeHarraud, Pierre-Antoine 03 November 2010 (has links) (PDF)
La compréhension de la structure interne du nucléon à partir de la ChromoDynamique Quantique est un enjeu majeur de la physique hadronique. Seule la QCD sur réseau permet d'évaluer numériquement les observables à partir des principes ab-initio. Le sujet de cette thèse est l'étude des facteurs de forme du nucléon et le premier moment des fonctions de distributions de partons en utilisant une action discrétisée avec des fermions de masse twistée. Cette dernière a l'avantage de supprimer les effets de discrétisation au premier ordre en la maille du réseau. D'autre part, l'ensemble des simulations permet un contrôle accru des erreurs systématiques. Après avoir détaillé les techniques de calcul utilisées, je présenterai les résultats obtenus pour un large éventail de paramètres, mailles de réseau variant entre 0.056 fm et 0.089 fm, volumes compris entre 2.1 et 2.7 fm et masses de pions dans le domaine 260-470 MeV. La constante de renormalisation vectorielle a ainsi été obtenue dans le secteur du nucléon avec une grande précision. Pour le rayon de charge électrique, les effets de volume fini mis en évidence fournissent une clef pour expliquer sa dépendance chirale vers le point physique. Les résultats pour le moment magnétique et axial, les fractions d'impulsion et d'hélicité portées par les quarks, ne présentent pas d'effets de discrétisation ni de volume fini significatifs. Aux masses de pions considérées, leurs valeurs montrent une déviation par rapport aux valeurs expérimentales, leur comportement chiral n'exhibant pas la courbure prédite par les perturbations chirales qui permettrait de résoudre ce désaccord apparent.
|
560 |
Quark Distributions and Charged Higgs Boson Production : Studies of Proton Structure and New PhysicsAlwall, Johan January 2005 (has links)
<p>The Standard Model describes all elementary particles known today, but at larger energies it will have to be complemented with new particles and interactions. To be able to distinguish new physics at proton colliders such as LHC at CERN, it is essential to have an appropriate description of the colliding protons and their interactions. The study of the proton is important also in itself, to get a better understanding of the non-perturbative aspects of the strong interaction.</p><p>In paper I-IV of this thesis, a model for the non-perturbative dynamics of quarks and gluons is developed, based on quantum fluctuations in hadrons. The parton distributions of the proton are given by momentum fluctuations, with sea quark distributions generated by fluctuations into baryon-meson pairs. This model can reproduce proton structure function data, as well as measured asymmetries between up and down valence quark distributions and between the anti-up and anti-down sea. It provides an intrinsic charm quark component as indicated by data. It also predicts an asymmetry in the strange sea of the proton, which can explain the NuTeV anomaly first attributed to new physics beyond the Standard Model.</p><p>Charged Higgs bosons are predicted by several theories for new physics, including Supersymmetry. At proton colliders, the predicted dominant production mechanism is in association with top and bottom quarks. In paper V-VII, different contributions to this production are studied, and an algorithm is developed for combining the two dominant processes gb -> tH<sup>+/-</sup> and gg -> tbH<sup>+/-</sup>. The algorithm gives a smooth transition from small to large transverse momenta of the b-quark, which is important when the b-quark is observed. It also gives arguments for the choice of factorisation scale in the process.</p>
|
Page generated in 0.1553 seconds