251 |
Le K1 des courbes sur les corps globaux : conjecture de Bloch et noyaux sauvages / On K1 of Curves over Global Fields : Bloch’s Conjecture and Wild KernelsLaske, Michael 19 November 2009 (has links)
Pour X une courbe sur un corps global k, lisse, projective et géométriquement connexe, nous déterminons la Q-structure du groupe de Quillen K1(X) : nous démontrons que dimQ K1(X) ? Q =2r, où r désigne le nombre de places archimédiennes de k (y compris le cas r = 0 pour un corps de fonctions). Cela con?rme une conjecture de Bloch annoncée dans les années 1980. Dans le langage de la K-théorie de Milnor, que nous dé?nissons pour les variétés algébriques via les groupes de Somekawa, le premier K-groupe spécial de Milnor SKM1 (X) est de torsion. Pour la preuve, nous développons une théorie des hauteurs applicable aux K-groupes de Milnor, et nous généralisons l’approche de base de facteurs de Bass-Tate. Une structure plus ?ne de SKM 1 (X) émerge en localisant le corps de base k, et une description explicite de la décomposition correspondante est donnée. En particulier, nous identi?ons un sous-groupe WKl(X):= ker (SKM 1 (X) ? Zl ? Lv SKM 1 (Xv) ? Zl) pour chaque entier rationnel l, nommé noyau sauvage, dont nous croyons qu’il est ?ni. / For a smooth projective geometrically connected curve X over a global ?eld k, we determine the Q-structure of its ?rst Quillen K-group K1(X) by showing that dimQ K1(X) ? Q =2r, where r denotes the number of archimedean places of k (including the case r = 0 for k a function ?eld). This con?rms a conjecture of Bloch. In the language of Milnor K-theory, which we de?ne for varieties via Somekawa groups, the ?rst special Milnor K-group SKM 1 (X) is torsion. For the proof, we develop a theory of heights applicable to Milnor K-groups, and generalize the factor basis approach of Bass-Tate. A ?ner structure of SKM 1 (X) emerges when localizing the ground ?eld k, and we give an explicit description of the resulting decomposition. In particular, we identify a potentially ?nite subgroup WKl(X):= ker (SKM 1 (X) ? Zl ? Lv SKM 1 (Xv) ? Zl) for each rational prime l, named wild kernel.
|
252 |
Étude de classes de noyaux adaptées à la simplification et à l’interprétation des modèles d’approximation. Une approche fonctionnelle et probabiliste. / Covariance kernels for simplified and interpretable modeling. A functional and probabilistic approach.Durrande, Nicolas 09 November 2011 (has links)
Le thème général de cette thèse est celui de la construction de modèles permettantd’approximer une fonction f lorsque la valeur de f(x) est connue pour un certainnombre de points x. Les modèles considérés ici, souvent appelés modèles de krigeage,peuvent être abordés suivant deux points de vue : celui de l’approximation dans les espacesde Hilbert à noyaux reproduisants ou celui du conditionnement de processus gaussiens.Lorsque l’on souhaite modéliser une fonction dépendant d’une dizaine de variables, lenombre de points nécessaires pour la construction du modèle devient très important etles modèles obtenus sont difficilement interprétables. A partir de ce constat, nous avonscherché à construire des modèles simplifié en travaillant sur un objet clef des modèles dekrigeage : le noyau. Plus précisement, les approches suivantes sont étudiées : l’utilisation denoyaux additifs pour la construction de modèles additifs et la décomposition des noyauxusuels en sous-noyaux pour la construction de modèles parcimonieux. Pour finir, nousproposons une classe de noyaux qui est naturellement adaptée à la représentation ANOVAdes modèles associés et à l’analyse de sensibilité globale. / The framework of this thesis is the approximation of functions for which thevalue is known at limited number of points. More precisely, we consider here the so-calledkriging models from two points of view : the approximation in reproducing kernel Hilbertspaces and the Gaussian Process regression.When the function to approximate depends on many variables, the required numberof points can become very large and the interpretation of the obtained models remainsdifficult because the model is still a high-dimensional function. In light of those remarks,the main part of our work adresses the issue of simplified models by studying a key conceptof kriging models, the kernel. More precisely, the following aspects are adressed: additivekernels for additive models and kernel decomposition for sparse modeling. Finally, wepropose a class of kernels that is well suited for functional ANOVA representation andglobal sensitivity analysis.
|
253 |
Algorithmes de noyau pour des problèmes d'édition de graphes et autres structures / Kernelization algorithms for graph and other structures modification problemsPerez, Anthony 14 November 2011 (has links)
Dans le cadre de cette thèse, nous considérons la complexité paramétrée de problèmes NP-complets. Plus précisément, nous nous intéressons à l'existence d'algorithmes de noyau polynomiaux pour des problèmes d'édition de graphes et de contraintes. Nous introduisons en particulier la notion de branches, qui permet d'obtenir des algorithmes polynomiaux pour des problèmes d'édition de graphes lorsque la classe de graphes cible respecte une décomposition d'adjacence. Cette technique nous permet ainsi d'élaborer les premiers algorithmes de noyaux polynomiaux pour les problèmes Closest 3-Leaf Power, Cograph Edition et Proper Interval Completion. Ces résultats constituent les premiers noyaux polynomiaux pour ces problèmes. Concernant les problèmes d'édition de contraintes, nous étendons la notion de Conflict Packing, qui a déjà été utilisée dans quelques problèmes paramétrés et permet d'élaborer des algorithmes de noyau linéaires pour différents problèmes. Nous présentons un noyau linéaire pour le problème Feedback Arc Set in Tournaments, et adaptons les techniques utilisées pour obtenir un noyau linéaire pour le problème Dense Rooted Triplet Inconsistency. Dans les deux cas, nos résultats améliorent la meilleure borne connue, à savoir un noyau quadratique. Finalement, nous appliquons cette technique sur les problèmes Betweenness in Tournaments et Dense Circular Ordering, obtenant à nouveau des noyaux linéaires, qui constituent les premiers algorithmes de noyau polynomiaux connus pour ces problèmes. / In this thesis, we study the parameterized complexity of several NP-complete problems. More precisely, we study the existence of polynomial kernels for graph and constraints modification problems. In particular, we introduce the concept of branches, which provides polynomial kernels for some graph modification problems when the target graph class admits a so-called adjacency decomposition. This technique allows us to obtain the first known polynomial kernels for the Closest 3-Leaf Power, Cograph Edition and Proper Interval Completion problems. Regarding constraint modification problems, we develop and push further the concept of Conflict Packing, a technique that has already been used in a few parameterized problems and that provides polynomial kernels for several problems. We thus present a linear vertex-kernel for the Feedback Arc Set in Tournaments problem, and adapt these techniques to obtain a linear vertex-kernel for the Dense Rooted Triplet Inconsistency problem as well. In both cases, our results improve the best known bound of $O(k^2)$ vertices. Finally, we apply the Conflict Packing technique on the Betweenness in Tournaments and Dense Circular Ordering problems, obtaining once again linear vertex-kernels. To the best of our knowledge, these results constitute the first known polynomial kernels for these problems.
|
254 |
Invariance de Lorentz et Gravité Quantique : contraintes avec des sources extragalactiques variables observées par H.E.S.S. et Fermi-LAT / Lorentz Invariance Violation and Quantum Gravity : constraints from astrophysical observations of extragalactic transient eventsCouturier, Camille 21 October 2014 (has links)
Des modèles de Gravité Quantique (QG) prédisent une violation de l'invariance de Lorentz (LIV), se manifestant par une dispersion de la lumière dans le vide. Si un tel effet existe, des photons d'énergies différentes émis en même temps par une source distante sont détectés sur Terre à des moments différents. Les émissions transitoires à (très) hautes énergies provenant de sources astrophysiques lointaines, comme les sursauts gamma (GRBs) et les blazars sont utilisées pour contraindre cet effet LIV. Cet ouvrage présente les études menées avec deux télescopes gamma majeurs : H.E.S.S. -- pour lequel une étude de la qualité des données étalonnées a été réalisée -- et Fermi-LAT. Les énergies et les temps d'arrivée de photons individuels ont été utilisés pour contraindre le paramètre de dispersion dans le vide ainsi que l'échelle d'énergie E_QG à laquelle des effets LIV peuvent apparaitre. La méthode de maximum de vraisemblance est décrite, avec une étude détaillée des systématiques. Une modification dans le cas de fond non négligeable est appliquée aux données de l'éruption d'un blazar observé par H.E.S.S. : les limites obtenues sur E_QG sont moins contraignantes que les meilleures limites précédentes, mais elles se trouvent à un redshift non couvert à ce jour. Quatre GRBs observés par Fermi-LAT ont aussi été analysés, en déterminant la courbe de lumière de deux manières : ajustements gaussiens et estimation par densité de noyaux. Les meilleures limites sur E_QG pour le cas linéaire/subluminal sont obtenus avec GRB090510 : E_QG,1 > 7,6 E_Planck. Des limites plus robustes, tenant compte des effets intrinsèques à la source, ont également été produites. / Some Quantum Gravity (QG) theories allow for a violation of Lorentz invariance (LIV), manifesting as a dependence on the velocity of light in vacuum on its energy. If such a dependence exists, then photons of different energies emitted together by a distant source will arrive at the Earth at different times. (Very) high energy transient emissions from distant astrophysical sources such as Gamma-ray Bursts (GRBs) and blazars can be used to search for and constrain LIV. This work presents the studies obtained with two leading Gamma-ray telescopes: H.E.S.S. -- for which a study of the quality of the calibrated data was performed -- and Fermi-LAT. The energies and arrival times of individual photons were used to constrain the vacuum dispersion parameter and the energy scale EQG at which QG effects causing LIV may arise. The maximum likelihood method is described, with detailed studies of the systematics. A modification for a non-negligible background is provided and applied to the data of an AGN flare observed by H.E.S.S.: the obtained limits on the QG energy scale are less constraining than the previous best limits obtained with blazars; yet, the new limits lie a redshift range not covered this far. Four bright and quasi background-free GRBs observed by the Fermi-LAT were also analysed, with two different template light curve determinations -- Gaussian fits and Kernel Density Estimates. The best limits on the E_QG scale for the linear/subluminal case are from the shortest burst, GRB090510: E_QG,1 > 7.6 E_Planck. More robust limits, considering the intrinsic effects possibly occurring at the source, were also derived.
|
255 |
Stochastic approximation in Hilbert spaces / Approximation stochastique dans les espaces de HilbertDieuleveut, Aymeric 28 September 2017 (has links)
Le but de l’apprentissage supervisé est d’inférer des relations entre un phénomène que l’on souhaite prédire et des variables « explicatives ». À cette fin, on dispose d’observations de multiples réalisations du phénomène, à partir desquelles on propose une règle de prédiction. L’émergence récente de sources de données à très grande échelle, tant par le nombre d’observations effectuées (en analyse d’image, par exemple) que par le grand nombre de variables explicatives (en génétique), a fait émerger deux difficultés : d’une part, il devient difficile d’éviter l’écueil du sur-apprentissage lorsque le nombre de variables explicatives est très supérieur au nombre d’observations; d’autre part, l’aspect algorithmique devient déterminant, car la seule résolution d’un système linéaire dans les espaces en jeupeut devenir une difficulté majeure. Des algorithmes issus des méthodes d’approximation stochastique proposent uneréponse simultanée à ces deux difficultés : l’utilisation d’une méthode stochastique réduit drastiquement le coût algorithmique, sans dégrader la qualité de la règle de prédiction proposée, en évitant naturellement le sur-apprentissage. En particulier, le cœur de cette thèse portera sur les méthodes de gradient stochastique. Les très populaires méthodes paramétriques proposent comme prédictions des fonctions linéaires d’un ensemble choisi de variables explicatives. Cependant, ces méthodes aboutissent souvent à une approximation imprécise de la structure statistique sous-jacente. Dans le cadre non-paramétrique, qui est un des thèmes centraux de cette thèse, la restriction aux prédicteurs linéaires est levée. La classe de fonctions dans laquelle le prédicteur est construit dépend elle-même des observations. En pratique, les méthodes non-paramétriques sont cruciales pour diverses applications, en particulier pour l’analyse de données non vectorielles, qui peuvent être associées à un vecteur dans un espace fonctionnel via l’utilisation d’un noyau défini positif. Cela autorise l’utilisation d’algorithmes associés à des données vectorielles, mais exige une compréhension de ces algorithmes dans l’espace non-paramétrique associé : l’espace à noyau reproduisant. Par ailleurs, l’analyse de l’estimation non-paramétrique fournit également un éclairage révélateur sur le cadre paramétrique, lorsque le nombre de prédicteurs surpasse largement le nombre d’observations. La première contribution de cette thèse consiste en une analyse détaillée de l’approximation stochastique dans le cadre non-paramétrique, en particulier dans le cadre des espaces à noyaux reproduisants. Cette analyse permet d’obtenir des taux de convergence optimaux pour l’algorithme de descente de gradient stochastique moyennée. L’analyse proposée s’applique à de nombreux cadres, et une attention particulière est portée à l’utilisation d’hypothèses minimales, ainsi qu’à l’étude des cadres où le nombre d’observations est connu à l’avance, ou peut évoluer. La seconde contribution est de proposer un algorithme, basé sur un principe d’accélération, qui converge à une vitesse optimale, tant du point de vue de l’optimisation que du point de vue statistique. Cela permet, dans le cadre non-paramétrique, d’améliorer la convergence jusqu’au taux optimal, dans certains régimes pour lesquels le premier algorithme analysé restait sous-optimal. Enfin, la troisième contribution de la thèse consiste en l’extension du cadre étudié au delà de la perte des moindres carrés : l’algorithme de descente de gradient stochastiqueest analysé comme une chaine de Markov. Cette approche résulte en une interprétation intuitive, et souligne les différences entre le cadre quadratique et le cadre général. Une méthode simple permettant d’améliorer substantiellement la convergence est également proposée. / The goal of supervised machine learning is to infer relationships between a phenomenon one seeks to predict and “explanatory” variables. To that end, multiple occurrences of the phenomenon are observed, from which a prediction rule is constructed. The last two decades have witnessed the apparition of very large data-sets, both in terms of the number of observations (e.g., in image analysis) and in terms of the number of explanatory variables (e.g., in genetics). This has raised two challenges: first, avoiding the pitfall of over-fitting, especially when the number of explanatory variables is much higher than the number of observations; and second, dealing with the computational constraints, such as when the mere resolution of a linear system becomes a difficulty of its own. Algorithms that take their roots in stochastic approximation methods tackle both of these difficulties simultaneously: these stochastic methods dramatically reduce the computational cost, without degrading the quality of the proposed prediction rule, and they can naturally avoid over-fitting. As a consequence, the core of this thesis will be the study of stochastic gradient methods. The popular parametric methods give predictors which are linear functions of a set ofexplanatory variables. However, they often result in an imprecise approximation of the underlying statistical structure. In the non-parametric setting, which is paramount in this thesis, this restriction is lifted. The class of functions from which the predictor is proposed depends on the observations. In practice, these methods have multiple purposes, and are essential for learning with non-vectorial data, which can be mapped onto a vector in a functional space using a positive definite kernel. This allows to use algorithms designed for vectorial data, but requires the analysis to be made in the non-parametric associated space: the reproducing kernel Hilbert space. Moreover, the analysis of non-parametric regression also sheds some light on the parametric setting when the number of predictors is much larger than the number of observations. The first contribution of this thesis is to provide a detailed analysis of stochastic approximation in the non-parametric setting, precisely in reproducing kernel Hilbert spaces. This analysis proves optimal convergence rates for the averaged stochastic gradient descent algorithm. As we take special care in using minimal assumptions, it applies to numerous situations, and covers both the settings in which the number of observations is known a priori, and situations in which the learning algorithm works in an on-line fashion. The second contribution is an algorithm based on acceleration, which converges at optimal speed, both from the optimization point of view and from the statistical one. In the non-parametric setting, this can improve the convergence rate up to optimality, even inparticular regimes for which the first algorithm remains sub-optimal. Finally, the third contribution of the thesis consists in an extension of the framework beyond the least-square loss. The stochastic gradient descent algorithm is analyzed as a Markov chain. This point of view leads to an intuitive and insightful interpretation, that outlines the differences between the quadratic setting and the more general setting. A simple method resulting in provable improvements in the convergence is then proposed.
|
256 |
Modèles de cycles normaux pour l'analyse des déformations / Normal cycle models for deformation analysisRoussillon, Pierre 24 November 2017 (has links)
Dans cette thèse, nous développons un modèle du second ordre pour la représentation des formes (courbes et surfaces) grâce à la théorie des cycles normaux. Le cycle normal d'une forme est le courant associé à son fibré normal. En introduisant des métriques à noyaux sur les cycles normaux, nous obtenons une mesure de dissimilarité entre formes qui prend en compte leurs courbures. Cette mesure est ensuite utilisée comme terme d'attache aux données dans une optique d'appariement et d'analyse de formes par les déformations. Le chapitre 1 est une revue du domaine de l'analyse de formes par les déformations. Nous insistons plus particulièrement sur la mise en place théorique et numérique du modèle de Large Deformation Diffeomorphic Metric Mapping (LDDMM). Le chapitre 2 se concentre sur la représentation des formes par les cycles normaux dans un cadre unifié qui englobe à la fois les formes continues et discrètes. Nous précisons dans quelle mesure cette représentation contient des informations de courbure. Enfin nous montrons le lien entre le cycle normal d'une forme et son varifold. Dans le chapitre 3, nous introduisons les métriques à noyaux. Ainsi, nous pouvons considérer les cycles normaux dans un espace de Hilbert avec un produit scalaire explicite. Nous détaillons ce produit scalaire dans le cas des courbes et surfaces discrètes avec certains noyaux, ainsi que le gradient associé. Nous montrons enfin que malgré le choix de noyaux simples, nous ne perdons pas toutes les informations de courbures. Le chapitre 4 utilise cette nouvelle métrique comme terme d'attache aux données dans le cadre LDDMM. Nous présentons de nombreux appariements et estimations de formes moyennes avec des courbes ou des surfaces. L'objectif de ce chapitre est d'illustrer les différentes propriétés des cycles normaux pour l'analyse des déformations sur des exemples synthétiques et réels. / In this thesis, we develop a second order model for the representation of shapes (curves or surfaces) using the theory of normal cycles. The normal cycle of a shape is the current associated with its normal bundle. Introducing kernel metrics on normal cycles, we obtain a dissimilarity measure between shapes which takes into account curvature. This measure is used as a data attachment term for a purpose of registration and shape analysis by deformations. Chapter 1 is a review of the field of shape analysis. We focus on the setting of the theoretical and numerical model of the Large Deformation Diffeomorphic Metric Mapping(LDDMM).Chapter 2 focuses on the representation of shapes with normal cycles in a unified framework that encompasses both the continuous and the discrete shapes. We specify to what extend this representation encodes curvature information. Finally, we show the link between the normal cycle of a shape and its varifold. In chapter 3, we introduce the kernel metrics, so that we can consider normal cycles in a Hilbert space with an explicit scalar product. We detail this scalar product for discrete curves and surfaces with some kernels, as well as the associated gradient. We show that even with simple kernels, we do not get rid of all the curvature informations. The chapter 4 introduces this new metric as a data attachment term in the framework of LDDMM. We present numerous registrations and mean shape estimation for curves and surfaces. The aim of this chapter is to illustrate the different properties of normal cycles for the deformations analysis on synthetic and real examples.
|
257 |
Caractérisation de la transparence de l'univers aux rayons gamma de très haute énergie avec H.E.S.S. et aspects associés en physique fondamentale et cosmologie / Characterisation of the transparency of the universe to very-high-energy gamma rays with H.E.S.S. and related aspects in fundamental physics and cosmologyLorentz, Matthias 21 September 2017 (has links)
La propagation des rayons Ɣ de très haute énergie (E > 100GeV) dans l'univers est affectée par les propriétés du milieu extragalactique. Ces photons à l'échelle du TeV, issus des processus d'accélération de particules dans les noyaux actifs de galaxies, peuvent en effet interagir avec des photons du fond optique et infrarouge qui baignent l'univers et produire des paires d'électrons et de positrons. Ce processus réduit la transparence de l'univers aux rayons Ɣ de très haute énergie mais permet en revanche de sonder les propriétés du milieu extragalactique de façon unique. Dans cette thèse, les données prises par le réseau de télescopes à imagerie Tcherenkov atmosphérique H.E.S.S. sont analysées et utilisées afin de caractériser la transparence de l'univers aux rayons Ɣ de très haute énergie. Une mesure indépendante de la distribution spectrale en énergie du fond cosmologique optique et infrarouge est réalisée à travers l'ajustement des modulations observées dans les spectres en énergie obtenus avec H.E.S.S. pour un échantillon de noyaux actifs de galaxies brillants dans une gamme en redshift 0.03 < z < 0.28. Les résultats obtenus sont compatibles avec les limites inférieures dérivées par comptages de galaxies et ne suggèrent pas d'anomalie de la transparence de l'univers aux rayons Ɣ vis à vis des modèles actuels du fond de lumière extragalactique. Des processus de second ordre affectant la propagation des rayons Ɣ de très haute énergie sont également explorés. Des limites sur une brisure de la symétrie de Lorentz à l'échelle de Planck sont obtenues à partir de l'analyse spectrale du noyau actif Mrk 501 observé dans un état de flux exceptionnel par H.E.S.S. en 2014, à grand angle zénithal. Enfin, des contraintes sur le champ magnétique extragalactique sont dérivées en considérant l'émission Ɣ secondaire attendue à partir de simulations des cascades électromagnétiques initiées lors du processus d'absorption pour le noyau actif distant PG 1553+113 vu par H.E.S.S. et le télescope spatial Fermi. Cette thèse a également été l'occasion d'une participation aux développements de certains aspects de la calibration et de l'analyse des données de H.E.S.S. / The propagation of very high energy Ɣ rays in the universe depends on the properties of the extragalactic medium. Such TeV-scale photons travelling cosmological distances are -emitted through particle acceleration mechanisms in active galaxy nuclei- can interact with the low-energy photons of the extragalactic background light (EBL) and produce electron-positron pairs. This effect reduces the transparency of the universe to very high energy Ɣ rays but it also provides a unique opportunity to probe the properties of the extragalactic medium. In this thesis, data taken with the H.E.S.S. array of Cherenkov telescopes are analyzed and used to characterize the transparency of the universe to very high energy Ɣ rays. A independent measurement of the spectral energy distribution of the EBL with H.E.S.S. is presented. It is obtained by extracting the EBL absorption signal from the fit of spectral modulations in the high-quality spectra of a sample of bright blazars in the redshift range 0.03 < z < 0.28. The intensity of the EBL obtained in different spectral bands is presented together with the associated Ɣ-ray horizon. The obtained results are consistent with lower limits derived from galaxy counts and do not suggest an anomaly of the transparency of the universe to Ɣ rays with respect to current models of the extragalactic background light. Second-order processes affecting the propagation of very high energy Ɣ rays in the universe are also considered. Limits on Lorentz invariance violation at Planck scale are obtained from the spectral analysis of the active galaxy nucleus Mrk 501 observed during a high-flux state by H.E.S.S. in 2014, at large zenith angle. Finally, constraints on the extragalactic magnetic field properties are derived by considering the secondary Ɣ-ray emission expected from the simulation of electromagnetic cascades initiated by the absorption process for the distant active galaxy nucleus PG 1553+113 seen by H.E.S.S. and the Fermi Ɣ-ray space telescope. In this thesis some developments related to the calibration and analysis of H.E.S.S. data are also presented.
|
258 |
Collisions profondément inélastiques entre ions lourds auprès du Tandem d’Orsay & Spectroscopie gamma des noyaux exotiques riches en neutrons de la couche fp avec le multi-détecteur germanium ORGAM / Deep-inelastic heavy-ion collisions at the tandem accelerator in Orsay & Gamma spectroscopy of fp-shell neutron-rich nuclei with the ORGAM germanium arrayFerraton, Mathieu 20 July 2011 (has links)
Les travaux effectués au cours de cette thèse au sein du groupe de structure nucléaire de l’IPN d’Orsay s’articulent autour de la production, en vue d’une étude par spectroscopie gamma, de noyaux exotiques riches en neutron de la couche fp. Dans ce cadre, nous avons mis en place, auprès de l’accélérateur Tandem d’Orsay, un multi-détecteur au germanium baptisé ORGAM, destiné à la spectroscopie gamma à haute résolution. Au cours de l’année 2008-2009, les détecteurs amenés à composer ORGAM ont été testés individuellement, ainsi que le dispositif annexe de réjection Compton, en coopération avec la division instrumentation du laboratoire. Parallèlement, le système d’alimentation automatique en azote liquide, destiné au maintien des détecteurs à basse température, a été amélioré et fiabilisé. L’ensemble du dispositif a été mis en place sur une ligne de faisceau de l’accélérateur tandem avec le concours du personnel technique de l’accélérateur.La première expérience utilisant le dispositif ORGAM a été réalisée en juillet 2009. Cette expérience, dont les données ont été analysées dans le cadre de ce travail, visait à étudier les collisions profondément inélastiques entre un faisceau de 36S accéléré à 154 MeV, et une cible de 70Zn. Un dispositif permettant la détection des particules chargées émises à grand angle a été utilisé afin d’identifier les fragments de ces collisions. Il n’a pas été possible, du fait du fond important induit par la diffusion élastique du faisceau dans la cible, d’identifier directement ces fragments. L’étude des coïncidences gamma-gamma avec le détecteur ORGAM a cependant permis de mettre en évidence de nombreuses cascades de photons désexcitant des noyaux potentiellement produits par les réactions d’intérêt.Les données recueillies au cours d’une autre expérience, réalisée auprès du tandem d’Orsay en 2005, ont été analysées dans le cadre de ce travail. Cette expérience, visant à produire par fusion évaporation entre un faisceau de 14C à 25 MeV et une cible de 48Ca, les noyaux de 59Mn et de 57Cr, a permis d’établir une partie du spectre en énergie d’excitation de ces noyaux, jusqu'à une énergie d’excitation supérieure à 3 MeV.Une étude théorique des noyaux de chrome impairs de la couche fp a été tentée à l’aide d’un modèle phénoménologique de couplage intermédiaire. Ce modèle a permis une description satisfaisante du 53Cr. Les prédictions du modèle, qui ne prend pas en compte l’interaction entre nucléons de valence, se sont avérées beaucoup moins satisfaisante pour les noyaux de 55Cr et 57Cr. / This PhD thesis was prepared within the nuclear structure group of IPN Orsay. The work presented aimed to produce neutron rich fp shell nuclei through heavy ion collisions at the tandem accelerator of IPN, and to study them using gamma spectroscopy. For this purpose, a germanium gamma array called ORGAM, and dedicated to high resolution gamma spectroscopy, was set up at the tandem accelerator. During the year 2008/2009, the individual germanium detectors were tested and repaired, as well as their ancillary anti-Compton shielding. At the same time, the liquid nitrogen auto-fill system was improved for better reliability. The array was finally set up on a beam line of the accelerator.The first experiment using the ORGAM array was performed in July 2009. This experiment aimed to study fully damped deep-inelastic collisions between a 36S beam accelerated to 154 MeV, and a 70Zn target. An additional charged particle detection system was used to detect interesting fragments emitted at backward angles. It was not possible to separate these fragments from the background induced by backscattered ions from the beam. Nevertheless, the study of gamma-gamma coincidences detected with the ORGAM array allowed to identify gamma cascades de-exciting nuclei potentially produced through the mechanism of interest. Data accumulated during another experiment performed at the tandem accelerator in 2005 were analyzed. Fusion-evaporation reaction between a 25 MeV, 14C beam focused on a 48Ca target produced the 57Cr and 59Mn nuclei, whose energy spectra were established up to 3 MeV.We attempted to study theoretically odd Chromium isotopes with a simple model based on the intermediate coupling scheme. This model, which doesn’t take into account correlation between valence nucleons, described in satisfactory way the semi-magic + 1 neutron, 53Cr, but failed to do so for mid-shell nuclei 55Cr and 57Cr.
|
259 |
Détermination de facteurs spectroscopiques absolus par réactions de knockout et de transfert / Extraction of absolute spectroscopic factors from knockout and transfer reactionsFlavigny, Freddy 21 September 2011 (has links)
Les facteurs spectroscopiques nous renseignent sur l'occupation des couches nucléaires et peuvent être extraits par des réactions directes comme le transfert à basse énergie et le knockout aux énergies intermédiaires. L’étude récente de noyaux radioactifs de la couche sd ayant une large différence d'énergie de séparation, DeltaS=Sp-Sn~20 MeV, montre que les sections efficaces d’arrachage d’un nucléon très lié sont considérablement réduites par rapport aux prédictions théoriques. Cette tendance n’est pas observée pour des noyaux moins exotiques, jusqu’à DeltaS~12 MeV, par réaction de transfert (d,p).Pour comprendre l'origine de cette réduction, nous avons réalisé deux expériences complémentaires sur un noyau présentant une large différence d’énergie de séparation l’14O : (i) le knockout d'un nucléon au NSCL, 14O (53 MeV/n) et 16C (75 MeV/n), sur une cible de 9Be; (ii) le transfert d'un nucléon avec le faisceau d’14O à 18 MeV/n de SPIRAL, 14O(d,t)13O et 14O(d,3He)13N, étudié avec le dispositif MUST2. L'analyse des données présentée en détails dans ce manuscrit conduit à des facteurs spectroscopiques incompatibles entre ces deux expériences lorsqu'un neutron fortement lié est enlevé ou transféré de l'14O. Dans le cas du knockout, la section efficace mesurée est fortement réduite par rapport aux prédictions basées sur un modèle eikonal et le modèle en couches. La distribution en moment parallèle de l’13O mesurée après l’arrachage d’un neutron présente par ailleurs une forme qui n’est pas reproduite par le modèle eikonal. Dans le cas du transfert, une telle réduction n'est pas observée et le rapport entre expérience et théorie est compatible avec ce qui est obtenu pour les noyaux stables. Ces résultats suscitent de nouveaux développements théoriques pour la modélisation du mécanisme de réaction dans ces cas extrêmes où le nucléon enlevé est fortement lié. / The distribution of spectroscopic strength in nuclei can be extracted from direct-reaction cross section measurements, as one-nucleon knockout at intermediate energy or transfer at low energy. The study of deeply-bound nucleon removal from several sd-shell nuclei having a large difference of proton-neutron separation energies, DeltaS=Sp-Sn~20 MeV, exhibits experimental cross sections about four times smaller than theoretical predictions from state-of-the-art calculations. This trend is not observed from (d,p) transfer reactions with nuclei having smaller separation energy asymmetry, DeltaS~12 MeV.To investigate the origin of this reduction, we have performed two complementary experiments for the 14O case having a large energy asymmetry: (i) one-nucleon knockout from 14O (53 MeV/n) and 16C (75 MeV/n) on a 9Be target at the NSCL; (ii) one-nucleon transfer reaction using SPIRAL beam, 14O(d,t)13O and 14O(d,3He)13N at 18 MeV/n, and the MUST2 array. The analysis of the data presented in this document leads to a discrepancy between the spectroscopic factors extracted from these two experiment when a deeply-bound neutron is removed from 14O. In the neutron knockout from 14O, the cross section is strongly reduced compared to predictions based on an eikonal model and shell model spectroscopic factors. Moreover, several deviations from the eikonal prediction are observed on the shape of the parallel momentum distribution of the ejectile 13O. For the transfer 14O(d,t)13O, such a reduction is not observed and results are in agreement with stable nuclei values. These results call for new theoretical developments concerning the description of the reaction mechanism when a deeply-bound nucleon is removed from a nucleus.
|
260 |
Single-particle states in neutron-rich 69Cu and 71Cu by means of the (d,3He) transfer reaction / Etats de particule individuelle dans les noyaux riches en neutrons de 69Cu et 71Cu au moyen de la réaction de transfert (d,3He)Morfouace, Pierre 26 September 2014 (has links)
A l'aide de deux réactions de transfert (d,3He), la première avec MUST2 au GANIL et la deuxième avec le split-pole à Orsay, nous avons déterminé la position des états trous de protons dans les noyaux riches en neutrons : le 71Cu (N=42) et le 69Cu (N=40).A partir de la désintégration beta et de la spectroscopie laser, on sait que l'état excité f5/2 chute brutalement en énergie pour N>40 et devient même l'état fondamental dans le 75Cu. Cette chute en énergie a été expliqué par des travaux théoriques notamment à cause de la force tenseur entre les protons et les neutrons. La prédiction sur le partenaire spin-orbite f7/2 est qu'il devrait sentir également un effet à cause de cette force. Expérimentalement, les états trous de proton f7/2 ne sont pas connus pour N>40. Dans le 71Cu, deux états 7/2- sont connus autour de 1 MeV d'énergie d'excitation et sont des possibles candidats pour correspondre à cet état trou de proton. L'expérience au GANIL a eu lieu en mars 2011. Un faisceau secondaire de 72Zn à 38 AMeV a été produit par fragmentation et purifié à travers le spectromètre LISE. La réaction de transfert en cinématique inverse a été étudié à l'aide des télescopes MUST2 plus quatre détecteurs de silicium de 20 micromètres dans le but d'identifier les 3He de basse énergie. Le spectre en énergie d'excitation du 71Cu a été reconstruit grâce à la méthode de la masse manquante, les distributions angulaires ont été extraite et comparé avec un modèle de réaction utilisant les codes DWUCK4 et DWUCK5. A partir de ce travail au GANIL, aucun état n'a été peuplé autour de 1 MeV concluant que le centroid de la force réside à plus haute énergie d'excitation.Nous avalons également mesuré une nouvelle fois la les états trous de proton dans le 69Cu avec la même réaction de transfert mais cette fois en cinématique directe à Orsay dans le but d'étendre les données actuelles sur ce noyau où 60% de la force f7/2 est manquante et dans le but également d'avoir une analyse consistante des facteurs spectroscopiques entre les deux noyaux. Cette analyse consistante nous permet de pouvoir comparer l'évolution du centroid de la force entre les deux isotopes quand l'orbite neutron g9/2 commence à se remplir. Dans cette seconde expérience, nous avons utilisé un faisceau de deuton à 27 MeV produit par le tandem et une cible de 70Zn. Nous avons pu extraire trois nouvelles distributions angulaires et mesurer une nouvelle partie de la force f7/2.Enfin, pour pouvoir interpréter nos résultat, des calculs modèle en couche ont été effectué par le groupe de Strasbourg avec le code Antoine. L'espace de valence utilisé consiste en un coeur 48Ca avec les orbitales protons f7/2, p3/2, f5/2, p1/2 et les orbitales neutron p3/2, f5/2, p1/2, g9/2, d5/2. Les calculs inclus jusqu'à 8p-8h et montrent que la force se situe en effet à haute énergie d'excitation et qu'aucun état de trou de proton n'est calculé autour de 1 MeV. / In two (d,3He) transfer reactions with MUST2 at GANIL and the split-pole at Orsay, we have determined the position of the proton-hole states in the neutron-rich 71Cu (N=42) and 69Cu (N=40) isotopes. We have found that in 71Cu the hole strength of the f7/2 orbital lies at higher excitation energies than expected. From beta-decay and laser spectroscopy, the f5/2 first excited particle state in these isotopes was known to come down rapidly in energy when passing N=40 and even become the ground state in 75Cu. This sudden energy shift has been explained in a number of theoretical works. The prediction for the f7/2 spin-orbit partner was that it would change in energy too through a related effect. Experimentally, the f7/2 proton-hole state is not known for N>40. In 71Cu two 7/2- states around 1 MeV are candidates to be a proton-hole.The experiment at GANIL took place in March 2011. A secondary beam of 72Zn at 38 AMeV was produced by fragmentation and purified through the LISE spectrometer. The transfer reaction in inverse kinematics was studied with the MUST2 detectors plus four 20 micrometer silicon detector to identified the 3He of low kinetic energy. The excitation spectrum of 71Cu was reconstruct thanks to the missing mass method and the angular distributions were extracted and compared with a reaction model using the DWUCK4 and DWUCK5 code. From this work no states have been populated around 1 MeV concluding that the centroid of the f7/2 lies at higher excitation energy. We then remeasured the single-particle strength in 69Cu in the corresponding (d,3He) reaction at Orsay in March 2013 in order to extend the existing data where 60% of the f7/2 strength is missing and make sure that there is a consistent analysis of spectroscopic factors between both isotopes in order to well understood and well quantify the evolution of the f7/2 orbital when we start filling the g9/2 orbital. In this second experiment we have performed the reaction in direct kinematics using a deuteron beam at 27 MeV provided by the tandem and a target of 70Zn. In this work we were able to extract three new angular distributions and we have measured a new part of the f7/2 strength.Finally in order to interpret the results we have obtained from those two experiments, state-of-the-art shell-model calculations have been carried out in collaboration with the Strasbourg group using the Antoine code. The valence space consists in a core of 48Ca with the valence orbitals for protons f7/2, p3/2, f5/2, p1/2 and the orbitals p3/2, f5/2, p1/2, g9/2, d5/2 for neutrons. The calculations have been done allowing 8p-8h and show that the strength is indeed at high energy and no f7/2 proton-hole state lies around 1 MeV in 71Cu.
|
Page generated in 0.0489 seconds