• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 389
  • 119
  • 23
  • 10
  • 8
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 580
  • 134
  • 93
  • 92
  • 89
  • 88
  • 87
  • 82
  • 80
  • 78
  • 76
  • 64
  • 59
  • 59
  • 58
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
331

Simulations cosmologiques et astroparticules : formation de galaxies spirales : détection directe et indirecte de la matière noire / Cosmological simulations and astroparticles : formation of spiral galaxies : direct and indirect detection of dark matter.

Mollitor, Pol 10 December 2014 (has links)
Deux problématiques sont abordées dans cette thèse: la formation de galaxies spirales et la détection de la matière noire (MN).Nous étudions trois simulations cosmologiques hydrodynamiques de haute résolution zoomées sur des halos de propriétés similaires à celui de la Voie Lactée que nous réalisons avec le code à grille adaptative RAMSES. Nous analysons les distributions d'étoiles et de gaz et constatons qu'une de nos galaxies simulées possèdent des propriétés intéressantes par rapport à la Voie Lactée. Nous obtenons un disque stellaire étendu et une courbe de rotation plate avec la vitesse de rotation et la densité locale de MN en accord avec les observations. En ce qui concerne la distribution de MN, nous analysons l'interaction avec les baryons et nous montrons explicitement comment le profil de densité de MN est aplatie par les processus de feedback.Dans le cadre de cette simulation, nous étudions les incertitudes astrophysiques sur la détection directe en analysant les quantités importantes comme la densité locale de MN, sa distribution de vitesse et la vitesse d'échappement locale. De plus, nous considérons plusieurs sélections de distribution de MN et d'étoiles et estimons ainsi la variabilité du taux de détection.Dans le cadre cohérent de la simulation, nous calculons les signaux d'annihilation et de désintégration de MN en rayons gamma ainsi que le fond diffus, que nous modélisons en utilisant les explosions de supernovae comme sources de rayons cosmiques qui produisent les rayons gamma par spallation sur la distribution de gaz. Les configurations de la matière noire et des baryons induisent une situation défavorable à la détection indirecte de la MN. / The thesis tackles two topics: the formation of spiral galaxies and the detection of dark matter (DM).We study three high resolution cosmological hydrodynamical simulations of Milky Way-sized halos including a comparison with the corresponding DM-only runs performed with the code RAMSES. We analyze the stellar and gas distribution and find one of our simulated galaxies with interesting Milky Way like features with regard to several observational tests. We obtain an extended disk and a flat rotation curve with a circular velocity and a DM density in the solar neighborhood that are in agreement with observations. Following observational procedures, we rederive the stellar-to-halo mass ratio and obtain competitive values for this criterion. Concerning the DM distribution, we explicitly show the interaction with the baryons and show how the DM is first contracted by star formation and then cored by feedback processes.In the framework of the simulation, we analyze the astrophysical uncertainties relevant for direct detection by studying the involved quantities like the local DM density, the DM velocity distribution and the local escape velocity . Furthermore, we consider various selections of DM and star distributions and estimate the variability of the detection rate.Within the self-consistent framework of the simulation, we calculate the DM annihilation and decay gamma ray (GR) signals as well as the diffuse GR background, that we model using the supernovae explosions as cosmic ray sources which produce GRs by spallation on the gas distribution. The cored DM profile and the high central baryonic densities induce a challenging configuration for indirect DM detection.
332

Recherche de matière noire, observation du centre galactique avec H.E.S.S.et modernisation des caméras de H.E.S.S. I / Search for dark matter, Galactic Center observation with H.E.S.S. and upgrade of the H.E.S.S. I camera

Lefranc, Valentin 29 June 2016 (has links)
Le réseau de 5 télescopes Tcherenkov au sol H.E.S.S. (High Energy Stereoscopic System) permet de détecter des rayons gamma à très hautes énergies (E>50GeV) pour sonder les phénomènes non thermiques les plus violents de l'univers. Ces rayons gamma peuvent provenir de l'annihilation de particules de matière noire. L'astronomie gamma permet donc de rechercher les signatures de l'annihilation de particules de matière noire dans les régions denses de l'univers. Cette thèse est composée de trois parties. Après un bref rappel sur l'instrument H.E.S.S., sont présentés en premier lieu les tests de performance effectués pour l'étalonnage de la nouvelle électronique utilisée pour la modernisation des caméras des quatre télescopes CT1 à 4. L'analyse des premières données de la caméra CT1 modernisée montre la réduction du temps mort de lecture du réseau qui permettra de bénéficier pleinement de la stéréoscopie entre les 5 télescopes du réseau. La deuxième partie de la thèse traite des 10 ans d'observations de la région du Centre Galactique avec H.E.S.S. ainsi que les récentes observations obtenues avec l'ajout en 2012 du télescope de 28 mètres de diamètre (CT5) au centre du réseau. L'analyse des données de CT5 en direction de la source centrale HESS J1745-290 permet d'avoir accès aux événements aux plus basses énergies accessibles avec H.E.S.S. (100 GeV). Le spectre de la source centrale est en très bon accord avec celui de HESS J1745-290 mesuré avec CT1-4 et les données en dessous de 150 GeV permettent de raccorder ce dernier à celui de la source Fermi 3FGHL J1745.6-2859c.Dans la troisième partie, les 10 ans de données dans la région du Centre Galactique avec la première phase de H.E.S.S sont analysés pour rechercher un signal d'annihilation de matière noire à l'aide d'une méthode de vraisemblance utilisant les caractéristiques spectrale et spatiale du signal de matière noire par rapport à celles du bruit de fond. En l'absence de signal matière noire, les contraintes sont calculées sur la section efficace d'annihilation et, pour la première fois, un réseau de télescope Tcherenkov au sol est capable de sonder la section efficace d'annihilation thermique dans le cas d'un profil de matière noire piqué. La sensibilité sur la section efficace d'annihilation de l'instrument H.E.S.S. utilisant CT5 est ensuite présentée vers le Centre Galactique et la galaxie naine récemment découverte Reticulum II. La dernière partie de cette thèse étudie le potentiel du futur réseau de télescopes Tcherenkov CTA, (Cherenkov Telescope Array) pour la détection d'un signal d'annihilation de matière noire. Vers la région du Centre Galactique le signal de matière noire attendu est significativement augmenté par la contribution de rayons gamma produits par effet Compton inverse d'électrons et positrons énergétiques sur les champs de radiation ambiants. La sensibilité obtenue permet à CTA de sonder la section efficace d'annihilation thermique dans tous les canaux d'annihilation dans le cas d’un profil de matière noire piqué. L’impact sur la sensibilité de CTA des erreurs systématiques et de l’émission diffuse mesurée par Fermi est aussi montré. Dans le cas des galaxies naines satellites de la Voie Lactée, les performances de CTA permettent de les considérer comme des objets spatialement étendus, et d'obtenir une sensibilité compétitive avec celle du Centre Galactique dans le cas d’un profil à cœur de plusieurs kpc. Dans le cas d'un signal de matière noire de type ligne, CTA sera capable de contraindre fortement des modèles spécifiques de matière noire au TeV grâce à l'effet Sommerfeld, comme le Wino et le MDM-5plet. / The ground-based Cherenkov telescope array H.E.S.S. (High Energy Stereoscopic System) is able to detect gamma rays at very high energies (E> 50GeV) to probe the most violent non-thermal phenomena in the universe. These gamma rays can also come from dark matter particle annihilation. Gamma-ray astronomy provides a promising avenue to search for signatures of these annihilations in overdense regions of the universe. This thesis is composed of three parts. After a brief reminder of the H.E.S.S. instrument, the performance tests to calibrate the new electronics used for the modernization of the four cameras CT1-4 telescopes are presented. The analysis of the upgraded camera raw data shows a reduction global array dead time allowing to maximize the benefit of the stereoscopy between the 5 telescopes. The second part of the thesis deals with 10 years of observations of the Galactic Center region with H.E.S.S. and recent observations taken with the 28-meter-diameter telescope (CT5) located at the center of the array. The data analysis towards the central source HESS J1745-290 provides access to events at lower energies (100 GeV). The spectrum of the central source is in very good agreement with the one of HESS J1745-290 measured with CT1-4 and data below 150 GeV enable to connect it to the Fermi 3FGHL J1745.6-2859c source spectrum. In the third part, the 10 years of data in the region of the Galactic Centre with the first phase of H.E.S.S. are scanned for a dark matter annihilation signal using a likelihood method using the spectral and spatial characteristics of the dark matter signal compared to background. No dark matter signal is detected. The constraints are calculated on the annihilation cross section and, for the first time, a ground-based Cherenkov telescope array is capable to probe the thermal cross section in the case of a cuspy dark matter profile. The sensitivity of the annihilation cross section of the H.E.S.S. instrument using CT5 is then presented toward the Galactic Center and the recently discovered dwarf galaxy Reticulum II. The last part of the thesis studies the potential of the future ground-based instrument CTA (Cherenkov Telescope Array) for the detection of dark matter annihilation signal. Towards the Galactic Center region, the expected dark matter signal is significantly increased by the contribution of gamma rays produced by inverse Compton process of energetic electrons and positrons on ambient radiation fields. The sensitivity obtained enables CTA to probe the thermal cross section in all annihilation channels for a cuspy dark matter profile. The impact on CTA sensitivity of systematic errors and diffuse emission measured by Fermi is also shown. In the case of dwarf galaxy satellites of the Milky Way, the CTA performances enable to consider them as extended objects and provide a competitive sensitivity with the Galactic Centre sensitivity for a kpc-core profile. In the case of a line signal, CTA will be able to strongly constrain specific TeV dark matter models through the Sommerfeld effect, as Wino and MDM-5plet.
333

Détermination de la masse des neutrinos cosmologiques avec les forêts Lyman-alpha / Determining the mass of cosmological neutrinos using Lyman-alpha forests

Baur, Julien 28 September 2017 (has links)
Les travaux présentés dans cette thèse contraignent la masse des neutrinos dans le contexte de 4 modèles de matière noire en utilisant le spectre de puissance du flux transmit dans les forêts Lyman-alpha des quasars distants. Les neutrinos laissent une emprunte sur les grandes structures dans l'Univers à travers l'échelle à laquelle ils diffusent, qui se manifeste comme un déficit de fluctuations de densité de matière sur des distances inversement proportionnelles à leur masse. De l'ordre de quelques Mpc, ces échelles peuvent être sondées par les forêts Ly-$alpha$ qui tracent la densité d'hydrogène neutre atomique suivant la ligne de visée du quasar en arrière-plan. J'utilise le spectre de puissance Ly-$alpha$ construit grâce à deux relevés de grandes structures:les $13,821$ spectres optiques de quasars basse-résolution de la 9ème publication des données du SDSS/BOSS à 12 redshifts de $langle z rangle = 2.2$ à $4.4$; ainsi que la centaine de spectres de quasar haute-résolution du relevé XQ-100 du VLT à $langle z rangle = 3.20, 3.56$ et $3.93$. Ces deux relevés nous permettent de sonder les échelles de $k geqslant 0.001~s/mathrm{km}$ à $k leqslant 0.02$ et $k leqslant 0.07~ s/mathrm{km}$ respectivement.Modéliser le spectre de puissance Ly-$alpha$ nécessite résoudre le régime non-linéaire de formation des structure et modéliser le gaz inter-galactique dans les simulations cosmologiques hydrodynamiques destinées à cet effet. Je contrôle pour plusieurs incertitudes systématiques liées à ces simulations. Dans un premier temps, je quantifie la variance d'échantillonnage à l'aide de simulations tournées avec différentes conditions initiales. Dans un second temps, je teste la validité d'une méthode permettant de construire le spectre de puissance à partir de simulations plus petites et moins résolues. Pour ce, j'ai tourné une simulation évoluant $2 times 2048^3$ particules de matière noire et de baryons dans un covolume de $(100~h^{-1}mathrm{Mpc})^3$. Ce travail a permit à notre groupe d'améliorer les contraintes sur la masse des neutrinos de $sum m_nu < 0.15~mathrm{eV}$ établie précédemment à $sum m_nu < 0.12~mathrm{eV}$ à $95%$ de vraisemblance. J'ai ensuite tourné mes efforts vers l'implémentation de neutrinos stériles en tant qu'un candidat matière noire non-froide dans les simulations. En particulier, j'ai produit les contraintes les plus fortes (au moment de la publication) sur la masse des neutrinos stériles en tant que matière noire tiède: $m_nu lesssim 25~mathrm{keV}$ à $95%$ de vraisemblance. J'ai étendu l'étude dans le contexte d'une matière noire mixte et contraint l'abondance relative de la composante tiède par rapport à la froide. Enfin, j'ai complété ce travail en permettant une résonance dans la production des neutrinos stériles, réduisant ainsi leur échelle caractéristique de diffusion et refroidissant la matière tiède qu'ils incorporent. A ce but, j'ai initié une collaboration avec une équipe de physiciens théoriques impliqués dans les recherches astrophysiques de ces neutrinos stériles dits produits par résonance dans des objets riches en matière noire. Notre jeune collaboration a établi les premières contraintes sur leur masse en utilisant le spectre de puissance Ly-$alpha$. / In the work presented in this thesis, I use the power spectrum of the transmitted flux in the Lyman-alpha (Ly-$alpha$) forest of distant quasars to constrain the mass of cosmological neutrinos in the context of four seperate projects. Neutrinos leave a signature imprint on large scale structures in the Universe through their free-streaming, which manifests as a deficit of matter density fluctuations on typical length scales that are inversely proportional to their rest mass. This typical free-streeming scale, of order a few Mpc, can be probed by Ly-$alpha$ forests which are imprints of the neutral atomic Hydrogen density along the background quasar's line-of-sight. I use the Ly-$alpha$ flux power spectrum from mainly two large scale structure surveys: the $13,821$ low-resolution quasar spectra from the ninth data release of SDSS (BOSS) in 12 redshift bins from $langle z rangle = 2.2$ to $4.4$; and the $100$ high-resolution quasar spectra from the XQ-100 survey (of the VLT's XShooter spectrograph) in 3 redshift bins, $langle z rangle = 3.20, 3.56$ and $3.93$. This enables us to probe scales from $k geqslant 0.001~s/mathrm{km}$ to $k leqslant 0.02$ and $k leqslant 0.07~ s/mathrm{km}$ respectively.Modeling the flux power spectrum requires solving the non-linear regime of structure formation and the intergalactic gas in the cosmological hydrodynamics simulations that are used to that effect. I controlled for several of many systematic uncertainties related to the simulations. First, I ran simulations with different initial conditions to quantify the sampling variance. I then tested the accuracy of a splicing technique that we use to construct the flux power spectrum from lower size and lower resolution simulations. This required producing a complete run of a $(100~h^{-1}mathrm{Mpc})^3$ comoving cube containing $2 times 2048^3$ dark matter particles and baryons. This enabled our working group to enhance the previously established constraints on the sum of neutrino masses from $sum m_nu < 0.15~mathrm{eV}$ to the most stringent constraint to date $sum m_nu < 0.12~mathrm{eV}$ with $95%$ confidence. I then worked on implementing right-handed neutrinos in non-cold dark matter cosmological frameworks. A substancial amount of work has gone into applying plausible initial conditions that would accurately model the free-streaming effect of these types of particles. I put the most stringest constraints (at the time of publication) on the mass of non-resonantly produced sterile neutrinos as pure warm dark matter candidates, $m_nu lesssim 25~mathrm{keV}$ at $95%$ confidence. I extended this investigation into a mixed warm plus cold dark matter cosmology. Finally, I implement right-handed neutrinos produced in presence of a lepton asymmetry which boosts their production and lowers their free-streaming scale. I started a collaboration with a team of theoretical physicists involved in searching for astrophysical evidence for the existance of such resonantly-produced right-handed neutrinos in dark matter rich systems. Our new-born collaboration has enabled the first ever constraints on their mass using the Ly-$alpha$ forest power spectrum.
334

Studies on Stochastic Optimisation and applications to the Real-World / Contributions à l'Optimisation Stochastique et Applications au Monde-Réel

Berthier, Vincent 29 September 2017 (has links)
Un grand nombre d'études ont été faites dans le domaine de l'Optimisation Stochastique en général et les Algorithmes Génétiques en particulier. L'essentiel des nouveaux développements ou des améliorations faites sont alors testés sur des jeux de tests très connus tels que BBOB, CEC, etc. conçus de telle manière que soient présents les principaux défis que les optimiseurs doivent relever : non séparabilité, multimodalité, des vallées où le gradient est quasi-nul, et ainsi de suite. La plupart des études ainsi faites se déroulent via une application directe sur le jeu de test, optimisant un nombre donné de variables pour atteindre un critère précis. La première contribution de ce travail consiste à étudier l'impact de la remise en cause de ce fonctionnement par deux moyens : le premier repose sur l'introduction d'un grand nombre de variables qui n'ont pas d'impact sur la valeur de la fonction optimisée ; le second quant à lui relève de l'étude des conséquences du mauvais conditionnement d'une fonction en grande dimension sur les performances des algorithmes d'optimisation stochastique. Une deuxième contribution se situe dans l'étude de l'impact de la modification des mutations de l'algorithme CMA-ES,où, au lieu d'utiliser des mutations purement aléatoires, nous allons utiliser des mutations quasi-aléatoires. Ce travail introduit également la ``Sieves Method'', bien connue des statisticiens. Avec cette méthode, nous commençons par optimiser un faible nombre de variables, nombre qui est ensuite graduellement incrémenté au fil de l'optimisation.Bien que les jeux de tests existants sont bien sûr très utiles, ils ne peuvent constituer que la première étape : dans la plupart des cas, les jeux de tests sont constitués d'un ensemble de fonctions purement mathématiques, des plus simples comme la sphère, aux plus complexes. Le but de la conception d'un nouvel optimiseur, ou l'amélioration d'un optimiseur existant, doit pourtant in fine être de répondre à des problèmes du monde réel. Ce peut-être par exemple la conception d'un moteur plus efficace, d'identifier les bons paramètres d'un modèle physique ou encore d'organiser des données en groupes.Les optimiseurs stochastiques sont bien évidemment utilisés sur de tels problèmes, mais dans la plupart des cas, un optimiseur est choisi arbitrairement puis appliqué au problème considéré. Nous savons comment les optimiseurs se comparent les uns par rapport aux autres sur des fonctions artificielles, mais peu de travaux portent sur leur efficacité sur des problèmes réels. L'un des principaux aspects de des travaux présentés ici consiste à étudier le comportement des optimiseurs les plus utilisés dans la littérature sur des problèmes inspirés du monde réel, voire des problèmes qui en viennent directement. Sur ces problèmes, les effets des mutations quasi-aléatoires de CMA-ES et de la``Sieves Method'' sont en outre étudiés. / A lot of research is being done on Stochastic Optimisation in general and Genetic Algorithms in particular. Most of the new developments are then tested on well know testbeds like BBOB, CEC, etc. conceived to exhibit as many pitfalls as possible such as non-separability, multi-modality, valleys with an almost null gradient and so on. Most studies done on such testbeds are pretty straightforward, optimising a given number of variables for there cognized criterion on the testbed. The first contribution made here is to study the impact of some changes in those assumptions, namely the effect of supernumerary variables that don't change anything to a function evaluation on the one hand, and the effect of a change of the studied criterion on the other hand. A second contribution is in the modification of the mutation design for the algorithm CMA-ES, where we will use Quasi-Random mutations instead of purely random ones. This will almost always result in a very clear improvement ofthe observed results. This research also introduces the Sieves Method well known in statistics, to stochastic optimisers: by first optimising a small subset of the variables and gradually increasing the number of variables during the optimization process, we observe on some problems a very clear improvement. While artificial testbeds are of course really useful, they can only be the first step: in almost every case, the testbeds are a collection of purely mathematical functions, from the simplest one like the sphere, to some really complex functions. The goal of the design of new optimisers or the improvement of an existing one is however, in fine, to answer some real world question. It can be the design of a more efficient engine, finding the correct parameters of a physical model or even to organize data in clusters. Stochastic optimisers are used on those problems, in research or industry, but in most instances, an optimiser ischosen almost arbitrarily. We know how optimisers compare on artificial functions, but almost nothing is known abouttheir performances on real world problems. One of the main aspect of the research exposed here will be to compare someof the most used optimisers in the literature on problems inspired or directly coming from the real-world. On those problems, we will additionally test the efficiency of quasi-random mutations in CMA-ES and the Sieves-Method.
335

Scalars in (Warped) Extra Dimensions : Climbing from the Bottom to the Top / Des scalaires dans les dimensions supplémentaires (courbes) : modèles effectifs et réalisations concrètes

Angelescu, Andrei 29 September 2017 (has links)
Il y a près de deux décennies, l'utilisation des modèles à dimensions supplémentaires pour résoudre le problème de hiérarchie des théories de jauge a reçu beaucoup d'attention, au travers d'élégantes propositions : des dimensions supplémentaires (DS) étendues et plates - le modèle d'Arkani-Hamed-Dimopoulos-Dvali, ou ADD - ainsi que des DS courbées - le modèle de Randall-Sundrum, ou RS. Dans cette thèse, nous discutons plusieurs modèles inspirés de tels scénarios extra-dimensionnels. Pour commencer, nous introduisons des éléments-clés de la théorie des champs en cinq dimensions, et nous montrons comment de tels scénarios apportent une réponse au problème de hiérarchie. Ensuite, dans une première partie, nous adoptons une approche ``de bas en haut'' et étudions plusieurs modèles contenant des fermions vectoriels (FV), prédits génériquement dans les modèles de DS. Nous montrons qu'en ajoutant des quarks vectoriels (QV) au Modèle Standard (MS), on peut expliquer en même temps les anomalies (i) d'asymétrie avant-arrière des quarks b, mesurée au Large Electron-Positron collider (LEP) et (ii) de section efficace de production de tth mesurée au Large Hadron Collider (LHC). En utilisant des rapports de taux de désintégration du Higgs, nous estimons aussi la sensibilité du LHC amélioré, le LHC à haute luminosité, à la présence de QV. Puis nous considérons un modèle à deux doublets de Higgs (2HDM), accompagné de leptons vectoriels (LV) pour expliquer le mystérieux excès à 750 GeV observé au LHC fin 2015. Dans un modèle similaire, nous expliquons également l'abondance de matière sombre (MS) dans l'Univers, notre candidat pour la MS étant un LV neutre, stabilisé par une symétrie Z2 appropriée. Par la suite, dans une deuxième partie de la thèse, nous nous penchons sur le scénario plus concret des DS courbées dotées d'une symétrie custodiale dans l'espace cinq-dimensionnel, qui protège le modèle vis-à-vis de larges corrections électrofaibles. Dans ce cadre, nous interprétons tout d'abord la bosse à deux bosons observée à 2 TeV au LHC comme une superposition de bosons de jauge de Kaluza-Klein, produits en canal s. Dans un deuxième temps, nous étudions la phénoménologie du secteur scalaire du modèle susdit, qui mêle le Higgs et le radion. En particulier, nous estimons la sensibilité du LHC et d'un futur collisionneur électron-positron (l'International Linear Collider - ILC) à l'existence d'un radion, via la production de celui-ci en association avec un boson Z. / Almost two decades ago, the paradigm of extra-dimensional models addressing the gauge hierarchy problem attracted much attention through the elegant proposals of large, flat extra dimensions (EDs) - the Arkani-Hamed-Dimopoulos-Dvali or ADD model - and warped EDs - the Randall-Sundrum or RS model. In this thesis, we discuss several models inspired from such extra-dimensional scenarios. We start by introducing some key elements of field theory in five space-time dimensions and showing how such scenarios provide a solution to the hierarchy problem. Afterwards, in a first part of this work, we adopt a bottom-up approach and study several models containing Vector-Like Fermions (VLFs), which are typically predicted in ED frameworks. We show how adding Vector-Like Quarks (VLQs) to the Standard Model (SM) allows one to simultaneously explain the anomalies in the (i) b-quark forward-backward asymmetry measured at the Large Electron-Positron collider (LEP) and (ii) the tth production cross section measured at the Large Hadron Collider (LHC). Using the so-called Higgs decay ratios, we also estimate the sensitivity of the upgraded LHC, the High-Luminosity LHC, to the presence of VLQs. Then, we consider a Two-Higgs Doublet Model (2HDM) extended with Vector-Like Leptons (VLLs) in order to fit the mysterious 750 GeV excess observed at LHC in late 2015. Within a similar model, we also explain the Dark Matter (DM) abundance in the Universe, our DM candidate being a neutral VLL, which is rendered stable by a suitable Z2 symmetry. Later on, in a second part of the thesis, we focus on the more concrete warped ED scenario endowed with a bulk custodial symmetry, which protects the model from large electroweak (EW) corrections. In this framework, we first interpret the 2 TeV diboson bump observed at LHC in 2015 as a superposition of Kaluza-Klein (KK) gauge bosons produced in the s-channel. Afterwards, we study the phenomenology of the mixed Higgs-radion scalar sector of the aforementioned model. In particular, we estimate the sensitivity of the LHC and of a future electron-positron collider (the International Linear Collider - ILC) to the existence of a radion via its production in association with a Z boson.
336

The Black Metropolis(Re)naissance et représentations d’un espace urbain Harlem 1920-1940 / The Black Metropolis(Re)naissance and representations of an urban space : Harlem 1920- 1940

Jullien, Véronique 29 May 2017 (has links)
Cette thèse porte sur l’émergence de Harlem comme métropole noire dans les années 20, sur son déclin progressif dans les années 30 et sur les répercussions sur la communauté qui y réside, qui le transforme et le pratique à travers des actions et des discours. Durant ces deux décennies, le quartier subit des mutations importantes dans sa structure et par conséquent dans ses représentations. Harlem se transforme en quartier noir à population éclectique, et en métropole culturelle, artistique et intellectuelle qui génère aussi bien succès et fierté identitaire que débats et dissensions. Harlem devient aussi un ghetto aux conditions de vie fortement dégradées mais qui déclenchent la mobilisation politique des Harlémites qui s’expriment et affirment leur volonté de peser sur la scène nationale malgré leurs divisons. Lieu de paradoxes, lieu hétérogène aux multiples facettes, en proie aux tensions intracommunautaires et intercommunautaires, Harlem garde malgré tout une certaine unité et se construit autour de ses contradictions comme un lieu emblématique de la communauté afro-américaine.A travers une approche pluridisciplinaire et à travers un examen approfondi de sources primaires comme la presse, noire et blanche, locale et nationale, ainsi qu’un travail sur les productions artistiques, notamment celles de la Harlem Renaissance, et des ouvrages sociologiques et historiques de l’époque, cette thèse cherche à rendre compte des transformations de Harlem, espace géographique et espace-imagé, et à analyser la naissance, la renaissance et les représentations de cet espace urbain si particulier. / This Ph.D. dissertation deals with the rising of Harlem as a Black Metropolis in the 1920s, its progressive decline in the 1930s and the consequences regarding the inhabitants practicing this urban space through their actions and discourses. During these two decades, the neighborhood underwent profound changes in its structure as well as in its representations. Harlem became a black neighborhood with a heterogeneous population, and a cultural, artistic and intellectual metropolis which fostered success and identity pride as well as debates and dissent. Harlem turned also into a ghetto where living conditions deteriorated drastically; nevertheless Harlemites continued to express themselves and asserted their will to gain as a group on the national scene despite strong divisions. A heterogeneous neighborhood with multiple facets, rife with intra- and interracial tensions, Harlem nevertheless kept some unity and built itself around its contradictions.This Ph.D. dissertation adopts a multidisciplinary approach privileging a thorough examination of primary sources, in particular the Black and White press, both local and national. It also engages in a detailed study of artistic productions of the time, among them those of the Harlem Renaissance, as well as historical and sociological studies of that period. This study attempts to analyze the transformations of Harlem, the geographical and the imaginary space, and to follow the birth, the renaissance and the representations of this unique urban space.
337

Reconstruction parcimonieuse de la carte de masse de matière noire par effet de lentille gravitationnelle / Sparse reconstruction of the dark matter mass map from weak gravitational lensing

Lanusse, Francois 20 November 2015 (has links)
L'effet de lentille gravitationnelle, qui se traduit par une deformation des images nous parvenant de galaxies lointaines, constitue l'une des techniques les plus prometteuse pour répondre aux nombreuses questions portant sur la nature de l'énergie sombre et de la matière noire. Cet effet de lentille étant sensible à la masse totale, il permet de sonder directement la distribution de matière noire, qui resterait autrement invisible. En mesurant la forme d'un grand nombre de galaxies lointaines, il est possible d'estimer statistiquement les déformations causées par l'effet de lentille gravitationnelles puis d'en inférer la distribution de masse à l'origine de ces deformations. La reconstruction de ces cartes de masses constitue un problème inverse qui se trouve être mal posé dans un certain nombre de situations d'interêt, en particulier lors de la reconstruction de la carte de masse aux petites échelles ou en trois dimensions. Dans ces situations, il devient impossible de reconstruire une carte sans l'ajout d'information a priori.Une classe particulière de méthodes, basées sur un a priori de parcimonie, s'est révélé remarquablement efficace pour résoudre des problèmes inverses similaires pour un large champ d'applications tels que la géophysique et l'imagerie médicale. Le but principal de cette these est donc d'adapter ces techniques de régularisation parcimonieuses au problème de la cartographie de la matière noire afin de developper une nouvelle generation de méthodes. Nous développons en particulier de nouveaux algorithmes permettant la reconstruction de carte masses bi-dimensionnelles de haute resolution ainsi que de cartes de masses tri-dimensionnelles. Nous appliquons de plus les mêmes méthodes de régularisation parcimonieuse au problème de la reconstruction du spectre de puissance des fluctuations primordiales de densités à partir de mesures du fond diffus cosmologique, ce qui constitue un problème inverse particulièrement difficile a résoudre. Nous développons un nouvel algorithme pour résoudre ce problème, que nous appliquons aux données du satellite Planck.Enfin, nous investiguons de nouvelles méthodes pour l'analyse de relevés cosmologiques exprimés en coordonnées sphériques. Nous développons une nouvelle transformée en ondelettes pour champs scalaires exprimés sur la boulle 3D et nous comparons différentes méthodes pour l'analyse cosmologique de relevés de galaxies spectroscopiques. / Gravitational lensing, that is the distortion of the images of distant galaxies by intervening massive objects, has been identified as one of the most promising probes to help answer questions relative to the nature of dark matter and dark energy. As the lensing effect is caused by the total matter content, it can directly probe the distribution of the otherwise invisible dark matter. By measuring the shapes of distant galaxies and statistically estimating the deformations caused by gravitational lensing, it is possible to reconstruct the distribution of the intervening mass. This mass-mapping process can be seen as an instance of a linear inverse problem, which can be ill-posed in many situations of interest, especially when mapping the dark matter on small angular scales or in three dimensions. As a result, recovering a meaningful mass-map in these situations is not possible without prior information. In recent years, a class of methods based on a so-called sparse prior has proven remarkably successful at solving similar linear inverse problems in a wide range of fields such as medical imaging or geophysics. The primary goal of this thesis is to apply these sparse regularisation techniques to the gravitational lensing problem in order to build next-generation dark matter mass-mapping tools. We propose in particular new algorithms for the reconstruction of high-resolution 2D mass-maps and 3D mass-maps and demonstrate in both cases the effectiveness of the sparse prior. We also apply the same sparse methodologies to the reconstruction the primordial density fluctuation power spectrum from measurements of the Cosmic Microwave Background which constitutes another notoriously difficult inverse problem. We apply the resulting algorithm to reconstruct the primordial power spectrum using data from the Planck satellite. Finally, we investigate new methodologies for the analysis of cosmological surveys in spherical coordinates. We develop a new wavelet transform for the analysis of scalar fields on the 3D ball. We also conduct a comparison of methods for the 3D analysis of spectroscopic galaxy survey.
338

Conflit de cultures et mondialisation : l'outil romanesque negro-africain d'expression française. / Conflict of cultures and globalization : the black African French-speaking novelistic tool

Diallo, Mounirou 25 May 2016 (has links)
Dans ce travail, nous défendons une idée très féconde : le concept, qui est le « moteur » de l’abstraction philosophique, ne permet plus d’éclairer l’enjeu du débat philosophique en Afrique noire. Or cet enjeu, bien voilé par la platitude du concept philosophique, se joue dans ce que nous avons nommé « le phénomène de conflit de cultures ». Pour monter le bien-fondé de notre thèse, nous avons privilégié une méthode simple qui s’appuie sur deux romans négro-africains (L’aventure ambiguë de Cheikh H. Kane et Entre les eaux de V.Y. Mudimbe), afin d’éclairer le conflit de cultures en Afrique noire. On a pu montrer que le « conflit de cultures » était synonyme de « conflit intellectuel » pour le philosophe négro-africain. En analysant le discours du philosophe africain, dont le style refuse ratages et hésitations, il devenait clair qu’il fallait sortir de ce discours pour lui trouver un « dehors », capable de l’éclairer. Et les deux romans susmentionnés, que nous avons systématiquement analysés dans notre première partie, ont permis de déconstruire le discours du philosophe africain, et ont fini par nous faire voir les contradictions symboliques du « philosopher en Afrique noire ». La deuxième partie de cette thèse essaie de penser l’Africain à l’intérieur d’un monde qui apporte sans cesse la nouveauté. C’est, en un mot, inscrire le Négro-africain dans une histoire qui redonne à l’utopie positive (comme ce qui est de l’ordre du possible) tout son sens. Sous ce rapport, la pensée de la traversée de Bidima réintroduit, dans la pratique discursive en Afrique noire, la dimension du possible, qui refuse les assignations identitaires et les substantialismes béats : l’Afrique noire n’est pas un continent figé, elle est plutôt inscrite dans un temps qui apporte sans cesse la nouveauté. / In this thesis, we stand a very fruitful idea: the concept, which is the « engine » of philosophical abstraction, no longer allows to shed light on the issue of philosophical debate in black Africa. However, this issue, though veiled by the flatness of the philosophical concept functions within what we called «the phenomenon of cultural conflicts of». To mount the validity of our thesis, we favored a simple method that uses two black African novels (Cheikh H. Kane’s L’aventure ambiguë and V. Y. Mudimbe’s Entre les eaux) to illuminate cultural conflicts in black Africa. It has been shown that the "clash of cultures" was synonymous with "intellectual conflict" for the black African philosopher. By analyzing the discourse of the African philosopher, whose style refuses failures and hesitations, it became clear that he had to escape the pitfalls of this discourse to find for himself an "outside", able to enlighten. The above two novels, that we have systematically analyzed in the first part, helped to deconstruct the discourse of the African philosopher, and finally made us see the symbolic contradictions of "philosophizing in Black Africa".The second part of this thesis tries to think of Africans within a world that keeps changing ; that is, in a word, trying to admit the African Negro in a story that restores to the positive utopia all its meaning. In this respect, the crossing of Bidima reintroduces, in the discursive practice in black Africa, the very possbility of refusing identity assignments and blissful substantialismes: Black Africa is not a frozen continent ; it is rather inscribed in a time that brings ever new things.
339

La mise à l'épreuve du discours référentiel dans l'œuvre de Boualem Sansal / Tackling a tricky reality : difficulties and strategies in Boualem Sansal’s work

Romain, Lisa 28 November 2018 (has links)
Boualem Sansal entre tardivement en littérature, ce qui lui confère un certain recul sur les difficultés auxquelles se trouvent confrontés le roman algérien francophone de la décennie noire. Aux yeux de l’auteur, la première de ces difficultés serait l’aphasie, corrélative d’un référent aussi opaque que douloureux. Cette aphasie serait aussi la conséquence du relativisme prudent des romanciers démocrates-laïques qui se traduirait, sur un plan littéraire, par des romans muselés par le doute et l’autocensure. Et, quand bien même ces romanciers parviendraient à dépasser l’indicible, un autre écueil les guetterait : leur statut linguistique particulier les exposerait à n’être véritablement reçus ni en Algérie, ni en Occident. L’ensemble de ces phénomènes formerait alors une zone inaccessible. Mû par la volonté de défendre ses convictions de démocrate laïc, l’auteur met tout en œuvre pour entrer dans cette zone. Mais même si, la notoriété venant, il s’ouvre à l’essai ainsi qu’à une abondante parole médiatique pour diffuser l’engagement qui conditionne sa démarche, c’est sur le terrain du roman que s’exerce principalement sa recherche. Le chemin qu’emprunte le roman sansalien passe par une revalorisation complémentaire du discours engagé et de la fiction, entendue comme droit à inventer et à renouer avec tous les plaisirs du romanesque. Décidé à trouver un équilibre entre un roman à thèse autoritariste et un roman sans thèse relativiste, Boualem Sansal théorise également, et ce dès son premier roman, le rôle du lecteur. C’est lui qui, seul, permettrait de sortir véritablement de l’impasse. L’auteur transforme alors son œuvre en une propédeutique qui forme à des pratiques de réception responsables et autonomes, pratiques que le lecteur est invité à réinvestir dans sa vie citoyenne. / Having entered literary world quite lately in his life, Boualem Sansal has benefited from a precious hindsight on the difficulties experienced by Algeria’s black decade novelists. Dealing with an extremely intricate and painful political context that threatened to result in a muffled and self-censored literature, these latter has also had to tackle an awkward position between Algerian and Western countries’ public expectations making them unheard on both sides. Eager to defend and disseminate his secular-democratic vision of the society, Sansal has spared no effort to break with this deadly aphasia. Even if, with increasing recognition, he has decided to explore new forms of expression such as essay and to be more present on the media sphere, he soon realized that the real way-out of impotence is to find precisely in his literary work by reconciling a strongly committed speech with the power of pure literary fiction. Pursuing, novel after novel, his endeavour to reach this zone, he theorises a new key role for his reader to whom he asks to become more autonomous and responsible in his practice. Reading experience thus become a training area to acquire necessary skills for an active citizenship, the only way, in Sansal’s mind, to break general apathy threatening his democratic ideal.
340

Producing and constraining self-interacting hidden sector dark matter

Vanderheyden, Laurent 30 June 2021 (has links) (PDF)
Les incompatibilités entre les simulations numériques, les prédictions théoriques et les observations cosmologiques à courtes et larges échelles suggèrent que la Matière Noire (MN) auto-interagit fortement. Il a été démontré qu’introduire un médiateur léger peut permettre de rendre compte de telles auto-interactions pour la MN. Un tel médiateur permet, de plus, des interactions "portails" entre le "secteur caché" (contenant la MN et le médiateur léger) et le "secteur visible" (contenant les particules que l'on connaît déjà, c'est-à-dire du Modèle Standard). Toutefois, l’espace des paramètres se voit de plus en plus exclu aux vues d’une tension entre, d’une part, les observations cosmologiques et astrophysiques et, d’autre part, le fait que l'on ait à ce jour toujours pas mis en évidence des traces de MN dans aucune expérience de physique des particules.Nous commençons par détailler toutes les contraintes qui s’appliquent aux modèles pour lesquels la MN auto-interagit au moyen d’un médiateur léger. Pour cela, nous considérons les deux exemples de modèles connus du portail de Higgs et du portail de mélange cinétique. Nous discutons ensuite l’effet Sommerfeld et étudions ses nombreuses implications sur de tels modèles. Nous poursuivons en établissant comment rendre compte de la densité relique de MN observée aujourd’hui dans l'Univers dans de tels modèles, c'est-à-dire dans des modèles qui présentent une structure générique composée de trois populations de particules (le Modèle Standard, la MN et le médiateur) connectées les unes aux autres au travers de trois interactions résultantes de deux couplages fondamentaux entre particules. Il apparaît que cela peut être fait selon cinq manières dynamiques différentes qui donnent lieu à neuf régimes de production de la MN dont quatre sont nouveaux. Ces nouveaux régimes de production sont pertinents pour la situation où les particules du secteur caché ne sont pas en équilibre thermique avec les particules du secteur visible.Nous étudions ensuite plus en détail la possibilité d’un secteur caché qui n’est pas thermiquement connecté au secteur visible, en déterminant en particulier l’espace des paramètres autorisé pour des candidats de MN thermaux en termes du ratio des températures des deux secteurs et de la masse de la MN. Nous montrons ensuite que si les deux secteurs ne sont pas thermalement connectés, les deux modèles simples de portails que nous considérons permettent de diminuer les tensions à courtes échelles tout en offrant des candidats de MN viables. Enfin, nous proposons et explorons d’autres modèles minimaux de MN auto-interagissante qui satisfont aux nombreuses contraintes de manière consistante. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished

Page generated in 0.0254 seconds