• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 22
  • 4
  • Tagged with
  • 54
  • 54
  • 34
  • 33
  • 26
  • 26
  • 22
  • 19
  • 14
  • 14
  • 14
  • 12
  • 10
  • 10
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

L'eschatologie chrétienne en Afrique à l'ombre de la théologie du Christ-Ancêtre / Christian eschatology in Africa in the shadow of Christ-Ancestor

Bonkoungou, Alfred 04 July 2017 (has links)
Le contexte culturel du continent africain est marqué par la prégnance des ancêtres. C’est pourquoi la théologie de l’inculturation de la foi a pensé devoir s’approprier la thématique de l’ancêtre afin de rapatrier sa signification symbolique au service de la foi chrétienne. Mais, par-delà une mise en rapport informelle entre le Christ et l’ancêtre, l’inculturation de la foi a évolué vers la formalité spéculative d’une ancestralisation du Christ. En cela, la théologie du Christ-Ancêtre nous place devant un procédé périlleux de subsomption logique qui introduit et risque d’absorber le Novum du Christ dans les catégories et genres antérieurs de la culture de réception. L’ancestralisme n’est pas une réalité simplement africaine ; il traverse la Bible et d’autres cultures comme celle de la Rome antique et de la Chine ancienne. Par-delà la causalité exemplaire de l’ancêtre que la mémoire du passé suffit à fonder métaphysiquement, la théologie chrétienne ne peut pas lui reconnaître une causalité efficiente. En juste foi chrétienne, c’est l’efficience du Ressuscité qui bouleverse tout le régime d’efficience salvifique antérieur à la nouveauté chrétienne. Le Christ n’est pas un Ancêtre, il est l’Eschaton. / The cultural context of the african continent is marked by the pregnancy of the ancestors.That is why the theology of the inculturation of the faith thought of having to appropriate the theme of the ancestor to repatriate its symbolic meaning in the service of the christian faith. But beyond an informal putting in report between the Christ and the ancestor, the inculturation of the faith evolved towards the speculative formality of an ancestralisation of the Christ. In that respect, the theology of Christ-Ancestor places us in front of a precarious process of logical subsumption which introduces and risks to absorb the Novum of Christ in the categories and the previous kinds of the culture of reception. The ancestralism is not only african reality; it crosses the Bible and the other cultures as that of ancient Rome and ancient China. Beyond the exemplary causality of the ancestor which the memory of past is enough to establish metaphysically, the christian theology cannot recognize it an efficient causality. In christian faith, it is the efficiency of the Resuscitated that upsets all the category of salvific efficiency previous to the Christian novelty. Christ is not an Ancestor, he is Eschaton.
42

Contraintes sur les diquarks scalaires à partir des processus à haute énergie

Pascual Dias, Bruna 07 1900 (has links)
Le Modèle standard de la physique de particules explique avec beaucoup de succès comment les particules fondamentales interagissent entre elles. Néanmoins, ce modèle n’est pas capable d’expliquer certains défis contemporains du domaine, comme la grande quantité de paramètres libres, le problème de la hiérarchie ou l’identité de la matière sombre. Pour expliquer ces phénomènes, il faut chercher la physique au-delà du Modèle standard. De sorte à satisfaire les contraintes provenant des mesures expérimentales, on peut considérer l’addition d’une seule nouvelle particule au Modèle standard qui se couple à deux quarks, le diquark. Sa contribution aux processus hadroniques offre une opportunité d’obtenir des limites dans ses paramètres à partir des données expérimentales contemporaines. Ceci nous permettrait d’évaluer son potentiel et d’identifier les processus auxquels cette particule peut contribuer. Parmi les états de diquarks possibles, on trouve les diquarks scalaires Dᵘ et Dᵈ, qui possèdent un couplage antisymétrique à des paires de quarks droitiers du type up ou du type down, respectivement. L’obtention des contraintes sur les valeurs de leur masse Mᴰ et leurs couplages aux quarks (x^q, y^q), où q = u, d, est l’objectif central de ce travail. Pour cela, on considère tout d’abord des recherches directes dans la production de dijet, la signature expérimentale des désintégrations de ces particules. Ensuite, on sonde l’influence indirecte du diquark Dᵘ dans les mesures expérimentales de la section efficace de production d’un seul quark top. Les données expérimentales obtenues dans le Grand collisionneur d’hadrons (LHC) pour ces processus à haute énergie sont utilisées pour comparer les prédictions théoriques de ces modèles et quantifier leur viabilité en fournissant de nouvelles contraintes sur ses paramètres. On est capable d’améliorer les contraintes trouvées dans la littérature de |xᵘ| ≤ 14,4 à |xᵘ| ≤ 0,13–0,15 pour Dᵘ et de |xᵈyᵈ| ≤ 0,022 avec |yᵈ| ≤ 0,17 à |xᵈ| ≤ 0,15–0,17 pour Dᵈ, les deux avec une masse de Mᴰ = 600 GeV. De plus, l’analyse des données pour la production d’un seul quark top montre que la réduction de l’espace de phase des pᵀ peut améliorer encore plus ces contraintes. / The Standard Model of particle physics explains with great success how fundamental particles interact. However, this model cannot explain some contemporary challenges of the domain, such as the large number of free parameters, the hierarchy problem or the identity of dark matter. To explain these phenomena, we need to search for physics beyond the Standard Model. In order to satisfy the existing constraints from experimental measurements, we can consider the addition of a single new particle to the Standard Model that couples to two quarks, a diquark. Its contribution to hadronic processes offers an opportunity to set limits on its parameters from contemporary experimental data. This would allow us to evaluate their potential and identify processes to which they can contribute. Among the possible diquark states, we find the scalar diquarks Dᵘ and Dᵈ, which have an antisymmetric coupling to pairs of right-handed up-type or down-type quarks, respectively. To obtain constraints on their mass Mᴰ and on their couplings to quarks (x^q, y^q), where q = u, d, is the main goal of this work. In order to do so, we start by considering direct searches in the production of dijet, the experimental signature of the decay of these particles. Afterwards, we probe the indirect influence of the Dᵘ diquark to the experimental measurements of the single-top-production cross section. Recent data for both of these processes from the Large Hadron Collider (LHC) is used to compare the theoretical predictions of these models and quantify their viability by providing new constraints on its parameters. We are able to improve the constraints found in the literature from |xᵘ| ≤ 14.4 to |xᵘ| ≤ 0.13–0.15 for Dᵘ and from |xᵈyᵈ| ≤ 0.022 to |yᵈ| ≤ 0.17 to |xᵈ| ≤ 0.15–0.17 for Dᵈ, both with masses of Mᴰ = 600 GeV. Other than that, the analysis of the data from single top production shows that the reduction of the pᵀ space can further improve these constraints.
43

Search for new physics produced via Vector Boson Fusion in final states with large missing transverse momentum with the ATLAS detector / Recherche de nouvelle physique dans le mode de production VBF dans un état final avec une grande énergie transverse manquante avec le détecteur ATLAS

Perego, Marta Maria 10 April 2018 (has links)
Cette thèse présente des recherches sur la nouvelle physique produite par le processus de Fusion de Bosons Vecteur (VBF) dans les états finaux avec une grand impulsion transverse manquante (Etmiss) en utilisant 36.1 fb⁻¹ de données de collisions proton-proton avec une énergie dans le centre de masse de 13 TeV, recueillies par l'expérience ATLAS au Large Hadron Collider (LHC) au CERN en 2015 et 2016. En particulier, elle se concentre sur la recherche de la désintégration invisible du boson de Higgs produit via le mode VBF. Comme le modèle standard de la physique des particules (MS) prédit une désintégration invisible de Higgs uniquement à travers le mode H->ZZ*->4v avec un rapport d’embranchement BR ~ 0,1%, si une désintégration en particules invisibles du boson de Higgs était observée avec un BR supérieur, ce serait un signe de nouvelle physique. Plusieurs modèles au-delà du modèle standard (BSM) prédisent des désintégrations du boson de Higgs en particules de matière noire (DM, non détectées) ou en particules massives neutres à vie longue. Parmi les recherches H->particules invisibles, la plus sensible est celle où le Higgs est produit via le mode VBF. Son état final est caractérisé par deux jets énergétiques, avec les caractéristiques typiques du mode VBF (c'est-à-dire une grande séparation angulaire et une grande masse invariante des deux jets) et une grande impulsion transverse manquante (Etmiss>180 GeV). Pour sélectionner un échantillon d'événements candidats de signal, une région de signal (SR) est définie pour maximiser la fraction d'événements de signal attendus par rapport à la prédiction du MS (bruit de fond). Les processus MS qui peuvent peupler la SR proviennent principalement des processus Z->vv+jets et W->lv+jets, où le lepton est perdu ou non reconstruit. Leur contribution est estimée avec une approche semi-data driven : des régions dédiées enrichies en événements W->lv/Z->ll sont utilisées pour normaliser les données des estimations de Monte Carlo (MC) en utilisant une technique de fit simultané (méthode du facteur de transfert) et pour les extrapoler à la SR. L'estimation de fond prédit est comparée aux données SR observées. Comme aucun excès n'est trouvé, une limite supérieure sur le BR (H-> invisible) est calculée. L'analyse est ensuite réinterprétée dans le cadre de modèles inspirés du modèle Minimal Dark Matter. Le cas d'un nouveau triplet fermionique électrofaible, avec une hypercharge nulle et avec interactions respectant le nombre B-L, ajouté au MS fournit un bon candidat Dark Matter (WIMP pure). Si on considère l'abondance thermique, la masse du composant neutre est d’environ 3 TeV. Cependant des masses plus faibles sont également envisageables dans le cas de mécanismes de production non thermiques ou lorsque le triplet ne constitue qu'une fraction de l'abondance de DM. Il peut être produit à des collisionneurs proton-proton tels que le LHC et il peut être sondé de différentes manières. Une fois produites, les composantes chargées du triplet se désintègrent dans le composant neutre le plus léger, χ0 , avec en plus des pions très mous, en raison de la petite différence de masse entre les composants neutres et chargés. Ces pions de très faible impulsion ne peuvent pas être reconstruits et sont donc perdus. Le χ0 est reconstruit comme de l’Etmiss dans le détecteur. Par conséquent, lorsqu'il est produit via VBF, il donne lieu à une signature avec deux jets VBF et de l’Etmiss, le même état final que celui qui a été étudié pour l'analyse de VBF H->invisible. Des points de masse différentes (de 90 GeV à 200 GeV) ont été engendrés avec les programmes Monte Carlo Madgraph+Pythia, dans le cadre du logiciel officiel ATLAS, et les limites supérieures sont définies sur la section efficace fiducielle de production. Des extrapolations à des luminosités plus élevées (Run3 et HL-LHC) en utilisant une approche simplifiée sont également présentées. / This thesis presents searches for new physics produced via Vector Boson Fusion (VBF) in final states with large Missing Transverse Momentum (Etmiss) using 36.1 fb⁻¹ of data from proton-proton collisions at center-of-mass-energy of 13 TeV, collected by the ATLAS experiment at the Large Hadron Collider at CERN during 2015 and 2016. In particular, it focuses on the search for the invisible decay of the Higgs boson produced via the vector boson fusion (VBF) process. As the SM predicts an Higgs invisible decay only through H->ZZ*->4v with Branching Ratio BR~0.1%, if an invisibly decaying Higgs boson would be observed with a higher BR, this would be a sign of new physics. Several Beyond the Standard Model (BSM) models predict invisibly decaying Higgs boson where the Higgs can decay into dark matter particles or neutral long-lived massive particles. Among the H->invisible searches the most sensitive one is the one where the Higgs is produced via the VBF process. Its final state is characterized by two energetic jets, with the typical features of the VBF mode (i.e. large angular separation and large invariant mass) and large missing transverse momentum (Etmiss>180 GeV). To select a sample of signal candidate events, a Signal Region (SR) is designed to maximize the fraction of expected signal events with respect to the SM prediction (backgrounds). The SM processes which can populate the SR comes mainly from Z->vv+jets and W->lv+jets processes, where the lepton is lost or not reconstructed. Their contribution is estimated with a semi data driven approach: dedicated regions enriched in W->lv/Z->ll events are used to normalize to data the Monte Carlo (MC) estimates using a simultaneous fitting technique (transfer factor) and to extrapolate them to the SR. The predicted background estimate is compared to the observed SR data. Since no excess is found, an upper limit on the BR(H->inv) is set. The analysis is then reinterpreted in the context of models inspired by the Minimal Dark Matter model. The case of a new electroweak fermionic triplet, with null hypercharge and with interactions respecting the B-L number, added on top of the SM provides a good Dark Matter candidate. As such, it is an example of pure Weakly Interacting Massive Particle (WIMP), meaning that it is a DM particle with SU(2)_L SM interactions which is not mixing with other states (pure).If the thermal abundance is assumed, the mass of the neutral component is around 3 TeV, however smaller masses are also allowed in case of non-thermal production mechanisms or if the triplet constitutes only a fraction of the DM abundance. It can be produced at proton-proton colliders such as the LHC and it can be probed in different ways. Once produced, the charged components of the triplet decays into the lightest neutral component chi0 plus very soft charged pions. chi0 is reconstructed as Etmiss in the detector while the pions, because of the small mass splitting between the neutral and charged components, are so soft that are lost and are not reconstructed. Therefore, when produced via VBF, it gives rise to a signature with two VBF jets and Etmiss, the same final state that has been investigated for the VBF Higgs invisible analysis. Different mass point (from 90 GeV to 200 GeV) have been generated with the Madgraph+Pythia, Monte Carlo programs within the official ATLAS software, and upper limits are set on the fiducial cross section. Extrapolations to higher luminosities using a simplified approach are also presented.
44

Phénoménologie des mésons B à la recherche d'un signal au-delà du modèle standard / B Mesons Phenomenology to the Search of a Signal Beyond the Standard Model

Hebinger, Jeremy 18 September 2017 (has links)
Durant les dernières décennies, la désintégration induite par une boucle $b o sgamma$, a attiré beaucoup d'attention à cause de sa sensibilité potentielle à la nouvelle physique. Dans le model standard, les transitions $b o sgamma_{L(R)}$ et $overline{b} o overline{s}gamma_{R(L)}$ sont proportionnelles aux coefficients de Wilson $C_7(C'_7)$.La désintégration $B o Kpipigamma$ offre à travers l'analyse angulaire un observable P impaire ($lambda$) et à traversle mélange $B-overline{B}$ un observable CP impaire ($S_{ho Kgamma}$) tous deux étants sensibles au rapport $C'_7/C_7approx m_s/m_b$. La difficulté principale étant que $lambda$ et $S_{ho Kgamma}$ sont accompagnés par un facteur de dilution provenant de la désintégration forte. Ce travail est centré sur l'éstimation et la modélisation de ces facteurs de dilution. La transition $B o Kpipigamma$ se produit en tant quetrois désintégrations successives.La transition faible $B o K_{res}gamma$ est suivie par la désintégration forte en trois corps de la résonance kaonic $K_{res} o Kpipi$ via trois états intermediaires distincts $ho K$, $K^*pi$ et $kappapi$.L'observable $S_{ho Kgamma}$ est accessible avec l'état final $K^0pi^+pi^-gamma$, mais la présence de $K^{*pm}pi^mp$ et $kappa^pmpi^mp$, n'étants pas état propre de CP, induit le facteur de dilution $D$.Pour résoudre ce problème, nous dérivons l'expression de $D$ en fonction des ondes partielles $ho K$, $K^*pi$ et $kappapi$ et en incluant les résonances kaonic $K_1(1270/1400), K^*(1410)$ et $K_2^*(1430)$. Afin de calculer le facteur de dilution, les ondes partielles peuvent être extraites avec l'état final $K^{pm}pi^{mp}pi^{pm}gamma$, où la sensibilité expérimentale est plus élevée. Ensuite, nous proposons une nouvelle méthode, indépendante du model, pour déterminer $D$, qui consiste a extraire le facteur de dilution independamment de $S_{ho Kgamma}$ en utilisant des états finaux avec un pion neutre tels que $K^+pi^-pi^0gamma$. En exploitant des données existantes avec $m_{Kpipi} <1.8;$GeV$/c^2$, nous obtenons $D=0.92pm0.17$.Lorsque l'on considère juste $K_1(1270/1400)$ et $K^*(1410)$, $lambda$ peut être extrait de la distribution angulaire and de Dalitz avec une précision de l'ordre de $pm 10%$ pour un echantillon de $5.10^3$ évènements générés à l'aide de la méthode Monté Carlo. Mais cela demande une bonne connaissance de différentes quantités importantes pour la désintégration forte telles que l'angle de mélange de $K_1$, les rapports de branchement individuel $B o K_{res}gamma$ et les phases relatives. Nous montrons que certains de ces paramètres et $lambda$ peuvent être simultanément ajustés avec une perte de précision de juste quelques pourcents. Puis nous dérivons comment, en utilisant seulement la distribution angulaire, il est possible d'annuler partiellement les contributions provenants de la désintégration forte afin d'obtenir une limite inférieure pour $|lambda|$. / Over the last decades, the loop induced decay $b o sgamma$ has attracted a considerable amount of attention due to its potential sensitivity to new physics. In the standard model, the processes $b o sgamma_{L(R)}$ and $overline{b} o overline{s}gamma_{R(L)}$ are proportional to the Wilson coefficients $C_7(C'_7)$. The decay $B o Kpipigamma$ provides via angular analysis a parity odd observable ($lambda$) and via $B-overline{B}$ mixing a CP odd observable ($S_{ho Kgamma}$) both sensitive to the ratio $C'_7/C_7approx m_s/m_b$. The main issue is that both $lambda$ and $S_{ho Kgamma}$ are accompanied by a dilution factor originating from the strong decay. This work is focused on the estimation and modelisation of those dilution factors.The transition $B o Kpipigamma$ occurs as three subsequent decays. The weak process $B o K_{res}gamma$ is followed by the strong 3-body decay of the kaonic resonance $K_{res} o Kpipi$ via three distinct intermediate states $ho K$, $K^*pi$ and $kappapi$.The observable $S_{ho Kgamma}$ is accessible with the final state $K^0pi^+pi^-gamma$, but the presence of non CP eigenstates $K^{*pm}pi^mp$ and $kappa^pmpi^mp$ induce the dilution factor $D$.To deal with this inconvenience, we derive the expression of $D$ in terms of the partial waves $ho K$, $K^*pi$ and $kappapi$ and including the koanic resonances $K_1(1270/1400), K^*(1410)$ and $K_2^*(1430)$. The partial waves can then be fitted using the final state $K^{pm}pi^{mp}pi^{pm}gamma$, where the experimental sensitivity is higher, in order the compute the dilution factor. Then we propose a new model independent method to determine $D$, which consist in extracting the dilution factor independently of $S_{ho Kgamma}$ using final states with one neutral pion such as $K^+pi^-pi^0gamma$. Exploiting existing data with $m_{Kpipi} <1.8;$GeV$/c^2$, we obtained $D=0.92pm0.17$.When considering only $K_1(1270/1400)$ and $K^*(1410)$, fitting the angular and Dalitz plot distribution allows to extract $lambda$ with an accuracy of the order of $pm 10%$ for a sample of $5.10^3$ Monte Carlo generated events. But this require a good knowledge of different quantities of importance in the strong decay such as the $K_1$ mixing angle, individual $B o K_{res}gamma$ branching ratios and relative phases. We show that some of those parameters can simultaneously fitted with $lambda$ with a loss of accuracy of just a few percent. We derive how, using only the angular distribution, one can partially cancel contribution from the strong decay and obtain a lower bound on $|lambda|$.
45

Search of new physics through flavor physics observables / Recherche de la nouvelle physique à travers les observables de la physique de la saveur

Sumensari, Olcyr 27 September 2017 (has links)
La recherche indirecte des effets de la physique au-delà du Modèle Standard à travers les processus de la saveur est complémentaire aux efforts au LHC pour observer directement la nouvelle physique. Dans cette thèse nous discutons plusieurs scénarios au-delà du Modèle Standard (a) en utilisant une approche basée sur les théories de champs effective et (b) en considérant des extensions explicites du Modèle Standard, à savoir les modèles à deux doublets de Higgs et les scénarios postulant l'existence des bosons leptoquarks scalaires à basse énergie. En particulier, nous discutons le phénomène de la brisure de l'universalité des couplages leptoniques dans les désintégrations basées sur les transitions b → sℓℓ et b → cτν, et la possibilité de chercher les signatures de la violation de la saveur leptonique à travers les modes de désintégration similaires. Une proposition pour tester la présence d'un boson pseudoscalaire léger à travers les désintégrations des quarkonia est aussi présentée. / Indirect searches of physics beyond the Standard Model through flavor physics processes at low energies are complementary to the ongoing efforts at the LHC to observe the New Physic phenomena directly. In this thesis we discuss several scenarios of physics beyond the Standard Model by (a) reusing the effective field theory approach and (b) by considering explicit extensions of the Standard Model, namely the two-Higgs doublet models and the scenarios involving the low energy scalar leptoquark states. Particular emphasis is devoted to the issue of the lepton flavor universality violation in the exclusive decays based on b → sℓℓ and b → cτν, and to the possibility of searching for signs of lepton flavor violation through similar decay modes. A proposal for testing the presence of the light CP-odd Higgs through quarkonia decays is also made.
46

A microscopic treatment of correlated nucleons : collective properties in stable and exotic nuclei / Description microscopique de nucléons corrélés : propriétés collectives dans les noyaux stables et exotiques

Vasseur, Olivier 18 September 2019 (has links)
Ce travail de doctorat s'inscrit dans le cadre des techniques adaptées à la résolution du problème à N corps nucléaire. Il a été motivé par la perspective d'utiliser des méthodes allant au-delà de l'approximation de champ moyen pour améliorer la description des spectres d'excitation des noyaux stables et exotiques, notamment les états de basse énergie et les résonances géantes. À cette fin, l'approche choisie est le développement de modèles basés sur la second random-phase approximation (SRPA) utilisée avec une procédure de soustraction. Ces développements ont pour but d'étendre le champ d'applicabilité du modèle initial et d'inclure des corrélations dans l'état fondamental.Une première partie consiste en l'application de la SRPA avec une méthode de soustraction à l'étude de la réponse dipolaire (comprenant la polarisabilité électrique dipolaire) et quadrupolaire de noyaux de masse moyenne à lourds. Nous vérifions que la SRPA avec soustraction corrige les problèmes observés avec la SRPA standard et améliore la description des spectres d'excitation, comparativement à la random-phase approximation (RPA). Nous étudions également les effets au-delà du champ moyen dûs à la SSRPA avec soustraction, en exploitant la relation entre les modes de respiration axiaux des noyaux et la masse effective de la matière nucléaire.Une seconde partie est dédiée à des extensions.Premièrement, nous étendons les outils numérique initiaux en utilisant l'approximation equal-filling (EFA) afin de permettre les applications aux noyaux ayant une orbitale partiellement occupée. Nous proposons ensuite une méthode d'estimation partielle des effets d'appariement en utilisant des nombres d'occupation corrélés.Une étude des moyens de renormaliser la SRPA avec soustraction est menée en employant un modèle allant au-delà de l'approximation de quasiboson. Cette extension est également basée sur l'utilisation de nombres d'occupation comme moyen d'inclure des corrélations dans l'état fondamental. Nous montrons que les corrélations obtenues par le calcul itératif en RPA des nombres d'occupation ne sont pas suffisantes pour corriger les problèmes de la SRPA standard. / This Ph.D. work falls within the scope of theoretical techniques tailored to the solution of the nuclear many-body problem. It was motivated by the perspective of using beyond-mean-field methods to improve the description of excitation spectra of stable and exotic nuclei, especially the low-energy states and the giant resonances. The chosen path in this direction is the development of models based on the second random-phase approximation (SRPA) used with a subtraction procedure. These developments aim to extend the range of applicability of the initial model and to include correlations in the ground state.A first part consists in applying the SRPA used with a subtraction method to the study of the dipole and quadrupole response in medium to heavy-mass nuclei, including the electric dipole polarizability. We verify that the subtracted SRPA corrects the problems observed with the standard SRPA model and improves the description of excitation spectra compared to the random-phase approximation (RPA). We also study beyond-mean-field effects that arise in the subtracted SRPA by exploiting the relation between the axial breathing modes in nuclei and the effective mass in nuclear matter.A second part is dedicated to extensions.As a first step, we extend the initial numerical tools by employing the equal-filling approximation (EFA), to enable the applications to nuclei with partially-occupied orbitals. We next propose a method to estimate part of the pairing effects using correlated occupation numbers.A study of possible ways to renormalize the subtracted SRPA is carried out by employing a model which goes beyond the quasiboson approximation. This extension also relies on the use of occupation numbers as a means to include ground state correlations. We show that correlations obtained from the computation of occupation numbers in iterative RPA calculations are not sufficient to address the standard SRPA drawbacks.
47

Le schéma d'Even-Mansour paramétrable : preuves de sécurité à l'aide de la technique des coefficients H / The Tweakable Even-Mansour construction : security proofs with the H-coefficients technique

Cogliati, Benoît-Michel 30 September 2016 (has links)
Les algorithmes de chiffrement par blocs paramétrables constituent une généralisation des algorithmes de chiffrement par blocs classiques qui, en plus d'une clé et d'un message à chiffrer ou déchiffrer, admettent un paramètre additionnel, nommé tweak en anglais. Le rôle de ce paramètre additionnel est d'apporter une variabilité à l'algorithme de chiffrement, sans qu'il soit nécessaire de changer la clé ou de garder le tweak secret. Ce dernier doit également pouvoir être contrôlé par l'adversaire sans dégradation de la sécurité. Dans cette thèse nous nous intéressons à une classe particulière d'algorithmes de chiffrement par blocs, les algorithmes de chiffrement par blocs à clé alternée. Plusprécisément, nous étudions la sécurité du schéma d'Even-Mansour, qui constitue une abstraction de la structure de ces algorithmes dans le modèle de la permutation aléatoire, et cherchons à rendre ce schéma paramétrable tout en conservant de fortes garanties de sécurité. À cette fin, nous introduisons une nouvelle construction générique, baptiséeTEM, qui remplace les clés de tours de la construction d'Even-Mansour par une valeur qui dépend de la clé et du tweak, et en étudions la sécurité dans deux cas : lorsque le mixage de la clé et du tweak est linéaire ou lorsqu'il est très non-linéaire. Nos preuves de sécurité utilisent la technique des coefficients H, introduite par Jacques Patarin danssa thèse de doctorat, qui permet de transformer des problèmes cryptographiques en problèmes combinatoires sur des groupes finis. / Tweakable block ciphers are a generalization of classical block ciphers which, in addition to a key and a plaintext or a ciphertext, take an additionnal parameter called a tweak. The goal of this new parameter is to bring variability to the block cipher without needing to change the key or to keep the tweak secret. The tweak should also be adversariallycontrollable without sacrificing security. In this thesis we study a particular class of block ciphers, namely key-alternating ciphers. More precisely, we study the security of the Even-Mansour scheme, which is an abstraction of these ciphers in the random permutation model, and seek to bring tweakability to this scheme while keeping strong security guarantees. To this end, we introduce a new generic construction, dubbed TEM, which replaces the round keys from the Even-Mansour construction by a value depending on both the key and the tweak, and study its security in two cases: when the tweak and key mixing is linear or highly non-linear. Our security proofs rely on the H-coefficients technique, a technique introduced by Jacques Patarin in his PhD thesis which transforms cryptographic problems into combinatorial problems in finite groups.
48

Le cadre institutionnel de la convention des Nations Unies sur le droit de la mer en quête de son avenir / The Institutional Framework of the United Nations Convention on the Law of the Sea in Search of its Future

Konstantinidis, Ioannis 10 February 2016 (has links)
Fruit de négociations longues et ardues, la Convention des Nations Unies sur le droit de la mer signée en 1982 est sans doute l’un des traités multilatéraux les plus réussis sur le plan international. Pierre angulaire de la Convention, l’attribution du statut de « patrimoine commun de l’humanité » aux fonds marins et leur sous-sol situés au-delà des limites de la juridiction nationale ainsi qu’à leurs ressources a constitué une innovation majeure dans le domaine du droit international. Le succès de la Convention tient notamment au fait qu’elle a établi un cadre institutionnel sans précédent chargé de la mise en œuvre de la Convention et incarné par trois institutions : l’Autorité internationale des fonds marins, la Commission des limites du plateau continental et le Tribunal international du droit de la mer. Dotées de statuts juridiques divers et de compétences différentes, ces institutions fonctionnent depuis l’entrée en vigueur de la Convention en 1994. Vingt-et-un ans après sa fondation, il convient d’examiner ce cadre institutionnel dans son ensemble et d’évaluer sa mise en œuvre pour mieux comprendre le rôle complémentaire des institutions. Cette étude porte un regard critique sur la genèse, la nature, le fonctionnement et la pratique des institutions, et s’attache à les considérer dans leur interaction et leur interdépendance. Identifier les insuffisances institutionnelles et interinstitutionnelles, ainsi que les défis auxquels les institutions sont confrontées est un préalable indispensable à la recherche de solutions efficaces et viables pour surmonter les difficultés rencontrées, à la mise en œuvre harmonieuse de la Convention et à la concrétisation du concept fondamental de patrimoine commun de l’humanité. Dans cette perspective, l’importance du Tribunal dans son rôle de garant de l’intégrité de la Convention et le pouvoir créateur du juge international face aux lacunes conventionnelles méritent une attention toute particulière. / The result of protracted and arduous negotiations, the United Nations Convention on the Law of the Seasigned in 1982 is undoubtedly one of the most successful multilateral treaties at the international level. The principle of the common heritage of mankind, represented by the seabed, ocean floor and subsoil and their resources beyond the limits of national jurisdiction, is the cornerstone of the Convention and constituted a major innovation in international law. The success of the Convention lies, in particular, in the establishment of an unprecedented institutional framework, which is incarnated by three institutions: the International Seabed Authority, the Commission on the Limits of the Continental Shelf and the International Tribunal for the Law of the Sea. These institutions of diverse legal status are vested with different functions and have been in operation since the entry into force of the Convention in 1994. Twentyone years following its establishment, it is necessary to review this institutional framework as a whole and to assess its implementation in order to better understand the complementary role of the institutions. This study critically examines the genesis, the nature, the functioning and the practice of the institutions throughtheir interaction and their interdependence. Identifying institutional and inter-institutional weaknesses, and the challenges that the institutions face is an indispensable prerequisite for ensuring effective and viablesolutions, the harmonious implementation of the Convention and for giving substance to the principle ofthe common heritage of mankind. In this context, the role of the Tribunal as the guarantor of the integrityof the Convention and the creative power of the international judge merit special attention.
49

Electroweak radiative B-decays as a test of the Standard Model and beyond / Désintégrations radiatives faibles de mésons B comme un test du Modèle Standard et au-delà.

Tayduganov, Andrey 05 October 2011 (has links)
La désintégration radiative du méson B en méson étrange axiale, B--> K1(1270) gamma, a été observée récemment avec un rapport d'embranchement assez grand que B--> K* gamma. Ce processus est particulièrement intéressant car la désintégration du K1 dans un état final à trois corps nous permet de déterminer la polarisation du photon, qui est surtout gauche (droit) pour Bbar(B) dans le Modèle Standard tandis que des modèles divers de nouvelle physique prédisent une composante droite (gauche) supplémentaire. Dans cette thèse, une nouvelle méthode est proposée pour déterminer la polarisation, en exploitant la distribution totale du Dalitz plot, qui semble réduire considérablement les erreurs statistiques de la mesure du paramètre de la polarisation lambda_gamma.Cependant, cette mesure de la polarisation nécessite une connaissance détaillée de la désintégration forte K1--> K pi pi : c'est-à-dire l'ensemble complexe des différentes amplitudes d'ondes partielles en plusieurs canaux en quasi-deux-corps ainsi que leurs phases relatives. Un certain nombre d'expériences ont été faites pour extraire ces informations bien qu'il reste divers problèmes dans ces études. Dans cette thèse, nous étudions en détail ces problèmes en nous aidant d'un modèle théorique. Nous utilisons ainsi le modèle 3P0 de création d'une paire de quarks pour améliorer notre compréhension des désintégrations fortes du K1.A partir de ce modèle nous estimons les incertitudes théoriques : en particulier, celle venant de l'incertitude de l'angle de mélange du K1, et celle due à l'effet d'une phase ``off-set'' dans les désintégrations fortes en ondes-S. Selon nos estimations, les erreurs systématiques se trouvent être de l'ordre de sigma(lambda_gamma)^th<20%. D'autre part nous discutons de la sensibilité des expériences futures, notamment les usines SuperB et LHCb, pour lambda_gamma. En estimant naïvement les taux annuels d'évènements, nous trouvons que l'erreur statistique de la nouvelle méthode est sigma(lambda_gamma)^stat<10%, ce qui est deux fois plus petit qu'en utilisant seulement les distributions angulaires simples.Nous discutons également de la comparaison avec les autres méthodes de mesure de la polarisation en utilisant les processus tels que B--> K* e^+ e^-, Bd--> K* gamma et Bs--> phi gamma, pour la détermination du rapport des coefficients de Wilson C7gamma^‘eff/C7gamma^eff. Nous montrons un exemple de contraintes possibles sur C7gamma^‘eff/C7gamma^eff dans plusieurs scénarios de modèles supersymétriques. / Recently the radiative B-decay to strange axial-vector mesons, B--> K1(1270) gamma, was observed with a rather large branching ratio. This process is particularly interesting as the subsequent K1-decay into its three-body final state allows us to determine the polarization of the photon, which is mostly left(right)-handed for Bbar(B) in the Standard Model while various new physics models predict additional right(left)-handed components. In this thesis, a new method is proposed to determine the polarization, exploiting the full Dalitz plot distribution, which seems to reduce significantly the statistical errors on the polarization parameter lambda_gamma measurement.This polarization measurement requires, however a detailed knowledge of the K1--> K pi pi strong interaction decays, namely, the complex pattern of the various partial wave amplitudes into several possible quasi-two-body channels as well as their relative phases. A number of experiments have been done to extract all these information while there remain various problems in the previous studies. In this thesis, we investigate the details of these problems. As a theoretical tool, we use the 3P0 quark-pair-creation model in order to improve our understanding of strong K1 decays.Finally we try to estimate some theoretical uncertainties: in particular, the one coming from the uncertainty on the K1 mixing angle, and the effect of a possible ``off-set'' phase in strong decay S-waves. According to our estimations, the systematic errors are found to be of the order of sigma(lambda_gamma)^th<20%. On the other hand, we discuss the sensitivity of the future experiments, namely the SuperB factories and LHCb, to lambda_gamma. Naively estimating the annual signal yields, we found the statistical error of the new method to be sigma(lambda_gamma)^stat<10% which turns out to be reduced by a factor 2 with respect to using the simple angular distribution.We also discuss a comparison to the other methods of the polarization measurement using processes, such as B--> K* e^+ e^-, Bd--> K* gamma and Bs--> phi gamma, for the determination of the ratio of the Wilson coefficients C7gamma^‘eff/C7gamma^eff. We show an example of the potential constraints on C7gamma^‘eff/C7gamma^eff. in several scenarios of supersymmetric models.
50

Physical and tangible information visualization / Visualisation physique et tangible de l'information

Jansen, Yvonne 10 March 2014 (has links)
Les visualisations, dans le sens général de représentations externes et physiques de données, sont plus anciennes que l'invention de l'écriture. De manière générale, les représentations externes encouragent la cognition et la pensée visuelle, et nous avons développé des savoir-faire pour les créer et les exploiter. La révolution informatique a augmenté la quantité de données qu'il est possible de collecter et de traiter, et a diversifié les façons de les représenter visuellement. Les systèmes de visualisation assistés par ordinateur, et étudiés dans le domaine de la visualisation d'information, sont aujourd'hui si puissants et complexes que nous avons besoin de techniques d'interaction très sophistiqués. Grâce au développement des possibilités technologiques au-delà des ordinateurs de bureau, un large éventail d'utilisations émerge. Non seulement des surfaces d'affichage de formes et de tailles variées permettent de montrer des visualisations plus riches, mais aussi des dispositifs d'entrée de nouvelle génération peuvent être utilisés qui exploitent les aptitudes humaines à manipuler les objets physiques. Cependant, ces technologies sont peu étudiées dans le contexte de la visualisation d'information. Tout d'abord, un premier problème découle d'une terminologie insuffisante. Dans cette thèse, je définis et étudie entre autres le concept de corporalisation (embodiment) pour la visualisation d'information. Concernant les visualisations, la corporalisation réfère à la congruence entre les éléments visuels d'une visualisation et leurs formes physiques. Ce concept intègre des concepts déjà connus tels que la tangibilité. Par exemple, l'interaction tangible s'attache à la représentation d'objets virtuels par des objets physiques. Mais en réalité, leur forme physique n'est pas nécessairement congruente avec l'objet virtuel. Un second problème découle du peu d'exemples convaincants d'interfaces tangibles appliquées à la visualisation d'information. Dans le domaine de la visualisation d'information, les écrans standard et les dispositifs d'entrée génériques tels que la souris, sont toujours les plus courants et considérés comme les plus efficaces. Cependant, aussi bien la partie affichage que la partie contrôle fournit des possibilités de corporalisation : les dispositifs d'entrée peuvent être spécialisés et adaptés de façon à ce que leur forme physique ressemble à leur fonction; les écrans peuvent être rendus déformables ou, dans l'avenir, être composés d'une matière programmable capable de prendre n'importe quelle forme imaginable. Mais la recherche sur les écrans et matières déformables est pour l'instant principalement dirigée par l'innovation technologique sans tenir compte des applications possibles à la visualisation d'information. Dans cette thèse, j'propose la corporalisation comme principe de conception pour la visualisation d'information. Je démontre l'efficacité et l'utilisabilité des dispositifs d'entrée corporalisés ainsi que des affichages corporalisés, en présentant trois expériences contrôlées. Par la suite, je présente un modèle d'interaction conceptuel et un système de notation visuelle pour décrire, comparer et critiquer différents types de systèmes de visualisation, et j'illustre l'utilisation de ce modèle à partir d'études de cas. Enfin, je présente un outil de conception pour aider à la création de visualisations physiques. Cet outil s'adresse à des utilisateurs novices en visualisation d'information et en fabrication numérique, et peut contribuer à sensibiliser ces utilisateurs à l'intérêt d'explorer des données qui les concernent dans leur vie quotidienne. En résumé, cette thèse contribue à la compréhension de la valeur ajoutée des interfaces physiques pour la visualisation d'information. / Visualizations in the most general sense of external, physical representations of information are older than the invention of writing. Generally, external representations promote external cognition and visual thinking, and humans developed a rich set of skills for crafting and exploring them. Computers immensely increased the amount of data we can collect and process as well as diversified the ways we can represent it visually. Computer-supported visualization systems, studied in the field of information visualization (infovis), have become powerful and complex, and sophisticated interaction techniques are now necessary to control them. With the widening of technological possibilities beyond classic desktop settings, new opportunities have emerged. Not only display surfaces of arbitrary shapes and sizes can be used to show richer visualizations, but also new input technologies can be used to manipulate them. For example, tangible user interfaces are an emerging input technology that capitalizes on humans' abilities to manipulate physical objects. However, these technologies have been barely studied in the field of information visualization. A first problem is a poorly defined terminology. In this dissertation, I define and explore the conceptual space of embodiment for information visualization. For visualizations, embodiment refers to the level of congruence between the visual elements of the visualization and their physical shape. This concept subsumes previously introduced concepts such as tangibility and physicality. For example, tangible computing aims to represent virtual objects through a physical form but the form is not necessarily congruent with the virtual object. A second problem is the scarcity of convincing applications of tangible user interfaces for infovis purposes. In information visualization, standard computer displays and input devices are still widespread and considered as most effective. Both of these provide however opportunities for embodiment: input devices can be specialized and adapted so that their physical shape reflects their functionality within the system; computer displays can be substituted by transformable shape changing displays or, eventually, by programmable matter which can take any physical shape imaginable. Research on such shape-changing interfaces has so far been technology-driven while the utility of such interfaces for information visualization remained unexploited. In this thesis, I suggest embodiment as a design principle for infovis purposes, I demonstrate and validate the efficiency and usability of both embodied visualization controls and embodied visualization displays through three controlled user experiments. I then present a conceptual interaction model and visual notation system that facilitates the description, comparison and criticism of various types of visualization systems and illustrate it through case studies of currently existing point solutions. Finally, to aid the creation of physical visualizations, I present a software tool that supports users in building their own visualizations. The tool is suitable for users new to both visualization and digital fabrication, and can help to increase users' awareness of and interest in data in their everyday live. In summary, this thesis contributes to the understanding of the value of emerging physical representations for information visualization.

Page generated in 0.0225 seconds