• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 127
  • 57
  • 18
  • Tagged with
  • 202
  • 131
  • 68
  • 62
  • 36
  • 31
  • 31
  • 30
  • 29
  • 26
  • 25
  • 25
  • 24
  • 23
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Large scale platform : Instantiable models and algorithmic design of communication schemes / Modélisation des communications sur plates-formes à grande echelles

Uznanski, Przemyslaw 11 October 2013 (has links)
La popularité croissante des applications Internet très gourmandes en bande passante (P2P, streaming,...) nous pousse à considérer le problème suivant :Comment construire des systèmes de communications collectives efficaces sur une plateforme à grande échelle ? Le développement de schéma de communications collectives dans le cadre d'un réseau distribué à grande échelle est une tâche difficile, qui a été largement étudiée et dont de multiples solutions ont été proposées. Toutefois, une nouvelle approche globale et systématique est nécessaire, une approche qui combine des modèles de réseaux et la conception algorithmique.Dans ce mémoire nous proposons l'utilisation de modèles capables de capturer le comportement d'un réseau réel et suffisamment simples pour que leurs propriétés mathématiques puissentêtre étudiées et pour qu'il soit possible de créer des algorithmesoptimaux. Premièrement, nous considérons le problème d'évaluation de la bande passante disponible pour une connexion point-à-point donnée. Nousétudions la façon d'obtenir des jeux de données de bande passante, utilisant plateforme PlanetLab. Nous présentons aussi nos propres jeux de données, jeux obtenus avec bedibe, un logiciel que nous avons développé. Ces données sont nécessaires pour évaluer les performances des différents algorithmesde réseau. Bien qu'on trouve de nombreux jeux de données de latence,les jeux de données de bande passante sont très rares. Nous présentons ensuite un modèle, appelé LastMile, qui estime la bande passante. En profitant des jeux de données décrits précédemment, nous montrons que cet algorithme est capable de prédire la bande passante entre deux noeuds donnés avec une précision comparable au meilleur algorithme connu de prédiction (DMF). De plus le modèle LastMile s'étend naturellement aux prédictions dans le scénario de congestion (plusieurs connexions partageant un même lien). Nous sommes effectivement en mesure de démontrer, à l'aide des ensembles de données PlanetLab, que la prédiction LastMile est préférable dans des tels scénarios.Dans le troisième chapitre, nous proposons des nouveaux algorithmes pour résoudre le problème de diffusion. Nous supposons que le réseau est modélisé par le modèle LastMile. Nous montrons que, sous cette hypothèse, nous sommes en mesure de fournir des algorithmes avec des ratios d'approximation élevés. De plus nous étendons le modèle LastMile, de manière à y intégrer des artéfacts de connectivité, dans notre cas ce sont des firewalls qui empêchent certains nœuds de communiquer directement entre eux. Dans ce dernier cas, nous sommes également en mesure de fournir des algorithmes d'approximation avec des garanties de performances prouvables. Les chapitres 1 à 3 forment les trois étapes accomplies de notre programme qui visent trois buts. Premièrement, développer à partir dezéro un modèle de réseau de communication. Deuxièmement, prouver expérimentalement sa performance. Troisièmement, montrer qu'il peut être utilisé pour développer des algorithmes qui résolvent les problèmes de communications collectives. Dans le 4e chapitre, nous montrons comment on peut concevoir dessystèmes de communication efficaces, selon différents modèles decoûts, en utilisant des techniques combinatoires,tout en utilisant des hypothèses simplificatrices sur la structure duréseau et les requêtes. Ce travail est complémentaire au chapitre précédent puisque auparavant, nous avons adopté l'hypothèse que les connectionsétaient autonomes (i.e. nous n'avons aucun contrôle sur le routage des connexions simples). Dans le chapitre 4, nous montrons comment résoudre le problème du routage économe en énergie, étant donnée une topologie fixée. / The increasing popularity of Internet bandwidth-intensive applications prompts us to consider followingproblem: How to compute efficient collective communication schemes on large-scale platform?The issue of designing a collective communication in the context of a large scale distributed networkis a difficult and a multi-level problem. A lot of solutions have been extensively studied andproposed. But a new, comprehensive and systematic approach is required, that combines networkmodels and algorithmic design of solutions.In this work we advocate the use of models that are able to capture real-life network behavior,but also are simple enough that a mathematical analysis of their properties and the design of optimalalgorithms is achievable.First, we consider the problem of the measuring available bandwidth for a given point-topointconnection. We discuss how to obtain reliable datasets of bandwidth measurements usingPlanetLab platform, and we provide our own datasets together with the distributed software usedto obtain it. While those datasets are not a part of our model per se, they are necessary whenevaluating the performance of various network algorithms. Such datasets are common for latencyrelatedproblems, but very rare when dealing with bandwidth-related ones.Then, we advocate for a model that tries to accurately capture the capabilities of a network,named LastMile model. This model assumes that essentially the congestion happens at the edgesconnecting machines to the wide Internet. It has a natural consequence in a bandwidth predictionalgorithm based on this model. Using datasets described earlier, we prove that this algorithm is ableto predict with an accuracy comparable to best known network prediction algorithm (DistributedMatrix Factorization) available bandwidth between two given nodes. While we were unable toimprove upon DMF algorithm in the field of point-to-point prediction, we show that our algorithmhas a clear advantage coming from its simplicity, i.e. it naturally extends to the network predictionsunder congestion scenario (multiple connections sharing a bandwidth over a single link). We areactually able to show, using PlanetLab datasets, that LastMile prediction is better in such scenarios.In the third chapter, we propose new algorithms for solving the large scale broadcast problem.We assume that the network is modeled by the LastMile model. We show that under thisassumption, we are able to provide algorithms with provable, strong approximation ratios. Takingadvantage of the simplicity and elasticity of the model, we can even extend it, so that it captures theidea of connectivity artifacts, in our case firewalls preventing some nodes to communicate directlybetween each other. In the extended case we are also able to provide approximation algorithmswith provable performance.The chapters 1 to 3 form three successful steps of our program to develop from scratch amathematical network communication model, prove it experimentally, and show that it can beapplied to develop algorithms solving hard problems related to design of communication schemesin networks.In the chapter 4 we show how under different network cost models, using some simplifyingassumptions on the structure of network and queries, one can design very efficient communicationschemes using simple combinatorial techniques. This work is complementary to the previous chapter in the sense that previously when designing communication schemes, we assumed atomicityof connections, i.e. that we have no control over routing of simple connections. In chapter 4 weshow how to solve the problem of an efficient routing of network request, given that we know thetopology of the network. It shows the importance of instantiating the parameters and the structureof the network in the context of designing efficient communication schemes.
132

Dynamical study of diatomics : applications to astrochemistry, quantum control and quantum computing / Étude dynamique de molécules diatomiques : applications en astrochimie, en contrôle quantique et en quantum computing

Vranckx, Stéphane 20 August 2014 (has links)
Dans cette thèse, nous étudions théoriquement les propriétés de molécules diatomiques, leur dynamique de réaction ainsi que le contrôle de cette dynamique à l'aide de champs laser. Notre travail porte plus spécifiquement sur trois espèces :• HeH⁺, un composé-clé en astrochimie considéré comme la première espèce moléculaire qui s'est formée dans l'univers ;• CO²⁺, un dication métastable qui se prête bien à des expériences de contrôle quantique en raison du relativement long temps de vie de son état vibrationnel le plus bas ;• ⁴¹K⁸⁷Rb, une molécule polaire qui présente la particularité de pouvoir être formée à très basse température et piégée, ce qui en fait un bon support physique potentiel pour la réalisation d'un ordinateur quantique moléculaire. Nous utilisons tout d'abord des méthodes de calcul ab initio afin d'obtenir les courbes d'énergie potentielle des premiers états singulets et triplets de HeH⁺ avec un haut de degré de précision, ainsi que les courbes d'énergie potentielle, les moments dipolaires de transition et les couplages non-adiabatiques radiaux de l'état fondamental ³Π de CO²⁺ et de ses 11 premiers états ³Σ⁻.Ensuite, nous utilisons ces données ab initio pour calculer les sections efficaces de photodissociation et d'association radiative des états a et b ³Σ⁺ de HeH⁺, ainsi que les constantes cinétiques associées à ces processus dans les conditions rencontrées dans des environnements astrophysiques. Les sections efficaces de photodissociation du niveau vibrationnel le plus bas de CO²⁺ sont également calculées. Nous allons ensuite un cran plus loin en optimisant des champs laser qui guident la dynamique de photodissociation de HeH⁺ et CO²⁺ vers des canaux de dissociation spécifiques. Nous comparons deux méthodes d'optimisation de ces champs: une approche de contrôle local basée sur les opérateurs de Møller et la théorie du contrôle optimal. Dans le deux cas, nous incluons une contrainte qui minimise l'aire des champs. Enfin, nous nous concentrons sur l'une des applications possibles du contrôle laser à haute fidélité : l'utilisation de petits systèmes moléculaires comme ordinateurs quantiques. Nous étudions plus spécifiquement l'implémentation possible d'opérations logiques intra- et intermoléculaires sur des données encodées dans des états hyperfins de molécules de ⁴¹K⁸⁷Rb piégées, ce qui ouvre des perspectives intéressantes en terme d'extensibilité. / In this work, we theoretically study the properties of diatomic molecular systems, their dynamics, and the control thereof through the use of laser fields. We more specifically study three compounds::• HeH⁺, a species of great astrochemical importance which is thought to be the first molecular species to have formed in the universe; :• CO²⁺, a metastable dication of particular interest in quantum control experiments due to its long-lived lowest vibrational level;:• ⁴¹K⁸⁷Rb, a polar molecule that can be formed at very low temperature and trapped, making it a good candidate for quantum computing schemes.First, we use ab initio methods to compute accurate potential energy curves for the lowest singlet and triplet states of HeH⁺ as well as the potential energy curves, transition dipole moments and nonadiabatic radial couplings of the ground ³Π state of CO²⁺ and of its 11 lowest ³Σ⁻states.In a second step, we use this ab initio data to compute the photodissociation and radiative association cross sections for the a and b ³Σ⁺ states of HeH⁺, as well as the values of the corresponding rate constants for astrophysical environments. The photodissociation cross sections from the lowest vibrational level of CO²⁺ is also determined.Going one step further, we optimize laser control fields that drive the photodissociation dynamics of HeH⁺ and CO²⁺ towards specific channels. We compare two field optimization methods: a Møller operator-based Local Control approach and Optimal Control Theory. In both cases, we add a constraint that minimizes the area of the optimized fields.Finally, we focus on one of the potential applications of high-fidelity laser control: the use of small molecular systems as quantum computers. We more specifically study the potential implementation of both intra- and intermolecular logic gates on data encoded in hyperfine states of trapped ultracold polar ⁴¹K⁸⁷Rb molecules, opening interesting perspectives in terms of extensibility.
133

Microscopie et spectroscopie de photodétachement; mesure de la section efficace de photodétachement de H- à 1064 nm par observation du comportement asymptotique du régime saturé / Photodetachment spectroscopy and microscopy; measurement of the photodetachment cross section of H- at 1064 nm by the observation of the asymptotic behaviour in the saturated regime

Vandevraye, Mickael 13 December 2013 (has links)
Dans cette thèse, nous initions la démonstration, à échelle réduite, de la faisabilité du photodétachement presque total, par laser, d’un jet d'ions négatifs d'hydrogène en cavité optique Fabry-Perot pour les futurs injecteurs de neutres destinés au chauffage des plasmas des réacteurs de fusion nucléaire.Nous élaborons une nouvelle méthode de mesure d’une section efficace de photodétachement, dont la connaissance à la longueur d’onde d’excitation est requise pour le dimensionnement de la cavité Fabry-Perot, basée sur l’observation de la saturation en régime d’éclairement impulsionnel. Le calcul analytique de l’accroissement du signal de détachement produit lors de l’éclairement d’un jet d’ions par une impulsion laser supposée gaussienne, fait apparaître une contrainte mathématique sur le flux requis pour transiter vers le régime saturé. Cette contrainte est une caractéristique de la transition vers la saturation pour toutes les expériences réalisées en faisceau gaussien et pour tous les processus d’interaction lumière-matière linéaires. Avec cette méthode, nous déduisons une section efficace de photodétachement de H- à 1064 nm – longueur d’onde sélectionnée pour les futurs injecteurs de neutres – en léger désaccord avec les prédictions théoriques.Pour réduire les exigences technologiques sur la cavité et le laser, nous étudions les résonances de Landau qui apparaissent dans le spectre de photodétachement en champ magnétique. S’asservir sur l’une de ces résonances permettrait d’augmenter la probabilité de photodétachement à un flux donné.Par ailleurs, nous présentons nos mesures des affinités électroniques du phosphore, du sélénium et de l’étain, réalisées avec le microscope de photodétachement. L'expérience de microscopie de photodétachement du phosphore est la première où l’atome neutre est laissé dans un terme excité. / In this thesis, we initiate the demonstration, at a reduced scale, of the feasibility of the almost-complete laser photodetachment of negative hydrogen ion beams in a Fabry-Perot optical cavity for future neutral beam injectors for the heating of fusion power plants plasmas.We develop a new method to measure a photodetachement cross section, the knowledge of which at the exciting wavelength is needed to scale the Fabry-Perot cavity, based on the observation of the saturation in a pulsed lighting regime. The analytical calculus of the detachment signal growth produced while illuminating a negative ion beam with a Gaussian laser pulse bring out a mathematical constraint on the required flux to pass through the saturated regime. This constraint is the signature of the transition toward the saturation for all experiment carried out in Gaussian beam and for all linear light-matter interaction processes. With this method, we measure the photodetachement cross section of H- at 1064 nm – selected wavelength for future neutral beam injectors – in slight disagreement with theoretical predictions.To reduce the technological requirement on the Fabry-Perot cavity and the laser, we study Landau resonances which appear in the photodetachement spectrum. Locking the laser on one of these resonances would allow increasing the photodetachment probability at a given flux.We also present our phosphorus, selenium and tin electron affinity measurements carried out with the photodetachment microscope. The photodetachment microscopy experiment of phosphorus is the first one where the neutral atom is left in an excited term.
134

Le développement professionnel des enseignants expérimentés par la transmission explicite de pratiques entre pairs / Professional development of experienced teachers through the explicit transmission of practices between peers

Talérien, Jean Stéphane 16 November 2018 (has links)
La littérature scientifique internationale montre la réalité des apprentissages informels des enseignants sur leur lieu de travail, au sein des établissements scolaires. Toutefois ces apprentissages présentent plusieurs limites et sont qualitativement de moins bonne qualité que les apprentissages réalisés en environnement organisé. La présente recherche a précisément pour objet le développement professionnel des enseignants expérimentés à travers un dispositif de formation continue prenant en compte leurs apprentissages informels. Cette étude s’inscrit dans un programme de recherche anthropoculturel (Bertone, 2011 ; Chaliès, 2012) dont les principaux présupposés théoriques sont empruntés à la philosophie du langage ordinaire (Wittgenstein, 2004). Elle a été menée dans le cadre de deux dispositifs innovants de formation permettant à un enseignant expérimenté (le pair formateur) d’enseigner ostensivement l’une de ses pratiques spécifiques jugées efficaces à un pair enseignant expérimenté (le pair formé). Les principaux résultats de la recherche montrent la modélisation de l’activité professionnelle des pairs formateurs et contribuent ainsi à documenter la recherche internationale sur les apprentissages informels des enseignants du primaire. Ils montrent également l’apprentissage de nouvelles pratiques professionnelles de la part des pairs formés entendu comme l’acquisition de nouveaux systèmes de règles. Les résultats montrent enfin le développement professionnel des pairs formés entendu comme l’interprétation des règles apprises dans des circonstances nouvelles ainsi que le développement réflexif de l’activité professionnelle des pairs formateurs. / The international scientific literature shows the reality of teachers' informal learning in the workplace, within schools. However, these learnings have several limitations and are of lower quality than those that are carried out in an organized environment. The purpose of this research is precisely the professional development of experienced teachers through a professional development program that considers their informal learning.This study is part of an anthropocultural research program (Bertone, 2011; Chaliès, 2012) whose main theoretical assumptions are borrowed from the philosophy of ordinary language (Wittgenstein, 2004). It was conducted within the framework of two innovative training devices allowing an experienced teacher (the peer trainer) to ostensibly teach one of his specific practices considered effective to an experienced peer teacher (the trained peer). The main research results show the modelling of the professional activity of peer trainers and thus contribute to documenting international research on informal learning by primary school teachers. They also show the learning of new professional practices from trained peers understood as the acquisition of new rule systems. Finally, the results show the professional development of the trained peers understood as the interpretation of the rules learned in new circumstances as well as the reflexive development of the professional activity of the trained peers.
135

Estimation and misspecification Risks in VaR estimation / Estimation and misspecification risks in VaR evaluation

Telmoudi, Fedya 19 December 2014 (has links)
Dans cette thèse, nous étudions l'estimation de la valeur à risque conditionnelle (VaR) en tenant compte du risque d'estimation et du risque de modèle. Tout d'abord, nous considérons une méthode en deux étapes pour estimer la VaR. La première étape évalue le paramètre de volatilité en utilisant un estimateur quasi maximum de vraisemblance généralisé (gQMLE) fondé sur une densité instrumentale h. La seconde étape estime un quantile des innovations à partir du quantile empirique des résidus obtenus dans la première étape. Nous donnons des conditions sous lesquelles l'estimateur en deux étapes de la VaR est convergent et asymptotiquement normal. Nous comparons également les efficacités des estimateurs obtenus pour divers choix de la densité instrumentale h. Lorsque l'innovation n'est pas de densité h, la première étape donne généralement un estimateur biaisé de paramètre de volatilité et la seconde étape donne aussi un estimateur biaisé du quantile des innovations. Cependant, nous montrons que les deux erreurs se contrebalancent pour donner une estimation consistante de la VaR. Nous nous concentrons ensuite sur l'estimation de la VaR dans le cadre de modèles GARCH en utilisant le gQMLE fondé sur la classe des densités instrumentales double gamma généralisées qui contient la distribution gaussienne. Notre objectif est de comparer la performance du QMLE gaussien par rapport à celle du gQMLE. Le choix de l'estimateur optimal dépend essentiellement du paramètre d qui minimise la variance asymptotique. Nous testons si le paramètre d qui minimise la variance asymptotique est égal à 2. Lorsque le test est appliqué sur des séries réelles de rendements financiers, l'hypothèse stipulant l'optimalité du QMLE gaussien est généralement rejetée. Finalement, nous considérons les méthodes non-paramétriques d'apprentissage automatique pour estimer la VaR. Ces méthodes visent à s'affranchir du risque de modèle car elles ne reposent pas sur une forme spécifique de la volatilité. Nous utilisons la technique des machines à vecteurs de support pour la régression (SVR) basée sur la fonction de perte moindres carrés (en anglais LS). Pour améliorer la solution du modèle LS-SVR nous utilisons les modèles LS-SVR pondérés et LS-SVR de taille fixe. Des illustrations numériques mettent en évidence l'apport des modèles proposés pour estimer la VaR en tenant compte des risques de spécification et d'estimation. / In this thesis, we study the problem of conditional Value at Risk (VaR) estimation taking into account estimation risk and model risk. First, we considered a two-step method for VaR estimation. The first step estimates the volatility parameter using a generalized quasi maximum likelihood estimator (gQMLE) based on an instrumental density h. The second step estimates a quantile of innovations from the empirical quantile of residuals obtained in the first step. We give conditions under which the two-step estimator of the VaR is consistent and asymptotically normal. We also compare the efficiencies of the estimators for various instrumental densities h. When the distribution of is not the density h the first step usually gives a biased estimator of the volatility parameter and the second step gives a biased estimator of the quantile of the innovations. However, we show that both errors counterbalance each other to give a consistent estimate of the VaR. We then focus on the VaR estimation within the framework of GARCH models using the gQMLE based on a class of instrumental densities called double generalized gamma which contains the Gaussian distribution. Our goal is to compare the performance of the Gaussian QMLE against the gQMLE. The choice of the optimal estimator depends on the value of d that minimizes the asymptotic variance. We test if this parameter is equal 2. When the test is applied to real series of financial returns, the hypothesis stating the optimality of Gaussian QMLE is generally rejected. Finally, we consider non-parametric machine learning models for VaR estimation. These methods are designed to eliminate model risk because they are not based on a specific form of volatility. We use the support vector machine model for regression (SVR) based on the least square loss function (LS). In order to improve the solution of LS-SVR model, we used the weighted LS-SVR and the fixed size LS-SVR models. Numerical illustrations highlight the contribution of the proposed models for VaR estimation taking into account the risk of specification and estimation.
136

Studies on K-shell photoionization of nitrogen ions and on valence photoionization of atomic and small molecular ions / Étude de la Photoionisation en Couche K des Ions d'Azote et de la Photoionisation en Couche de Valence d’Ions Atomiques et de Petits Ions Moléculaires

Alshorman, Mohammad 25 February 2014 (has links)
Dans ce travail de thèse, la photoionisation en couche K d’ions multichargés a été étudiée ainsi que la photoionisation en couche de valence d’ions atomiques et de petits ions moléculaires. Les sections efficaces de photoionisation en couche K ont été mesurées pour les ions de la série iso-nucléaire de l’azote, de N+ à N4+, en utilisant le montage de faisceaux ion-photon colinéaires, et la photoionisation en couche de valence des ions Xe+ et Kr+ et des petits ions moléculaires CO2+ et N2+ en utilisant à la fois la technique de faisceaux colinéaires et un piége à ions . Toutes les expériences ont utilisé le rayonnement synchrotron émis par l’anneau de stockage SOLEIL à Saint-Aubin, France. La combinaison des deux techniques permet la mesure sur une échelle absolue des sections efficaces de photoionisation des ions dans l'état fondamental pur.Les sections efficaces expérimentales de photoionisation en couche K sont comparées aux résultats théoriques existants utilisant différentes méthodes : Multi-Configuration Dirac–Fock (MCDF), R-matrice et la Constante d’Ecran par Unité de charge Nucléaire (SCUNC). L’interaction entre l’expérience et la théorie a permis l’identification et la caractérisation des résonances 1s→2p et 1s→3p observées dans les spectres. Les sections efficaces expérimentales de photoionisation en couche de valence mesurées pour les ions Xe+ et Kr+ ont été comparées aux résultats de calculs MCDF obtenus pour le processus de photoionisation directe.La qualité des mesures absolues de section efficace utilisant la technique de faisceaux colinéaires est fortement dépendante de la performance de la source d’ions ECR (Electron Cyclotron Resonance). Afin d'améliorer le courant d'ions dans la région d'interaction, différents systèmes d'extraction des ions à deux et trois électrodes ont été simulés en utilisant les programmes ECRopt et IGUN. / In this thesis work, the K-shell photoionization of multi-charged ions has been studied as well as the valence photoionization of atomic and small molecular ions. The K-shell photoionization cross sections were measured for nitrogen iso-nuclear series, from N+ to N4+ ions using the ion–photon merged beam technique and the valence photoionization cross sections for Xe+ and Kr+ ions and the small molecular ions CO_2^+ and N_2^+ using both the merged beam and ion trap techniques at the SOLEIL synchrotron radiation facility in Saint–Aubin, France. Combination of the two techniques allows for the measurement of the pure ground state ionization cross section on an absolute scale.The experimental K-shell photoionization cross sections are compared with theoretical results obtained from the multi-configuration Dirac–Fock (MCDF), R-matrix and the Screening Constant by Unit Nuclear Charge (SCUNC) methods. The interplay between experiment and theory enables the identification and characterization of the strong 1s→2p and 1s→3p resonances observed in the spectra. The experimental valence photoionization cross sections for Xe+ and Kr+ ions are compared with MCDF calculations results obtained for the direct photoionization process. The quality of the absolute cross section measurements using the merged beam techniques is strongly dependent on the performance of Electron Cyclotron Resonance Ion Source (ECRIS). In order to improve the current of ions in the interaction region, the ions extraction system and transport was simulated by using IGUN program and ECRopt.
137

Etude de la méthode de substitution à partir de la mesure simultanée des probabilités de fission et d'émission gamma des actinides 236U, 238U, 237Np et 238Np / Study of the surrogate method through the simultaneous measurement of the gamma-decay and fission-decay probabilities for the actinides 236U, 238U, 237Np and 238Np

Ducasse, Quentin 26 October 2015 (has links)
Les sections efficaces induites par neutrons des noyaux de courte durée de vie jouent un rôle important dans des domaines variés parmi la physique fondamentale, l'astrophysique ou l'énergie nucléaire. Malheureusement de nombreuses contraintes liées à la radiotoxicité des cibles rendent la mesure de ces sections efficaces souvent très difficiles. La méthode de substitution est une technique de mesure indirecte de sections efficaces neutroniques de noyaux radioactifs qui à l'avantage de s'affranchir de ces contraintes. Pour la première fois dans ce type d'expérience,les probabilités de fission et d'émission gamma sont mesurées simultanément, pour les actinides236U, 238U, 237Np et 238Np dans le but d'étudier la validité de la méthode. Une des difficultés provient de la soustraction des gammas des fragments de fission et cette mesure constitue en cela un véritable défi. Cette expérience de mesure simultanée a été effectuée au cyclotron d'Oslo.A une énergie d'excitation fixée du noyau formé, les résultats montrent que les probabilités de fission de substitution sont en bon accord avec celles induites par neutron alors que les probabilités d'émission gamma mesurées sont plusieurs fois plus élevées. Ces écarts sont liés à la différence distribution spin peuplée par le noyau entre les deux méthodes. Des calculs de modèles statistiques avec des paramètres standards n'ont pas permis de reproduire cette insensibilité de la probabilité de fission vis à vis du spin du noyau. La reproduction des observations expérimentales devient possible en considérant un moment d'inertie du noyau fissionnant qui augmente plus rapidement avec la déformation du noyau que ne le préconisent les paramètres standards. De nouveaux efforts théoriques sont à fournir pour améliorer la compréhension de nos résultats. / Neutron-induced cross sections of short-lived nuclei are important in various fields such as fundamental physics, astrophysics or nuclear energy. However, these cross sections are often extremely difficult to measure due to high radioactivity of the targets involved. The surrogate-reaction method is an indirect way to determine neutron-induced cross sections of short-lived nuclei. In order to study the validity of the method, we have measured for the very first time in a surrogate-reaction experiment simultaneously fission and gamma-decay probabilities for the actinides 236U, 238U, 237Np and 238Np. This is challenging because one has to remove the gamma rays emitted by the fission fragments. The measurement was performed at the Oslocyclotron.Our results show that for a given excitation energy, our gamma-decay probabilities are several times higher than neutron-induced probabilities, which can be attributed to differences in spin distribution between the two types of reactions. On the other hand, our fission probabilities are in good agreement with neutron-induced data. Statistical-model calculations applied with standardparameters cannot reproduce the weak spin sensibility to variations of the angular momentum observed for the fission probabilities. However, it is possible to reproduce the experimental observations by considering a stronger increase of the moment of inertia of the fissionning nucleus with deformation. Further theoretical efforts are needed to improve the understanding of our results
138

Two-Photon Interactions in Proton-Proton Collisions with the ATLAS Experiment at the LHC / Interactions photon-photon en collisions proton-proton dans l'expérience ATLAS au LHC

Dyndal, Mateusz 21 September 2015 (has links)
Cette thèse présente la première mesure de la section efficace exclusive photon-photon-> di-leptons en collisions proton-proton à une énergie dans le centre de masse de 7 TeV dans l'expérience ATLAS au LHC. La mesure est réalisée avec toutes les données accumulées en 2011, pour une luminosité intégrée de 4.6/fb. La première partie de la thèse est dédiée à la description théorique de ce type d'interaction. Le calcul de l'amplitude de la réaction photon-photon-> di-leptons est bien connu dans le cadre du modèle standard de la physique des particules. Cependant, une complication apparaît au LHC avec la prise en compte des effets de taille finie du proton. Le calcul de cet effet est l'une de mes contributions personnelles. Il a donné lieu à une publication. La section efficace nominale est réduite d'environ 20% du fait de cet effet, ce qui n'est pas négligeable. La seconde partie de la thèse concerne la description des détecteurs de l'expérience ATLAS. J'y décris en particulier le travail que j'ai réalisé sur la simulation de certains de ces détecteurs, en particulier les détecteurs situés dans la ligne de vol des protons, qui permettent la mesure de la trajectoire de ces derniers. Enfin, la dernière partie de la thèse concerne la mesure expérimentale de la section efficace de la réaction photon-photon-> di-leptons en collisions proton-proton, comme mentionnée plus haut. Lorsque la paire de leptons est une paire de muons, on trouve que la section efficace exclusive est égale à 0.628 ± 0.032(stat) ± 0.021(syst) pb, pour le domaine cinématique suivant M(di-muons)>20 GeV, pT(muons)>10 GeV et |muons)<2.4. Lorsque la paire de leptons est une paire électron-positrons, nous avons obtenu une section efficace exclusive égale à 0.428 ± 0.035(stat) ± 0.018(syst) pb, pour M(ee)>24 GeV, pT(e)>12 GeV et |muons (e)|<2.4. De plus, ces mesures confirment que le facteur de réduction par rapport à la prédiction théorique nominale (sans prendre en compte les effets de taille finie du proton) est bien de 20% dans le domaine d'énergie de la mesure. Cette analyse a été publiée par la collaboration ATLAS. Une perspective pour cette mesure est de la réaliser à plus haute énergie avec les nouvelles données accumulées par l'expérience ATLAS à partir de 2015. De plus, une mesure directe de la trajectoire des protons pourrait aider à la sélection exclusive. / This thesis presents a first measurement of the exclusive cross section for the reaction photon-photon-> di-leptons in proton-proton collisions at center of mass energy of 7 TeV in the ATLAS experiment at the LHC. The measurement is realized with all data accumulated during the year 2011 with an integrated luminosity of 4.6/fb. The first part of the thesis is dedicated to the theoretical description of this kind of interactions. The calculus of the amplitude for the reaction photon-photon-> di-leptons is well known in the context of the standard model of particle physics. However, the situation at the LHC is more complex. It requires taking into account the finite size effects of the protons. The understanding of this effect and its evaluation is one of my personal contributions, which has been published. The nominal cross section is then reduced by about 20% following this effect, which is non negligible. The second part of the thesis concerns the description of the detectors of the ATLAS experiment. In particular, I describe the work I have realized on the simulation of some of these devices, mainly the detectors located in the direction of flight of the protons that allows a measurement of the trajectory of the scattered (intact) protons. Finally, the last part of the thesis is devoted to the experimental measurement of the cross section of the reaction photon-photon-> di-leptons in proton-proton collisions, as mentioned above. When the lepton pair is a pair of muons, we find an exclusive cross section of 0.628 ± 0.032(stat) ± 0.021(syst) pb, for the kinematical domain M(di-muons)>20 GeV, pT(muons)>10 GeV and |muons|<2.4. When the lepton pair is a pair of electrons (positrons), we have obtained an exclusive cross section of 0.428 ± 0.035(stat) ± 0.018(syst) pb, for M(ee)>24 GeV, pT(e)>12 GeV et |muons(e)|<2.4. Moreover, these measurements confirm that the reduction (suppression) factor with respect to the nominal theory prediction (without taking into account the finite size effect of the protons) is of the order of 20% in the energy domain of the measurement. A perspective for this work is to make the measurement at larger energy with the new data recorded by the ATLAS experiment since 2015. Moreover, a direct measurement of the trajectory of protons could help for the exclusive selection.
139

Towards an electrically-injected optical parametric oscillator / Vers un oscillateur paramétrique optique injecté électriquement

Bernard, Alice 10 July 2018 (has links)
Le travail présenté dans cette thèse porte sur la conception, la fabrication et la caractérisation de sources prévues pour fonctionner à la fois comme diode laser et comme oscillateur paramétrique optique. Ces lasers sont conçus pour émettre sur un mode d’ordre supérieur afin de permettre une conversion de fréquence paramétrique avec les modes fondamentaux du guide à la fréquence moitié. La diode laser et l’OPO partagent la même cavité optique ; pour assurer l’accord de phase et corriger les écarts à la structure nominale induits lors de l’élaboration par épitaxie, la largeur de ruban est utilisée comme paramètre de contrôle des indices efficaces. Les diodes proposées sont donc étroites (3-5 µm) et gravées profondément. En conséquence, il est potentiellement intéressant d’utiliser des boîtes quantiques pour limiter les recombinaisons non radiatives sur les flancs. Dans le cadre de ce travail, nous avons conçu des diodes basées sur ce principe pour les deux systèmes GaAs/AlGaAs et InGaAsP/InP, qui permettent respectivement d’obtenir potentiellement une émission OPO au voisinage de 2 µm ou de 3 µm. Dans le cas de l’InGaAsP/InP, nous avons étudié au préalable l’indice de réfraction des alliages InGaAsP dans une plage de longueur d’onde jusque-là non couverte par la littérature. Ces données ont été acquises via des mesures d’indice efficace (m-lines) de couches guidantes d’InGaAsP épitaxiées en accord de maille sur un substrat d’InP. Pour des structures laser-OPO optimisées, les simulations montrent que le seuil OPO devrait être obtenu pour une puissance de pompe intracavité de quelques centaines de mW, qu’il est réaliste d’atteindre pour des diodes laser à l’état de l’art. Nous avons étudié les propriétés électro-optiques de diodes lasers à puits quantiques GaAs/AlGaAs réalisées sur la base de nos dessins; l’observation de l’effet laser sur le mode TE2 valide le dessin vertical original de nos diodes lasers. En vue de la fabrication de laser-OPO à ruban étroit, nous avons développé des procédés de fabrication nouveaux sur la Plateforme Technologique Amont (CEA – Grenoble), notamment la gravure profonde (>10 µm) par ICP-RIE. Enfin, nous avons proposé un concept alternatif de diode-OPO, comprenant des cavités laser et OPO distinctes couplées par un taper adiabatique / The work presented in this thesis deals with the design, fabrication and characterization of sources intended to function as both laser diodes and optical parametric oscillators. These lasers are designed to emit on a higher order mode to allow parametric frequency conversion with fundamental modes of the guide at half frequency. The laser diode and OPO share the same optical cavity; to ensure phase matching and correct nominal structure deviations induced during epitaxial processing, the ridge width is used as a control parameter of the effective indices. The proposed diodes are therefore narrow (3-5 μm) and etched deeply. Consequently, it is potentially interesting to use quantum dots to limit non-radiative recombination on the sidewalls. In the context of this work, we have designed diodes based on this principle for the two GaAs/AlGaAs and InGaAsP/InP systems, which respectively allow to potentially obtain an OPO emission in the vicinity of 2 μm or 3 μm. In the case of InGaAsP/InP, we previously studied the refractive index of InGaAsP alloys in a wavelength range not covered by literature to this day. This data was acquired via effective m-line index measurements of InGaAsP guiding layers epitaxially grown on and lattice-matched to an InP substrate. For optimized laser-OPO structures, simulations show that the OPO threshold should be obtained for an intracavity pump power of a few hundred mW, which is realistic to achieve for state-of-the-art laser diodes. We have studied the electro-optical properties of GaAs/AlGaAs quantum well laser diodes made on the basis of our designs; the observation of the laser effect on the TE2 mode validates the original vertical design of our laser diodes. For the manufacture of narrow-ridge lasers-OPOs, we have developed new manufacturing processes on the Plateforme Technologique Amont (Upstream Technology Platform, CEA - Grenoble), including deep etching (> 10 μm) by ICP-RIE. Finally, we have proposed an alternative diode-OPO concept, comprising distinct laser and OPO cavities coupled by an adiabatic taper
140

Optimisation multicritères de la qualité de service dans les réseaux de capteurs multimédia sans fil / Multicriteria optimization of the quality of service in the wireless multimedia sensor networks

Alaoui Fdili, Othmane 10 June 2015 (has links)
Les progrès réalisés en systèmes micro-électro-mécaniques couplés avec leur convergence vers les systèmes de communication sans fil, ont permis l'émergence des réseaux de capteurs sans fil (RCSF). Les contraintes de ces réseaux font que tous les efforts soient fournis pour proposer des solutions économes en énergie. Avec les récents développements des technologies CMOS, des capteurs d'images à faible coût ont été développés. En conséquence, un nouveau dérivé des RCSF, qui sont les Réseaux de Capteurs Vidéo Sans Fil (RCVSF), a été proposé. La particularité des données vidéo ainsi que les contraintes inhérentes aux nœuds ont introduit de nouveaux défis. Dans cette thèse, nous proposons deux solutions basées sur l'approche inter-couches pour la livraison de la vidéo sur les RCVSF. La première solution propose un nouveau schéma de compression vidéo adaptatif, efficace en énergie et basé sur la norme de compression vidéo H.264/AVC. Le flux vidéo est ensuite géré par une version améliorée du protocole MMSPEED que nous proposons et notons EQBSA-MMSPEED. Les résultats des simulations montrent que la durée de vie du réseau est étendue de 33%, tout en améliorant la qualité du flux vidéo reçu de 12%. Dans la deuxième solution, nous enrichissons le schéma de compression de modèles mathématiques pour prévoir la consommation d'énergie et la distorsion de l'image lors des phases d'encodage et de transmission. Le flux vidéo est géré par un nouveau protocole de routage efficace en énergie et à fiabilité améliorée noté ERMM. Comparée à une approche basique, cette solution réalise une extension de la durée de vie du réseau de 15%, tout en améliorant la qualité du flux vidéo reçu de 35%. / Thanks to the valuable advances in Micro Electro-Mechanical Systems coupled with their convergence to wireless communication systems, the Wireless Sensor Networks (WSN). In the WSN context, all the efforts are made in order to propose energy-efficient solutions. With the recent developments in CMOS technology, low-cost imaging sensors have been developed. As a result, a new derivative of the WSN, which is the Wireless Video Sensor Network (WVSN), has been proposed. The particularities of the video data as well as the inherent constraints of the nodes have introduced new challenges. In this thesis, we propose two cross-layer based solutions for video delivery over the WVSN. The first solution proposes a new energy efficient and adaptive video compression scheme dedicated to the WVSNs, based on the H.264/AVC video compression standard. The video stream is then handled by an enhanced version of MMSPEED protocol, that we propose and note EQBSA-MMSPEED. Performance evaluation shows that the lifetime of the network is extended by 33%, while improving the video quality of the received stream by 12%. In the second solution, we enrich our compression scheme with mathematical models to predict the energy consumption and the video distortion during the encoding and the transmission phases. The video stream is then handled by a novel energy efficient and improved reliability routing protocol, that we note ERMM. Compared to a basic approach, this solution is extending the network lifetime by 15%, while improving the quality of the received video stream by 35%.

Page generated in 0.0306 seconds