• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 430
  • 227
  • 53
  • 42
  • 16
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1040
  • 1040
  • 1040
  • 544
  • 533
  • 240
  • 228
  • 219
  • 193
  • 148
  • 143
  • 128
  • 95
  • 92
  • 87
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1031

Search for Higgs boson decays to beyond-the-Standard-Model light bosons in four-lepton events with the ATLAS detector at the LHC

Chiu, Justin 22 December 2020 (has links)
This thesis presents the search for the dark sector process h -> Zd Zd -> 4l in events collected by the ATLAS detector at the Large Hadron Collider in 2015--2018. In this theorized process, the Standard Model Higgs boson (h) decays to four leptons via two intermediate Beyond-the-Standard-Model particles each called Zd. This process arises from interactions of the Standard Model with a dark sector. A dark sector consists of one or more new particles that have limited or zero interaction with the Standard Model, such as the new vector boson Zd (dark photon). It could have a rich and interesting phenomenology like the visible sector (the Standard Model) and could naturally address many outstanding problems in particle physics. For example, it could contain a particle candidate for dark matter. In particular, Higgs decays to Beyond-the-Standard-Model particles are well-motivated theoretically and are not tightly constrained; current measurements of Standard Model Higgs properties permit the fraction of such decays to be as high as approximately 30%. The results of this search do not show evidence for the existence of the h -> Zd Zd -> 4l process and are therefore interpreted in terms of upper limits on the branching ratio B(h -> Zd Zd) and the effective Higgs mixing parameter kappa^prime. / Graduate
1032

Development of a data acquisition architecture with distributed synchronization for a Positron Emission Tomography system with integrated front-end

Aliaga Varea, Ramón José 02 May 2016 (has links)
[EN] Positron Emission Tomography (PET) is a non-invasive nuclear medical imaging modality that makes it possible to observe the distribution of metabolic substances within a patient's body after marking them with radioactive isotopes and arranging an annular scanner around him in order to detect their decays. The main applications of this technique are the detection and tracing of tumors in cancer patients and metabolic studies with small animals. The Electronic Design for Nuclear Applications (EDNA) research group within the Instituto de Instrumentación para Imagen Molecular (I3M) has been involved in the study of high performance PET systems and maintains a small experimental setup with two detector modules. This thesis is framed within the necessity of developing a new data acquisition system (DAQ) for the aforementioned setup that corrects the drawbacks of the existing one. The main objective is to define a DAQ architecture that is completely scalable, modular, and guarantees the mobility and the possibility of reusing its components, so that it admits any extension of modification of the setup and it is possible to export it directly to the configurations used by other groups or experiments. At the same time, this architecture should be compatible with the best possible resolutions attainable at the present instead of imposing artificial limits on system performance. In particular, the new DAQ system should outperform the previous one. As a first step, a general study of DAQ arquitectures is carried out in the context of experimental setups for PET and other high energy physics applications. On one hand, the conclusion is reached that the desired specifications require early digitization of detector signals, exclusively digital communication between modules, and the absence of a centralized trigger. On the other hand, the necessity of a very precise distributed synchronization scheme between modules becomes apparent, with errors in the order of 100 ps, and operating directly over the data links. A study of the existing methods reveals their severe limitations in terms of achievable precision. A theoretical analysis of the situation is carried out with the goal of overcoming them, and a new synchronization algorithm is proposed that is able to reach the desired resolution while getting rid of the restrictions on clock alignment that are imposed by virtually all usual schemes. Since the measurement of clock phase difference plays a crucial role in the proposed algorithm, extensions to the existing methods are defined and analyzed that improve them significantly. The proposed scheme for synchronism is validated using commercial evaluation boards. Taking the proposed synchronization method as a starting point, a DAQ architecture for PET is defined that is composed of two types of module (acquisition and concentration) whose replication makes it possible to arrange a hierarchic system of arbitrary size, and circuit boards are designed and commissioned that implement a realization of the architecture for the particular case of two detectors. This DAQ is finally installed at the experimental setup, where their synchronization properties and resolution as a PET system are characterized and its performance is verified to have improved with respect to the previous system. / [ES] La Tomografía por Emisión de Positrones (PET) es una modalidad de imagen médica nuclear no invasiva que permite observar la distribución de sustancias metabólicas en el interior del cuerpo de un paciente tras marcarlas con isótopos radioactivos y disponer después un escáner anular a su alrededor para detectar su desintegración. Las principales aplicaciones de esta técnica son la detección y seguimiento de tumores en pacientes con cáncer y los estudios metabólicos en animales pequeños. El grupo de investigación Electronic Design for Nuclear Applications (EDNA) del Instituto de Instrumentación para Imagen Molecular (I3M) ha estado involucrado en el estudio de sistemas PET de alto rendimiento y mantiene un pequeño setup experimental con dos módulos detectores. La presente tesis se enmarca dentro de la necesidad de desarrollar un nuevo sistema de adquisición de datos (DAQ) para dicho setup que corrija los inconvenientes del ya existente. En particular, el objetivo es definir una arquitectura de DAQ que sea totalmente escalable, modular, y que asegure la movilidad y la posibilidad de reutilización de sus componentes, de manera que admita cualquier ampliación o alteración del setup y pueda exportarse directamente a los de otros grupos o experimentos. Al mismo tiempo, se desea que dicha arquitectura no limite artificialmente el rendimiento del sistema sino que sea compatible con las mejores resoluciones disponibles en la actualidad, y en particular que sus prestaciones superen a las del DAQ instalado previamente. En primer lugar, se lleva a cabo un estudio general de las arquitecturas de DAQ para setups experimentales para PET y otras aplicaciones de física de altas energías. Por un lado, se determina que las características deseadas implican la digitalización temprana de las señales del detector, la comunicación exclusivamente digital entre módulos, y la ausencia de trigger centralizado. Por otro lado, se hace patente la necesidad de un esquema de sincronización distribuida muy preciso entre módulos, con errores del orden de 100 ps, que opere directamente sobre los enlaces de datos. Un estudio de los métodos ya existentes revela sus graves limitaciones a la hora de alcanzar esas precisiones. Con el fin de paliarlos, se lleva a cabo un análisis teórico de la situación y se propone un nuevo algoritmo de sincronización que es capaz de alcanzar la resolución deseada y elimina las restricciones de alineamiento de reloj impuestas por casi todos los esquemas usuales. Dado que la medida de desfase entre relojes juega un papel crucial en el algoritmo propuesto, se definen y analizan extensiones a los métodos ya existentes que suponen una mejora sustancial. El esquema de sincronismo propuesto se valida utilizando placas de evaluación comerciales. Partiendo del método de sincronismo propuesto, se define una arquitectura de DAQ para PET compuesta de dos tipos de módulos (adquisición y concentración) cuya replicación permite construir un sistema jerárquico de tamaño arbitrario, y se diseñan e implementan placas de circuito basadas en dicha arquitectura para el caso particular de dos detectores. El DAQ así construído se instala finalmente en el setup experimental, donde se caracterizan tanto sus propiedades de sincronización como su resolución como sistema PET y se comprueba que sus prestaciones son superiores a las del sistema previo. / [CA] La Tomografia per Emissió de Positrons (PET) és una modalitat d'imatge mèdica nuclear no invasiva que permet observar la distribució de substàncies metabòliques a l'interior del cos d'un pacient després d'haver-les marcat amb isòtops radioactius disposant un escàner anular al seu voltant per a detectar la seua desintegració. Aquesta tècnica troba les seues principals aplicacions a la detecció i seguiment de tumors a pacients amb càncer i als estudis metabòlics en animals petits. El grup d'investigació Electronic Design for Nuclear Applications (EDNA) de l'Instituto de Instrumentación para Imagen Molecular (I3M) ha estat involucrat en l'estudi de sistemes PET d'alt rendiment i manté un petit setup experimental amb dos mòduls detectors. Aquesta tesi neix de la necessitat de desenvolupar un nou sistema d'adquisició de dades (DAQ) per al setup esmentat que corregisca els inconvenients de l'anterior. En particular, l'objectiu és definir una arquitectura de DAQ que sigui totalment escalable, modular, i que asseguri la mobilitat i la possibilitat de reutilització dels seus components, de tal manera que admeta qualsevol ampliació o alteració del setup i pugui exportar-se directament a aquells d'altres grups o experiments. Al mateix temps, es desitja que aquesta arquitectura no introduisca límits artificials al rendiment del sistema sinó que sigui compatible amb les millors resolucions disponibles a l'actualitat, i en particular que les seues prestacions siguin superiors a les del DAQ instal.lat amb anterioritat. En primer lloc, es porta a terme un estudi general de les arquitectures de DAQ per a setups experimentals per a PET i altres aplicacions de física d'altes energies. Per una banda, s'arriba a la conclusió que les característiques desitjades impliquen la digitalització dels senyals del detector el més aviat possible, la comunicació exclusivament digital entre mòduls, i l'absència de trigger centralitzat. D'altra banda, es fa palesa la necessitat d'un mecanisme de sincronització distribuïda molt precís entre mòduls, amb errors de l'ordre de 100 ps, que treballi directament sobre els enllaços de dades. Un estudi dels mètodes ja existents revela les seues greus limitacions a l'hora d'assolir aquest nivell de precisió. Amb l'objectiu de pal.liar-les, es duu a terme una anàlisi teòrica de la situació i es proposa un nou algoritme de sincronització que és capaç d'obtindre la resolució desitjada i es desfà de les restriccions d'alineament de rellotges imposades per gairebé tots els esquemes usuals. Atès que la mesura del desfasament entre rellotges juga un paper cabdal a l'algoritme proposat, es defineixen i analitzen extensions als mètodes ja existents que suposen una millora substancial. L'esquema de sincronisme proposat es valida mitjançant plaques d'avaluació comercials. Prenent el mètode proposat com a punt de partida, es defineix una arquitectura de DAQ per a PET composta de dos tipus de mòduls (d'adquisició i de concentració) tals que la replicació d'aquests elements permet construir un sistema jeràrquic de mida arbitrària, i es dissenyen i implementen plaques de circuit basades en aquesta arquitectura per al cas particular de dos detectors. L'electrònica desenvolupada s'instal.la finalment al setup experimental, on es caracteritzen tant les seues propietats de sincronització com la seua resolució com a sistema PET i es comprova que les seues prestacions són superiors a les del sistema previ. / Aliaga Varea, RJ. (2016). Development of a data acquisition architecture with distributed synchronization for a Positron Emission Tomography system with integrated front-end [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/63271 / TESIS / Premios Extraordinarios de tesis doctorales
1033

Leading-colour two-loop QCD corrections for top-quark pair production in association with a jet at a lepton collider

Peitzsch, Sascha 03 May 2023 (has links)
In dieser Arbeit wird die Berechnung der farbführenden Zweischleifen-QCD-Korrekturen für die Top-Quark-Paarproduktion mit einem zusätzlichen Jet an einem Lepton-Collider präsentiert. Das Matrixelement wird in Vektor- und Axial-Vektorströme zerlegt und die Ströme werden weiter in Dirac-Spinorstrukturen und Formfaktoren zerlegt. Die Formfaktoren werden mit Projektoren extrahiert. Die auftretenden Feynmanintegrale werden mittels IBP-Identitäten und Dimensionsverschiebungstransformationen durch eine Basis quasi-finiter Masterintegrale in 6−2ϵ Dimensionen ausgedrückt. Die Mehrheit der Feynmanintegrale gehört zu einer Doppelbox-Integralfamilie. Die Berechnung der Masterintegrale erfolgt durch numerisches Lösen von Differentialgleichungen in kinematischen Invarianten. Asymptotische Reihenentwicklungen der Masterintegrale in der Top-Quarkmasse werden verwendet, um die Anfangsbedingungen für die numerischen Lösungen der Differentialgleichungen zu bestimmen. Die führenden Terme dieser Entwicklung werden mit der Expansion-by-Regions-Methode berechnet. Höhere Reihenkoeffizienten werden durch die Anwendung einer Differentialgleichung auf einen Ansatz für die Reihenentwicklung bestimmt. Die renormierten Formfaktoren und die farbführende Zweischleifenamplitude werden an einem Referenzphasenraumpunkt zu hoher Präzision numerisch ausgewertet. Die Resultate werden mit elektroschwachen Ward-Identitäten und durch numerische Vergleiche der IR-Singularitäten mit der erwarteten Singularitätsstruktur überprüft. / In this work, the calculation of the leading-colour two-loop QCD corrections for top-quark pair production with an additional jet at a lepton collider is presented. The matrix element is decomposed into vector and axial-vector currents and the currents are further decomposed into Dirac spinor structures and form factors. The form factors are extracted with projectors. The Feynman integrals are reduced to a quasi-finite basis in 6 − 2ϵ dimensions using IBP identities and dimension-shift transformations. The majority of master integrals belong to a double-box integral family. The master integrals are computed by numerically solving systems of differential equations in the kinematic invariants. Asymptotic expansions of the master integrals in the top-quark mass variable are used to calculate initial conditions for the numerical differential equation solutions. The leading terms of the expansion are obtained with the expansion by regions and the higher orders are calculated by solving a system of equations obtained from applying the differential equation onto an ansatz of the expansion. The renormalized form factors and the leading-colour two-loop amplitude are evaluated numerically to high precision at a benchmark phase space point. The results are cross-checked with electroweak Ward identities and by numerically comparing the IR singularities with the expected singularity structure.
1034

Spacetime Symmetries from Quantum Ergodicity

Shoy Ouseph (18086125) 16 April 2024 (has links)
<p dir="ltr">In holographic quantum field theories, a bulk geometric semiclassical spacetime emerges from strongly coupled interacting conformal field theories in one less spatial dimension. This is the celebrated AdS/CFT correspondence. The entanglement entropy of a boundary spatial subregion can be calculated as the area of a codimension two bulk surface homologous to the boundary subregion known as the RT surface. The bulk region contained within the RT surface is known as the entanglement wedge and bulk reconstruction tells us that any operator in the entanglement wedge can be reconstructed as a non-local operator on the corresponding boundary subregion. This notion that entanglement creates geometry is dubbed "ER=EPR'' and has been the driving force behind recent progress in quantum gravity research. In this thesis, we put together two results that use Tomita-Takesaki modular theory and quantum ergodic theory to make progress on contemporary problems in quantum gravity.</p><p dir="ltr">A version of the black hole information loss paradox is the inconsistency between the decay of two-point functions of probe operators in large AdS black holes and the dual boundary CFT calculation where it is an almost periodic function of time. We show that any von Neumann algebra in a faithful normal state that is quantum strong mixing (two-point functions decay) with respect to its modular flow is a type III<sub>1</sub> factor and the state has a trivial centralizer. In particular, for Generalized Free Fields (GFF) in a thermofield double (KMS) state, we show that if the two-point functions are strong mixing, then the entire algebra is strong mixing and a type III<sub>1</sub> factor settling a recent conjecture of Liu and Leutheusser.</p><p dir="ltr">The semiclassical bulk geometry that emerges in the holographic description is a pseudo-Riemannian manifold and we expect a local approximate Poincaré algebra. Near a bifurcate Killing horizon, such a local two-dimensional Poincaré algebra is generated by the Killing flow and the outward null translations along the horizon. We show the emergence of such a Poincaré algebra in any quantum system with modular future and past subalgebras in a limit analogous to the near-horizon limit. These are known as quantum K-systems and they saturate the modular chaos bound. We also prove that the existence of (modular) future/past von Neumann subalgebras also implies a second law of (modular) thermodynamics.</p>
1035

Recherche de nouvelle physique à basse énergie à l’aide de théories efficaces

Hamoudou, Serge 07 1900 (has links)
L’existence de physique au-delà du modèle standard semble de plus en plus évidente, notamment en raison d’observations d’anomalies dans plusieurs phénomènes. De plus, certains phénomènes tels que la matière noire, la gravité et l’asymétrie baryonique dans l’univers sont inexpliqués. Ce mémoire s’intéresse à la recherche de nouvelle physique à basse énergie par l’approche des EFT et se penche sur les prédictions à basse énergie d’une EFT en particulier : la SMEFT. Le premier article présenté s’intéresse aux anomalies présentes dans les données expérimentales liées aux mésons B et teste les prédictions de la SMEFT pour la désintégration b → cτν jusqu’à la dimension massive 6. Le but est de vérifier si la symétrie du modèle standard, soit SU(3)_C × SU(2)_L × U(1)_Y, est réalisée linéairement à haute énergie par la nouvelle physique. Le deuxième article détermine les relations de correspondance entre les opérateurs LEFT jusqu’à la dimension massive 6 et les opérateurs SMEFT jusqu’à la dimension massive 8. / The existence of physics beyond the Standard Model seems more and more obvious, partially because of observations of anomalies in many phenomena. Moreover, some phenomena such as dark matter, gravity and the baryon asymmetry in the universe are unexplained. This thesis addresses the search of New Physics at low energies using the EFT approach and looks into the predictions of low-energy predictions of one EFT in particular: SMEFT. The first paper presented addresses anomalies present in experimental data related to B mesons and tests the predictions of SMEFT for b → cτν decays up to mass dimension 6. The goal is to check if the Standard Model symmetry, being SU(3)_C × SU(2)_L × U(1)_Y, is linearly realized at high energy by the New Physics. The second paper determines the matching conditions between LEFT operators up to mass dimension 6 and SMEFT operators up to mass dimension 8.
1036

La découverte de nouvelle physique à l'aide de la détection d'anomalies avec l'apprentissage automatique au Grand collisionneur de hadrons

Leissner-Martin, Julien 12 1900 (has links)
La physique des particules est une branche de la science qui est actuellement régie sous un ensemble de lois nommé le \textit{modèle standard} (MS). Il dicte notamment quelles particules existent et comment elles interagissent entre elles. Il permet de prédire toutes sortes de résultats qui sont constamment testés et confirmés par une multitude d'expériences, dont l'expérience ATLAS, au Grand Collisionneur de Hadrons (LHC). Toutefois, ce modèle hautement précis et juste ne peut décrire qu'environ 5\% de la matière de l'Univers et s'avère donc incomplet. Les scientifiques passent au peigne fin plusieurs études pour y retrouver de la nouvelle physique, mais en vain. \\ Les théoriciens ne sont pas en reste non plus, et ont concocté plusieurs théories pouvant être vues comme des extensions du modèle standard. Malheureusement, plus de dix ans après la découverte du boson de Higgs au LHC qui venait confirmer la théorie actuelle du MS, aucun signe de ces extensions n'a pu être trouvé. Nous proposons dans ce mémoire d'utiliser l'intelligence artificielle pour aider à trouver certains indices de nouvelle physique. \\ Pour ce faire, nous entraînerons des modèles d'apprentissage automatique \textit{(machine learning)} à reconnaître des signes de la nouvelle physique dans des données réelles ou simulées issues de collisions proton-proton au sein du détecteur ATLAS. Ce détecteur oeuvre au LHC, le plus grand collisionneur au monde, où nos données proviennent d'énergies de centre de masse de \mbox{13 TeV.} Nous utiliserons les quadrivecteurs des particules contenues dans les jets boostés à grand rayon, des amas collimatés de particules présents dans ATLAS, qui pourraient contenir cette fameuse nouvelle physique. Dans ce mémoire, nous tenterons entre autres de retrouver des signaux de quarks top ainsi que de particules hypothétiques issues d'un modèle avec un secteur étendu du boson de Higgs. \\ Actuellement, nos modèles sont capables de bien distinguer le signal du bruit de fond. Toutefois, les résultats sont corrélés à la masse des jets et toute tentative pour contrecarrer cette corrélation diminue de beaucoup la discrimination du signal et du bruit de fond. De plus, nous devrons améliorer le rejet du bruit de fond pour espérer retrouver de la nouvelle physique dans les données d'ATLAS. \\ \textbf{Mots-clés : physique des particules, LHC, Grand collisionneur de hadrons, ATLAS, CERN, intelligence artificielle, apprentissage automatique, réseau de neurones, auto-encodeur variationnel, anomalies, jet boosté, jet à grand rayon} / Particle physics is currently governed by a set of laws called the Standard Model. This model notably includes which particles exist and how they interact with one another. It also allows the prediction of many results which are constantly tested and confirmed by all kinds of experiments, like the ATLAS experiment at the Large Hadron Collider (LHC). However, this highly precise model can only describe 5\% of the Universe, so it is incomplete. Scientists across the globe analyzed all kinds of data to find new physics, but to no avail. \\ Theorists also aren't resting, and have concocted many new theories which can be seen as Standard Model extensions. Unfortunately, more than ten years after the discovery of the Higgs boson at LHC that confirmed the last bits of the Standard Model, no signs of these extensions have been found. In light of this, we propose to use artificial intelligence to help us find signs of new physics. \\ To perform this task, we will train machine learning models to recognize signs of new physics inside real or simulated data originating from proton-proton collisions in the ATLAS detector. This detector operates at LHC, the biggest particle collider in the world, where our data will come from center-of-mass energies of \mbox{13 TeV.} We will use four-vectors of particles contained within large radius and boosted jets, which are dense streams of particles present in ATLAS and where new physics might hide. In this dissertation, we will notably try to find signals of top quarks and hypothetical particles originating from a model with an extended Higgs boson sector. \\ Currently, our models are able to distinguish between signal and background noise. However, these results are heavily correlated to jet mass, and any attempt at diminishing this correlation yields worse discriminating power between signal and background. We will also need to improve the background rejection to hope find new physics in the ATLAS data. \\ \textbf{Keywords : particle physics, LHC, ATLAS, CERN, artificial intelligence, deep learning, neural network, variational autoencoder, anomaly, boosted jet, large radius jet}
1037

Entanglement Entropy in Cosmology and Emergent Gravity

Akhil Jaisingh Sheoran (15348844) 25 April 2023 (has links)
<p>Entanglement entropy (EE) is a quantum information theoretic measure that quantifies the correlations between a region and its surroundings. We study this quantity in the following two setups : </p> <ul> <li>We look at the dynamics of a free minimally coupled, massless scalar field in a deSitter expansion, where the expansion stops after some time (i.e. we quench the expansion) and transitions to flat spacetime. We study the evolution of entanglement entropy (EE) and the Rényi entropy of a spatial region during the expansion and, more interestingly, after the expansion stops, calculating its time evolution numerically. The EE increases during the expansion but the growth is much more rapid after the expansion ends, finally saturating at late times, with saturation values obeying a volume law. The final state of the subregion is a partially thermalized state, reminiscent of a Gibbs ensemble. We comment on application of our results to the question of when and how cosmological perturbations decohere.</li> <li>We study the EE in a theory that is holographically dual to a BTZ black hole geometry in the presence of a scalar field, using the Ryu-Takayangi (RT) formula. Gaberdiel and Gopakumar had conjectured that the theory of N free fermions in 1+1 dimensions, for large N, is dual to a higher spin gravity theory with two scalar fields in 2+1 dimensions. So, we choose our boundary theory to be the theory of N free Dirac fermions with a uniformly winding mass, m e<sup>iqx</sup>, in two spacetime dimensions (which describes for instance a superconducting current in an N-channel wire). However, to O(m<sup>2</sup>), thermodynamic quantities can be computed using Einstein gravity. We aim to check if the same holds true for entanglement entropy (EE). Doing calculations on both sides of the duality, we find that general relativity does indeed correctly account for EE of single intervals to O(m<sup>2</sup>).</li> </ul>
1038

Les Neutrinos comme un outil pour la physique des astroparticules

Serpico, Pasquale Dario 20 September 2012 (has links) (PDF)
Ces dernières années, une série d' expériences utilisant des sources naturelles et artificielles de neutrinos ont prouvé que ces particules oscillent; la mesure des paramètres de leur matrice de mélange est en cours et elle guide la conception de futures appareillages et expériences. Théoriquement, cette découverte prouve que les neutrinos sont massives et qu' au moins une extension minimale du Modèle Standard de la physique des particules est nécessaire. Nous décrivons quelques conséquences que cette nouvelle connaissance a sur des systèmes cosmologiques et astrophysiques. En particulier, nous discutons: i) les implications pour les propriétés du fond de neutrinos cosmiques, à la fois dans le scénario minimal et dans certaines extensions non standard; ii) les contraintes cosmologiques actuelles et futures sur la durée de vie des neutrinos; iii) les implications fascinantes de la non-linéairité due à l' auto-réfraction dans l' évolution de la saveur des flux de neutrinos émis par la proto-étoile à neutrons produite lors d' un phénomène de supernova à effondrement de coeur. Enfin, nous décrivons certaines des orientations de recherche possibles pour les années à venir.
1039

A contribution to gamma-ray astronomy of GeV-TeV Active Galaxies with Fermi and H.E.S.S.

Giebels, Berrie 20 April 2011 (has links) (PDF)
L'astronomie des rayons g de haute (E > 100MeV, HE) et de très haute énergie (E 100GeV, VHE) ont effectué des progrès considérables en moins d'une décennie. Le nombre de sources émettrices dans ce régime d'énergie a augmenté de plus d'un ordre de grandeur, de nouvelles classes d'émetteurs ont été découvertes et des nouvelles sous-classes ont été établies basées sur l'émission gamma, et les sources connues sont à présent résolues à des échelles spatiales ou temporelles sans précédent révélant de nouvelles propriétés. Les noyaux actifs de galaxie (AGN) sont l'une des classes d'émetteurs les plus énergétiques, dont le pic de puissance émis dans le spectre électromagnétique peut dans certains cas dépasser la capacité de mesure des instruments actuels, et dont l'investigation requiert la maîtrise simultanée du ciel g HE et VHE qu'apportent les expériences Cerenkov au sol (atmospheric Cerenkov telescope, ou ACT) et le satellite Fermi.
1040

Méthodes effectives en théorie de Galois différentielle et applications à l'intégrabilité de systèmes dynamiques

Weil, Jacques-Arthur 09 December 2013 (has links) (PDF)
Mes recherches portent essentiellement sur l''elaboration de m'ethodes de calcul formel pour l''etude constructive des 'equations diff'erentielles lin'eaires, plus particuli'erement autour de la th'eorie de Galois diff'erentielle. Celles-ci vont du d'eveloppement de la th'eorie sous-jacente aux algorithmes, en incluant leur implantation en Maple. Ces travaux ont en commun une approche exp'erimentale des math'ematiques o'u l'on met l'accent sur l'examen d'exemples les plus pertinents possibles. L''etude d'etaill'ee de cas provenant de la m'ecanique rationnelle ou de la physique th'eorique nourrit en retour le d'eveloppement de th'eories math'ematiques idoines. Mes travaux s'articulent suivant trois grands th'emes interd'ependants : la th'eorie de Galois diff'erentielle effective, ses applications 'a l'int'egrabilit'e de syst'emes hamiltoniens et des applications en physique th'eorique.

Page generated in 0.0849 seconds