• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 51
  • 29
  • 10
  • 2
  • 1
  • Tagged with
  • 94
  • 63
  • 34
  • 31
  • 31
  • 24
  • 24
  • 23
  • 16
  • 16
  • 15
  • 15
  • 14
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Black holes as a gateway to the quantum : classical and semi-classical explorations / Les trous noirs comme porte d'entrée vers le quantique : explorations classique et semi-classique

De Lorenzo, Tommaso 18 September 2018 (has links)
Depuis 1916, l'étude des Trous Noirs a soulevé des questions intrigantes. Seulement certaines ont été résolues. En effet, nous faisons face à des régimes où s’entremêlent la théorie quantique et l'espace-temps. Les TN comme porte d'entrée pour comprendre la nature quantique de la gravité. Ma thèse a été entièrement dédiée à ce domaine central de la physique théorique, avec pour but la compréhension la plus large possible des débats autour de ces questions. C'est ainsi qu'ont été produits des résultats originaux qui constituent le cœur de ce manuscrit. 1-Les surfaces de volume maximal des TN sont étudiées. Un TN astrophysique terminera sa vie avec une aire planckienne de $10^{-70} m^2$ dissimulant $10^5$ fois le volume de l'univers observable. Ceci peut avoir des conséquences sur la viabilité du "remnant scenario" comme solution au paradoxe de l'information. 2-Le scénario "trou-noir-trou-blanc" est fortement instable. Une modification minimale est proposée pour résoudre ce problème. 3-Une généralisation des quatre lois de la thermodynamique des TN est démontrée pour des cônes de lumière s'intersectant dans un espace de Minkowski. 4-On étudie des espaces conformellement plats où de telles lois acquièrent une interprétation thermodynamique standard. Le plus simple est l'espace-temps de Bertotti-Robinson, connu pour encoder la géométrie proche de l'horizon d'un TN chargé. 5-Pour peu que le bon tenseur énergie-impulsion soit identifié, les équations du champ Einstein-Cartan peuvent être retrouvées comme l'équation d'état d'un équilibre thermodynamique, comme dans le cas original de la RG. Ces résultats contribuent au débat intense sur les questions cruciales posées ci-dessus. / Since 1916 intriguing questions have arisen from the study of Black Holes (BH). Only some of them have been resolved. Indeed, we are faced with regimes where the yet unknown interplay between quantum theory and spacetime unveils. BH physics is a gateway to the quantum nature of gravity. My thesis has been completely devoted to this central domain of theoretical physics, with the guiding aim of understanding in the widest possible manner the debate around those questions. The process has produced original results that constitute the main core of the manuscript. 1- The maximal volume surfaces of evaporating BHs are studied. An astrophysical BH will end its life with an external planckian area $10^{-70} m^2$ hiding $10^5$ times the volume of our observable Universe. This can have consequences on the viability of the “remnant scenario” as solution to the BH information paradox. 2- The “black-hole-to-white-hole scenario” is analyzed. The model is shown to be strongly unstable, and a minimal resolutive modification is proposed. 3- A generalisation of the four laws of BH thermodynamics is proven for intersecting light cones in Minkowski spacetime. 4- Conformally flat spaces where such laws acquire the standard thermodynamical interpretation are studied. The simplest one is the Bertotti-Robinson spacetime, known to encode the near-horizon geometry of a charged BH. 5- It is shown that, if the correct energy-momentum tensor is identified, the Eintein-Cartan’s field equations can be recovered as a thermodynamical equilibrium equation of state just like in the GR original case. Such results contribute to the intense debate on the opening crucial questions.
42

Caracterização de eventos transitórios da qualidade da energia elétrica utilizando sistemas inteligentes e processamento de sinais. / Characterization of power quality transient events using Intelligent systems and signal processing.

Vega García, Valdomiro 12 December 2012 (has links)
O diagnóstico de eventos que afetam a qualidade da energia elétrica tem se tornado preocupação de magnitude mundial, em especial em dois temas importantes que são: a localização relativa da origem do evento (LROE) e a classificação automática da causa fundamental de eventos (CACFE). O primeiro está relacionado com a identificação da fonte do evento, isto é, a montante ou a jusante do medidor de qualidade de energia (MQE). O segundo pode ser dividido em dois grupos: a classificação das causas internas e das causas externas. As causas internas estão relacionadas a eventos produzidos pela operação do sistema elétrico (energização ou desenergização do sistema, energização de transformador, chaveamento de capacitores dentre outros), e as causas externas estão vinculadas a eventos produzidos por faltas externas ao sistema elétrico (contato com galhos de árvore, animais, descargas atmosféricas, dentre outros). Ambos os temas, LROE e CACFE, são abordados nesta tese de doutorado. Para classificar eventos por causas internas ou externas é necessário antes definir se realmente trata-se ou não de um evento, para o qual é imprescindível conhecer a LROE. Este último necessita de um processo de segmentação das formas de onda de tensão e corrente para funcionar de forma correta. A segmentação identifica segmentos transitórios e não transitórios nas formas de onda e contribui também na extração de características para os diferentes algoritmos de classificação. Neste sentido, neste trabalho de pesquisa é proposta uma metodologia de diagnóstico da qualidade de eventos, focada em LROE e CACFE. Para isto foram desenvolvidos diferentes algoritmos de segmentação, extração de características e classificação, sendo criada uma ferramenta computacional em MatLab® que inclui pré-processamento de sinais de tensão e corrente de um banco de dados real fornecido por uma concessionária do Estado de São Paulo. Além disto, foram propostos novos algoritmos de LROE com resultados satisfatórios quando comparados com outros dois disponíveis na literatura científica. Para as causas internas, dois novos índices são propostos para separar eventos produzidos por faltas e energização de transformadores. Finalmente, são propostos novos algoritmos de extração de características baseados na energia dos coeficientes de decomposição da transformada wavelet bem como o algoritmo à trous modificado. São propostos dois novos vetores de descritores de energia (VDE) baseados no primeiro segmento transitório do evento. Para a classificação destes eventos foi utilizado um algoritmo de indução de regras de decisão (CN2), que gera regras de simples implementação. Todos os métodos de classificação utilizados nesta tese estão baseados em regras, sendo seu desempenho avaliado por meio da matriz de confusão. / Diagnosing events that affect power quality have become a worldwide concern, especially with respect to two important issues related to the relative location of the event origin (RLEO) and automatic cause classification of events (ACCE). The first one is related to the identification of the event source, i.e. either upstream or downstream in relation to the power quality meter (PQM). The second one can be subdivided into two groups, namely the classification of internal causes and of external causes. Internal causes are related to events produced by power system operation (connection or disconnection of feeders, power transformer inrush, capacitor switching, amongst others) and external causes that are related to events produced by external faults to the power system (network contacts to tree branches, animals contact, atmospheric discharges, amongst others). Both topics, RLEO and ACCE, are herein considered. In order to classify events due to internal or external causes, one should first define whether it is an actual event, what demands the RLEO. This makes use of a segmentation process applied to the voltage and current waveforms. The segmentation identifies the transient and stationary segments within the waveforms, contributing also to the feature extraction for different classification algorithms. Based on the aforementioned, this research proposes a methodology to diagnose power quality events, focusing on RLEO and ACCE. Different algorithms of segmentation, feature extraction and classification were then developed by the use of a computational tool implemented in MatLab®, that considers also the preprocessing of voltage and current signals in a real data base which was made available by a distribution company in Sao Paulo State. Besides that, new RLEO algorithms have shown satisfactory results when compared to algorithms published in the scientific literature. As for the internal causes, two new indices were proposed in order to separate events produced by faults or by the connection of power transformers. New algorithms for feature extraction are proposed, which are based on the energy of decomposition coefficients of the wavelet transform as well as the modified à trous algorithm. Two vectors of energy descriptors are proposed, which are based on the first transient segment of the event. The classification of such events was carried out by an induction algorithm of decision rules (CN2), that generates easily implementable rules. All classification methods utilized in this thesis are based on rules and their performances are assessed by the confusion matrix.
43

Caracterização de eventos transitórios da qualidade da energia elétrica utilizando sistemas inteligentes e processamento de sinais. / Characterization of power quality transient events using Intelligent systems and signal processing.

Valdomiro Vega García 12 December 2012 (has links)
O diagnóstico de eventos que afetam a qualidade da energia elétrica tem se tornado preocupação de magnitude mundial, em especial em dois temas importantes que são: a localização relativa da origem do evento (LROE) e a classificação automática da causa fundamental de eventos (CACFE). O primeiro está relacionado com a identificação da fonte do evento, isto é, a montante ou a jusante do medidor de qualidade de energia (MQE). O segundo pode ser dividido em dois grupos: a classificação das causas internas e das causas externas. As causas internas estão relacionadas a eventos produzidos pela operação do sistema elétrico (energização ou desenergização do sistema, energização de transformador, chaveamento de capacitores dentre outros), e as causas externas estão vinculadas a eventos produzidos por faltas externas ao sistema elétrico (contato com galhos de árvore, animais, descargas atmosféricas, dentre outros). Ambos os temas, LROE e CACFE, são abordados nesta tese de doutorado. Para classificar eventos por causas internas ou externas é necessário antes definir se realmente trata-se ou não de um evento, para o qual é imprescindível conhecer a LROE. Este último necessita de um processo de segmentação das formas de onda de tensão e corrente para funcionar de forma correta. A segmentação identifica segmentos transitórios e não transitórios nas formas de onda e contribui também na extração de características para os diferentes algoritmos de classificação. Neste sentido, neste trabalho de pesquisa é proposta uma metodologia de diagnóstico da qualidade de eventos, focada em LROE e CACFE. Para isto foram desenvolvidos diferentes algoritmos de segmentação, extração de características e classificação, sendo criada uma ferramenta computacional em MatLab® que inclui pré-processamento de sinais de tensão e corrente de um banco de dados real fornecido por uma concessionária do Estado de São Paulo. Além disto, foram propostos novos algoritmos de LROE com resultados satisfatórios quando comparados com outros dois disponíveis na literatura científica. Para as causas internas, dois novos índices são propostos para separar eventos produzidos por faltas e energização de transformadores. Finalmente, são propostos novos algoritmos de extração de características baseados na energia dos coeficientes de decomposição da transformada wavelet bem como o algoritmo à trous modificado. São propostos dois novos vetores de descritores de energia (VDE) baseados no primeiro segmento transitório do evento. Para a classificação destes eventos foi utilizado um algoritmo de indução de regras de decisão (CN2), que gera regras de simples implementação. Todos os métodos de classificação utilizados nesta tese estão baseados em regras, sendo seu desempenho avaliado por meio da matriz de confusão. / Diagnosing events that affect power quality have become a worldwide concern, especially with respect to two important issues related to the relative location of the event origin (RLEO) and automatic cause classification of events (ACCE). The first one is related to the identification of the event source, i.e. either upstream or downstream in relation to the power quality meter (PQM). The second one can be subdivided into two groups, namely the classification of internal causes and of external causes. Internal causes are related to events produced by power system operation (connection or disconnection of feeders, power transformer inrush, capacitor switching, amongst others) and external causes that are related to events produced by external faults to the power system (network contacts to tree branches, animals contact, atmospheric discharges, amongst others). Both topics, RLEO and ACCE, are herein considered. In order to classify events due to internal or external causes, one should first define whether it is an actual event, what demands the RLEO. This makes use of a segmentation process applied to the voltage and current waveforms. The segmentation identifies the transient and stationary segments within the waveforms, contributing also to the feature extraction for different classification algorithms. Based on the aforementioned, this research proposes a methodology to diagnose power quality events, focusing on RLEO and ACCE. Different algorithms of segmentation, feature extraction and classification were then developed by the use of a computational tool implemented in MatLab®, that considers also the preprocessing of voltage and current signals in a real data base which was made available by a distribution company in Sao Paulo State. Besides that, new RLEO algorithms have shown satisfactory results when compared to algorithms published in the scientific literature. As for the internal causes, two new indices were proposed in order to separate events produced by faults or by the connection of power transformers. New algorithms for feature extraction are proposed, which are based on the energy of decomposition coefficients of the wavelet transform as well as the modified à trous algorithm. Two vectors of energy descriptors are proposed, which are based on the first transient segment of the event. The classification of such events was carried out by an induction algorithm of decision rules (CN2), that generates easily implementable rules. All classification methods utilized in this thesis are based on rules and their performances are assessed by the confusion matrix.
44

Imagerie interférométrique infrarouge et perspectives pour l'observation interférométrique du Centre Galactique : le projet GRAVITY.

Haubois, Xavier 21 April 2009 (has links) (PDF)
Le centre de la Galaxie abrite un trou noir supermassif nommé Sgr A*. Grâce à l'instrument GRAVITY, les capacités de haute résolution angulaire du VLTI permettront pour la première fois l'observation directe de l'environnement immédiat d'un tel trou noir. Pour atteindre ce but astrophysique, il est nécessaire d'obtenir des observables interférométriques de grande précision et d'appliquer des techniques de reconstruction d'images. Dans ce contexte, j'ai pu dans une première partie de ma thèse, employer différentes méthodes d'imagerie interférométrique en infrarouge suite à l'observation de la supergéante rouge Alpha Orionis (Bételgeuse) avec l'interféromètre à trois télescopes IOTA. Ces travaux ont pu notamment conduire à la mise en évidence de structures asymétriques brillantes à la surface de l'étoile qui sont très probablement de nature convective.<br /><br />La précision des observables interférométriques conditionne la qualité de la reconstruction d'image. Dans une deuxième partie, j'ai pu pratiquer une étude des performances interférométriques simulées de GRAVITY afin d'estimer la précision sur les phases et visibilités qu'il délivrera. Afin d'optimiser les futures observations de GRAVITY, il est essentiel d'avoir une idée des caractéristiques spatiales et temporelles de son objectif scientifique majeur qu'est Sgr A*. Pour cela, j'ai pu finalement participer à une campagne d'observation multi-longueurs d'onde de l'environnement de ce trou noir. A cette occasion, j'ai utilisé le mode BURST du spectro-imageur VISIR pour obtenir une haute résolution angulaire et une grande sensibilité au rayonnement de Sgr A*. Ceci m'a conduit à obtenir une limite supérieure la plus basse jamais enregistrée à 8,6 microns. Autre fait marquant, ces observations ont révélé la présence d'un sursaut d'intensité lumineuse en proche infrarouge. Si le processus de rayonnement n'est pas encore parfaitement modélisé, ces observations tendent à confirmer que les sursauts tirent leur origine d'un mouvement orbital de matière à quelques rayons de Schwarzschild de Sgr A*.<br /><br />Grâce à sa précision astrométrique de 10 micro-secondes d'angle, correspondant à un rayon de Schwarzschild à la distance du Centre Galactique, GRAVITY sera en mesure de résoudre le mouvement orbital de ces spots de matière et de comprendre la nature d'un tel rayonnement. De plus, il permettra la mesure directe de la métrique d'espace-temps et l'étude de la relativité générale en champ fort.
45

Etude de systèmes binaires d'objets compacts : étoiles à neutrons, étoiles de quarks étranges et trous noirs

Limousin, Francois 09 December 2005 (has links) (PDF)
La détection des ondes gravitationnelles par les détecteurs interférométriques terrestres, tels que VIRGO ou LIGO, et par la mission spatiale LISA sera fortement facilitée par la connaissance théorique à priori du signal. On s'intéresse dans cette thèse à l'étude d'une des sources de rayonnement gravitationnel les plus importantes, à savoir les systèmes binaires d'objets compacts. Plus précisément, on considère, dans le cadre de la relativité générale, les dernières orbites de la phase de quasi-équilibre. Elles permettent, d'une part, de fournir des données initiales aussi réalistes que possible pour la phase de coalescence et, d'autre part, d'apporter de nombreuses informations sur les objets compacts émetteurs.<br /><br />Un effort est fait pour améliorer, rendre ces données initiales les plus réalistes possible d'un point de vue astrophysique. Nous avons ainsi construits les premières séquences de binaires d'étoiles de quarks étranges, et ce pour différentes équations d'état. Contrairement au cas d'étoiles à neutrons polytropiques, la séquence se termine par une instabilité dynamique. Nous avons également calculé des configurations de binaires d'étoiles à neutrons à l'aide d'une théorie sans onde allant au delà de l'approximation communément admise de métrique spatiale conformément plate. Les solutions obtenues devraient être plus précises et de meilleures conditions initiales que celles réalisées jusqu'alors. Nous avons enfin étudié, pour des systèmes d'un seul trou noir puis des trous noirs binaires, l'influence de conditions de bords aux horizons provenant du formalisme des horizons isolés et regroupnt des ingrédients de quasi-équilibre.
46

Exploitation d'images numériques pour la simplification et la déformation de modèles polyédriques

Panchetti, Minica 10 April 2009 (has links) (PDF)
Les modèles polyédriques, très utilisés dans les processus d'ingénierie, constituent une représentation privilégiée au sein des maquettes numériques de produits. Les approches et méthodes de manipulation et d'exploitation de ces modèles, sont le plus souvent pilotées par un critère géométrique lié à la forme des objets (normale, courbure ...) mais très peu prennent en compte des informations de type perceptuelles. Parallèlement, les techniques de traitement d'images existantes extraient des données (contours, primitives géométriques, textures ...) relatives à la description des formes des objets qu'elles représentent. Ainsi, le but de cette thèse est de réaliser un couplage modèle polyédrique 3D / images numériques 2D pour manipuler les modèles 3D avec des critères extraits d'image(s). Une méthode de simplification et deux méthodes de déformation de polyèdres sont présentées. Dans la première méthode, la simplification est basée sur un processus itératif de suppression de sommets piloté par un critère de tolérance de simplification. Cette tolérance est liée au filtrage de contours d'image(s) qui sont projetés sur le modèle 3D afin d'identifier les zones plus ou moins proches de ces lignes de caractère. Les méthodes de déformation de polyèdres sont appliquées au cas du remplissage de trous. Une triangulation est insérée au modèle puis déformée par la résolution d'un problème d'optimisation numérique sous contraintes. La fonctionnelle à minimiser simule la variation de courbure entre le maillage inséré et le modèle initial. La solution est obtenue par un algorithme itératif basé sur un modèle mécanique de réseau de barres. Les contraintes imposent le respect de lignes de caractère 3D obtenues par triangulation stéréoscopique dans la première méthode, ou bien calculées en fonction de l'intensité lumineuse des pixels et qui imposent le déplacement des sommets correspondants suivant une certaine élévation (problème inverse du Shape From Shading). Les trois méthodes implémentées sont complètement modulaires.
47

RANS and LES of multi-hole sprays for the mixture formation in piston engines

Khan, Muhammad 20 January 2014 (has links) (PDF)
Cette thèse porte sur la simulation des jets de gouttes générés par des pulvérisateurs essence haute pression, pulvérisateurs qui sont un point clef des systèmes de combustion automobile de la présente et future génération devant diminuer les émissions de CO2 et de polluants. Dans un premier temps les jets de gouttes (" sprays ") sont simulés par simulation moyennée. Les résultats de simulation d'un jet donnant des résultats en moyenne satisfaisant, l'interaction de jets en injecteurs multi-trous est alors simulée. Les résultats sont cohérents par rapport aux mesures d'entraînement d'air. La simulation permettant d'avoir accès au champ complet 3D, le mécanisme d'interaction jet à jet et de développement instationnaire du spray est décrit en détail. La formation d'un mouvement descendant au centre du spray et celle d'un point d'arrêt central sont trouvés. Finalement, Ces résultats sont étendus au cas surchauffé, cas où la pression dans la chambre est inférieure à la pression de vapeur saturante. Un modèle simple semi-empirique est proposé pour tenir compte de la modification des conditions proches de la buse d'injection. Le modèle prédit correctement les tendances des variations de paramètres et capture la forme générale du spray qui se referme sur lui-même. La seconde grande partie est consacrée au développement d'un modèle de spray par l'approche des grandes échelles (SGE), limité ici aux cas non évaporant. Il comprend la modélisation de sous-maille de la dispersion turbulente, des collisions-coalescence et des termes d'échange de quantité de mouvement de sous-maille. L'effet du choix du modèle de sous-maille pour la viscosité turbulente de sous-maille est montré, le choix retenu étant le modèle de Smagorinski dynamique. Afin d'améliorer la représentativité cruciale des conditions d'injections, un couplage faible est réalisé à partir de résultats de simulations existantes de l'écoulement interne aux buses. Les fonctions densité de probabilité simple et jointes extraits des résultats de simulations sont validés par rapport aux mesures PDA en situation pseudo-stationnaire et la pénétration liquide et la forme du spray est comparée aux visualisations par ombroscopie. Enfin, différentes zones caractéristiques sont identifiées et des longueurs sont notées pour les cas d'injection à 100 et 200bar.
48

Constraining the high energy emission sources in the environment of supermassive black holes / L'origine de l'émission électromagnétique de haute énergie dans l'environnement des trous noirs supermassifs

Ursini, Francesco 28 October 2016 (has links)
Des trous noirs supermassifs de plusieurs centaines de millions de masses solaires résident au centre de la plupart des galaxies massives. Dans 90% des cas, ces trous noirs sont dans état quiescent, très peu lumineux. Cependant, dans les 10% restant, des processus extrêmement violents sont observés, avec la libération d'énorme quantités d'énergie no- tamment en UV, X et gamma. On observe aussi parfois des jets puissants de matière pouvant s'étendre sur plusieurs centaines de kpc. Le coeur de ces galaxies sont appelés Noyaux Actifs de Galaxie (NAG). Ce sont parmis les objets les plus lumineux de l'univers. L'accrétion de la matière environnante sur le trou noir supermassif central est unanimement reconnue comme la source d'énergie la plus plausible pour expliquer la puissance phénoménale observée. L'énergie gravitationelle serait ainsi en partie libérée dans un disque d'accrétion, sous forme de rayonnement thermique piquant dans l'optique/UV, et en partie rayonnée en X/gamma par une couronne de plasma chaud présente dans l'environnement proche du trou noir.De nombreux phénomènes sont néanmoins encore très mal connus et beaucoup de ques- tions n'ont toujours pas de réponses satisfaisantes: quelles sont la dynamique et la structure des flots d'accrétion et d'éjection dans les NAG? Quels sont les processus radiatifs produisant le rayonnement UV/X? Quelle est l'origine des différentes composantes spectrales présentes dans ces domaines d'énergie? Cette thèse a pour objectif d'apporter de nouvelles contraintes observationnelles pour meux répondre à ces questions. Son originalité réside dans le développement et l'utilisation de modèles réalistes de Comptonisation thermique permettant d'une part de mieux contraindre les propriétés physiques et géométriques des régions d'émission UV/X et d'autre part de mieux comprendre l'origine des différentes composantes spectrales observées. Nous nous sommes notamment intéressés, au cours de cette thèse, à l'excès d'émission X-mou (<2 keV), présent dans un grand nombre de NAG, et dont l'origine est toujours inconnue.Ces travaux s'articulent autour de deux axes principaux. Le premier est l'étude spectrale détaillée de longues campagnes d'observation multi-longueur d'ondes de trois galaxies de Seyfert (NGC 5548, NGC 7213 et NGC 4593). La qualité des données ont ainsi permis de révéler les paramètres physiques (notamment la température et la profondeur optique) et géométriques de la couronne thermique à l'origine du continuum X. Le second axe porte sur l'analyse de données d'archives (en provenance du satellite XMM-Newton) d'un échantillon important de galaxies de Seyfert. Cela a permis d'apporter, cette fois ci, des contraintes plus générales sur les processus d'émission haute énergie observés dans ces objets. Ces deux approches ont notamment montré que l'exces d'émission X-mou pouvait provenir des couches supérieures chaudes du disque d'accrétion, suggérant un chauffage plus efficace en surface plutôt que dans les régions internes. / Supermassive black holes of several hundred million solar masses lie at the centre of most massive galaxies. In 90% of cases, these black holes are in quiescent, very low luminous states. Nevertheless, in the remaining 10%, extremely violent processes are seen, with the liberation of huge amounts of energy especially in the UV, X-ray and gamma-ray bands. We also sometimes observe powerful jets, extending up to several hundred kpc scales. The cores of these galaxies are called Active Galactic Nuclei (AGNs). These are among the most luminous objects in the Universe. The accretion of surrounding matter onto the central supermassive black hole is generally considered as the most likely energy source to explain the extraordinary observed luminosity. The gravitational energy would be partly liberated into an accretion disc as thermal radiation peaking in the optical/UV band, and partly radiated in the X-ray/gamma-ray band by a corona of hot plasma lying in the environment close to the black hole.However, several phenomena are still poorly understood and a number of questions lacks satisfactory answers: what are the dynamics and the structure of the accretion and ejection flows in AGNs? What are the radiative processes producing the UV/X-ray radiation? What is the origin of the different spectral components present in those energy bands? The goal of this thesis is to derive new observational constraints to better answer to these questions. Its originality resides in the development and application of realistic models of thermal Comptonization, allowing on the one hand to better constrain the physical and geometrical properties of the UV and X-ray-emitting regions, and on the other hand to better understand the origin of the different observed spectral components. In particular, we studied the excess of the soft (<2 keV) X-ray emission, seen in a great number of AGNs, and whose origin is still unknown.This work is structured along two main branches. One is the detailed spectral analysis of long, multiwavelength observational campaigns on three Seyfert galaxies (NGC 5548, NGC 7213 and NGC 4593). The quality of the data permitted to reveal the geometrical and physical parameters (in particular the temperature and optical depth) of the thermal corona producing the X-ray continuum. The second branch is based on the analysis of archival data (from the XMM-newton satellite) of a large sample of Seyfert galaxies. This allowed us to derive more general constraints on the high-energy emission processes observed in these objects. These two approaches have shown, in particular, that the soft X-ray emission excess may arise in the warm upper layers of the accretion disc, suggesting a more effective heating of the surface rather than the inner regions.
49

Au-delà de la relativité générale : certains aspects de la cosmologie quantique à boucles, des trous noirs et de l'univers sombre / Beyond Einstein’s theory of gravitation : some aspects of loop quantum cosmology, black holes and the dark universe

Bolliet, Boris 24 July 2017 (has links)
Dans cette thèse, nous explorons la phénoménologie de certaines extensions de la relativité générale et de la gravité quantique.Cette recherche est motivée par l’incomplétude des modèles théoriques qui décrivent le comportement de la matière aux échelles cosmologiques.Le model standard de la physique des particules et la relativité générale, combinés ensemble et avec les données expérimentales provenant des collisionneurs de particules et de l’astrophysique, conduisent a des modèles d’univers domines par de la matière invisible. De plus, selon le meilleur de ces modèles, l’univers serait présentement dans une phase d’expansion accélérée et aurait commencer son existence par une singularité spatio-temporelle : le big bang.Ainsi, la physique théorique se trouve mise au défi d’obtenir un model sans singularités et avec moins (ou aucune) matière sombre. Sur ce point, les deux dernières décennies ont étés particulièrement fructueuse : il y a maintenant un grand nombre de théories de gravité modifiée, d’énergie sombre et de gravité quantique qui sont à notre disposition.L’objectif du présent travail est de construire un cadre phénoménologique nous permettant de comparer clairement ces théories les unes aux autres et possiblement d’en réfuter certaines en se basant sur les récentes observations cosmologiques ainsi que celles qui sont encore a venir.La première partie de la thèse est dédiée aux théories de gravité modifiée et d’énergie sombre. La deuxième partie traite de la cosmologie quantique a boucles, et finalement la dernière partie présente une nouvelle façon de sonder l’expansion accélérée de l’univers via l’effet Sunyeav Zeldovich thermique. / In this thesis we explore the phenomenology of some extensions to General Relativity and quantum gravity theories.The motivation for this research lies in the incompleteness of the current theoretical models that describe the behaviour of matter on cosmological scales.The standard model of particle physics and general relativity, combined together along with experimental probes in particle colliders and astrophysics, lead to a model for our universe, which is today dominated by dark matter. Moreover, according to the best model, the universe is currently undergoing an accelerated expansion and had started its existence with a space-time singularity: the big bang.The challenge for theoretical physics is therefore to obtain a model without singularity and with less invisible matter (or none). To this respect, the last two decades have been particularly fruitful: there is a large number of competing modified gravity and dark energy theories as well as quantum gravity proposals at our disposal.The purpose of the work presented here is to set up a phenomenological framework that enables a clear comparison and possible exclusions of these new theories by confronting them to current and future observational data.The first part of the thesis is dedicated to modified gravity and dark energy models. The second part deals with loop quantum cosmology, and the last part is a presentation of a new probe for dark energy: the thermal Sunyaev Zeldovich power spectrum.
50

PaVo un tri parallèle adaptatif / PaVo. An Adaptative Parallel Sorting Algorithm.

Durand, Marie 25 October 2013 (has links)
Les joueurs exigeants acquièrent dès que possible une carte graphique capable de satisfaire leur soif d'immersion dans des jeux dont la précision, le réalisme et l'interactivité redoublent d'intensité au fil du temps. Depuis l'avènement des cartes graphiques dédiées au calcul généraliste, ils n'en sont plus les seuls clients. Dans un premier temps, nous analysons l'apport de ces architectures parallèles spécifiques pour des simulations physiques à grande échelle. Cette étude nous permet de mettre en avant un goulot d'étranglement en particulier limitant la performance des simulations. Partons d'un cas typique : les fissures d'une structure complexe de type barrage en béton armé peuvent être modélisées par un ensemble de particules. La cohésion de la matière ainsi simulée est assurée par les interactions entre elles. Chaque particule est représentée en mémoire par un ensemble de paramètres physiques à consulter systématiquement pour tout calcul de forces entre deux particules. Ainsi, pour que les calculs soient rapides, les données de particules proches dans l'espace doivent être proches en mémoire. Dans le cas contraire, le nombre de défauts de cache augmente et la limite de bande passante de la mémoire peut être atteinte, particulièrement en parallèle, bornant les performances. L'enjeu est de maintenir l'organisation des données en mémoire tout au long de la simulation malgré les mouvements des particules. Les algorithmes de tri standard ne sont pas adaptés car ils trient systématiquement tous les éléments. De plus, ils travaillent sur des structures denses ce qui implique de nombreux déplacements de données en mémoire. Nous proposons PaVo, un algorithme de tri dit adaptatif, c'est-à-dire qu'il sait tirer parti de l'ordre pré-existant dans une séquence. De plus, PaVo maintient des trous dans la structure, répartis de manière à réduire le nombre de déplacements mémoires nécessaires. Nous présentons une généreuse étude expérimentale et comparons les résultats obtenus à plusieurs tris renommés. La diminution des accès à la mémoire a encore plus d'importance pour des simulations à grande échelles sur des architectures parallèles. Nous détaillons une version parallèle de PaVo et évaluons son intérêt. Pour tenir compte de l'irrégularité des applications, la charge de travail est équilibrée dynamiquement par vol de travail. Nous proposons de distribuer automatiquement les données en mémoire de manière à profiter des architectures hiérarchiques. Les tâches sont pré-assignées aux cœurs pour utiliser cette distribution et nous adaptons le moteur de vol pour favoriser des vols de tâches concernant des données proches en mémoire. / Gamers are used to throw onto the latest graphics cards to play immersive games which precision, realism and interactivity keep increasing over time. With general-propose processing on graphics processing units, scientists now participate in graphics card use too. First, we examine these architectures interest for large-scale physics simulations. Drawing on this experience, we highlight in particular a bottleneck in simulations performance. Let us consider a typical situation: cracks in complex reinforced concrete structures such as dams are modelised by many particles. Interactions between particles simulate the matter cohesion. In computer memory, each particle is represented by a set of physical parameters used for every force calculations between two particles. Then, to speed up computations, data from particles close in space should be close in memory. Otherwise, the number of cache misses raises up and memory bandwidth may be reached, specially in parallel environments, limiting global performance. The challenge is to maintain data organization during the simulations despite particle movements. Classical sorting algorithms do not suit such situations because they consistently sort all the elements. Besides, they work upon dense structures leading to a lot of memory transfers. We propose PaVo, an adaptive sort which means it benefits from sequence presortedness. Moreover, to reduce the number of necessary memory transfers, PaVo spreads some gaps inside the data structure. We present a large experimental study and confront results to reputed sort algorithms. Reducing memory requests is again more important for large scale simulations with parallel architectures. We detail a parallel version of PaVo and evaluate its interest. To deal with application irregularities, we do load balancing with work-stealing. We take advantage of hierarchical architectures by automatically distributing data in memory. Thus, tasks are pre-assigned to cores with respect to this organization and we adapt the scheduler to favor steals of tasks working on data close in memory.

Page generated in 0.0389 seconds