• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 116
  • 55
  • 9
  • 9
  • 6
  • 1
  • 1
  • 1
  • Tagged with
  • 207
  • 85
  • 53
  • 30
  • 28
  • 27
  • 23
  • 23
  • 23
  • 21
  • 18
  • 16
  • 13
  • 13
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Etudes fonctionnelles et structurales des complexes Hélicase-Primase du virus Epstein-Barr

Thierry, Eric 23 April 2013 (has links) (PDF)
Le virus Epstein-Barr (EBV) est un gamma herpèsvirus humain infectant plus de 95 % de la population mondiale. Lorsque la primo-infection a lieu pendant l'adolescence ou à l'âge adulte, elle peut induire la mononucléose infectieuse (MNI), cette maladie est le plus souvent bénigne. EBV est aussi associé à un certain nombre de cancers de type lymphome (lymphomes de Burkitt et d'Hodgkin) et de type carcinome (carcinomes gastriques et indifférenciés du rhinopharynx). L'importance des protéines de latence du virus dans l'apparition des tumeurs a été très étudiée. Des études récentes montrent que les protéines lytiques d'EBV sont aussi très importantes pour l'apparition et le développement des tumeurs. Le complexe Hélicase-Primase (H-P) du virus herpès simplex 1 (HSV-1, alpha herpèsvirus) est la cible de nouveaux antiviraux. Les activités ATPase, hélicase et primase du complexe d'HSV-1 ont été largement étudiées, mais aucune information structurale du complexe H-P n'est disponible actuellement pour un membre des herpèsvirus humains. Nous avons entrepris l'étude du complexe H-P d'EBV (BBLF4 : hélicase, BSLF1 : primase et BBLF2/3 : sous-unité accessoire) afin de caractériser sa structure et les activités qu'il porte. Nous avons pu établir les conditions d'expression et de purification du complexe et débuter des études structurales et enzymatiques préliminaires. Nous avons pu observer une activité ATPase basale du complexe indépendante de la présence d'un substrat ADN simple brin. Nous observons deux formes solubles du complexe lors des purifications, une présentant probablement une stœchiométrie proche de 1/1/1 et une seconde forme ayant surement un excès de la protéine Hélicase (BBLF4). Ces premiers résultats apportent des informations nouvelles pour le complexe H-P d'EBV et doivent être poursuivis afin de les confirmer et de pouvoir les comparer avec ceux déjà connus pour le complexe H-P d'HSV-1.
92

Développement de techniques de lancer de rayon dans des géométries 3D adaptées aux machines massivement parallèles

Nebel, Jean-Christophe 01 December 1997 (has links) (PDF)
Le lancer de rayon est un algorithme permettant de représenter des scènes 3D de façon très réaliste. Son principe, simple et puissant, repose sur les lois de l'optique géométrique : l'image que voit un observateur est le fruit des interactions entre des photons 6mis par des sources lumineuses et des objets possédant des propriétés géométriques et optiques. L'utilisation d'un modèle basé sur la physique permet une bonne approche des phénomènes naturels suivants : l'éclairement par des sources lumineuses, la réflexion de la lumière sur des objets et la transmission de la lumière à travers des objets transparents. L'algorithme dérivant de ce modèle possède pourtant un inconvénient majeur : le temps de traitement d'une image est très important. Bien que de nombreuses méthodes d'accélération aient été proposées pour tenter d'améliorer sa vitesse d'exécution, ce problème demeure bien présent. Toutefois, avec le développement actuel des machines parallèles à mémoire distribuée et des réseaux d'ordinateurs, une voie d'accélération très prometteuse se développe : la parallélisation. De plus, la mise en commun des capacités ''mémoire" de chaque composante d'une architecture parallèle rend possible le traitement de scènes comportant un plus grand nombre d'objets aux propriétés de plus en plus complexes. Le chapitre 1 présente l'algorithme de lancer de rayon ainsi que les accélérations séquentielles proposées dans la littérature. D apparaît que les techniques les plus efficaces sont basées soit sur l'utilisation de volumes englobants soit sur des subdivisions de l'espace. Malgré ces optimisations, la parallélisation demeure la source d'accélération au plus fort potentiel. Le chapitre 2 recense les différents types d'architectures parallèles et expose les familles d'algorithmes utilisées pour la parallélisation du lancer de rayon sur des machines parallèles à mémoire distribuée. Deux stratégies permettent une distribution de la base de données : 1' envoi de rayons et l'envoi d'objets. Dans le chapitre 3, après avoir présenté nos contraintes, nous comparons les algorithmes parallèles pouvant y répondre grâce à leur modélisation. Les résultats obtenus vont nous amener à proposer deux nouveaux algorithmes de parallélisation basés sur un nouveau type de flot. Enfin, dans le chapitre 4 nous présentons nos résultats expérimentaux et leur analyse. Nos tests sont réalisés sur des machines massivement parallèles et sur un réseau de stations de travail.
93

Métrologie de la fréquence de transition 1S-3S dans l'hydrogène : contribution au débat sur le rayon de charge du proton / Frequency metrology of the 1S-3S transition of hydrogen : contribution to the proton charge radius puzzle

Fleurbaey, Hélène 26 October 2017 (has links)
La mesure précise de la fréquence de la transition 1S-3S de l'atome d'hydrogène est d'un grand intérêt pour l'énigme du rayon de charge du proton, qui a pour origine les résultats récents de la spectroscopie de l'hydrogène muonique. Nous excitons la transition à deux photons 1S-3S, dans un jet d'atomes d'hydrogène, à l'aide d'un laser continu à 205 nm obtenu par somme de fréquences dans un cristal non-linéaire. La fréquence de la transition est mesurée par rapport à l'horloge à césium du LNE-SYRTE à l'aide d'un peigne de fréquence. L'enregistrement du signal pour différentes valeurs d'un champ magnétique appliqué permet d'estimer la distribution de vitesse des atomes du jet et d'en déduire l'effet Doppler du deuxième ordre. Les autres effets systématiques qui déplacent la transition ont été pris en compte : interférence quantique, déplacement lumineux, collisions. Une étude systématique en fonction de la pression a permis de montrer que la distribution de vitesse ne dépend pas de la pression et de déterminer le déplacement collisionnel. Finalement, une valeur de la fréquence de transition 1S-3S est obtenue avec une incertitude d'environ 5 kHz, ou 1,7 10^-12 en valeur relative. Elle est en très bon accord avec la valeur recommandée par le CODATA. Cette nouvelle mesure contribue à la recherche autour de l'énigme du rayon du proton. / The precise measurement of the 1S-3S transition frequency of hydrogen could have a great impact on the proton charge radius puzzle, which results from the recent spectroscopy of muonic hydrogen. In our experiment, the two-photon 1S-3S transition is excited in a hydrogen atomic beam, with a continuous-wave 205-nm laser which is obtained by sum frequency generation in a non-linear crystal. The transition frequency is measured with respect to the LNE-SYRTE Cs clock by means of a frequency comb. Recording the signal for several values of an applied magnetic field allows to estimate the velocity distribution of the atoms in the beam and deduce the second-order Doppler shift. Other frequency-shifting systematic effects have been taken into account: cross-damping, light shift, collisions. A complete study has shown that the velocity distribution does not depend significantly on the pressure, and allowed to determine the collisional shift. Eventually, a value of the 1S-3S transition frequency is obtained with an uncertainty of about 5 kHz, or a relative uncertainty of 1.7 10^-12. It is in very good agreement with the CODATA recommended value. This new measurement contributes to the ongoing search to solve the proton radius puzzle.
94

Image processing algorithms for the visualization of interventional devices in X-ray fluoroscopy / Algorithmes de traitement d'images pour la visualisation d'outils interventionnels dans des séquences de fluoroscopie par rayons X

Bismuth, Vincent 09 January 2012 (has links)
La pose de stent est l'option de traitement la plus courante de la maladie coronarienne, l'une des principales causes de mortalité dans le monde. Lors d'une procédure de pose de stent, le médecin insère des outils chirurgicaux dans le réseau vasculaire du patient. La progression de ces outils a l’intérieur du corps est suivie en temps réel sous uroscopie par rayons X. Trois outils, en particulier, jouent un rôle crucial dans la procédure : le guide, le ballon d'angioplastie et le stent. Le guide apparaît dans les images sous la forme d'une structure curviligne ne. Le ballon, monte sur le guide, est équipé de deux marqueurs radio-opaques à ses extrémités. Le stent est un maillage métallique qui se projette en une forme complexe dans les images uroscopiques. Le stent, dont le bon déploiement est essentiel au succès du geste médical, est souvent très difficilement visible dans les images. Les travaux présentés dans cette thèse poursuivent un double objectif. Il s'agit d'une part, de concevoir, d’étudier et de valider des techniques de traitement d'image visant à améliorer la visualisation des stents. D'autre part, nous étudions la traitement des structures curvilignes (comme les guides) pour lesquelles nous proposons un nouvel outil. Nous présentons des algorithmes de traitement d'image dédiés a la visualisation 2D et3D des stents. Nous sommes amenés, dans ce but, à détecter, suivre et recaler, de manière complètement automatique, les outils nécessaires a la pose de stent que sont le guide et le ballon. Le stent étant a peine visible dans les images, nous ne cherchons pas à le localiser directement à l'aide de techniques de traitement d'images. La position et le mouvement du stent sont déterminés par nos algorithmes […]. Nous avons évalué la performance des ces outils pour la visualisation des stents en 2D, sur une large base de près de 200 cas cliniques. Il en ressort que notre méthode surpasse les méthodes utilisées jusqu'ici sur le plan de la qualité image. La validation exhaustive que nous avons menée, confirme que nous avions atteint un niveau compatible avec son introduction commerciale. Le logiciel qui en résulte est désormais installé sur un grand nombre de sites cliniques, ou il est régulièrement utilisé. La méthode de visualisation 3D des stents que nous proposons utilise les marqueurs pour effectuer une reconstruction tomographique compensée en mouvement. Nous exposons des résultats préliminaires sur une base de 22 cas cliniques. Il semble que notre méthode surpasse les méthodes précédemment employées aussi bien du point de vue de la qualité d’image que de l'automatisation. Les méthodes de visualisation des stents que nous proposons s’appuient sur la segmentation de la portion du guide qui traverse le stent. Nous proposons un nouvel outil pour le traitement de telles structures curvilignes que nous appelons : l'Image de Chemins Polygonaux (acronyme PPI en anglais). Cet outil repose sur la notion de chemin localement optimal. L'un des principaux avantages du PPI est d’unir dans un même cadre différents concepts pré-existants. De plus, il permet de contrôler la régularité et la longueur des structures à traiter avec une paramétrisation simple et intuitive. Avant de tirer pleinement parti des performances du PPI nous proposons un schéma algorithmique efficace pour le calculer. Nous illustrons ces utilisation pour la segmentation automatique de guide où il surpasse les techniques existantes / Stent implantation is the most common treatment of coronary heart disease, one of the major causes of death worldwide. During a stenting procedure, the clinician inserts interventional devices inside the patient's vasculature. The navigation of the devices inside the patient's anatomy is monitored in real-time, under X-ray fluoroscopy. Three specific interventional devices play a key role in this procedure: the guide-wire, the angioplasty balloon and the stent. The guide-wire appears in the images as a thin curvilinear structure. The angioplasty balloon, that has two characteristic markerballs at its extremities, is mounted on the guide-wire. The stent is a 3D metallic mesh, whose appearance is complex in the fluoroscopic images. Stents are barely visible, but the proper assessment of their deployment is key to the procedure. The objective of the work presented in this thesis is twofold. On the first hand, we aim at designing, studying and validating image processing techniques that improve the visualization of stents. On the second hand, we study the processing of curvilinear structures (like guide-wires) for which we propose a new image processing technique. We present algorithms dedicated to the 2D and 3D visualization of stents. Since the stent is hardly visible, we do not intend to directly locate it by image processing means in the images. The position and motion of the stent are inferred from the location of two landmarks: the angioplasty balloon and of the guide-wire, which have characteristic shapes. To this aim, we perform automated detection, tracking and registration of these landmarks. The cornerstone of our 2D stent visualization enhancement technique is the use of the landmarks to perform motion compensated noise reduction. We evaluated the performance of this technique for 2D stent visualization over a large database of clinical data (nearly 200 cases). The results demonstrate that our method outperforms previous state of the art techniques in terms of image quality. A comprehensive validation confirmed that we reached the level of performance required for the commercial introduction of our algorithm. It is currently deployed in a large number of clinical sites worldwide. The 3D stent visualization that we propose, uses the landmarks to achieve motion compensated tomographic reconstruction. We show preliminary results over 22 clinical cases. Our method seems to outperform previous state of the art techniques both in terms of automation and image quality. The previous stent visualization methods involve the segmentation of the part of the guide-wire extending through the stent. We propose a generic tool to process such curvilinear structures that we call the Polygonal Path Image (PPI). The PPI relies on the concept of locally optimal paths. One of its main advantages is that it unifies the concepts of several previous state of the art techniques in a single formalism. Moreover the PPI enables to control the smoothness and the length of the structures to segment. Its parametrization is simple and intuitive. In order to fully benefit from the PPI, we propose an efficient scheme to compute it. We demonstrate its applicability for the task of automated guide-wire segmentation, for which it outperforms previous state of the art techniques
95

"In to Stay" : Selling Three-Strip Technicolor and Fashion in the 1930s and 1940s

Snoyman, Natalie January 2017 (has links)
This study investigates the relationship between the fashion and film industries during the classical era between the early 1930s and mid-1940s. It focuses on the three-strip Technicolor process as the binding force upon which these two industries relied in collaborations during that time and looks at technical challenges the new process presented to productions in terms of wardrobe design. Another issue explored is fashion’s role in the actual development of the three-strip process, allowing the Technicolor laboratory to improve the technology through a popular, marketable, and readily available product. Using Technicolor as a point of focus and continuity, this dissertation explores different types of productions filmed in the three-strip process, including shorts and newsreels, industrial and sponsored films, as well as feature-length films.  Drawing from a wide range of archival material and a highly interdisciplinary approach, the study delves into the relationship between the fashion and film industries. While the ties between them have been strong since the advent of cinema, previous research has approached their relationship almost exclusively from a promotional perspective. Technicolor’s multifaceted affiliation with the fashion industry, however, warrants a more thorough investigation and this dissertation takes steps towards expanding that research area through a series of case studies. The first chapter provides an overview of color film methods that preceded three-strip Technicolor and outlines some of the key discourses involving color and realism. Chapter 2 addresses the intertwined relationship between the fashion and film industries through a study of fashion department in the popular fan magazine Photoplay and also examines the use of color in that publication. Chapter 3 investigates the fashion short as a vehicle for demonstrating the commercial potential of the three-strip process. It does this by examining the making and promotion of Vyvyan Donner’s Fashion Forecast series. This chapter also looks at the specific work carried out by Technicolor’s Color Control Department. Chapter 4 explores industrial and sponsored films in three-strip Technicolor for the fashion industry with an emphasis on those made to promote rayon. The second half of this chapter examines the 1930/1940 seasons of the New York World’s Fair, focusing on the presence there of Technicolor and the American rayon industry. Lastly, Chapter 5 looks at three-strip Technicolor in feature-length films by considering its collaborations with the fashion industry that took place in the classical era. This chapter also examines design considerations made regarding wardrobe in those films.  The study concludes that color’s versatility made it incredibly influential on consumer culture and was key to ventures between the fashion and film industries in this era and beyond. It also ultimately demonstrates the ways in which color, fashion, and film intersected and complemented one another in terms of their aesthetic and commercial commonalities.
96

Adaptative modeling of urban dynamics with mobile phone database / Modélisation adaptative de la dynamique urbaine avec une base de données de téléphonie mobile

Faisal Behadili, Suhad 29 November 2016 (has links)
Dans cette étude, on s’intéresse à l’étude de la mobilité urbaine à partir de traces de données de téléphonie mobile qui ont été fournies par l’opérateur Orange. Les données fournies concernent la région de la ville de Rouen, durant un événement éphémère qui est l’Armada de 2008. Dans une première étude, on gère une masse importante de données pour extraire des caractéristiques permettant de qualifier des usages de la ville lors d’évènements éphémères, en fonctions des jours d’activités ou de repos des individus. Des visualisations sont données et permettent de comprendre les mobilités engendrées de manière spécifique ou non par l’événement. Dans une seconde partie, on s’intéresse à la reconstitution de trajectoires avec des approches agrégées inspirées des techniques de physique statistique afin de dégager des comportements en fonction des périodes d’activités et d’un découpage spatial en grandes zones urbaines. On tente ainsi de dégager des lois en observant des distributions en loi de puissance caractéristiques de la complexité des systèmes étudiés. / In this study, we are interested in the study of urban mobility from traces of mobile data that were provided by the operator Orange. The data provided relate to the region of the city of Rouen, during an ephemeral event that is the Armada of 2008. In a first study, a large amount of data is managed to extract characteristics allowing to qualify the uses of the city during ephemeral events, depending on the days of activity of the individuals. Visualizations are given and make it possible to understand the mobilities generated in a specific way during the event. In the second part, we study the reconstruction of trajectories with aggregated approaches inspired by statistical physics techniques in order to reveal behaviors according to periods of activity and a spatial division in large urban areas. In order to obtain the general mobility law by observing distributions in power law characteristic for the studied complex system.
97

Search for high energy neutrinos from the Galactic plane with the ANTARES neutrino telescope / Recherche de neutrinos de haute énergie provenant du plan galactique avec le télescope à neutrino ANTARES

Grégoire, Timothée 18 September 2018 (has links)
Deux analyses sont présentées dans cette thèse. Une première analyse exploite les données du télescope à neutrino ANTARES pour sonder la présence d'un flux de neutrino diffus galactique. Cette analyse se base sur un modèle récent de propagation des rayons cosmiques dans la galaxie, le modèle KRAγ. Ce modèle prédit un flux de neutrinos particulièrement élevé et proche de la sensibilité des télescopes à neutrinos actuels. Il existe deux versions de ce modèle correspondant à différentes coupures sur l'énergie des rayons cosmiques, à 5 et 50 PeV/nucléon. Une méthode de maximisation d'une fonction de vraisemblance est utilisée pour prendre en compte les caractéristiques du modèle, autant spatiales qu'en énergie. Cette analyse a également été combinée avec les données de l'expérience IceCube dans le but d'exploiter au mieux les données actuelles. Des limites ont été mises sur ce modèle rejetant la version avec une coupure à 50 PeV et limitant la version avec une coupure à 5 PeV à moins de 1,2 fois le flux prédit par le modèle. Une deuxième analyse de suivi du signal d'ondes gravitationnelles GW170817 par le télescope à neutrino ANTARES est également présentée. Le signal d'onde gravitationnelles GW170817 résulte de la coalescence d'une binaire d'étoiles à neutrons. Cette deuxième analyse a pour objectif de sonder la présence d'un flux de neutrinos provenant de cet événement en cherchant des neutrinos corrélés spatialement et temporellement. J'ai pris part à cette analyse en y ajoutant les événement de type cascade. Aucun événement n'a été détecté en corrélation, des limites ont été mises sur le flux de neutrino attendu. / Two analyses are detailed in this thesis. A first analysis exploit the data of the ANTARES neutrino telescope to probe the presence of a Galactic diffuse neutrino flux. This analysis is based on a recent model of cosmic ray propagation in the Galaxy, the KRAγ model. This model predict a neutrino flux particularly high and close to the sensitivity of the current neutrino telescopes. Two versions of this model exist corresponding to different cuts in the cosmic ray energy, one at 5 PeV/nucleon and an other one at 50 PeV/nucleon. A method of maximization of a likelihood function is used in order to account for the model characteristics in energy and space. The analysis has also been combined with the data of the IceCube experiment in order to exploit all the available data. Limits have been put on this model rejecting the version of the model with the 50 PeV cut and limiting the version with the 5 PeV cut to less than 1.2 times the predicted flux.A second analysis of gravitational wave signal follow-up by the ANTARES neutrino telescope is also presented in this work. The GW170817 gravitational wave signal results from the coalescence of a binary neutron star system. This second analysis aims at probing the presence of a neutrino flux coming from this event looking for neutrino events correlated in space and time. I took part to this analysis by adding the shower-like event sample. No event has been detected in correlation, limits have been put on the expected neutrino flux.
98

Design of a Carbon Fiber Thermocouple for Elevated Temperature Measurements

Holmström, Marcus January 2020 (has links)
Thermocouples are one of the most commonly used instruments for thermometry at elevated  temperatures. As of today, there are only a few types of thermocouples that are built to withstand a temperature beyond 1600 °C,however they usually have a temperature measurement uncertainty of around 1% at these high temperatures. Beyond the 1600 °C temperature span, most high temperature thermocouples tend to drift in the measurements, causing it to output a faulty and inaccurate read of the actual temperature. This thesis explores the usage of carbon fibers as a material to be used in thermocouples, by the combination of two dissimilar carbon fibers. Polyacrylonitrile (PAN) and rayon based fibers were used up to a temperature of 200 °C, where the output voltage of the thermocouple was logged. The study shows a promising and stable linear output of the electromotive force for this type of thermocouple using commercially available carbon fibers at lower temperatures. A comparison is made between the commonly used thermocouples type K and S, results shows that the carbon thermocouple have around 21% of the thermoelectrical efficiency of that of a type K or S thermocouple at 25 °C. For the case of its functionality at higher temperatures, similar graphite material has been studied through literature and found a potential increase in the thermoelectrical stability at higher temperatures beyond 2000 °C, which show that carbon-based thermocouples are well suited for high temperature measurements. / Termoelement är ett av de mest använda instrumenten för temperaturavläsning vid upphöjda temperaturer. Idag finns det bara några få typer av termoelement som är byggda för temperaturer över 1600 ℃, däremot innehar dom vanligtvis en temperaturmätnings osäkerhet på cirka 1% vid dessa höga temperaturer. Över 1600 ℃ temperaturintervallet har de flesta högtemperatur termoelement en tendens att skifta i mätningarna vilket orsakar en felaktig och inexakt mätning av den faktiska temperaturen. Denna avhandling undersöker användningen av kolfiber som ett material för användning i termoelement, genom kombinationen av två olika grafitfibrer. Polyacrylonitrile- (PAN) och Rayon-baserade fibrer användes i en sammansatt kombination upp till en temperatur av 200 ℃, där spänningen mättes mot temperaturen. Studien visar en lovande och stabil linjär effekt av dess elektromotoriska spänning för denna typ av termoelement med kommersiellt tillgängliga kolfibrer vid lägre temperaturer. En jämförelse görs mellan de vanliga termoelementen av typ K och S vid rumstemperaturer, resultaten visar att grafittermoelementen har cirka 21% av den termoelektriska effektiviteten hos den för en typ K eller S termoelement vid 25 ℃. När det gäller dess funktionalitet vid högre temperaturer har liknande grafitmaterial studerats och funnit en potentiell ökning av den termoelektriska stabiliteten vid högre temperaturer över 2000 ℃, vilket visar att grafitbaserade termoelement gör sig väl lämpade för högtemperaturmätningar.
99

Conception et réalisation de miroirs monochromateurs-reflecteurs pour le rayonnement x-uv.

Decanini, Dominique 17 December 1985 (has links) (PDF)
Empilements périodiques de couches minces alternées respectivement absorbantes et transparentes pour le rayonnement x-uv. Les miroirs multicouches réalises sont destines a l'astrophysique et au diagnostic des plasmas crées par laser.
100

Un modèle non-thermique de l'émission UV-X des galaxies de Seyfert : théories et contraintes observationnelles

Petrucci, Pierre-Olivier 15 October 1998 (has links) (PDF)
L'observation, dans le spectre des galaxies de Seyfert, d'une coupure exponentielle aux alentours de quelques centaines de keV et la non-détection d'une forte raie d'annihilation semblent favoriser les modèles thermiques. Néanmoins, je montre, à travers cette étude, qu'un modèle non-thermique peut aussi être à l'origine de l'émission haute énergie de ces objets. Ce modèle suppose la présence d'une source de particules relativistes placée à quelques rayons de Schwarzschild au-dessus d'un disque d'accrétion. Cette source aurait pour origine le choc terminal d'un jet avorté. Le rayonnement X qu'elle libère est produit par diffusion Compton Inverse des photons UV émis par le disque sur les particules relativistes. Inversement, les photons UV proviennent du rayonnement thermique du disque chauffé par la source X. La géométrie de ce modèle impose une forte anisotropie du rayonnement UV perçu par la source X et donne, en retour, une émission Compton Inverse fortement anisotrope. L'équilibre radiatif entre la source et le disque permet de remonter aux principales caractéristiques de ce système. L'ajout de composantes en réflexion permet, ensuite, d'ajuster le spectre de différents objets. La forte anisotropie de l'émission X nécessite alors des angles d'inclinaison bien supérieurs au cas d'une illumination isotrope standard. Finalement, l'étude cinétique du choc donnant naissance à la source X, et prenant en compte les processus de Fermi du premier et du second ordre ainsi que les pertes radiatives, permet de définir plus précisément la source de haute énergie. Ces différents travaux théoriques sont complétés par l'observation optique d'une vingtaine de galaxies de Seyfert, à la recherche de microvariabilités. Les limites supérieures obtenues donnent, dans le cadre de ce modèle non-thermique, de nouvelles contraintes sur les différents paramètres caractérisant la région centrale de ces objets.

Page generated in 0.0483 seconds