Spelling suggestions: "subject:"3analyse statistique"" "subject:"3analyse qtatistique""
1 |
Analyse statistique des données d'une expérience de microréseauDahhou, Mourad January 2006 (has links) (PDF)
Le but de ce mémoire est l'étude des méthodes d'analyse de données d'une expérience de microréseau. Nous nous intéressons au problème des tests d'hypothèses multiples, de contrôle de l'erreur de type 1 et de taux de faux positifs. Nous décrivons les techniques de Dudoit et al. (2003), de Hochberg (1988), de Benjamini et Hochberg (1995) et de Westfall et Young (1993) entre autres. Les problèmes des tests d'hypothèses multiples, les mesures différentes de l'erreur du type 1 et le contrôle de telles erreurs sont discutées ici d'après Dudoit et al. (2003). Nous nous intéressons également à la théorie des inégalités de probabilité dues à Dunn (1967), Jogdeo (1970, 1977) et Simes (1986) parce que ces inégalités forment la base de la méthodologie pour contrôler les différentes erreurs de type 1.
De plus, une description d'un progiciel informatique pour faire une telle analyse de données de microréseau est aussi présentée, une analyse utilisant une des méthodes de Dudoit et al. (2003) ainsi que des données de Colub et al. (1999) avec les gènes de deux types de leucémie. Nous avons introduit la méthode de «Jackknife» comme un autre contrôle du taux des faux positifs pour cet exemple. Le mémoire termine avec une étude de simulation afin d'illustrer les différences entre les mesures de l'erreur du type 1. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Microréseaux, Génétique, Inférence statistique, Taux d'erreur, Jackknife, Simulations.
|
2 |
Les sarcophages entre Loire et Pyrénées : observations et études par des critères techniques et morphologiques / Sarcophagi between the Loire river and the Pyrénées between the 4th and the 8th century : observation, study based on technical and morphological aspectsRougé, Guillaume 30 June 2014 (has links)
Dans cet espace chronologique et géographique que constitue le territoire entre la Loire et les Pyrénées au début du haut Moyen-Âge, la diversité culturelle et politique donne lieu à une réinterprétation du contenant funéraire. Entre tradition romaine et innovation locale, la production de sarcophages connaît des évolutions diverses, contraintes entre autres par les ressources disponibles et l'outillage employé. L'objectif de ce travail a été dans un premier temps de recenser les sarcophages et d'étudier leur répartition sur le territoire évoqué. Les 1840 sarcophages répertoriés sur plus de 150 sites différents ont nécessité le développement d'une méthodologie adaptée à l'enregistrement des données et à leur analyse. C'est dans cette optique qu'une base de données fonctionnelle a été créée, pour répondre au besoin d'inventorier les mesures, l'état de conservation et un grand nombre d'observations sur les sarcophages identifiés. En parallèle, une démarche de cartographie a été entreprise pour rendre compte de la répartition géographique des différents types de sarcophages définis. Ce raisonnement comparatif fondé sur une lecture morphologique et typologique des contenants funéraires s'est enrichi d'une analyse statistique métrologique. Ces différentes approches ont permis de dresser le portrait de productions diverses, possédant des caractéristiques variées. Par ailleurs, ces données viennent alimenter des problématiques à plus grande échelle, notamment la diffusion de biens au delà de frontières géographiques peu perméables alors qu’a contrario les réseaux de distribution semblent très organisés et efficaces à l'échelle locale ou régionale. Néanmoins, il ressort que de nombreuses productions sont très certainement locales, avec une diffusion des modèles plus que des sarcophages, même si certains ont effectué de longs déplacements. Les conclusions apportées par ce travail permettent en fin de compte d'alimenter la discussion sur les nombreuses thématiques économiques et techniques à la confluence desquelles le sarcophage trouve une place centrale. / Within the framework of the chronological et typological space made of the territories between the Loire river and the Pyrénées mountain at the beginning of early Middle Ages, cultural and political diversity leads to a transformation of the funerary containers. Between roman heritage and local innovation, the sarcophagi production undergoes various evolutions, partially constrained by the available natural resources and the tools used. The main goal of this work was in a first place to take an inventory of the sarcophagi and study their dispersion on the territory mentioned. The 1840 sarcophagi identified over more than 150 archaeological sites implied developing a suitable methodology and useful tools to gather the data and permit their analysis. Therefore, a practical database was designed to fulfill the need of recording measures, preservation state and other information on the sarcophagi observed. At the same time, the different defined types of sarcophagi were depicted on maps, in order to evaluate their geographical dispersion. This comparative approach based on morphological and typological study of the funerary containers has been enhanced with statistical analyses on measures recorded. These different processes succeeded in depicting various productions with different characteristics. In addition to these characteristics, the data collected allowed to feed different topics on a larger scale, such as the diffusion of these goods beyond strong cultural frontiers. On the contrary, distribution networks appear to be well organized and very efficient on a local or regional scale. Most of the sarcophagi productions are local, and only types and ideas travel, even if some of the sarcophagi travelled over long distances. The conclusions obtained shed the light on new elements on topics such as economy and techniques, where the sarcophagus holds a central place.
|
3 |
Synthèse et caractérisation de matériaux carbonés microporeux pour le stokage de l'hydrogène / Synthesis and characterisation of microporous carbonaceous materials for hydrogen storageZhao, Weigang 09 October 2012 (has links)
Cette thèse présente la préparation, la caractérisation et l'évaluation en termes de capacité de stockage d'hydrogène de charbons actifs optimisés pour cette application. L'objectif était de développer des matériaux qui puissent atteindre ou approcher la capacité de stockage visée par le Département Américain à l'Énergie pour 2015, soit 5.5 % en masse du système de stockage. Dans ce but, les recherches rapportées ici se sont focalisées sur : (1) l'étude et la compréhension des conditions expérimentales de préparation de ces adsorbants ; (2) l'optimisation de leur texture poreuse pour le stockage d'hydrogène ; (3) l'étude des corrélations entre capacité de stockage d'hydrogène et paramètres texturaux (aire spécifique, volumes poreux et distributions de tailles de pores) ; (4) l'étude du dopage des matériaux par de l'azote et des nanoparticules métalliques. Des capacités de stockage égales à 6.6 % en masse de l'adsorbant à 77K et 4 MPa d'une part, et de 1.0 % massique à 298K et 20 MPa d'autre part, ont été obtenues dans ce travail, parmi les plus élevées qui aient été rapportées dans la littérature / This thesis describes the preparation, the characterisation and the performances in terms of hydrogen storage capacity of activated carbons designed for such application. The objective was to develop materials that might be able to meet or approach the storage capacity targeted by the US Department of Energy for 2015, i.e. 5.5 wt. % with respect to the whole storage system. With this aim in view, the researches reported here focused on: (1) investigation and understanding of experimental conditions for preparing such adsorbents; (2) optimization of their porous texture for hydrogen storage; (3) correlations between hydrogen storage capacity and textural parameters (surface area, pore volumes and pore size distributions); (4) investigation of materials doping by nitrogen and metal nanoparticles. Storage capacities of 6.6 % in weight with respect to adsorbent at 77K and 4 MPa on one hand, and of 1 wt. % at 298K and 20 MPa on the other hand, were obtained in the present thesis, among the highest reported so far in the open literature
|
4 |
Analyse du géoïde de séparation des sources pour la compréhension de l'organisation verticale des anomalies de masse dans le manteau / Geoid analysis and blind source separation for the undrstanding of the vertical organization of mass anomalies within the mantleGrabkowiak, Alexia 21 February 2017 (has links)
Depuis le début des années 80, les progrès techniques permettent des estimations quantitatives des relations entre les structures internes de la Terre et sa forme. Des méthodes statistiques appliquées à un modèle tomographique de la Méditerranée permettent d’extraire 3 composantes qui capturent 70% de la variance des données. La première correspond à la réaction du manteau supérieur à la présence de lithosphère à 660 km, la seconde enregistre la réaction du manteau aux slabs subverticaux dans le manteau supérieur, la troisième capture les variations de vitesse sismiques du sommet des manteaux supérieur et inférieur. L’effet de ces 3 phénomènes sur le géoïde est modélisé en considérant : (i) Toutes les anomalies enregistrées par les données tomographiques constituent des sources d’anomalies. Leur effet est calculé en utilisant la gravito-visco-élasticité. Il semble que cette approche ne suffit pas à modéliser l’ensemble de la composante mantellique. (ii) les données tomographiques enregistrent les sources d’anomalies et tous les phénomènes de réajustement. En intégrant les anomalies de masses données par le modèle tomographique on obtient des structures détaillées qui surestiment la composante mantellique. (ii) Chaque composante isole des phénomènes du manteau liés à une source à laquelle est appliquée la théorie de la gravito-visco-élasticité. La composante mantellique obtenue est de longueur d'onde et amplitude compatibles avec le géoïde.La présence de calottes de lithosphère à la base de la zone de transition est susceptible d’être visible par le géoïde contrairement à la présence de slabs subverticaux dans le manteau supérieur / Progress made in seismic tomography and geodesy open the way to estimations of relations between the structures within the Earth and its shape. Applying statistical analysis to tomographic data of the mediterranean area, we extract 3 components that capture almost 70 % of the variance of the tomographic data : first one isolates the mantle reaction to lithospheric masses from the bottom of the transition zone, the second one is legated to subvertical lithsopheric slabs in the upper mantle, the third one corresponds to the tops of upper- and lower- mantle expression. Effect of these dynamics on the geoid has been modelized using considering that : (i) all the structures of the tomographic model are geoid anomaly sources, mantle component of the geoid is computed applying the gravito-visco-elasticity theory to take into account deflection of viscosity interfaces. This approach provides a smooth and low amplitude geoid mantle component. (ii) the tomographic model can register sources but also the all readjustment. Mantle component of the geoid is computed integrating anomalies of the model. It provides a detailled but too large with respect with the regional geoid mantle component. (iii) each component has capacity to isolate a phenomenon legated to a specific source of geoid anomalies. We applied gravito-visco-elastic theory specifically to it. That provides a mantle component detailled and that has a magnitude low enough with respect to the geoid.The presence of lithospheric caps on the bottom of the transition zone can be detected by the mantellic component of the geoid, but the geoid is not sensitive to subvertical slabs within the upper mantle
|
5 |
Analyse statistique de plans par regroupement et applications à la génomique et à la biostatiqueAuger, Pierre January 2010 (has links) (PDF)
Dans ce mémoire, nous présentons quelques facettes de l'étude statistique des plans par regroupement, qui nous ont paru particulièrement représentatives. Comme on rencontre les méthodologies faisant appel aux plans par regroupement surtout en génétique, nommément en génétique expérimentale, où du reste ces méthodologies s'y révèlent remarquablement adéquates, nous présentons d'abord en le chapitre l, en guise de préalable à la suite du mémoire, un certain nombre d'éléments de génétique et, en particulier,
nous y présentons la notion de sonde, qui est en quelque sorte une « constante », puisque cette notion est sous-jacente à toutes les méthodologies que nous présentons ici, au sens où, plus précisément, cette notion est centrale dans ce qui motive toutes ces méthodologies. Dans le chapitre 2, nous présentons le concept de complexe simplicial. Ce concept a ceci de remarquable qu'il donne lieu à des plans par regroupement grâce auxquels on peut déterminer tous les éléments positifs à partir de la donnée des groupes positifs.
Nous introduisons ensuite dans le chapitre 3 une nouvelle espèce de structures, à savoir l'espèce des plans ordonnés. Nous en déduisons ensuite une formule pour l'espérance
du nombre d'éléments négatifs indéterminés dans le cas des plans par regroupement ordinaires. Nous présentons aussi une méthode, que nous qualifions d'ensembliste, pour la détermination de probabilités toujours dans le cas des plans ordonnés. Nous pensons avoir détecté une faille dans le cours du raisonnement de l'auteur de cette méthode et en proposons une solution de rechange. Dans le chapitre 4, nous présentons une méthode d'estimation de l'espérance d'un certain estimateur du nombre d'éléments positifs, estimateur que nous y définissons, pour une classe particulière de plans par regroupement, à savoir la classe des plans hypercubiques. Nous présentons ensuite différentes facettes de la mise en application de l'estimateur de Monte Carlo de l'espérance de cet estimateur-là. Cette mise en application nous permet finalement dans le chapitre 5 d'obtenir des tables d'estimations de cet estimateur pour différentes valeurs des paramètres de cette classe de plans, et pour différentes valeurs du paramètre de la loi de probabilité associée. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Génomique, Complexe simplicial, Plan par regroupement, Plan ordonné, Plan hypercubique.
|
6 |
Recherche de biomarqueurs et études lipidomiques à travers diverses applications en santé / Biomarker research and lipidomics studies through various health applicationsLanzini, Justine 21 November 2016 (has links)
La notion de biomarqueurs est définie comme « une caractéristique mesurée objectivement et évaluée comme indicateur de processus biologiques normaux ou pathologiques, ou de réponses pharmacologiques à une intervention thérapeutique ». L'intérêt scientifique pour les biomarqueurs est de plus en plus important. Ils permettent, entre autres,une meilleure compréhension des processus pathologiques et de diagnostiquer, voire pronostiquer ces pathologies. Les études « omiques » telles que la lipidomique jouent un rôle essentiel dans la découverte de nouveaux biomarqueurs. La lipidomique consiste à explorer le lipidome d'un échantillon biologique et à déceler l'impact de la pathologie sur ce dernier. Les lipides constituent une vaste et importante famille de métabolites retrouvés dans toutes les cellules vivantes, dont leur nombre est estimé à plus de 100 000 espèces chez les mammifères. Ils sont impliqués, notamment, dans le stockage d'énergie et la transduction de signal. Mon travail de thèse a reposé sur la réalisation d'approches lipidomiques en LC-MS sur diverses applications en santé telles que le syndrome de déficit immunitaire combiné sévère associé à une alopécie et une dystrophie des ongles, le syndrome du nystagmus infantile et le rejet de greffe rénale. A cette fin, des analyses statistiques multivariées et univariées ont été employées pour déceler des potentiels lipides biomarqueurs. / Biomarker was defined as "a characteristic that is objectively measured and evaluated as an indicator of normal biological processes, pathogenic processes, or pharmacological responses to therapeutic intervention". The scientific interest in biomarkers is more and more important. They allow, in particular, to better understand pathogenic processes and to diagnose, even to predict pathologies. "Omics" studies, such as lipidomics, play an essential role in the new biomarkers discovery. Lipidomics consist in exploring biological samples lipidome and in detecting pathogenic impact on this latter. Lipids are a large and important metabolite family found in all living cells. Their quantity is estimated to more than 100,000 species in mammals. They are involved, in particular, in the energy storage and the signal transduction. My PhD thesis involved carrying out lipidomics approaches with LC-MS through various health applications such as severe combined immunodeficiency associated with alopecia syndrome, infantile nystagmus syndrome and renal graft rejection. For this purpose, multivariate and univariate statistical analyses were carried out in order to detect potential lipid biomarkers.
|
7 |
Caractérisation expérimentale et numérique de la transmission acoustique de structures aéronautique : effets du couplage et de l'excitationCherif, Raef January 2015 (has links)
La prédiction du bruit intérieur d’un habitacle typique d’un avion nécessite la modélisation vibroacoustique de l’ensemble fuselage et la compréhension des mécanismes gouvernant la transmission acoustique à travers ces structures. Ce projet a pour objectifs de développer et mettre en place un modèle hybride expérimentale-numérique rapide et précis permettant de prédire la transmission acoustique à travers ces structures soumises à des excitations aériennes et solidiennes. Le but est d’élucider les mécanismes de transmission acoustique afin de réduire la transmission solidienne de vibrations mécaniques ainsi que diminuer la transmission acoustique du bruit dans la cabine. À ce propos, une double-parois représentative d’avion est modélisée par la méthode de l’analyse statistique énergétique (SEA). Le modèle utilisé est basé sur la connaissance des différents indicateurs vibroacoustique; spécifiquement le nombre d'onde, la densité modale, le facteur de perte par amortissement, le facteur de perte par couplage et l’efficacité par rayonnement. La tâche est rendue davantage difficile par les complexités mécaniques et physiques mises en jeu.
Une première partie porte sur la caractérisation expérimentale du facteur de perte par amortissement des structures sandwich composites. Une nouvelle méthode expérimentale de mesure de l’amortissement dénommée IWM (Inverse Wave Method) est mise en place. Elle se base sur la mesure du nombre d’ondes complexe. Il ressort que la méthode développée présente plus de stabilité dans les résultats obtenus tant numériques qu’expérimentaux.
La deuxième partie de cette étude est totalement dédiée à l’efficacité de rayonnement. La mesure de l’efficacité de rayonnement est étudiée par une approche énergétique statistique des structures suspendues en libre libre et non bafflée dans une chambre réverbérante. La mesure est validée sur une large bande de fréquences pour plusieurs types de constructions.
La troisième partie porte sur une validation expérimentale détaillée d'un modèle sandwich (General Laminate Model). À partir des propriétés mécaniques des structures aéronautiques étudiées, le modèle sandwich permet de prédire leurs comportements vibroacoustique. La précision de ce modèle est étudiée sur une large bande de fréquences.
Enfin, la transmission acoustique d’une double paroi avec des connexions structurales entre les deux panneaux est étudiée. Les voies de transmission dominantes sont identifiées dans la gamme de fréquences entre 100 Hz et 10 kHz pour des doubles parois sous champ diffus. La transmission non-résonante est plus importante en basses fréquences alors que les parties structurale et aérienne dominent respectivement en moyennes et hautes fréquences. Une validation avec des résultats expérimentaux montre que le modèle est capable de prédire les changements au niveau de la transmission, causés par les différents couplages structuraux (couplage rigide, couplage souple). L’objectif final étant évidemment de réduire le niveau de bruit dans la cabine.
|
8 |
Filtrage, réduction de dimension, classification et segmentation morphologique hyperspectraleNoyel, Guillaume 22 September 2008 (has links) (PDF)
Le traitement d'images hyperspectrales est la généralisation de l'analyse des images couleurs, à trois composantes rouge, vert et bleu, aux images multivariées à plusieurs dizaines ou plusieurs centaines de composantes. Dans un sens général, les images hyperspectrales ne sont pas uniquement acquises dans le domaine des longueurs d'ondes mais correspondent à une description d'un pixel par un ensemble de valeurs : c'est à dire un vecteur. Chacune des composantes d'une image hyperspectrale constitue un canal spectral, et le vecteur associé à chaque pixel est appelé spectre. Pour valider la généralité de nos méthodes de traitement, nous les avons appliquées à plusieurs types d'imagerie correspondant aux images hyperspectrales les plus variées : des photos avec quelques dizaines de composantes acquises dans le domaine des longueurs d'ondes, des images satellites de télédétection, des séries temporelles d'imagerie par résonance dynamique (DCE-MRI) et des séries temporelles d'imagerie thermique. Durant cette thèse, nous avons développé une chaîne complète de segmentation automatique des images hyperspectrales par des techniques morphologiques. Pour ce faire, nous avons mis au point une méthode efficace de débruitage spectral, par Analyse Factorielle des Correspondances (AFC), qui permet de conserver les contours spatiaux des objets, ce qui est très utile pour la segmentation morphologique. Puis nous avons fait de la réduction de dimension, par des méthodes d'analyse de données ou par modélisation des spectres, afin d'obtenir un autre représentation de l'image avec un nombre restreint de canaux. A partir de cette image de plus faible dimension, nous avons effectué une classification (supervisée ou non) pour grouper les pixels en classes spectralement homogènes. Cependant, les classes obtenues n'étant pas homogènes spatialement, i.e. connexes, une étape de segmentation s'est donc avérée nécessaire. Nous avons démontré que la méthode récente de la Ligne de Partage des Eaux Probabiliste était particulièrement adaptée à la segmentation des images hyperspectrales. Elle utilise différentes réalisations de marqueurs aléatoires, conditionnés par la classification spectrale, pour obtenir des réalisations de contours par Ligne de Partage des Eaux (LPE). Ces réalisations de contours permettent d'estimer une fonction de densité de probabilité de contours (pdf) qui est très facile à segmenter par une LPE classique. En définitive, la LPE probabiliste est conditionnée par la classification spectrale et produit donc des segmentations spatio-spectrales dont les contours sont très lisses. Cette chaîne de traitement à été mise en œuvre sur des séquences d'imagerie par résonance magnétique dynamique (DCE-MRI) et a permis d'établir une méthode automatique d'aide au diagnostic pour la détection de tumeurs cancéreuses. En outre, d'autres techniques de segmentation spatio-spectrales ont été développées pour les images hyperspectrales : les régions η-bornées et les boules µ-géodésiques. Grâce à l'introduction d'information régionale, elles améliorent les segmentations par zones quasi-plates qui n'utilisent quant à elles que de l'information locale. Enfin, nous avons mis au point une méthode très efficace de calcul de toutes les paires de distances géodésiques d'une image, puisqu'elle permet de réduire jusqu'à 50 % le nombre d'opérations par rapport à une approche naïve et jusqu'à 30 % par rapport aux autres méthodes. Le calcul efficace de ce tableau de distances offre des perspectives très prometteuses pour la réduction de dimension spatio-spectrale.
|
9 |
Analyse probabiliste du risque du stockage de déchets radioactifs par la méthode des arbres d'événements continusSmidts, Olivier 23 October 1997 (has links)
Les études du risque du stockage de déchets radioactifs comprennent, comme toute étude du risque, un traitement de l'incertitude. L'outil de calcul du risque, appelé outil PRA (Probabilistic Risk Assessment), est formé d'un code de calcul d'écoulement des eaux souterraines et de transport de chaînes de radionucléides. Ce type d'outil est essentiel pour l'évaluation de performance de la barrière géologique. Le manque de connaissances au sujet de la variabilité (dans l'espace et le temps) des propriétés hydrogéologiques de cette barrière est la raison primaire de l'incertitude et des méthodes stochastiques ont été développées en hydrogéologie pour le traiter.
Dans cette thèse, l'analyse d'incertitude liée à la composition du milieu géologique est partagée entre l'écoulement et le transport de la manière suivante: a) une solution moyenne de l'écoulement est tout d'abord déterminée à l'aide d'un code basé sur la méthode des différences finies. Cette solution est ensuite soumise à une analyse de sensibilité. Cette analyse débouche sur la résolution d'un problème inverse afin d'améliorer l'estimation initiale des paramètres moyens d'écoulement; b) l'effet de la variation aléatoire de la vitesse d'écoulement est envisagé lors du transport des radionucléides. Le transport est résolu à l'aide d'une méthode Monte Carlo non analogue.
L'analyse de sensibilité du problème d'écoulement est réalisée à l'aide d'une méthode variationnelle. La méthode proposée a comme avantage celui de pouvoir quantifier l'incertitude de structure; c'est-à-dire l'incertitude liée à la géométrie du milieu géologique.
Une méthodologie Monte Carlo non analogue est utilisée pour le transport de chaînes de radionucléides en milieu stochastique. Les apports de cette méthodologie pour le calcul du risque reposent sur trois points:
1) L'utilisation d'une solution de transport simple (sous la forme d'une solution adjointe) dans les mécanismes de la simulation Monte Carlo. Cette solution de transport permet de résumer, entre deux positions successives du marcheur aléatoire, les processus chimicophysiques (advection, diffusion-dispersion, adsorption, désorption,...) apparaissant à l'échelle microscopique. Elle rend possible des simulations efficaces de transport en accélérant les mécanismes de transition des marcheurs aléatoires dans le domaine géologique et dans le temps.
2) L'application de la méthode des arbres d'événements continus au transport de chaînes de radionucléides. Cette méthode permet d'envisager les transitions radioactives entre éléments d'une chaîne selon un même formalisme que celui qui prévaut pour les simulations de transport d'un radionucléide unique. Elle permet donc de passer du transport d'un radionucléide au transport d'une chaîne de radionucléides sans coûts supplémentaires en temps de calcul et avec un coût supplémentaire en mémoire limité.
3) L'application de techniques dites de "double randomization" au problème de transport de radionucléides dans un milieu géologique stochastique. Ces techniques permettent de combiner efficacement une simulation Monte Carlo de paramètres avec une simulation Monte Carlo de transport et ainsi d'inclure l'incertitude associée à la composition du milieu géologique explicitement dans le calcul du risque.
Il ressort de ce travail des perspectives prometteuses de développements ultérieurs de la méthodologie Monte Carlo non analogue pour le calcul du risque.
|
10 |
Détection, localisation et étude des propriétés spectrales de sursauts gamma observés à haute énergie avec l'expérience Fermi. / Detection, localization and spectral analyses of gamma-ray bursts observed at high energies with the Fermi space telescope.Pelassa, Véronique 13 December 2010 (has links)
Les sursauts gamma sont des sources astrophysiques parmi les plus brillantes du ciel. Dans le modèle standard actuel, leur émission prompte (X et gamma) est due à des particules chargées accélérées au sein de jets relativistes émis à la formation de trous noirs de masses stellaire. L'émission rémanente observée de la radio aux X serait due à l'interaction de ces jets avec le milieu interstellaire. Le LAT, détecteur à création de paire du télescope spatial Fermi, permet depuis juin 2008 l'étude du ciel gamma de 20 MeV à plus de 300 GeV avec des performances inégalées. Le GBM, détecteur de sources transitoires de Fermi (8 keV à 40 MeV) a observé ~450 sursauts gamma, dont ~18 ont été observés jusqu'au domaine du GeV. Une localisation précise de ces sursauts et la synergie de Fermi avec les autres observatoires permettent l'étude des rémanences associées et une meilleure interprétation des observations. L'étude de sursauts gamma de 8 keV au domaine du GeV est présentée. Les localisations obtenues avec le LAT sont étudiées ainsi que leurs erreurs. Des analyses spectrales des émissions promptes combinant les données du GBM et du LAT sont exposées, ainsi que leur interprétation. Une analyse alternative basée sur une sélection relâchée des données LAT est présentée et caractérisée. L'utilisation des événements d'énergies inférieures à 100 MeV améliore l'analyse temporelle et spectrale des émissions promptes. La recherche d'émission gamma prolongée est présentée, ainsi que l'étude de l'émission rémanente de GRB 090510 observé des UV au GeV par Fermi et Swift. Enfin, un modèle d'émission prompte par les chocs internes, développé à l'IAP, est comparé aux observations de Fermi. / Gamma-Ray Bursts (GRB) are among the brightest gamma-ray sources in the sky. The current standard framework associates their prompt gamma-ray emission to charged particles accelerated in relativistic jets issued by newly-formed stellar-mass black holes. The radio to X-ray afterglow emission is due to the interaction between these jets and the interstellar medium.The LAT, pair-creation instrument onboard Fermi gamma-ray space telescope, performs unprecedented observation of the gamma-ray sky at energies of 20 MeV to over 300 GeV since its launch in june 2008. Fermi's transient sources detector, GBM, observed prompt emissions of ~450 GRB between 8 keV and 40 MeV. ~18 of these GRB were also studied up to GeV energies with the LAT. Accurate GRB localizations and Fermi's synergy with other observatories allows the study of GRB afterglows, and therefore a better interpretation of these observations.The analyses of GRB emissions between 8 keV to GeV energies is presented here. Localizations based on LAT data and their biases are studied. Spectral analyses of combined GBM and LAT data are shown, and their theoretical interpretations explained.An alternative analysis based on a relaxed selection of LAT data is presented and fully characterized. It allows to recover and use low-energy LAT statistics in temporal and spectral analyses of GRB prompt emission.Searches for long-lived high-energy emission from GRB are presented. The analysis of GRB 090510 afterglow emission from eV to GeV energies is described.Finally, Fermi bright GRB prompt emissions are compared to an internal shock model developed at IAP.
|
Page generated in 0.3561 seconds