• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 155
  • 61
  • 33
  • Tagged with
  • 242
  • 242
  • 129
  • 125
  • 50
  • 48
  • 32
  • 30
  • 27
  • 26
  • 23
  • 23
  • 22
  • 20
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Intégration de données hétérogènes complexes à partir de tableaux de tailles déséquilibrées / Integrating heterogeneous complex data from unbalanced datasets

Imbert, Alyssa 19 October 2018 (has links)
Les avancées des nouvelles technologies de séquençage ont permis aux études cliniques de produire des données volumineuses et complexes. Cette complexité se décline selon diverses modalités, notamment la grande dimension, l’hétérogénéité des données au niveau biologique (acquises à différents niveaux de l’échelle du vivant et à divers moments de l’expérience), l’hétérogénéité du type de données, le bruit (hétérogénéité biologique ou données entachées d’erreurs) dans les données et la présence de données manquantes (au niveau d’une valeur ou d’un individu entier). L’intégration de différentes données est donc un défi important pour la biologie computationnelle. Cette thèse s’inscrit dans un projet de recherche clinique sur l’obésité, DiOGenes, pour lequel nous avons fait des propositions méthodologiques pour l’analyse et l’intégration de données. Ce projet est basé sur une intervention nutritionnelle menée dans huit pays européens et vise à analyser les effets de différents régimes sur le maintien pondéral et sur certains marqueurs de risque cardio-vasculaire et de diabète, chez des individus obèses. Dans le cadre de ce projet, mes travaux ont porté sur l’analyse de données transcriptomiques (RNA-Seq) avec des individus manquants et sur l’intégration de données transcriptomiques (nouvelle technique QuantSeq) avec des données cliniques. La première partie de cette thèse est consacrée aux données manquantes et à l’inférence de réseaux à partir de données d’expression RNA-Seq. Lors d’études longitudinales transcriptomiques, il arrive que certains individus ne soient pas observés à certains pas de temps, pour des raisons expérimentales. Nous proposons une méthode d’imputation multiple hot-deck (hd-MI) qui permet d’intégrer de l’information externe mesurée sur les mêmes individus et d’autres individus. hd-MI permet d’améliorer la qualité de l’inférence de réseau. La seconde partie porte sur une étude intégrative de données cliniques et transcriptomiques (mesurées par QuantSeq) basée sur une approche réseau. Nous y montrons l’intérêt de cette nouvelle technique pour l’acquisition de données transcriptomiques et l’analysons par une approche d’inférence de réseau en lien avec des données cliniques d’intérêt. / The development of high-throughput sequencing technologies has lead to a massive acquisition of high dimensional and complex datasets. Different features make these datasets hard to analyze : high dimensionality, heterogeneity at the biological level or at the data type level, the noise in data (due to biological heterogeneity or to errors in data) and the presence of missing data (for given values or for an entire individual). The integration of various data is thus an important challenge for computational biology. This thesis is part of a large clinical research project on obesity, DiOGenes, in which we have developed methods for data analysis and integration. The project is based on a dietary intervention that was led in eight Europeans centers. This study investigated the effect of macronutrient composition on weight-loss maintenance and metabolic and cardiovascular risk factors after a phase of calorie restriction in obese individuals. My work have mainly focused on transcriptomic data analysis (RNA-Seq) with missing individuals and data integration of transcriptomic (new QuantSeq protocol) and clinic datasets. The first part is focused on missing data and network inference from RNA-Seq datasets. During longitudinal study, some observations are missing for some time step. In order to take advantage of external information measured simultaneously to RNA-Seq data, we propose an imputation method, hot-deck multiple imputation (hd-MI), that improves the reliability of network inference. The second part deals with an integrative study of clinical data and transcriptomic data, measured by QuantSeq, based on a network approach. The new protocol is shown efficient for transcriptome measurement. We proposed an analysis based on network inference that is linked to clinical variables of interest.
2

Inférence asymptotique pour des processus stationnaires fonctionnels / Asymptotic inference in stationary functional processes

Cerovecki, Clément 22 May 2018 (has links)
Nous abordons divers problèmes concernant les séries temporelles fonctionnelles. Il s'agit de processus stochastiques discrets à valeurs dans un espace fonctionnel. La principale motivation provient de l’interprétation séquentielle d'un phénomène continu. Si par exemple on observe des données météorologiques au cours du temps de manière continue, il est naturel de segmenter ce processus en une série temporelle fonctionnelle indexée par les jours. Chaque terme de la série représente la courbe journalière. Dans un premier temps, nous nous sommes intéressés à l'analyse spectrale. Plus précisément nous avons montré que sous des hypothèses très générales, la transformée de Fourier discrète d’une telle série est asymptotiquement normale et a pour variance l’opérateur de densité spectrale. Une application possible de ce résultat est de tester la présence de composantes périodiques dans une série fonctionnelle. Nous avons développé un test valable pour une fréquence arbitraire. Pour ce faire, nous avons étudié le comportement asymptotique du maximum de la norme de la transformée de Fourier. Enfin, nous avons travaillé sur la généralisation fonctionnelle du modèle GARCH. Ce modèle permet de décrire la dynamique de la volatilité, c’est-à-dire de la variance conditionnelle, dans les données financières. Nous avons proposé une méthode d’estimation des paramètres du modèle, inspirée de l’estimateur de quasi-maximum de vraisemblance. Nous avons montré que cet estimateur est convergent et asymptotiquement normal, puis nous l’avons évalué sur des simulations et appliqué à des données réelles. / In this thesis we address some issues related to functional time series, which consists in a discrete stochastic process valued in a functional space. The main motivation comes from a sequential approach of a continuous phenomenon. For example, if we observe some meteorological data continuously over time, then it is natural to segment this process into a functional series indexed by days, each term representing the daily curve. The first part is devoted to spectral analysis, more precisely we study the asymptotic behavior of the discrete Fourier transform. We show that, under very general conditions, the latter is asymptotically normal, with variance equal to the spectral density operator. An application of this result is the detection of periodic patterns in a functional time series. We develop a test to detect such patterns, which is valid for an arbitrary frequency. We show that the asymptotic distribution of the norm of the discrete Fourier transform belongs to the attraction domain of the Gumbel distribution. In a second part, we work on the functional generalization of the GARCH model. This model is used to describe the dynamics of volatility, i.e. conditional variance, in financial data. We propose an estimation method inspired by the quasi-maximum likelihood estimator, although the proper likelihood function does not exist in infinite dimension. We show that this estimator is convergent, asymptotic normal and we evaluate its performances on simulated and real data.
3

Connexité et analyse des données non linéaires

Aaron, Catherine 15 December 2005 (has links) (PDF)
On s'intéresse dans cette thèse, à la mise en évidence des propriétés de connexité dans les données à analyser. Dans le cas de l'analyse des données ”classique” (i.e. linéaire), comme les surfaces de séparation des classes sont des hyperplans (des droites en dimension 2), la notion topologique sous-jacente est presque toujours la convexité. Au contraire dans tout ce qui suit, on cherche en priorité à segmenter les données en sous-ensembles (classes) connexes.
4

Analyse et modélisation de l'impact de la météorologie sur le trafic routier

Billot, Romain 08 December 2010 (has links) (PDF)
Si la pertinence de la prise en compte de la météorologie dans la gestion du trafic est bien admise, son intégration dans les outils d'aide à la décision et les stratégies de contrôle représente encore un enjeu réel pour les gestionnaires d'infrastructures. En effet, cette avancée semble légitimée par les effets significatifs d'une météorologie dégradée sur la sécurité des usagers et le comportement des conducteurs. Ainsi, au niveau de la sécurité, un sur-risque d'accident a été mis en évidence par de nombreux travaux. Or, l'étiologie de ce risque augmenté ne permet pas seulement de démontrer l'impact d'évènements météorologiques extrêmes et ponctuels (ex : tempêtes de neige), mais égalementcelui de phénomènes récurrents (ex : la pluie). La baisse de la sécurité des conducteurs se traduit concrètement par un changement de comportements des usagers (vitesses, temps inter-véhiculaires) mais aussi du flot de véhicules en général (vitesse, débit, concentration), ceci influant de manière conséquente sur la mobilité. De fait, la pluie représente ainsi la seconde cause de congestion ponctuelle.Pourtant, malgré ces enjeux indéniables, les effets de la météorologie sur le trafic demeurent mal quantifiés et ne sont guère intégrés à la modélisation ou l'estimation du trafic. Ce travail de thèse se propose ainsi de contribuer à une meilleure compréhension des effets météorologiques sur le trafic, en se focalisant sur des phénomènes de précipitations en milieu interurbain. Partant d'un état de l'art de l'impact météorologique sur le trafic, il nous est apparu que les études existantes, par leurs carences, soulèvent le besoin de fonder une méthodologie d'analyse plus rigoureuse. Cette méthodologie, une fois clairement définie, a ensuite été appliquée à des données opérationnelles. Elle nous a permis de quantifier les effets de la pluie à plusieurs niveaux selon l'échelle de représentation abordée : au niveau microscopique, considérant le comportement individuel des conducteurs, les analyses statistiques mettent en lumière des effets sur les vitesses, les temps et les distances inter-véhiculaires. Ces effets se reflètent au niveau macroscopique (celui du flot de véhicules) avec des variations de débits, de vitesses du flot et, de façon générale, de l'ensemble des paramètres formant le diagramme fondamental du trafic. Les résultats empiriques nous semblent ainsi ouvrir la voie à l'intégration du phénomène météorologique à la modélisation du trafic.Partant, nous avons développé, à ce stade de notre travail, une contribution théorique à la modélisation du trafic se fondant sur une formulation Vlasov qui permet de dériver un modèle macroscopique à deux équations à partir d'une formulation cinétique. Le modèle ainsi proposé offre un cadre propice à l'intégration d'un paramètre météorologique. La discrétisation numérique du modèle s'effectue à l'aide d'une méthode à pas fractionnaire qui permet de traiter successivement le terme source et la partie homogène du système. Pour la partie homogène du système, nous avons fait l'usage d'un schéma de type Lagrange+remap. Le comportement du modèle, couplé à une équation de transport sur les temps inter-véhiculaires, a ensuite été illustré à travers une série d'expérimentations numériques qui ont mis en évidence ses aptitudes face à des conditions météorologiques changeantes.Dans un ultime volet, notre travail s'est orienté vers de futures applications en temps réel qui se placeraient dans un cadre bayesien d'assimilation de données. Le défi à relever est celui de l'estimation en ligne du vecteur d'état du trafic au fur et à mesure de l'arrivée de nouvelles observations. Une méthode de filtrage particulaire (Monte Carlo séquentielle) nous a paru judicieuse à mobiliser, car elle s'adapte bien à la problématique du trafic routier. Plusieurs scénarios fondés sur des données opérationnelles permettent ensuite de montrer les bénéfices de l'intégration du phénomène météorologique à de telles approches. Une meilleure connaissance du phénomène météorologique doit ainsi mener à son insertion dans les modèles de trafic qui forment le substrat des outils d'aide à la décision destinés aux gestionnaires.Le travail proposé ouvre donc des perspectives pour le développement de stratégies de gestion de trafic météo-sensibles.
5

Analyse et modélisation de l'impact de la météorologie sur le trafic routier / Analysis and modeling of the weather impact on traffic

Billot, Romain 08 December 2010 (has links)
Si la pertinence de la prise en compte de la météorologie dans la gestion du trafic est bien admise, son intégration dans les outils d'aide à la décision et les stratégies de contrôle représente encore un enjeu réel pour les gestionnaires d'infrastructures. En effet, cette avancée semble légitimée par les effets significatifs d'une météorologie dégradée sur la sécurité des usagers et le comportement des conducteurs. Ainsi, au niveau de la sécurité, un sur-risque d'accident a été mis en évidence par de nombreux travaux. Or, l'étiologie de ce risque augmenté ne permet pas seulement de démontrer l'impact d'évènements météorologiques extrêmes et ponctuels (ex : tempêtes de neige), mais égalementcelui de phénomènes récurrents (ex : la pluie). La baisse de la sécurité des conducteurs se traduit concrètement par un changement de comportements des usagers (vitesses, temps inter-véhiculaires) mais aussi du flot de véhicules en général (vitesse, débit, concentration), ceci influant de manière conséquente sur la mobilité. De fait, la pluie représente ainsi la seconde cause de congestion ponctuelle.Pourtant, malgré ces enjeux indéniables, les effets de la météorologie sur le trafic demeurent mal quantifiés et ne sont guère intégrés à la modélisation ou l'estimation du trafic. Ce travail de thèse se propose ainsi de contribuer à une meilleure compréhension des effets météorologiques sur le trafic, en se focalisant sur des phénomènes de précipitations en milieu interurbain. Partant d'un état de l'art de l'impact météorologique sur le trafic, il nous est apparu que les études existantes, par leurs carences, soulèvent le besoin de fonder une méthodologie d'analyse plus rigoureuse. Cette méthodologie, une fois clairement définie, a ensuite été appliquée à des données opérationnelles. Elle nous a permis de quantifier les effets de la pluie à plusieurs niveaux selon l'échelle de représentation abordée : au niveau microscopique, considérant le comportement individuel des conducteurs, les analyses statistiques mettent en lumière des effets sur les vitesses, les temps et les distances inter-véhiculaires. Ces effets se reflètent au niveau macroscopique (celui du flot de véhicules) avec des variations de débits, de vitesses du flot et, de façon générale, de l'ensemble des paramètres formant le diagramme fondamental du trafic. Les résultats empiriques nous semblent ainsi ouvrir la voie à l'intégration du phénomène météorologique à la modélisation du trafic.Partant, nous avons développé, à ce stade de notre travail, une contribution théorique à la modélisation du trafic se fondant sur une formulation Vlasov qui permet de dériver un modèle macroscopique à deux équations à partir d'une formulation cinétique. Le modèle ainsi proposé offre un cadre propice à l'intégration d'un paramètre météorologique. La discrétisation numérique du modèle s'effectue à l'aide d'une méthode à pas fractionnaire qui permet de traiter successivement le terme source et la partie homogène du système. Pour la partie homogène du système, nous avons fait l'usage d'un schéma de type Lagrange+remap. Le comportement du modèle, couplé à une équation de transport sur les temps inter-véhiculaires, a ensuite été illustré à travers une série d'expérimentations numériques qui ont mis en évidence ses aptitudes face à des conditions météorologiques changeantes.Dans un ultime volet, notre travail s'est orienté vers de futures applications en temps réel qui se placeraient dans un cadre bayesien d'assimilation de données. Le défi à relever est celui de l'estimation en ligne du vecteur d'état du trafic au fur et à mesure de l'arrivée de nouvelles observations. Une méthode de filtrage particulaire (Monte Carlo séquentielle) nous a paru judicieuse à mobiliser, car elle s'adapte bien à la problématique du trafic routier. Plusieurs scénarios fondés sur des données opérationnelles permettent ensuite de montrer les bénéfices de l'intégration du phénomène météorologique à de telles approches. Une meilleure connaissance du phénomène météorologique doit ainsi mener à son insertion dans les modèles de trafic qui forment le substrat des outils d'aide à la décision destinés aux gestionnaires.Le travail proposé ouvre donc des perspectives pour le développement de stratégies de gestion de trafic météo-sensibles. / The integration of the weather effects into decision support tools and real time traffic management strategies represents a critical need for all road operators. The motivations are clear because of the significant effects of adverse weather on road safety and drivers' behaviors. At a safety level, the increase of the crash frequency and severity has been highlighted by several studies. This increase of the crash risk does not concern only extreme weather events, such as winter storms, but also recurring events like rain. The changes in drivers' behaviors (decrease of speeds, headways) andtraffic flow dynamics (speed, flow, density) lead to significant consequences from a mobility point of view : thus, rain represents the second largest cause of non recurring congestion (15 \%) after incidents.In spite of this context, the effects of adverse weather on traffic are not well quantified and, above all, not integrated into traffic modelling and estimation. The presented thesis research aims at contributing to a better understanding of the meteorological effects on traffic by focusing on precipitation events at interurban sections. From a literature review of the meteorological impact on traffic, we have underlined a need of a standardized methodology. Such a standardized methodology for the rain impact quantification is proposed and applied to real data. It enables aquantification of the rain effects at different levels, according to the scale of representation : at a microscopic level, the statistical analyses highlight changes in drivers speeds, time headways. Those effects reflect on the macroscopic level of traffic flow with changes in speed, flows, and, in a general way, in all the parameters composing the fundamental diagram of traffic. Hence, the empirical results pave the way for integrating the meteorological phenomenon into traffic modelling.Next, we propose a theoretical contribution to traffic modelling, based on a Vlasov formulation, which enables the derivation of a two equations macroscopic model. The proposed model offers a relevant framework for the integration of a meteorological parameter. Regarding the numerical discretization, we propose a fractionnal step method allowing to deal successively with the source terme and the homogeneous part of the system. We develop a Lagrange+remap scheme for the homogeneous part of the system. The model behaviour is illustrated through several numerical experiments which highlight the model features faced with changing meteorological conditions.In the last chapter, an effort towards future online applications is put forward. Within a Bayesian framework for data assimilation, the goal resides in the online estimation of the traffic state vector given current measurements. Based on real world data, some scenarios show the benefits of the integration of the meteorology into such approaches. Thus, a better knowledge of the weather impact on traffic leads to its integration into traffic models and will enable the improvement of decision support tools for road operators. The proposed work opens perspectives for the development ofweather-responsive traffic management strategies.
6

Modélisation et exécution des applications d'analyse de données multi-dimentionnelles sur architectures distribuées.

Pan, Jie 13 December 2010 (has links) (PDF)
Des quantités de données colossalles sont générées quotidiennement. Traiter de grands volumes de données devient alors un véritable challenge pour les logiciels d'analyse des données multidimensionnelles. De plus, le temps de réponse exigé par les utilisateurs de ces logiciels devient de plus en plus court, voire intéractif. Pour répondre à cette demande, une approche basée sur le calcul parallèle est une solution. Les approches traditionnelles reposent sur des architectures performantes, mais coûteuses, comme les super-calculateurs. D'autres architectures à faible coût sont également disponibles, mais les méthodes développées sur ces architectures sont souvent bien moins efficaces. Dans cette thèse, nous utilisons un modèle de programmation parallèle issu du Cloud Computing, dénommé MapReduce, pour paralléliser le traitement des requêtes d'analyse de données multidimensionnelles afin de bénéficier de mécanismes de bonne scalabilité et de tolérance aux pannes. Dans ce travail, nous repensons les techniques existantes pour optimiser le traitement de requête d'analyse de données multidimensionnelles, y compris les étapes de pré-calcul, d'indexation, et de partitionnement de données. Nous avons aussi résumé le parallélisme de traitement de requêtes. Ensuite, nous avons étudié le modèle MapReduce en détail. Nous commençons par présenter le principe de MapReduce et celles du modèle étendu, MapCombineReduce. En particulier, nous analysons le coût de communication pour la procédure de MapReduce. Après avoir présenté le stockage de données qui fonctionne avec MapReduce, nous présentons les caractéristiques des applications de gestion de données appropriées pour le Cloud Computing et l'utilisation de MapReduce pour les applications d'analyse de données dans les travaux existants. Ensuite, nous nous concentrons sur la parallélisation des Multiple Group-by query, une requête typique utilisée dans l'exploration de données multidimensionnelles. Nous présentons la mise en oeuvre de l'implémentation initiale basée sur MapReduce et une optimisation basée sur MapCombineReduce. Selon les résultats expérimentaux, notre version optimisée montre un meilleur speed-up et une meilleure scalabilité que la version initiale. Nous donnons également une estimation formelle du temps d'exécution pour les deux implémentations. Afin d'optimiser davantage le traitement du Multiple Group-by query, une phase de restructuration de données est proposée pour optimiser les jobs individuels. Nous re-definissons l'organisation du stockage des données, et nous appliquons les techniques suivantes, le partitionnement des données, l'indexation inversée et la compression des données, au cours de la phase de restructuration des données. Nous redéfinissons les calculs effectués dans MapReduce et dans l'ordonnancement des tâches en utilisant cette nouvelle structure de données. En nous basant sur la mesure du temps d'exécution, nous pouvons donner une estimation formelle et ainsi déterminer les facteurs qui impactent les performances, telles que la sélectivité de requête, le nombre de mappers lancés sur un noeud, la distribution des données " hitting ", la taille des résultats intermédiaires, les algorithmes de sérialisation adoptée, l'état du réseau, le fait d'utiliser ou non le combiner, ainsi que les méthodes adoptées pour le partitionnement de données. Nous donnons un modèle d'estimation des temps d'exécution et en particulier l'estimation des valeurs des paramètres différents pour les exécutions utilisant le partitionnement horizontal. Afin de soutenir la valeur-unique-wise-ordonnancement, qui est plus flexible, nous concevons une nouvelle structure de données compressées, qui fonctionne avec un partitionnement vertical. Cette approche permet l'agrégation sur une certaine valeur dans un processus continu.
7

Méthodes et logiciel pour le traitement efficace des données de criblage à haut débit

Zentilli, Pablo January 2007 (has links) (PDF)
Dans ce mémoire, nous abordons le problème de la correction d'erreurs systématiques et de la recherche des composés prometteurs (i.e. «hits») dans les procédures de criblage à haut débit (HTS). Nous introduisons une nouvelle approche pour la correction des erreurs systématiques dans les procédures HTS et la comparons à quelques méthodes couramment utilisées. La nouvelle méthode, appelée «well correction» ou correction par puits, procède par une analyse des erreurs systématiques localisées au niveau des puits, à travers toute la procédure de criblage. Cette méthode permet une amélioration des résultats obtenus lors de la sélection des «hits», par des méthodes utilisant un seuil prédéfini. La correction par puits à montré des résultats supérieurs aux méthodes suggérées dans la littérature telles que: correction par soustraction de l'arrière-plan («background correction» : Kevorkov et Makarenkov, 2005a, 2005b); «median-polish» et «B score» (Brideau et al., 2003; Malo et al., 2006). Nous avons également comparé trois méthodes de recherche des «hits» utilisant des approches de groupement (i.e. «clustering»): k-mean; somme des distances inter-cluster moyennes (SASD) et distance moyenne entre clusters (AICD). Ces méthodes proposent des algorithmes différents pour mesurer la distance entre les données provenant du criblage. Les méthodes de groupement utilisant k-means et SASD ont montré des résultats intéressants, mais aucune des méthodes étudiées n'a montré des performances pouvant justifier son utilisation dans tous les cas de figure. Un logiciel, «HTS Corrector», a été développé dans le cadre de ce travail. Il intègre toutes les méthodes étudiées dans ce mémoire. D'autres fonctionnalités auxiliaires, pouvant aider le praticien dans l'analyse des résultats provenant d'une procédure HTS, ont aussi été intégrées. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Criblage à haut débit, High-throughput Screening, Erreurs systématiques, Correction de données, Méthodes de groupement, Recherche de hits, Normalisation de données.
8

RECHERCHE SYSTEMATIQUE DE CONTREPARTIES<br />OPTIQUES DE SURSAUTS GAMMA<br />DANS LES IMAGES DU "VERY WIDE SURVEY"<br />DU TELESCOPE CANADA-FRANCE-HAWAII

Malacrino, Frederic 10 October 2006 (has links) (PDF)
Les sursauts gamma sont des flashes très brefs et intenses de photons de haute énergie se produisant à des positions et à des temps aléatoires, avec une fréquence de deux par jour. Durant leur temps de vie, qui est en moyenne de quelques secondes, ils deviennent plus brillants que l'ensemble des sources de la voûte céleste. Leurs localisations rapides et précises ont permis la découverte de leurs contreparties dans les autres longueurs d'onde, les afterglows. Dans le domaine optique, les afterglows ont la particularité de décroître rapidement en luminosité, ce qui ne les rend visibles que peu de temps après le sursaut (quelques heures à quelques jours). Les mesures de leur décalage vers le rouge ont apporté la preuve que les sursauts gamma sont des évènements se produisant à des distances cosmologiques. Les observations d'afterglows ont aussi montré la présence de galaxies hôtes aux sursauts, et l'émergence de supernovae dans les courbes de lumière d'afterglows.<br /><br />Les modèles théoriques de sursauts gamma prédisent la présence d'une focalisation de l'émission gamma. L'observation de cassures dans un grand nombre de courbes de lumière d'afterglows optiques, conséquence attendue de cette focalisation, a permis de confirmer cette hypothèse. L'afterglow émettant dans un cône qui s'élargit avec le temps, il en découle l'existence d'afterglows qui ne sont pas associés à un sursaut gamma visible. Ceux-ci sont appelés afterglows orphelins. La recherche d'afterglows orphelins est un enjeu crucial pour la compréhension des sursauts gamma. Leur détection permettra en effet l'étude des sursauts proches et des sursauts sans émission gamma, et constituera un excellent moyen pour tester l'hypothèse de focalisation de l'émission gamma. Les quelques recherches d'afterglows optiques qui ont été effectuées jusqu'alors se sont toutes révélées infructueuses, puisque aucun afterglow n'a été identifié.<br /><br />Dans cette étude, je présente une nouvelle recherche d'afterglows optiques. Elle s'effectue dans les images d'une stratégie d'observation ayant lieu au Télescope Canada-France-Hawaii, nommée le Very Wide Survey. Elle prévoit de couvrir 1200 degrés carrés du ciel jusqu'à la magnitude r' = 22,5. Chaque champ est observé plusieurs fois, avec des intervalles de temps de l'ordre de l'heure et de la journée. Afin de traiter les images du Very Wide Survey, j'ai développé et mis en place un système d'analyse en temps réel, nommé "Optically Selected GRB Afterglows". Ce système, entièrement automatisé, crée dans un premier temps des catalogues d'objets à partir des images, puis dans un second temps compare entre eux les catalogues d'un même champ acquis à des instants différents, afin d'extraire les objets variables en luminosité, et ceux qui sont apparus ou ont disparu. Ces objets sont ensuite affichés sur une page Web où ils peuvent être validés comme candidat afterglow par un membre de la collaboration.<br /><br />Les statistiques effectuées sur les catalogues et sur les comparaisons montrent que ce système de recherche est très performant. Plus de 99,5% des images sont traitées sans encombre et rapidement, nous permettant d'envoyer des alertes à la communauté des sursauts en moins de<br />24 heures. Les objets détectés variables représentent moins de 0,01% des objets. Environ 10% d'entre eux sont de véritables objets variables qu'il nous faut séparer manuellement des fausses détections. Durant ma thèse, j'ai également développé un programme de simulation d'afterglows qui permet d'évaluer l'efficacité d'une stratégie d'observation et de calculer un nombre d'afterglows attendus suivant un modèle de sursaut donné. Les résultats des simulations montrent que notre recherche d'afterglows est de loin la plus performante ayant jamais été effectuée. Dans l'intégralité des images du Very Wide Survey, nous attendons entre 4 et 5 détections d'afterglows. Pour l'instant, notre recherche en temps réel n'a pas abouti à l'identification d'un afterglow optique avec certitude. Nous sommes néanmoins capables de proposer des contraintes sur le rapport du nombre d'afterglows sur le nombre de sursauts. La valeur supérieure limite que nous obtenons est de 12,6 afterglows par sursaut gamma, jusqu'à la magnitude 22,5 et avec 90% de confiance.
9

Vitesses de convergence en inférence géométrique / Rates of Convergence for Geometric Inference

Aamari, Eddie 01 September 2017 (has links)
Certains jeux de données présentent des caractéristiques géométriques et topologiques non triviales qu'il peut être intéressant d'inférer.Cette thèse traite des vitesses non-asymptotiques d'estimation de différentes quantités géométriques associées à une sous-variété M ⊂ RD. Dans chaque cas, on dispose d'un n-échantillon i.i.d. de loi commune P ayant pour support M. On étudie le problème d'estimation de la sous-variété M pour la perte donnée par la distance de Hausdorff, du reach τM, de l'espace tangent TX M et de la seconde forme fondamentale I I MX, pour X ∈ M à la fois déterministe et aléatoire.Les vitesses sont données en fonction la taille $n$ de l'échantillon, de la dimension intrinsèque de M ainsi que de sa régularité.Dans l'analyse, on obtient des résultats de stabilité pour des techniques de reconstruction existantes, une procédure de débruitage ainsi que des résultats sur la géométrie du reach τM. Une extension du lemme d'Assouad est exposée, permettant l'obtention de bornes inférieures minimax dans des cadres singuliers. / Some datasets exhibit non-trivial geometric or topological features that can be interesting to infer.This thesis deals with non-asymptotic rates for various geometric quantities associated with submanifolds M ⊂ RD. In all the settings, we are given an i.i.d. n-sample with common distribution P having support M. We study the optimal rates of estimation of the submanifold M for the loss given by the Hausdorff metric, of the reach τM, of the tangent space TX M and the second fundamental form I I MX, for X ∈ M both deterministic and random.The rates are given in terms of the sample size n, the instrinsic dimension of M, and its smoothness.In the process, we obtain stability results for existing reconstruction techniques, a denoising procedure and results on the geometry of the reach τM. An extension of Assouad's lemma is presented, allowing to derive minimax lower bounds in singular frameworks.
10

Détection et modélisation de binaires sismiques avec Kepler / Detection and modelling of seismic binaries with Kepler

Marcadon, Frédéric 20 March 2018 (has links)
Le satellite spatial Kepler a détecté des oscillations de type solaire parmi plusieurs centaines d'étoiles, permettant la détermination de leurs propriétés physiques à l'aide de l’astérosismologie. Les modèles d'évolution stellaire et les lois d'échelle employés pour déterminer les paramètres tels que la masse, le rayon et l'âge nécessitent toutefois une calibration adaptée. Dans ce contexte, l'utilisation des systèmes binaires présentant des oscillations de type solaires pour les deux étoiles semble particulièrement appropriée. Au cours de cette thèse, nous avons procédé à un travail de détection de ces binaires sismiques parmi les données de Kepler ainsi qu'au développement des outils nécessaires à leur analyse. Bien que la découverte d'une nouvelle binaire sismique semblait très peu probable, nous avons pu rapporter pour la toute première fois la détection d'oscillations de type solaire associées aux deux étoiles les plus brillantes d'un système triple, à savoir HD 188753. À partir de la modélisation, nous avons déterminé des âges semblables pour les deux étoiles détectées en astérosismologie, comme attendu en raison de leur origine commune. Par ailleurs, nous avons entrepris la première analyse orbitale de ce système hiérarchique dans le but d'obtenir une estimation directe des masses et de la parallaxe. Finalement, l'exemple de HD 188753 illustre notre capacité à détecter et à modéliser chacune des étoiles d'un système binaire ou multiple tout en réalisant l'analyse orbitale de celui-ci. Les différents outils développés au cours de cette thèse seront intensivement utilisés dans le cadre des futures missions TESS et PLATO. / The Kepler space telescope detected solar-like oscillations in several hundreds of stars, providing a way to determine their physical properties using asteroseismology. However, the stellar evolutionary models and scaling relations employed to determine parameters such as the mass, the radius and the age require a proper calibration. In this context, the use of seismic binaries showing solar-like oscillations in both stars is especially suitable. During this thesis, we have worked towards the detection of such seismic binaries from the Kepler database and developed the necessary tools to study them. Although the discovery of a new seismic binary was very unlikely, we were able to report for the first time the detection of solar-like oscillations in the two brightest stars of a triple stellar system, namely HD 188753. Using stellar modelling, we found compatible ages for the two stars derived from asteroseismology, as expected from their common origin. In addition, we performed the first orbital analysis of this hierarchical system in order to derive a direct estimate of masses and parallax. Finally, the example of HD 188753 shows our capability to detect and model each of the stars of a binary or multiple system and to perform the orbital analysis of this one. The various tools developed during this thesis will be extensively used in the context of the future missions TESS and PLATO.

Page generated in 0.0536 seconds