• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 155
  • 59
  • 33
  • Tagged with
  • 240
  • 240
  • 127
  • 123
  • 50
  • 48
  • 32
  • 28
  • 27
  • 26
  • 23
  • 23
  • 22
  • 20
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Mobile collaborative sensing : framework and algorithm design / Framework et algorithmes pour la conception d'applications collaboratives de capteurs

Chen, Yuanfang 12 July 2017 (has links)
De nos jours, il y a une demande croissante pour fournir de l'information temps réel à partir de l'environnement, e.g. état infectieux de maladies, force du signal, conditions de circulation, qualité de l'air. La prolifération des dispositifs de capteurs et la mobilité des personnes font de la Mobile Collaborative Sensing (MCS) un moyen efficace de détecter et collecter l'information à un faible coût. Dans MCS, au lieu de déployer des capteurs statiques dans une zone, les personnes disposant d'appareils mobiles jouent le rôle de capteurs mobiles. En général, une application MCS exige que l'appareil de chacun ait la capacité d'effectuer la détection et retourne les résultats à un serveur central, mais également de collaborer avec d'autres dispositifs. Pour que les résultats puissent représenter l'information physique d'une région cible et convenir, quel type de données peut être utilisé et quel type d'information doit être inclus dans les données collectées? Les données spatio-temporelles peuvent être utilisées par des applications pour bien représenter la région cible. Dans des applications différentes, l'information de localisation et de temps sont 2 types d'information communes, et en les utilisant la région cible d'une application est sous surveillance complète du temps et de l'espace. Différentes applications nécessitent de l'information différente pour atteindre des objectifs différents. E.g. dans cette thèse: i- MCS-Locating application: l'information de résistance du signal doit être incluse dans les données détectées par des dispositifs mobiles à partir d'émetteurs de signaux ; ii- MCS-Prédiction application : la relation entre les cas d'infection et les cas infectés doit être incluse dans les données par les dispositifs mobiles provenant des zones de flambée de la maladie ; iii- MCS-Routing application : l'information routière en temps réel provenant de différentes routes de circulation doit être incluse dans les données détectées par des dispositifs embarqués. Avec la détection de l'information physique d'une région cible, et la mise en interaction des dispositifs, 3 thèmes d'optimisation basés sur la détection sont étudiés et 4 travaux de recherche menés: -Mobile Collaboratif Détection Cadre : un cadre mobile de détection collaborative est conçu pour faciliter la coopérativité de la collecte, du partage et de l'analyse des données. Les données sont collectées à partir de sources et de points temporels différents. Pour le déploiement du cadre dans les applications, les défis clés pertinents et les problèmes ouverts sont discutés. -MCS-Locating : l'algorithme LiCS (Locating in Collaborative Sensing based Data Space) est proposé pour atteindre la localisation de la cible. LiCS utilise la puissance du signal reçu dans tous les périphériques sans fil comme empreintes digitales de localisation pour les différents emplacements. De sorte LiCS peut être directement pris en charge par l'infrastructure sans fil standard. Il utilise des données de trace d'appareils mobiles d'individus, et un modèle d'estimation d'emplacement. Il forme le modèle d'estimation de localisation en utilisant les données de trace pour atteindre la localisation de la cible collaborative. Cette collaboration entre périphériques est au niveau des données et est supportée par un modèle. -MCS-Prédiction: un modèle de reconnaissance est conçu pour acquérir dynamiquement la connaissance de structure de la RCN pertinente pendant la propagation de la maladie. Sur ce modèle, un algorithme de prédiction est proposé pour prédire le paramètre R. i.e. le nombre de reproduction qui est utilisé pour quantifier la dynamique de la maladie pendant sa propagation. -MCS-Routing : un algorithme de navigation écologique ‘eRouting’ est conçu en combinant l'information de trafic temps réel et un modèle d'énergie/émission basé sur des facteurs représentatifs. Sur la base de l'infrastructure standard d'un système de trafic intelligent, l'information sur le trafic est collectée / Nowadays, there is an increasing demand to provide real-time information from the environment, e.g., the infection status of infectious diseases, signal strength, traffic conditions, and air quality, to citizens in urban areas for various purposes. The proliferation of sensor-equipped devices and the mobility of people are making Mobile Collaborative Sensing (MCS) an effective way to sense and collect information at a low deployment cost. In MCS, instead of just deploying static sensors in an interested area, people with mobile devices play the role of mobile sensors to sense the information of their surroundings, and the communication network (3G, WiFi, etc.) is used to transfer data for MCS applications. Typically, a MCS application not only requires each participant's mobile device to possess the capability of performing sensing and returning sensed results to a central server, but also requires to collaborate with other mobile and static devices. In order to make sensed results well represent the physical information of a target region, and well be suitable to a certain application, what kind of data can be used for different applications, and what kind of information needs to be included into the collected sensing data? Spatio-temporal data can be used by different applications to well represent the target region. In different applications, location and time information is two kinds of common information, and by using such information, the target region of an application is under comprehensive monitoring from the view of time and space. Different applications require different information to achieve different sensing purposes. E.g. in this thesis: i- MCS-Locating application: signal strength information needs to be included into the sensed data by mobile devices from signal transmitters; ii- MCS-Prediction application: the relationship between infecting and infected cases needs to be included into the sensed data by mobile devices from disease outbreak areas; iii- MCS-Routing application: real-time traffic and road information from different traffic roads, e.g., traffic velocity and road gradient, needs to be included into the sensed data by road-embedded and vehicle-mounted devices. With sensing the physical information of a target region, and making mobile and static devices collaborate with each other in mind, in this thesis three sensing based optimization applications are studied, and following four research works are conducted: - a MCS Framework is designed to facilitate the cooperativity of data collection, sharing, and analysis among different devices. Data is collected from different sources and time points. For deploying the framework into applications, relevant key challenges and open issues are discussed. - MCS-Locating: an algorithm LiCS (Locating in Collaborative Sensing based Data Space) is proposed to achieve target locating. It uses Received Signal Strength that exists in any wireless devices as location fingerprints to differentiate different locations, so it can be directly supported by off-the-shelf wireless infrastructure. LiCS uses trace data from individuals' mobile devices, and a location estimation model. It trains the location estimation model by using the trace data to achieve collaborative target locating. Such collaboration between different devices is data-level, and model-supported. - MCS-Prediction: a recognition model is designed to dynamically acquire the structure knowledge of the relevant RCN during disease spread. On the basis of this model, a prediction algorithm is proposed to predict the parameter R. R is the reproductive number which is used to quantify the disease dynamics during disease spread. - MCS-Routing: an eco-friendly navigation algorithm, eRouting, is designed by combining real-time traffic information and a representative factor based energy/emission model. Based on the off-the-shelf infrastructure of an intelligent traffic system, the traffic information is collected
202

Dynamic network resources optimization based on machine learning and cellular data mining / Optimisation dynamique des ressources des réseaux cellulaires basée sur des techniques d'analyse de données et des techniques d'apprentissage automatique

Hammami, Seif Eddine 20 September 2018 (has links)
Les traces réelles de réseaux cellulaires représentent une mine d’information utile pour améliorer les performances des réseaux. Des traces comme les CDRs (Call detail records) contiennent des informations horodatées sur toutes les interactions des utilisateurs avec le réseau sont exploitées dans cette thèse. Nous avons proposé des nouvelles approches dans l’étude et l’analyse des problématiques des réseaux de télécommunications, qui sont basé sur les traces réelles et des algorithmes d’apprentissage automatique. En effet, un outil global d’analyse de données, pour la classification automatique des stations de base, la prédiction de la charge de réseau et la gestion de la bande passante est proposé ainsi qu’un outil pour la détection automatique des anomalies de réseau. Ces outils ont été validés par des applications directes, et en utilisant différentes topologies de réseaux comme les réseaux WMN et les réseaux basés sur les drone-cells. Nous avons montré ainsi, qu’en utilisant des outils d’analyse de données avancés, il est possible d’optimiser dynamiquement les réseaux mobiles et améliorer la gestion de la bande passante. / Real datasets of mobile network traces contain valuable information about the network resources usage. These traces may be used to enhance and optimize the network performances. A real dataset of CDR (Call Detail Records) traces, that include spatio-temporal information about mobile users’ activities, are analyzed and exploited in this thesis. Given their large size and the fact that these are real-world datasets, information extracted from these datasets have intensively been used in our work to develop new algorithms that aim to revolutionize the infrastructure management mechanisms and optimize the usage of resource. We propose, in this thesis, a framework for network profiles classification, load prediction and dynamic network planning based on machine learning tools. We also propose a framework for network anomaly detection. These frameworks are validated using different network topologies such as wireless mesh networks (WMN) and drone-cell based networks. We show that using advanced data mining techniques, our frameworks are able to help network operators to manage and optimize dynamically their networks
203

Exploration de données pour l'optimisation de trajectoires aériennes / Data analysis for aircraft trajectory optimization

Rommel, Cédric 26 October 2018 (has links)
Cette thèse porte sur l'utilisation de données de vols pour l'optimisation de trajectoires de montée vis-à-vis de la consommation de carburant.Dans un premier temps nous nous sommes intéressé au problème d'identification de modèles de la dynamique de l'avion dans le but de les utiliser pour poser le problème d'optimisation de trajectoire à résoudre. Nous commençont par proposer une formulation statique du problème d'identification de la dynamique. Nous l'interpretons comme un problème de régression multi-tâche à structure latente, pour lequel nous proposons un modèle paramétrique. L'estimation des paramètres est faite par l'application de quelques variations de la méthode du maximum de vraisemblance.Nous suggérons également dans ce contexte d'employer des méthodes de sélection de variable pour construire une structure de modèle de régression polynomiale dépendant des données. L'approche proposée est une extension à un contexte multi-tâche structuré du bootstrap Lasso. Elle nous permet en effet de sélectionner les variables du modèle dans un contexte à fortes corrélations, tout en conservant la structure du problème inhérente à nos connaissances métier.Dans un deuxième temps, nous traitons la caractérisation des solutions du problème d'optimisation de trajectoire relativement au domaine de validité des modèles identifiés. Dans cette optique, nous proposons un critère probabiliste pour quantifier la proximité entre une courbe arbitraire et un ensemble de trajectoires échantillonnées à partir d'un même processus stochastique. Nous proposons une classe d'estimateurs de cette quantitée et nous étudions de façon plus pratique une implémentation nonparamétrique basé sur des estimateurs à noyau, et une implémentation paramétrique faisant intervenir des mélanges Gaussiens. Ce dernier est introduit comme pénalité dans le critère d'optimisation de trajectoire dans l'objectif l'intention d'obtenir directement des trajectoires consommant peu sans trop s'éloigner des régions de validité. / This thesis deals with the use of flight data for the optimization of climb trajectories with relation to fuel consumption.We first focus on methods for identifying the aircraft dynamics, in order to plug it in the trajectory optimization problem. We suggest a static formulation of the identification problem, which we interpret as a structured multi-task regression problem. In this framework, we propose parametric models and use different maximum likelihood approaches to learn the unknown parameters.Furthermore, polynomial models are considered and an extension to the structured multi-task setting of the bootstrap Lasso is used to make a consistent selection of the monomials despite the high correlations among them.Next, we consider the problem of assessing the optimized trajectories relatively to the validity region of the identified models. For this, we propose a probabilistic criterion for quantifying the closeness between an arbitrary curve and a set of trajectories sampled from the same stochastic process. We propose a class of estimators of this quantity and prove their consistency in some sense. A nonparemetric implementation based on kernel density estimators, as well as a parametric implementation based on Gaussian mixtures are presented. We introduce the later as a penalty term in the trajectory optimization problem, which allows us to control the trade-off between trajectory acceptability and consumption reduction.
204

Impact des raies d'absorption telluriques sur la vélocimétrie de haute précision

Beauvais, Simon-Gabriel 05 1900 (has links)
Dans la recherche d’exoplanètes comme la Terre dans la zone habitable de leur étoile, la vélocimétrie radiale s’est avérée un outil important. Les candidats les plus intéressants pour faire ce genre de mesures sont les naines rouges, car la zone habitable se trouve proche de l’étoile et possède donc une courte période, et de par leurs faibles masses, l’orbite d’une planète comme la Terre induirait un signal de l’ordre de 1 ms^−1. L’effet Doppler résultant de ce mouvement est mesurable par des spectrographes optimisés pour la vélocimétrie de haute précision. Par contre, comme les naines rouges émettent principalement dans l’infrarouge et que l’atmosphère terrestre présente de fortes raies d’absorption dans ces longueurs d’onde, il est alors important de soustraire ces raies pour minimiser le biais de vitesse radiale de l’étoile induit par l’atmosphère. Le but de ce travail de maîtrise fut de développer un algorithme permettant de faire des mesures de vélocimétrie de haute précision dans le domaine infrarouge, de procéder à la quantification de l’impact des raies d’absorption telluriques et de déterminer une cible pour le niveau requis de retrait de ces raies. Une méthode de traitement de données basée sur l’analyse d’un spectre segmenté adéquatement pondéré fut aussi développée pour extraire optimalement la vitesse radiale en présence de raies telluriques résiduelles. On note l’existence d’une corrélation entre l’époque des mesures et l’incertitude de vitesse radiale associée avec les raies telluriques résiduelles ce qui souligne toute l’importance du choix de la fenêtre d’observation pour atteindre une précision de 1 ms^−1. De cette analyse, on conclut qu’un masque de 80% de transmission couplé avec un retrait laissant au maximum 10% des raies telluriques est requis pour atteindre des performances mieux que le ms^−1. / In the search for an exoplanet like Earth in the habitable zone of its star, radial velocimetry has proved itself an important tool. The most promising candidates for this type of measurements are red dwarfs. Since their habitable zone is very close to the star with relatively small orbital periods (a few weeks), and because of their small masses, the presence of an Earth-like planet in their habitable zone would produce a signal of ∼ 1 ms−1. Such a small Doppler effect resulting from this reflex motion is within the capabilities of precision radial velocity instruments. But, since red dwarfs emit mostly in the infrared and Earth’s atmosphere has strong absorption lines in that domain, the removal of telluric absorption lines is crucial to minimize the velocity bias induced by the atmosphere. The goal of this work was the development of an algorithm capable of performing high precision radial velocimetry measurements, to quantify the impact of telluric lines on the measurements and to determine the level of telluric line masking and attenuation needed to minimize their impact on velocity measurements. A data processing method based on the analysis of an adequately weighted segmented spectrum was also developed to optimally extract radial velocities in the presence of residual telluric lines. We note the existence of a correlation between the time of the measurements and the radial velocity uncertainty associated with the residual telluric lines, which underlines the importance of the choice of the observation window to achieve an accuracy of 1 meter per second. From this analysis, it is concluded that a mask of 80% transmission coupled with an attenuation leaving a maximum of 10% of the telluric lines is required to achieve performance better than 1 meter per second.
205

Caractérisation d’atmosphères d’exoplanètes à haute résolution à l’aide de l’instrument SPIRou et développement de méthodes d’extraction spectrophotométriques pour le télescope spatial James Webb

Darveau-Bernier, Antoine 10 1900 (has links)
L'étude des exoplanètes et de leur atmosphère a connu une croissance fulgurante dans les deux dernières décennies. Les observations spectrophotométriques à partir d'observatoires spatiaux comme Hubble ont permis d'apporter certaines contraintes sur les phénomènes physiques et la composition de leur atmosphère, notamment grâce à la spectroscopie d'éclipse. Ces découvertes concernent généralement les planètes les plus favorables à cette technique, dont font partie les Jupiter chaudes. Cependant, les conclusions tirées à partir telles observations comportent leur lot de dégénérescences, causées par leur faible résolution spectrale, leur couverture restreinte en longueurs d'onde et leur précision photométrique limitée. Ces lacunes peuvent être corrigées en partie grâce à la complémentarité des spectrographes à haute résolution basés au sol ainsi qu'à l'aide du nouveau télescope spatial James Webb (JWST). Cette thèse présente, en premier lieu, une des premières analyses combinées d'observations spectrophotométriques prises avec l'instrument Wide Field Camera 3 de Hubble et d'observations à haute résolution avec l'instrument SPIRou (SpectroPolarimètre InfraRouge) du télescope Canada-France-Hawaï. Cette analyse avait pour cible le côté jour de la Jupiter ultra chaude WASP-33b, la deuxième exoplanète la plus chaude connue à ce jour. Aux températures se retrouvant dans l'atmosphère de WASP-33b, avoisinant les 3000 K, des molécules comme l'eau ne peuvent demeurer stables. Cependant, le CO, beaucoup plus résistant à la dissociation thermique, reste observable. Les données de SPIRou ont donc permis de confirmer la détection des raies d'émission du CO, en accord avec deux précédentes études. La combinaison avec les données de Hubble a aussi mené à l'obtention d'un premier estimé de son abondance avec un rapport de mélange volumique de logCO = -4.07 (-0.60) (+1.51). De plus, cette analyse a pu améliorer les contraintes sur la structure verticale en température et confirmer la présence d'une stratosphère. Des limites supérieures sur d'autres molécules comme l'eau, le TiO et le VO ont aussi pu être établies. En second lieu, un algorithme d'extraction spectrale intitulé ATOCA (Algorithme de Traitement d'Ordres ContAminés) est présenté. Celui-ci est dédié au mode d'observation SOSS (Single Object Slitless Spectroscopy) de l'instrument NIRISS (Near InfraRed Imager and Slitless Spectrograph), la contribution canadienne à JWST. Ce mode d'observation couvre une plage de longueurs d'onde allant de 0,6 à 2,8 um simultanément grâce à la présence des deux premiers ordres de diffraction sur le détecteur. La nécessité d'un nouvel algorithme provient du fait que ces deux ordres générés par le « grisme » du mode SOSS se chevauchent sur une petite portion du détecteur. En conséquence, la région de l'ordre 1 couvrant les plus grandes longueurs d'onde (1,6–2,8 um) est contaminée par l'ordre 2 couvrant l'intervalle entre 0,85 et 1,4 um. ATOCA permet donc de décontaminer chacun des ordres en construisant d'abord un modèle linéaire de chaque pixel individuel du détecteur, en fonction du flux incident. Ce flux peut ensuite être extrait simultanément pour les deux ordres en comparant le modèle aux observations et en solutionnant le système selon un principe de moindres carrés. Ces travaux ont pu montrer qu'il est possible de décontaminer en dessous de 10 ppm pour chaque spectre individuel. / In the last decades, the research on exoplanets and their atmosphere has grown phenomenally. Space based observatories with spectrophotometric capabilities like Hubble allowed to put some constraints on the physical processes occuring in exoplanets’ atmosphere and their chemical composition. These discoveries concern mainly the hotter and larger planets, such as Hot Jupiters, which are the most favorable for atmospheric characterization. However, due to their low spectral resolution and their limited wavelength range and photometric accuracy, the scientific conclusions based on these observations can be degenerate. Some of these degeneracies can be lifted with the use of ground-based high-resolution spectrographs or the new James Webb Space Telescope (JWST). On the one hand, this thesis present one of the first analysis combining Hubble’s spectrosphometric data and high-resolution observations obtained with SPirou (SpectroPolarimètre InfraRouge) at the Canada-France-Hawai telescope. This analysis targeted the dayside of the Ultra Hot Jupiter WASP-33 b, the second-hottest exoplanet known to date. WASP-33 b atmosphere can reach temperatures high enough (≥ 3000 K) to dissociate molecules such as water. However, CO, which is much more resistant to thermal dissociation, remains observable. SPIRou’s observations allowed us to confirm the presence of CO emission lines in WASP-33 b emission spectrum, in agreement with two previous studies. With the addition of published Hubble data, we were able to push further and provide the first estimate CO abundance, with a volume mixing ratio of log10 CO = ≠4.07+1.51 ≠0.60. On the other hand, this thesis propose a new spectral extraction algorithm called ATOCA (Algorithm to Treat Order ContAmination) specifically designed for the SOSS (Single Object Slitless Spectroscopy) mode of the NIRISS instrument (Near InfraRed Imager and Slitless Spectrograph), the Canadian contribution to JWST. This observing mode covers the wavelength range spaning from 0.6 to 2.8 µm simultaneously, due to the presence of the two first diraction orders on NIRISS detector. The need for a new algorithm arises from the fact that these orders, originating from SOSS “grism”, overlap on a small portion of the detector. Consequently, the region of order 1 covering the longest wavelengths (1.6–2.8 µm) is contaminated by the signal from order 2 between 0.85 and 1.4 µm. Hence, ATOCA allows to decontaminate both orders by first building a linear model of each individual pixel of the detector, with the incident flux as an independant variable. This flux is then extracted simultaneously for the two orders by comparing the model to the detector image and by solving the system for the best least square fit. This work has shown that ATOCA can reduce the contamination level below 10 ppm for each individual spectrum.
206

TESS exoplanet candidate follow-up with ground- and space-based instruments

Mann, Christopher 08 1900 (has links)
La découverte d’exoplanètes a connu une croissance quasi exponentielle au cours des trois dernières décennies. Nous savons désormais que les systèmes d’exoplanètes sont la norme dans la galaxie et qu’il existe une variété d’archétypes de planètes qui ne correspondent pas à notre propre système solaire. Ces progrès rapides sont dus en grande partie aux missions spatiales qui utilisent la méthode des transits pour trouver et caractériser de nouvelles exoplanètes. Kepler et, plus récemment, le Transiting Exoplanet Survey Satellite (TESS) ont contribué à la majorité des exoplanètes confirmées ou candidates connues à ce jour. Les exoplanètes découvertes par TESS sont particulièrement prometteuses, car TESS a délibérément ciblé des étoiles hôtes brillantes pour faciliter l’analyse spectroscopique détaillée de l’atmosphère de leurs planètes. Bien que TESS soit très efficace pour identifier de nouveaux signaux de transit, un effort de suivi substantiel est nécessaire pour valider chaque nouvelle candidate et le succès global de la mission TESS dépend fortement de l’obtention de ce suivi de la part d’observatoires externes. Une attention particulière est souvent requise pour les planètes à longue période qui souffrent fortement des biais impliqués dans les recherches de transit. Si l’on peut surmonter les défis observationnels supplémentaires, ces planètes constituent des bancs d’essai rares et précieux pour étudier la physique et la chimie des atmosphères plus froides. Dans cette thèse, j’ai collaboré avec la communauté de suivi des exoplanètes TESS sur plusieurs fronts en apportant des instruments précédemment inutilisés, en contribuant à l’effort général de vérification des candidates, ainsi qu’en menant des études de validation et de confirmation de cibles difficiles à longue période. Nous avons adapté le réseau de téléobjectifs Dragonfly (alias "Dragonfly"), conçu pour les cibles de faible luminosité de surface, à l’observation des transits d’exoplanètes. J’ai développé un nouveau mode d’observation adapté aux transits et créé des pipelines de planification, de traitement des données et d’analyse. Nous avons atteint une précision photométrique d’environ 0,5 ppt dans des intervalles de 4 à 5 minutes sur la plage 9 < mV < 13, compétitive avec d’autres observatoires au sol de classe 1–2 m. Nous avons également développé un vaste programme d’observation avec le satellite de surveillance des objets proches de la Terre (NEOSSat) couvrant 3 ans et 6 cycles d’observation pour observer les transits d’exoplanètes de longue durée, qui représentent un défi majeur à capturer avec des observatoires au sol. En utilisant ces deux instruments, nous avons fourni des observations pour le programme d’observation de suivi des exoplanètes TESS (ExoFOP). Grâce à mon travail dans ExoFOP, j’ai dirigé une publication de validation pour TOI-1221 b, une planète sub-neptunienne de 2,9 rayons terrestres sur une orbite de 92 jours. Non seulement nous avons écarté les scénarios de faux positifs pour cette planète tempérée à longue période, mais grâce à notre analyse détaillée de 6 transits TESS et 2 détections au sol, nous avons trouvé des preuves de variations de synchronisation de transit qui pourraient indiquer une autre planète cachée dans le système. Nous avons également utilisé NEOSSat pour rechercher un deuxième transit de TOI-2010 b, qui n’en montrait qu’un seul dans les données TESS. En surveillant l’étoile hôte sur une fenêtre d’incertitude de 7 jours, nous avons capturé le transit et amélioré considérablement notre connaissance de l’éphéméride de la planète. J’ai dirigé l’article de confirmation sur cette planète semblable à Jupiter avec une orbite de 142 jours, ajoutant une cible de faible insolation à la petite collection d’exoplanètes connues avec des périodes supérieures à 100 jours et des étoiles hôtes suffisamment brillantes pour un suivi spectroscopique. En plus de diriger ces deux projets spécifiques, mes observations avec Dragonfly et NEOSSat ont jusqu’à présent contribué à 10 autres publications dont je suis co-auteur. / Exoplanet discovery has undergone near-exponential growth over the last three decades. We now know exoplanet systems are the norm in the Galaxy and that a variety of planet archetypes exist that do not necessarily match our own Solar System. This rapid advancement is due in large part to space-based discovery missions utilizing the transit method to find and characterize new exoplanets. Kepler, and more recently, the Transiting Exoplanet Survey Satellite (TESS) have contributed the majority of confirmed or candidate exoplanets known today. The exoplanets discovered by TESS show particular promise, as TESS has deliberately targeted bright host stars to facilitate detailed spectroscopic analysis of their planets’ atmospheres. While TESS is highly efficient at identifying new transit signals, substantial follow-up effort is required to validate each new candidate and the overall success of the TESS mission heavily depends on attaining this follow-up from external observatories. Special attention is often required for long-period planets that suffer heavily from the biases involved in transit searches. If one can overcome the added observational challenges, these planets provide rare and valuable testbeds to investigate cool-atmosphere physics and chemistry. Through this thesis, I engaged with the TESS exoplanet follow-up community on several fronts by bringing previously unused instrument options to the endeavour, contributing to the general effort of candidate verification, as well as leading validation and confirmation studies of challenging long-period targets. We adapted the Dragonfly Telephoto Array (a.k.a. “Dragonfly”), designed for low-surface brightness targets, to the observation of exoplanet transits. I developed a new transient-appropriate observing mode and created scheduling, data processing, and analysis pipelines. We achieve a photometric precision floor of 0.5 ppt in 4–5-minute bins over the range 9 < mV < 13, competitive other 1–2 m class ground-based observatories. We also developed an extensive observing program with the Near-Earth Object Surveillance Satellite (NEOSSat) spanning 3 years and 6 observing cycles to observe long-duration exoplanet transits that provide a major challenge to capture with ground-based observatories. Using these two instruments, we provided follow-up observations for the TESS Exoplanet Follow-up Observing Program (ExoFOP). Through my work with ExoFOP, I led a validation publication for TOI-1221 b, a 2.9 Earth-radii sub-Neptune planet on a 92-day orbit. Not only do we rule out the false-positive scenarios for this long-period temperate planet, but through our detailed analysis of 6 TESS transits and 2 ground-based detections, we find evidence of transit timing variations that may indicate an additional hidden planet in the system. We also used NEOSSat to hunt for an elusive second transit of TOI-2010 b. By monitoring the host star over a 7-day uncertainty window, we caught the transit and vastly improved our knowledge of the planet’s ephemeris. I led the confirmation paper on this temperate Jupiter-like planet with a 142-day orbit, adding a low-insolation target to the small collection of known exoplanets with periods above 100 days and host stars bright enough for spectroscopic follow-up. Beyond leading these two specific projects, my observations with Dragonfly and NEOSSat have thus far contributed to 10 other publications for which I am co-author.
207

Contribution à la conception d'un système d'aide à la décision pour la gestion de situations de tension au sein des systèmes hospitaliers. Application à un service d'urgence

Kadri, Farid 27 November 2014 (has links)
La prise en charge des flux des patients, en particulier les flux récurrents et consécutifs à des crises sanitaires (grippes, canicules, situations exceptionnelles) est l'un des problèmes les plus importants auquel les services des urgences (SU) doivent faire face. Pour gérer cet afflux de patients, les services des urgences nécessitent des ressources humaines et matérielles importantes, ainsi qu'un degré élevé de coordination entre ces ressources. Dans ces conditions, le personnel médical se voit confronté très fréquemment à des situations de tension qui compliquent très fortement sa tâche. L‘objet de cette thèse est de contribuer à l’amélioration de la gestion des situations de tension se produisant dans un service d’urgence en proposant un système d’aide à la décision, SAGEST (Système d’Aide à la décision pour la GEstion des Situations de Tensions), permettant i) le pilotage proactif du SU : prévision à court et/ou moyen terme de l'apparition de situations de tension et l'évolution du flux patients et la proposition d'actions de correction afin d'éviter l’occurrence de ces situations et ii) le pilotage réactif dans le cas où l'occurrence de la situation de tension n'a pas été détectée. Une architecture fonctionnelle du système SAGEST, s'appuyant sur le processus décisionnel du responsable du service d'urgence, est proposée. Les méthodologies et les modèles utilisés dans la construction des principales fonctions et de la base de connaissances sont décrits. Enfin, les résultats d’application des différents modèles du système SAGEST pour le service d’urgence pédiatrique (SUP) du centre hospitalier régional universitaire du Lille sont présentés et discutés. / The management of patient flow, especially the flow resulting from health (flu, heat waves and exceptional circumstances) is one of the most important problems to manage in the emergency department (ED). To handle the influx of patients, emergency departments require significant human and material resources, and a high degree of coordination between these resources. Under these conditions, the medical and the paramedical staffs are often confronted with strain situations which greatly complicate their task. The main purpose of this thesis is to contribute to improving the management of situations of tension occurring in the emergency department by providing a decision support system, SAGEST. This DSS allows i) a proactive control of the ED: predicting at short and/or medium-term the occurrence of potential strain situations and proposing corrective actions to prevent the occurrence of these situations, ii) a reactive control in the case of no-detection of the strain situation occurrence. A functional architecture of the SAGEST system, based on the manager’s decision making process is proposed. Used methodologies and models embedded in the main functions and the knowledge base of the SAGEST system are described. Finally, experiments and results of different models of SAGEST system applied to the paediatric emergency department (PED) of the Regional University Hospital of Lille are presented and discussed.
208

Estimations du mélange vertical le long de sections hydrologiques en Atlantique Nord / Vertical mixing estimates along hydrological sections en Atlantique Nord in North Atlantic

Kokoszka, Florian 06 March 2012 (has links)
Le mélange vertical dans l’océan contribue au maintien de la Cellule Méridienne de Circulation Océanique (MOC) en permettant le renouvellement des eaux profondes. Une coupe transverse d’une partie de la MOC est réalisée par la radiale hydrologique OVIDE qui a lieu tous les 2 ans depuis 2002 entre le Portugal et le Groenland. L’énergie nécessaire au mélange est fournie par les ondes internes générées par le vent et la marée, et des mesures de micro-structure (VMP) en 2008 montrent des valeurs de dissipation Evmp intensifiées dans la thermocline principale et au niveau des topographies. Notre étude se base sur ces observations pour étudier la fine-structure verticale de l’océan et estimer indirectement la dissipation E due aux ondes internes à l’aide de mesures CTD et LADCP. La comparaison au mesures du VMP permet d’optimiser la paramétrisation de E en encadrant les observations par facteur 3 et leurs valeurs moyennes à ±30%. L’application sur l’ensemble des données OVIDE permet d’obtenir une cartographie du mélange a travers le bassin. La distribution géographique de la diffusion verticale K est similaire le long des 5 sections, avec des valeurs de l’ordre de 10−4m2/s dans la thermocline principale, au fond et au niveau des topographies, et de l’ordre de 10−5m2/s dans l’océan intérieur. Des différences régionales sont présentes et K peut être localement proche de 10−3m2/s. L’étude de la section FOUREX 1997 révèle une intensification de K le long de la dorsale médio-Atlantique où les valeurs moyennes sont de 2 à 3 plus fortes que le long des sections OVIDE. La distribution spatiale des échelles de Thorpe LT est corrélée avec celle du mélange. Néanmoins la dissi-pation basée sur LT surestime Evmp d’un facteur 10 à100, ce qui pourrait être dû à une mauvaise représentation de la durée de vie de la turbulence dans l’océan. Certains mécanismes susceptibles de générer des ondes internes sont proposés. Des sites possibles de génération par la marée sont localisés à l’aide d’un modèle simple de la trajectoire des rayons d’ondes. Une corrélation possible entre les mouvements géostrophiques et les ondes internes est envisagée dans la thermocline principale. Enfin l’étude des angles de Turner montre que des instabilités de double-diffusion peuvent être présentes sur une grande partie de la section. / Vertical mixing in the ocean contributes to sustain the Meridionnal Overturning. Circulation (MOC) by allowing the renewal of deep waters. A section across the MOC is performed by the hydrological radial OVIDE repeated every two years between Portugal and Greenland since 2002. The energy required for mixing is provided by internal waves generated by wind and tides and micro-structure measurements(VMP) in 2008 show intensified values of dissipation Evmp in the main thermocline and near topographies. Our study is based on these observations and aims tostudy the vertical fine-scale structure of the ocean. Estimates of the dissipation E due to internal waves are made with CTD and LADCP measurements. The comparison with VMP measurements allow us to optimize the parameterization of E by framing the observations by factor 3 and their mean values at ±30%. The systematic application to the OVIDE dataset provides a mapping of the mixing across the basin. Geographical distribution of the vertical diffusion K is similar along the five sections, with values near10−4m2/s in the main thermocline and at the bottom of topographies, and near 10−5m2/s in the ocean interior. Regional differences are present and K can belocally close to 10−3m2/s. Application to FOUREX1997 datas et reveals an increase of K along the Mid-Atlantic Ridge, where the average values are 2 to 3stronger than along OVIDE sections. The spatial distribution of Thorpe scales LT appears to be correlated with internal waves mixing patterns. Nevertheless dissipation estimates based on LT overestimates Evmp by a 10 to 100 factor, which maybe due to misrepresentation of the stage of turbulence development in the ocean. Some mechanisms that can generate internal waves are proposed. Probable sites where tidal generation could occur are located using a simple model of wave beam trajectory. A possible correlation between geostrophic flows and internal waves is considered in the main thermocline. Finally the study of Turnerangles shows that double-diffusion instabilities may bepresent over a large part of the section.
209

Etude des délais de survenue des effets indésirables médicamenteux à partir des cas notifiés en pharmacovigilance : problème de l'estimation d'une distribution en présence de données tronquées à droite / Time to Onset of Adverse Drug Reactions : Spontaneously Reported Cases Based Analysis and Distribution Estimation From Right-Truncated Data

Leroy, Fanny 18 March 2014 (has links)
Ce travail de thèse porte sur l'estimation paramétrique du maximum de vraisemblance pour des données de survie tronquées à droite, lorsque les délais de troncature sont considérés déterministes. Il a été motivé par le problème de la modélisation des délais de survenue des effets indésirables médicamenteux à partir des bases de données de pharmacovigilance, constituées des cas notifiés. Les distributions exponentielle, de Weibull et log-logistique ont été explorées.Parfois le caractère tronqué à droite des données est ignoré et un estimateur naïf est utilisé à la place de l'estimateur pertinent. Une première étude de simulations a montré que, bien que ces deux estimateurs - naïf et basé sur la troncature à droite - puissent être positivement biaisés, le biais de l'estimateur basé sur la troncature est bien moindre que celui de l'estimateur naïf et il en va de même pour l'erreur quadratique moyenne. De plus, le biais et l'erreur quadratique moyenne de l'estimateur basé sur la troncature à droite diminuent nettement avec l'augmentation de la taille d'échantillon, ce qui n'est pas le cas de l'estimateur naïf. Les propriétés asymptotiques de l'estimateur paramétrique du maximum de vraisemblance ont été étudiées. Sous certaines conditions, suffisantes, cet estimateur est consistant et asymptotiquement normal. La matrice de covariance asymptotique a été détaillée. Quand le délai de survenue est modélisé par la loi exponentielle, une condition d'existence de l'estimation du maximum de vraisemblance, assurant ces conditions suffisantes, a été obtenue. Pour les deux autres lois, une condition d'existence de l'estimation du maximum de vraisemblance a été conjecturée.A partir des propriétés asymptotiques de cet estimateur paramétrique, les intervalles de confiance de type Wald et de la vraisemblance profilée ont été calculés. Une seconde étude de simulations a montré que la couverture des intervalles de confiance de type Wald pouvait être bien moindre que le niveau attendu en raison du biais de l'estimateur du paramètre de la distribution, d'un écart à la normalité et d'un biais de l'estimateur de la variance asymptotique. Dans ces cas-là, la couverture des intervalles de la vraisemblance profilée est meilleure.Quelques procédures d'adéquation adaptées aux données tronquées à droite ont été présentées. On distingue des procédures graphiques et des tests d'adéquation. Ces procédures permettent de vérifier l'adéquation des données aux différents modèles envisagés.Enfin, un jeu de données réelles constitué de 64 cas de lymphomes consécutifs à un traitement anti TNF-α issus de la base de pharmacovigilance française a été analysé, illustrant ainsi l'intérêt des méthodes développées. Bien que ces travaux aient été menés dans le cadre de la pharmacovigilance, les développements théoriques et les résultats des simulations peuvent être utilisés pour toute analyse rétrospective réalisée à partir d'un registre de cas, où les données sur un délai de survenue sont aussi tronquées à droite. / This work investigates the parametric maximum likelihood estimation for right-truncated survival data when the truncation times are considered deterministic. It was motivated by the modeling problem of the adverse drug reactions time-to-onset from spontaneous reporting databases. The families of the exponential, Weibull and log-logistic distributions were explored.Sometimes, right-truncation features of spontaneous reports are not taken into account and a naive estimator is used instead of the truncation-based estimator. Even if the naive and truncation-based estimators may be positively biased, a first simulation study showed that the bias of the truncation-based estimator is always smaller than the naive one and this is also true for the mean squared error. Furthermore, when the sample size increases, the bias and the mean squared error are almost constant for the naive estimator while they decrease clearly for the truncation-based estimator.Asymptotic properties of the truncation-based estimator were studied. Under sufficient conditions, this parametric truncation-based estimator is consistent and asymptotically normally distributed. The covariance matrix was detailed. When the time-to-onset is exponentially distributed, these sufficient conditions are checked as soon as a condition for the maximum likelihood estimation existence is satisfied. When the time-to-onset is Weibull or log-logistic distributed, a condition for the maximum likelihood estimation existence was conjectured.The asymptotic distribution of the maximum likelihood estimator makes it possible to derive Wald-type and profile likelihood confidence intervals for the distribution parameters. A second simulation study showed that the estimated coverage probability of the Wald-type confidence intervals could be far from the expected level because of a bias of the parametric maximum likelihood estimator, a gap from the gaussian distribution and a bias of the asymptotic variance estimator. In these cases, the profile likelihood confidence intervals perform better.Some goodness-of-fit procedures adapted to right-truncated data are presented. Graphical procedures and goodness-of-fit tests may be distinguished. These procedures make it possible to check the fit of different parametric families to the data.Illustrating the developed methods, a real dataset of 64 cases of lymphoma, that occurred after anti TNF-α treatment and that were reported to the French pharmacovigilance, was finally analyzed. Whilst an application to pharmacovigilance was led, the theoretical developments and the results of the simulation study may be used for any retrospective analysis from case registries where data are right-truncated.
210

Analyse et visualisation de données relationnelles par morphing de graphe prenant en compte la dimension temporelle

Loubier, Eloïse 09 October 2009 (has links) (PDF)
Avec la mondialisation, l'entreprise doit faire face aux menaces de plus en plus fortes de la concurrence et à l'accélération des flux d'information. Pour cela, elle est amenée à rester continuellement informée des innovations, des stratégies de la concurrence et de l'état du marché tout en gardant la maîtrise de son environnement. Le développement d'Internet et la globalisation ont à la fois renforcé cette exigence, et fourni les moyens de collecter l'information qui, une fois synthétisée, prend souvent une forme relationnelle. Pour analyser le relationnel, le recours à la visualisation par des graphes apporte un réel confort aux utilisateurs, qui, de façon intuitive, peuvent s'approprier une forme de connaissance difficile à appréhender autrement. <br />Nos travaux conduisent à l'élaboration des techniques graphiques permettant la compréhension des activités humaines, de leurs interactions mais aussi de leur évolution, dans une perspective décisionnelle. Nous concevons un outil alliant simplicité d'utilisation et précision d'analyse se basant sur deux types de visualisations complémentaires : statique et dynamique. <br />L'aspect statique de notre modèle de visualisation repose sur un espace de représentation, dans lequel les préceptes de la théorie des graphes sont appliqués. Le recours à des sémiologies spécifiques telles que le choix de formes de représentation, de granularité, de couleurs significatives permet une visualisation plus juste et plus précise de l'ensemble des données. L'utilisateur étant au cœur de nos préoccupations, notre contribution repose sur l'apport de fonctionnalités spécifiques, qui favorisent l'identification et l'analyse détaillée de structures de graphes. Nous proposons des algorithmes qui permettent de cibler le rôle des données au sein de la structure, d'analyser leur voisinage, tels que le filtrage, le k-core, la transitivité, de retourner aux documents sources, de partitionner le graphe ou de se focaliser sur ses spécificités structurelles.<br />Une caractéristique majeure des données stratégiques est leur forte évolutivité. Or l'analyse statistique ne permet pas toujours d'étudier cette composante, d'anticiper les risques encourus, d'identifier l'origine d'une tendance, d'observer les acteurs ou termes ayant un rôle décisif au cœur de structures évolutives.<br />Le point majeur de notre contribution pour les graphes dynamiques représentant des données à la fois relationnelles et temporelles, est le morphing de graphe. L'objectif est de faire ressortir les tendances significatives en se basant sur la représentation, dans un premier temps, d'un graphe global toutes périodes confondues puis en réalisant une animation entre les visualisations successives des graphes attachés à chaque période. Ce procédé permet d'identifier des structures ou des événements, de les situer temporellement et d'en faire une lecture prédictive.<br />Ainsi notre contribution permet la représentation des informations, et plus particulièrement l'identification, l'analyse et la restitution des structures stratégiques sous jacentes qui relient entre eux et à des moments donnés les acteurs d'un domaine, les mots-clés et concepts qu'ils utilisent.

Page generated in 0.0888 seconds