• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 155
  • 61
  • 33
  • Tagged with
  • 242
  • 242
  • 129
  • 125
  • 50
  • 48
  • 32
  • 30
  • 27
  • 26
  • 23
  • 23
  • 22
  • 20
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Caractérisation différentielle de forums de discussion sur le VIH en vietnamien et en français : Éléments pour la fouille comportementale du web social / Differential characterization of discussion forums on HIV in Vietnamese and French : Elements for behaviour mining on the social web

Hô Dinh, Océane 22 December 2017 (has links)
Les discours normés que produisent les institutions sont concurrencés par les discours informels ou faiblement formalisés issus du web social. La démocratisation de la prise de parole redistribue l’autorité en matière de connaissance et modifie les processus de construction des savoirs. Ces discours spontanés sont accessibles par tous et dans des volumes exponentiels, ce qui offre aux sciences humaines et sociales de nouvelles possibilités d’exploration. Pourtant elles manquent encore de méthodologies pour appréhender ces données complexes et encore peu décrites. L’objectif de la thèse est de montrer dans quelle mesure les discours du web social peuvent compléter les discours institutionnels. Nous y développons une méthodologie de collecte et d’analyse adaptée aux spécificités des discours natifs du numérique (massivité, anonymat, volatilité, caractéristiques structurelles, etc.). Nous portons notre attention sur les forums de discussion comme environnements d’élaboration de ces discours et appliquons la méthodologie développée à une problématique sociale définie : celle de l’épidémie du VIH/SIDA au Viêt Nam. Ce terrain applicatif recouvre plusieurs enjeux de société : sanitaire et social, évolutions des moeurs, concurrence des discours. L’étude est complétée par l’analyse d’un corpus comparable de langue française, relevant des mêmes thématique, genre et discours que le corpus vietnamien, de manière à mettre en évidence les spécificités de contextes socioculturels distincts. / The standard discourse produced by official organisations is confronted with the unofficial or informal discourse of the social web. Empowering people to express themselves results in a new balance of authority, when it comes to knowledge and changes the way people learn. Social web discourse is available to each and everyone and its size is growing fast, which opens up new fields for both humanities and social sciences to investigate. The latter, however, are not equipped to engage with such complex and little-analysed data. The aim of this dissertation is to investigate how far social web discourse can help supplement official discourse. In it we set out a method to collect and analyse data that is in line with the characteristics of a digital environment, namely data size, anonymity, transience, structure. We focus on forums, where such discourse is built, and test our method on a specific social issue, ie the HIV/AIDS epidemic in Vietnam. This field of investigation encompasses several related questions that have to do with health, society, the evolution of morals, the mismatch between different kinds of discourse. Our study is also grounded in the analysis of a comparable French corpus dealing with the same topic, whose genre and discourse characteristics are equivalent to those of the Vietnamese one: this two-pronged research highlights the specific features of different socio-cultural environments.
202

Les mises en forme algorithmiques, ruptures et continuités dans la quantification du social

Lareau, Justine 08 1900 (has links)
Ce mémoire de maîtrise porte sur les algorithmes de « data mining » et de « machine learning », constitutifs d’un domaine que l’on appelle plus récemment la « science des données ». Pour essayer d’éclairer la portée et la spécificité des enjeux que leur usage soulève dans nos sociétés, il est proposé d’interroger le rapport qu’ils entretiennent avec les fondements et les limites des outils plus traditionnels de la statistique sociale/mathématique, bien documentés en sociologie, à l'égard notamment du « langage des variables » et du raisonnement expérimental « toutes choses égales par ailleurs ». En inscrivant l’approche au croisement de la sociologie de la connaissance et de la quantification, le cadre conceptuel s’inspire de l’épistémologie comparative de Gilles-Gaston Granger, de la « méta-épistémologie historique » de Ian Hacking et de la sociohistoire de la statistique sociale d’Alain Desrosières. Par l’idée de mises en forme algorithmique de la vie sociale, les algorithmes de calcul sont envisagés comme modes d’investigation, partiellement ou complètement automatisés, procédant à des mises en forme et en ordre plurielles et différenciées du social et de ses propriétés. À partir de données de Statistique Canada servant à étayer plus concrètement les formes de connaissances produites et les visées d’objets qu’elles délimitent en termes de possibilités et de contraintes d’expérience, la présente étude de cas entreprend d’examiner le clivage des méthodes « classiques » et « contemporaines » à l’intérieur du cadre supervisé de l’apprentissage. Pour ce faire, trois techniques/familles d’algorithmes sont comparées sous l’angle de leurs opérations d’analyse: 1) les méthodes de régression logistique, 2) les arbres de décision et 3) les forêts aléatoires. L’objectif de cette analyse sociologique théorique comme empirique est d’examiner comment ces approches opèrent certains modes de classification et facilitent ou défavorisent des représentations du monde et de l’individu. Le travail conduit plus généralement à ouvrir quelques pistes de réflexion quant aux rapports de compatibilité et d’incompatibilité des formes de raisonnement du style statistique et probabiliste avec certains états du développement de la sociologie. / This master's thesis focuses on data mining and machine learning algorithms, constituting a field more recently called “data science”. To try to shed light on the specificity of the issues they raise in our societies, it is proposed to question the relationship they maintain with the foundations and the limits of the more “classic” tools of mathematical statistics in sociology, with regard in particular to the “language of variables” and to the experimental reasoning “all other things being equal” (cetaris paribus). By placing the approach at the intersection of the sociology of knowledge and quantification, the conceptual framework is inspired by the comparative epistemology of Gilles-Gaston Granger (1920-2016), the historical meta-epistemology of Ian Hacking (1936-) and the sociohistory of social statistics by Alain Desrosières (1940-2013). Through the idea of “mises en forme algorithmique de la vie sociale”, computational algorithms are considered as partially or completely automated types of investigation, carrying out plural and differentiated of shaping and ordering of the social and its properties. Using data from Statistics Canada used to more concretely support the forms of knowledge produced as well as the possibilities and experience constraints that they define, this case study sets out to examine the divide between “classical” and more “contemporary” methods of analysis within the framework of “supervised” learning. To do this, three algorithm techniques (or families of algorithms) are compared from the angle of their knowledge operations: 1) logistic regressions, 2) decision trees and 3) random forests. The objective of this theoretical as well as empirical work is to examine how these approaches operate certain modes of classification, facilitate or disadvantage representations of the world and can also be performative in social activities. The research work more generally leads to opening up some avenues of reflection as to the compatibility and incompatibility relationships of the forms of reasoning of the statistical and probabilistic style with certain states of development in society and in sociology.
203

Mobile collaborative sensing : framework and algorithm design / Framework et algorithmes pour la conception d'applications collaboratives de capteurs

Chen, Yuanfang 12 July 2017 (has links)
De nos jours, il y a une demande croissante pour fournir de l'information temps réel à partir de l'environnement, e.g. état infectieux de maladies, force du signal, conditions de circulation, qualité de l'air. La prolifération des dispositifs de capteurs et la mobilité des personnes font de la Mobile Collaborative Sensing (MCS) un moyen efficace de détecter et collecter l'information à un faible coût. Dans MCS, au lieu de déployer des capteurs statiques dans une zone, les personnes disposant d'appareils mobiles jouent le rôle de capteurs mobiles. En général, une application MCS exige que l'appareil de chacun ait la capacité d'effectuer la détection et retourne les résultats à un serveur central, mais également de collaborer avec d'autres dispositifs. Pour que les résultats puissent représenter l'information physique d'une région cible et convenir, quel type de données peut être utilisé et quel type d'information doit être inclus dans les données collectées? Les données spatio-temporelles peuvent être utilisées par des applications pour bien représenter la région cible. Dans des applications différentes, l'information de localisation et de temps sont 2 types d'information communes, et en les utilisant la région cible d'une application est sous surveillance complète du temps et de l'espace. Différentes applications nécessitent de l'information différente pour atteindre des objectifs différents. E.g. dans cette thèse: i- MCS-Locating application: l'information de résistance du signal doit être incluse dans les données détectées par des dispositifs mobiles à partir d'émetteurs de signaux ; ii- MCS-Prédiction application : la relation entre les cas d'infection et les cas infectés doit être incluse dans les données par les dispositifs mobiles provenant des zones de flambée de la maladie ; iii- MCS-Routing application : l'information routière en temps réel provenant de différentes routes de circulation doit être incluse dans les données détectées par des dispositifs embarqués. Avec la détection de l'information physique d'une région cible, et la mise en interaction des dispositifs, 3 thèmes d'optimisation basés sur la détection sont étudiés et 4 travaux de recherche menés: -Mobile Collaboratif Détection Cadre : un cadre mobile de détection collaborative est conçu pour faciliter la coopérativité de la collecte, du partage et de l'analyse des données. Les données sont collectées à partir de sources et de points temporels différents. Pour le déploiement du cadre dans les applications, les défis clés pertinents et les problèmes ouverts sont discutés. -MCS-Locating : l'algorithme LiCS (Locating in Collaborative Sensing based Data Space) est proposé pour atteindre la localisation de la cible. LiCS utilise la puissance du signal reçu dans tous les périphériques sans fil comme empreintes digitales de localisation pour les différents emplacements. De sorte LiCS peut être directement pris en charge par l'infrastructure sans fil standard. Il utilise des données de trace d'appareils mobiles d'individus, et un modèle d'estimation d'emplacement. Il forme le modèle d'estimation de localisation en utilisant les données de trace pour atteindre la localisation de la cible collaborative. Cette collaboration entre périphériques est au niveau des données et est supportée par un modèle. -MCS-Prédiction: un modèle de reconnaissance est conçu pour acquérir dynamiquement la connaissance de structure de la RCN pertinente pendant la propagation de la maladie. Sur ce modèle, un algorithme de prédiction est proposé pour prédire le paramètre R. i.e. le nombre de reproduction qui est utilisé pour quantifier la dynamique de la maladie pendant sa propagation. -MCS-Routing : un algorithme de navigation écologique ‘eRouting’ est conçu en combinant l'information de trafic temps réel et un modèle d'énergie/émission basé sur des facteurs représentatifs. Sur la base de l'infrastructure standard d'un système de trafic intelligent, l'information sur le trafic est collectée / Nowadays, there is an increasing demand to provide real-time information from the environment, e.g., the infection status of infectious diseases, signal strength, traffic conditions, and air quality, to citizens in urban areas for various purposes. The proliferation of sensor-equipped devices and the mobility of people are making Mobile Collaborative Sensing (MCS) an effective way to sense and collect information at a low deployment cost. In MCS, instead of just deploying static sensors in an interested area, people with mobile devices play the role of mobile sensors to sense the information of their surroundings, and the communication network (3G, WiFi, etc.) is used to transfer data for MCS applications. Typically, a MCS application not only requires each participant's mobile device to possess the capability of performing sensing and returning sensed results to a central server, but also requires to collaborate with other mobile and static devices. In order to make sensed results well represent the physical information of a target region, and well be suitable to a certain application, what kind of data can be used for different applications, and what kind of information needs to be included into the collected sensing data? Spatio-temporal data can be used by different applications to well represent the target region. In different applications, location and time information is two kinds of common information, and by using such information, the target region of an application is under comprehensive monitoring from the view of time and space. Different applications require different information to achieve different sensing purposes. E.g. in this thesis: i- MCS-Locating application: signal strength information needs to be included into the sensed data by mobile devices from signal transmitters; ii- MCS-Prediction application: the relationship between infecting and infected cases needs to be included into the sensed data by mobile devices from disease outbreak areas; iii- MCS-Routing application: real-time traffic and road information from different traffic roads, e.g., traffic velocity and road gradient, needs to be included into the sensed data by road-embedded and vehicle-mounted devices. With sensing the physical information of a target region, and making mobile and static devices collaborate with each other in mind, in this thesis three sensing based optimization applications are studied, and following four research works are conducted: - a MCS Framework is designed to facilitate the cooperativity of data collection, sharing, and analysis among different devices. Data is collected from different sources and time points. For deploying the framework into applications, relevant key challenges and open issues are discussed. - MCS-Locating: an algorithm LiCS (Locating in Collaborative Sensing based Data Space) is proposed to achieve target locating. It uses Received Signal Strength that exists in any wireless devices as location fingerprints to differentiate different locations, so it can be directly supported by off-the-shelf wireless infrastructure. LiCS uses trace data from individuals' mobile devices, and a location estimation model. It trains the location estimation model by using the trace data to achieve collaborative target locating. Such collaboration between different devices is data-level, and model-supported. - MCS-Prediction: a recognition model is designed to dynamically acquire the structure knowledge of the relevant RCN during disease spread. On the basis of this model, a prediction algorithm is proposed to predict the parameter R. R is the reproductive number which is used to quantify the disease dynamics during disease spread. - MCS-Routing: an eco-friendly navigation algorithm, eRouting, is designed by combining real-time traffic information and a representative factor based energy/emission model. Based on the off-the-shelf infrastructure of an intelligent traffic system, the traffic information is collected
204

Dynamic network resources optimization based on machine learning and cellular data mining / Optimisation dynamique des ressources des réseaux cellulaires basée sur des techniques d'analyse de données et des techniques d'apprentissage automatique

Hammami, Seif Eddine 20 September 2018 (has links)
Les traces réelles de réseaux cellulaires représentent une mine d’information utile pour améliorer les performances des réseaux. Des traces comme les CDRs (Call detail records) contiennent des informations horodatées sur toutes les interactions des utilisateurs avec le réseau sont exploitées dans cette thèse. Nous avons proposé des nouvelles approches dans l’étude et l’analyse des problématiques des réseaux de télécommunications, qui sont basé sur les traces réelles et des algorithmes d’apprentissage automatique. En effet, un outil global d’analyse de données, pour la classification automatique des stations de base, la prédiction de la charge de réseau et la gestion de la bande passante est proposé ainsi qu’un outil pour la détection automatique des anomalies de réseau. Ces outils ont été validés par des applications directes, et en utilisant différentes topologies de réseaux comme les réseaux WMN et les réseaux basés sur les drone-cells. Nous avons montré ainsi, qu’en utilisant des outils d’analyse de données avancés, il est possible d’optimiser dynamiquement les réseaux mobiles et améliorer la gestion de la bande passante. / Real datasets of mobile network traces contain valuable information about the network resources usage. These traces may be used to enhance and optimize the network performances. A real dataset of CDR (Call Detail Records) traces, that include spatio-temporal information about mobile users’ activities, are analyzed and exploited in this thesis. Given their large size and the fact that these are real-world datasets, information extracted from these datasets have intensively been used in our work to develop new algorithms that aim to revolutionize the infrastructure management mechanisms and optimize the usage of resource. We propose, in this thesis, a framework for network profiles classification, load prediction and dynamic network planning based on machine learning tools. We also propose a framework for network anomaly detection. These frameworks are validated using different network topologies such as wireless mesh networks (WMN) and drone-cell based networks. We show that using advanced data mining techniques, our frameworks are able to help network operators to manage and optimize dynamically their networks
205

Exploration de données pour l'optimisation de trajectoires aériennes / Data analysis for aircraft trajectory optimization

Rommel, Cédric 26 October 2018 (has links)
Cette thèse porte sur l'utilisation de données de vols pour l'optimisation de trajectoires de montée vis-à-vis de la consommation de carburant.Dans un premier temps nous nous sommes intéressé au problème d'identification de modèles de la dynamique de l'avion dans le but de les utiliser pour poser le problème d'optimisation de trajectoire à résoudre. Nous commençont par proposer une formulation statique du problème d'identification de la dynamique. Nous l'interpretons comme un problème de régression multi-tâche à structure latente, pour lequel nous proposons un modèle paramétrique. L'estimation des paramètres est faite par l'application de quelques variations de la méthode du maximum de vraisemblance.Nous suggérons également dans ce contexte d'employer des méthodes de sélection de variable pour construire une structure de modèle de régression polynomiale dépendant des données. L'approche proposée est une extension à un contexte multi-tâche structuré du bootstrap Lasso. Elle nous permet en effet de sélectionner les variables du modèle dans un contexte à fortes corrélations, tout en conservant la structure du problème inhérente à nos connaissances métier.Dans un deuxième temps, nous traitons la caractérisation des solutions du problème d'optimisation de trajectoire relativement au domaine de validité des modèles identifiés. Dans cette optique, nous proposons un critère probabiliste pour quantifier la proximité entre une courbe arbitraire et un ensemble de trajectoires échantillonnées à partir d'un même processus stochastique. Nous proposons une classe d'estimateurs de cette quantitée et nous étudions de façon plus pratique une implémentation nonparamétrique basé sur des estimateurs à noyau, et une implémentation paramétrique faisant intervenir des mélanges Gaussiens. Ce dernier est introduit comme pénalité dans le critère d'optimisation de trajectoire dans l'objectif l'intention d'obtenir directement des trajectoires consommant peu sans trop s'éloigner des régions de validité. / This thesis deals with the use of flight data for the optimization of climb trajectories with relation to fuel consumption.We first focus on methods for identifying the aircraft dynamics, in order to plug it in the trajectory optimization problem. We suggest a static formulation of the identification problem, which we interpret as a structured multi-task regression problem. In this framework, we propose parametric models and use different maximum likelihood approaches to learn the unknown parameters.Furthermore, polynomial models are considered and an extension to the structured multi-task setting of the bootstrap Lasso is used to make a consistent selection of the monomials despite the high correlations among them.Next, we consider the problem of assessing the optimized trajectories relatively to the validity region of the identified models. For this, we propose a probabilistic criterion for quantifying the closeness between an arbitrary curve and a set of trajectories sampled from the same stochastic process. We propose a class of estimators of this quantity and prove their consistency in some sense. A nonparemetric implementation based on kernel density estimators, as well as a parametric implementation based on Gaussian mixtures are presented. We introduce the later as a penalty term in the trajectory optimization problem, which allows us to control the trade-off between trajectory acceptability and consumption reduction.
206

Impact des raies d'absorption telluriques sur la vélocimétrie de haute précision

Beauvais, Simon-Gabriel 05 1900 (has links)
Dans la recherche d’exoplanètes comme la Terre dans la zone habitable de leur étoile, la vélocimétrie radiale s’est avérée un outil important. Les candidats les plus intéressants pour faire ce genre de mesures sont les naines rouges, car la zone habitable se trouve proche de l’étoile et possède donc une courte période, et de par leurs faibles masses, l’orbite d’une planète comme la Terre induirait un signal de l’ordre de 1 ms^−1. L’effet Doppler résultant de ce mouvement est mesurable par des spectrographes optimisés pour la vélocimétrie de haute précision. Par contre, comme les naines rouges émettent principalement dans l’infrarouge et que l’atmosphère terrestre présente de fortes raies d’absorption dans ces longueurs d’onde, il est alors important de soustraire ces raies pour minimiser le biais de vitesse radiale de l’étoile induit par l’atmosphère. Le but de ce travail de maîtrise fut de développer un algorithme permettant de faire des mesures de vélocimétrie de haute précision dans le domaine infrarouge, de procéder à la quantification de l’impact des raies d’absorption telluriques et de déterminer une cible pour le niveau requis de retrait de ces raies. Une méthode de traitement de données basée sur l’analyse d’un spectre segmenté adéquatement pondéré fut aussi développée pour extraire optimalement la vitesse radiale en présence de raies telluriques résiduelles. On note l’existence d’une corrélation entre l’époque des mesures et l’incertitude de vitesse radiale associée avec les raies telluriques résiduelles ce qui souligne toute l’importance du choix de la fenêtre d’observation pour atteindre une précision de 1 ms^−1. De cette analyse, on conclut qu’un masque de 80% de transmission couplé avec un retrait laissant au maximum 10% des raies telluriques est requis pour atteindre des performances mieux que le ms^−1. / In the search for an exoplanet like Earth in the habitable zone of its star, radial velocimetry has proved itself an important tool. The most promising candidates for this type of measurements are red dwarfs. Since their habitable zone is very close to the star with relatively small orbital periods (a few weeks), and because of their small masses, the presence of an Earth-like planet in their habitable zone would produce a signal of ∼ 1 ms−1. Such a small Doppler effect resulting from this reflex motion is within the capabilities of precision radial velocity instruments. But, since red dwarfs emit mostly in the infrared and Earth’s atmosphere has strong absorption lines in that domain, the removal of telluric absorption lines is crucial to minimize the velocity bias induced by the atmosphere. The goal of this work was the development of an algorithm capable of performing high precision radial velocimetry measurements, to quantify the impact of telluric lines on the measurements and to determine the level of telluric line masking and attenuation needed to minimize their impact on velocity measurements. A data processing method based on the analysis of an adequately weighted segmented spectrum was also developed to optimally extract radial velocities in the presence of residual telluric lines. We note the existence of a correlation between the time of the measurements and the radial velocity uncertainty associated with the residual telluric lines, which underlines the importance of the choice of the observation window to achieve an accuracy of 1 meter per second. From this analysis, it is concluded that a mask of 80% transmission coupled with an attenuation leaving a maximum of 10% of the telluric lines is required to achieve performance better than 1 meter per second.
207

Caractérisation d’atmosphères d’exoplanètes à haute résolution à l’aide de l’instrument SPIRou et développement de méthodes d’extraction spectrophotométriques pour le télescope spatial James Webb

Darveau-Bernier, Antoine 10 1900 (has links)
L'étude des exoplanètes et de leur atmosphère a connu une croissance fulgurante dans les deux dernières décennies. Les observations spectrophotométriques à partir d'observatoires spatiaux comme Hubble ont permis d'apporter certaines contraintes sur les phénomènes physiques et la composition de leur atmosphère, notamment grâce à la spectroscopie d'éclipse. Ces découvertes concernent généralement les planètes les plus favorables à cette technique, dont font partie les Jupiter chaudes. Cependant, les conclusions tirées à partir telles observations comportent leur lot de dégénérescences, causées par leur faible résolution spectrale, leur couverture restreinte en longueurs d'onde et leur précision photométrique limitée. Ces lacunes peuvent être corrigées en partie grâce à la complémentarité des spectrographes à haute résolution basés au sol ainsi qu'à l'aide du nouveau télescope spatial James Webb (JWST). Cette thèse présente, en premier lieu, une des premières analyses combinées d'observations spectrophotométriques prises avec l'instrument Wide Field Camera 3 de Hubble et d'observations à haute résolution avec l'instrument SPIRou (SpectroPolarimètre InfraRouge) du télescope Canada-France-Hawaï. Cette analyse avait pour cible le côté jour de la Jupiter ultra chaude WASP-33b, la deuxième exoplanète la plus chaude connue à ce jour. Aux températures se retrouvant dans l'atmosphère de WASP-33b, avoisinant les 3000 K, des molécules comme l'eau ne peuvent demeurer stables. Cependant, le CO, beaucoup plus résistant à la dissociation thermique, reste observable. Les données de SPIRou ont donc permis de confirmer la détection des raies d'émission du CO, en accord avec deux précédentes études. La combinaison avec les données de Hubble a aussi mené à l'obtention d'un premier estimé de son abondance avec un rapport de mélange volumique de logCO = -4.07 (-0.60) (+1.51). De plus, cette analyse a pu améliorer les contraintes sur la structure verticale en température et confirmer la présence d'une stratosphère. Des limites supérieures sur d'autres molécules comme l'eau, le TiO et le VO ont aussi pu être établies. En second lieu, un algorithme d'extraction spectrale intitulé ATOCA (Algorithme de Traitement d'Ordres ContAminés) est présenté. Celui-ci est dédié au mode d'observation SOSS (Single Object Slitless Spectroscopy) de l'instrument NIRISS (Near InfraRed Imager and Slitless Spectrograph), la contribution canadienne à JWST. Ce mode d'observation couvre une plage de longueurs d'onde allant de 0,6 à 2,8 um simultanément grâce à la présence des deux premiers ordres de diffraction sur le détecteur. La nécessité d'un nouvel algorithme provient du fait que ces deux ordres générés par le « grisme » du mode SOSS se chevauchent sur une petite portion du détecteur. En conséquence, la région de l'ordre 1 couvrant les plus grandes longueurs d'onde (1,6–2,8 um) est contaminée par l'ordre 2 couvrant l'intervalle entre 0,85 et 1,4 um. ATOCA permet donc de décontaminer chacun des ordres en construisant d'abord un modèle linéaire de chaque pixel individuel du détecteur, en fonction du flux incident. Ce flux peut ensuite être extrait simultanément pour les deux ordres en comparant le modèle aux observations et en solutionnant le système selon un principe de moindres carrés. Ces travaux ont pu montrer qu'il est possible de décontaminer en dessous de 10 ppm pour chaque spectre individuel. / In the last decades, the research on exoplanets and their atmosphere has grown phenomenally. Space based observatories with spectrophotometric capabilities like Hubble allowed to put some constraints on the physical processes occuring in exoplanets’ atmosphere and their chemical composition. These discoveries concern mainly the hotter and larger planets, such as Hot Jupiters, which are the most favorable for atmospheric characterization. However, due to their low spectral resolution and their limited wavelength range and photometric accuracy, the scientific conclusions based on these observations can be degenerate. Some of these degeneracies can be lifted with the use of ground-based high-resolution spectrographs or the new James Webb Space Telescope (JWST). On the one hand, this thesis present one of the first analysis combining Hubble’s spectrosphometric data and high-resolution observations obtained with SPirou (SpectroPolarimètre InfraRouge) at the Canada-France-Hawai telescope. This analysis targeted the dayside of the Ultra Hot Jupiter WASP-33 b, the second-hottest exoplanet known to date. WASP-33 b atmosphere can reach temperatures high enough (≥ 3000 K) to dissociate molecules such as water. However, CO, which is much more resistant to thermal dissociation, remains observable. SPIRou’s observations allowed us to confirm the presence of CO emission lines in WASP-33 b emission spectrum, in agreement with two previous studies. With the addition of published Hubble data, we were able to push further and provide the first estimate CO abundance, with a volume mixing ratio of log10 CO = ≠4.07+1.51 ≠0.60. On the other hand, this thesis propose a new spectral extraction algorithm called ATOCA (Algorithm to Treat Order ContAmination) specifically designed for the SOSS (Single Object Slitless Spectroscopy) mode of the NIRISS instrument (Near InfraRed Imager and Slitless Spectrograph), the Canadian contribution to JWST. This observing mode covers the wavelength range spaning from 0.6 to 2.8 µm simultaneously, due to the presence of the two first diraction orders on NIRISS detector. The need for a new algorithm arises from the fact that these orders, originating from SOSS “grism”, overlap on a small portion of the detector. Consequently, the region of order 1 covering the longest wavelengths (1.6–2.8 µm) is contaminated by the signal from order 2 between 0.85 and 1.4 µm. Hence, ATOCA allows to decontaminate both orders by first building a linear model of each individual pixel of the detector, with the incident flux as an independant variable. This flux is then extracted simultaneously for the two orders by comparing the model to the detector image and by solving the system for the best least square fit. This work has shown that ATOCA can reduce the contamination level below 10 ppm for each individual spectrum.
208

TESS exoplanet candidate follow-up with ground- and space-based instruments

Mann, Christopher 08 1900 (has links)
La découverte d’exoplanètes a connu une croissance quasi exponentielle au cours des trois dernières décennies. Nous savons désormais que les systèmes d’exoplanètes sont la norme dans la galaxie et qu’il existe une variété d’archétypes de planètes qui ne correspondent pas à notre propre système solaire. Ces progrès rapides sont dus en grande partie aux missions spatiales qui utilisent la méthode des transits pour trouver et caractériser de nouvelles exoplanètes. Kepler et, plus récemment, le Transiting Exoplanet Survey Satellite (TESS) ont contribué à la majorité des exoplanètes confirmées ou candidates connues à ce jour. Les exoplanètes découvertes par TESS sont particulièrement prometteuses, car TESS a délibérément ciblé des étoiles hôtes brillantes pour faciliter l’analyse spectroscopique détaillée de l’atmosphère de leurs planètes. Bien que TESS soit très efficace pour identifier de nouveaux signaux de transit, un effort de suivi substantiel est nécessaire pour valider chaque nouvelle candidate et le succès global de la mission TESS dépend fortement de l’obtention de ce suivi de la part d’observatoires externes. Une attention particulière est souvent requise pour les planètes à longue période qui souffrent fortement des biais impliqués dans les recherches de transit. Si l’on peut surmonter les défis observationnels supplémentaires, ces planètes constituent des bancs d’essai rares et précieux pour étudier la physique et la chimie des atmosphères plus froides. Dans cette thèse, j’ai collaboré avec la communauté de suivi des exoplanètes TESS sur plusieurs fronts en apportant des instruments précédemment inutilisés, en contribuant à l’effort général de vérification des candidates, ainsi qu’en menant des études de validation et de confirmation de cibles difficiles à longue période. Nous avons adapté le réseau de téléobjectifs Dragonfly (alias "Dragonfly"), conçu pour les cibles de faible luminosité de surface, à l’observation des transits d’exoplanètes. J’ai développé un nouveau mode d’observation adapté aux transits et créé des pipelines de planification, de traitement des données et d’analyse. Nous avons atteint une précision photométrique d’environ 0,5 ppt dans des intervalles de 4 à 5 minutes sur la plage 9 < mV < 13, compétitive avec d’autres observatoires au sol de classe 1–2 m. Nous avons également développé un vaste programme d’observation avec le satellite de surveillance des objets proches de la Terre (NEOSSat) couvrant 3 ans et 6 cycles d’observation pour observer les transits d’exoplanètes de longue durée, qui représentent un défi majeur à capturer avec des observatoires au sol. En utilisant ces deux instruments, nous avons fourni des observations pour le programme d’observation de suivi des exoplanètes TESS (ExoFOP). Grâce à mon travail dans ExoFOP, j’ai dirigé une publication de validation pour TOI-1221 b, une planète sub-neptunienne de 2,9 rayons terrestres sur une orbite de 92 jours. Non seulement nous avons écarté les scénarios de faux positifs pour cette planète tempérée à longue période, mais grâce à notre analyse détaillée de 6 transits TESS et 2 détections au sol, nous avons trouvé des preuves de variations de synchronisation de transit qui pourraient indiquer une autre planète cachée dans le système. Nous avons également utilisé NEOSSat pour rechercher un deuxième transit de TOI-2010 b, qui n’en montrait qu’un seul dans les données TESS. En surveillant l’étoile hôte sur une fenêtre d’incertitude de 7 jours, nous avons capturé le transit et amélioré considérablement notre connaissance de l’éphéméride de la planète. J’ai dirigé l’article de confirmation sur cette planète semblable à Jupiter avec une orbite de 142 jours, ajoutant une cible de faible insolation à la petite collection d’exoplanètes connues avec des périodes supérieures à 100 jours et des étoiles hôtes suffisamment brillantes pour un suivi spectroscopique. En plus de diriger ces deux projets spécifiques, mes observations avec Dragonfly et NEOSSat ont jusqu’à présent contribué à 10 autres publications dont je suis co-auteur. / Exoplanet discovery has undergone near-exponential growth over the last three decades. We now know exoplanet systems are the norm in the Galaxy and that a variety of planet archetypes exist that do not necessarily match our own Solar System. This rapid advancement is due in large part to space-based discovery missions utilizing the transit method to find and characterize new exoplanets. Kepler, and more recently, the Transiting Exoplanet Survey Satellite (TESS) have contributed the majority of confirmed or candidate exoplanets known today. The exoplanets discovered by TESS show particular promise, as TESS has deliberately targeted bright host stars to facilitate detailed spectroscopic analysis of their planets’ atmospheres. While TESS is highly efficient at identifying new transit signals, substantial follow-up effort is required to validate each new candidate and the overall success of the TESS mission heavily depends on attaining this follow-up from external observatories. Special attention is often required for long-period planets that suffer heavily from the biases involved in transit searches. If one can overcome the added observational challenges, these planets provide rare and valuable testbeds to investigate cool-atmosphere physics and chemistry. Through this thesis, I engaged with the TESS exoplanet follow-up community on several fronts by bringing previously unused instrument options to the endeavour, contributing to the general effort of candidate verification, as well as leading validation and confirmation studies of challenging long-period targets. We adapted the Dragonfly Telephoto Array (a.k.a. “Dragonfly”), designed for low-surface brightness targets, to the observation of exoplanet transits. I developed a new transient-appropriate observing mode and created scheduling, data processing, and analysis pipelines. We achieve a photometric precision floor of 0.5 ppt in 4–5-minute bins over the range 9 < mV < 13, competitive other 1–2 m class ground-based observatories. We also developed an extensive observing program with the Near-Earth Object Surveillance Satellite (NEOSSat) spanning 3 years and 6 observing cycles to observe long-duration exoplanet transits that provide a major challenge to capture with ground-based observatories. Using these two instruments, we provided follow-up observations for the TESS Exoplanet Follow-up Observing Program (ExoFOP). Through my work with ExoFOP, I led a validation publication for TOI-1221 b, a 2.9 Earth-radii sub-Neptune planet on a 92-day orbit. Not only do we rule out the false-positive scenarios for this long-period temperate planet, but through our detailed analysis of 6 TESS transits and 2 ground-based detections, we find evidence of transit timing variations that may indicate an additional hidden planet in the system. We also used NEOSSat to hunt for an elusive second transit of TOI-2010 b. By monitoring the host star over a 7-day uncertainty window, we caught the transit and vastly improved our knowledge of the planet’s ephemeris. I led the confirmation paper on this temperate Jupiter-like planet with a 142-day orbit, adding a low-insolation target to the small collection of known exoplanets with periods above 100 days and host stars bright enough for spectroscopic follow-up. Beyond leading these two specific projects, my observations with Dragonfly and NEOSSat have thus far contributed to 10 other publications for which I am co-author.
209

Contribution à la conception d'un système d'aide à la décision pour la gestion de situations de tension au sein des systèmes hospitaliers. Application à un service d'urgence

Kadri, Farid 27 November 2014 (has links)
La prise en charge des flux des patients, en particulier les flux récurrents et consécutifs à des crises sanitaires (grippes, canicules, situations exceptionnelles) est l'un des problèmes les plus importants auquel les services des urgences (SU) doivent faire face. Pour gérer cet afflux de patients, les services des urgences nécessitent des ressources humaines et matérielles importantes, ainsi qu'un degré élevé de coordination entre ces ressources. Dans ces conditions, le personnel médical se voit confronté très fréquemment à des situations de tension qui compliquent très fortement sa tâche. L‘objet de cette thèse est de contribuer à l’amélioration de la gestion des situations de tension se produisant dans un service d’urgence en proposant un système d’aide à la décision, SAGEST (Système d’Aide à la décision pour la GEstion des Situations de Tensions), permettant i) le pilotage proactif du SU : prévision à court et/ou moyen terme de l'apparition de situations de tension et l'évolution du flux patients et la proposition d'actions de correction afin d'éviter l’occurrence de ces situations et ii) le pilotage réactif dans le cas où l'occurrence de la situation de tension n'a pas été détectée. Une architecture fonctionnelle du système SAGEST, s'appuyant sur le processus décisionnel du responsable du service d'urgence, est proposée. Les méthodologies et les modèles utilisés dans la construction des principales fonctions et de la base de connaissances sont décrits. Enfin, les résultats d’application des différents modèles du système SAGEST pour le service d’urgence pédiatrique (SUP) du centre hospitalier régional universitaire du Lille sont présentés et discutés. / The management of patient flow, especially the flow resulting from health (flu, heat waves and exceptional circumstances) is one of the most important problems to manage in the emergency department (ED). To handle the influx of patients, emergency departments require significant human and material resources, and a high degree of coordination between these resources. Under these conditions, the medical and the paramedical staffs are often confronted with strain situations which greatly complicate their task. The main purpose of this thesis is to contribute to improving the management of situations of tension occurring in the emergency department by providing a decision support system, SAGEST. This DSS allows i) a proactive control of the ED: predicting at short and/or medium-term the occurrence of potential strain situations and proposing corrective actions to prevent the occurrence of these situations, ii) a reactive control in the case of no-detection of the strain situation occurrence. A functional architecture of the SAGEST system, based on the manager’s decision making process is proposed. Used methodologies and models embedded in the main functions and the knowledge base of the SAGEST system are described. Finally, experiments and results of different models of SAGEST system applied to the paediatric emergency department (PED) of the Regional University Hospital of Lille are presented and discussed.
210

Estimations du mélange vertical le long de sections hydrologiques en Atlantique Nord / Vertical mixing estimates along hydrological sections en Atlantique Nord in North Atlantic

Kokoszka, Florian 06 March 2012 (has links)
Le mélange vertical dans l’océan contribue au maintien de la Cellule Méridienne de Circulation Océanique (MOC) en permettant le renouvellement des eaux profondes. Une coupe transverse d’une partie de la MOC est réalisée par la radiale hydrologique OVIDE qui a lieu tous les 2 ans depuis 2002 entre le Portugal et le Groenland. L’énergie nécessaire au mélange est fournie par les ondes internes générées par le vent et la marée, et des mesures de micro-structure (VMP) en 2008 montrent des valeurs de dissipation Evmp intensifiées dans la thermocline principale et au niveau des topographies. Notre étude se base sur ces observations pour étudier la fine-structure verticale de l’océan et estimer indirectement la dissipation E due aux ondes internes à l’aide de mesures CTD et LADCP. La comparaison au mesures du VMP permet d’optimiser la paramétrisation de E en encadrant les observations par facteur 3 et leurs valeurs moyennes à ±30%. L’application sur l’ensemble des données OVIDE permet d’obtenir une cartographie du mélange a travers le bassin. La distribution géographique de la diffusion verticale K est similaire le long des 5 sections, avec des valeurs de l’ordre de 10−4m2/s dans la thermocline principale, au fond et au niveau des topographies, et de l’ordre de 10−5m2/s dans l’océan intérieur. Des différences régionales sont présentes et K peut être localement proche de 10−3m2/s. L’étude de la section FOUREX 1997 révèle une intensification de K le long de la dorsale médio-Atlantique où les valeurs moyennes sont de 2 à 3 plus fortes que le long des sections OVIDE. La distribution spatiale des échelles de Thorpe LT est corrélée avec celle du mélange. Néanmoins la dissi-pation basée sur LT surestime Evmp d’un facteur 10 à100, ce qui pourrait être dû à une mauvaise représentation de la durée de vie de la turbulence dans l’océan. Certains mécanismes susceptibles de générer des ondes internes sont proposés. Des sites possibles de génération par la marée sont localisés à l’aide d’un modèle simple de la trajectoire des rayons d’ondes. Une corrélation possible entre les mouvements géostrophiques et les ondes internes est envisagée dans la thermocline principale. Enfin l’étude des angles de Turner montre que des instabilités de double-diffusion peuvent être présentes sur une grande partie de la section. / Vertical mixing in the ocean contributes to sustain the Meridionnal Overturning. Circulation (MOC) by allowing the renewal of deep waters. A section across the MOC is performed by the hydrological radial OVIDE repeated every two years between Portugal and Greenland since 2002. The energy required for mixing is provided by internal waves generated by wind and tides and micro-structure measurements(VMP) in 2008 show intensified values of dissipation Evmp in the main thermocline and near topographies. Our study is based on these observations and aims tostudy the vertical fine-scale structure of the ocean. Estimates of the dissipation E due to internal waves are made with CTD and LADCP measurements. The comparison with VMP measurements allow us to optimize the parameterization of E by framing the observations by factor 3 and their mean values at ±30%. The systematic application to the OVIDE dataset provides a mapping of the mixing across the basin. Geographical distribution of the vertical diffusion K is similar along the five sections, with values near10−4m2/s in the main thermocline and at the bottom of topographies, and near 10−5m2/s in the ocean interior. Regional differences are present and K can belocally close to 10−3m2/s. Application to FOUREX1997 datas et reveals an increase of K along the Mid-Atlantic Ridge, where the average values are 2 to 3stronger than along OVIDE sections. The spatial distribution of Thorpe scales LT appears to be correlated with internal waves mixing patterns. Nevertheless dissipation estimates based on LT overestimates Evmp by a 10 to 100 factor, which maybe due to misrepresentation of the stage of turbulence development in the ocean. Some mechanisms that can generate internal waves are proposed. Probable sites where tidal generation could occur are located using a simple model of wave beam trajectory. A possible correlation between geostrophic flows and internal waves is considered in the main thermocline. Finally the study of Turnerangles shows that double-diffusion instabilities may bepresent over a large part of the section.

Page generated in 0.0562 seconds