Spelling suggestions: "subject:"réduction dess données"" "subject:"réduction deus données""
1 |
ORBS : élaboration d'un logiciel de réduction de données pour SpIOMM et SITELLE et application à l'étude de M1-67Martin, Thomas 23 April 2018 (has links)
SpIOMM (le spectromètre-imageur de l’observatoire du Mont-Mégantic), installé à l’observatoire du Mont-Mégantic depuis 2004, est un spectromètre-imageur à transformée de Fourier qui reste, à ce jour, le seul instrument au monde en mesure d’échantillonner un champ de 12 minutes d’arc en 1.4 millions de spectres dans les longueurs d’onde du visible. L’installation, en 2010, d’une seconde caméra, qui a ouvert la possibilité d’utiliser les données présentes sur le second port de sortie de l’interféromètre, d’une part, et la réalisation de SITELLE (le spectromètre-imageur pour l’étude en long et en large des raies d’émission), une version améliorée de SpIOMM pour le télescope Canada-France-Hawaï, d’autre part, ont rendu impératif le développement d’un logiciel de réduction capable de combiner les données issues des deux ports de sorties pour en tirer toute l’information disponible. L’essentiel de cette thèse porte sur l’élaboration de ORBS, un logiciel de réduction des données de SpIOMM et SITELLE entièrement automatique et conçu sur un modèle architectural ouvert et évolutif. Une étude de la nébuleuse Wolf-Rayet M1-67, réalisée à partir des données de SpIOMM réduites avec ORBS, qui démontre clairement, et pour la première fois, l’existence de deux régions de matériel fortement enrichi en azote, est également présentée à titre d’application. / SpIOMM (spectromètre-imageur de l’observatoire du Mont-Mégantic), attached to the telescope of the Observatoire du Mont-Mégantic, is an imaging Fourier transform spectrometer which is still the only instrument in the world capable of sampling a 12 arc-minute field of view into 1.4 million spectra in the visible band. Since the installation in 2010 of a second camera, which has given the possibility of using the data on the second port of the interferometer, on the one hand, and the development of SITELLE (spectromètre-imageur pour l’étude en long et en large des raies d’émission), an upgraded version of SpIOMM, for the Canada-France-Hawaii Telescope, on the other hand, the design of a data reduction software capable of combining the data of both ports, has become a necessity. The main part of this thesis concerns ORBS, a data reduction software for SpIOMM and SITELLE fully automated and based on an open and upgradable architecture. An application to the study of the Wolf-Rayet nebula M1-67, which, for the first time, clearly demonstrates the existence of two regions made of a material strongly enriched in nitrogen, is also presented.
|
2 |
Réduction à la volée du volume des traces d'exécution pour l'analyse d'applications multimédia de systèmes embarqués / Online execution trace reduction for multimedia software analysis of embedded systemsEmteu Tchagou, Serge Vladimir 15 December 2015 (has links)
Le marché de l'électronique grand public est dominé par les systèmes embarqués du fait de leur puissance de calcul toujours croissante et des nombreuses fonctionnalités qu'ils proposent.Pour procurer de telles caractéristiques, les architectures des systèmes embarqués sont devenues de plus en plus complexes (pluralité et hétérogénéité des unités de traitements, exécution concurrente des tâches, ...).Cette complexité a fortement influencé leur programmabilité au point où rendre difficile la compréhension de l'exécution d'une application sur ces architectures.L'approche la plus utilisée actuellement pour l'analyse de l'exécution des applications sur les systèmes embarqués est la capture des traces d'exécution (séquences d'événements, tels que les appels systèmes ou les changements de contexte, générés pendant l'exécution des applications).Cette approche est utilisée lors des activités de test, débogage ou de profilage des applications.Toutefois, suivant certains cas d'utilisation, les traces d'exécution générées peuvent devenir très volumineuses, de l'ordre de plusieurs centaines de gigaoctets.C'est le cas des tests d'endurance ou encore des tests de validation, qui consistent à tracer l'exécution d'une application sur un système embarqué pendant de longues périodes, allant de plusieurs heures à plusieurs jours.Les outils et méthodes d'analyse de traces d'exécution actuels ne sont pas conçus pour traiter de telles quantités de données.Nous proposons une approche de réduction du volume de trace enregistrée à travers une analyse à la volée de la trace durant sa capture.Notre approche repose sur les spécificités des applications multimédia, qui sont parmi les plus importantes pour le succès des dispositifs populaires comme les Set-top boxes ou les smartphones.Notre approche a pour but de détecter automatiquement les fragments (périodes) suspectes de l'exécution d'une application afin de n'enregistrer que les parties de la trace correspondant à ces périodes d'activités.L'approche que nous proposons comporte deux étapes : une étape d'apprentissage qui consiste à découvrir les comportements réguliers de l'application à partir de la trace d'exécution, et une étape de détection d'anomalies qui consiste à identifier les comportements déviant des comportements réguliers.Les nombreuses expériences, réalisées sur des données synthétiques et des données réelles, montrent que notre approche permet d'obtenir une réduction du volume de trace enregistrée d'un ordre de grandeur avec d'excellentes performances de détection des comportements suspects. / The consumer electronics market is dominated by embedded systems due to their ever-increasing processing power and the large number of functionnalities they offer.To provide such features, architectures of embedded systems have increased in complexity: they rely on several heterogeneous processing units, and allow concurrent tasks execution.This complexity degrades the programmability of embedded system architectures and makes application execution difficult to understand on such systems.The most used approach for analyzing application execution on embedded systems consists in capturing execution traces (event sequences, such as system call invocations or context switch, generated during application execution).This approach is used in application testing, debugging or profiling.However in some use cases, execution traces generated can be very large, up to several hundreds of gigabytes.For example endurance tests, which are tests consisting in tracing execution of an application on an embedded system during long periods, from several hours to several days.Current tools and methods for analyzing execution traces are not designed to handle such amounts of data.We propose an approach for monitoring an application execution by analyzing traces on the fly in order to reduce the volume of recorded trace.Our approach is based on features of multimedia applications which contribute the most to the success of popular devices such as set-top boxes or smartphones.This approach consists in identifying automatically the suspicious periods of an application execution in order to record only the parts of traces which correspond to these periods.The proposed approach consists of two steps: a learning step which discovers regular behaviors of an application from its execution trace, and an anomaly detection step which identifies behaviors deviating from the regular ones.The many experiments, performed on synthetic and real-life datasets, show that our approach reduces the trace size by an order of magnitude while maintaining a good performance in detecting suspicious behaviors.
|
3 |
Fusion de l'information dans les réseaux de capteurs : application à la surveillance de phénomènes physiques / Information aggregation in sensor networks : application to monitoring of physical activitiesGhadban, Nisrine 14 December 2015 (has links)
Cette thèse apporte des solutions clés à deux problèmes omniprésents dans les réseaux de capteurs sans fil, à savoir la précision des mesures acquises dans les régions à faible couverture et la dimensionnalité sans cesse grandissante des données collectées. La première contribution de cette thèse est l’amélioration de la couverture de l'espace à surveiller par le biais de la mobilité des capteurs. Nous avons recours aux méthodes à noyaux en apprentissage statistique pour modéliser un phénomène physique tel que la diffusion d’un gaz. Nous décrivons plusieurs schémas d'optimisation pour améliorer les performances du modèle résultant. Nous proposons plusieurs scénarios de mobilité des capteurs. Ces scénarios définissent d'une part l'ensemble d'apprentissage du modèle et d'autre part le capteur mobile. La seconde contribution de cette thèse se situe dans le contexte de la réduction de la dimensionnalité des données collectées par les capteurs. En se basant sur l'analyse en composantes principales, nous proposons à cet effet des stratégies adaptées au fonctionnement des réseaux de capteurs sans fil. Nous étudions également des problèmes intrinsèques aux réseaux sans fil, dont la désynchronisation entre les nœuds et la présence de bruits de mesures et d’erreurs de communication. Des solutions adéquates avec l'approche Gossip et les mécanismes de lissage sont proposées. L'ensemble des techniques développées dans le cadre de cette thèse est validé sur un réseau de capteurs sans fil qui estime le champ de diffusion d’un gaz / This thesis investigates two major problems that are challenging the wireless sensor networks (WSN): the measurements accuracy in the regions with a low density of sensors and the growing volume of data collected by the sensors. The first contribution of this thesis is to enhance the collected measurements accuracy, and hence to strengthen the monitored space coverage by the WSN, by means of the sensors mobility strategy. To this end, we address the estimation problem in a WSN by kernel-based machine learning methods, in order to model some physical phenomenon, such as a gas diffusion. We propose several optimization schemes to increase the relevance of the model. We take advantage of the sensors mobility to introduce several mobility scenarios. Those scenarios define the training set of the model and the sensor that is selected to perform mobility based on several mobility criteria. The second contribution of this thesis addresses the dimensionality reduction of the set of collected data by the WSN. This dimensionality reduction is based on the principal component analysis techniques. For this purpose, we propose several strategies adapted to the restrictions in WSN. We also study two well-known problems in wireless networks: the non-synchronization problem between nodes of the network, and the noise in measures and communication. We propose appropriate solutions with Gossip-like algorithms and smoothing mechanisms. All the techniques developed in this thesis are validated in a WSN dedicated to the monitoring of a physical species leakage such as the diffusion of a gas
|
4 |
Analyse de données de métagénomique fonctionnelle par NMF pour la modélisation de la dégradation des fibres par le microbiote intestinal humain. / Modelling of fiber degradation by the human gut microbiota based onNMF analysis of functional metagenomic dataRaguideau, Sébastien 06 December 2016 (has links)
Ce travail de thèse a pour but de modéliser la capacité de dégradation des polysaccharides non digestibles par le microbiote intestinal humain. Nous exploitons pour cela des données métagénomiques. Il s'agit de données d'abondances de séquences de nucléotides dans 1408 échantillons dont les fonctions métaboliques sont assignées par annotation contre une base de données. Les séquences sont annotées par des marqueurs fonctionnels. Après une étape de sélection manuelle de 86 marqueurs fonctionnels pertinents à l'activité de métabolisation des polysaccharides, nous étudions leurs variations d'abondances parmi les échantillons métagénomiques.Nous proposons une approche de modélisation écologique du microbiote intestinal humain et considérons principalement la sélection fonctionnelle intense de cet écosystème pour faire l'hypothèse que des regroupements identiques de fonctions métaboliques sont présents en proportions différentes dans tous les microbiotes intestinaux humains. Nous proposons le terme d'assemblage fonctionnel qui rend compte de la co-occurrence spatiale et temporelle d'un groupement de fonctions. Ces assemblages sont en pratiques déterminés par leur composition en marqueurs fonctionnels, et peuvent s'interpréter comme une combinaison de traits fonctionnels agrégés au niveau des microorganismes composant l'assemblage.Les assemblages fonctionnels sont inférés par le biais d'une factorisation en matrice positive aussi nommée NMF de l'anglais Non-Negative Matrix Factorisation. Cette méthode permet de déterminer les assemblages fonctionnels, à la fois concernant leur composition et à la fois concernant leur abondance dans chacun des 1408 échantillons. Nous exploitons par ailleurs une information métabolique provenant de 190 génomes microbiens et de la bibliographie qui permet de préciser la composition de ces assemblages fonctionnels. Cette information se traduit sous forme d'une contrainte.Nous trouvons 4 assemblages en considérant un consensus entre différents critères. L'utilisation de l'information métabolique nous permet d'interpréter biologiquement ces assemblages. Les métadonnées associées aux 1408 échantillons nous permettent d'observer un comportement différent pour les échantillons provenant d'individus atteints de la maladie de Crohn. Nous validons cette observation sur des données extérieures.Nous avons proposé une approche réductionniste permettant de représenter un processus métabolique important à l'échelle du microbiote. Nous trouvons un nombre réduit de 4 assemblages fonctionnels qui sont biologiquement vraisemblables et permettent de bien approcher les 1408 échantillons métagénomiques. / The purpose of this work of thesis is to model the capacity of degradation of non-digestible polysaccharides by the human intestinal microbiote. To this end we exploit metagenomic data. We use abundances of nucleotide sequences in 1408 samples whose metabolic function are assigned by annotation against a database. The sequences are annotated with functional markers. Upon manual selection of 86 functional markers relevant to the activity of metabolisation of polysaccharides, we their abundances variation among the metagenomic samples are studied.We propose an ecological approach in modeling the human intestinal microbiote. We consider the intense functional selection of this ecosystem and assume that identical cluster of metabolic functions can be found in different proportions in every human gut microbiota. We propose the term of functional assembly as to account for spacial and temporal co-occurence of functional cluster. In practice, theses assemblies are determined by their composition and can be interpreted as combinations of functional traits aggregated at the levels of the cluster of microorganisms composing each assembly. Functional assemblies are inferred by the means of Non-Negative Matrix Factorization (NMF). This method allows to determine the composition of functional assemblies and their abundance in each of the 1408 metagenomic sample.Furthermore, we exploit metabolic information from bibliographic resources and 190 microbial genomes in order to specify the composition of these functional assemblies. This information is translated in the form of a constraint.We find 4 assemblies by considering a consensus between various criteria. The use of metabolic information allow to interpret theses assemblies biologically. By exploiting the metadata of the 1408 samples, we observe a different behaviour for the samples coming from individuals suffering from Crohn disease. We validate this observation on external data.We proposed a reductionistic approach allowing to represent an important metabolic process at the level of the microbiota. We find a small number of 4 functional assemblies which are biologically likely and approach well the 1408 metagenomic samples.
|
5 |
Insights into the diversity of exoplanet atmospheres in the Era of JWSTRadica, Michael 07 1900 (has links)
De la religion à la science, la quête de compréhension de notre place dans l’univers est l’un des moteurs fondamentaux du progrès humain. Depuis la découverte de la première exoplanète autour d’une étoile de la séquence principale au milieu des années 1990, le nombre de systèmes exoplanétaires a explosé pour atteindre plusieurs milliers. Nous avons même réalisé des études approfondies des atmosphères de nombreux mondes lointains, ce qui nous a permis de découvrir la diversité, jusqu’alors insondable, des planètes qui existent dans la galaxie.
Pour comprendre la place de notre propre système solaire dans le contexte de la population plus large des exoplanètes, il est d’abord essentiel de comprendre la diversité des exoplanètes elles- mêmes. La spectroscopie spatiale à basse résolution a toujours été l’outil de choix pour sonder les atmosphères des exoplanètes et comprendre la physique et la chimie qui régissent leur formation et leur évolution. Au cours des deux ans et demi qui ont suivi son lancement, j’ai contribué aux études des atmosphères d’exoplanètes avec JWST couvrant tout l’espace des paramètres de la population des exoplanètes. Cette thèse contient quatre de ces études, y compris certaines des toutes premières observations d’exoplanètes avec le «Near Infrared Imager and Slitless Spectrograph» (NIRISS) du JWST. Dans le premier travail, j’ai conçu et testé une méthode pour estimer la «fonction d’étalement de point» (PSF) bidimensionnelle d’une observation avec le mode SOSS (Single Object Slitless Spectroscopy) du NIRISS, qui est l’un des principaux modes d’observation des exoplanètes du JWST. Ces PSFs sont une donée critique pour une méthode d’extraction spectrale spécialisée conçue pour traiter les défis techniques spécifiques posés par les observations SOSS. Nous démontrons ensuite que ces PSF empiriques permettent d’obtenir des spectres d’atmosphère plus fidèles que les modèles par défaut.
Dans le second projet, nous présentons l’une des toutes premières observations d’exoplanètes avec JWST NIRISS/SOSS. Ces observations du transit de l’exoplanète WASP-96 b, qui est une Saturne-chaude, montrent des signatures claires de l’absorption de H2O et de K à des abondances à peu près solaires. De plus, nous détectons une pente vers les longueurs d’onde les plus bleues de notre spectre, qui pourrait s’expliquer soit par la diffusion Rayleigh de petites particules d’aérosols, soit par les ailes élargies par la pression de l’élément Na. La possibilité de la diffusion d’aérosols est particulièrement intrigante car les observations précédentes avec Hubble, entre autres, ont conclu
v
que la haute atmosphère de WASP-96 b n’avait pas d’aérosols, malgré les travaux théoriques indiquant qu’elle devrait être uniformément nuageuse.
Le troisième travail présente un spectre de transmission JWST NIRISS/SOSS de l’unique planète ultra-chaude LTT 9779 b; la seule planète connue dans le désert de Neptunes chaudes à avoir conservé une atmosphère primordiale. Notre spectre présente des caractéristiques atténuées qui, combinées à la structure intérieure et aux modèles de synthèse de population, nous permettent de conclure que la planète possède une atmosphère au terminateur qui est nuageuse et de haute métallicité. Un scénario de haute métallicité est cohérent avec les tendances générales dans la population des exoplanètes, ainsi que dans le système solaire. De plus, s’ils sont advectés sur le côté jour, les nuages du terminateur que nous trouvons fournissent une explication naturelle à l’albédo élevé précédemment déduit pour cette planète. Nous supposons que ces nuages peuvent faire partie d’une boucle de rétroaction positive qui sert à diminuer l’efficacité de la perte d’atmosphère sous le rayonnement intense de son étoile hôte, et à aider la survie de LTT 9779 b dans le désert de Neptunes chaudes.
Enfin, nous revenons à LTT 9779 b avec l’étude d’un spectre d’éclipse qui s’étend de l’ultraviolet à l’infrarouge. En combinant les éclipses de NIRISS/SOSS avec des données d’archives ainsi que des observations inédites utilisant les capacités ultraviolettes de Hubble, nous concluons que l’albédo élevé de LTT 9779 b est probablement dû à la réflexion des nuages de MgSiO3 et confirmons que sa structure de température du côté jour n’est pas inversée. Nous entreprenons ensuite une analyse comparative de LTT 9779 b dans le contexte plus large des Jupiters ultra-chaudes, qui ont des températures comparables à LTT 9779 b mais des côtés jours systématiquement dépourvus de nuages et des structures de température inversées. De cette manière nous faisons les premiers pas pour réconcilier cette planète inhabituelle avec la population plus large des mondes ultra-chauds.
Ces travaux, ainsi que les ∼20 autres auxquels j’ai contribué au cours de mon doctorat, dé- montrent les capacités inégalées du JWST pour la caractérisation des atmosphères des exoplanètes. Chaque nouvelle observation nous rapproche un peu plus de la découverte des origines de la di- versité de la population des exoplanètes, ainsi que des différences et similitudes fondamentales entre les différentes «classes» de planètes. Cette thèse met en lumière les contributions que j’ai apportées à cette entreprise au cours de mon doctorat. Le JWST a sans aucun doute fait passer de nombreuses régions de la population des exoplanètes du statut de frontières ambitieuses à celui de véritables cibles d’observation et, par conséquent, la prochaine décennie sera certainement l’une des plus transformatrices de l’histoire de la science exoplanétaire. / From religion to science, the quest to understand our place in the universe is one of the fundamental drivers of human progress. Since the discovery of the first exoplanet around a main sequence star in the mid-1990s, our current count of exoplanetary systems has exploded to several thousands. We have even performed in-depth studies of the atmospheres of many distant worlds, yielding insights into the previously unfathomable diversity of planets that exist in the galaxy.
In order to understand our own solar system’s place in the context of the wider population of exoplanets, it is first essential to understand the diversity of exoplanets themselves. Low-resolution spectroscopy from space has historically been the tool of choice to probe exoplanet atmospheres and gain insights into the physics and chemistry that govern their formation and evolution. In the nearly two and a half years since its launch, I have contributed to JWST atmosphere studies spanning the full parameter space of the exoplanet population. This thesis contains four of these studies, including some of the very first exoplanet observations with JWST’s Near Infrared Imager and Slitless Spectrograph (NIRISS). In the first work, I designed and tested a method to estimate the two-dimensional point spread function (PSF) of an observation with NIRISS’s Single Object Slitless Spectroscopy (SOSS) mode, which is one of the key observing modes for JWST exoplanet observations. These PSFs are a critical input to a specialized spectral extraction method designed to deal with specific technical challenges posed by SOSS observations. We then demonstrate that these empirical PSFs result in higher-fidelity atmosphere spectra than default models.
The second project presents one of the first-ever exoplanet observations with JWST NIRISS/SOSS. These transit observations of the hot-Saturn exoplanet WASP-96 b show clear signatures due to absorption of H2O and K at roughly solar abundances. Moreover, we detect a slope towards the bluest wavelengths of our spectrum, which could either be explained by Rayleigh scattering from small aerosol particles or the pressure-broadened wings of a Na feature. The aerosol scattering possibility is particularly intriguing as previous observations with Hubble and ground-based facilities have concluded WASP-96 b’s upper atmosphere to be aerosol free, despite theoretical work indicating that it should be uniformly cloudy.
The third work presents a JWST NIRISS/SOSS transmission spectrum of the unique ultra-hot- Neptune LTT 9779 b; the only known planet within the hot-Neptune desert to have retained a primordial atmosphere. Our spectrum displays muted features which, when combined with interior
vii
structure and population synthesis models, allows us to conclude that the planet has a cloudy and high-metallicity terminator atmosphere. A high-metallicity scenario is consistent with broader trends in the exoplanet population, as well as in the solar system. Moreover, if advected onto the dayside, the terminator clouds that we find provide a natural explanation for the high albedo previously inferred for this planet. We posit that these clouds may be part of a positive feedback loop which serves to decrease the efficiency of atmosphere loss under the intense radiation of its host star, and aid LTT 9779 b’s survival in the hot-Neptune desert.
Finally, we return to LTT 9779 b with the study of an ultraviolet-to-infrared eclipse spectrum. Combining eclipses from NIRISS/SOSS with archival data as well as previously unpublished observations leveraging Hubble’s ultraviolet capabilities, we conclude that the high albedo of LTT 9779 b is likely caused by reflection from MgSiO3 clouds and confirm that its dayside temperature structure is non-inverted. We then undertake a comparative analysis of LTT 9779 b within the broader context of ultra-hot-Jupiters; which have comparable temperatures to LTT 9779 b but systematically cloud-free daysides and inverted temperature structures — thereby taking the first steps to reconcile this unusual planet with the broader population of ultra-hot worlds.
These works, as well as the ∼20 others to which I have contributed over the course of my PhD, demonstrate the unparalleled capabilities of JWST for the characterization of exoplanet atmospheres. Every new observation brings us one step closer to uncovering the origins of the diversity of the exoplanet population, as well as the fundamental differences and similarities between different “classes” of planets. This thesis highlights the contributions I have made to this endeavour during my PhD. JWST has undoubtedly moved many regions of the exoplanet population from aspirational frontiers to genuine observational targets, and as a result, the next decade will surely be one of the most transformative in the history of exoplanetary science.
|
6 |
Développement et exploitation scientifique d’un nouvel instrument interférométrique visible en optique guidée / Development and scientific exploitation of a new guided optics visible in interferometric instrumentMartinod, Marc-Antoine 14 December 2018 (has links)
L'interférométrie visible longue base est une technique d'observation en astronomie permettant de sonder les objets avec une résolution spatiale qu'il est impossible d'atteindre avec un télescope seul. La mise en œuvre au sol de cette méthode est limitée en sensibilité et précision de mesure à cause de la turbulence atmosphérique. Or les nouveaux besoins scientifiques, tels que la détermination des paramètres fondamentaux, l'étude de l'environnement proche ou de la surface des étoiles, requièrent la capacité d'observer des objets de moins en moins brillants et de faire des mesures de plus en plus précises, en interférométrie visible. Pour s'affranchir de la turbulence, l'interférométrie multimode a été développée en reprenant le concept de l'interférométrie des tavelures utilisée sur un seul télescope. Aujourd'hui, pour améliorer davantage les performances des futurs instruments, cette instrumentation évolue vers l'utilisation de la nouvelle génération de détecteur, l'Electron Multiplying Charge-Coupled Device (EMCCD), et de l'emploi des fibres optiques interfacées avec des optiques adaptatives. Cette avancée est motivée par le succès de l'utilisation conjointe de l'optique adaptative et du suivi de franges pour s'affranchir partiellement de la turbulence en interférométrie infrarouge, en 2017 avec l'instrument GRAVITY (Gravity Collaboration et al. 2017). Le prototype FRIEND (Fibered and spectrally Resolved Interferometer - New Design) a été conçu pour caractériser et évaluer les performances de la combinaison de ces éléments, dans le domaine visible. L'amélioration de la précision des instruments interférométriques est apportée par les fibres optiques et par la dynamique du signal délivré par une EMCCD. L'inconvénient de l'emploi des fibres dans le visible est une perte de la sensibilité du fait que le taux d'injection du flux dans celles-ci est très faible à cause de la turbulence atmosphérique. Mais il se trouve que l'optique adaptative et l'EMCCD permettent d'améliorer la sensibilité. En effet, l'optique adaptative maximise l'injection en réduisant l'influence de la turbulence atmosphérique, et l'EMCCD est capable de détecteur de faibles flux. FRIEND prépare ainsi le développement du futur instrument SPICA, recombinant jusqu'à six télescopes (Mourard et al. 2017, 2018). Celui-ci devra explorer la stabilisation des interférences grâce au suivi de franges. Cet aspect n'est pas abordé dans cette thèse. Je présente dans cette thèse le prototype FRIEND, capable de recombiner jusqu'à trois télescopes, opérant dans la bande R en franges dispersées. Il est doté de fibres optiques gaussiennes monomodes à maintien de polarisation et d'une EMCCD. Il est installé sur l'interféromètre visible Center for High Angular Resolution Astronomy (CHARA), au Mount Wilson, en Californie, qui est en train de s'équiper d'optiques adaptatives. J'ai développé des estimateurs de visibilité et de clôture de phase, la méthode de réduction des données de ce prototype et une stratégie d'observation. Grâce à ces outils, j'ai montré que les optiques adaptatives améliorent le taux d'injection dans les fibres. Il est alors apparu que la stabilisation de l'injection est importante pour maximiser le rapport signal-à-bruit dans chaque image. La biréfringence des fibres dégrade les performances de l'instrument mais elle a pu être compensée. J'ai montré qu'un instrument, basé sur la conception de FRIEND, permet d'accéder à des mesures de visibilité faibles avec une précision, inatteignable avec la génération actuelle, grâce au développement et l'utilisation d'un modèle de rapport signal-à-bruit. L'instrument a enfin été testé dans son intégralité sur le système binaire connu ζ Ori A. Cette observation montre la fiabilité et la précision des mesures interférométriques obtenues avec ce prototype, montrant l'intérêt de cette association de technologies pour les futurs interféromètres visibles. / Long baseline visible interferometry in astronomy is an observing technique which allows to get insights of an object with an outstanding angular resolution, unreachable with single-dish telescope. Interferometric measurements with ground-based instrumentation are currently limited in sensitivity and precision due to atmospheric turbulence. However, the new astrophysical needs, particularly the determination of fundamental parameters or the study of the closed environment and the surface of the stars, require to observe fainter objects with a better precision than now in visible interferometry. Ought to overcome the atmospheric turbulence, multispeckle interferometry has been developed by adapting speckle imaging technics used on single-dish telescope. Today, in order to improve the performance of the future combiners, instrumentation progresses to the use of a new generation detector called EMCCD, and the use of optical fibers which are coupled with adaptive optics. This path is chosen thank to the success of the use of the adaptive optics with the fringe tracking in the infrared interferometry in 2017 (Gravity Collaboration et al. 2017), in order to compensate turbulence. FRIEND prototype (Fibered and spectrally Resolved Interferometer - New Design) has been designed to characterize and estimate the performance of such a combination of technologies, in the visible spectral band. The improvement of the precision of the measurements from interferometric instruments is due to optical fibers and the dynamical range of the EMCCD. The counterpart of using the optical fibers is a loss in sensitivity due to a low injection rate of flux into the fibers because of the atmospheric turbulence. On the other hand, sensitivity is improved thanks to adaptive optics and EMCCDs. Indeed, adaptive optics increases the injection rate and EMCCDs can measure low fluxes. Lastly, FRIEND is a pathfinder for the future instrument SPICA which should recombine up to 6 telescopes (Mourard et al. 2017, 2018). Fringe-tracking aspects will have to be studied for SPICA; this topic is not dealt with in this thesis. In this work, I present the FRIEND prototype, which can recombine up to three telescopes and operates in the R band with dispersed fringes. It has Gaussian polarization-maintaining single mode optical fibers and an EMCCD. It is set up at the Center for High Angular Resolution Astronomy (CHARA), at Mount Wilson, in California. CHARA is currently being equipped with adaptive optics. I develop estimators of visibility modulus and closure phase, the data reduction software and an observing strategy. Thanks to that, I am able to show that adaptive optics improves the injection rate. I also demonstrate how important the stabilization of injection is to maximize the signal-to-noise ratio (SNR) per frame. Birefringence of the fibers decreases the performance of the instrument but we manage to compensate it. I show how such an instrument can measure low visibility with a better precision than now by developing and using a SNR model of FRIEND. Finally, FRIEND has entirely been tested on the known binary system ζ Ori A. These observations demonstrate how reliable and accurate the measurements of FRIEND are.
|
7 |
Data Reduction based energy-efficient approaches for secure priority-based managed wireless video sensor networks / Approches écoénergétiques basées sur la réduction des données pour les réseaux de capteurs vidéo sans filSalim, Christian 03 December 2018 (has links)
L'énorme quantité de données dans les réseaux de capteurs vidéo sans fil (WVSN) pour les nœuds de capteurs de ressources limitées augmente les défis liés à la consommation d'énergie et à la consommation de bande passante. La gestion du réseau est l’un des défis de WMSN en raison de l’énorme quantité d’images envoyées simultanément par les capteurs au coordinateur. Dans cette thèse, pour surmonter ces problèmes, plusieurs contributions ont été apportées. Chaque contribution se concentre sur un ou deux défis, comme suit: Dans la première contribution, pour réduire la consommation d'énergie, une nouvelle approche pour l'agrégation des données dans WVSN basée sur des fonctions de similarité des plans est proposée. Il est déployé sur deux niveaux: le niveau du nœud du capteur vidéo et le niveau du coordinateur. Au niveau du nœud de capteur, nous proposons une technique d'adaptation du taux de trame et une fonction de similarité pour réduire le nombre de trames détectées par les nœuds de capteur et envoyées au coordinateur. Au niveau du coordinateur, après avoir reçu des plans de différents nœuds de capteurs voisins, la similarité entre ces plans est calculée pour éliminer les redondances. Dans la deuxième contribution, certains traitements et analyses sont ajoutés en fonction de la similarité entre les images au niveau du capteur-nœud pour n'envoyer que les cadres importants au coordinateur. Les fonctions cinématiques sont définies pour prévoir l'étape suivante de l'intrusion et pour planifier le système de surveillance en conséquence. Dans la troisième contribution, sur la phase de transmission, au niveau capteur-nœud, un nouvel algorithme d'extraction des différences entre deux images est proposé. Cette contribution prend également en compte le défi de sécurité en adaptant un algorithme de chiffrement efficace au niveau du nœud de capteur. Dans la dernière contribution, pour éviter une détection plus lente des intrusions conduisant à des réactions plus lentes du coordinateur, un protocole mac-layer basé sur le protocole S-MAC a été proposé pour contrôler le réseau. Cette solution consiste à ajouter un bit de priorité au protocole S-MAC pour donner la priorité aux données critiques. / The huge amount of data in Wireless Video Sensor Networks (WVSNs) for tiny limited resources sensor nodes increases the energy and bandwidth consumption challenges. Controlling the network is one of the challenges in WMSN due to the huge amount of images sent at the same time from the sensors to the coordinator. In this thesis, to overcome these problems, several contributions have been made. Each contribution concentrates on one or two challenges as follows: In the first contribution, to reduce the energy consumption a new approach for data aggregation in WVSN based on shot similarity functions is proposed. It is deployed on two levels: the video-sensor node level and the coordinator level. At the sensor node level, we propose a frame rate adaptation technique and a similarity function to reduce the number of frames sensed by the sensor nodes and sent to the coordinator. At the coordinator level, after receiving shots from different neighboring sensor nodes, the similarity between these shots is computed to eliminate redundancies. In the second contribution, some processing and analysis are added based on the similarity between frames on the sensor-node level to send only the important frames to the coordinator. Kinematic functions are defined to predict the next step of the intrusion and to schedule the monitoring system accordingly. In the third contribution, on the transmission phase, on the sensor-node level, a new algorithm to extract the differences between two images is proposed. This contribution also takes into account the security challenge by adapting an efficient ciphering algorithm on the sensor node level. In the last contribution, to avoid slower detection of intrusions leading to slower reactions from the coordinator, a mac-layer protocol based on S-MAC protocol has been proposed to control the network. This solution consists in adding a priority bit to the S-MAC protocol to give priority to critical data.
|
8 |
Caractérisation d’atmosphères d’exoplanètes à haute résolution à l’aide de l’instrument SPIRou et développement de méthodes d’extraction spectrophotométriques pour le télescope spatial James WebbDarveau-Bernier, Antoine 10 1900 (has links)
L'étude des exoplanètes et de leur atmosphère a connu une croissance fulgurante dans les deux dernières décennies. Les observations spectrophotométriques à partir d'observatoires spatiaux comme Hubble ont permis d'apporter certaines contraintes sur les phénomènes physiques et la composition de leur atmosphère, notamment grâce à la spectroscopie d'éclipse. Ces découvertes concernent généralement les planètes les plus favorables à cette technique, dont font partie les Jupiter chaudes. Cependant, les conclusions tirées à partir telles observations comportent leur lot de dégénérescences, causées par leur faible résolution spectrale, leur couverture restreinte en longueurs d'onde et leur précision photométrique limitée. Ces lacunes peuvent être corrigées en partie grâce à la complémentarité des spectrographes à haute résolution basés au sol ainsi qu'à l'aide du nouveau télescope spatial James Webb (JWST).
Cette thèse présente, en premier lieu, une des premières analyses combinées d'observations spectrophotométriques prises avec l'instrument Wide Field Camera 3 de Hubble et d'observations à haute résolution avec l'instrument SPIRou (SpectroPolarimètre InfraRouge) du télescope Canada-France-Hawaï. Cette analyse avait pour cible le côté jour de la Jupiter ultra chaude WASP-33b, la deuxième exoplanète la plus chaude connue à ce jour. Aux températures se retrouvant dans l'atmosphère de WASP-33b, avoisinant les 3000 K, des molécules comme l'eau ne peuvent demeurer stables. Cependant, le CO, beaucoup plus résistant à la dissociation thermique, reste observable. Les données de SPIRou ont donc permis de confirmer la détection des raies d'émission du CO, en accord avec deux précédentes études. La combinaison avec les données de Hubble a aussi mené à l'obtention d'un premier estimé de son abondance avec un rapport de mélange volumique de logCO = -4.07 (-0.60) (+1.51). De plus, cette analyse a pu améliorer les contraintes sur la structure verticale en température et confirmer la présence d'une stratosphère. Des limites supérieures sur d'autres molécules comme l'eau, le TiO et le VO ont aussi pu être établies.
En second lieu, un algorithme d'extraction spectrale intitulé ATOCA (Algorithme de Traitement d'Ordres ContAminés) est présenté. Celui-ci est dédié au mode d'observation SOSS (Single Object Slitless Spectroscopy) de l'instrument NIRISS (Near InfraRed Imager and Slitless Spectrograph), la contribution canadienne à JWST. Ce mode d'observation couvre une plage de longueurs d'onde allant de 0,6 à 2,8 um simultanément grâce à la présence des deux premiers ordres de diffraction sur le détecteur. La nécessité d'un nouvel algorithme provient du fait que ces deux ordres générés par le « grisme » du mode SOSS se chevauchent sur une petite portion du détecteur. En conséquence, la région de l'ordre 1 couvrant les plus grandes longueurs d'onde (1,6–2,8 um) est contaminée par l'ordre 2 couvrant l'intervalle entre 0,85 et 1,4 um. ATOCA permet donc de décontaminer chacun des ordres en construisant d'abord un modèle linéaire de chaque pixel individuel du détecteur, en fonction du flux incident. Ce flux peut ensuite être extrait simultanément pour les deux ordres en comparant le modèle aux observations et en solutionnant le système selon un principe de moindres carrés. Ces travaux ont pu montrer qu'il est possible de décontaminer en dessous de 10 ppm pour chaque spectre individuel. / In the last decades, the research on exoplanets and their atmosphere has grown phenomenally. Space based observatories with spectrophotometric capabilities like Hubble allowed
to put some constraints on the physical processes occuring in exoplanets’ atmosphere and
their chemical composition. These discoveries concern mainly the hotter and larger planets,
such as Hot Jupiters, which are the most favorable for atmospheric characterization. However, due to their low spectral resolution and their limited wavelength range and photometric
accuracy, the scientific conclusions based on these observations can be degenerate. Some of
these degeneracies can be lifted with the use of ground-based high-resolution spectrographs
or the new James Webb Space Telescope (JWST).
On the one hand, this thesis present one of the first analysis combining Hubble’s spectrosphometric data and high-resolution observations obtained with SPirou (SpectroPolarimètre
InfraRouge) at the Canada-France-Hawai telescope. This analysis targeted the dayside of
the Ultra Hot Jupiter WASP-33 b, the second-hottest exoplanet known to date. WASP-33 b
atmosphere can reach temperatures high enough (≥ 3000 K) to dissociate molecules such
as water. However, CO, which is much more resistant to thermal dissociation, remains observable. SPIRou’s observations allowed us to confirm the presence of CO emission lines in
WASP-33 b emission spectrum, in agreement with two previous studies. With the addition
of published Hubble data, we were able to push further and provide the first estimate CO
abundance, with a volume mixing ratio of log10 CO = ≠4.07+1.51 ≠0.60.
On the other hand, this thesis propose a new spectral extraction algorithm called ATOCA
(Algorithm to Treat Order ContAmination) specifically designed for the SOSS (Single Object Slitless Spectroscopy) mode of the NIRISS instrument (Near InfraRed Imager and Slitless
Spectrograph), the Canadian contribution to JWST. This observing mode covers the wavelength range spaning from 0.6 to 2.8 µm simultaneously, due to the presence of the two first
diraction orders on NIRISS detector. The need for a new algorithm arises from the fact
that these orders, originating from SOSS “grism”, overlap on a small portion of the detector. Consequently, the region of order 1 covering the longest wavelengths (1.6–2.8 µm) is
contaminated by the signal from order 2 between 0.85 and 1.4 µm. Hence, ATOCA allows
to decontaminate both orders by first building a linear model of each individual pixel of the detector, with the incident flux as an independant variable. This flux is then extracted
simultaneously for the two orders by comparing the model to the detector image and by
solving the system for the best least square fit. This work has shown that ATOCA can
reduce the contamination level below 10 ppm for each individual spectrum.
|
9 |
Approximations de rang faible et modèles d'ordre réduit appliqués à quelques problèmes de la mécanique des fluides / Low rank approximation techniques and reduced order modeling applied to some fluid dynamics problemsLestandi, Lucas 16 October 2018 (has links)
Les dernières décennies ont donné lieux à d'énormes progrès dans la simulation numérique des phénomènes physiques. D'une part grâce au raffinement des méthodes de discrétisation des équations aux dérivées partielles. Et d'autre part grâce à l'explosion de la puissance de calcul disponible. Pourtant, de nombreux problèmes soulevés en ingénierie tels que les simulations multi-physiques, les problèmes d'optimisation et de contrôle restent souvent hors de portée. Le dénominateur commun de ces problèmes est le fléau des dimensions. Un simple problème tridimensionnel requiert des centaines de millions de points de discrétisation auxquels il faut souvent ajouter des milliers de pas de temps pour capturer des dynamiques complexes. L'avènement des supercalculateurs permet de générer des simulations de plus en plus fines au prix de données gigantesques qui sont régulièrement de l'ordre du pétaoctet. Malgré tout, cela n'autorise pas une résolution ``exacte'' des problèmes requérant l'utilisation de plusieurs paramètres. L'une des voies envisagées pour résoudre ces difficultés est de proposer des représentations ne souffrant plus du fléau de la dimension. Ces représentations que l'on appelle séparées sont en fait un changement de paradigme. Elles vont convertir des objets tensoriels dont la croissance est exponentielle $n^d$ en fonction du nombre de dimensions $d$ en une représentation approchée dont la taille est linéaire en $d$. Pour le traitement des données tensorielles, une vaste littérature a émergé ces dernières années dans le domaine des mathématiques appliquées.Afin de faciliter leurs utilisations dans la communauté des mécaniciens et en particulier pour la simulation en mécanique des fluides, ce manuscrit présente dans un vocabulaire rigoureux mais accessible les formats de représentation des tenseurs et propose une étude détaillée des algorithmes de décomposition de données qui y sont associées. L'accent est porté sur l'utilisation de ces méthodes, aussi la bibliothèque de calcul texttt{pydecomp} développée est utilisée pour comparer l'efficacité de ces méthodes sur un ensemble de cas qui se veut représentatif. La seconde partie de ce manuscrit met en avant l'étude de l'écoulement dans une cavité entraînée à haut nombre de Reynolds. Cet écoulement propose une physique très riche (séquence de bifurcation de Hopf) qui doit être étudiée en amont de la construction de modèle réduit. Cette étude est enrichie par l'utilisation de la décomposition orthogonale aux valeurs propres (POD). Enfin une approche de construction ``physique'', qui diffère notablement des développements récents pour les modèles d'ordre réduit, est proposée. La connaissance détaillée de l'écoulement permet de construire un modèle réduit simple basé sur la mise à l'échelle des fréquences d'oscillation (time-scaling) et des techniques d'interpolation classiques (Lagrange,..). / Numerical simulation has experienced tremendous improvements in the last decadesdriven by massive growth of computing power. Exascale computing has beenachieved this year and will allow solving ever more complex problems. But suchlarge systems produce colossal amounts of data which leads to its own difficulties.Moreover, many engineering problems such as multiphysics or optimisation andcontrol, require far more power that any computer architecture could achievewithin the current scientific computing paradigm. In this thesis, we proposeto shift the paradigm in order to break the curse of dimensionality byintroducing decomposition and building reduced order models (ROM) for complexfluid flows.This manuscript is organized into two parts. The first one proposes an extendedreview of data reduction techniques and intends to bridge between appliedmathematics community and the computational mechanics one. Thus, foundingbivariate separation is studied, including discussions on the equivalence ofproper orthogonal decomposition (POD, continuous framework) and singular valuedecomposition (SVD, discrete matrices). Then a wide review of tensor formats andtheir approximation is proposed. Such work has already been provided in theliterature but either on separate papers or into a purely applied mathematicsframework. Here, we offer to the data enthusiast scientist a comparison ofCanonical, Tucker, Hierarchical and Tensor train formats including theirapproximation algorithms. Their relative benefits are studied both theoreticallyand numerically thanks to the python library texttt{pydecomp} that wasdeveloped during this thesis. A careful analysis of the link between continuousand discrete methods is performed. Finally, we conclude that for mostapplications ST-HOSVD is best when the number of dimensions $d$ lower than fourand TT-SVD (or their POD equivalent) when $d$ grows larger.The second part is centered on a complex fluid dynamics flow, in particular thesingular lid driven cavity at high Reynolds number. This flow exhibits a seriesof Hopf bifurcation which are known to be hard to capture accurately which iswhy a detailed analysis was performed both with classical tools and POD. Oncethis flow has been characterized, emph{time-scaling}, a new ``physics based''interpolation ROM is presented on internal and external flows. This methodsgives encouraging results while excluding recent advanced developments in thearea such as EIM or Grassmann manifold interpolation.
|
Page generated in 0.105 seconds