• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 36
  • 14
  • 10
  • 1
  • Tagged with
  • 62
  • 36
  • 27
  • 24
  • 16
  • 13
  • 13
  • 11
  • 9
  • 7
  • 7
  • 7
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Étude à haute résolution spatiale de la bulle Wolf-Rayet NGC 2359 avec des données SITELLE et GMOS

Dumontier, Cyril 06 1900 (has links)
Ce mémoire présente une étude spectroscopique de la nébuleuse Wolf-Rayet (WR) NGC 2359 à l’aide d’un ensemble de données recueillies avec le spectromètre imageur SITELLE et le spectromètre GMOS depuis 2018. Cette étude vise à approfondir nos connaissances sur cette nébuleuse ionisée par une étoile massive au stade final de sa vie, WR7, afin de localiser et de caractériser la section de la nébuleuse associée aux éjecta passés de l’étoile. L’analyse de l’ensemble de données permet d’identifier dans un premier temps les raies d’émission de plusieurs atomes à des états d’ionisation différents et dans un deuxième temps d’identifier les zones où ces raies sont les plus fortes à l’aide de la production de cartes de flux pour chacune d’entre elles. Deux structures sont associées au gaz ionisé de la nébuleuse. La première est en forme d’arc et est à la frontière à l’est de WR7 qui sépare le gaz ionisé du gaz atomique. La deuxième est une bulle filamenteuse qui a un état d’ionisation plus élevé que celui de l’arc par son flux très faible dans les raies d’émission d’atomes simplement ionisés, mais fort dans les raies d’atomes doublement ionisés. L’analyse cinématique vient ajouter des distinctions supplémentaires entre les deux structures. L’arc est immobile à 54 km s⁻¹ qui est la vitesse radiale systémique du gaz attendue à sa distance galactocentrique. La bulle démontre plutôt des groupes de filaments qui s’approchent de l’observateur et d’autres qui s’en éloignent, donnant une expansion de ∼ 30 km s⁻¹. De plus, ces résultats confirment le contact dynamique entre le gaz ionisé en expansion et le gaz moléculaire de CO allant à des vitesses similaires à des positions similaires. Ensuite, certains rapports d’intensité de raies sensibles à la présence de poussière, à la température électronique ou à la densité électronique permettent de cartographier ces propriétés. La poussière causant un rougissement interstellaire est surtout distribuée à l’est et au sud de la nébuleuse. La densité électronique est maximalement de 190 cm⁻³ et généralement inférieure à 100 cm⁻³. En supposant une densité électronique constante de 100 cm⁻³, la carte de la température électronique montre des valeurs entre 9 000 et 14 000 K. / This work presents a spectroscopic study of the Wolf-Rayet (WR) nebula NGC 2359 using a set of data collected with the SITELLE imaging spectrograph and the GMOS spectrograph since 2018. The study aims to deepen our understanding of this nebula ionized by a massive star in the final stage of its life, in order to determine which gas structure of the nebula is associated with the past ejecta of the star. The analysis of the data set first identified emission lines of several atoms in different ionization states, and then identified the areas where these lines are strongest by producing flux maps for each of the identified lines. Two structures are associated with the ionized gas of the nebula. The first is arc-shaped and is at the western boundary separating the ionized gas from the atomic gas. The second is a filamentary bubble with a higher ionization state than the arc due to its very weak flux in the emission lines of singly ionized atoms, but strong in the lines of doubly ionized atoms. The kinematic analysis adds further distinctions between the arc and the bubble. The arc is stationary at 54 km s⁻¹ , which is the systemic radial velocity of the gas expected at its galactocentric distance. The bubble shows groups of filaments approaching and receding from the observer, demonstrating an expansion at 30 km s⁻¹. These results confirm the dynamic contact between the expanding ionized gas and the CO molecular gas moving at similar speeds in similar locations. Furthermore, some intensity ratios of lines sensitive to the presence of dust, electron temperature, and electron density allow for mapping these quantities. Dust causing interstellar reddening is mainly distributed to the east and south of the nebula. The electron density is maximally 190 cm⁻³ and generally below 100 cm⁻³. Assuming a constant electron density of 100 cm⁻³, an electron temperature map ranges between 9,000 K and 14,000 K.
42

Visualisation de données volumiques massives : application aux données sismiques / Visualization of massive data volumes : applications to seismic data

Castanié, Laurent 24 November 2006 (has links)
Les données de sismique réflexion sont une source d'information essentielle pour la modélisation tridimensionnelle des structures du sous-sol dans l'exploration-production des hydrocarbures. Ce travail vise à fournir des outils de visualisation pour leur interprétation. Les défis à relever sont à la fois d'ordre qualitatif et quantitatif. Il s'agit en effet de considérer (1) la nature particulière des données et la démarche d'interprétation (2) la taille des données. Notre travail s'est donc axé sur ces deux aspects : 1) Du point de vue qualitatif, nous mettons tout d'abord en évidence les principales caractéristiques des données sismiques, ce qui nous permet d'implanter une technique de visualisation volumique adaptée. Nous abordons ensuite l'aspect multimodal de l'interprétation qui consiste à combiner plusieurs sources d'information (sismique et structurale). Selon la nature de ces sources (strictement volumique ou volumique et surfacique), nous proposons deux systèmes de visualisation différents. 2) Du point de vue quantitatif, nous définissons tout d'abord les principales contraintes matérielles intervenant dans l'interprétation, ce qui nous permet d'implanter un système générique de gestion de la mémoire. Initialement destiné au couplage de la visualisation et des calculs sur des données volumiques massives, il est ensuite amélioré et spécialisé pour aboutir à un système dynamique de gestion distribuée de la mémoire sur cluster de PCs. Cette dernière version, dédiée à la visualisation, permet de manipuler des données sismiques à échelle régionale (100-200 Go) en temps réel. Les problématiques sont abordées à la fois dans le contexte scientifique de la visualisation et dans le contexte d'application des géosciences et de l'interprétation sismique / Seismic reflection data are a valuable source of information for the three-dimensional modeling of subsurface structures in the exploration-production of hydrocarbons. This work focuses on the implementation of visualization techniques for their interpretation. We face both qualitative and quantitative challenges. It is indeed necessary to consider (1) the particular nature of seismic data and the interpretation process (2) the size of data. Our work focuses on these two distinct aspects : 1) From the qualitative point of view, we first highlight the main characteristics of seismic data. Based on this analysis, we implement a volume visualization technique adapted to the specificity of the data. We then focus on the multimodal aspect of interpretation which consists in combining several sources of information (seismic and structural). Depending on the nature of these sources (strictly volumes or both volumes and surfaces), we propose two different visualization systems. 2) From the quantitative point of view, we first define the main hardware constraints involved in seismic interpretation. Focused on these constraints, we implement a generic memory management system. Initially able to couple visualization and data processing on massive data volumes, it is then improved and specialised to build a dynamic system for distributed memory management on PC clusters. This later version, dedicated to visualization, allows to manipulate regional scale seismic data (100-200 GB) in real-time. The main aspects of this work are both studied in the scientific context of visualization and in the application context of geosciences and seismic interpretation
43

Identifications croisées multi-longueurs d'ondes. Application aux populations stellaires des Nuages de Magellan et aux étoiles jeunes de notre Galaxie.

Delmotte, Nausicaa 07 November 2003 (has links) (PDF)
Cette thèse bénéficie de la mise à disposition publique récente des grands relevés infrarouges et visibles et s'inscrit dans le cadre de l'Observatoire Virtuel émergent. Nous avons réalisé un "Master Catalogue of stars towards the Magellanic Clouds" (MC2) basé sur l'identification croisée multi-longueur d'onde des catalogues de sources ponctuelles DENIS, 2MASS, GSC-II et UCAC. D'importants résultats sur la précision et la calibration astro-photométriques de ces catalogues ont été établis. Le MC2 est accessible en ligne au travers d'une interface web spécialement conçue pour gérer sa nature composite. Nous avons produit des vues multi-spectrales du GNM, où ses populations stellaires variées se distinguent de façon remarquable dans les diagrammes couleur-couleur et couleur-magnitude construits à partir de magnitudes à la fois visibles et infrarouges. Nous avons calibré les magnitudes absolues des étoiles de type B dans le proche-infrarouge, en fonction de leur type spectral. Nous avons combiné des mesures de distance de grande qualité basées sur les données Hipparcos avec la photométrie homogène des sources ponctuelles proche-infrarouges 2MASS. Les données ont été corrigées de l'extinction et nous avons évalué par le biais de simulations la contribution de divers erreurs de mesure et effets physiques (binarité, rotation) à la dispersion observée sur la calibration. C'est une étape nécessaire à la détermination de la structure du disque jeune Galactique et des distances et propriétés de jeunes amas ouverts découverts par les grands relevés infrarouges tels 2MASS. Nous avons commencé une analyse morphologique et multi-longueur d'onde de régions ionisées et de leurs étoiles dans le GNM, imagées en bande étroite. L'interaction réciproque des étoiles massives avec le milieu interstellaire environnant permet d'approfondir l'histoire de formation stellaire locale et le contenu stellaire de ces régions ainsi que d'obtenir un schéma de leur évolution dynamique.
44

Sur les origines photosphériques des structures dans les vents des étoiles chaudes et lumineuses

Ramiaramanantsoa, Tahina 08 1900 (has links)
No description available.
45

Deep dive into social network and economic data : a data driven approach for uncovering temporal ties, human mobility, and socioeconomic correlations / Immersion dans les réseaux sociaux et les données économiques : une approche orientée donnée afin d'étudier les liens temporels, la mobilité humaine et les corrélations socio-économiques

Leo, Yannick 16 December 2016 (has links)
Dans cette thèse, j'étudie des jeux de données concernant des liens sociaux entre personnes (appels et SMS), leur mobilité ainsi que des informations économiques sur ces personnes, comme leur revenu et leurs dépenses. Les sept travaux couvrent un spectre assez large et apportent des contributions en informatique des réseaux mais aussi en sociologie, économie et géographie. Les questions posées sont très diverses. Comment quantifier la perte d'information causée par une agrégation de flot de liens en série de graphe ? Comment inférer les mouvements des utilisateurs quand on ne connaît que les localisations des utilisateurs aux moments des appels, et que l'on ne détecte donc que les mouvements qui ont eu lieu entre deux appels consécutifs, sans connaître leur nombre ni les instants auxquels ils ont lieu ? Est-il possible de transmettre des SMS dans une région dense en utilisant la densité des téléphones, la mobilité des utilisateurs ainsi que la localité des messages échangés ? Est-il possible de comprendre les inégalités sociales avec une approche Big Data ? Cette dernière question fait l'objet d'une première étude socio-économique approfondie au prisme du Big Data. Il a été possible d'étudier à grande échelle la stratification de la société, l'existence de clubs de riches, la ségrégation spatiale et la structure des dépenses par classe sociale.Au delà de la variété de ces études et de ces nombreuses applications, cette thèse montre que l'analyse de données individuelles riches à l'échelle d'une population permettent de répondre à de nouvelles questions et à d'anciennes hypothèses avec une approche Big Data. Cette thèse tient à mettre l'accent sur la potentialité d'une approche Big Data mais aussi de sa complémentarité avec les approches classiques (modélisation, sociologie avec enquêtes, …). Un effort particulier a été mis dans l'explication des étapes qui amènent aux résultats et dans la prise en compte des biais ce qui est trop souvent négligé. / In this thesis, I have carried out data-driven studies based on rich, large-scale combined data sets including social links between users (calls and SMS), their demographic parameters (age and gender), their mobility and their economic information such as income and spendings. These seven studies bring insights in network science but also in sociology, economy and geography. The questions asked are very diversified. How can one quantify the loss of temporal information caused by the aggregation of link streams into series of graphs? How can one infer mobility of a user from his or her localisations of calls? Is it possible to transmit SMS in a dense region by using the density of phones, the mobility of users and the locality of the messages? How can one quantify and prove empirically the social stratification of the society at a large population scale? I present, for this last question, a first socio-economic study with a data-driven approach. It has been possible to study, at a very large scale, the stratification of the society, the existence of "rich-clubs", the spatial segregation and purchase patterns for each social class. Beyond the variety of studies and their numerous applications, this thesis shows that the analysis of individual rich combined datasets at a large population scale gives the opportunity to answer long-standing hypotheses and to address novel questions. This work not only points out the potentiality of Big Data approach but also its complementarity to classical approaches (modelization, surveys, …). Particular attention was given in order to explain each steps that lead to results and to take into account biases which is too often neglected.
46

La visualisation d’information pour les données massives : une approche par l’abstraction de données / Information visualization for big data : a data abstraction approach

Sansen, Joris 04 July 2017 (has links)
L’évolution et la démocratisation des technologies ont engendré une véritable explosion de l’information et notre capacité à générer des données et le besoin de les analyser n’a jamais été aussi important. Pourtant, les problématiques soulevées par l’accumulation de données (stockage, temps de traitement, hétérogénéité, vitesse de captation/génération, etc. ) sont d’autant plus fortes que les données sont massives, complexes et variées. La représentation de l’information, de part sa capacité à synthétiser et à condenser des données, se constitue naturellement comme une approche pour les analyser mais ne résout pas pour autant ces problèmes. En effet, les techniques classiques de visualisation sont rarement adaptées pour gérer et traiter cette masse d’informations. De plus,les problèmes que soulèvent le stockage et le temps de traitement se répercutent sur le système d’analyse avec par exemple, la distanciation de plus en plus forte entre la donnée et l’utilisateur : le lieu où elle sera stockée et traitée et l’interface utilisateur servant à l’analyse. Dans cette thèse nous nous intéressons à ces problématiques et plus particulièrement à l’adaptation des techniques de visualisation d’informations pour les données massives. Pour cela, nous nous intéressons tout d’abord à l’information de relation entre éléments, comment est-elle véhiculée et comment améliorer cette transmission dans le contexte de données hiérarchisées. Ensuite, nous nous intéressons à des données multivariées,dont la complexité à un impact sur les calculs possibles. Enfin, nous présentons les approches mises en oeuvre pour rendre nos méthodes compatibles avec les données massives. / The evolution and spread of technologies have led to a real explosion of information and our capacity to generate data and our need to analyze them have never been this strong. Still, the problems raised by such accumulation (storage, computation delays, diversity, speed of gathering/generation, etc. ) is as strong as the data are big, complex and varied. Information visualization,by its ability to summarize and abridge data was naturally established as appropriate approach. However, it does not solve the problem raised by Big Data. Actually, classical visualization techniques are rarely designed to handle such mass of information. Moreover, the problems raised by data storage and computation time have repercussions on the analysis system. For example,the increasing distance between the data and the analyst : the place where the data is stored and the place where the user will perform the analyses arerarely close. In this thesis, we focused on these issues and more particularly on adapting the information visualization techniques for Big Data. First of all focus on relational data : how does the existence of a relation between entity istransmitted and how to improve this transmission for hierarchical data. Then,we focus on multi-variate data and how to handle their complexity for the required computations. Finally, we present the methods we designed to make our techniques compatible with Big Data.
47

Cartography of chemical space / Cartographie de l'espace chimique

Gaspar, Héléna Alexandra 29 September 2015 (has links)
Cette thèse est consacrée à la cartographie de l’espace chimique ; son but est d’établir les bases d’un outil donnant une vision d’ensemble d’un jeu de données, comprenant prédiction d’activité, visualisation, et comparaison de grandes librairies. Dans cet ouvrage, nous introduisons des modèles prédictifs QSAR (relations quantitatives structure à activité) avec de nouvelles définitions de domaines d’applicabilité, basés sur la méthode GTM (generative topographic mapping), introduite par C. Bishop et al. Une partie de cette thèse concerne l’étude de grandes librairies de composés chimiques grâce à la méthode GTM incrémentale. Nous introduisons également une nouvelle méthode « Stargate GTM », ou S-GTM, permettant de passer de l’espace des descripteurs chimiques à celui des activités et vice versa, appliquée à la prédiction de profils d’activité ou aux QSAR inverses. / This thesis is dedicated to the cartography of chemical space; our goal is to establish the foundations of a tool offering a complete overview of a chemical dataset, including visualization, activity prediction, and comparison of very large datasets. In this work, we introduce new QSAR models (quantitative structure-activity relationship) based on the GTM method (generative topographic mapping), introduced by C. Bishop et al. A part of this thesis is dedicated to the visualization and analysis of large chemical libraries using the incremental version of GTM. We also introduce a new method coined “Stargate GTM” or S-GTM, which allows us to travel from the space of chemical descriptors to activity space and vice versa; this approach was applied to activity profile prediction and inverse QSAR.
48

Acceleration Strategies of Markov Chain Monte Carlo for Bayesian Computation / Stratégies d'accélération des algorithmes de Monte Carlo par chaîne de Markov pour le calcul Bayésien

Wu, Chang-Ye 04 October 2018 (has links)
Les algorithmes MCMC sont difficiles à mettre à l'échelle, car ils doivent balayer l'ensemble des données à chaque itération, ce qui interdit leurs applications dans de grands paramètres de données. En gros, tous les algorithmes MCMC évolutifs peuvent être divisés en deux catégories: les méthodes de partage et de conquête et les méthodes de sous-échantillonnage. Le but de ce projet est de réduire le temps de calcul induit par des fonctions complexes ou à grande efficacité. / MCMC algorithms are difficult to scale, since they need to sweep over the whole data set at each iteration, which prohibits their applications in big data settings. Roughly speaking, all scalable MCMC algorithms can be divided into two categories: divide-and-conquer methods and subsampling methods. The aim of this project is to reduce the computing time induced by complex or largelikelihood functions.
49

Simulations Monte Carlo de régions d'interaction en corotation dans le vent d'étoiles chaudes

Carlos-Leblanc, Danny 06 1900 (has links)
No description available.
50

L’encadrement juridique de l’exploitation des mégadonnées dans le secteur privé au Québec

Du Perron, Simon 01 1900 (has links)
Les mégadonnées font partie de ces sujets dont on entend parler sans trop savoir ce qu’ils signifient précisément. Souvent associés au domaine de l’intelligence artificielle, ces volumineux ensembles de données sont à la base d’un nombre croissant de modèles d’affaires axés sur la valorisation des données numériques que nous générons au quotidien. Le présent mémoire cherche à démontrer que cette exploitation des mégadonnées par les entreprises ne s’effectue pas dans un vide juridique. Les mégadonnées ne peuvent être considérées comme un objet de droit en l’absence d’une définition formelle. Une revue de la littérature multidisciplinaire à leur sujet, invite à les concevoir comme un actif informationnel doté de cinq caractéristiques principales, soit leur volume, leur vélocité, leur variété, leur valeur et leur véracité. L’analyse de ces caractéristiques permet au juriste d’atteindre une compréhension suffisante de ce phénomène afin de l’aborder sous le prisme du droit positif. Suivant un exercice de qualification juridique, les mégadonnées émergent à la fois comme un bien meuble incorporel et comme un ensemble de documents technologiques portant divers renseignements dont certains peuvent être qualifiés de renseignements personnels. Le cadre juridique applicable à l’exploitation des mégadonnées s’articule donc autour de la protection législative de la vie privée informationnelle qui s’incarne à travers les lois en matière de protection des renseignements personnels. Cet encadrement est complété par certaines règles relatives à la gestion documentaire et au droit à l’égalité. Une manière efficace de présenter cet encadrement juridique est selon le cycle de vie des renseignements personnels au sein des mégadonnées. Ainsi, il appert que les principes issus de l’approche personnaliste et minimaliste du droit québécois à la protection des renseignements personnels s’appliquent tant bien que mal à la collecte des données numériques ainsi qu’à leur traitement par les entreprises. / Big data is one of those topics we keep hearing about without knowing exactly what it means. Often associated with the field of artificial intelligence, these large datasets are the backbone of a growing number of business models that focus on leveraging the digital data we generate on a daily basis. This Master’s thesis seeks to demonstrate that this exploitation of big data by businesses is not happening in a legal vacuum. Big data cannot be considered as an object of rights in the absence of a formal definition. A review of the multidisciplinary literature on the subject invites us to conceive them as an information asset with five main characteristics: volume, velocity, variety, value and veracity. The study of these characteristics allows the jurist to reach a sufficient understanding of the phenomenon in order to approach it through the lens of positive law. Following a legal qualification exercise, big data emerges both as intangible movable property and as a set of technological documents carrying various types of information, some of which can be qualified as personal information. The legal framework governing the exploitation of big data is therefore built around the legislative protection of informational privacy, which is embodied in privacy laws. This framework is complemented by certain rules relating to document management and the right to equality. An effective way to present this legal framework is according to the life cycle of personal information within big data. Thus, it appears that the principles stemming from the personalist and minimalist approach of Quebec's data protection law apply, albeit not without struggle, to the collection of digital data as well as their processing by businesses.

Page generated in 0.0416 seconds