• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 36
  • 14
  • 7
  • 1
  • Tagged with
  • 59
  • 35
  • 26
  • 23
  • 14
  • 13
  • 12
  • 9
  • 9
  • 7
  • 7
  • 7
  • 7
  • 7
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Proposition de modes de visualisation et d'interaction innovants pour les grandes masses de données et/ou les données structurées complexes en prenant en compte les limitations perceptives des utilisateurs / Proposal of innovative visualization and interaction metaphors for huge amount of data and / or complex data by taking into account perceptual

Cantu, Alma 15 February 2018 (has links)
Suite à l’amélioration des outils de capture et de stockage des données, ces dernières années ont vu les quantités de données à traiter croître énormément. De nombreux travaux, allant du traitement automatique à la visualisation d’information, ont alors été mis en place, mais certains domaines sont encore trop spécifiques pour en profiter. C’est le cas du Renseignement d’Origine ÉlectroMagnétique (ROEM). Ce domaine ne fait pas uniquement face à de grandes quantités de données mais doit aussi gérer des données et des usages complexes ainsi que des populations d’utilisateurs ayant de moins en moins d’expérience. Dans cette thèse nous nous sommes intéressés à l’usage de l’existant et des nouvelles technologies appliquées à la visualisation pour proposer des solutions à la combinaison de problématiques comme les données en grandes quantité et les données complexes. Nous commençons par présenter une analyse du domaine du ROEM qui a permis d’extraire les problématiques auxquelles il doit faire face. Nous nous intéressons ensuite aux solutions gérant les combinaisons de telles problématiques. L’existant ne contenant pas directement de telles solutions, nous nous intéressons alors à la description des problématiques de visualisation et proposons une caractérisation de ces problématiques. Cette caractérisation nous permet de décrire les représentations existantes et de mettre en place un outil de recommandation des représentations basé sur la façon dont l’existant résout les problématiques. Enfin nous nous intéressons à identifier de nouvelles métaphores pour compléter l’existant et proposons une représentation immersive permettant de résoudre les problématiques du ROEM. Ces contributions permettent d’analyser et d’utiliser l’existant et approfondissent l’usage des représentations immersives pour la visualisation d’information. / As a result of the improvement of data capture and storage, recent years have seen the amount of data to be processed increase dramatically. Many studies, ranging from automatic processing to information visualization, have been performed, but some areas are still too specific to take advantage of. This is the case of ELectromagnetic INTelligence(ELINT). This domain does not only deal with a huge amount of data but also has to handle complex data and usage as well as populations of users with less and less experience. In this thesis we focus on the use of existing and new technologies applied to visualization to propose solutions to the combination of issues such as huge amount and complex data. We begin by presenting an analysis of the ELINT field which made it possible to extract the issues that it must faces. Then, we focus on the visual solutions handling the combinations of such issues but the existing work do not contain directly such solutions. Therefore, we focus on the description of visual issues and propose a characterization of these issues. This characterization allows us to describe the existing representations and to build a recommendation tool based on how the existing work solves the issues. Finally, we focus on identifying new metaphors to complete the existing work and propose an immersive representation to solve the issues of ELINT. These contributions make it possible to analyze and use the existing and deepen the use of immersive representations for the visualization of information.
32

Les premières phases d'évolution des étoiles massives dans NGC 6334 et NGC 6357 révélées par le sondage Herschel-HOBYS / The first evolutionary phases of Massive star formation in NGC 6334 and NGC 6357 as seen by the Herschel -HOBYS project

Tigé, Jérémy 03 October 2014 (has links)
Cette thèse présente une étude des coeurs denses et massifs de deux régions de formation d'étoiles massives de notre Galaxie. J'utilise pour ce travail des observations Herschel-HOBYS de NGC 6334 et NGC 6357 complémentées par les sondages GLIMPSE, MIPSGAL, ATLASGAL, MALT90 ainsi que des observations SCUBA-2 et SIMBA. La vision multi-longueur d'onde m'a permis d'identifier spatialement les coeurs les plus denses des deux régions et d'extraire leur distribution spectrale d' énergie. J'ai modélisé l'émission des coeurs pour extraire leurs paramètres physiques et j'ai utilisé des données infrarouge, des catalogues de sources masers et radio, ainsi que des raies mol éculaires pour déterminer leur statut évolutif. Mon travail présente l'extraction des coeurs denses et massifs ainsi que l'analyse de leur distribution spatiale et de leurs paramètres physiques dans le contexte évolutif de la formation d'étoiles massives dans les régions NGC 6334 et NGC 6357. / This thesis aims at studying the massive dense cores found inside two regions of high-mass star formation within our Galaxy. I make use of Herschel observations of NGC 6334 and NGC 6357 from the HOBYS project, complemented with the GLIMPSE, MPISGAL, ATLASGAL, MALT90 surveys as well as observations from SCUBA-2 and SIMBA. The multi-wavelength view allows me to spatially identify the densest cores in both regions and extract their spectral energy distribution. I modelled the emission from the cores to extract their physical parameters and I used infrared data, masers and radio catalogues, and molecular lines to assess their evolutionary status. My study present the extraction of massive dense cores in the regions NGC 6334 and NGC 6357 together with the analysis of their spatial distribution and physical parameters in the evolutionnary context of massivestar formation that is occuring in both regions.
33

Enjeux et place des data sciences dans le champ de la réutilisation secondaire des données massives cliniques : une approche basée sur des cas d’usage / Issues and place of the data sciences for reusing clinical big data : a case-based study

Bouzillé, Guillaume 21 June 2019 (has links)
La dématérialisation des données de santé a permis depuis plusieurs années de constituer un véritable gisement de données provenant de tous les domaines de la santé. Ces données ont pour caractéristiques d’être très hétérogènes et d’être produites à différentes échelles et dans différents domaines. Leur réutilisation dans le cadre de la recherche clinique, de la santé publique ou encore de la prise en charge des patients implique de développer des approches adaptées reposant sur les méthodes issues de la science des données. L’objectif de cette thèse est d’évaluer au travers de trois cas d’usage, quels sont les enjeux actuels ainsi que la place des data sciences pour l’exploitation des données massives en santé. La démarche utilisée pour répondre à cet objectif consiste dans une première partie à exposer les caractéristiques des données massives en santé et les aspects techniques liés à leur réutilisation. La seconde partie expose les aspects organisationnels permettant l’exploitation et le partage des données massives en santé. La troisième partie décrit les grandes approches méthodologiques en science des données appliquées actuellement au domaine de la santé. Enfin, la quatrième partie illustre au travers de trois exemples l’apport de ces méthodes dans les champs suivant : la surveillance syndromique, la pharmacovigilance et la recherche clinique. Nous discutons enfin les limites et enjeux de la science des données dans le cadre de la réutilisation des données massives en santé. / The dematerialization of health data, which started several years ago, now generates na huge amount of data produced by all actors of health. These data have the characteristics of being very heterogeneous and of being produced at different scales and in different domains. Their reuse in the context of clinical research, public health or patient care involves developing appropriate approaches based on methods from data science. The aim of this thesis is to evaluate, through three use cases, what are the current issues as well as the place of data sciences regarding the reuse of massive health data. To meet this objective, the first section exposes the characteristics of health big data and the technical aspects related to their reuse. The second section presents the organizational aspects for the exploitation and sharing of health big data. The third section describes the main methodological approaches in data sciences currently applied in the field of health. Finally, the fourth section illustrates, through three use cases, the contribution of these methods in the following fields: syndromic surveillance, pharmacovigilance and clinical research. Finally, we discuss the limits and challenges of data science in the context of health big data.
34

Passage à l'échelle pour la visualisation interactive exploratoire de données : approches par abstraction et par déformation spatiale / Addressing scaling challenges in interactive exploratory visualization with abstraction and spatial distortion

Richer, Gaëlle 26 November 2019 (has links)
La visualisation interactive est un outil essentiel pour l'exploration, la compréhension et l'analyse de données. L'exploration interactive efficace de jeux de données grands ou complexes présente cependant deux difficultés fondamentales. La première est visuelle et concerne les limitations de la perception et cognition humaine, ainsi que celles des écrans. La seconde est computationnelle et concerne les limitations de capacité mémoire ou de traitement des machines standards. Dans cette thèse, nous nous intéressons aux techniques de passage à l'échelle relativement à ces deux difficultés, pour plusieurs contextes d'application.Pour le passage à l'échelle visuelle, nous présentons une approche versatile de mise en évidence de sous-ensembles d'éléments par déformation spatiale appliquée aux vues multiples et une représentation abstraite et multi-/échelle de coordonnées parallèles. Sur les vues multiples, la déformation spatiale vise à remédier à la diminution de l'efficacité de la surbrillance lorsque les éléments graphiques sont de taille réduite. Sur les coordonnées parallèles, l'abstraction multi-échelle consiste à simplifier la représentation tout en permettant d'accéder interactivement au détail des données, en les pré-agrégeant à plusieurs niveaux de détail.Pour le passage à l'échelle computationnelle, nous étudions des approches de pré-calcul et de calcul à la volée sur des infrastructures distribuées permettant l'exploration de jeux de données de plus d'un milliard d'éléments en temps interactif. Nous présentons un système pour l'exploration de données multi-dimensionnelles dont les interactions et l'abstraction respectent un budget en nombre d'éléments graphiques qui, en retour, fournit une borne théorique sur les latences d'interactions dues au transfert réseau entre client et serveur. Avec le même objectif, nous comparons des stratégies de réduction de données géométrique pour la reconstruction de cartes de densité d'ensembles de points. / Interactive visualization is helpful for exploring, understanding, and analyzing data. However, increasingly large and complex data challenges the efficiency of visualization systems, both visually and computationally. The visual challenge stems from human perceptual and cognitive limitations as well as screen space limitations while the computational challenge stems from the processing and memory limitations of standard computers.In this thesis, we present techniques addressing the two scalability issues for several interactive visualization applications.To address visual scalability requirements, we present a versatile spatial-distortion approach for linked emphasis on multiple views and an abstract and multi-scale representation based on parallel coordinates. Spatial distortion aims at alleviating the weakened emphasis effect of highlighting when applied to small-sized visual elements. Multiscale abstraction simplifies the representation while providing detail on demand by pre-aggregating data at several levels of detail.To address computational scalability requirements and scale data processing to billions of items in interactive times, we use pre-computation and real-time computation on a remote distributed infrastructure. We present a system for multi-/dimensional data exploration in which the interactions and abstract representation comply with a visual item budget and in return provides a guarantee on network-related interaction latencies. With the same goal, we compared several geometric reduction strategies for the reconstruction of density maps of large-scale point sets.
35

Mobilités urbaines et données en ligne pour l'étude des maladies vectorielles à Delhi (Inde) et Bangkok (Thaïlande) / Urban mobility and online data for the study of vector borne diseases in Delhi (India) and Bangkok (Thailand)

Cebeillac, Alexandre 17 October 2018 (has links)
Des maladies vectorielles émergentes, comme la dengue, aggravent les crises de santé publique dans les mégapoles asiatiques de Bangkok (Thaïlande) et Delhi (Inde). Les liens entre les moustiques et l’environnement urbain ont été documentés mais la compréhension des mobilités humaines, en tant qu’élément primordial de diffusion des virus, reste un objet de recherche d'intérêt général à développer.En l'absence de données institutionnelles adaptées, notre recherche s'est d'abord orientée vers des enquêtes de terrain, puis sur la collecte, le traitement, la comparaison et la critique de données provenant d'acteurs majeurs d'Internet (Twitter, Facebook, Google, Microsoft). Leur potentiel varie selon les zones géographiques, mais elles permettent d'éclairer l'organisation et la structure des villes étudiées. De plus, elles font ressortir les temporalités et les interactions intra-urbaines. Toutefois, il semble encore difficilement envisageable de se passer de connaissances acquises in situ. En utilisant le concept d'espace d'activité, nous proposons une méthode permettant de produire des agendas individuels synthétiques, générés à partir de données Twitter et d'enquêtes de terrains. Il s'agit là d'une première étape dans l'élaboration d'un modèle de mobilité individu-centré à base d'agents. / Emerging vector-borne diseases such as dengue intensify public health crises in the Asian megacities of Bangkok (Thailand) and Delhi (India). The links between mosquitoes and the urban environment are well documented, but our understanding of human movement, as a key element of virus spreading, has yet to be fully explored as a research subject. Given the paucity in adequate or available institutional data, our research first focused on field surveys, and then on the collection, comparison and critique of data collected from major Internet platforms (Twitter, Facebook, Google, Microsoft). Their potential varies from one geographical area to another, still they shed light on the organization and structure of the studied cities. Moreover, they highlight intra-urban interactions and timeframes. However, carrying out such studies without knowledge acquired from the field seems unadapted. Using the concept of activity space, we propose a method to produce individual synthetic agendas, generated from Twitter data and field surveys. This is a first step in the development of an agent-based model of individual mobility.
36

Formation, structure and properties of ultrahigh-strength Co-Ta-B bulk metallic glasses

Wang, Ju 26 March 2021 (has links)
Co-based bulk metallic glasses (BMGs) are well known for their excellent mechanical properties with high fracture strength, hardness and elastic modulus. Since the first report of A. Inoue with co-workers in 2003 on Co43Fe20Ta5.5B31.5 BMG with fracture strength up to 5 GPa, a series of Co-based BMGs including Co-Fe-B-Si-Nb, Co-Fe-Cr-Mo-C-B-Er, Co-Ta-B systems have been developed. Co-Ta-B ternary BMGs, discovered recently, are characterized by even higher fracture strength of up to about 6 GPa. These BMGs with outstanding mechanical behavior are interesting for applications as advanced structural materials and coatings. Due to a relatively simple constitution (only three components), Co-Ta-B BMGs are very attractive for investigations of relationships between composition, structure, undercoolability, glass-forming ability, thermal and mechanical properties. However, there have been published just a few papers on Co-Ta-B BMGs focusing on the glass-forming ability in terms of the critical diameter and mechanical properties so far. In present work, a systematic study of the structure and properties of Co-Ta-B BMGs has been carried out on four intentionally chosen compositions  Co61Ta6B33, Co59Ta8B33, Co57Ta10B33 and Co53Ta10B37. Glass formation, thermal stability, crystallization kinetics upon isochronal and isothermal annealing, mechanical and magnetic properties were investigated. Co-Ta-B BMGs studied in this work are characterized by high thermal stability, ultrahigh fracture strength in compression, large Vickers hardness and high values of elastic constants. Increasing of B and Ta content is beneficial to the improvement of both thermal and mechanical properties. Based on the study of the short-range atomic order in Co57Ta10B33 BMG, Co-Ta, Co-B and B-B bonds are supposed to play an important role in the thermal and mechanical properties. A comprehensive picture on structure-composition-property relationship was established. In order to better understand the glass formation, non-equilibrium solidification of the undercooled alloys was investigated using electromagnetic levitation, high-energy X-ray diffraction and high-speed video observation. Three compositions with bulk glass-forming ability (Co61Ta8B31, Co59Ta8B33, Co55Ta8B37) were chosen to study the phase formation during non-equilibrium solidification. In addition, one ternary near-eutectic alloy Co64Ta5.5B30.5 and two binary alloys Co67B33 and Co63B37 with poor glass formation were comparably investigated using the same method. The phase formation, dendrite growth velocity and microstructure of the solidified samples were analyzed in detail as function of undercooling. The alloy composition, maximum undercooling and growth velocity were related closely with the glass-forming ability of the Co-Ta-B alloys studied.
37

Sélection de caractéristiques stables pour la segmentation d'images histologiques par calcul haute performance / Robust feature selection for histology images through high performance computing

Bouvier, Clément 18 January 2019 (has links)
L’histologie produit des images à l’échelle cellulaire grâce à des microscopes optiques très performants. La quantification du tissu marqué comme les neurones s’appuie de plus en plus sur des segmentations par apprentissage automatique. Cependant, l’apprentissage automatique nécessite une grande quantité d’informations intermédiaires, ou caractéristiques, extraites de la donnée brute multipliant d’autant la quantité de données à traiter. Ainsi, le nombre important de ces caractéristiques est un obstacle au traitement robuste et rapide de séries d’images histologiques. Les algorithmes de sélection de caractéristiques pourraient réduire la quantité d’informations nécessaires mais les ensembles de caractéristiques sélectionnés sont peu reproductibles. Nous proposons une méthodologie originale fonctionnant sur des infrastructures de calcul haute-performance (CHP) visant à sélectionner des petits ensembles de caractéristiques stables afin de permettre des segmentations rapides et robustes sur des images histologiques acquises à très haute-résolution. Cette sélection se déroule en deux étapes : la première à l’échelle des familles de caractéristiques. La deuxième est appliquée directement sur les caractéristiques issues de ces familles. Dans ce travail, nous avons obtenu des ensembles généralisables et stables pour deux marquages neuronaux différents. Ces ensembles permettent des réductions significatives des temps de traitement et de la mémoire vive utilisée. Cette méthodologie rendra possible des études histologiques exhaustives à haute-résolution sur des infrastructures CHP que ce soit en recherche préclinique et possiblement clinique. / In preclinical research and more specifically in neurobiology, histology uses images produced by increasingly powerful optical microscopes digitizing entire sections at cell scale. Quantification of stained tissue such as neurons relies on machine learning driven segmentation. However such methods need a lot of additional information, or features, which are extracted from raw data multiplying the quantity of data to process. As a result, the quantity of features is becoming a drawback to process large series of histological images in a fast and robust manner. Feature selection methods could reduce the amount of required information but selected subsets lack of stability. We propose a novel methodology operating on high performance computing (HPC) infrastructures and aiming at finding small and stable sets of features for fast and robust segmentation on high-resolution histological whole sections. This selection has two selection steps: first at feature families scale (an intermediate pool of features, between space and individual feature). Second, feature selection is performed on pre-selected feature families. In this work, the selected sets of features are stables for two different neurons staining. Furthermore the feature selection results in a significant reduction of computation time and memory cost. This methodology can potentially enable exhaustive histological studies at a high-resolution scale on HPC infrastructures for both preclinical and clinical research settings.
38

Au coeur de la série télé Friends : corrélations inter-sujets de l'activité cérébrale et cardiaque à l'aide des quantités massives de données individuelles du projet CNeuroMod

Lespinasse, François 04 1900 (has links)
cneuromod.ca / Les Corrélations Inter-Sujets (ISC) des signaux corps-cerveaux permettent-elles de repérer les processus affectifs partagés par deux individus ? Le présent mémoire propose une approche complémentaire pour étudier les ISC corps-cerveaux en réponse à des récits audiovisuels en analysant les enregistrements multimodaux de six participants ayant regardé quatre saisons de la série télévisée Friends. Nous avons tenté de déterminer si une activité cardiaque synchronisée, mesurée à l'aide des ISC du rythme cardiaque (HR-ISC), se produit dans les mêmes fenêtres temporelles qu’une synchronisation de l’activité localisée dans les aires cérébrales reliées aux émotions chez chaque paire de sujets séparément. Les analyses ISC de l'activité cérébrale (mesurée avec imagerie par résonance magnétique fonctionnelle; IRMf) et cardiaque (mesurée avec la photopléthysmographie; PPG) ont été effectuées dans le contexte d'une tâche de visionnement libre incluse dans le projet Courtois-Neuromod (Bellec & Boyle, 2019; Boyle et al., 2022) consistant à écouter des épisodes de Friends. Des ISC temporelles univariées ont été utilisées pour estimer le degré de synchronisation propre à chaque paire d'individus. Nos résultats, en accord avec la littérature, ont montré un niveau plus élevé d’ISC cérébrales pour les aires sensorielles que pour les aires non-sensorielles (Kauppi et al., 2010; Nastase et al., 2019). Les paires de sujets ont également montré un niveau significatif de synchronisation cardiaque moyenne. Contrairement à notre hypothèse, la modélisation de la variabilité des ISC cérébrales et cardiaques chez chaque paire de sujets suggère que la synchronisation cardiaque ne coïncide pas linéairement avec une synchronisation temporellement stable ou localisée de l’activité cérébrale. / Can shared affective processes of two individuals be tracked down by brain-body Inter-Subject Correlations (ISC)? We propose a complementary approach to investigating brain-body ISC in response to audiovisual narratives by analyzing multimodal recordings from six subjects who watched four seasons of the Friends TV show. We specifically asked whether consistent cardiac activity assessed using heart rate ISC (HR-ISC) yields localized synchronization in emotional areas of the brain in each pair of subjects. ISC analyses of brain (functional magnetic resonance imaging; fMRI) and cardiac (photoplethysmography; PPG) activity were carried out in the context of a free viewing task included in the Courtois-Neuromod project (Bellec & Boyle, 2019; Boyle et al., 2022). Univariate temporal ISC were used to estimate the degree of synchronization specific to each pair of individuals. Our results are in line with the literature in showing a distinctive level of Brain-ISC for sensory and non-sensory areas (Kauppi et al., 2010; Nastase et al., 2019). Moreover, every subject showed a significant level of cardiac synchronization as nonparametric hypothesis testing reports average HR-ISC is larger than zero. Modeling the variability of Brain-ISC and HR-ISC in specific pairs of subjects suggests that cardiac synchronization does not linearly coincide with temporally stable nor localized synchronization in the brain. On this ground, we suggest that subjects submitted to the same audiovisual narrative might not synchronize as they access a shared cognitive representation (Madsen & Parra, 2022; Nastase et al., 2019) but rather as they perform similar “mental actions” (Sandved-Smith et al., 2021).
39

La vie privée à l’ère des données massives

Landry, Rose 02 1900 (has links)
Ce mémoire propose une analyse conceptuelle de la vie privée et des enjeux éthiques qui s’y rapportent à l’ère des données massives et de l’essor de l’intelligence artificielle. Alors que la définition du concept de vie privée est encore disputée, les défis liés à son maintien dans le monde numérique d'aujourd'hui sont indéniables. L’analyse de ces enjeux requiert de faire appel à des éléments conceptuels provenant de la philosophie de l’information, mais également aux notions de structures de pouvoir tirées de la philosophie politique et de la sociologie. À travers ce prisme, ce travail offre un survol des éléments essentiels au traitement des enjeux de vie privée dans le contexte actuel d’utilisation des données massives, et défend qu’en l’absence de processus adéquats pour protéger et préserver la vie privée d'une personne en ligne, la capacité à maintenir une vie privée numérique devient illusoire. En définitive, un argument moral en faveur d’une meilleure protection de la vie privée en ligne est présenté, démontrant que la vie privée est notamment garante de l’autonomie des personnes. / This essay provides a conceptual analysis of privacy and the ethical issues that surround it in the age of big data and artificial intelligence. While the definition of privacy is still disputed, the challenges of maintaining it in today’s digital world are undeniable. In order to analyze these challenges, one can combine conceptual elements taken from the philosophy of information with notions of power found in political philosophy and sociology. Through this lens, this paper offers an overview of how one can address privacy-related ethical concerns in the current context of massive data collection, analysis and use. It is argued that, without adequate processes in place to protect and preserve one’s privacy online, the ability to maintain digital privacy becomes illusory. This paper concludes by providing a moral argument to demonstrate how privacy can be better preserved online, demonstrating that privacy is notably a condition of personal autonomy.
40

Visualisation de données volumiques massives : application aux données sismiques / Visualization of massive data volumes : applications to seismic data

Castanié, Laurent 24 November 2006 (has links)
Les données de sismique réflexion sont une source d'information essentielle pour la modélisation tridimensionnelle des structures du sous-sol dans l'exploration-production des hydrocarbures. Ce travail vise à fournir des outils de visualisation pour leur interprétation. Les défis à relever sont à la fois d'ordre qualitatif et quantitatif. Il s'agit en effet de considérer (1) la nature particulière des données et la démarche d'interprétation (2) la taille des données. Notre travail s'est donc axé sur ces deux aspects : 1) Du point de vue qualitatif, nous mettons tout d'abord en évidence les principales caractéristiques des données sismiques, ce qui nous permet d'implanter une technique de visualisation volumique adaptée. Nous abordons ensuite l'aspect multimodal de l'interprétation qui consiste à combiner plusieurs sources d'information (sismique et structurale). Selon la nature de ces sources (strictement volumique ou volumique et surfacique), nous proposons deux systèmes de visualisation différents. 2) Du point de vue quantitatif, nous définissons tout d'abord les principales contraintes matérielles intervenant dans l'interprétation, ce qui nous permet d'implanter un système générique de gestion de la mémoire. Initialement destiné au couplage de la visualisation et des calculs sur des données volumiques massives, il est ensuite amélioré et spécialisé pour aboutir à un système dynamique de gestion distribuée de la mémoire sur cluster de PCs. Cette dernière version, dédiée à la visualisation, permet de manipuler des données sismiques à échelle régionale (100-200 Go) en temps réel. Les problématiques sont abordées à la fois dans le contexte scientifique de la visualisation et dans le contexte d'application des géosciences et de l'interprétation sismique / Seismic reflection data are a valuable source of information for the three-dimensional modeling of subsurface structures in the exploration-production of hydrocarbons. This work focuses on the implementation of visualization techniques for their interpretation. We face both qualitative and quantitative challenges. It is indeed necessary to consider (1) the particular nature of seismic data and the interpretation process (2) the size of data. Our work focuses on these two distinct aspects : 1) From the qualitative point of view, we first highlight the main characteristics of seismic data. Based on this analysis, we implement a volume visualization technique adapted to the specificity of the data. We then focus on the multimodal aspect of interpretation which consists in combining several sources of information (seismic and structural). Depending on the nature of these sources (strictly volumes or both volumes and surfaces), we propose two different visualization systems. 2) From the quantitative point of view, we first define the main hardware constraints involved in seismic interpretation. Focused on these constraints, we implement a generic memory management system. Initially able to couple visualization and data processing on massive data volumes, it is then improved and specialised to build a dynamic system for distributed memory management on PC clusters. This later version, dedicated to visualization, allows to manipulate regional scale seismic data (100-200 GB) in real-time. The main aspects of this work are both studied in the scientific context of visualization and in the application context of geosciences and seismic interpretation

Page generated in 0.03 seconds