• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • 1
  • 1
  • Tagged with
  • 4
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Étude de la spéciation et du fractionnement isotopique du Fer dans les eaux de l'Amazonie et ses affluents

Mulholland, Daniel Santos 23 October 2013 (has links) (PDF)
Ce travail vise à évaluer l'influence de la spéciation du Fe et de sa composition isotopique dans les eaux ayant des caractéristiques chimiques contrastées. Les rapports isotopiques du Fe ont été déterminés en utilisant un MC-ICP-MS (multicollecteur - plasma à couplage inductif - spectromètre de masse) à haute résolution de masse. Cette étude montre pour la première fois que le Fe adsorbé sur les parois des cellules du phytoplancton présente une accumulation préférentielle des isotopes lourds. Le fractionnement isotopique observé (57Fecell-solution) était d'environ 2,5‰ pour les solutions initiales contenant des espèces aqueuses Fe2+, et ~1,0‰ pour les solutions initiales contenant des espèces aqueuses de Fe3+. Ce travail montre également que le stockage des échantillons d'eau à température ambiante peut causer des variations de la composition isotopique du Fe dissous, en particulier dans les eaux à forte concentration de matières organiques. La composition isotopique du Fe des différentes fractions de taille des pores a fourni des informations précises sur les sources et les processus biogéochimiques se produisant dans les sols des zones sources et s'est avéré être un bon indicateur des mécanismes impliquant la perte de Fe et son transfert dans la zone de mélange entre le Solimoes et le Negro. La composition des isotopes Fe des eaux de rivière transporte principalement la signature des principales sources et des processus biogéochimiques se produisant dans les sols, il peut aussi être un outil prometteur pour étudier les effets de la modification de l'utilisation des terres et des changements climatiques sur l'altération continentale.
2

Forêt aléatoire pour l'apprentissage multi-vues basé sur la dissimilarité : Application à la Radiomique / Random forest for dissimilarity based multi-view learning : application to radiomics

Cao, Hongliu 02 December 2019 (has links)
Les travaux de cette thèse ont été initiés par des problèmes d’apprentissage de données radiomiques. La Radiomique est une discipline médicale qui vise l’analyse à grande échelle de données issues d’imageries médicales traditionnelles, pour aider au diagnostic et au traitement des cancers. L’hypothèse principale de cette discipline est qu’en extrayant une grande quantité d’informations des images, on peut caractériser de bien meilleure façon que l’œil humain les spécificités de cette pathologie. Pour y parvenir, les données radiomiques sont généralement constituées de plusieurs types d’images et/ou de plusieurs types de caractéristiques (images, cliniques, génomiques). Cette thèse aborde ce problème sous l’angle de l’apprentissage automatique et a pour objectif de proposer une solution générique, adaptée à tous problèmes d’apprentissage du même type. Nous identifions ainsi en Radiomique deux problématiques d’apprentissage: (i) l’apprentissage de données en grande dimension et avec peu d’instances (high dimension, low sample size, a.k.a.HDLSS) et (ii) l’apprentissage multi-vues. Les solutions proposées dans ce manuscrit exploitent des représentations de dissimilarités obtenues à l’aide des Forêts Aléatoires. L’utilisation d’une représentation par dissimilarité permet de contourner les difficultés inhérentes à l’apprentissage en grande dimension et facilite l’analyse conjointe des descriptions multiples (les vues). Les contributions de cette thèse portent sur l’utilisation de la mesure de dissimilarité embarquée dans les méthodes de Forêts Aléatoires pour l’apprentissage multi-vue de données HDLSS. En particulier, nous présentons trois résultats: (i) la démonstration et l’analyse de l’efficacité de cette mesure pour l’apprentissage multi-vue de données HDLSS; (ii) une nouvelle méthode pour mesurer les dissimilarités à partir de Forêts Aléatoires, plus adaptée à ce type de problème d’apprentissage; et (iii) une nouvelle façon d’exploiter l’hétérogénèité des vues, à l’aide d’un mécanisme de combinaison dynamique. Ces résultats ont été obtenus sur des données radiomiques mais aussi sur des problèmes multi-vue classiques. / The work of this thesis was initiated by a Radiomic learning problem. Radiomics is a medical discipline that aims at the large-scale analysis of data from traditional medical imaging to assist in the diagnosis and treatment of cancer. The main hypothesis of this discipline is that by extracting a large amount of information from the images, we can characterize the specificities of this pathology in a much better way than the human eye. To achieve this, Radiomics data are generally based on several types of images and/or several types of features (from images, clinical, genomic). This thesis approaches this problem from the perspective of Machine Learning (ML) and aims to propose a generic solution, adapted to any similar learning problem. To do this, we identify two types of ML problems behind Radiomics: (i) learning from high dimension, low sample size (HDLSS) and (ii) multiview learning. The solutions proposed in this manuscript exploit dissimilarity representations obtained using the Random Forest method. The use of dissimilarity representations makes it possible to overcome the well-known difficulties of learning high dimensional data, and to facilitate the joint analysis of the multiple descriptions, i.e. the views.The contributions of this thesis focus on the use of the dissimilarity easurement embedded in the Random Forest method for HDLSS multi-view learning. In particular, we present three main results: (i) the demonstration and analysis of the effectiveness of this measure for HDLSS multi-view learning; (ii) a new method for measuring dissimilarities from Random Forests, better adapted to this type of learning problem; and (iii) a new way to exploit the heterogeneity of views, using a dynamic combination mechanism. These results have been obtained on radiomic data but also on classical multi-view learning problems.
3

Développement et applications de la tomographie chimique par spectroscopie EDX / Development and applications of chemical tomography by EDX spectroscopy

Lepinay, Kevin 27 November 2013 (has links)
Cette thèse porte sur l’évaluation des techniques pour la tomographie chimique par STEM EDX : mise au point des procédures expérimentales, traitement des données, reconstruction des volumes, analyse de la qualité des résultats obtenus et évaluation de la complexité globale. Les performances très limitées de l’analyse STEM EDX font que peu d’études, jusqu’à aujourd’hui, se sont portées sur cette technique. Cependant, les avancées très notables procurées par les nouveaux détecteurs ‘SDD’ ainsi que les sources électroniques X-FEG haute brillance, rendant l’analyse STEM EDX 2D très rapide, ont relancé la possibilité de la tomographie chimique ; la technique demande toutefois à être mise au point et évaluée (performances et complexité). Nous avons travaillé sur un microscope Tecnai Osiris permettant d’acquérir des cartographies chimiques EDX de centaines de milliers de pixels avec une résolution de l’ordre du nanomètre en quelques minutes. Nous avons choisi de préparer par FIB des échantillons en forme de pointe et d’utiliser un porte-objet permettant une exploration angulaire de 180° sans ombrage. Puis, à l’aide d’échantillons modèles (billes de SiO2 dans une résine), nous avons évalué les déformations d’échantillon par l’irradiation du faisceau électronique. Ceci nous a permis de proposer une méthode pour limiter cet effet par déposition d’une couche de 20 nm de chrome. Des simulations d’images ont permis d’évaluer les logiciels et méthodes de reconstruction. La méthodologie de chaque étape d’une analyse de tomographie STEM EDX a ensuite été expliquée, et l’intérêt de la technique démontré grâce à la comparaison de l’analyse 2D et 3D d’un transistor FDSOI 28 nm. La qualité des reconstructions (rapport signal-sur-bruit, résolution spatiale) a été évaluée en fonction des paramètres expérimentaux à l’aide de simulations et d’expériences. Une résolution de 4 nm est démontrée grâce à l’analyse d’une mire et d’un transistor « gate all around ». Pour ce même transistor, la possibilité et l’intérêt d’analyse de défaillance à l’échelle nanométrique est prouvée. Une analyse d’un défaut de grille d’une SRAM ou de trous dans un pilier en cuivre permettent d’expliquer l’intérêt d’une combinaison d’un volume HAADF (morphologie et résolution < 4 nm) et du volume EDX (information chimique). La conclusion est que cette technique, qui reste encore à améliorer du point de vue de sa simplicité, montre déjà son utilité pour l’analyse et la mise au point des technologies avancées (nœud 20 nm et après). / This thesis focuses on the evaluation of the STEM EDX chemical tomography technique: development of experimental procedures, data processing and volumes reconstruction, quality analysis of the results and evaluation of the overall complexity. Until now, STEM EDX analysis performances were very limited, so only few studies about this technique have been realized. However, very significant progress procured by the new SDD detectors as well as by the high brightness electronic sources (X-FEG), making the STEM EDX 2D analysis very fast, have revived the possibility of the chemical tomography, although the technique has to be developed and evaluated (performance and complexity). We have worked on a Tecnai Osiris which acquires EDX chemical mapping of hundreds of thousands of pixels with resolution of one nanometer and in a few minutes. We chose to prepare the rod-shaped samples by FIB and use a sample holder allowing an angle of exploration of 180° without shadowing effects. Then, using model samples (SiO2 balls in resin), we evaluated the sample deformation due to the electron beam irradiation. This allowed us to propose a method to reduce this effect by depositing a 20 nm chromium layer. Images simulations were used to evaluate the software and the reconstruction methods. The methodology of each step of the STEM EDX tomography analysis is then explained and the technique interest is demonstrated by comparing the 2D and the 3D analysis of a transistor 28 nm FDSOI. The quality of the reconstructions (signal-to-noise ratio, spatial resolution) was evaluated, in function of experimental parameters, using simulations and experiments. A resolution of 4 nm is demonstrated through the analysis of a test pattern and a "gate all around” transistor. For the same transistor, the possibility and the interest of a failure analysis at the nanoscale is proven. Analyses of a SRAM gate fail or of the holes in a copper pillar explain the benefits of a combination between a HAADF volume (morphology and resolution < 4 nm) and an EDX volume (chemical information). To conclude, this technique, which still needs to be improved in terms of simplicity, is already showing its usefulness for the analysis and the development of advanced technologies (20nm node and beyond).
4

Analyse de connectivité et techniques de partitionnement de données appliquées à la caractérisation et la modélisation d'écoulement au sein des réservoirs très hétérogènes / Connectivity analysis and clustering techniques applied for the characterisation and modelling of flow in highly heterogeneous reservoirs

Darishchev, Alexander 10 December 2015 (has links)
Les techniques informatiques ont gagné un rôle primordial dans le développement et l'exploitation des ressources d'hydrocarbures naturelles ainsi que dans d'autres opérations liées à des réservoirs souterrains. L'un des problèmes cruciaux de la modélisation de réservoir et les prévisions de production réside dans la présélection des modèles de réservoir appropriés à la quantification d'incertitude et au le calage robuste des résultats de simulation d'écoulement aux réelles mesures et observations acquises du gisement. La présente thèse s'adresse à ces problématiques et à certains autres sujets connexes.Nous avons élaboré une stratégie pour faciliter et accélérer l'ajustement de tels modèles numériques aux données de production de champ disponibles. En premier lieu, la recherche s'était concentrée sur la conceptualisation et l'implémentation des modèles de proxy reposant sur l'analyse de la connectivité, comme une propriété physique intégrante et significative du réservoir, et des techniques avancées du partitionnement de données et de l'analyse de clusters. La méthodologie développée comprend aussi plusieurs approches originales de type probabiliste orientées vers les problèmes d'échantillonnage d'incertitude et de détermination du nombre de réalisations et de l'espérance de la valeur d'information d'échantillon. Afin de cibler et donner la priorité aux modèles pertinents, nous avons agrégé les réalisations géostatistiques en formant des classes distinctes avec une mesure de distance généralisée. Ensuite, afin d'améliorer la classification, nous avons élargi la technique graphique de silhouettes, désormais appelée la "séquence entière des silhouettes multiples" dans le partitionnement de données et l'analyse de clusters. Cette approche a permis de recueillir une information claire et compréhensive à propos des dissimilarités intra- et intre-cluster, particulièrement utile dans le cas des structures faibles, voire artificielles. Finalement, la séparation spatiale et la différence de forme ont été visualisées graphiquement et quantifiées grâce à la mesure de distance probabiliste.Il apparaît que les relations obtenues justifient et valident l'applicabilité des approches proposées pour améliorer la caractérisation et la modélisation d'écoulement. Des corrélations fiables ont été obtenues entre les chemins de connectivité les plus courts "injecteur-producteur" et les temps de percée d'eau pour des configurations différentes de placement de puits, niveaux d'hétérogénéité et rapports de mobilité de fluides variés. Les modèles de connectivité proposés ont produit des résultats suffisamment précis et une performance compétitive au méta-niveau. Leur usage comme des précurseurs et prédicateurs ad hoc est bénéfique en étape du traitement préalable de la méthodologie. Avant le calage d'historique, un nombre approprié et gérable des modèles pertinents peut être identifié grâce à la comparaison des données de production disponibles avec les résultats de... / Computer-based workflows have gained a paramount role in development and exploitation of natural hydrocarbon resources and other subsurface operations. One of the crucial problems of reservoir modelling and production forecasting is in pre-selecting appropriate models for quantifying uncertainty and robustly matching results of flow simulation to real field measurements and observations. This thesis addresses these and other related issues. We have explored a strategy to facilitate and speed up the adjustment of such numerical models to available field production data. Originally, the focus of this research was on conceptualising, developing and implementing fast proxy models related to the analysis of connectivity, as a physically meaningful property of the reservoir, with advanced cluster analysis techniques. The developed methodology includes also several original probability-oriented approaches towards the problems of sampling uncertainty and determining the sample size and the expected value of sample information. For targeting and prioritising relevant reservoir models, we aggregated geostatistical realisations into distinct classes with a generalised distance measure. Then, to improve the classification, we extended the silhouette-based graphical technique, called hereafter the "entire sequence of multiple silhouettes" in cluster analysis. This approach provided clear and comprehensive information about the intra- and inter-cluster dissimilarities, especially helpful in the case of weak, or even artificial, structures. Finally, the spatial separation and form-difference of clusters were graphically visualised and quantified with a scale-invariant probabilistic distance measure. The obtained relationships appeared to justify and validate the applicability of the proposed approaches to enhance the characterisation and modelling of flow. Reliable correlations were found between the shortest "injector-producer" pathways and water breakthrough times for different configurations of well placement, various heterogeneity levels and mobility ratios of fluids. The proposed graph-based connectivity proxies provided sufficiently accurate results and competitive performance at the meta-level. The use of them like precursors and ad hoc predictors is beneficial at the pre-processing stage of the workflow. Prior to history matching, a suitable and manageable number of appropriate reservoir models can be identified from the comparison of the available production data with the selected centrotype-models regarded as the class representatives, only for which the full fluid flow simulation is pre-requisite. The findings of this research work can easily be generalised and considered in a wider scope. Possible extensions, further improvements and implementation of them may also be expected in other fields of science and technology.

Page generated in 0.1006 seconds