• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 172
  • 159
  • 26
  • 17
  • 6
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 376
  • 190
  • 143
  • 91
  • 88
  • 71
  • 61
  • 57
  • 51
  • 48
  • 45
  • 41
  • 40
  • 38
  • 37
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Towards Reducing Structural Interpretation Uncertainties Using Seismic Data / Vers la réduction des incertitudes d'interprétation structurale à l'aide de données sismiques

Irakarama, Modeste 25 April 2019 (has links)
Les modèles géologiques sont couramment utilisés pour estimer les ressources souterraines, pour faire des simulations numériques, et pour évaluer les risques naturels ; il est donc important que les modèles géologiques représentent la géométrie des objets géologiques de façon précise. La première étape pour construire un modèle géologique consiste souvent à interpréter des surfaces structurales, telles que les failles et horizons, à partir d'une image sismique ; les objets géologiques identifiés sont ensuite utilisés pour construire le modèle géologique par des méthodes d'interpolation. Les modèles géologiques construits de cette façon héritent donc les incertitudes d'interprétation car une image sismique peut souvent supporter plusieurs interprétations structurales. Dans ce manuscrit, j'étudie le problème de réduire les incertitudes d'interprétation à l'aide des données sismiques. Particulièrement, j'étudie le problème de déterminer, à l'aide des données sismiques, quels modèles sont plus probables que d'autres dans un ensemble des modèles géologiques cohérents. Ce problème sera connu par la suite comme "le problème d'évaluation des modèles géologiques par données sismiques". J'introduis et formalise ce problème. Je propose de le résoudre par génération des données sismiques synthétiques pour chaque interprétation structurale dans un premier temps, ensuite d'utiliser ces données synthétiques pour calculer la fonction-objectif pour chaque interprétation ; cela permet de classer les différentes interprétations structurales. La difficulté majeure d'évaluer les modèles structuraux à l'aide des données sismiques consiste à proposer des fonctions-objectifs adéquates. Je propose un ensemble de conditions qui doivent être satisfaites par la fonction-objectif pour une évaluation réussie des modèles structuraux à l'aide des données sismiques. Ces conditions imposées à la fonction-objectif peuvent, en principe, être satisfaites en utilisant les données sismiques de surface (« surface seismic data »). Cependant, en pratique il reste tout de même difficile de proposer et de calculer des fonctions-objectifs qui satisfassent ces conditions. Je termine le manuscrit en illustrant les difficultés rencontrées en pratique lorsque nous cherchons à évaluer les interprétations structurales à l'aide des données sismiques de surface. Je propose une fonction-objectif générale faite de deux composants principaux : (1) un opérateur de résidus qui calcule les résidus des données, et (2) un opérateur de projection qui projette les résidus de données depuis l'espace de données vers l'espace physique (le sous-sol). Cette fonction-objectif est donc localisée dans l'espace car elle génère des valeurs en fonction de l'espace. Cependant, je ne suis toujours pas en mesure de proposer une implémentation pratique de cette fonction-objectif qui satisfasse les conditions imposées pour une évaluation réussie des interprétations structurales ; cela reste un sujet de recherche. / Subsurface structural models are routinely used for resource estimation, numerical simulations, and risk management; it is therefore important that subsurface models represent the geometry of geological objects accurately. The first step in building a subsurface model is usually to interpret structural features, such as faults and horizons, from a seismic image; the identified structural features are then used to build a subsurface model using interpolation methods. Subsurface models built this way therefore inherit interpretation uncertainties since a single seismic image often supports multiple structural interpretations. In this manuscript, I study the problem of reducing interpretation uncertainties using seismic data. In particular, I study the problem of using seismic data to determine which structural models are more likely than others in an ensemble of geologically plausible structural models. I refer to this problem as "appraising structural models using seismic data". I introduce and formalize the problem of appraising structural interpretations using seismic data. I propose to solve the problem by generating synthetic data for each structural interpretation and then to compute misfit values for each interpretation; this allows us to rank the different structural interpretations. The main challenge of appraising structural models using seismic data is to propose appropriate data misfit functions. I derive a set of conditions that have to be satisfied by the data misfit function for a successful appraisal of structural models. I argue that since it is not possible to satisfy these conditions using vertical seismic profile (VSP) data, it is not possible to appraise structural interpretations using VSP data in the most general case. The conditions imposed on the data misfit function can in principle be satisfied for surface seismic data. In practice, however, it remains a challenge to propose and compute data misfit functions that satisfy those conditions. I conclude the manuscript by highlighting practical issues of appraising structural interpretations using surface seismic data. I propose a general data misfit function that is made of two main components: (1) a residual operator that computes data residuals, and (2) a projection operator that projects the data residuals from the data-space into the image-domain. This misfit function is therefore localized in space, as it outputs data misfit values in the image-domain. However, I am still unable to propose a practical implementation of this misfit function that satisfies the conditions imposed for a successful appraisal of structural interpretations; this is a subject for further research.
222

Débruitage et correction d'images IRM. Application à la caractérisation de produits agroalimentaires

Collewet, Guylaine 08 October 2008 (has links) (PDF)
L'imagerie par résonance magnétique (IRM) est une modalité non-invasive développée pour le diagnostic clinique. D'autres domaines se sont approprié cette technique, comme l'analyse de produits agroalimentaires. Le cadre applicatif de nos travaux est l'étude de la répartition des tissus adipeux chez le poisson en IRM bas champ. Au-delà de la visualisation, c'est la quantification des tissus qui nous intéresse ici. Une quantification précise requiert le débruitage des images et la correction des inhomogénéités d'intensité liées à la variation spatiale du champ magnétique radiofréquence (RF). En IRM pondérée-T1 utilisée ici, les inhomogénéités de la RF ont un effet complexe et introduisent un biais qui dépend du tissu en présence. La méthode proposée aborde de façon unifiée la correction et le débruitage dans le cadre de la résolution des problèmes inverses. Elle prend en compte un modèle de biais issu de la physique de l'IRM auquel s'ajoute un modèle de l'échantillon vu comme une somme pondérée de tissus. La méthode est basée sur la minimisation d'un critère pénalisé comprenant des termes d'attache aux données et des termes de régularisation assurant des solutions spatialement lisses tout en conservant les contours dans l'image. Elle impose d'acquérir plusieurs images avec des protocoles différents. La minimisation est basée sur une résolution par blocs de variables, chaque bloc faisant appel à l'algorithme du gradient conjugué. Des résultats obtenus sur des images de poisson valident l'approche. Nous présentons de plus les résultats préliminaires d'une démarche de planification d'expérience pour choisir les protocoles permettant une estimation optimale des variables.
223

Restauration d'images de la rétine corrigées par optique adaptative

Chenegros, Guillaume 06 November 2008 (has links) (PDF)
L'imagerie de la rétine, in vivo et à haute résolution, est rendue difficile à cause des aberrations de l'œil, qui limitent la résolution. La mesure et la correction de ces aberrations sont possibles grâce à l'utilisation de l'optique adaptative (OA). Un banc d'imagerie rétinienne avec OA a été développé par l'Observatoire de Paris et est actuellement utilisé sur un panel de patients à l'Hôpital des XV-XX à Paris. <br />En imagerie plein champ, le caractère tridimensionnel de l'objet d'intérêt (la rétine) rend l'interprétation des images difficile puisque tous les plans qui constituent l'objet contribuent à la formation de chaque plan image. De plus, la correction par OA est toujours partielle. Il est donc nécessaire de déconvoluer les images enregistrées afin d'une part de séparer numériquement les plans de l'objet et d'autre part, d'améliorer la résolution latérale. Une méthode de déconvolution nécessite généralement, pour donner des résultats satisfaisants, d'une part une bonne connaissance de la réponse impulsionnelle (RI) du système complet, et d'autre part un ajustement de paramètres de réglage appelés hyper-paramètres. <br />Nous avons développé deux méthodes de déconvolution 3D. La première méthode suppose la RI du système connu. La deuxième est une extension tridimensionnelle de la méthode de diversité de phase et permet d'estimer la RI du système conjointement à l'objet d'intérêt. <br />Par ailleurs, nous avons développé une technique d'estimation non supervisée (« automatique ») des <br />hyper-paramètres, qui permet d'envisager une utilisation efficace de la déconvolution 3D même par des <br />utilisateurs peu familiers du traitement des images tels que médecins ou biologistes. <br />Ces méthodes ont été validées d'abord sur des données simulées réalistes. Ensuite nous avons déve- <br />loppé à l'ONERA un banc d'imagerie 3D pour effectuer une validation expérimentale. Nous présenterons <br />les résultats préliminaires obtenus sur des images acquises sur ce banc.
224

Systèmes performants pour la limitation optique large bande dans le visible et le proche infrarouge

Cao, Bertrand 09 January 2009 (has links) (PDF)
La protection des systèmes d'observations contre les lasers impulsionnels et accordables en longueurs d'onde passe par l'utilisation de matériaux non linéaires auto activés. Parmi ces matériaux, les absorbeurs à deux photons (ADP), qui suscitent un intérêt croissant de par les nombreuses applications, constituent une solution intéressante pour obtenir des limiteurs présentant une bonne transparence et une réponse rapide. Dans une première partie, nous étudions différentes familles de chromophores ADP pour la limitation optique (OL): systèmes branchés purement organiques à base de fluorène (molécules octupolaires et en "V", dendrimères) optimisés pour le visible, et complexes organométalliques pour le proche infrarouge. Dans une seconde partie, une nouvelle voie reposant sur la combinaison de nanotubes de carbones avec d'autres matériaux optiquement non linéaires est explorée afin d'induire des effets coopératifs susceptibles d'améliorer les performances de LO. Nous nous sommes d'abord intéressés à des nanotubes de carbone combinés avec des nano particules d'or, puis nous nous sommes focalisés sur l'étude d'un nouveau système hybride nanotube de carbone/fullerène C6o. Dans ce dernier système, les chromophores C6o absorbeurs saturables inverses (ASI) sont directement greffés à la surface des nanotubes. Les résultats obtenus ont permis de mettre en évidence un effet coopératif résonnant entre les deux entités, pour lequel nous proposons une interprétation physique basée sur un mécanisme de recombinaison Auger.
225

Exploitation de corrélations spatiales et temporelles en tomographie par émission de positrons

Sureau, Florent 26 June 2008 (has links) (PDF)
Nous proposons, implémentons et évaluons dans cette thèse des algorithmes permettant d'améliorer la résolution spatiale dans les images et débruiter les données en tomographie par émission de positrons. Ces algorithmes ont été employés pour des reconstructions sur une caméra à haute résolution (HRRT) et utilisés dans le cadre d'études cérébrales, mais la méthodologie développée peut être appliquée à d'autres caméras et dans d'autres situations. Dans un premier temps, nous avons développé une méthode de reconstruction itérative intégrant un modèle de résolution spatiale isotropique et stationnaire dans l'espace image, mesuré expérimentalement. Nous avons évalué les apports de cette méthode sur simulation Monte-Carlo, examens physiques et protocoles cliniques en la comparant à un algorithme de reconstruction de référence. Cette étude suggère une réduction des biais de quantification, en particulier dans l'étude clinique, et de meilleures corrélations spatialles et temporelles au niveau des voxels. Cependant, d'autres méthodes doivent être employées pour réduire le niveau de bruit dans les données. Dans un second temps, une approche de débruitage maximum a posteriori adaptée aux données dynamiques et permettant de débruiter temporellement les données d'acquisition (sinogrammes) ou images reconstruites a été proposé. L'a priori a été introduit en modélisant les coefficients dans une base d'ondelettes de l'ensemble des signaux recherchés (images ou sinogrammes). Nous avons comparé cette méthode à une méthode de débruitage de référence sur des simulations répliquées, ce qui illustre l'intérêt de l'approche de débruitage des sinogrammes.
226

Contrôle des phénomènes d'interaction fluide-structure, application à la stabilité aéroélastique

Moubachir, Marwan 15 November 2002 (has links) (PDF)
Dans cette thèse, nous nous sommes intéressés au problème de la stabilité aéroélastique d'une structure au sein d'un écoulement fluide incompressible. La motivation de ce travail est le dimensionnement au vent des ouvrages d'art du génie civil, par l'analyse et la simulation numérique de l'interaction vent-structure. Notre approche consiste à chercher la vitesse de vent minimale permettant, soit de maximiser les effets du vent sur la structure, soit de contraindre la structure à suivre une évolution instable donnée. Après une analyse générale de ces concepts, nous montrons, numériquement, qu'il est possible de contrôler, par une donnée frontière, les trajectoires de l'écoulement d'un fluide incompressible autour d'un profil fixe. Dans une deuxième partie, nous obtenons les systèmes linéarisé et adjoint lorsque le contrôle s'exerce à travers le mouvement du domaine fluide, grâce à de nouveaux outils de dérivation de forme. Finalement dans une troisième partie, nous obtenons le système adjoint associé au problème de suivi d'instabilités pour une structure rigide élastiquement supportée au sein d'un écoulement fluide incompressible, en utilisant une formulation Min-Max. Dans le cas plus complexe d'une structure élastique en grands déplacements, nous obtenons la structure du problème linéarisé, par l'utilisation de la dérivation intrinsèque liée aux perturbations de l'identité.
227

TRAITEMENT STATISTIQUE DU SIGNAL SPECTROMETRIQUE :<br />Etude du désempilement de spectre en énergie pour la spectrométrie gamma

Trigano, Thomas 15 December 2005 (has links) (PDF)
Dans le cadre de la spectrométrie Gamma, on s'intéresse à la caractérisation des éléments radioactifs d'une source à partir des photons gamma émis par cette dernière. A des taux de comptage élevés, des perturbations liées à l'aspect stochastique du signal étudié sont susceptibles de gêner l'identification des éléments radioactifs. En particulier, les arrivées aléatoires des photons sont susceptibles de produire des empilements. Ce phénomène introduit une distortion du spectre en énergie, notamment l'apparition de faux pics multiples et une distortion du continuum Compton qui peut masquer des pics de faible intensité.<br /><br />L'objectif de cette étude est de corriger les distortions des spectres en énergie causées par les empilements d'impulsions photoniques. Nous nous plaçons pour cela dans un cadre non-paramétrique ; nous établissons une relation non-linéaire entre la loi des observations et la densité de probabilité que l'on cherche à estimer. Elle permet de considérer ce problème dans le cadre de la déconvolution non-linéaire de densités et de l'estimation non-paramétrique à partir de mesures indirectes.<br /><br />A partir de cette relation, nous proposons un estimateur obtenu par inversion directe. Nous montrons que cet estimateur est consistant et que sa vitesse de convergence au sens de la norme L2 est proche des vitesses non-paramétriques usuelles.<br /><br />Nous illustrons ces aspects par des résultats numériques obtenus sur des simulations et des spectres en énergie obtenus à partir du système ADONIS développé par le CEA Saclay. Nous montrons que les distortions dues aux empilements d'impulsions photoniques sont bien corrigées par les algorithmes dérivant de nos estimateurs.
228

Etude et modélisation des propriétés de systèmes réactifs thermodurcissables en cours de réticulation pour la simulation du procédé RTM

LEROY, Eric 27 November 2000 (has links) (PDF)
L'objectif de la thèse est de développer des méthodologies d'étude et de caractérisation permettant de modéliser l'évolution du comportement de polymères thermodurcissables lors de leur mise en œuvre par le procédé de Moulage par Transfert de Résine (RTM).<br />La première partie donne une description globale de ce procédé et du savoir-faire actuel en matière de modélisation. Elle met en évidence la nécessité d'une modélisation précise des comportements cinétique et chimiorhéologique du polymère thermodurcissable utilisé.<br />Les travaux réalisés dans ces deux domaines sont ensuite présentés et illustrés par la caractérisation d'un système composite modèle dicyanate-ester / fibres de verre.<br />La deuxième partie concerne la modélisation des cinétiques de réticulation et a pour finalité de développer les méthodes de caractérisation par calorimétrie, ces dernières apparaissant comme une étape charnière entre les connaissances en chimie des thermodurcissables et la modélisation du procédé RTM.<br />Enfin, la dernière partie regroupe les travaux réalisés dans les domaines de la rhéologie et des écoulements. Ceux-ci concernent à la fois la caractérisation de la perméabilité des renforts, l'étude de la chimiorhéologie et le suivi in situ des propriétés rhéologiques au cours du procédé par spectrométrie diélectrique.
229

Méthodes de Monte Carlo en Vision Stéréoscopique

Senegas, Julien 13 September 2002 (has links) (PDF)
Cette thèse a pour objet l'étude de l'incertitude attachée à l'estimation de la géometrie d'une scène à partir d'un couple stéréoscopique d'images. La mise en correspondance des points homologues d'un couple suppose la similarité locale des deux images et nécessite une information radiométrique discriminante. Dans de nombreuses situations cependant (déformations géométriques, bruit d'acquisition, manque de contraste, ....), ces hypothèses sont mises en défaut et les erreurs d'appariemment qui en résultent dépendent fortement de l'information contenue dans le couple et non du sytème stéréoscopique lui-meme. <br />Afin d'aborder ce problème, nous proposons un cadre bayésien et l'application de méthodes de Monte Carlo par chaînes de Markov. Celles-ci consistent à simuler la distribution conditionnelle du champ de disparité connaissant le couple stéréoscopique et permettent de déterminer les zones où des erreurs importantes peuvent apparaitre avec une probabilité éventuellement faible. Différents modèles stochastiques sont comparés et testés a partir de scènes stéréoscopiques SPOT, et nous donnons quelques pistes pour étendre ces modèles à d'autres types d'images. Nous nous intéressons également au probleme de l'estimation des paramètres de ces modèles et proposons un certain nombre d'algorithmes permettant une estimation automatique. Enfin, une part importante du travail est consacrée à l'étude d'algorithmes de simulation reposant sur la théorie des chaînes de Markov. L'apport essentiel réside dans l'extension de l'algorithme de Metropolis-Hastings dans une perspective multi-dimensionnelle. Une application performante reposant sur l'utilisation de la loi gaussienne est donnée. De plus, nous montrons comment le recours à des techniques d'échantillonnage d'importance permet de diminuer efficacement le temps de calcul.
230

Modélisation mathématique et assimilation de données lagrangiennes pour l'océanographie

Nodet, Maëlle 18 November 2005 (has links) (PDF)
Dans ce travail nous nous sommes intéressés à des problèmes de modélisation et d'assimilation de données en océanographie, tant d'un point de vue théorique que numérique. L'étude de l'océan est cruciale pour de nombreuses raisons (changement climatique, météorologie, navigation commerciale et militaire, etc.). Dans une première partie nous étudions les équations primitives linéaires tridimensionnelles de l'océan, et nous donnons des résultats nouveaux de régularité en calculant explicitement le terme de pression. Dans une deuxième partie nous étudions l'assimilation variationnelle de données lagrangiennes dans un modèle d'océan. L'assimilation de données est l'ensemble des méthodes qui permettent de combiner de façon optimale, en vue d'effectuer des prévisions, deux sortes d'informations disponibles sur un système physique : les observations d'une part et les équations du modèle d'autre part. Nous utilisons une méthode variationnelle pour assimiler des données lagrangiennes, à savoir les positions de flotteurs dérivant dans l'océan. Nous commençons par établir de nouvelles estimations a priori pour les équations primitives afin d'étudier le problème théorique de contrôle optimal associé. Puis nous décrivons l'implémentation de la méthode variationnelle dans un modèle réaliste d'océan aux équations primitives. Enfin nous effectuons de nombreuses expériences numériques et notamment plusieurs études de sensibilité, qui montrent que l'assimilation de données lagrangiennes est techniquement réalisable et pertinente d'un point de vue océanographique.

Page generated in 0.0551 seconds