• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 91
  • 38
  • 7
  • Tagged with
  • 133
  • 46
  • 39
  • 22
  • 22
  • 20
  • 18
  • 14
  • 14
  • 14
  • 14
  • 13
  • 13
  • 13
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Deux méthodes d'inférence statistique appliquées aux données de sismique réflexion profonde : détection de signaux et localisation d'onde

Van Der Baan, Mirko 22 November 1999 (has links) (PDF)
L'objectif de toute acquisition de données géophysiques est d'obtenir une image plus précise de l'intérieur de la Terre. Afin de préciser cette image, on utilise principalement des méthodes d'inférence déterministe ayant comme but de fournir une description exacte de chaque détail particulier. Contraire aux méthodes déterministes, les approches stat- istiques n'essaient de saisir que les caractéristiques principales de l'ensemble des déiails. Ceci réduit la complexité mathématique, nous permettant ainsi de mieux étudier certains phénomènes physiques. De plus, elles peuvent nous aider à sonder la Terre à une échelle plus petite que la résolution des méthodes déterministes. Finalement, elles peuvent nous fournir une appréciation de vraisemblance, nous aidant ainsi à prendre des décisions ou à reconnaître des signaux. Dans ce mémoire, nous avons utilisé ces 3 avantages sur 2 problèmes différents. D'abord , nous les avons employés afin d 'augmenter le rapport signal sur bruit en détectant des réflexions dans des données de sismique réflexion profonde d'une faible qualité. Ceci nous a permis de faciliter l'interprétation du profil considéré. Deux méthodes différentes ont été considérées, celle dite Classification par Vraisemblance Maximale et celle des Réseaux de Neurones. Ensuite, nous les avons utilisés afin d 'étudier le processus de la diffusion forte dans un milieu acoustique, stratifié et aléatoire. Afin d 'étudier ce problème, nous avons appliqué la théorie de la localisation d 'onde prédisant l'atténuation apparente et la dispersion d 'une impulsion traversant un tel milieu. Cette théorie nous a aussi permis d 'estimer la magnitude et la dimension typiques des fluctuations des vitesses et le facteur de qualité de l'atténuation intrinsèque sous le Bassin de Mauléon dans les Pyrénées Occidentales. Ceci nous a montré que la croùte supérieure y est plus hétérogène et plus atténuante que la croute inférieure et que les dimensions typiques y sont plus petites.
102

Prise en compte des erreurs de mesure dans l'analyse du risque associe a l'exposition aux rayonnements ionisants dans une cohorte professionnelle : application à la cohorte française des mineurs d'uranium

Allodji, Setcheou Rodrigue 09 December 2011 (has links) (PDF)
Dans les études épidémiologiques, les erreurs de mesure de l'exposition étudiée peuvent biaiser l'estimation des risques liés à cette exposition. Un grand nombre de méthodes de correction de l'effet de ces erreurs a été développé mais en pratique elles ont été rarement appliquées, probablement à cause du fait que leur capacité de correction et leur mise en œuvre sont peu maîtrisées. Une autre raison non moins importante est que, en l'absence de données répétées ou de données de validation, ces méthodes de correction exigent la connaissance détaillée des caractéristiques (taille, nature, structure et distribution) des erreurs de mesure. L'objectif principal de cette thèse est d'étudier l'impact de la prise en compte des erreurs de mesure dans les analyses du risque de décès par cancer du poumon associé à l'exposition au radon à partir de la cohorte française des mineurs d'uranium (qui ne dispose ni de données répétées, ni de données de validation). Les objectifs spécifiques étaient (1) de caractériser les erreurs de mesure associées aux expositions radiologiques (radon et ses descendants, poussières d'uranium et rayonnements gamma), (2) d'étudier l'impact des erreurs de mesure de l'exposition au radon et à ses descendants sur l'estimation de l'excès de risque relatif (ERR) de décès par cancer du poumon et (3) d'étudier et comparer la performance des méthodes de correction de l'effet de ces erreurs. La cohorte française des mineurs d'uranium comprend plus de 5000 individus exposés de manière chronique au radon et à ses descendants qui ont été suivis en moyenne pendant 30 ans. Les erreurs de mesure ont été caractérisées en prenant en compte l'évolution des méthodes d'extraction et de la surveillance radiologique des mineurs au fil du temps. Une étude de simulation basée sur la cohorte française des mineurs d'uranium a été mise en place pour étudier l'impact de ces erreurs sur l'ERR ainsi que pour comparer la performance des méthodes de correction. Les résultats montrent que les erreurs de mesure de l'exposition au radon et à ses descendants ont diminué au fil des années. Pour les premières années, avant 1970, elles dépassaient 45 % et après 1980 elles étaient de l'ordre de 10 %. La nature de ces erreurs a aussi changé au cours du temps ; les erreurs essentiellement de nature Berkson ont fait place à des erreurs de nature classique après la mise en place des dosimètres individuels à partir de 1983. Les résultats de l'étude de simulation ont montré que les erreurs de mesure conduisent à une atténuation de l'ERR vers la valeur nulle, avec un biais important de l'ordre de 60 %. Les trois méthodes de correction d'erreurs considérées ont permis une réduction notable mais partielle du biais d'atténuation. Un avantage semble exister pour la méthode de simulation extrapolation (SIMEX) dans notre contexte, cependant, les performances des trois méthodes de correction sont fortement tributaires de la détermination précise des caractéristiques des erreurs de mesure.Ce travail illustre l'importance de l'effet des erreurs de mesure sur les estimations de la relation entre l'exposition au radon et le risque de décès par cancer du poumon. L'obtention d'estimation de risque pour laquelle l'effet des erreurs de mesure est corrigé devrait s'avérer d'un intérêt majeur en support des politiques de protection contre le radon en radioprotection et en santé publique.
103

The Emergence of Carbon Capture and Storage Techniques in the Power Sector / L’émergence des techniques de Captage, transport et Stockage géologique du Carbone dans le secteur électrique

Renner, Marie 08 April 2015 (has links)
La problématique de cette thèse porte sur les conditions technico-économiques et sociales d’émergence des techniques de Captage, transport et Stockage géologique du Carbone (CSC) dans le secteur électrique. Il existe effectivement un hiatus entre le niveau actuel de déploiement du CSC et son rôle dans les scénarii climatique de long terme. Les travaux s’appuient sur deux approches complémentaires ; l’approche positive met en exergue les déterminants économiques et sociaux nécessaires à l’émergence du CSC et répond à deux interrogations : pour quel prix du CO2 devient-il intéressant d’investir dans des centrales CSC ? Quand l’usage du CSC est-il socialement optimal ? Sur le plan normatif, diverses recommandations relatives au déploiement optimal du CSC sont apportées. Elles concernent notamment le portefeuille optimal d’instruments de soutien au CSC. Cette thèse s’articule en quatre chapitres. Dans l’optique de minimiser les coûts de la transition énergétique, les deux premiers chapitres embrassent la vision investisseur et mettent en évidence les déterminants économiques indispensables au déploiement commercial du CSC. Les deux derniers chapitres adoptent la vision de la puissance publique. Bien que compétitive, une technologie peut ne pas se développer du fait de problèmes d’acceptabilité sociale ; c’est l’objet du modèle du Chapitre 3. Le Chapitre 4 élargit le propos et intègre la problématique de décision dans le CSC en univers ambigu, en s’appuyant sur des simulations numériques. / This thesis analyses the techno-economic and social conditions required for the emergence of Carbon Capture and Storage (CCS) techniques in the power sector, in compliance with CCS role in long-term mitigation scenarios. The research combines two complementary approaches: the positive one deals with the economic and social determinants necessary to trigger CCS investments, and addresses two significant issues: (1) for which CO2 price is it worth investing in CCS plants, and (2) when is CCS use socially optimal? The normative approach gives recommendations on how CCS can best be deployed as part of a least cost approach to climate change mitigation. Notably, recommendations are provided about the optimal combination of CCS policy supports that should be implemented. This Ph.D. dissertation is composed of four chapters. The first two chapters embrace the investor’s vision and highlight the determinants necessary for CCS commercial emergence. The last two chapters embrace the public decision-makers’ vision. Based on the fact that, although cost-effective, one technology may not be deployed because of social acceptance issues, Chapter 3 deals with CCS public acceptance and optimal pollution. Chapter 4 goes further and addresses the optimal CCS investment under ambiguity by providing a decision criterion with simulations on the European Union’s 2050 Energy Roadmap.
104

Modélisation du canal de propagation Terre-Espace en bandes Ka et Q/V : synthèse de séries temporelles, variabilité statistique et estimation de risque / Modelling of the Earth-Space propagation channel in Ka and Q/V bands : time series synthesis, statistical variability and risk estimation

Boulanger, Xavier 15 March 2013 (has links)
Les bandes de fréquences utilisées conventionnellement pour les systèmes fixes de télécommunication par satellites (bandes C et Ku i.e. 4-15 GHz) sont congestionnées. Néanmoins, le marché des télécommunications civil et de défense accuse une demande de plus en plus importante en services multimédia haut-débit. Par conséquent, l'augmentation de la fréquence porteuse vers les bandes Ka et Q/V (20-40/50 GHz)est activement étudiée. Pour des fréquences supérieures à 5 GHz, la propagation des signaux radioélectriques souffre de l'atténuation troposphérique. Parmi les différents contributeurs à l'affaiblissement troposphérique total(atténuation, scintillation, dépolarisation, température de bruit du ciel), les précipitations jouent un rôle prépondérant. Pour compenser la détérioration des conditions de propagation, des techniques de compensation des affaiblissements (FMT: Fade Mitigation Technique) permettant d'adapter en temps réel les caractéristiques du système en fonction de l'état du canal de propagation doivent être employées. Une alternative à l'utilisation de séries temporelles expérimentales peu nombreuses est la génération de séries temporelles synthétiques d'atténuation due à la pluie et d'atténuation totale représentatives d'une liaison donnée.Le manuscrit est organisé autour de cinq articles. La première contribution est dédiée à la modélisation temporelle de l'affaiblissement troposphérique total. Le deuxième article porte sur des améliorations significatives du modèle de génération de séries temporelles d'atténuation due à la pluie recommandé par l'UITR.Les trois contributions suivantes constituent une analyse critique et une modélisation de la variabilité des statistiques du 1er ordre utilisées lors des tests des modèles de canal. La variance de l'estimateur statistique des distributions cumulatives complémentaires de l'atténuation due à la pluie et de l'intensité de précipitation est alors mise en évidence. Un modèle à application mondiale paramétré au moyen de données expérimentales est proposé. Celui-ci permet, d'une part, d'estimer les intervalles de confiance associés aux mesures de propagation et d'autre part, de quantifier le risque en termes de disponibilité annuelle associée à la prédiction d'une marge de propagation donnée. Cette approche est étendue aux variabilités des statistiques jointes. Elle permet alors une évaluation statistique de l'impact des techniques de diversité de site sur les performances systèmes, tant à microéchelle(quelques kms) qu'à macro-échelle (quelques centaines de kms). / Nowadays, C and Ku bands used for fixed SATCOM systems are totally congested. However, the demand of the end users for high data rate multimedia services is increasing. Consequently, the use of higher frequency bands (Ka: 20 GHz and Q/V 40/50 GHz) is under investigation. For frequencies higher than 5 GHz, radiowave propagation is strongly affected by tropospheric attenuation. Among the different contributors, rain is the most significant. To compensate the deterioration of the propagation channel, Fade Mitigation Techniques (FMT) are used. The lack of experimental data needed to optimize the real-time control loops of FMT leads tothe use of rain attenuation and total attenuation time series synthesizers. The manuscript is a compilation of five articles. The first contribution is dedicated to the temporal modelling of total impairments. The second article aims at providing significant improvements on the rain attenuation time series synthesizer recommended by ITU-R. The last three contributions are a critical analysis and a modelling of the variability observed on the 1st order statistics used to validate propagation channel models. The variance of the statistical estimator of the complementary cumulative distribution functions of rainfall rate and rain attenuation is highlighted. A worldwide model parameterized in compliance with propagation measurements is proposed. It allows the confidence intervals to be estimated and the risk on a required availability associated with a given propagation margin prediction to be quantified. This approach is extended to the variability of joint statistics. It allows the impact of site diversity techniques on system performances at small scale (few kms) and large scale (few hundred of kms) to be evaluated.
105

Roles of dopants, interstitial O2 and temperature in the effects of irradiation on silica-based optical fibers / Rôle des dopants, O2 interstitiel et de la température dans les effets de l'irradiation sur les fibres optiques à base de silice

Di Francesca, Diego 05 February 2015 (has links)
Dans ce travail de thèse, nous avons étudié l'effet des rayonnements ionisants (rayons X et γ) jusqu'à une dose maximale de 1 Grad sur différents types de fibres multimodes (dopées -P, -P-Ce, -Ge, -Ge-F, -Ge-Ce et -N). Les caractérisations ont été réalisées principalement avec trois techniques expérimentales : online Atténuation Induite par Radiation en temps réel (RIA), Résonance Paramagnétique Electronique (EPR), Micro-Luminescence (ML). Dans la première partie du travail de cette thèse, nous avons étudié la réponse aux radiations de différents types de fibres optiques. L'absorption liée aux défauts du phosphore induits par irradiation a été étudiée par des mesures RIA dans le domaine spectral UV-Visible. Les mesures EPR nous permis de détecter les défauts POHC, P1 et P2. En particulier, pour la détection de P1 et P2, nous avons utilisé le mode de détection de la seconde harmonique pour déterminer la cinétique de croissance des P1 et P2 en fonction de la dose. Nous avons également étudié les effets dus au changement des conditions de fibrage et ceux liés à la variation de la température d'irradiation (25-280 ° C). Nous avons aussi étudié l’effet du codopage du coeur de la fibre avec du Cérium. Dans ce cas, nous avons observé une production moins importante de centres POHC et P2 sous irradiation. De plus, les mesures EPR ont montré que la génération des défauts P1 n’est pas sensiblement influencée par le codopage avec le Cérium. En ce qui concerne les fibres optiques dopées Ge, on a étudié trois types de dopage : Ge seul, co-dopage Ge-F et Ge-Ce. Pour chaque type, nous avons examiné trois conditions de fibrage. La réponse à l’irradiation de ces fibres a été étudiée par les trois techniques utilisées. Plus particulièrement la ML, nous a permis d'obtenir une vision plus complète du rôle du codopant et des précurseurs dans la formation des défauts induits par l'irradiation. Nous avons également étudié la réponse au rayonnement de la fibre dopée N avec trois différentes conditions de fibrage. Les réponses à l’irradiation dans les régions spectrales UV-visible ont été obtenues par des mesures RIA. Par EPR, nous avons pu détecter deux défauts liés à l'azote pour les doses élevées de radiation. Enfin, les mesures ML sur les fibres irradiées ont montré trois bandes d'émission dans le visible qui ont été attribuées clairement à des centres émetteurs liés à l'azote. Dans la deuxième partie de la thèse, nous avons étudié les effets liés au chargement en oxygène des fibres étudiées. Par des mesures en microspectroscopie Raman, nous démontrons qu'un traitement à haute température et haute pression peut favoriser l’introduction d’une grande quantité de O2 dans les fibres optiques à cœur de silice pure (PSC) ou dopées F, Ge ou P. Les réponses à l’irradiation de certaines des fibres optiques chargées en O2 ont été étudiés (et en particulier PSC et celle dopée F. Sur la base des données de la littérature, nous avons effectué les décompositions des spectres RIA en fonction de la dose. De plus, l'étude EPR des fibres optiques dopées P et chargées en O2 a montré une forte réduction des défauts P1 et P2 comparées aux fibres non traitées. Dans cette partie de la thèse, j’ai également présenté les résultats concernant la radioluminescence infrarouge (1272 nm) des molécules O2 dans la fibre optique. La faisabilité d'un capteur de radiation pour des environnements sous fortes doses et forts débits de dose a été discutée / In this Thesis work we have investigated the effect of ionizing irradiation (X and γ rays) up to 1 Grad on different types of multimode optical fibers (P-doped, P-Ce-doped , Ge-doped, Ge-F-doped, Ge-Ce-doped, and N-doped). The experiments were carried out by three main experimental techniques: online Radiation Induced Attenuation (RIA), Electron Paramagnetic Resonance (EPR) and Confocal Micro-Luminescence (CML). In the first part of the Thesis work we report on the radiation response of several types of optical fibers. The absorption due to radiation induced P-related defects was studied by RIA in the UV-Visible domain. Moreover, by EPR measurements we were able to detect POHC, P1 and P2 defects. In particular, for the detection of P1 and P2 defects we have validated the use of EPR second-harmonic detection mode which allowed us to obtain the growth kinetics of P1 and P2 with the dose. The effects due to the variation of the drawing conditions of the fibers were investigated as well as the ones due to the change of the temperature of irradiation (from 25 to 280 °C). Finally, concerning the P-doped OFs, we report on the effects due to the Cerium codoping of the core of the optical fiber. We observed a reduced generation of POHC and P2 centers under irradiation. However, EPR investigation has shown that the generation of P1 defects is essentially unaffected by the Ce-codoping. Regarding Ge-doped optical fibers we report on three basic typologies: Ge-doped, Ge-F-doped and Ge-Ce-doped. For each fiber typology we investigated three drawing conditions. The radiation responses of these fibers were characterized by RIA and EPR measurements. Furthermore, performing CML measurements we were able to obtain further insight on the role of the co-dopants and of the defect precursors in determining the radiation induced defects. We have also investigated the radiation response of N-doped OFs (three drawing conditions). The radiation responses in the UV-Visible domains were obtained by RIA, and by EPR measurements we were able to detect the signals of two N-related defects at high radiation doses. Finally, CML measurements on irradiated samples have shown three emission bands in the visible domain which are tentatively assigned to N-related centers. In the second part of the Thesis we report on the effects of an O2 loading treatment produces on some of the investigated samples. By micro-Raman measurements we demonstrate that a high pressure high temperature treatment can incorporate high quantity of O2 into Pure-Silica-Core (PSC), F, Ge and P doped optical fibers. The radiation responses of some of the O2-loaded optical fibers were investigated with particular regard to the fluorine doped and pure-silica-core optical fibers. On the basis of literature data we performed band decompositions of the RIA spectra as a function of the dose. Moreover, the EPR study of the O2 loaded P-doped optical fiber have shown a strong reduction of the signals associated to the P1 and P2 defects as compared to the untreated fibers. In this part of the thesis we also report on the characterization of the near infrared radioluminescence (1272 nm) of O2 molecules embedded in the optical fiber matrix and the feasibility of a radiation sensor based on this phenomenon for environments characterized by high radiation doses and high dose-rates
106

Use of mode coupling to enhance sound attenuation in acoustic ducts : effects of exceptional point / Utilisation de couplage de modes pour l'amplification de l'atténuation du son dans les conduits acoustiques : effets du point exceptionnel

Xiong, Lei 24 March 2016 (has links)
Deux stratégies sont présentées à utiliser des effets de couplage de modes pour l’amplification de l’atténuation du son dans les conduits acoustiques. La première est de coupler le mode incident propagatif avec un mode localisé, aussi appelé résonance de Fano. Cette stratégie est présentée et validée dans un système conduit-cavité et un guide d’onde partiellement traité en paroi avec un matériau à réaction locale. La méthode “R-matrix” est introduite pour résoudre le problème de propagation d’onde. Une annulation de la transmission se produit quand un mode piégé (qui est formé par les interférences de deux modes voisins) est excité dans le système ouvert. Ce phénomène est aussi lié au croisement évité des valeurs propres et à un point exceptionnel. Dans la seconde stratégie, un réseau d’inclusions rigides périodiques est intégré dans une couche poreuse pour améliorer l’atténuation du son à basse fréquence. Le couplage de modes est du à la présence de ces inclusions. Le théorème de Floquet-Bloch est proposé pour analyser l’atténuation du son dans un guide d’onde périodique en 2D. Un croisement de l’atténuation de deux ondes de Bloch est observé. Ce phénomène est utilisé pour expliquer le pic de pertes en transmission observé expérimentalement et numériquement dans un guide 3D partiellement traitée par un matériau poreux avec des inclusions périodiques. Enfin, le comportement acoustique d’un liner purement réactif dans un conduit rectangulaire avec et sans écoulement est étudié. Dans une certaine gamme de fréquence, aucune onde ne peut se propager à contre sens de l’écoulement. Par analyse des différent modes à l’aide de la relation de dispersion, il est démontré que le son peut être ralenti et même arrêté. / Two strategies are presented to use the mode coupling effects to enhance sound attenuation in acoustic ducts. The strategy is to couple the incoming propagative mode with the localized mode, which is also called Fano resonance. This strategy is presented and validated in a duct-cavity system and a waveguide partially lined with a locally reacting material. The R-matrix method is introduced to solve the propagation problems. A zero in the transmission is present, due to the excitation of a trapped mode which is formed by the interferences of two neighboured modes. It is also linked to the avoided crossing of the eigenvalues and exceptional point. In the second strategy, a set of periodic rigid inclusions are embedded in a porous lining to enhance sound attenuation at low frequencies. The mode coupling is due to the presence of the embedded inclusions. Floquet - Bloch theorem is proposed to investigate the attenuation in a 2D periodic waveguide. Crossing is observed between the mode attenuations of two Bloch waves. The most important and interesting figure is that near the frequency where the crossing appears, an attenuation peak is observed. This phenomenon can be used to explain the transmission loss peak observed numerically and experimentally in a 3D waveguide partially lined by a porous material embedded with periodic inclusions. Finally, the acoustical behaviours of a purely reacting liner in a duct in absence and presence of flow are investigated. The results exhibit an unusual acoustical behaviour : for a certain range of frequencies, no wave can propagate against the flow. a negative group velocity is found, and it is demonstrated that the sound can be slowed down and even stopped.
107

Segmentation d'image échographique par minimisation de la complexité stochastique en vue du diagnostic sénologique.

Jaegler, Arnaud 18 January 2011 (has links)
L'objectif de cette thèse est de proposer et d'étudier une méthode de segmentation qui soit adaptée à l'imagerie échographique ultrasonore (US) et qui tienne compte de certaines contraintes rencontrées en milieu clinique. De ce fait, cette méthode se doit d'être robuste au bruit de speckle et à l'atténuation des ondes US dans le milieu, mais aussi rapide et ne nécessiter que peu, voire aucun paramètre à régler par l'opérateur. Dans ce cadre, les solutions fondées sur des contours actifs fondés sur la Minimisation de la Complexité Stochastique ont été étudiées. L'impact de différentes modélisations du speckle sur les résultats de ces techniques de segmentation a été caractérisé. Il a été montré qu'il est important de prendre en compte les variations de l'intensité moyenne du speckle induites par l'atténuation dans chaque région de l'image, à la fois pour la segmentation et pour l'analyse des propriétés du speckle. De plus, une stratégie hiérarchique de segmentation a été développée. Celle-ci permet notamment d'accroître la qualité des segmentations et de diminuer les temps de calcul.Les algorithmes de segmentation considérés étaient initialement conçus pour des formes polygonales peu adaptées à celles rencontrées dans le cadre d'applications médicales. Nous avons donc développé un nouveau modèle de contour fondé sur la théorie de l'information qui permet toujours une mise en oeuvre rapide des algorithmes et ne dépend d'aucun paramètre à régler par l'utilisateur. Testé sur des images synthétiques et réelles de fantômes échographiques, ce nouveau modèle permet de mieux décrire les formes régulières et arrondies des objets rencontrés en imagerie échographique. / The purpose of this PhD thesis is to propose and study a segmentation method adapted to echographic ultrasound imaging that could be clinically operational (i.e. fast and parameter-free) and robust to both the speckle noise and the attenuation of the ultrasonic signal in the medium. The solutions we studied rely on statistical active contour methods that are based on the Minimization of the Stochastic Complexity (MSC). The impact on the segmentation results of several speckle noise models that still lead to fast segmentation algorithms has been characterized. A key feature of these models, that appears to be crucial for both the segmentation and the speckle characterization, is the ability to take into account the spatial variation of the average intensity induced by the attenuation of the signal in the medium. In addition, we proposed a hierarchical optimization strategy that improves segmentation results and decreases the computation time.Finally, a novel contour model that is adapted to smooth boundaries that are met in medical imaging is also proposed for the considered MSC segmentation algorithms. The construction of this contour model relies on Information Theory concepts. It still allows one to get low computation times and does not contain any tuning parameter. Evaluations performed on synthetic images and real echographic phantom images indicate that this contour model provides better segmentation results for smooth inclusions that usually compose the echographic images.
108

A two-way approach to adapt small-scale laboratory experiments and corresponding numerical simulations of offshore seismic surveys / Une approche conjointe pour adapter les expérimentations de laboratoire à échelle réduite aux simulations numériques correspondantes de campagnes de sismique marine

Solymosi, Bence 20 November 2018 (has links)
Les méthodes numériques sont largement utilisées en exploration sismique pour simuler la propagation des ondes et pour le post-traitement des données sismiques avant l'interprétation géologique/géophysique. Les algorithmes sont basés sur différentes hypothèses pour réduire le coût de calcul au détriment de la simplification des modèles et/ou des phénomènes physiques. En raison de leur rôle essentiel en exploration géophysique, la précision des simulations numériques présente un fort intérêt, notamment dans le cas de configurations géologiques réalistes. La comparaison directe des résultats numériques entre eux dans des configurations synthétiques peut avoir des limites, car il peut être difficile de déterminer celui qui donne la meilleure approximation de la solution physique inconnue. Comme dans la réalité le sous-sol n'est jamais connu avec précision, il est également difficile de comparer les résultats synthétiques aux données sismiques réelles acquises in situ. Par conséquent, il y a un grand intérêt à utiliser des mesures de laboratoire sur des modèles physiques aux propriétés connues pour valider la précision des outils numériques. Avant de pouvoir comparer avec précision les mesures et les simulations, nous devons tout d’abord établir un cadre comparatif avec une approche conjointe adaptée aux expériences de laboratoire et à la modélisation numérique. C’est précisément l'objectif de cette thèse. Ainsi, le cadre reproduit d'abord les mesures sismiques marines dans des conditions de laboratoire en utilisant de modèles à échelle réduite, puis les outils numériques sont adaptés à la reconstruction précise des expériences. / Numerical methods are widely used in seismic exploration to simulate wave propagation and to post-process the recorded seismic data before the geologic/geophysical interpretation. The algorithms are based on various assumptions to reduce the computational cost at the expense of simplifying the models and/or the physical phenomena. Because of their essential role in exploration geophysics, the accuracy of the numerical simulations is of particular interest, especially in the case of realistic geologic setups. The direct comparison of the numerical results with each other in synthetic configurations can have limitations, as it can be difficult to determine the one that gives the best approximation of a physically unknown solution. Because in real life the subsurface is never accurately known, it is also difficult to compare the synthetic results to any seismic data set from field measurements. Therefore there is a strong interest in using laboratory measurements on physical models of known geometries to benchmark the numerical tools. Before comparing measurements and simulations with confidence at high accuracy, we first need to establish a comparative framework with a jointly-adapted approach to both the laboratory experiments and the numerical modeling. This challenging task is the goal of this thesis. Thus, the framework first reproduces offshore seismic measurements in laboratory conditions with the help of small-scale models, and then the numerical tools are adapted to the accurate synthetic reconstruction of the experiments.
109

Controverses économiques et environnementales autour des hydrocarbures non conventionnels : les enseignements de la modélisation intégrée / Economic and environmental controversies over unconventional hydrocarbons : lessons from integrated modelling

Leblanc, Florian 12 November 2018 (has links)
Sous l’angle des controverses économiques et environnementales autour des hydrocarbures non conventionnels, cette thèse contribue au développement des outils de la modélisation intégrée sous deux aspects : leur capacité à représenter la dynamique de long terme des marchés de l’énergie ; la prise en compte des liens entre l’économie et la dynamique des différents gaz à effet de serre.Dans le premier cas, un jeu de simulations avec le modèle Imaclim-R met en évidence les impacts économiques du gaz et pétrole de schiste à travers (i) les liens entre trajectoires de crois-sance et inerties techniques ; (ii) la conditionnalité des gains de compétitivité des États-Unis aux stratégies implicites ou explicites de ce pays en matière de spécialisation internationale et de régime de change. Au détour de ces simulations nous étudions (α) les processus d’ajustement vers l’équilibre de long terme, en regardant les conditions d’obtention et de convergence des équilibres temporaires du modèle ; (β) les limites de tractabilitéd’une maquette stylisée du modèle reproduisant les mécanismes centraux.Dans le deuxième cas est traitée la question du rôle du méthane à court et long terme dans les stratégies climatiques. L’intégration du modèle réduit du système terrestre Oscar2.2 aumodèle Imaclim-R permet d’apprécier le rôle du méthane dans les coûts de l’atténuation et d’évaluer le risque d’émissions fugitives en tête de puits de gaz de schiste. Les simulations montrent que d’une part, l’avantage économique de la disponibilité en gaz de schiste peut être nuancé au regard du coût induit par ces émissions fugitives. D’autre part, les stratégies climatiques ambitieuses visant à limiter les augmentations de température bien en deçà de 2° voir 1.5°C nécessitent un contrôle plus immédiat des émissions de méthane. / From the perspective of economic and environmental controversies over unconventional oil and gas resources, this thesis contributes to the development of integrated modelling tools intwo aspects : their ability to reflect the long-term dynamics of energy markets ; and the consideration of the links between the economy and the dynamics of the various greenhouse gases.In the first case, a set of simulations with the Imaclim-R model highlights the economic impacts of shale gas and light tight oil through (i) the links between growth paths and technicalinertia ; (ii) the conditionality of US competitiveness gains on implicit or explained strategies ; and (iii) the conditionality of US competitiveness gains on this country implicit or explicit strategies in terms of international specialization and exchange rate regime. In the course of these simulations, we study (α) the adjustment processes towards the long-term equilibrium, looking at the conditions of existence and convergence of the model temporary equilibria ; (β) the tractability limits of a stylized model of Imaclim-R reproducing the main mechanisms.In the second case, the question of the role of methane in short and long term climate strategies is addressed. The integration of the Oscar2.2 Earth System model into the Imaclim-Rmodel is used to assess the role of methane in terms of mitigation costs and to assess the risk of emissions leakage at shale gas wellheads. The simulations show that, on the one hand, theeconomic advantage of shale gas availability can be balanced against the costs induced by these emissions leakage. On the other hand, the ambitous climate strategies aiming at limitingtemperature increases well below 2° or 1.5°C require a more instant control of methane.
110

Benchmarking bias mitigation algorithms in representation learning through fairness metrics

Reddy, Charan 07 1900 (has links)
Le succès des modèles d’apprentissage en profondeur et leur adoption rapide dans de nombreux domaines d’application ont soulevé d’importantes questions sur l’équité de ces modèles lorsqu’ils sont déployés dans le monde réel. Des études récentes ont mis en évidence les biais encodés par les algorithmes d’apprentissage des représentations et ont remis en cause la fiabilité de telles approches pour prendre des décisions. En conséquence, il existe un intérêt croissant pour la compréhension des sources de biais dans l’apprentissage des algorithmes et le développement de stratégies d’atténuation des biais. L’objectif des algorithmes d’atténuation des biais est d’atténuer l’influence des caractéristiques des données sensibles sur les décisions d’éligibilité prises. Les caractéristiques sensibles sont des caractéristiques privées et protégées d’un ensemble de données telles que le sexe ou la race, qui ne devraient pas affecter les décisions de sortie d’éligibilité, c’està-dire les critères qui rendent un individu qualifié ou non qualifié pour une tâche donnée, comme l’octroi de prêts ou l’embauche. Les modèles d’atténuation des biais visent à prendre des décisions d’éligibilité sur des échantillons d’ensembles de données sans biais envers les attributs sensibles des données d’entrée. La difficulté des tâches d’atténuation des biais est souvent déterminée par la distribution de l’ensemble de données, qui à son tour est fonction du déséquilibre potentiel de l’étiquette et des caractéristiques, de la corrélation des caractéristiques potentiellement sensibles avec d’autres caractéristiques des données, du décalage de la distribution de l’apprentissage vers le phase de développement, etc. Sans l’évaluation des modèles d’atténuation des biais dans diverses configurations difficiles, leurs mérites restent incertains. Par conséquent, une analyse systématique qui comparerait différentes approches d’atténuation des biais sous la perspective de différentes mesures d’équité pour assurer la réplication des résultats conclus est nécessaire. À cette fin, nous proposons un cadre unifié pour comparer les approches d’atténuation des biais. Nous évaluons différentes méthodes d’équité formées avec des réseaux de neurones profonds sur un ensemble de données synthétiques commun et un ensemble de données du monde réel pour obtenir de meilleures informations sur le fonctionnement de ces méthodes. En particulier, nous formons environ 3000 modèles différents dans diverses configurations, y compris des configurations de données déséquilibrées et corrélées, pour vérifier les limites des modèles actuels et mieux comprendre dans quelles configurations ils sont sujets à des défaillances. Nos résultats montrent que le biais des modèles augmente à mesure que les ensembles de données deviennent plus déséquilibrés ou que les attributs des ensembles de données deviennent plus corrélés, le niveau de dominance des caractéristiques des ensembles de données sensibles corrélées a un impact sur le biais, et les informations sensibles restent dans la représentation latente même lorsque des algorithmes d’atténuation des biais sont appliqués. Résumant nos contributions - nous présentons un ensemble de données, proposons diverses configurations d’évaluation difficiles et évaluons rigoureusement les récents algorithmes prometteurs d’atténuation des biais dans un cadre commun et publions publiquement cette référence, en espérant que la communauté des chercheurs le considérerait comme un point d’entrée commun pour un apprentissage en profondeur équitable. / The rapid use and success of deep learning models in various application domains have raised significant challenges about the fairness of these models when used in the real world. Recent research has shown the biases incorporated within representation learning algorithms, raising doubts about the dependability of such decision-making systems. As a result, there is a growing interest in identifying the sources of bias in learning algorithms and developing bias-mitigation techniques. The bias-mitigation algorithms aim to reduce the impact of sensitive data aspects on eligibility choices. Sensitive features are private and protected features of a dataset, such as gender of the person or race, that should not influence output eligibility decisions, i.e., the criteria that determine whether or not an individual is qualified for a particular activity, such as lending or hiring. Bias mitigation models are designed to make eligibility choices on dataset samples without bias toward sensitive input data properties. The dataset distribution, which is a function of the potential label and feature imbalance, the correlation of potentially sensitive features with other features in the data, the distribution shift from training to the development phase, and other factors, determines the difficulty of bias-mitigation tasks. Without evaluating bias-mitigation models in various challenging setups, the merits of deep learning approaches to these tasks remain unclear. As a result, a systematic analysis is required to compare different bias-mitigation procedures using various fairness criteria to ensure that the final results are replicated. In order to do so, this thesis offers a single paradigm for comparing bias-mitigation methods. To better understand how these methods work, we compare alternative fairness algorithms trained with deep neural networks on a common synthetic dataset and a real-world dataset. We train around 3000 distinct models in various setups, including imbalanced and correlated data configurations, to validate the present models’ limits and better understand which setups are prone to failure. Our findings show that as datasets become more imbalanced or dataset attributes become more correlated, model bias increases, the dominance of correlated sensitive dataset features influence bias, and sensitive data remains in the latent representation even after bias-mitigation algorithms are applied. In summary, we present a dataset, propose multiple challenging assessment scenarios, rigorously analyse recent promising bias-mitigation techniques in a common framework, and openly disclose this benchmark as an entry point for fair deep learning.

Page generated in 0.0816 seconds