Spelling suggestions: "subject:"sismique"" "subject:"asismique""
331 |
Velocity model building by full waveform inversion of early arrivals & reflections and case study with gas cloud effect / Influence des ondes réfléchies sur l'inversion de formes d'onde : vers une meilleure compréhension des ondes réfléchies et leur utilisation dans l'inversion de formes d'ondeZhou, Wei 30 September 2016 (has links)
L'inversion des formes d'onde (full waveform inversion, FWI) a suscité un intérêt dans le monde entier pour sa capacité à estimer de manière précise et détaillée les propriétés physiques du sous-sol. La FWI est généralement formulée sous la forme d'un problème d'ajustement des données par moindres carrés et résolus par une approche linéarisée utilisant des méthodes d'optimisation locales. Cependant, la FWI est bien connue de souffrir du problème de saut de phase rendant les résultats fortement dépendant de la qualité des modèles initiaux. L'inversion des formes d'ondes des arrivées réfléchies (reflection waveform inversion, RWI) a récemment été proposée pour atténuer ce problème en supposant une séparation d'échelle entre le modèle de vitesse lisse et le modèle de réflectivité à haut nombre d'onde. La formulation de RWI considère explicitement les ondes réfléchies afin d'extraire de ces ondes une information sur les variations lisses de vitesse des zones profondes. Cependant, la méthode néglige les ondes transmises qui contraignant les informations lisses de vitesse en proche surface.Dans cette thèse, une étude de la sensibilité en nombre d'ondes des méthodes de FWI et RWI a d'abord été revisitée dans le cadre de la tomographie en diffraction et des décompositions orthogonales. A partir de cette analyse, je propose une nouvelle méthode, à savoir l'inversion jointe des formes d'ondes transmises et réfléchies (joint full waveform inversion, JFWI). La méthode propose une formulation unifiée pour combiner la FWI des transmissions et la RWI pour les réflexions, donnant naturellement une sensibilité commune aux petits nombres d'onde venant des arrivées grand-angle et réfléchies. Les composantes à hauts nombres d'onde sont naturellement atténuées par la formulation. Pour satisfaire l'hypothèse de séparation d'échelle, j'utilise une paramétrisation du sous-sol basée sur la vitesse des ondes de compression et l'impédance acoustique. La complexité temporelle de cette approche est le double de la méthode de FWI classique et la requête mémoire reste la même.Une procédure d'inversion est ensuite proposée, permettant d'estimer alternativement le modèle de la vitesse du sous-sol par JFWI et l'impédance inversion de formes d'ondes réfléchies. Un exemple synthétique réaliste du modèle de Valhall est d'abord utilisé avec des données de streamer et à partir d'un modèle initial très lisse. Dans ce cadre, alors que la FWI converge vers un minimum local, la JFWI réussit à reconstruire un modèle de vitesse lisse de bonne qualité. La prise en compte des ondes tournante par la JFWI montre un fort intérêt pour la qualité de reconstruction superficielle, comparée à la méthode RWI seule. Cela se traduit ensuite par une reconstruction améliorée en profondeur. Le modèle de vitesse lisse construit par JFWI peut ensuite être considéré comme modèle initial pour la FWI classique, afin d'injecter le contenu en haut nombres d'onde tout en évitant le problème de saut de phase.Les avantages et limites de l'approche de JFWI sont ensuite étudiés dans une application sur données réelles, venant d'un profil 2D de données de fond de mer (OBC) recoupant un nuage de gaz au dessus d'un réservoir. Plusieurs modèles initiaux et stratégies d'inversion sont testés afin de minimiser le problème de saut de phase, tout en construisant des modèles de sous-sol avec une résolution suffisante. Sous réserve de mettre en œuvre des stratégies limitant le problème de saut de phase, la JFWI montre qu'elle peut produire un modèle de vitesse acceptable, injectant les bas nombres d'onde dans le modèle de vitesse. L'amélioration de l'éclairage en angles de diffraction fournie par des acquisitions 3D devrait permettre de pouvoir commencer l'inversion par JFWI à partir de modèle encore moins bien définis. / Full waveform inversion (FWI) has attracted worldwide interest for its capacity to estimate the physical properties of the subsurface in details. It is often formulated as a least-squares data-fitting procedure and routinely solved by linearized optimization methods. However, FWI is well known to suffer from cycle skipping problem making the final estimations strongly depend on the user-defined initial models. Reflection waveform inversion (RWI) is recently proposed to mitigate such cycle skipping problem by assuming a scale separation between the background velocity and high-wavenumber reflectivity. It explicitly considers reflected waves such that large-wavelength variations of deep zones can be extracted at the early stage of inversion. Yet, the large-wavelength information of the near surface carried by transmitted waves is neglected.In this thesis, the sensitivity of FWI and RWI to subsurface wavenumbers is revisited in the frame of diffraction tomography and orthogonal decompositions. Based on this analysis, I propose a new method, namely joint full waveform inversion (JFWI), which combines the transmission-oriented FWI and RWI in a unified formulation for a joint sensitivity to low wavenumbers from wide-angle arrivals and short-spread reflections. High-wavenumber components are naturally attenuated during the computation of model updates. To meet the scale separation assumption, I also use a subsurface parameterization based on compressional velocity and acoustic impedance. The temporal complexity of this approach is twice of FWI and the memory requirement is the same.An integrated workflow is then proposed to build the subsurface velocity and impedance models in an alternate way by JFWI and waveform inversion of the reflection data, respectively. In the synthetic example, JFWI is applied to a streamer seismic data set computed in the synthetic Valhall model, the large-wavelength characteristics of which are missing in the initial 1D model. While FWI converges to a local minimum, JFWI succeeds in building a reliable velocity macromodel. Compared with RWI, the involvement of diving waves in JFWI improves the reconstruction of shallow velocities, which translates into an improved imaging at greater depths. The smooth velocity model built by JFWI can be subsequently taken as the initial model for conventional FWI to inject high-wavenumber content without obvious cycle skipping problems.The main promises and limitations of the approach are also reviewed in the real-data application on the 2D OBC profile cross-cutting gas cloud.Several initial models and offset-driven strategies are tested with the aim to manage cycle skipping while building subsurface models with sufficient resolution. JFWI can produce an acceptable velocity model provided that the cycle skipping problem is mitigated and sufficient low-wavenumber content is recovered at the early stage of inversion. Improved scattering-angle illumination provided by 3D acquisitions would allow me to start from cruder initial models.
|
332 |
Etudes expérimentales et numériques de la propagation d'ondes couplées sismiques et électromagnétiques dans des matériaux saturés non consolidés / Experimental and numerical investigations of the coupled seismic and electromagnetic wave-fields propagation in saturated unconsolidated materialsDevi, Maureen 06 July 2017 (has links)
Les premières centaines de mètres du sous-sol sont au coeur d'enjeux sociétaux importants liés aux fluides auxquels la société doit encore affronter, tels que la détéction et la surveillance des ressources en eau et de la pollution, ainsi que le rôle des fluides dans les différents types d'évaluation des risques ou en géotechnique. Cette gamme de profondeur est marquée par une forte complexité et une forte hétérogénéité aussi bien structurale et lithologique qu'en termes de mélanges de phases fluides. Parmi les méthodes géophysique disponibles, le phénomène de couplage sismo-électrique (et électro-sismique) a le potentiel d'émerger comme une nouvelle technique d'imagerie haute résolution, naturellement sensible aux contrastes des fluides. Deux signaux sismo-électrique ont été prédits et parfois observés: les signaux co-sismique éléctrique à forte amplitude et les faibles perturbations électromagnétiques générées en profondeur lorque des ondes sismiques traversent une interface. Ce deuxième phénomène est le plus prometteur, en termes d'imagerie en raison de sa sensibilité aux contrastes originaux par rapport à la réflexion sismique. L'émergence d'une méthode sismo-électrique a cependant été ralentie en raison des difficultés dans l'enregistrement de ces faibles signaux sismo-électrique. Cette thèse, basée sur la combinaison d'approches expérimentales et numériques, vise à aborder des questions pratiques concernant l'acquisition et le traitement de données sismo-électrique et électro-sismique.Dans la première partie, afin d'augmenter le rapport signal-sur-bruit (S/N) des signaux sismo-électriques, nous étudions théoriquement et expérimentalement leur sensibilité à différents arrangements d'électrodes. Pour cela, nous avons développé une théorie des filtres conçue pour évaluer l'influence d'ensemble d'électrodes pour l'acquisition des signaux sismo-électriques. Cette théorie a été confrontée avec succès à des données expérimentales sismo-électriques acquises en utilisant diverses dispositions d'électrodes (c'est-à-dire l'espacement entre les électrodes, le nombre des électrodes et la vitesse sismique apparente) et à des simulations numériques des formes d'onde complète. En particulier, cette approche explique la difficulté d'enregistrement des ondes converties sismo-électromagnétique générées en profondeur converties à une interface, lorsque la configuration dipôle classique est utilisé comme récepteur. Nous encourageons ensuite l'utilisation d'une configuration de multi-électrodes dans des mesures sismo-électriques, puisque: 1) il réduit le bruit électrique omniprésent causé par l'homme, et 2) ses propriétés de filtrage amplifient les ondes électromagnétiques provenant des interfaces en profondeur par rapport aux événements co-sismiques dominants.Dans la deuxième partie, nous nous concentrons sur les phénomènes réciproques électro-osmotique, c'est-à-dire la génération de signaux sismiques par une source électrique dans des milieux saturés poroélastiques. Nous avons d'abord effectué des études numériques pour évaluer la nature et les propriétés des différentes arrivées sismiques générées par une source électrique dans un matériau homogène et hétérogène, à l'échelle du terrain. Ensuite, nous avons essayé d'acquérir des données de laboratoire électro-sismique dans un matériau homogène, données que nous avons de nouveau confrontées à des calculs numériques de forme d'onde complète. Les résultats montrent que les ondes électro-sismiques peuvent être observées et qu'elles sont générées localement autour de la source électrique. Nous montrons enfin que ces signaux électro-sismiques sont influencés par la conductivité des fluides. / The first few hundred meters of the subsurface is the seat of important issues related to fluids which society still has to face, such as the detection and monitoring of water ressources and pollution as well as the role of fluids in various types of hazard assessment or in geotechnics. This depth scale is highly complex and heterogeneous in terms of lithology and fluid content. Among the available geophysical methods, seismo-electric (or electro-seismic) coupling phenomena have the potential to emerge as a new high-resolution imaging technique, naturally sensitive to fluid contrasts. Two seismo-electric signals have been predicted and sometimes observed: co-seismic electric signals (high amplitude) and weak electromagnetic (EM) disturbances generated at depth when seismic waves cross an interface. This second phenomenon is the most promising in terms of imaging due to its sensitivity to original contrasts compared to seismic reflection. The emergence of the seismo-electric method was however slowed down due to difficulties in recording these weak seismo-electric signals. Based on the combination of experimental and numerical approaches, this PhD thesis aims at addressing practical questions concerning the acquisition and processing of seismo-electric and electro-seismic data.In the first part, in order to increase the signal-to-noise (S/N) ratio of seismo-electric signals, we theoretically and experimentally study their sensitivity to various electrode arrangements. For this, we developed a filter theory designed to assess the influence of complex electrode arrays for seismo-electric signals acquisition. This theory was successfully confronted to experimental seismo-electric data acquired using various electrode arrangements (namely the spacing between the electrodes, the number of the electrodes and the apparent seismic velocity) and to full waveform numerical simulations. This combined analysis shows that electrode configuration properties strongly influence seismo-electric amplitudes and waveforms. In particular, this approach explains the difficulty in recording depth-generated seismo-electromagnetic waves converted at an interface, when the conventional dipole configuration is used as receivers. We then promote the use of a 3-electrode configuration in seismo-electric measurements, since: 1) it reduces ubiquitous man-made electric noise, and 2) its filtering properties do amplify the EM waves originating from interfaces at depth with respect to dominant coseismic events.In the second part, we focus on the reciprocal electro-osmotic phenomena, i.e. the generation of seismic signals by an electric source in poroelastic saturated media. We first performed numerical investigations to assess the nature and properties of the different seismic arrivals generated by an electrical source in a homogeneous and an heterogeneous material, at the field scale. Then we tried to acquire electro-seismic laboratory data in a homogeneous material, data that we again confronted with numerical full waveform computations. The results show that electro-seismic waves can be observed and that they are locally generated around the electric source. We finally show that these electro-seismic signals are influenced by the fluid conductivity.
|
333 |
Apport des enregistrements de séismes et de bruit de fond pour l'évaluation site-spécifique de l'aléa sismique en zone de sismicité faible à modérée / Contribution of seismic and ambient noise records for site-specific seismic hazard assessment in low to moderate seismicity areaPerron, Vincent 15 September 2017 (has links)
Les effets de site peuvent augmenter fortement la durée et l’amplitude des sollicitations sismiques imposées aux structures. Les effets de site 2D-3D induisent des amplifications sur une large bande de fréquence qui ne peuvent pas être simulées numériquement jusqu’à haute fréquence (>2-4 Hz) du fait de la limite de résolution des connaissances géologiques, géophysiques et/ou géotechniques du sous-sol. Les évaluations empiriques des effets de site sont donc indispensables pour pouvoir observer ce phénomène complexe de façon fiable jusqu’à haute fréquence. De telles évaluations nécessitent l'enregistrement de bonne qualité de nombreux séismes ce qui rend leur obtention rapide difficile dans les régions faiblement actives.Ce travail présente une analyse comparative de ces évaluations empiriques sur deux sites très différents, l’un en contexte sismique modéré (Provence, France) et l’autre en contexte très actif (Céphalonie, Grèce). Sur le site provençal, 500 séismes ont pu être enregistrés en l’espace de 2½ ans grâce à l’utilisation de vélocimètres. Une mesure du paramètre d’atténuation de site k_0 a ainsi pu être réalisée via l’analyse des spectres en accélération (k_(0_AS)) et en déplacement (k_(0_DS)). La mesure de k_0 n’est relativement fiable que sur les sites au rocher du fait des amplifications de site au sédiment. La méthode des rapports spectraux sismique (SSR) permet l’évaluation des effets de site relatif à partir des nombreux enregistrements de mouvement faible. Les résultats montrent une forte variabilité épistémique attribuable à l’éclairage induit par la position de la source sismique vis-à-vis du bassin. Ainsi, une estimation fiable de la réponse des sites est possible à partir de quelques évènements seulement dans le cas 1D, mais nécessite un nombre beaucoup plus important de séismes répartis de façon homogène autour du site dans les cas 2D-3D. Les résultats SSR moyens sont ensuite comparés à ceux issus des méthodes utilisant le bruit ambiant. Conformément aux attentes, la méthode des rapports spectraux H/V (HVSR) ne permet que de caractériser la fréquence fondamentale pour certains sites. À l’inverse, la méthode SSR appliquée au bruit ambiant (SSRn) montre des résultats très comparables à ceux de la méthode SSR jusqu’à haute fréquence à la condition que le site de référence soit pris dans le bassin sédimentaire. Les approches par corrélation de bruit (cohérence et ANIRF) révèlent qu’une estimation de la fonction de transfert relative à un site de référence au rocher est possible au moins jusqu’à basse fréquence (<4 Hz). L’utilisation du bruit ambiant permet ainsi d’envisager l’évaluation rapide de la réponse des sites et de sa variabilité spatiale (microzonage), même lorsque la sismicité est faible. Partout, les méthodes empiriques d’évaluation des effets de site apportent un complément essentiel aux approches numériques qui reste indispensables.Ces résultats permettent de proposer une méthodologie d’évaluation de l’aléa sismique site-spécifique qui se décompose en trois étapes principales : (i) ajustement des équations de prédictions de mouvement du sol (GMPEs) sur le site de référence au rocher au moyen, entre autres, de k_(0_DS) ; (ii) évaluation empirique fiable de la réponse d’au moins un site dans le bassin relativement au site de référence (pour lequel les GMPEs ont été ajustées) par la méthode SSR; (iii) réalisation de cette évaluation à partir de l’ANIRF dans les régions les moins actives sismiquement et/ou extension à toute la zone d’étude à partir du SSRn. Cette méthodologie permet d’envisager une bien meilleure prise en compte des effets de site (en particulier 2D-3D) et une réduction importante des incertitudes dans les évaluations de l’aléa sismique spécifique à un site. Elle nécessite simplement l’enregistrement simultané de séismes sur au moins deux sites équipé de vélocimètres sensibles, et la réalisation de campagnes de mesure temporaire du bruit ambiant, si nécessaire. / Site effects can greatly increase both the duration and the amplitude of the seismic solicitation imposed on structures. 2D-3D site effects induce broadband amplifications that cannot be simulated up to high frequency (>2-4 Hz) due to the limited resolution of the geological, geophysical and/or geotechnical information. Empirical site effect assessment is therefore essential for reliable observations of this complex phenomenon up to high frequency. However, such assessments often require good quality records from many earthquakes that cannot be rapidly obtained in low seismicity areas.This work presents a comparative analysis of these empirical evaluations on two very different sites, the first in a moderate seismicity context (Provence, France) and the second in a very active context (Kefalonia, Greece). For the Provençal site, nearly 500 earthquakes were recorded in only 2½ years thanks to the use of velocimeters. The site attenuation parameter κ_0 could thus be measured both on the acceleration (κ_(0_AS)) and displacement (κ_(0_DS)) spectra. Our results show that the measurement of κ_0 is relatively reliable on rock sites only, mainly due to the too great disturbance by the amplification for sedimentary sites, even for those that are quite stiff. The standard spectral ratio (SSR) approach provides the relative site effects from the numerous weak motion recordings available at sites located in Provence and Kefalonia. The results show a strong epistemic variability due to the lighting induced by the position of the seismic source with respect to the basin. Thus, while a reliable site response estimation is possible from only a few events for 1D geometries, it requires much more earthquakes evenly distributed around the site when the geometry is 2D-3D. The mean SSR results are then compared with those obtained from methods using the ambient noise. As expected, the H/V spectral ratio approach (HVSR) provides only the fundamental frequency for some sites. Conversely, SSR applied to ambient noise (SSRn) shows very similar results to the SSR method up to high frequency, provided that the reference site is taken in the sedimentary basin. Approaches using the noise correlation (coherence and ANIRF) reveal that the transfer function relative to a rock reference site can be estimated at least up to low frequency (<4 Hz). Methods using ambient noise are promising for a rapid evaluation of the site response and its spatial variability (microzoning), even when seismicity is low. Empirical site effects methods are therefore applicable everywhere. They provide an essential complement to numerical approaches, which remain inevitable when the coverage of available earthquakes is not homogeneous or when soils are likely to present non-linear behaviors.These results led us to propose a methodology for the evaluation of the site-specific seismic hazard, which consists of three main stages: (i) adjustment to the rock reference site of the ground motion prediction equations (GMPEs) using, among others, κ_(0_DS); (ii) Reliable evaluation of the SSR transfer function between at least one site in the basin and the reference site (for which the GMPEs were adjusted); (iii) carrying out this assessment from the ANIRF in the less seismically active regions and/or extension to the entire study area with the SSRn. This methodology allows a much better consideration of the site effects (especially 2D-3D) and a significant reduction of the uncertainties in the evaluations of the site-specific seismic hazard. It only required, simultaneous recording of earthquakes on at least two sites equipped with sensible velocimeters, and to carrying out temporary campaign of ambient noise measurements, if necessary.
|
334 |
Optimization of the Advanced LIGO gravitational-wave detectors duty cycle by reduction of parametric instabilities and environmental impacts / Optimisation du cycle de service de l’observatoire d’ondes gravitationnelles LIGO par réduction des instabilités paramétriques et des impacts environnementauxBiscans, Sébastien 21 September 2018 (has links)
Le projet LIGO a pour but la détection et l'étude d'ondes gravitationnelles via un réseau de détecteurs. LIGO possède deux détecteurs d'architecture et de fonctionnement identiques, situés aux États-Unis. Chaque détecteur est une version améliorée d'un interféromètre de Michelson avec des bras optiques de 4 km de long. Ces interféromètres ont observé une onde gravitationnelle pour la première fois en septembre 2015, suivi par cinq autres détections à ce jour. Ces détections marquent le début d™une nouvelle ère pour l'astrophysique, en liaison étroite avec la physique des trous noirs et des étoiles à neutrons. Depuis, un grand nombre d'activités sont en développement pour perfectionner les interféromètres. Cette thèse a pour objectif d'améliorer le temps de service des détecteurs, en répondant en particulier à deux problématiques majeures : le problème des impacts environnementaux, et notamment celui des tremblements de terre, ainsi que le problème lié à des couplages opto-mécaniques instables dans les cavités optiques, appelés instabilités paramétriques. Les stratégies de contrôle et les outils développés pour résoudre ces problématiques sont présentés. Les résultats prémilinaires montrent une réduction du temps d'arrêt généré par les tremblements de terre d'environ 40%. De plus, le dispositif ‚Acoustic Mode Damper™ développé pendant la thèse devrait complètement résoudre le problème des instabilités paramétriques pour LIGO. En conclusion, il sera démontré en quoi les problématiques résolues ont permis d'améliorer le cycle de service des détecteurs de LIGO de 4,6%, ce qui correspond à une augmentation du nombre d'ondes gravitationnelles détectées par an de 14%. / The LIGO project is a large-scale physics experiment the goal of which is to detect and study gravitational waves of astrophysical origin. It is composed of two instruments identical in design, located in the United States. The two instruments are specialized versions of a Michelson interferometer with 4km-long arms. They observed a gravitational-wave signal for the first time in September 2015 from the merger of two stellar-mass black holes. This is the first direct detection of a gravitational wave and the first direct observation of a binary black hole merger. Five more detections from binary black hole mergers and neutron stars merger have been reported to date, marking the beginning of a new era in astrophysics. As a result of these detections, many activities are in progress to improve the duty cycle and sensitivity of the detectors. This thesis addresses two major issues limiting the duty cycle of the LIGO detectors: environmental impacts, especially earthquakes, and the issue of unstable opto-mechanical couplings in the cavities, referred to as parametric instabilities. The control strategies and tools developed to tackle these issues are presented. Early results have shown a downtime reduction during earthquakes of ~40% at one of the LIGO sites. Moreover, the electro-mechanical device called ‚Acoustic Mode Damper™ designed and tested during the thesis should completely solve the issue of parametric instabilities for LIGO. In conclusion, we will show that the problems tackled in this thesis improved the overall duty cycle of LIGO by 4.6%, which corresponds to an increase of the gravitational-wave detection rate by 14%.
|
335 |
Automatic classification of natural signals for environmental monitoring / Classification automatique de signaux naturels pour la surveillance environnementaleMalfante, Marielle 03 October 2018 (has links)
Ce manuscrit de thèse résume trois ans de travaux sur l’utilisation des méthodes d’apprentissage statistique pour l’analyse automatique de signaux naturels. L’objectif principal est de présenter des outils efficaces et opérationnels pour l’analyse de signaux environnementaux, en vue de mieux connaitre et comprendre l’environnement considéré. On se concentre en particulier sur les tâches de détection et de classification automatique d’événements naturels.Dans cette thèse, deux outils basés sur l’apprentissage supervisé (Support Vector Machine et Random Forest) sont présentés pour (i) la classification automatique d’événements, et (ii) pour la détection et classification automatique d’événements. La robustesse des approches proposées résulte de l’espace des descripteurs dans lequel sont représentés les signaux. Les enregistrements y sont en effet décrits dans plusieurs espaces: temporel, fréquentiel et quéfrentiel. Une comparaison avec des descripteurs issus de réseaux de neurones convolutionnels (Deep Learning) est également proposée, et favorise les descripteurs issus de la physique au détriment des approches basées sur l’apprentissage profond.Les outils proposés au cours de cette thèse sont testés et validés sur des enregistrements in situ de deux environnements différents : (i) milieux marins et (ii) zones volcaniques. La première application s’intéresse aux signaux acoustiques pour la surveillance des zones sous-marines côtières : les enregistrements continus sont automatiquement analysés pour détecter et classifier les différents sons de poissons. Une périodicité quotidienne est mise en évidence. La seconde application vise la surveillance volcanique : l’architecture proposée classifie automatiquement les événements sismiques en plusieurs catégories, associées à diverses activités du volcan. L’étude est menée sur 6 ans de données volcano-sismiques enregistrées sur le volcan Ubinas (Pérou). L’analyse automatique a en particulier permis d’identifier des erreurs de classification faites dans l’analyse manuelle originale. L’architecture pour la classification automatique d’événements volcano-sismiques a également été déployée et testée en observatoire en Indonésie pour la surveillance du volcan Mérapi. Les outils développés au cours de cette thèse sont rassemblés dans le module Architecture d’Analyse Automatique (AAA), disponible en libre accès. / This manuscript summarizes a three years work addressing the use of machine learning for the automatic analysis of natural signals. The main goal of this PhD is to produce efficient and operative frameworks for the analysis of environmental signals, in order to gather knowledge and better understand the considered environment. Particularly, we focus on the automatic tasks of detection and classification of natural events.This thesis proposes two tools based on supervised machine learning (Support Vector Machine, Random Forest) for (i) the automatic classification of events and (ii) the automatic detection and classification of events. The success of the proposed approaches lies in the feature space used to represent the signals. This relies on a detailed description of the raw acquisitions in various domains: temporal, spectral and cepstral. A comparison with features extracted using convolutional neural networks (deep learning) is also made, and favours the physical features to the use of deep learning methods to represent transient signals.The proposed tools are tested and validated on real world acquisitions from different environments: (i) underwater and (ii) volcanic areas. The first application considered in this thesis is devoted to the monitoring of coastal underwater areas using acoustic signals: continuous recordings are analysed to automatically detect and classify fish sounds. A day to day pattern in the fish behaviour is revealed. The second application targets volcanoes monitoring: the proposed system classifies seismic events into categories, which can be associated to different phases of the internal activity of volcanoes. The study is conducted on six years of volcano-seismic data recorded on Ubinas volcano (Peru). In particular, the outcomes of the proposed automatic classification system helped in the discovery of misclassifications in the manual annotation of the recordings. In addition, the proposed automatic classification framework of volcano-seismic signals has been deployed and tested in Indonesia for the monitoring of Mount Merapi. The software implementation of the framework developed in this thesis has been collected in the Automatic Analysis Architecture (AAA) package and is freely available.
|
336 |
Modélisation d'ondes sismo-acoustiques par la méthode des éléments spectraux : application à un séisme en Atlantique Nord / Seismo-acoustic waves modelling through the spectral elements method : application to an earthquake in the Northern AtlanticJamet, Guillaume 02 July 2014 (has links)
Depuis plus de deux décennies, I'enregistrement des signaux hydroacoustiques par des hydrophones dans le canal SOFAR (SOund Fixing And Ranging) a permis la détection et la localisation de nombreux séismes de faible magnitude dans I'océan. Cependant, I'interprétation de ces signaux est actuellement incomplète. La complexité de la conversion des ondes sismiques en ondes acoustiques, appelées « ondes T », au niveau du plancher océanique, et de leur propagation dans la tranche d'eau n'est pas intégralement comprise et ne permet pas d'extraire beaucoup d'informations sur les séismes à leur origine. Une simulation numérique de ces signaux est proposée pour identifier et comprendre les paramètres environnementaux et les phénomènes majeurs entrant en jeu dans la génération des ondes T. L'approche proposée est la méthode des éléments spectraux, mise en œuvre dans le code SPECFEM2D. Cette approche s'avère adaptée à cet usage car elle permet d'aborder le phénomène de la génération et la propagation des ondes T dans son ensemble en tenant compte ses principales caractéristiques : le couplage fluide/solide (propagation sismique, conversion, et propagation acoustique), les profils de vitesse d'onde dans I'eau et dans la croute, et le tenseur des moments sismiques donnant le diagramme de radiation de la source. Les signaux simulés présentent des formes, des durées, des temps d'arrivée, et des amplitudes relatives tout à fait comparables aux enregistrements réels. Les différences observées proviennent sans doute du traitement 2D du problème et d'une représentation trop simpliste des environnements et de la source sismique. / For more than 2 decades, recording of hydroacoustic signals in the sopen channel (Sound Fixing And Ranging) has allowed the detection and localization of many low-magnitude earthquakes in the ocean. However the interpretation of these signals is still incomplete.The generation of acoustic waves, known as T-waves, resulting from the conversion of seismic waves into acoustic waves at the sea-bottom, and their propagation in the water column are not yet fully understood, which prevents to extract more information about the earthquakes they originate from. Here, we use numerical modelling to identify and understand the main environmental parameters and phenomena that control the generation and propagation of acoustic T-waves in the ocean. The proposed approach is a spectral element method, implemented in the code SPECFEM2D, which allows to address the problem in a comprehensive way taking into account the solid/fluid coupling (seismic propagation, conversion, acoustic propagation), velocity profiles of the waves in the crust and the ocean, and the moment tensor of the earthquake that defines the radiation pattern of the seismic source. Simulated acoustic signals present many similarities in the shape, duration, arrival times and amplitudes of the predicted T-waves with observed T-waves. Differences are likely due to the 2D representation of the problem and to the simplistic representation of the environment and of the seismic source.
|
337 |
Méthodologies d'évaluation de la vulnérabilité sismique de bâtiments existants à partir d'une instrumentation in situ / Methodologies for seismic vulnerability assessment of existing buildings from an in situ instrumentationDuco, Fabien 20 November 2012 (has links)
La France Métropolitaine est composée de régions à sismicité modérée mais néanmoins vulnérables aux tremblements de terre. En effet, 85% des bâtiments existants ont été construits avant l’apparition des règles de construction parasismique. Pour évaluer la vulnérabilité sismique de ces structures, il existe différentes méthodes à grande échelle telles que Hazus ou Risk-UE, non adaptées à l’échelle d’un bâtiment. Deux typologies de structures ont été étudiées dans ce travail : les structures récentes en béton armé représentatives des grands bâtiments stratégiques, et les structures en maçonnerie non renforcée, représentatives des centres villes historiques. Compte-tenu de la sismicité modérée, les structures récentes en béton armé ont un comportement linéaire élastique. Dans ce cadre, l’instrumentation d’un bâtiment, tel que la Tour de l’Ophite, est essentielle car elle permet de déterminer les vibrations ambiantes d’une structure et d’en extraire les paramètres modaux (fréquences propres, amortissements et déformées modales) qui incluent naturellement des informations sur la qualité des matériaux utilisés, leur vieillissement, leur endommagement, etc. De plus, un outil, basé sur la méthode stochastique par sous-espaces à l’aide des matrices de covariance (SSI-COV), a été développé afin de détecter au mieux les modes propres très proches (modes doubles), lors du traitement des données issues de l’instrumentation de la Tour de l’Ophite. Un modèle numérique par Eléments Finis est également proposé afin de prédire, dans le domaine linéaire, les déplacements de la Tour de l’Ophite soumise à un séisme identique à celui des Abruzzes en Italie en 2009. Pour les structures en maçonnerie non renforcée, un modèle de comportement non-linéaire des matériaux, avec une approche de type endommagement fragile, a été développé et utilisé pour la simulation numérique du comportement ductile des panneaux, remplaçant ainsi la mise en œuvre d’essais expérimentaux lourds et coûteux. A partir des travaux précédents, une méthodologie analytique d’évaluation de la vulnérabilité sismique des bâtiments existants, validée par comparaison avec le code numérique TreMuRi, est proposée et appliquée à un bâtiment. Par exemple, la généricité de notre méthodologie a permis de mener une investigation sur un matériau local, les murs en galets. / France is a country composed of moderate seismic hazard regions however vulnerable to earthquakes. 85% of existing buildings have been built before the application of paraseismic codes. Several current large-scale seismic vulnerability assessment methods are used, such as Hazus or Risk-UE, but they are inappropriate for specific building analysis. Two structure types have been evaluated in this thesis; the recent reinforced concrete structures for high strategic buildings, and the unreinforced masonry structures, for historical city centres. In view of the moderate seismic risk, recent reinforced concrete structures have an elastic behaviour. In this context, the instrumentation of a building, such as the Ophite Tower, is essential as it determines the ambient vibrations of a structure and extracts modal parameters (natural frequencies, modal shapes and damping), which naturally include information such as quality of materials, ageing, damage, etc. Moreover, as a tool based on the Covariance driven Stochastic Subspace Identification method (SSI-COV), it was developed in order to improve the detection of very close natural modes (double modes), during data processing from the instrumentation of Ophite Tower. A Finite Element numerical model (linear) was also proposed to predict the displacements of Ophite Tower under a seismic motion similar to Abruzzes earthquake (Italy, 2009). For unreinforced masonry structures, a model for nonlinear behaviour of materials with a brittle cracking approach has been developed. This is used for the numerical simulation of the ductile behaviour of panels and replaces the expensive experimental tests. From previous works, an analytical seismic vulnerability assessment method of existing buildings, validated par comparison with TreMuRi code, was proposed and applied to a building. For example, the genericity of this methodology has led to an investigation of a local material (pier walls).
|
338 |
A study on block flexible iterative solvers with applications to Earth imaging problem in geophysics / Étude de méthodes itératives par bloc avec application à l’imagerie sismique en géophysiqueFerreira Lago, Rafael 13 June 2013 (has links)
Les travaux de ce doctorat concernent le développement de méthodes itératives pour la résolution de systèmes linéaires creux de grande taille comportant de nombreux seconds membres. L’application visée est la résolution d’un problème inverse en géophysique visant à reconstruire la vitesse de propagation des ondes dans le sous-sol terrestre. Lorsque de nombreuses sources émettrices sont utilisées, ce problème inverse nécessite la résolution de systèmes linéaires complexes non symétriques non hermitiens comportant des milliers de seconds membres. Dans le cas tridimensionnel ces systèmes linéaires sont reconnus comme difficiles à résoudre plus particulièrement lorsque des fréquences élevées sont considérées. Le principal objectif de cette thèse est donc d’étendre les développements existants concernant les méthodes de Krylov par bloc. Nous étudions plus particulièrement les techniques de déflation dans le cas multiples seconds membres et recyclage de sous-espace dans le cas simple second membre. Des gains substantiels sont obtenus en terme de temps de calcul par rapport aux méthodes existantes sur des applications réalistes dans un environnement parallèle distribué. / This PhD thesis concerns the development of flexible Krylov subspace iterative solvers for the solution of large sparse linear systems of equations with multiple right-hand sides. Our target application is the solution of the acoustic full waveform inversion problem in geophysics associated with the phenomena of wave propagation through an heterogeneous model simulating the subsurface of Earth. When multiple wave sources are being used, this problem gives raise to large sparse complex non-Hermitian and nonsymmetric linear systems with thousands of right-hand sides. Specially in the three-dimensional case and at high frequencies, this problem is known to be difficult. The purpose of this thesis is to develop a flexible block Krylov iterative method which extends and improves techniques already available in the current literature to the multiple right-hand sides scenario. We exploit the relations between each right-hand side to accelerate the convergence of the overall iterative method. We study both block deflation and single right-hand side subspace recycling techniques obtaining substantial gains in terms of computational time when compared to other strategies published in the literature, on realistic applications performed in a parallel environment.
|
339 |
Analyse systématique du concept de comportement linéaire équivalent en ingénierie sismique / Systematic analysis of the concept of equivalent linear behavior in sismic ingenierieNguyen, Thuong Anh 20 December 2017 (has links)
En ingénierie sismique, il est admis que le comportement d’une structure soumise à de forts séismes soit caractérisé par des boucles d’hystérésis qui peuvent être amples ou étroites selon le type de structure impactée. La prise en compte de ce type de comportement non-linéaire dans un calcul temporel présente des difficultés liées à l’identification des paramètres, au coût numérique élevé, au risque de non-convergence. Dans ce contexte, la méthode de linéarisation équivalente, a été introduite en géotechnique dès les années 70. Elle reste peu utilisée dans le domaine des structures malgré les efforts de nombreux auteurs. Ce travail de thèse a pour objet l’étude du comportement linéaire équivalent dans le contexte des méthodes simplifiées d'évaluation de la réponse non-linéaire d'une structure en ingénierie sismique. Nous passons en revue les critères de linéarisation adoptés par les différentes méthodes qui recherchent l’équivalence (1) du déplacement maximum ou (2) de la quantité d’énergie dissipée ou (3) de la force de rappel. Nos analyses montrent que ces trois critères ne sont pas pertinents et/ou efficaces, conduisant à des méthodes peu robustes qui conduisent dans certains cas à des résultats inexplicables. Nous montrons le rôle important, négligé par toutes les méthodes disponibles, du contenu fréquentiel respectif des signaux et du système dans la détermination de la ductilité appelée. Sur cette constatation, nous introduisons une nouvelle méthode de linéarisation équivalente basée sur la fonction de transfert. Nous utilisons cette méthode pour explorer un plan d’expérience numérique dans lequel nous calculons les caractéristiques de fréquence et d’amortissement équivalents en fonction de la ductilité appelée pour différente configurations caractérisées par (a) le rapport entre fréquence de l’oscillateur et fréquence centrale du signal excitateur, (b) la pente d’écrouissage et (c) le modèle de comportement qui varie continument de élastoplastique à endommageant. Nous proposons deux nouvelles approches du comportement linéaire équivalent. La première, visant à améliorer la procédure statique non-linéaire de l’ATC40, utilise la rigidité sécante et le déplacement maximal. Elle fait intervenir une estimation de l’amortissement différente de celle de l’ATC40. Sa pertinence est établie par le fait qu’elle permet d’évaluer avec exactitude le déplacement maximal de systèmes canoniques non-linéaires. La seconde consiste à restituer la dynamique de la réponse d'un oscillateur non-linéaire au travers de la fonction de transfert. Sa pertinence est démontrée au travers des critères d’Anderson, avec notamment un critère relatif au spectre transféré. La détermination du comportement linéaire équivalent par fonction de transfert est validée sur des structures réelles au travers des essais sur voiles en béton armé (SAFE) et sur systèmes des tuyauteries (BARC et EPRI) / In earthquake engineering, it is common that the behaviour of a structure undergoing a strong motion is characterized by wise or narrow hysteresis loops depending on the type of behaviour of the structure. Considering this non-linear behaviour in a transient calculation requires a huge need of resources in terms of calculation time and memory. In this context, the method of equivalent linearization, consisting in the evaluation of the non-linear response of the structure has been introduced by geotechnical engineers In the 1970s. Despite efforts of many authors, this method is still not used in structural field. The goal of this research is to examine the linear equivalent behaviour in the context of the simplified method of evaluating the non-linear response of a structure in earthquake engineering. We review the criteria of equivalence adopted by many methods searching for the equivalence of (1) the maximum of displacement or (2) quantity of dissipated energy or (3) the restore force. Our argumentative analyses carry out that these three criteria are not pertinent and/or efficient. This leads, in some cases, to some unexplained results. We show the important role, which is mostly neglected in existing method, of frequency content while evaluating the ductile demand. Based on this recognition, we introduce a new method of equivalent linearization based on the transfer function. We use this method in order to explore a numerical experimental plan in which we calculate the equivalent characteristics (frequency and damping) versus the ductile demand for different configuration characterized by (a) the ratio between the frequency of the oscillator and the central frequency of the input signal, (b) the hardening and (c) the behaviour which covers the elastoplastic and damaged ones. We propose two new approaches of the linear equivalent behaviour. The first one, aiming to improve the non-linear static procedure of ATC40, use the secant stiffness and the maximal displacement. This approach consists in an estimation of damping which is different to ATC40. Its pertinence is established by evaluating with accuracy the maximal displacement of the canonical non-linear systems. The second approach consists in restitution of the dynamic of the response of a non-linear oscillator by using the transfer function. The pertinence of this proposition is shown through the criteria of Anderson, especially in terms of transferred motion. In this effect, the linear equivalent behaviour based on the transfer function allows to cope the transferred motion through the non-linear oscillator without performing the non-linear transient calculation. The validation of the linear equivalent behaviour based on the transfer function has been examined on real structures through some experimental tests such as the reinforced concrete wall (SAFE) or piping systems (BARC and EPRI)
|
340 |
Processus physiques et chimiques en failles sismiques : exemples de failles actives et exhumées / Physico-chemical processes in seismogenic faults : active and exhumed examplesMittempergher, Silvia 04 April 2012 (has links)
Les processus physiques et chimiques activés pendant le cycle sismique déterminent l'évolution des propriétés mécaniques des failles, à court terme (pendant un séisme) comme à long terme (la récupération des propretés élastiques des roches de faille après un seisme). L'étude des roches de faille naturelles est un moyen pour identifier les processus actives pendant les diverses phases des cycle séismique. En cette thèse, échantillons prévenants de deux failles séismiques sont étudiés: la Faille de San Andreas (California, USA), une faille séismique active, et la faille de Gole Larghe (Alpes Méridionales, Italie), une faille séismique exhumée. La Faille de San Andreas a été forée jusqu'à 2.7km de profondeur. Les échantillons montrent une superposition de: pression-dissolution - hydrofracturation - pression dissolution. La succession des évents est compatible avec la formation de sacs de fluides dans zones de basse perméabilité dans la faille, ou la pression de fluides augmente à cause de le progressif compactage de le gouge de faille, jusqu'à la nucléation de une rupture. La faille de Gole Larghe est une faille exhumée, qui a préservé des pseudotachylytes (roches fondues par le chaleur de friction pendant une frottement séismique) formées à 9 - 11 km de profondeur il y a 30 millions d'années. Deux argumentes sont traités: (i) l'évolution des microstructures des cataclasites associées à les pseudotachylytes, pour identifier les processus qui peuvent porter à la formation de instabilités frictionnelles pendant les premières phases de croissance de une faille. (ii) L'origine des fluides en failles séismiques et pendant la fusion pour friction. La formation de un système de failles à cataclasites permit la percolation de un fluide aqueux de profondeur. La composition isotopique des pseudotachylytes (calculé sans la component de hydratation) est proche à celle des pseudotachylytes reproduites en expériences du laboratoire (sans fluides). La principale source de fluides pendant la fusion pour friction est donc la déshydratation des minéraux hydraté des roches autour de la faille. / The time recurrence of earthquakes is the result of the feedback between the tectonic loading and the evolution of fault strength during the seicmic cycle. This thesis aims to identify the chemical and physical processes in fault rocks from the modern seismogenic San Andreas Fault (California, USA) and the ancient seismogenic Gole Larghe Fault (Southern Alps, Italy). The San Andreas Fault was drilled to 2.7 km depth, and samples were extracted from the depth of nucleation of repeating microearthquakes. A cyclic recurrence of pressure-solution creep – hydrofracture - pressure solution creep supports the idea that isolated compartments of high fluid pressure might cause the nucleation of small to moderate size earthquakes, associated with the dominant creeping activity in this fault segment. The Gole Larghe Fault Zone was active 30 Ma ago at 9 – 11 km depth. The occurrence of pseudotachylytes witnesses its seismic behavior. Two topics were investigated: (i) The fabric evolution of cataclastic rocks with increasing deformation, to identify the processes potentially leading to the onset of unstable slip at the early stages of fault growth. (ii) The origin of fluids involved in seismic faulting and frictional melting. The formation of a cataclastic fault network allows the ingression of external hydrous fluids, probably of deep origin. The similar isotopic composition of natural pseudotachylytes and pseudotachylytes produced in dry conditions suggests that the fluid source is the dehydration of OH-bearing minerals in the wall rocks induced by coseismic frictional heating.
|
Page generated in 0.0528 seconds