• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 179
  • 81
  • 17
  • Tagged with
  • 269
  • 269
  • 133
  • 67
  • 52
  • 41
  • 34
  • 30
  • 28
  • 28
  • 27
  • 27
  • 26
  • 25
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Diagnostic de défauts d'isolement dans des lignes de transmission électriques : application aux cables de signalisation SNCF / Diagnosis of insulation faults in electric transmission lines : application to railway signaling cables

Djaziri, Leila 15 July 2015 (has links)
Ces travaux de thèse portent sur la détection de défauts d'isolement dans des lignes de transmission de grandes longueurs. Il s'agit de détecter des défauts non francs liés à l'isolant entre les conducteurs d'un câble de grande longueur qui sont représentés par le paramètre de conductance de fuite. Détecter ces défauts, signes d'un possible futur court-circuit, est un enjeu important mais nécessite une méthode non invasive. Par exemple, dans le cas des câbles de signalisation SNCF, il s'agit de développer une méthode de diagnostic de très faibles conductances de fuite dans les câbles de signalisation le long des voies ferrées compatible avec la circulation des trains. Il faut savoir estimer, à partir de mesures en un seul point du câble, de fortes résistances distribuées sur plusieurs centaines de mètres sans perturber la bande de fréquences du continu à 40 kHz, réservée aux signaux de service. En effet, les câbles de signalisation de la SNCF qui nous intéressent ont une longueur moyenne de 1500 m et sont utilisés dans la bande de fréquence 0-40 kHz. Nous proposons donc une méthode fréquentielle permettant d'estimer de faibles défauts à moyenne fréquence dans des lignes de transmission uniformes avec pertes. Elle repose sur deux idées principales : une analyse fine des effets conjoints de la dissipation et de la dispersion et une méthode de comparaison de deux lignes ayant les mêmes caractéristiques et ne différant que du paramètre de conductance de fuite. Cette méthode de comparaison a été généralisée dans le cas de lignes multiconducteurs en adoptant une démarche statistique.\\Cette thèse a apporté de nouveaux résultats : des formules d'estimation de pertes découlant de l'analyse fine d'une part des effets conjoints de la dissipation et de la dispersion et d'autre part de la méthode de comparaison de deux lignes. Des simulations numériques ont été faites dans les deux cas afin de valider la méthode fréquentielle proposée. Des expériences ont été réalisées afin de valider l'analyse statistique développée dans le cas de lignes multiconducteurs. / This thesis work focuses on the detection of insulation faults in very long transmission lines. This is detecting soft defects related to the insulation between the conductors of a long cable which are represented by the leakage conductance parameter. Detect these faults, signs of a possible future short-circuit, is an important issue but requires a noninvasive method. For example, in the case of railway signaling cables, it is to develop a method of diagnosis of very low leakage conductances in signaling cables along railways compatible with the movement of trains. Be aware estimate from measurements in one point of the cable, strong resistance distributed over several hundred meters without disturbing the continuous frequency range to 40 kHz, reserved for service signals. Indeed, the signal cables from the train that interest us have an average length 1500 m and are used in the frequency band 0-40 kHz.We propose so a frequency method for estimating low defects to medium frequency in uniform transmission lines with losses. It is based on two main ideas : a detailed analysis of joint effects of dissipation and dispersion and a method of comparing two lines having the same characteristics and differing only leak conductance parameter. This method of comparison was widespread in the case of multiconductor lines by adopting a statistical approach.This thesis has brought new results : losses estimation formulas resulting from the detailed analysis of a share of joint effects of dissipation and dispersion and also the method of comparing two lines. Numerical simulations were made in both cases to validate the proposed frequency method. Experiments were performed to validate the statistical analysis in the case of multiconductor lines.
112

Approche parcimonieuse pour l’imagerie 3D haute résolution de surface équivalente radar. / Sparse approach for high resolution 3D radar cross section imaging.

Benoudiba-Campanini, Thomas 13 July 2018 (has links)
La SER (Surface Équivalente Radar) est une grandeur caractérisant le pouvoir rétrodiffuseurd’une cible soumise à un champ électromagnétique. Dans de nombreuses applications,il est capital d’analyser et de contrôler la SER. L’imagerie 3D est l’outil adapté pourlocaliser et caractériser en trois dimensions les principaux contributeurs à la SER. Cependant,ce traitement est un problème de synthèse de Fourier qui n’est pas inversible car il y aplus d’inconnues que de données. Les méthodes conventionnelles telles que le Polar FormatAlgorithm, consistant en un reformatage des données avec complétion de zéro suivi d’unetransformée de Fourier inverse rapide, fournissent des résultats de qualité limitée.Dans ce travail, nous proposons une nouvelle méthode haute résolution. Elle est dénomméeSPRITE (pour SParse Radar Imaging TEchnique) et permet d’accroître considérablementla qualité des cartes de rétro-diffusion estimées. Elle repose sur une régularisation duproblème consistant en la prise en compte d’informations a priori de parcimonie et d’uneinformation de support. La solution est alors définie comme le minimiseur d’un critère pénaliséet contraint. L’optimisation est assurée par l’algorithme primal-dual ADMM (AlternatingDirection Method of Multiplier) dont une adaptation aux spécificités du problème mène à descalculs efficaces à l’aide de transformées de Fourier rapides.Finalement, la méthode est évaluée sur des données synthétiques et réelles. Comparativementà la méthode conventionnelle, la résolution est drastiquement accrue. Les images 3Dproduites sont alors un outil particulièrement adapté à l’analyse et au contrôle de SER. / The RCS (Radar Cross Section) is a quantity which characterizes the scattering power ofa target exposed to an electromagnetic field. Its analysis and control are important in manyapplications. 3D imaging is a suitable tool to accurately locate and characterize in 3D themain contributors to the RCS. However, this is a non-invertible Fourier synthesis problembecause the number of unknowns is larger than the number of data. Conventional methodssuch as the Polar Format Algorithm, which consists of data reformatting including zeropaddingfollowed by a fast inverse Fourier transform, provide results of limited quality.In this work, we propose a new high resolution method, named SPRITE (for SParse RadarImaging TEchnique), which considerably increases the quality of the estimated RCS maps. Itis based on a regularization scheme that accounts for information of sparsity and support. Thesolution is then defined as the minimizer of a penalized and constrained criterion. Optimizationis ensured by an appropriate adaptation of the ADMM (Alternating Direction Methodof Multiplier) algorithm that is able to quickly perform calculations using fast Fourier transforms.Finally, the method is evaluated on both simulated and real data. Compared to the conventionalmethod, the resolution is significantly increased and the images can support a betterRCS analysis and control.
113

Modèles paramétriques pour la tomographie sismique bayésienne / Parametric models for bayesian seismic tomography

Belhadj, Jihane 02 December 2016 (has links)
La tomographie des temps de première arrivée vise à retrouver un modèle de vitesse de propagation des ondes sismiques à partir des temps de première arrivée mesurés. Cette technique nécessite la résolution d’un problème inverse afin d’obtenir un modèle sismique cohérent avec les données observées. Il s'agit d'un problème mal posé pour lequel il n'y a aucune garantie quant à l'unicité de la solution. L’approche bayésienne permet d’estimer la distribution spatiale de la vitesse de propagation des ondes sismiques. Il en résulte une meilleure quantification des incertitudes associées. Cependant l’approche reste relativement coûteuse en temps de calcul, les algorithmes de Monte Carlo par chaînes de Markov (MCMC) classiquement utilisés pour échantillonner la loi a posteriori des paramètres n'étant efficaces que pour un nombre raisonnable de paramètres. Elle demande, de ce fait, une réflexion à la fois sur la paramétrisation du modèle de vitesse afin de réduire la dimension du problème et sur la définition de la loi a priori des paramètres. Le sujet de cette thèse porte essentiellement sur cette problématique.Le premier modèle que nous considérons est basé sur un modèle de mosaïque aléatoire, le modèle de Jonhson-Mehl, dérivé des mosaïques de Voronoï déjà proposées en tomographie bayésienne. Contrairement à la mosaïque de Voronoï, les cellules de Johsnon-mehl ne sont pas forcément convexes et sont bornées par des portions d’hyperboloïdes, offrant ainsi des frontières lisses entre les cellules. Le deuxième modèle est, quant à lui, décrit par une combinaison linéaire de fonctions gaussiennes, centrées sur la réalisation d'un processus ponctuel de Poisson. Pour chaque modèle, nous présentons un exemple de validation sur des champs de vitesse simulés. Nous appliquons ensuite notre méthodologie à un modèle synthétique plus complexe qui sert de benchmark dans l'industrie pétrolière. Nous proposons enfin, un modèle de vitesse basé sur la théorie du compressive sensing pour reconstruire le champ de vitesse. Ce modèle, encore imparfait, ouvre plusieurs pistes de recherches futures.Dans ce travail, nous nous intéressons également à un jeu de données réelles acquises dans le contexte de la fracturation hydraulique. Nous développons dans ce contexte une méthode d'inférence bayésienne trans-dimensionnelle et hiérarchique afin de traiter efficacement la complexité du modèle à couches. / First arrival time tomography aims at inferring the seismic wave propagation velocity using experimental first arrival times. In our study, we rely on a Bayesian approach to estimate the wave velocity and the associated uncertainties. This approach incorporates the information provided by the data and the prior knowledge of the velocity model. Bayesian tomography allows for a better estimation of wave velocity as well asassociated uncertainties. However, this approach remains fairly expensive, and MCMC algorithms that are used to sample the posterior distribution are efficient only as long as the number of parameters remains within reason. Hence, their use requires a careful reflection both on the parameterization of the velocity model, in order to reduce the problem's dimension, and on the definition of the prior distribution of the parameters. In this thesis, we introduce new parsimonious parameterizations enabling to accurately reproduce the wave velocity field with the associated uncertainties.The first parametric model that we propose uses a random Johnson-Mehl tessellation, a variation of the Voronoï tessellation. The second one uses Gaussian kernels as basis functions. It is especially adapted to the detection of seismic wave velocity anomalies. Each anomaly isconsidered to be a linear combination of these basis functions localized at the realization of a Poisson point process. We first illustrate the tomography results with a synthetic velocity model, which contains two small anomalies. We then apply our methodology to a more advanced and more realistic synthetic model that serves as a benchmark in the oil industry. The tomography results reveal the ability of our algorithm to map the velocity heterogeneitieswith precision using few parameters. Finally, we propose a new parametric model based on the compressed sensing techniques. The first results are encouraging. However, the model still has some weakness related to the uncertainties estimation.In addition, we analyse real data in the context of induced microseismicity. In this context, we develop a trans-dimensional and hierarchical approach in order to deal with the full complexity of the layered model.
114

Analyse de vitesse par migration itérative : vers une meilleure prise en compte des réflexions multiples / Iterative Migration Velocity Analysis : extension to surface-related multiple reflections

Cocher, Emmanuel 03 March 2017 (has links)
Les expériences de sismique active sont couramment utilisées pour estimer la valeur d'un modèle de vitesse de propagation desondes P dans le sous-sol. Les méthodes dites d'« analyse de vitesse par migration » ont pour but la détermination d'un macro-modèle de vitesse, lisse, et responsable de la cinématique de propagation des ondes. Dans une première étape de « migration », une image de réflectivité est obtenue à partir des données enregistrées en utilisant une première estimation du macro-modèle. Cette image dépend d’un paramètre additionnel permettant dans un second temps d’estimer la qualité du macro-modèle puis de l'améliorer. Les images de réflectivité obtenues par les techniques de migration classiques sont cependant contaminées par des artefacts, altérant la qualité de la remise à jour du macro-modèle. En particulier, elles ne prennent pas en compte les réflexions multiples, habituellement retirées des données avant traitement. Cette étape reste cependant délicate et on se prive alors de l'information supplémentaire contenue dans les multiples.Nous proposons dans cette étude une stratégie d’optimisation imbriquée en itérant l'étape de migration avant de remettre à jour le macro-modèle. La migration itérative produit des images de réflectivité satisfaisantes pour l'analyse de vitesse et s’étend naturellement aux réflexions multiples. Un désavantage de la méthode est son coût de calcul. Un pseudo-inverse de l'opérateur de modélisation est alors utilisé comme préconditionneur pour limiter le nombre d’itérations dans la boucle interne. Une autre difficulté est l'instabilité de la remise à jour du modèle de vitesse calculée pour des modèles de réflectivité successifs proches les uns des autres. Une nouvelle approche plus robustesse est proposée, valide aussi dans le cas de multiples. Son efficacité est testée sur des jeux de données synthétiques 2D. / Active seismic experiments are commonly used to recover a model of the P-wave propagation velocity in the subsurface. “Migration Velocity Analysis” techniques aim at deriving a smooth background velocity model controlling the kinematics of wave propagation. First, a reflectivity image is obtained by “migration” of observed data using a first estimate of the background velocity. This image depends on an additional “subsurface-offset” parameter allowing to assess the quality of the background velocity model with a focusing criterion and to correct it. However classical migration techniques do not provide a sufficiently accurate reflectivity image, leading to inconsistent velocity updates. In particular they do not take into account multiple reflections, usually regarded as noise and removed from the data before processing. Multiple removal is however a difficult step, and additional information contained in multiples is discarded.In this thesis, we propose to determine the reflectivity model by iterative migration before subsequent velocity analysis, leading to a nested optimisation procedure. Iterative migration yields accurate reflectivity image and extends naturally to the case of multiples. One of its disadvantages is the associated increased computational cost. To limit the number of iterations in the innerloop, a preconditioner based on a pseudo-inverse of the modelling operator is introduced. Another difficulty is the instability of the velocity update obtained with very close successive reflectivity models. We propose a modified approach, valid in the presence of multiples, and discussed through applications on 2D synthetic data sets.
115

Acoustic imaging in enclosed spaces / Imagerie acoustique en espace clos

Pereira, Antonio 12 July 2013 (has links)
Ce travail de recherche porte sur le problème de l'identification des sources de bruit en espace clos. La motivation principale était de proposer une technique capable de localiser et quantifier les sources de bruit à l'intérieur des véhicules industriels, d'une manière efficace en temps. Dans cette optique, la méthode pourrait être utilisée par les industriels à des fins de réduction de bruit, et donc construire des véhicules plus silencieux. Un modèle simplifié basé sur la formulation par sources équivalentes a été utilisé pour résoudre le problème. Nous montrerons que le problème est mal conditionné, dans le sens où il est très sensible face aux erreurs de mesure, et donc des techniques dites de régularisation sont nécessaires. Une étude détaillée de cette question, en particulier le réglage de ce qu'on appelle de paramètre de régularisation, a été important pour assurer la stabilité de la solution. En particulier, un critère de régularisation basé sur une approche bayésienne s'est montré très robuste pour ajuster le paramètre de régularisation de manière optimale. L'application cible concernant des environnements intérieurs relativement grands, nous a imposé des difficultés supplémentaires, à savoir: (a) le positionnement de l'antenne de capteurs à l'intérieur de l'espace; (b) le nombre d'inconnues (sources potentielles) beaucoup plus important que le nombre de positions de mesure. Une formulation par pondération itérative a ensuite été proposé pour surmonter les problèmes ci-dessus de manière à: (1) corriger pour le positionnement de l'antenne de capteurs dans l'habitacle ; (2) obtenir des résultats corrects en terme de quantification des sources identifiées. Par ailleurs, l'approche itérative nous a conduit à des résultats avec une meilleure résolution spatiale ainsi qu'une meilleure dynamique. Plusieurs études numériques ont été réalisées afin de valider la méthode ainsi que d'évaluer sa sensibilité face aux erreurs de modèle. En particulier, nous avons montré que l'approche est affectée par des conditions non-anéchoïques, dans le sens où les réflexions sont identifiées comme des vraies sources. Une technique de post-traitement qui permet de distinguer entre les chemins directs et réverbérants a été étudiée. La dernière partie de cette thèse porte sur des validations expérimentales et applications pratiques de la méthode. Une antenne sphérique constituée d'une sphère rigide et 31 microphones a été construite pour les tests expérimentaux. Plusieurs validations académiques ont été réalisées dans des environnements semi-anéchoïques, et nous ont illustré les avantages et limites de la méthode. Enfin, l'approche a été testé dans une application pratique, qui a consisté à identifier les sources de bruit ou faiblesses acoustiques à l'intérieur d'un bus. / This thesis is concerned with the problem of noise source identification in closed spaces. The main motivation was to propose a technique which allows to locate and quantify noise sources within industrial vehicles, in a time-effective manner. In turn, the technique might be used by manufacturers for noise abatement purposes such as to provide quieter vehicles. A simplified model based on the equivalent source formulation was used to tackle the problem. It was shown that the problem is ill-conditioned, in the sense that it is very sensitive to errors in measurement data, thus regularization techniques were required. A detailed study of this issue, in particular the tuning of the so-called regularization parameter, was of importance to ensure the stability of the solution. In particular, a Bayesian regularization criterion was shown to be a very robust approach to optimally adjust the regularization parameter in an automated way. The target application concerns very large interior environments, which imposes additional difficulties, namely: (a) the positioning of the measurement array inside the enclosure; (b) a number of unknowns ("candidate" sources) much larger than the number of measurement positions. An iterative weighted formulation was then proposed to overcome the above issues by: first correct for the positioning of the array within the enclosure and second iteratively solve the problem in order to obtain a correct source quantification. In addition, the iterative approach has provided results with an enhanced spatial resolution and dynamic range. Several numerical studies have been carried out to validate the method as well as to evaluate its sensitivity to modeling errors. In particular, it was shown that the approach is affected by non-anechoic conditions, in the sense that reflections are identified as "real" sources. A post-processing technique which helps to distinguish between direct and reverberant paths has been discussed. The last part of the thesis was concerned with experimental validations and practical applications of the method. A custom spherical array consisting of a rigid sphere and 31 microphones has been built for the experimental tests. Several academic experimental validations have been carried out in semi-anechoic environments, which illustrated the advantages and limits of the method. Finally, the approach was tested in a practical application, which consisted in identifying noise sources inside a bus at driving conditions.
116

Spatial separation of sound sources / Séparation spatiale des sources sonores

Dong, Bin 14 April 2014 (has links)
La séparation aveugle de sources est une technique prometteuse pour l'identification, la localisation, et la classification des sources sonores. L'objectif de cette thèse est de proposer des méthodes pour séparer des sources sonores incohérentes qui peuvent se chevaucher à la fois dans les domaines spatial et fréquentiel par l'exploitation de l'information spatiale. De telles méthodes sont d'intérêt dans les applications acoustiques nécessitant l'identification et la classification des sources sonores ayant des origines physiques différentes. Le principe fondamental de toutes les méthodes proposées se décrit en deux étapes, la première étant relative à la reconstruction du champ source (comme par exemple à l'aide de l'holographie acoustique de champ proche) et la seconde à la séparation aveugle de sources. Spécifiquement, l'ensemble complexe des sources est d'abord décomposé en une combinaison linéaire de fonctions de base spatiales dont les coefficients sont définis en rétropropageant les pressions mesurées par un réseau de microphones sur le domaine source. Cela conduit à une formulation similaire, mais pas identique, à la séparation aveugle de sources. Dans la seconde étape, ces coefficients sont séparés en variables latentes décorrélées, affectées à des “sources virtuelles” incohérentes. Il est montré que ces dernières sont définies par une rotation arbitraire. Un ensemble unique de sources sonores est finalement résolu par la recherche de la rotation (par gradient conjugué dans la variété Stiefel des matrices unitaires) qui minimise certains critères spatiaux, tels que la variance spatiale, l'entropie spatiale, ou l'orthogonalité spatiale. Il en résulte la proposition de trois critères de séparation à savoir la “moindre variance spatiale”, la “moindre entropie spatiale”, et la “décorrélation spatiale”, respectivement. De plus, la condition sous laquelle la décorrélation classique (analyse en composantes principales) peut résoudre le problème est établit de une manière rigoureuse. Le même concept d'entropie spatiale, qui est au cœur de cette thèse, est également exploité dans la définition d'un nouveau critère, la courbe en L entropique, qui permet de déterminer le nombre de sources sonores actives sur le domaine source d'intérêt. L'idée consiste à considérer le nombre de sources qui réalise le meilleur compromis entre une faible entropie spatiale (comme prévu à partir de sources compactes) et une faible entropie statistique (comme prévu à partir d'une faible erreur résiduelle). / Blind source separation is a promising technique for the identification, localization, and ranking of sound sources. The aim of this dissertation is to offer methods for separating incoherent sound sources which may overlap in both the space and frequency domains by exploiting spatial information. This is found of interest in acoustical applications involving the identification and ranking of sound sources stemming from different physical origins. The fundamental principle of all proposed methods proceeds in two steps, the first one being reminiscent to source reconstruction (e.g. as in near-field acoustical holography) and the second one to blind source separation. Specifically, the source mixture is first expanded into a linear combination of spatial basis functions whose coefficients are set by backpropagating the pressures measured by an array of microphones to the source domain. This leads to a formulation similar, but no identical, to blind source separation. In the second step, these coefficients are blindly separated into uncorrelated latent variables, assigned to incoherent “virtual sources”. These are shown to be defined up to an arbitrary rotation. A unique set of sound sources is finally recovered by searching for that rotation (conjugate gradient descent in the Stiefel manifold of unitary matrices) which minimizes some spatial criteria, such as spatial variance, spatial entropy, or spatial orthogonality. This results in the proposal of three separation criteria coined “least spatial variance”, “least spatial entropy”, and “spatial decorrelation”, respectively. Meanwhile, the condition under which classical decorrelation (principal component analysis) can solve the problem is deduced in a rigorous way. The same concept of spatial entropy, which is central to the dissertation, is also exploited in defining a new criterion, the entropic L-curve, dedicated to determining the number of active sound sources on the source domain of interest. The idea consists in considering the number of sources that achieves the best compromise between a low spatial entropy (as expected from compact sources) and a low statistical entropy (as expected from a low residual error).
117

Optimisation numérique stochastique évolutionniste : application aux problèmes inverses de tomographie sismique / Numerical optimization using stochastic evolutionary algorithms : application to seismic tomography inverse problems

Luu, Keurfon 28 September 2018 (has links)
La tomographie sismique des temps de trajet est un problème d'optimisation mal-posé du fait de la non-linéarité entre les temps et le modèle de vitesse. Par ailleurs, l'unicité de la solution n'est pas garantie car les données peuvent être expliquées par de nombreux modèles. Les méthodes de Monte-Carlo par Chaînes de Markov qui échantillonnent l'espace des paramètres sont généralement appréciées pour répondre à cette problématique. Cependant, ces approches ne peuvent pleinement tirer partie des ressources computationnelles fournies par les super-calculateurs modernes. Dans cette thèse, je me propose de résoudre le problème de tomographie sismique à l'aide d'algorithmes évolutionnistes. Ce sont des méthodes d'optimisation stochastiques inspirées de l'évolution naturelle des espèces. Elles opèrent sur une population de modèles représentés par un ensemble d'individus qui évoluent suivant des processus stochastiques caractéristiques de l'évolution naturelle. Dès lors, la population de modèles peut être intrinsèquement évaluée en parallèle ce qui rend ces algorithmes particulièrement adaptés aux architectures des super-calculateurs. Je m'intéresse plus précisément aux trois algorithmes évolutionnistes les plus populaires, à savoir l'évolution différentielle, l'optimisation par essaim particulaire, et la stratégie d'évolution par adaptation de la matrice de covariance. Leur faisabilité est étudiée sur deux jeux de données différents: un jeu réel acquis dans le contexte de la fracturation hydraulique et un jeu synthétique de réfraction généré à partir du modèle de vitesse Marmousi réputé pour sa géologie structurale complexe. / Seismic traveltime tomography is an ill-posed optimization problem due to the non-linear relationship between traveltime and velocity model. Besides, the solution is not unique as many models are able to explain the observed data. The non-linearity and non-uniqueness issues are typically addressed by using methods relying on Monte Carlo Markov Chain that thoroughly sample the model parameter space. However, these approaches cannot fully handle the computer resources provided by modern supercomputers. In this thesis, I propose to solve seismic traveltime tomography problems using evolutionary algorithms which are population-based stochastic optimization methods inspired by the natural evolution of species. They operate on concurrent individuals within a population that represent independent models, and evolve through stochastic processes characterizing the different mechanisms involved in natural evolution. Therefore, the models within a population can be intrinsically evaluated in parallel which makes evolutionary algorithms particularly adapted to the parallel architecture of supercomputers. More specifically, the works presented in this manuscript emphasize on the three most popular evolutionary algorithms, namely Differential Evolution, Particle Swarm Optimization and Covariance Matrix Adaptation - Evolution Strategy. The feasibility of evolutionary algorithms to solve seismic tomography problems is assessed using two different data sets: a real data set acquired in the context of hydraulic fracturing and a synthetic refraction data set generated using the Marmousi velocity model that presents a complex geology structure.
118

Contributions à l'estimation paramétrique des modèles décrits par les équations aux dérivées partielles / Contributions to parameter estimation of partial differential equations models

Schorsch, Julien 25 November 2013 (has links)
Les systèmes décrits par les équations aux dérivées partielles, appartiennent à la classe des systèmes dynamiques impliquant des fonctions dépendantes de plusieurs variables, comme le temps et l'espace. Déjà fortement répandus pour la modélisation mathématique de phénomènes physiques et environnementaux, ces systèmes ont un rôle croissant dans les domaines de l'automatique. Cette expansion, provoquée par les avancées technologiques au niveau des capteurs facilitant l'acquisition de données et par les nouveaux enjeux environnementaux, incite au développement de nouvelles thématiques de recherche. L'une de ces thématiques, est l'étude des problèmes inverses et plus particulièrement l'identification paramétrique des équations aux dérivées partielles. Tout abord, une description détaillée des différentes classes de systèmes décrits par ces équations est présentée puis les problèmes d'identification qui leur sont associés sont soulevés. L'accent est mis sur l'estimation paramétrique des équations linéaires, homogènes ou non, et sur les équations linéaires à paramètres variant. Un point commun à ces problèmes d'identification réside dans le caractère bruité et échantillonné des mesures de la sortie. Pour ce faire, deux types d'outils principaux ont été élaborés. Certaines techniques de discrétisation spatio-temporelle ont été utilisées pour faire face au caractère échantillonné des données; les méthodes de variable instrumentale, pour traiter le problème lié à la présence de bruit de mesure. Les performances de ces méthodes ont été évaluées selon des protocoles de simulation numérique reproduisant des situations réalistes de phénomènes physique et environnementaux, comme la diffusion de polluant dans une rivière / A large variety of natural, industrial, and environmental systems involves phenomena that are continuous functions not only of time, but also of other independent variables, such as space coordinates. Typical examples are transportation phenomena of mass or energy, such as heat transmission and/or exchange, humidity diffusion or concentration distributions. These systems are intrinsically distributed parameter systems whose description usually requires the introduction of partial differential equations. There is a significant number of phenomena that can be simulated and explained by partial differential equations. Unfortunately all phenomena are not likely to be represented by a single equation. Also, it is necessary to model the largest possible number of behaviors to consider several classes of partial differential equations. The most common are linear equations, but the most representative are non-linear equations. The nonlinear equations can be formulated in many different ways, the interest in nonlinear equations with linear parameters varying is studied. The aim of the thesis is to develop new estimators to identify the systems described by these partial differential equations. These estimators must be adapted with the actual data obtained in experiments. It is therefore necessary to develop estimators that provide convergent estimates when one is in the presence of missing data and are robust to measurement noise. In this thesis, identification methods are proposed for partial differential equation parameter estimation. These methods involve the introduction of estimators based on the instrumental variable technique
119

Contribution au modèle direct cérébral par stimulation électrique de profondeur et mesures SEEG : application à l'épilepsie / Contribution to the cerebral forward model by depth electric stimulation and SEEG measurements : Application in epilepsy

Hofmanis, Janis 20 November 2013 (has links)
La thérapie de l'épilepsie par résection partielle exige l'identification des structures cérébrales qui sont impliquées dans la genèse des crises d'épilepsie focales. Plusieurs modalités telles que l'IRM, le PET SCAN, la sémiologie de la crise et l'électrophysiologie sont exploitées par les experts pour contribuer à la localisation de la zone épileptogène. L'EEG du scalp est la modalité qui procure la résolution temporelle à l'échelle des processus électrophysiologiques étudiés. Cependant du fait du positionnement des capteurs sur le scalp, sa résolution spatiale et, plus précisément, de profondeur est très médiocre. Dans certain cas (épilepsies pharmaco-résistantes), et pour palier à cette déficience spatiale, il est possible d'avoir recours à la SEEG. La SEEG permet des mesures électrophysiologiques intracérébrales : la résolution spatiale et donc anatomique est excellente dans l'axe de la microélectrode. La définition de la zone épileptogène, comme celle proposée par Talairach et Bancaud, est une définition électro-clinique basée sur les résultats d'enregistrements de SEEG intracérébraux. Elle tient compte non seulement de la localisation anatomique de la décharge épileptique partielle, mais également de l'évolution dynamique de cette décharge, c'est à dire les réseaux neurologiques actifs durant la période intercritique-critique et des symptômes cliniques. Récemment, il a été proposé une technique de diagnostic complémentaire de localisation de la zone épileptogénique employant la stimulation électrique cérébrale de profondeur (Deep Brain Stimulation). Cette source exogène peut activer les réseaux épileptiques et produire une réaction électrophysiologique telle qu'une crise d'épilepsie. Elle permet également de mettre en exergue les zones fonctionnelles cognitives. Cette source exogène est parfaitement définie spatialement et temporellement. Ainsi, la stimulation, couplée aux mesures SEEG, contribue à la modélisation de la propagation électrique cérébrale et, par voie de conséquence, à la compréhension du processus épileptique. De plus, ce travail sur le modèle de propagation directe apporte une aide à la résolution du problème inverse et donc à la localisation de sources. Les différentes tâches accomplies au cours de cette thèse sont les suivantes : création d'une base de données réelles à partir de 3000 stimulations et mesures SEEG pour 42 patients explorés ; extraction par séparation des signaux de propagation de la stimulation électrique (DBS) des mesures multidimensionnelles SEEG : 5 méthodes ont été développées ou adaptées et ont été validées au cours d'une première phase en simulation puis sur des signaux réels SEEG dans une seconde phase ; localisation des électrodes de SEEG dans le repère anatomique de l'IRM et du CT Scanner en y ajoutant une étape de segmentation de la matière grise et blanche, du liquide céphalorachidien et de l'os ; discussion sur de nombreux modèles de propagation réalistes ou non réalistes proposés dans la littérature, à la fois sur le plan du raffinement du modèle mais également sur les implantations numériques possibles : modèles de milieu, sphériques et réalistes infinis basés sur MRI et CT du patient ; comparaison entre les résultats générés par les modèles de sources et de milieux et les données obtenues après séparation de la stimulation électrique in vivo chez l'homme ; validation des modèles de tête FEM en intégrant les conductivités des milieux (CSF), gris et blancs céphalo-rachidiens et perspectives envisagées / The study of epilepsy requires the identification of cerebral structures which are involved in generation of seizures and connexion processes. Several methods of clinical investigation contributed to these studies : imaging (PET, MRI), electrophysiology (EEG, SEEG, MEG). The EEG provides a temporal resolution enough to analyze these processes. However, the localization of deep sources and their dynamical properties are difficult to understand. SEEG is a modality of intracerebral electrophysiological and anatomical high temporal resolution reserved for some difficult cases of pre-surgical diagnosis : drug-resistant epilepsy. The definition of the epileptogenic zone, as proposed by Talairach and Bancaud is an electro-clinical definition based on the results of intracerebral SEEG recordings. It takes into account not only the anatomical localization of partial epileptic discharge, but also the dynamic evolution of this discharge (active neural networks at the time of seizure) and clinical symptoms. Recently, a novel diagnostic technique allows an accurate localization of the epileptogenic zone using Depth Brain Stimulation (DBS). This exogenous source can activate the epileptic networks and generate an electrophysiological reaction. Therefore, coupling DBS with SEEG measurements is very advantageous : firstly, to contribute to the modeling and understanding of the (epileptic) brain and to help the diagnosis, secondly, to access the estimation of head model as an electrical conductor (conductive properties of tissues). In addition, supplementary information about head model improves the solution to the inverse problem (source localization methods) used in many applications in EEG and SEEG. The inverse solution requires repeated computation of the forward problem, i.e. the simulation of EEG and SEEG fields for a given dipolar source in the brain using a volume-conduction model of the head. As for DBS, the location of source is well defined. Therefore, in this thesis, we search for the best head model for the forward problem from real synchronous measurements of EEG and SEEG with DBS in several patients. So, the work of the thesis breaks up into different parts for which we need to accomplish the following tasks : Creation of database 3000 DBS measurements for 42 patients ; Extraction of DBS signal from SEEG and EEG measurements using multidimensional analysis : 5 methods have been developed or adapted and validate first in a simulation study and, secondly, in a real SEEG application ; Localization of SEEG electrodes in MR and CT images, including segmentation of brain matter ; SEEG forward modeling using infinite medium, spherical and realistic models based on MRI and CT of the patient ; Comparison between different head models and validation with real in vivo DBS measurements ; Validation of realistic 5-compartment FEM head models by incorporating the conductivities of cerebrospinal fluid (CSF), gray and white matters
120

Méthodes de traitement du signal pour l'analyse quantitative de gaz respiratoires à partir d’un unique capteur MOX / Signal processing for quantitative analysis of exhaled breath using a single MOX sensor

Madrolle, Stéphanie 27 September 2018 (has links)
Prélevés de manière non invasive, les gaz respiratoires sont constitués de nombreux composés organiques volatils (VOCs) dont la quantité dépend de l’état de santé du sujet. L’analyse quantitative de l’air expiré présente alors un fort intérêt médical, que ce soit pour le diagnostic ou le suivi de traitement. Dans le cadre de ma thèse, nous proposons d’étudier un dispositif d’analyse des gaz respiratoires, et notamment de ces VOCs. Cette thèse multidisciplinaire aborde différents aspects, tels que le choix des capteurs, du matériel et des modes d’acquisition, l’acquisition des données à l’aide d’un banc gaz, et ensuite le traitement des signaux obtenus de manière à quantifier un mélange de gaz. Nous étudions la réponse d’un capteur à oxyde métallique (MOX) à des mélanges de deux gaz (acétone et éthanol) dilués dans de l’air synthétique (oxygène et azote). Ensuite, nous utilisons des méthodes de séparation de sources de manière à distinguer les deux gaz, et déterminer leur concentration. Pour donner des résultats satisfaisants, ces méthodes nécessitent d’utiliser plusieurs capteurs dont on connait la forme mathématique du modèle décrivant l’interaction du mélange avec le capteur, et qui présentent une diversité suffisante dans les mesures d’étalonnage pour estimer les coefficients de ce modèle. Dans cette thèse, nous montrons que les capteurs MOX peuvent être décrits par un modèle de mélange linéaire quadratique, et qu’un mode d’acquisition fonctionnant en double température permet de générer deux capteurs virtuels à partir d’un unique capteur physique. Pour quantifier précisément les composants du mélange à partir des mesures sur ces capteurs (virtuels), nous avons conçu des méthodes de séparation de sources, supervisées et non supervisées appliquées à ce modèle non-linéaire : l’analyse en composantes indépendantes, des méthodes de moindres carrés (algorithme de Levenberg-Marquardt), et une méthode bayésienne ont été étudiées. Les résultats expérimentaux montrent que ces méthodes permettent d’estimer les concentrations de VOCs contenus dans un mélange de gaz, de façon précise, en ne nécessitant que très peu de points de calibration. / Non-invasively taken, exhaled breath contains many volatile organic compounds (VOCs) whose amount depends on the health of the subject. Quantitative analysis of exhaled air is of great medical interest, whether for diagnosis or for a treatment follow-up. As part of my thesis, we propose to study a device to analyze exhaled breath, including these VOCs. This multidisciplinary thesis addresses various aspects, such as the choice of sensors, materials and acquisition modes, the acquisition of data using a gas bench, and then the processing of the signals obtained to quantify a gas mixture. We study the response of a metal oxide sensor (MOX) to mixtures of two gases (acetone and ethanol) diluted in synthetic air (oxygen and nitrogen). Then, we use source separation methods in order to distinguish the two gases, and to determine their concentration. To give satisfactory results, these methods require first to use several sensors for which we know the mathematical model describing the interaction of the mixture with the sensor, and which present a sufficient diversity in the calibration measurements to estimate the model coefficients. In this thesis, we show that MOX sensors can be described by a linear-quadratic mixing model, and that a dual temperature acquisition mode can generate two virtual sensors from a single physical sensor. To quantify the components of the mixture from measurements on these (virtual) sensors, we have develop supervised and unsupervised source separation methods, applied to this nonlinear model: independent component analysis, least squares methods (Levenberg Marquardt algorithm), and a Bayesian method were studied. The experimental results show that these methods make it possible to estimate the VOC concentrations of a gas mixture, accurately, while requiring only a few calibration points.

Page generated in 0.089 seconds