Spelling suggestions: "subject:"inverse problem"" "subject:"lnverse problem""
211 |
Outils numériques et technologiques pour l'analyse de la qualité de l'air intérieur / Technological and numerical tools for indoor air quality monitoringCésar, William 05 March 2014 (has links)
L'objectif de cette thèse est le développement d'outils technologiques et logiciels permettant un monitoring de la qualité de l'air intérieur. Cela comprend la conception de capteurs miniaturisés permettant la détection simultanée d'un grand nombre de polluants, ainsi que le développement de modèles numériques inverses utilisant les données issues de ces capteurs et permettant la reconstruction de sources de polluants. Ces travaux ont mené à l'élaboration d'un prototype fonctionnel de micro-chromatographe en phase gazeuse, système d'analyse chimique miniaturisé permettant la détection de multiples polluants. La colonne de séparation fabriquée en technologie MEMS a permis la séparation de divers composés organiques volatils en quelques dizaines de secondes. Le micro-détecteur TCD, fondé sur une mesure 4-pointes couplée à un circuit d'asservissement en température original, a permis la détection des composés séparés dans la colonne. Afin d'améliorer et de tirer au mieux parti des micro-chromatographes, des méthodes d'injections stochastiques ont été développées. Il a été démontré que ces méthodes ont plusieurs intérêts. D'une part, elles permettent facilement un gain de rapport signal/bruit de l'ordre de la décade, ce qui permet la détection de polluants plus faiblement concentrés. Il a été observé d'autre part qu'il est possible de suivre en temps réel l'évolution moyenne de la concentration des polluants alors que cela n'est pas possible lorsque le chromatographe est utilisé de manière standard. Enfin, une méthode d'injection et de traitement du signal permettant l'analyse simultanée de plusieurs échantillons avec un unique capteur a été développée. Enfin, ces travaux ont été complétés par le développement de modèles inverses 2D permettant, à partir de données issues de micro-chromatographes placés dans l'espace, la reconstruction de sources de polluants et de champs de vitesses par méthode des gaz traceur. Ces modèles sont fondés sur une approche de contrôle optimal et utilisent une résolution des équations de Navier-Stokes et de diffusion-advection par la méthode éléments finis. L'utilisation de bases orthonormées obtenues par POD a permis de régulariser ces modèles inverses / The goal of this thesis is the development of technological and numerical tools for the monitoring of indoor air quality. That comprises the design of miniaturized sensors capable of detecting a large number of pollutants, and the development of inverse models allowing the reconstruction of pollutant sources from concentration measurements. In this work we present the realization of a micro-gas chromatograph, miniaturized chemical-analysis system fabricated with silicon-based MEMS technology. The separation column can separate multiple volatile organic compounds in less than a minute. The integrated thermal conductivity detector, based on a 4-points measurement technique coupled with an original temperature control circuit, can detect compounds separated in the column. In order to improve the performances of such micro-chromatographs, stochastic injection techniques have been developped. We have shown that these techniques easily allow to reduce the detection noise by an order of magnitude so that low-concentrated pollutants can be detected. We also observed that it is possible to follow in real time the mean evolution of the concentration with such techniques. We finally developped an original multiplexing technique that allows to monitor multiple sample streams simultaneoulsy with a single sensor. Finally, this work is completed by the development of 2D inverse models that allow, from data measured by micro-chromatographs placed in a room, to reconstruct pollutant sources, concentration fields or airflow patterns. Those models are based on an optimal control approach and use the resolution of Navier-Stokes and diffusion-advection equations with the finite element method. POD orthonormal basis are used for the regularization of the problem
|
212 |
Mesures en service et reconstruction de champs mécaniques sur structuresMartini, Dominique 10 October 2011 (has links)
Ce manuscrit traite de la problématique de la surveillance des structures depuis la mesure en service jusqu'à la caractérisation des champs mécaniques. La technologie des systèmes de mesure est étudiée dans la première partie. Les spécifications d'un système de mesure embarqué sont identifiées à partir d'essais en service sur des structures et à partir des applications envisagées. Ces spécifications définissent les hypothèses de résolution du problème inverse lié à l'interprétation des mesures.La deuxième partie présente la formulation du problème inverse de surveillance des structures à partir des hypothèses précédemment énoncées. Le principe est de reconstruire les champs mécaniques à partir de l'identification des conditions aux limites. Seul le chargement est considéré et le principe de Saint-Venant permet de restreindre le nombre de paramètres nécessaires à sa modélisation. La difficulté réside alors dans le choix des bonnes bases de chargement et dans le positionnement des capteurs. Cette méthode est appliquée aux structures poutres dans la troisième partie. Les bases de chargement sont obtenues à partir d'une projection des solutions analytiques du problème de poutre sur les bords des structures. Le positionnement des capteurs est ensuite étudié sur des structures poutres élémentaires qui réduisent le problème inverse à une identification polynomiale. La décomposition des structures poutres complexes en structures élémentaires simplifie alors la définition des bases de chargement et le positionnement des capteurs. La dernière partie présente les résultats obtenus sur des structures plaques. Les bases de chargement sont construites par projection des solutions analytiques pour les domaines étoilés. L'extension à des domaines quelconques est faite en considérant seulement les bords chargés des structures pour se ramener à des domaines étoilés équivalents. Bien que ces bases ne soient plus complètes, les résultats obtenus sur des plaques trouées montrent leur intérêt. Ces résultats servent ensuite à la construction des bases de chargement et au positionnement des capteurs pour les structures complexes modélisées par des assemblages de plaques. / This thesis tackles the problem of structural monitoring from integrated measurements to full-field reconstruction.In a first part, the technology of measurement systems is studied. An integrated measurement system is specified from some structural tests in-service and its future applications. These specifications define the mechanical framework of structural monitoring.The inverse problem associated with structural monitoring is expressed in a second part. The mechanical hypothesis result from the previously defined framework. The boundary conditions are identified in order to reconstruct the mechanical fields. The loads are considered only and the Saint-Venant's principle allows to limit the number of the loading parameters. The main issue is then to find the right loading basis and then to optimize the sensor locations.This method for structural monitoring is applied to beams in the third part. The analytical solutions of the mechanical equations for beams are projected on the boundary of the structures in order to obtain the loading basis. The optimal sensor locations are then estimate from elementary structures, what reduces the inverse problem to a polynomial identification. The complex beam structures are then decomposed into elementary ones, what drastically simplifies the construction of the loading bases and the sensor locations.In a last part, plate structures are considered. The loading basis are firstly defined by the projection of the analytical solutions of star-shaped domain. These basis are then extended to any plate structures using some loaded boundaries only in order to design an equivalent star-shaped domain. Even if these loading basis are incomplete sets, the results are in good agreement. The same principle is used to obtain the loading basis for complex structures modeled by plate assemblies.
|
213 |
Détermination expérimentale de la distribution de taille de pores d’un milieu poreux par l’injection d’un fluide à seuil ou analyse harmonique / Experimental identification of the pore size distribution of porous media using a frequency analysis or a yield stress fluid.Malvault, Guillaume 27 September 2013 (has links)
Deux approches pour caractériser les milieux poreux en terme de distribution de taille de pores (DTP) sont développées au sein de l'équipe ECPS. Ce travail a pour but de confirmer expérimentalement leurs validités. A l'instar des autres méthodes utilisant l'intrusion du mercure, l'adsorption isotherme ou la thermoporosimétrie, la première méthode consiste à utiliser un fluide à seuil d'écoulement. En effet, l'utilisation de l'écoulement d'un fluide à seuil de type Herschel-Bulkley, au travers d'un poreux, en fonction du gradient de pression permet (en utilisant les solutions analytique et numérique du problème inverse) de déterminer la fonction de distribution de la taille de pores. La seconde méthode utilise l'admittance complexe d'un milieu poreux, mesurée à partir de la réponse en débit à une sollicitation harmonique du gradient de pression. Comme la fréquence de la sollicitation est reliée aux rayons des pores par le biais de la profondeur de pénétration hydrodynamique, l'admittance permet de retrouver la distribution de taille de pores par la résolution numérique du problème inverse associé. Ces deux techniques sont basées sur le modèle de faisceaux de capillaires parallèles employé dans la plupart des autres études qui traitent du même problème. Nos expériences s'appuient sur des milieux poreux calibrés. L'application de ces techniques aux milieux poreux réels se fait actuellement en collaboration avec le TREFLE de Bordeaux. Les résultats expérimentaux obtenus affirment clairement la validité et l'applicabilité de ces deux méthodes pour la caractérisation de la DTP. Il est désormais envisageable de les transférer pour un usage industriel. / Two approaches to characterize porous media in terms of pore size distribution (PSD) are developed within our ECPS team. The aim of this study is to experimentally confirm their validity. Like the other methods using mercury intrusion, adsorption isotherm or thermoporometry, the first method consists in the use of a fluid flow threshold. Indeed, the use of flow of a yield-stress fluid like those of Herschel-Bulkley's, through a porous media, versus the pressure gradient, permits (using the analytical and numerical solutions of the inverse problem) to determine the distribution function of its PSD. The second method uses the complex admittance of a porous medium, measured from the flow rate response to a harmonic pressure gradient. As the frequency of the sollicitation is related to the pore radius through the hydrodynamic penetration depth, the admittance allows to determine the PSD using numerical solution of the associated inverse problem. Both techniques are based on the parallel capillaries bundle model, as used in most of similar studies. Our experiments use calibrated porous media. The application of these techniques to real porous media is currently lead in collaboration with the TREFLE (Bordeaux). Our experimental results clearly confirm the validity and the applicability of these methods for the characterization of the PSD. It is now possible to transfer them for an industrial use.
|
214 |
Diagnostic de défauts d'isolement dans des lignes de transmission électriques : application aux cables de signalisation SNCF / Diagnosis of insulation faults in electric transmission lines : application to railway signaling cablesDjaziri, Leila 15 July 2015 (has links)
Ces travaux de thèse portent sur la détection de défauts d'isolement dans des lignes de transmission de grandes longueurs. Il s'agit de détecter des défauts non francs liés à l'isolant entre les conducteurs d'un câble de grande longueur qui sont représentés par le paramètre de conductance de fuite. Détecter ces défauts, signes d'un possible futur court-circuit, est un enjeu important mais nécessite une méthode non invasive. Par exemple, dans le cas des câbles de signalisation SNCF, il s'agit de développer une méthode de diagnostic de très faibles conductances de fuite dans les câbles de signalisation le long des voies ferrées compatible avec la circulation des trains. Il faut savoir estimer, à partir de mesures en un seul point du câble, de fortes résistances distribuées sur plusieurs centaines de mètres sans perturber la bande de fréquences du continu à 40 kHz, réservée aux signaux de service. En effet, les câbles de signalisation de la SNCF qui nous intéressent ont une longueur moyenne de 1500 m et sont utilisés dans la bande de fréquence 0-40 kHz. Nous proposons donc une méthode fréquentielle permettant d'estimer de faibles défauts à moyenne fréquence dans des lignes de transmission uniformes avec pertes. Elle repose sur deux idées principales : une analyse fine des effets conjoints de la dissipation et de la dispersion et une méthode de comparaison de deux lignes ayant les mêmes caractéristiques et ne différant que du paramètre de conductance de fuite. Cette méthode de comparaison a été généralisée dans le cas de lignes multiconducteurs en adoptant une démarche statistique.\\Cette thèse a apporté de nouveaux résultats : des formules d'estimation de pertes découlant de l'analyse fine d'une part des effets conjoints de la dissipation et de la dispersion et d'autre part de la méthode de comparaison de deux lignes. Des simulations numériques ont été faites dans les deux cas afin de valider la méthode fréquentielle proposée. Des expériences ont été réalisées afin de valider l'analyse statistique développée dans le cas de lignes multiconducteurs. / This thesis work focuses on the detection of insulation faults in very long transmission lines. This is detecting soft defects related to the insulation between the conductors of a long cable which are represented by the leakage conductance parameter. Detect these faults, signs of a possible future short-circuit, is an important issue but requires a noninvasive method. For example, in the case of railway signaling cables, it is to develop a method of diagnosis of very low leakage conductances in signaling cables along railways compatible with the movement of trains. Be aware estimate from measurements in one point of the cable, strong resistance distributed over several hundred meters without disturbing the continuous frequency range to 40 kHz, reserved for service signals. Indeed, the signal cables from the train that interest us have an average length 1500 m and are used in the frequency band 0-40 kHz.We propose so a frequency method for estimating low defects to medium frequency in uniform transmission lines with losses. It is based on two main ideas : a detailed analysis of joint effects of dissipation and dispersion and a method of comparing two lines having the same characteristics and differing only leak conductance parameter. This method of comparison was widespread in the case of multiconductor lines by adopting a statistical approach.This thesis has brought new results : losses estimation formulas resulting from the detailed analysis of a share of joint effects of dissipation and dispersion and also the method of comparing two lines. Numerical simulations were made in both cases to validate the proposed frequency method. Experiments were performed to validate the statistical analysis in the case of multiconductor lines.
|
215 |
Approche parcimonieuse pour l’imagerie 3D haute résolution de surface équivalente radar. / Sparse approach for high resolution 3D radar cross section imaging.Benoudiba-Campanini, Thomas 13 July 2018 (has links)
La SER (Surface Équivalente Radar) est une grandeur caractérisant le pouvoir rétrodiffuseurd’une cible soumise à un champ électromagnétique. Dans de nombreuses applications,il est capital d’analyser et de contrôler la SER. L’imagerie 3D est l’outil adapté pourlocaliser et caractériser en trois dimensions les principaux contributeurs à la SER. Cependant,ce traitement est un problème de synthèse de Fourier qui n’est pas inversible car il y aplus d’inconnues que de données. Les méthodes conventionnelles telles que le Polar FormatAlgorithm, consistant en un reformatage des données avec complétion de zéro suivi d’unetransformée de Fourier inverse rapide, fournissent des résultats de qualité limitée.Dans ce travail, nous proposons une nouvelle méthode haute résolution. Elle est dénomméeSPRITE (pour SParse Radar Imaging TEchnique) et permet d’accroître considérablementla qualité des cartes de rétro-diffusion estimées. Elle repose sur une régularisation duproblème consistant en la prise en compte d’informations a priori de parcimonie et d’uneinformation de support. La solution est alors définie comme le minimiseur d’un critère pénaliséet contraint. L’optimisation est assurée par l’algorithme primal-dual ADMM (AlternatingDirection Method of Multiplier) dont une adaptation aux spécificités du problème mène à descalculs efficaces à l’aide de transformées de Fourier rapides.Finalement, la méthode est évaluée sur des données synthétiques et réelles. Comparativementà la méthode conventionnelle, la résolution est drastiquement accrue. Les images 3Dproduites sont alors un outil particulièrement adapté à l’analyse et au contrôle de SER. / The RCS (Radar Cross Section) is a quantity which characterizes the scattering power ofa target exposed to an electromagnetic field. Its analysis and control are important in manyapplications. 3D imaging is a suitable tool to accurately locate and characterize in 3D themain contributors to the RCS. However, this is a non-invertible Fourier synthesis problembecause the number of unknowns is larger than the number of data. Conventional methodssuch as the Polar Format Algorithm, which consists of data reformatting including zeropaddingfollowed by a fast inverse Fourier transform, provide results of limited quality.In this work, we propose a new high resolution method, named SPRITE (for SParse RadarImaging TEchnique), which considerably increases the quality of the estimated RCS maps. Itis based on a regularization scheme that accounts for information of sparsity and support. Thesolution is then defined as the minimizer of a penalized and constrained criterion. Optimizationis ensured by an appropriate adaptation of the ADMM (Alternating Direction Methodof Multiplier) algorithm that is able to quickly perform calculations using fast Fourier transforms.Finally, the method is evaluated on both simulated and real data. Compared to the conventionalmethod, the resolution is significantly increased and the images can support a betterRCS analysis and control.
|
216 |
Modèles paramétriques pour la tomographie sismique bayésienne / Parametric models for bayesian seismic tomographyBelhadj, Jihane 02 December 2016 (has links)
La tomographie des temps de première arrivée vise à retrouver un modèle de vitesse de propagation des ondes sismiques à partir des temps de première arrivée mesurés. Cette technique nécessite la résolution d’un problème inverse afin d’obtenir un modèle sismique cohérent avec les données observées. Il s'agit d'un problème mal posé pour lequel il n'y a aucune garantie quant à l'unicité de la solution. L’approche bayésienne permet d’estimer la distribution spatiale de la vitesse de propagation des ondes sismiques. Il en résulte une meilleure quantification des incertitudes associées. Cependant l’approche reste relativement coûteuse en temps de calcul, les algorithmes de Monte Carlo par chaînes de Markov (MCMC) classiquement utilisés pour échantillonner la loi a posteriori des paramètres n'étant efficaces que pour un nombre raisonnable de paramètres. Elle demande, de ce fait, une réflexion à la fois sur la paramétrisation du modèle de vitesse afin de réduire la dimension du problème et sur la définition de la loi a priori des paramètres. Le sujet de cette thèse porte essentiellement sur cette problématique.Le premier modèle que nous considérons est basé sur un modèle de mosaïque aléatoire, le modèle de Jonhson-Mehl, dérivé des mosaïques de Voronoï déjà proposées en tomographie bayésienne. Contrairement à la mosaïque de Voronoï, les cellules de Johsnon-mehl ne sont pas forcément convexes et sont bornées par des portions d’hyperboloïdes, offrant ainsi des frontières lisses entre les cellules. Le deuxième modèle est, quant à lui, décrit par une combinaison linéaire de fonctions gaussiennes, centrées sur la réalisation d'un processus ponctuel de Poisson. Pour chaque modèle, nous présentons un exemple de validation sur des champs de vitesse simulés. Nous appliquons ensuite notre méthodologie à un modèle synthétique plus complexe qui sert de benchmark dans l'industrie pétrolière. Nous proposons enfin, un modèle de vitesse basé sur la théorie du compressive sensing pour reconstruire le champ de vitesse. Ce modèle, encore imparfait, ouvre plusieurs pistes de recherches futures.Dans ce travail, nous nous intéressons également à un jeu de données réelles acquises dans le contexte de la fracturation hydraulique. Nous développons dans ce contexte une méthode d'inférence bayésienne trans-dimensionnelle et hiérarchique afin de traiter efficacement la complexité du modèle à couches. / First arrival time tomography aims at inferring the seismic wave propagation velocity using experimental first arrival times. In our study, we rely on a Bayesian approach to estimate the wave velocity and the associated uncertainties. This approach incorporates the information provided by the data and the prior knowledge of the velocity model. Bayesian tomography allows for a better estimation of wave velocity as well asassociated uncertainties. However, this approach remains fairly expensive, and MCMC algorithms that are used to sample the posterior distribution are efficient only as long as the number of parameters remains within reason. Hence, their use requires a careful reflection both on the parameterization of the velocity model, in order to reduce the problem's dimension, and on the definition of the prior distribution of the parameters. In this thesis, we introduce new parsimonious parameterizations enabling to accurately reproduce the wave velocity field with the associated uncertainties.The first parametric model that we propose uses a random Johnson-Mehl tessellation, a variation of the Voronoï tessellation. The second one uses Gaussian kernels as basis functions. It is especially adapted to the detection of seismic wave velocity anomalies. Each anomaly isconsidered to be a linear combination of these basis functions localized at the realization of a Poisson point process. We first illustrate the tomography results with a synthetic velocity model, which contains two small anomalies. We then apply our methodology to a more advanced and more realistic synthetic model that serves as a benchmark in the oil industry. The tomography results reveal the ability of our algorithm to map the velocity heterogeneitieswith precision using few parameters. Finally, we propose a new parametric model based on the compressed sensing techniques. The first results are encouraging. However, the model still has some weakness related to the uncertainties estimation.In addition, we analyse real data in the context of induced microseismicity. In this context, we develop a trans-dimensional and hierarchical approach in order to deal with the full complexity of the layered model.
|
217 |
Analyse de vitesse par migration itérative : vers une meilleure prise en compte des réflexions multiples / Iterative Migration Velocity Analysis : extension to surface-related multiple reflectionsCocher, Emmanuel 03 March 2017 (has links)
Les expériences de sismique active sont couramment utilisées pour estimer la valeur d'un modèle de vitesse de propagation desondes P dans le sous-sol. Les méthodes dites d'« analyse de vitesse par migration » ont pour but la détermination d'un macro-modèle de vitesse, lisse, et responsable de la cinématique de propagation des ondes. Dans une première étape de « migration », une image de réflectivité est obtenue à partir des données enregistrées en utilisant une première estimation du macro-modèle. Cette image dépend d’un paramètre additionnel permettant dans un second temps d’estimer la qualité du macro-modèle puis de l'améliorer. Les images de réflectivité obtenues par les techniques de migration classiques sont cependant contaminées par des artefacts, altérant la qualité de la remise à jour du macro-modèle. En particulier, elles ne prennent pas en compte les réflexions multiples, habituellement retirées des données avant traitement. Cette étape reste cependant délicate et on se prive alors de l'information supplémentaire contenue dans les multiples.Nous proposons dans cette étude une stratégie d’optimisation imbriquée en itérant l'étape de migration avant de remettre à jour le macro-modèle. La migration itérative produit des images de réflectivité satisfaisantes pour l'analyse de vitesse et s’étend naturellement aux réflexions multiples. Un désavantage de la méthode est son coût de calcul. Un pseudo-inverse de l'opérateur de modélisation est alors utilisé comme préconditionneur pour limiter le nombre d’itérations dans la boucle interne. Une autre difficulté est l'instabilité de la remise à jour du modèle de vitesse calculée pour des modèles de réflectivité successifs proches les uns des autres. Une nouvelle approche plus robustesse est proposée, valide aussi dans le cas de multiples. Son efficacité est testée sur des jeux de données synthétiques 2D. / Active seismic experiments are commonly used to recover a model of the P-wave propagation velocity in the subsurface. “Migration Velocity Analysis” techniques aim at deriving a smooth background velocity model controlling the kinematics of wave propagation. First, a reflectivity image is obtained by “migration” of observed data using a first estimate of the background velocity. This image depends on an additional “subsurface-offset” parameter allowing to assess the quality of the background velocity model with a focusing criterion and to correct it. However classical migration techniques do not provide a sufficiently accurate reflectivity image, leading to inconsistent velocity updates. In particular they do not take into account multiple reflections, usually regarded as noise and removed from the data before processing. Multiple removal is however a difficult step, and additional information contained in multiples is discarded.In this thesis, we propose to determine the reflectivity model by iterative migration before subsequent velocity analysis, leading to a nested optimisation procedure. Iterative migration yields accurate reflectivity image and extends naturally to the case of multiples. One of its disadvantages is the associated increased computational cost. To limit the number of iterations in the innerloop, a preconditioner based on a pseudo-inverse of the modelling operator is introduced. Another difficulty is the instability of the velocity update obtained with very close successive reflectivity models. We propose a modified approach, valid in the presence of multiples, and discussed through applications on 2D synthetic data sets.
|
218 |
Acoustic imaging in enclosed spaces / Imagerie acoustique en espace closPereira, Antonio 12 July 2013 (has links)
Ce travail de recherche porte sur le problème de l'identification des sources de bruit en espace clos. La motivation principale était de proposer une technique capable de localiser et quantifier les sources de bruit à l'intérieur des véhicules industriels, d'une manière efficace en temps. Dans cette optique, la méthode pourrait être utilisée par les industriels à des fins de réduction de bruit, et donc construire des véhicules plus silencieux. Un modèle simplifié basé sur la formulation par sources équivalentes a été utilisé pour résoudre le problème. Nous montrerons que le problème est mal conditionné, dans le sens où il est très sensible face aux erreurs de mesure, et donc des techniques dites de régularisation sont nécessaires. Une étude détaillée de cette question, en particulier le réglage de ce qu'on appelle de paramètre de régularisation, a été important pour assurer la stabilité de la solution. En particulier, un critère de régularisation basé sur une approche bayésienne s'est montré très robuste pour ajuster le paramètre de régularisation de manière optimale. L'application cible concernant des environnements intérieurs relativement grands, nous a imposé des difficultés supplémentaires, à savoir: (a) le positionnement de l'antenne de capteurs à l'intérieur de l'espace; (b) le nombre d'inconnues (sources potentielles) beaucoup plus important que le nombre de positions de mesure. Une formulation par pondération itérative a ensuite été proposé pour surmonter les problèmes ci-dessus de manière à: (1) corriger pour le positionnement de l'antenne de capteurs dans l'habitacle ; (2) obtenir des résultats corrects en terme de quantification des sources identifiées. Par ailleurs, l'approche itérative nous a conduit à des résultats avec une meilleure résolution spatiale ainsi qu'une meilleure dynamique. Plusieurs études numériques ont été réalisées afin de valider la méthode ainsi que d'évaluer sa sensibilité face aux erreurs de modèle. En particulier, nous avons montré que l'approche est affectée par des conditions non-anéchoïques, dans le sens où les réflexions sont identifiées comme des vraies sources. Une technique de post-traitement qui permet de distinguer entre les chemins directs et réverbérants a été étudiée. La dernière partie de cette thèse porte sur des validations expérimentales et applications pratiques de la méthode. Une antenne sphérique constituée d'une sphère rigide et 31 microphones a été construite pour les tests expérimentaux. Plusieurs validations académiques ont été réalisées dans des environnements semi-anéchoïques, et nous ont illustré les avantages et limites de la méthode. Enfin, l'approche a été testé dans une application pratique, qui a consisté à identifier les sources de bruit ou faiblesses acoustiques à l'intérieur d'un bus. / This thesis is concerned with the problem of noise source identification in closed spaces. The main motivation was to propose a technique which allows to locate and quantify noise sources within industrial vehicles, in a time-effective manner. In turn, the technique might be used by manufacturers for noise abatement purposes such as to provide quieter vehicles. A simplified model based on the equivalent source formulation was used to tackle the problem. It was shown that the problem is ill-conditioned, in the sense that it is very sensitive to errors in measurement data, thus regularization techniques were required. A detailed study of this issue, in particular the tuning of the so-called regularization parameter, was of importance to ensure the stability of the solution. In particular, a Bayesian regularization criterion was shown to be a very robust approach to optimally adjust the regularization parameter in an automated way. The target application concerns very large interior environments, which imposes additional difficulties, namely: (a) the positioning of the measurement array inside the enclosure; (b) a number of unknowns ("candidate" sources) much larger than the number of measurement positions. An iterative weighted formulation was then proposed to overcome the above issues by: first correct for the positioning of the array within the enclosure and second iteratively solve the problem in order to obtain a correct source quantification. In addition, the iterative approach has provided results with an enhanced spatial resolution and dynamic range. Several numerical studies have been carried out to validate the method as well as to evaluate its sensitivity to modeling errors. In particular, it was shown that the approach is affected by non-anechoic conditions, in the sense that reflections are identified as "real" sources. A post-processing technique which helps to distinguish between direct and reverberant paths has been discussed. The last part of the thesis was concerned with experimental validations and practical applications of the method. A custom spherical array consisting of a rigid sphere and 31 microphones has been built for the experimental tests. Several academic experimental validations have been carried out in semi-anechoic environments, which illustrated the advantages and limits of the method. Finally, the approach was tested in a practical application, which consisted in identifying noise sources inside a bus at driving conditions.
|
219 |
Spatial separation of sound sources / Séparation spatiale des sources sonoresDong, Bin 14 April 2014 (has links)
La séparation aveugle de sources est une technique prometteuse pour l'identification, la localisation, et la classification des sources sonores. L'objectif de cette thèse est de proposer des méthodes pour séparer des sources sonores incohérentes qui peuvent se chevaucher à la fois dans les domaines spatial et fréquentiel par l'exploitation de l'information spatiale. De telles méthodes sont d'intérêt dans les applications acoustiques nécessitant l'identification et la classification des sources sonores ayant des origines physiques différentes. Le principe fondamental de toutes les méthodes proposées se décrit en deux étapes, la première étant relative à la reconstruction du champ source (comme par exemple à l'aide de l'holographie acoustique de champ proche) et la seconde à la séparation aveugle de sources. Spécifiquement, l'ensemble complexe des sources est d'abord décomposé en une combinaison linéaire de fonctions de base spatiales dont les coefficients sont définis en rétropropageant les pressions mesurées par un réseau de microphones sur le domaine source. Cela conduit à une formulation similaire, mais pas identique, à la séparation aveugle de sources. Dans la seconde étape, ces coefficients sont séparés en variables latentes décorrélées, affectées à des “sources virtuelles” incohérentes. Il est montré que ces dernières sont définies par une rotation arbitraire. Un ensemble unique de sources sonores est finalement résolu par la recherche de la rotation (par gradient conjugué dans la variété Stiefel des matrices unitaires) qui minimise certains critères spatiaux, tels que la variance spatiale, l'entropie spatiale, ou l'orthogonalité spatiale. Il en résulte la proposition de trois critères de séparation à savoir la “moindre variance spatiale”, la “moindre entropie spatiale”, et la “décorrélation spatiale”, respectivement. De plus, la condition sous laquelle la décorrélation classique (analyse en composantes principales) peut résoudre le problème est établit de une manière rigoureuse. Le même concept d'entropie spatiale, qui est au cœur de cette thèse, est également exploité dans la définition d'un nouveau critère, la courbe en L entropique, qui permet de déterminer le nombre de sources sonores actives sur le domaine source d'intérêt. L'idée consiste à considérer le nombre de sources qui réalise le meilleur compromis entre une faible entropie spatiale (comme prévu à partir de sources compactes) et une faible entropie statistique (comme prévu à partir d'une faible erreur résiduelle). / Blind source separation is a promising technique for the identification, localization, and ranking of sound sources. The aim of this dissertation is to offer methods for separating incoherent sound sources which may overlap in both the space and frequency domains by exploiting spatial information. This is found of interest in acoustical applications involving the identification and ranking of sound sources stemming from different physical origins. The fundamental principle of all proposed methods proceeds in two steps, the first one being reminiscent to source reconstruction (e.g. as in near-field acoustical holography) and the second one to blind source separation. Specifically, the source mixture is first expanded into a linear combination of spatial basis functions whose coefficients are set by backpropagating the pressures measured by an array of microphones to the source domain. This leads to a formulation similar, but no identical, to blind source separation. In the second step, these coefficients are blindly separated into uncorrelated latent variables, assigned to incoherent “virtual sources”. These are shown to be defined up to an arbitrary rotation. A unique set of sound sources is finally recovered by searching for that rotation (conjugate gradient descent in the Stiefel manifold of unitary matrices) which minimizes some spatial criteria, such as spatial variance, spatial entropy, or spatial orthogonality. This results in the proposal of three separation criteria coined “least spatial variance”, “least spatial entropy”, and “spatial decorrelation”, respectively. Meanwhile, the condition under which classical decorrelation (principal component analysis) can solve the problem is deduced in a rigorous way. The same concept of spatial entropy, which is central to the dissertation, is also exploited in defining a new criterion, the entropic L-curve, dedicated to determining the number of active sound sources on the source domain of interest. The idea consists in considering the number of sources that achieves the best compromise between a low spatial entropy (as expected from compact sources) and a low statistical entropy (as expected from a low residual error).
|
220 |
Optimisation numérique stochastique évolutionniste : application aux problèmes inverses de tomographie sismique / Numerical optimization using stochastic evolutionary algorithms : application to seismic tomography inverse problemsLuu, Keurfon 28 September 2018 (has links)
La tomographie sismique des temps de trajet est un problème d'optimisation mal-posé du fait de la non-linéarité entre les temps et le modèle de vitesse. Par ailleurs, l'unicité de la solution n'est pas garantie car les données peuvent être expliquées par de nombreux modèles. Les méthodes de Monte-Carlo par Chaînes de Markov qui échantillonnent l'espace des paramètres sont généralement appréciées pour répondre à cette problématique. Cependant, ces approches ne peuvent pleinement tirer partie des ressources computationnelles fournies par les super-calculateurs modernes. Dans cette thèse, je me propose de résoudre le problème de tomographie sismique à l'aide d'algorithmes évolutionnistes. Ce sont des méthodes d'optimisation stochastiques inspirées de l'évolution naturelle des espèces. Elles opèrent sur une population de modèles représentés par un ensemble d'individus qui évoluent suivant des processus stochastiques caractéristiques de l'évolution naturelle. Dès lors, la population de modèles peut être intrinsèquement évaluée en parallèle ce qui rend ces algorithmes particulièrement adaptés aux architectures des super-calculateurs. Je m'intéresse plus précisément aux trois algorithmes évolutionnistes les plus populaires, à savoir l'évolution différentielle, l'optimisation par essaim particulaire, et la stratégie d'évolution par adaptation de la matrice de covariance. Leur faisabilité est étudiée sur deux jeux de données différents: un jeu réel acquis dans le contexte de la fracturation hydraulique et un jeu synthétique de réfraction généré à partir du modèle de vitesse Marmousi réputé pour sa géologie structurale complexe. / Seismic traveltime tomography is an ill-posed optimization problem due to the non-linear relationship between traveltime and velocity model. Besides, the solution is not unique as many models are able to explain the observed data. The non-linearity and non-uniqueness issues are typically addressed by using methods relying on Monte Carlo Markov Chain that thoroughly sample the model parameter space. However, these approaches cannot fully handle the computer resources provided by modern supercomputers. In this thesis, I propose to solve seismic traveltime tomography problems using evolutionary algorithms which are population-based stochastic optimization methods inspired by the natural evolution of species. They operate on concurrent individuals within a population that represent independent models, and evolve through stochastic processes characterizing the different mechanisms involved in natural evolution. Therefore, the models within a population can be intrinsically evaluated in parallel which makes evolutionary algorithms particularly adapted to the parallel architecture of supercomputers. More specifically, the works presented in this manuscript emphasize on the three most popular evolutionary algorithms, namely Differential Evolution, Particle Swarm Optimization and Covariance Matrix Adaptation - Evolution Strategy. The feasibility of evolutionary algorithms to solve seismic tomography problems is assessed using two different data sets: a real data set acquired in the context of hydraulic fracturing and a synthetic refraction data set generated using the Marmousi velocity model that presents a complex geology structure.
|
Page generated in 0.0754 seconds