• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 172
  • 159
  • 26
  • 17
  • 6
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 376
  • 190
  • 143
  • 91
  • 88
  • 71
  • 61
  • 57
  • 51
  • 48
  • 45
  • 41
  • 40
  • 38
  • 37
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
261

Thermographie infrarouge et méthodes d'inférence statistique pour la détermination locale et transitoire de termes-sources et diffusivité thermique / Thermographic measurements and inverse problems for the source-term estimation

Massard da Fonseca, Henrique 11 January 2012 (has links)
Ce travail a pour objectif de développer des techniques théoriques et expérimentales pour la détermination des propriétés thermophysiques et terme source. Deux formes de comportement temporel pour le terme source ont été étudiées : un constant et un qui varie dans le temps. La variation dans le temps a été considérée comme une pulse carrée ou une variation sinusoïdale. Deux formes d’échauffement ont été utilisées : une résistance électrique et un laser diode. Pour l’acquisition des données une caméra de thermographie par infrarouge a été utilisée. La stratégie nodale a été utilisée pour contourner le problème des grosses quantités de données générées par la caméra. Le problème direct a été résolu par différences finies, et deux approches pour la solution du problème inverse ont été utilisées, en fonction du comportement temporel du terme source. Les deux approches sont basées sur des méthodes d’inférence statistiques dans une approche Bayésienne, avec la méthode de Monte Carlo via les Chaînes de Markov pour le terme source constant, et le filtre de Kalman pour le problème dont le terme source varie dans le temps. Des manipulations contrôlées ont été faites dans un échantillon avec des propriétés thermophysiques déterminées par des méthodes classiques dans la littérature. / This work deals with the development of new theoretical and experimental techniques for the efficient estimation of thermophysical properties and source-term in micro and macro-scale. Two kinds of source term were studied: a constant and a time varying source term. The time wise variation of the source term had a sinusoidal and a pulse form. Two devices were used for the sample heating: An electrical resistance and a laser diode. For the data acquisition, an infrared camera was used, providing a full cartography of properties of the medium and also non-contact temperature measurements. The direct problem was solved by the finite differences method, and two approaches were used for the solution of the inverse problem, depending on the time varying behavior of the source term. Both approaches deal with the parameters estimation within the Bayesian framework, using the Markov Chain Monte Carlo (MCMC) method via the Metropolis Hastings (MH) algorithm for the constant source term, and the Kalman filter for the time-varying source term. The nodal strategy is presented as a method to deal with the large number of experimental data problems. Experiments were carried out in a sample with well-known thermophysical properties, determined by classical methods.
262

Valeurs propres de transmission et leur utilisation dans l'identification d'inclusions à partir de mesures électromagnétiques. / Transmission eigenvalues and their use in the identification of inclusions form electromagnetic measurements

Cossonnière, Anne 08 December 2011 (has links)
La théorie des problèmes de diffraction inverses pour les ondes acoustiques et électromagnétiques est un domaine de recherche très actif qui a connu des avancées significatives ces dernières années. La Linear Sampling Method (LSM), permettant de reconstituer la forme d’un objet à partir de sa réponse acoustique ou électromagnétique avec peu de données a priori sur les propriétés physiques de l’objet, a révélé l’existence de fréquences de résonance appelées valeurs propres de transmission, pour lesquelles cette méthode échoue dans le cas d’objets diffractants pénétrables. Ces fréquences particulières peuvent être étudiées à partir d’un nouveau type de problème appelé problème de transmission intérieur. Ces valeurs propres s’avèrent utiles dans le problème d’identification puisqu’elles peuvent aussi être calculées à partir des mesures à l’infini et quelles apportent des informations qualitatives sur les propriétés physiques de l’objet. Dans cette thèse, nous prouvons l’existence et le caractère discret de l’ensemble des valeurs propres de transmission pour deux nouvelles configurations, correspondant aux cas où l’objet diffractant pénétrable contient une cavité ou un conducteur parfait. De plus, nous proposons une nouvelle approche utilisant les équations intégrales permettant de calculer numériquement les valeurs propres de transmission / The theory of inverse scattering for acoustic or electromagnetic waves is an active area of research with significant developments in the past few years. The Linear Sampling Method (LSM) is a method that allows the reconstruction of the shape of an object from its acoustic or electromagnetic response with a few a priori knowledge on the physical properties of the scatterer. However, this method fails for resonance frequencies called transmission eigenvalues in the case of penetrable objects. These transmission eigenvalues are the eigenvalues of a new type of problem called the interior transmission problem. Their main feature is that not only they can give information on the physical properties of the scatterer but they can also be computed from far field measurements. In this thesis, we prove the existence and the discreteness of the set of transmission eigenvalues for two new configurations corresponding to the cases of a scatterer containing a cavity or a perfect conductor. A new approach using surface integral equations is also developed to compute numerically transmission eigenvalues for general geometries
263

Reconstruction tridimensionnelle par stéréophotométrie / 3D-reconstruction by photometric stereo

Quéau, Yvain 26 November 2015 (has links)
Cette thèse traite de la reconstruction 3D par stéréophotométrie, qui consiste à utiliser plusieurs photographies d'une scène prises sous le même angle, mais sous différents éclairages. Nous nous intéressons dans un premier temps à des techniques robustes pour l'estimation des normales à la surface, et pour leur intégration en une carte de profondeur. Nous étudions ensuite deux situations où le problème est mal posé : lorsque les éclairages sont inconnus, ou lorsque seuls deux éclairages sont utilisés. La troisième partie est consacrée à l'étude de modèles plus réalistes, à la fois en ce qui concerne les éclairages et la réflectance de la surface. Ces trois premières parties nous amènent aux limites de la formulation classique de la stéréophotométrie : nous introduisons finalement, dans la partie 4, une reformulation variationnelle et différentielle du problème qui permet de dépasser ces limites. / This thesis tackles the photometric stereo problem, a 3D-reconstruction technique consisting in taking several pictures of a scene under different lightings. We first focus on robust techniques for estimating the normals to the surface, and for integrating these normals into a depth map. Then, we study two situations where the problem is ill-posed: when lightings are unknown and when only two images are used. Part 3 is devoted to more realistic models, in terms of lightings and of surface reflectance. These first three parts bring us to the limits of the usual formulation of photometric stereo: we eventually introduce in Part 4 a variational and differential reformulation of this problem which allows us to overcome these limits.
264

Approche mathématique pour la modulation de largeur d'impulsion pour la conversion statique de l'énergie électrique : application aux onduleurs multiniveaux / Mathematical approach for pulse width modulation PWM for static conversion of electrical energy : application to multilevel inverters

Berkoune, Karima 01 July 2016 (has links)
Les convertisseurs d'électronique de puissance sont de plus en plus exploités notamment dans les applications nécessitant la variation de vitesse de machines. L'utilisation de composants plus performants et plus puissants couplés à de nouvelles structures multiniveaux autorise l'accès à de nouveaux champs applicatifs, ou des fonctionnements à plus haut rendement. Ces convertisseurs statiques sont capables de gérer, par un pilotage adapté, les transferts d'énergie entre différentes sources et différents récepteurs selon la famille de convertisseur utilisée. Au sein de l'interface de pilotage, un schéma particulier permet de générer des signaux de commande pour les interrupteurs, il s'agit de la modulation et peut être vue par deux approches différentes : L'approche intersective issue d'une comparaison modulante-horteuse (appelée en anglais carrier based PWM) et l'approche vectorielle où les signaux de pilotage des trois bras de ponts sont considérés comme un vecteur global unique (appelée Modulation Vectorielle SVM). Le but de la MLI est de générer une valeur moyenne de la tension la plus proche possible du signal modulé. La commande usuelle par comparaison modulante-porteuse dans le cas des architectures multiniveaux nécessite autant de porteuses triangulaires qu'il y a de cellules à commander au sein d'un bras. Plus généralement, la stratégie de modulation de chacune des topologies multiniveaux est choisie en se basant sur des critères à optimiser liés à la qualité les formes d'ondes produites ou obtenues, suite à la conversion. Le choix de la variable de commande à implémenter dans le schéma MLI fait appel à l'expertise de l'expérimentateur et se réfère peu au modèle mathématique initial qui peut-être établit pour caractériser le fonctionnement de l'architecture d'électronique de puissance. En ce qui concerne les stratégies vectorielles SVM, une absence de modèle compatible avec les modèles, basés sur une comparaison modulante porteuse, d'onduleurs est constatée. Les types d'onduleurs triphasés à deux ou à N niveaux de tension admettent un modèle sous forme d'équations d'un système linéaire compatible qui s'écrit sous la forme V = f(a) dans le cas d'une MLI sinusoïdale et V = f(1) dans le cas d'une SVM, avec V les tensions de phase, a les rapports cycliques et f les instants de commutation. Dans cette configuration basique il est constaté que la matrice liant ces tensions aux rapports cycliques (ou aux instants de commutation) n'admet pas d'inverse, ce qui revient à dire qu'il n'est pas possible, avec les théories usuelles des fonctions linéaires, de résoudre ce système afin d'exprimer les rapports cycliques (ou les instants de commutation) en fonction des tensions de références. C'est ce qui explique qu'aujourd'hui un bon nombre d'implémentations pratiques de modulation se fait, suite à une analyse expérimentale des conséquences d'un choix de stratégie sur les variables d'intérêt. / The power electronic converters are increasingly exploited in particular in applications requiring variable speed machines. The use of more effcient and more powerful components coupled with new multilevel structures widens the fields of application and allows high efficiency functioning. These converters are able to manage, with a suitable control, the energy transfer between different sources and different receivers depending on the used converter family. In the control interface, a particular pattern is used to generate control signais for the switches, it is the modulation. Generally, the modulation strategy takes two forms : a Modulation based on comparaison modulating - caiTier (Carrier based Pulse Width Modulation, (CPWM)) or a Vector Modulation (SVM). The purpose of the PWM is to generate a signal which has a mean value as nearest as possible to the desired sinusoidal signal. The usual control by PWM, in the case of multi-level architectures, requires as many triangular carriers as there are cells to be controlled within an arm. The modulation strategy selection for each multilevel topology is based on optimizing criterias related to the quality of the produced waveforms after the conversion. The choice of the variable to implement in the PWM scheme requires expertise of the experimenter and refers little to the initial mathematical model that can be established to characterize the operation of the power electronics architecture. Concerning the vector strategies SVM, the lack of a compatible model with PWM inverters is observed. The three-phase inverters with two or N voltage levels can be modeled in the form of equations of a compatible linear system that is written as V= f(a) in the case of a sinusoïdal PWM and V= f(1) in the case of SVM, with V represents phase voltages, ais a duty cycle and fthe switching instants. In this basic configuration, it is found that the matrix linking these voltages duty cycles (or switching times) adrnits no inverse, which means that it is not possible with the usuallinear functions theories to solve this system in order to express the duty ratios (or the instants of switching) as a function of the reference voltages. This is the reason that today a number of practical implementations of modulation is done after experimental analysis of the consequences of strategy choices on the variables of interest. This study proposes the development of a generic formulation for the modeling of voltage inverters and especially multilevel inverters. The development of generic models for the implementation of modulation strategies is illustrated. The extension of the average model to the three-phase systems is performed to the usual structures of N levels such as the floating capacity and H bridge inverters. The idea is to generalize the model to the multi-level architectures, whether by the sinusoidal PWM modulation expressing the alpha as an output variable, or by the SVM expressing tau. This thesis aims to define a modeling approach and mathematically express the set of solutions in order to generate modulation strategies for various architectures of inverters studied. This will be done using a tool for solving linear systems. This resolution is based on finding degrees of freedom, to be identified at first, then express them in a second step by establishing the link with the criteria to optimize for given architectures. Two examples of application have been implemented on conventional two levels of voltage inverters and the thtree levels flying capacitor voltage inverter.
265

Nouvelle méthode de traitement d'images multispectrales fondée sur un modèle d'instrument pour la haut contraste : application à la détection d'exoplanètes / New method of multispectral image post-processing based on an instrument model for high contrast imaging systems : Application to exoplanet detection

Ygouf, Marie 06 December 2012 (has links)
Ce travail de thèse porte sur l'imagerie multispectrale à haut contraste pour la détection et la caractérisation directe d'exoplanètes. Dans ce contexte, le développement de méthodes innovantes de traitement d'images est indispensable afin d'éliminer les tavelures quasi-statiques dans l'image finale qui restent à ce jour, la principale limitation pour le haut contraste. Bien que les aberrations résiduelles instrumentales soient à l'origine de ces tavelures, aucune méthode de réduction de données n'utilise de modèle de formation d'image coronographique qui prend ces aberrations comme paramètres. L'approche adoptée dans cette thèse comprend le développement, dans un cadre bayésien, d'une méthode d'inversion fondée sur un modèle analytique d'imagerie coronographique. Cette méthode estime conjointement les aberrations instrumentales et l'objet d'intérêt, à savoir les exoplanètes, afin de séparer correctement ces deux contributions. L'étape d'estimation des aberrations à partir des images plan focal (ou phase retrieval en anglais), est la plus difficile car le modèle de réponse instrumentale sur l'axe dont elle dépend est fortement non-linéaire. Le développement et l'étude d'un modèle approché d'imagerie coronographique plus simple se sont donc révélés très utiles pour la compréhension du problème et m'ont inspiré des stratégies de minimisation. J'ai finalement pu tester ma méthode et d'estimer ses performances en terme de robustesse et de détection d'exoplanètes. Pour cela, je l'ai appliquée sur des images simulées et j'ai notamment étudié l'effet des différents paramètres du modèle d'imagerie utilisé. J'ai ainsi démontré que cette nouvelle méthode, associée à un schéma d'optimisation fondé sur une bonne connaissance du problème, peut fonctionner de manière relativement robuste, en dépit des difficultés de l'étape de phase retrieval. En particulier, elle permet de détecter des exoplanètes dans le cas d'images simulées avec un niveau de détection conforme à l'objectif de l'instrument SPHERE. Ce travail débouche sur de nombreuses perspectives dont celle de démontrer l'utilité de cette méthode sur des images simulées avec des coronographes plus réalistes et sur des images réelles de l'instrument SPHERE. De plus, l'extension de la méthode pour la caractérisation des exoplanètes est relativement aisée, tout comme son extension à l'étude d'objets plus étendus tels que les disques circumstellaire. Enfin, les résultats de ces études apporteront des enseignements importants pour le développement des futurs instruments. En particulier, les Extremely Large Telescopes soulèvent d'ores et déjà des défis techniques pour la nouvelle génération d'imageurs de planètes. Ces challenges pourront très probablement être relevés en partie grâce à des méthodes de traitement d'image fondées sur un modèle direct d'imagerie. / This research focuses on high contrast multispectral imaging in the view of directly detecting and characterizing Exoplanets. In this framework, the development of innovative image post-processing methods is essential in order to eliminate the quasi-static speckles in the final image, which remain the main limitation for high contrast. Even though the residual instrumental aberrations are responsible for these speckles, no post-processing method currently uses a model of coronagraphic imaging, which takes these aberrations as parameters. The research approach adopted includes the development of a method, in a Bayesian Framework, based on an analytical coronagraphic imaging model and an inversion algorithm, to estimate jointly the instrumental aberrations and the object of interest, i.e. the exoplanets, in order to separate properly these two contributions. The instrumental aberration estimation directly from focal plane images, also named phase retrieval, is the most difficult step because the model of on-axis instrumental response, of which these aberrations depend on, is highly non-linear. The development and the study of an approximate model of coronagraphic imaging thus proved very useful to understand the problem at hand and inspired me some minimization strategies. I finally tested my method and estimated its performances in terms of robustness and exoplanets detection. For this, I applied it to simulated images and I studied the effect of the different parameters of the imaging model I used. The findings from this research provide evidence that this method, in association with an optimization scheme based on a good knowledge of the problem at hand, can operate in a relatively robust way, despite the difficulties of the phase retrieval step. In particular, it allows the detection of exoplanets in the case of simulated images with a detection level compliant with the goal of the SPHERE instrument. The next steps will be to verify the efficiency of this new method on simulated images using more realistic coronagraphs and on real images from the SPHERE instrument. In addition, the extension of the method for the characterization of exoplanets is relatively easy, as its extension to the study of larger objects such as circumstellar disks. Finally, the results of this work will also bring some crucial insights for the development of future instruments. In particular, the Extremely Large Telescopes have already risen some technical challenges for the next generation of planet finders, which may partly be addressed by an image processing method based on an imaging model.
266

Assimilation de données pour l'initialisation et l'estimation de paramètres d'un modèle d'évolution de calotte polaire / Data assimilation for initialisation and parameter estimation of an ice sheet evolution model

Bonan, Bertrand 15 November 2013 (has links)
L'évolution des calottes polaires est régie à la fois par une dynamique d'écoulement complexe et par des mécanismes tel le glissement à la base, la température de la glace ou le bilan de masse en surface. De plus, de nombreuses boucles de rétroactions sont constatées entre les différents phénomènes impliquées. Tout ceci rend la modélisation de cette évolution complexe. Malgré tout, un certain nombre de modèles ont été développés dans cette optique. Ceux-ci font tous intervenir des paramètres influents qui dans certains cas sont peu ou pas connus. Ils nécessitent donc d'être correctement spécifiés. L'assimilation de données peut permettre une meilleure estimation de ces paramètres grâce à l'utilisation d'observations qui sont peu nombreuses en glaciologie. Dans cette thèse, nous nous intéressons à la mise en place de systèmes d'assimilation performants pour deux problèmes inverses concernant l'évolution des calottes polaires. Pour mieux nous concentrer sur ce point, nous avons travaillé avec un modèle d'évolution de calotte simplifié (appelé Winnie) qui, cependant, représente bien la plupart des processus complexes de la dynamique de la glace, et permet de travailler à différentes échelles de temps. Dans un premier temps, nous mettons en place une approche 4D-Var pour la reconstruction de l'évolution d'un paramètre climatique influant sur l'évolution d'une calotte sur une échelle de temps typique de 20 000 ans. Elle nécessite notamment l'écriture du code adjoint du modèle. Dans un second temps, nous nous intéressons au problème du spin-up. Ce problème de calibration du modèle pour des simulations à échelle de temps courtes (pas plus de 100 ans) consiste plus particulièrement en la reconstruction conjointe de l'état initial, de la topographie du socle rocheux et des paramètres de glissement basal. Nous développons ici une approche filtre de Kalman d'ensemble pour résoudre ce problème. / Ice sheet evolution is both driven by a complex flow dynamics and by physical mechanisms such as basal sliding, ice temperature or surface mass balance. In addition to those, many feedback loops are observed between the different implicated phenomena. That explains how complex is to model this evolution. However several models have been developed in that purpose. These models depend on influential parameters, which often are unfortunately poorly known. So they need to be correctly specified. Data assimilation can give a better estimation of these parameters thanks to observations which are quite rare in glaciology. In this thesis, we work on the setup of efficient data assimilation systems for two inverses problems involving ice sheet evolution. We work with a simplified ice sheet evolution model called Winnie in order to focus on the setup. Nevertheless Winnie takes into account the major complex processes of ice dynamics and can be used for studies with different time scales. The first part of the thesis focuses on developing a 4D-Var approach in order to retrieve the evolution of a climatic parameter for a typical time scale of 20 000 years. This approach require the implementation the adjoint code of the evolution model. In a second part, we focus on the spin-up problem. This calibration problem for short term (maximum 100 years) simulations involve retrieving jointly the initial state, the bedrock topography and basal sliding parameters. In order to solve this problem we develop an Ensemble Kalman Filter approach.
267

Développement de modèles de bâtiment pour la prévision de charge de climatisation et l’élaboration de stratégies d’optimisation énergétique et d’effacement / Development of building models for load curve forecast and design of energy optimization and load shedding strategies

Berthou, Thomas 16 December 2013 (has links)
Pour atteindre les objectifs de réduction de consommation et augmenter la flexibilité de la demande des bâtiments, il est nécessaire de disposer de modèles de prévision de charge de climatisation facilement diffusables sur site et performants qui permettent la mise en place de stratégies d’optimisation énergétique et d’effacement. Cette thèse compare plusieurs architectures de modèles inverses (« boite noire », « boite grise »). Un modèle semi-physique d’ordre 2 (R6C2) a été retenu pour prévoir la puissance de climatisation et la température intérieure moyenne en chauffage et en refroidissement. Il permet aussi d’interpréter des situations inédites (effacement), absentes de la phase d’apprentissage. Trois stratégies d’optimisation énergétique et d’effacement adaptées aux contraintes d’exploitation sont étudiées. La première permet d’optimiser la relance en chauffage afin de réduire la consommation et d’atteindre effectivement la température de confort le matin. La seconde stratégie optimise les températures de consigne sur une journée dans un contexte de prix variable de l’énergie, ceci afin de réduire la facture énergétique. Enfin, la troisième stratégie permet au bâtiment de s’effacer en limitant la charge tout en respectant des critères de confort spécifiés. Le modèle R6C2 et les stratégies ont été confrontés à un bâtiment réel (une école élémentaire). L’étude montre qu’il est possible de prévoir la puissance électrique et la température moyenne d’un bâtiment complexe avec un modèle mono-zone ; elle permet d’évaluer les stratégies développées et d’identifier les limites du modèle. / To reach the objectives of reducing the energy consumption and increasing the flexibility of buildings energy demand, it is necessary to have load forecast models easy to adapt on site and efficient for the implementation of energy optimization and load shedding strategies. This thesis compares several inverse model architectures ("black box", "grey box"). A 2nd order semi-physical model (R6C2) has been selected to forecast load curves and the average indoor temperature for heating and cooling. It is also able to simulate unknown situations (load shedding), absent from the learning phase. Three energy optimization and load shedding strategies adapted to operational constraints are studied. The first one optimizes the night set-back to reduce consumption and to reach the comfort temperature in the morning. The second strategy optimizes the set-point temperatures during a day in the context of variable energy prices, thus reducing the energy bill. The third strategy allows load curtailment in buildings by limiting load while meeting specified comfort criteria. The R6C2 model and strategies have been faced with a real building (elementary school). The study shows that it is possible to forecast the electrical power and the average temperature of a complex building with a single-zone model; the developed strategies are assessed and the limitations of the model are identified.
268

Experimental and Numerical Study of Orthotropic Materials

Pulicherla, Yashpal Surendhar Goud, Kesana, Ramkiran January 2017 (has links)
In current enterprises, simulations are being utilized to lessen the cost of product advancement.  Along this line, there is an awesome enthusiasm for enhancing precision and accuracy of simulations. For an accurate and reliable simulation, it is essential to use an accurate material model and provide it with accurate material information. In exhibit industries, orthotropic materials are being simulated utilizing isotropic material model, as orthotropic material model requires more material data which is not promptly accessible. This proposal intends to test and identify orthotropic materials and simulate them using orthotropic material model in ABAQUS. Materials utilized as a part of this proposal are Aluminium, LDPE, PET. Required material data was gotten by performing Uni-directional tensile tests, DIC, and an algorithm we developed in light of Inverses method. To get highly accurate material data from DIC, a few kinds of patterns were examined, and a superior pattern was resolved for camera configuration being utilized.
269

Reconstitution de la convection du manteau terrestre par assimilation de données séquentielle / Reconstruction of Mantle Circulation Using Sequential Data Assimilation

Bocher, Marie 25 November 2016 (has links)
Cette thèse vise à proposer de nouvelles méthodes permettant de reconstruire la circulation dans le manteau terrestre et l'évolution de la tectonique de surface pour les deux cents derniers millions d'années. Nous utilisons des modèles numériques de convection mantellique dans lesquels la dynamique de surface est comparable à la tectonique terrestre. En combinant ces modèles avec des reconstructions de la tectonique des plaques il est possible d'estimerla structure et l'évolution du champ de température dans le manteau. Jusqu'à présent, l'inclusion des reconstructions de la tectonique des plaques se faisait en imposant des conditions aux limites du modèle (équilibre des forces, vitesses imposées...). Ces techniques, bien que permettant de tester la validité de différents scénarios tectoniques alternatifs, n'autorisent pas de rétroaction dynamique de la convection mantellique sur la tectonique de surface.Dans ce travail, nous avons développé des techniques d'assimilation de données permettant d'intégrer les reconstructions de la tectonique des plaques dans un modèle numérique tout en laissant se développer de manière auto-cohérente cette rétroaction. Les techniques développées permettent également de prendre en compte les incertitudes associées aux reconstructions de la tectonique des plaques et de calculer les erreurs sur l'estimation finale de la circulationmantellique.Dans un premier temps, nous avons développé un filtre de Kalman suboptimal qui permet d'estimer la structure et l'évolution de la circulation mantellique la plus probable à partir d'un modèle numérique de convection et d'une sérietemporelle d'observations de surface, ainsi que de leurs incertitudes respectives.Ce filtre a été testé sur des expériences synthétiques. Celles-ci consistent à tenter de retrouver une évolution témoin à partir d'une série temporelle de données issues de cette évolution. Ces expériences ont montré qu'il était possible, enprincipe, de reconstruire la structure et l'évolution de l'ensemble du manteau à partir d'observations de vitesses et de flux de chaleur à la surface.Dans un second temps, nous avons développé un filtre de Kalman d'ensemble. Ce filtre permet non seulement d'estimer de manière plus précise la géométrie des structures mantelliques, mais aussi les incertitudes sur cette estimation. / This dissertation focuses on the developpement of data assimilation methods to reconstruct the circulation of the Earth's mantle and the evolution of its surface tectonics for the last 200~Myrs. We use numerical models of mantle convection in which the surface dynamics is similar to the Earth's. By combining these models with plate tectonics reconstructions, it is possible to estimate the structure and evolution of the temperature field of the mantle. So far, the assimilation of plate tectonics reconstructions was done by imposing specific boundary conditions in the model (force balance, imposed velocities...). These techniques, although insightful to test the likeliness of alternative tectonic scenarios, do not allow the full expression of the dynamical feedback between mantle convection and surface tectonics. We develop sequential data assimilation techniques able to assimilate plate tectonics reconstructions in a numerical model while simultaneously letting this dynamicalfeedback develop self-consistently. Moreover, these techniques take into account errors in plate tectonics reconstructions, and compute the error on the final estimation of mantle circulation.First, we develop a suboptimal Kalman filter. This filter estimates the most likely structure and evolution of mantle circulation from a numerical model of mantle convection, a time series of surface observations and the uncertainty on both. This filter was tested on synthetic experiments. The principle of a synthetic experiment is to apply the data assimilation algorithm to a set of synthetic observations obtained from a reference run, and to then compare the obtained estimation of the evolution with the reference evolution. The synthetic experiments we conducted showed that it was possible, in principle, to reconstruct the structure and evolution of the whole mantle from surface velocities and heat flux observations.Second, we develop an Ensemble Kalman Filter. Instead of estimating the most likely evolution, an ensemble of possible evolutions are computed. This technique leads to a better estimation of the geometry of mantle structures and a more complete estimation of the uncertainties associated.
270

Séparation aveugle de source : de l'instantané au convolutif / Blind source separation : from instantaneous to convolutive

Feng, Fangchen 29 September 2017 (has links)
La séparation aveugle de source consiste à estimer les signaux de sources uniquement à partir des mélanges observés. Le problème peut être séparé en deux catégories en fonction du modèle de mélange: mélanges instantanés, où le retard et la réverbération (effet multi-chemin) ne sont pas pris en compte, et des mélanges convolutives qui sont plus généraux mais plus compliqués. De plus, le bruit additif au niveaux des capteurs et le réglage sous-déterminé, où il y a moins de capteurs que les sources, rendent le problème encore plus difficile.Dans cette thèse, tout d'abord, nous avons étudié le lien entre deux méthodes existantes pour les mélanges instantanés: analyse des composants indépendants (ICA) et analyse des composant parcimonieux (SCA). Nous avons ensuite proposé une nouveau formulation qui fonctionne dans les cas déterminés et sous-déterminés, avec et sans bruit. Les évaluations numériques montrent l'avantage des approches proposées.Deuxièmement, la formulation proposés est généralisés pour les mélanges convolutifs avec des signaux de parole. En intégrant un nouveau modèle d'approximation, les algorithmes proposés fonctionnent mieux que les méthodes existantes, en particulier dans des scénarios bruyant et / ou de forte réverbération.Ensuite, on prend en compte la technique de décomposition morphologique et l'utilisation de parcimonie structurée qui conduit à des algorithmes qui peuvent mieux exploiter les structures des signaux audio. De telles approches sont testées pour des mélanges convolutifs sous-déterminés dans un scénario non-aveugle.Enfin, en bénéficiant du modèle NMF (factorisation en matrice non-négative), nous avons combiné l'hypothèse de faible-rang et de parcimonie et proposé de nouvelles approches pour les mélanges convolutifs sous-déterminés. Les expériences illustrent la bonne performance des algorithmes proposés pour les signaux de musique, en particulier dans des scénarios de forte réverbération. / Blind source separation (BSS) consists of estimating the source signals only from the observed mixtures. The problem can be divided into two categories according to the mixing model: instantaneous mixtures, where delay and reverberation (multi-path effect) are not taken into account, and convolutive mixtures which are more general but more complicated. Moreover, the additive noise at the sensor level and the underdetermined setting, where there are fewer sensors than the sources, make the problem even more difficult.In this thesis, we first studied the link between two existing methods for instantaneous mixtures: independent component analysis (ICA) and sparse component analysis (SCA). We then proposed a new formulation that works in both determined and underdetermined cases, with and without noise. Numerical evaluations show the advantage of the proposed approaches.Secondly, the proposed formulation is generalized for convolutive mixtures with speech signals. By integrating a new approximation model, the proposed algorithms work better than existing methods, especially in noisy and/or high reverberation scenarios.Then, we take into account the technique of morphological decomposition and the use of structured sparsity which leads to algorithms that can better exploit the structures of audio signals. Such approaches are tested for underdetermined convolutive mixtures in a non-blind scenario.At last, being benefited from the NMF model, we combined the low-rank and sparsity assumption and proposed new approaches for under-determined convolutive mixtures. The experiments illustrate the good performance of the proposed algorithms for music signals, especially in strong reverberation scenarios.

Page generated in 0.0797 seconds