• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 179
  • 81
  • 18
  • Tagged with
  • 269
  • 269
  • 133
  • 67
  • 52
  • 41
  • 34
  • 30
  • 28
  • 28
  • 27
  • 27
  • 26
  • 25
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Personnalisation non-invasive de modèles électrophysiologiques cardiaques à partir d'électrogrammes surfaciques / Non-invasive personalisation of cardiac electrophysiological models from surface electrograms

Giffard-Roisin, Sophie 11 December 2017 (has links)
L'objectif de cette thèse est d'utiliser des données non-invasives (électrocardiogrammes, ECG) pour personnaliser les principaux paramètres d'un modèle électrophysiologique (EP) cardiaque pour prédire la réponse à la thérapie de resynchronisation cardiaque. La TRC est un traitement utilisé en routine clinique pour certaines insuffisances cardiaques mais reste inefficace chez 30% des patients traités impliquant une morbidité et un coût importants. Une compréhension précise de la fonction cardiaque propre au patient peut aider à prédire la réponse à la thérapie. Les méthodes actuelles se basent sur un examen invasif au moyen d’un cathéter qui peut être dangereux pour le patient. Nous avons développé une personnalisation non-invasive du modèle EP fondée sur une base de données simulée et un apprentissage automatique. Nous avons estimé l'emplacement de l'activation initiale et un paramètre de conduction global. Nous avons étendu cette approche à plusieurs activations initiales et aux ischémies au moyen d'une régression bayésienne parcimonieuse. De plus, nous avons développé une anatomie de référence afin d'effectuer une régression hors ligne unique et nous avons prédit la réponse à différentes stimulations à partir du modèle personnalisé. Dans une seconde partie, nous avons étudié l'adaptation aux données ECG à 12 dérivations et l'intégration dans un modèle électromécanique à usage clinique. L'évaluation de notre travail a été réalisée sur un ensemble de données important (25 patients, 150 cycles cardiaques). En plus d'avoir des résultats comparables avec les dernières méthodes d'imagerie ECG, les signaux ECG prédits présentent une bonne corrélation avec les signaux réels. / The objective of this thesis is to use non-invasive data (body surface potential mapping, BSPM) to personalise the main parameters of a cardiac electrophysiological (EP) model for predicting the response to cardiac resynchronization therapy (CRT). CRT is a clinically proven treatment option for some heart failures. However, these therapies are ineffective in 30% of the treated patients and involve significant morbidity and substantial cost. The precise understanding of the patient-specific cardiac function can help to predict the response to therapy. Until now, such methods required to measure intra-cardiac electrical potentials through an invasive endovascular procedure which can be at risk for the patient. We developed a non-invasive EP model personalisation based on a patient-specific simulated database and machine learning regressions. First, we estimated the onset activation location and a global conduction parameter. We extended this approach to multiple onsets and to ischemic patients by means of a sparse Bayesian regression. Moreover, we developed a reference ventricle-torso anatomy in order to perform an common offline regression and we predicted the response to different pacing conditions from the personalised model. In a second part, we studied the adaptation of the proposed method to the input of 12-lead electrocardiograms (ECG) and the integration in an electro-mechanical model for a clinical use. The evaluation of our work was performed on an important dataset (more than 25 patients and 150 cardiac cycles). Besides having comparable results with state-of-the-art ECG imaging methods, the predicted BSPMs show good correlation coefficients with the real BSPMs.
172

Méthodes de simulation stochastique pour le traitement de l’information / Stochastic simulation methods for information processing

Minvielle-Larrousse, Pierre 05 March 2019 (has links)
Lorsqu’une grandeur d’intérêt ne peut être directement mesurée, il est fréquent de procéder à l’observation d’autres quantités qui lui sont liées par des lois physiques. Ces quantités peuvent contenir de l’information sur la grandeur d’intérêt si l’on sait résoudre le problème inverse, souvent mal posé, et inférer la valeur. L’inférence bayésienne constitue un outil statistique puissant pour l’inversion, qui requiert le calcul d’intégrales en grande dimension. Les méthodes Monte Carlo séquentielles (SMC), aussi dénommées méthodes particulaires, sont une classe de méthodes Monte Carlo permettant d’échantillonner selon une séquence de densités de probabilité de dimension croissante. Il existe de nombreuses applications, que ce soit en filtrage, en optimisation globale ou en simulation d’évènement rare. Les travaux ont porté notamment sur l’extension des méthodes SMC dans un contexte dynamique où le système, régi par un processus de Markov caché, est aussi déterminé par des paramètres statiques que l’on cherche à estimer. En estimation bayésienne séquentielle, la détermination de paramètres fixes provoque des difficultés particulières : un tel processus est non-ergodique, le système n’oubliant pas ses conditions initiales. Il est montré comment il est possible de surmonter ces difficultés dans une application de poursuite et identification de formes géométriques par caméra numérique CCD. Des étapes d’échantillonnage MCMC (Chaîne de Markov Monte Carlo) sont introduites pour diversifier les échantillons sans altérer la distribution a posteriori. Pour une autre application de contrôle de matériau, qui cette fois « hors ligne » mêle paramètres statiques et dynamiques, on a proposé une approche originale. Elle consiste en un algorithme PMMH (Particle Marginal Metropolis-Hastings) intégrant des traitements SMC Rao-Blackwellisés, basés sur des filtres de Kalman d’ensemble en interaction.D’autres travaux en traitement de l’information ont été menés, que ce soit en filtrage particulaire pour la poursuite d’un véhicule en phase de rentrée atmosphérique, en imagerie radar 3D par régularisation parcimonieuse ou en recalage d’image par information mutuelle. / When a quantity of interest is not directly observed, it is usual to observe other quantities that are linked by physical laws. They can provide information about the quantity of interest if it is able to solve the inverse problem, often ill posed, and infer the value. Bayesian inference is a powerful tool for inversion that requires the computation of high dimensional integrals. Sequential Monte Carlo (SMC) methods, a.k.a. interacting particles methods, are a type of Monte Carlo methods that are able to sample from a sequence of probability densities of growing dimension. They are many applications, for instance in filtering, in global optimization or rare event simulation.The work has focused in particular on the extension of SMC methods in a dynamic context where the system, governed by a hidden Markov process, is also determined by static parameters that we seek to estimate. In sequential Bayesian estimation, the determination of fixed parameters causes particular difficulties: such a process is non-ergodic, the system not forgetting its initial conditions. It is shown how it is possible to overcome these difficulties in an application of tracking and identification of geometric shapes by CCD digital camera. Markov Monte Carlo Chain (MCMC) sampling steps are introduced to diversify the samples without altering the posterior distribution. For another material control application, which mixes static and dynamic parameters, we proposed an original offline approach. It consists of a Particle Marginal Metropolis-Hastings (PMMH) algorithm that integrates Rao-Blackwellized SMC, based on a bank of interacting Ensemble Kalman filters.Other information processing works has been conducted: particle filtering for atmospheric reentry vehicle tracking, 3D radar imaging by sparse regularization and image registration by mutual information.
173

Assimilation de données et recalage rapide de modèles mécaniques complexes / Data assimilation and fast model-updating of complex mechanicalmodels

Marchand, Basile 29 November 2017 (has links)
Depuis plusieurs années, les évolutions considérables survenues au niveau des moyens de calcul à disposition ont entraîné de nouvelles pratiques de simulation des structures mécaniques. Parmi ces nouvelles pratiques celle qui motive ces travaux de thèse est le paradigme Dynamic Data Driven Application Systems (DDDAS). L’idée fondatrice de cette approche est de mettre en place un dialogue entre un système physique et son modèle numérique. L’objectif est alors de (i) permettre un recalage du modèle numérique à l’aide de mesures faites sur le système physique ; (ii) contrôler l’évolution du système physique à l’aide de la prédiction faite par la simulation numérique. La difficulté majeure est de réaliser ce dialogue en temps réel. Ces travaux de thèse se focalisent sur l’étape de recalage de modèle du paradigme DDDAS. La problématique est alors de développer des méthodes et outils de résolution de problèmes inverses prenant en compte diverses contraintes à savoir : (i) une robustesse vis-à-vis des données corrompues ; (ii) une généricité permettant de considérer une grande variété de problèmes et de modèles mécaniques ; (iii) un temps de calcul réduit afin de tendre vers un recalage de modèle en temps réel. Le point de départ de ces travaux est l’Erreur en Relation de Comportement modifiée, approche énergétique dédiée à la résolution des problèmes inverses en mécanique, s’étant notamment illustrée par sa grande robustesse vis-à-vis des bruits de mesure. Dans un premier temps, afin de garantir un processus d’identification rapide, nous avons couplé l’Erreur en Relation de Comportement modifiée avec la réduction de modèle PGD dans le cadre de modèle linéaire, permettant ainsi de mettre en place un processus d’identification rapide et automatique. Ensuite, dans le but d’être appliquée au paradigme DDDAS, nous avons développé une démarche d’identification reposant sur un processus d’assimilation de données (le filtre de Kalman) et utilisant l’Erreur en Relation de Comportement modifiée comme opérateur d’observation toujours dans le cadre de problèmes linéaires. Nous avons ensuite étendu cette méthode d’assimilation de données à la problématique de l’identification de champs de paramètres en introduisant une séparation des discrétisations spatiales et des outils provenant de l’adaptation de maillage. Nous avons ensuite abordé la problématique des modèles mécaniques non-linéaires, au travers de modèles d’endommagement et de visco-plasticité. Pour cela nous avons dans un premier temps reformulé et étendu le concept d’Erreur en Relation de Comportement modifiée à ce cadre non-linéaire matériau et nous avons mis en place un processus de résolution dédié, s’inspirant de la méthode LaTIn. Pour finir nous avons introduit cette reformulation de l’Erreur en Relation de Comportement modifiée au sein de la méthode d’assimilation de données développée précédemment afin de traiter le recalage dynamique de modèles non-linéaires. / For several years, the considerable changes that have occurredin computing tools have led to new practices in the simulation of mechanical structures. Among them, the motivation for this work is the Dynamic Data Driven Application Systems paradigm (DDDAS). The founding idea of this approach is to establish a dialogue between a physical system and its numericalmodel. The objective is then to (i) allow a calibration of the numerical model by means of measurements performed on the physical system; (ii) control the evolution of the physical system using theprediction given by numerical simulation. The major difficulty is to realize this dialogue in real time. This work focuses on the model updating step of the DDDAS paradigm. The problem is then to develop methods and tools to solve inverse problems taking into account various constraints, namely: (i) robustness with respect to corrupted data; (ii) genericity for considering a wide variety of problems and mechanical models; (iii) a reduced computation time in order to tend towards a real-time model updating.The starting point of this work is the modified Constitutive Relation Error, an energetic approach dedicated to the solution of inverse problems in mechanics, notably illustrated by its robustness with respect to measurement noises. First, in order to guarantee a fast identification process, we have coupled the modified Constitutive Relation Error with the PGD model reduction in the linear model framework, thus enabling a fast and automatic identification process. Then, in order to be applied to the DDDAS paradigm, we have developed an identification method based on a data assimilation process (the Kalman filter) and using the modified Constitutive Relation Error as an observer alwayswithin the framework of linear problems. We have then extended this data assimilation approach to the problem of the identification of parameter fields by introducing a separation of the spatial discretizations and by introducing tools resulting from the mesh adaptation framework. We have then addressed the problem of non-linear mechanical models, through damage and visco-plasticitymodels. To this end, we have first recast and extended the concept of the modified Constitutive Relation Error to this nonlinear material framework and we have implemented a dedicated resolution process, based on the LaTIn method. Finally, we have introduced this reformulation of the modified Constitutive Relation Error in the previously data assimilation method in order to process the model updating of nonlinear models.
174

control theory for computing systems : application to big-data cloud services & location privacy protection / Contrôle des systèmes informatiques : application aux services clouds et à la protection de vie privée

Cerf, Sophie 16 May 2019 (has links)
Cette thèse présente une application de la théorie du contrôle pour les systèmes informatiques. Un algorithme de contrôle peut gérer des systèmes plus grands et plus complexes, même lorsqu'ils sont particulièrement sensibles aux variations de leur environnement. Cependant, l'application du contrôle aux systèmes informatiques soulève plusieurs défis, par exemple dû au fait qu'aucune physique ne les régisse. D'une part, le cadre mathématique fourni par la théorie du contrôle peut être utilisé pour améliorer l'automatisation, la robustesse et la fiabilité des systèmes informatiques. D'autre part, les défis spécifiques de ces cas d'étude permettent d'élargir la théorie du contrôle elle-même. L'approche adoptée dans ce travail consiste à utiliser deux systèmes informatiques d'application: la protection de vie privée liée à la mobilité et les performances des services clouds. Ces deux cas d'utilisation sont complémentaires par la nature de leurs technologies, par leur échelle et par leurs utilisateurs finaux.La popularité des appareils mobiles a favorisé la diffusion et la collecte des données de localisation, que ce soit pour que l'utilisateur bénéficie d'un service personnalisé (e.g. une planification d'itinéraire) ou pour que le prestataire de services tire des informations utiles des bases de données de mobilité (e.g. la popularité de lieux). En effet, de nombreuses informations peuvent être extraites de données de localisation, y compris des données personnelles très sensibles. Pour remédier à cette atteinte à la vie privée, des mécanismes de protection spécifiques aux données de mobilité (LPPM) ont été élaborés. Ce sont des algorithmes qui modifient les données de localisation de l'utilisateur, dans le but de cacher des informations sensibles. Cependant, ces outils ne sont pas facilement configurables par des non experts et sont des processus statiques qui ne s'adaptent pas à la mobilité de l'utilisateur. Dans cette thèse, nous développons deux outils, l'un pour les bases de données déjà collectées et l'autre pour l'utilisation en ligne, qui garantissent aux utilisateurs des niveaux de protection de la vie privée et de préservation de la qualité des services en configurant les LPPMs. Nous présentons la première formulation du problème en termes de théorie du contrôle (système et contrôleur, signaux d’entrée et de sortie), et un contrôleur PI pour servir de démonstration d’applicabilité. Dans les deux cas, la conception, la mise en œuvre et la validation ont été effectuées par le biais d'expériences utilisant des données d'utilisateurs réels recueillies sur le terrain.L'essor récent des bigdata a conduit au développement de programmes capables de les analyser, tel que MapReduce. Les progrès des pratiques informatiques ont également permis d'établir le modèle du cloud (où il est possible de louer des ressources de bas niveau pour permettre le développement d'applications de niveau supérieur sans se préoccuper d'investissement ou de maintenance) comme une solution incontournable pour tous types d'utilisateurs. Garantir les performances des tâches MapReduce exécutées sur les clouds est donc une préoccupation majeure pour les grandes entreprises informatiques et leurs clients. Dans ce travail, nous développons des techniques avancées de contrôle du temps d'exécution des tâches et de la disponibilité de la plate-forme en ajustant la taille du cluster de ressources et en réalisant un contrôle d'admission, fonctionnant quelle que soit la charge des clients. Afin de traiter les non linéarités de MapReduce, un contrôleur adaptatif a été conçu. Pour réduire l'utilisation du cluster (qui entraîne des coûts financiers et énergétiques considérables), nous présentons une nouvelle formulation du mécanisme de déclenchement du contrôle événementiel, combiné à un contrôleur prédictif optimal. L'évaluation est effectuée sur un benchmark s'exécutant en temps réel sur un cluster, et en utilisant des charges de travail industrielles. / This thesis presents an application of Control Theory for Computing Systems. It aims at investigating techniques to build and control efficient, dependable and privacy-preserving computing systems. Ad-hoc service configuration require a high level of expertise which could benefit from automation in many ways. A control algorithm can handle bigger and more complex systems, even when they are extremely sensitive to variations in their environment. However, applying control to computing systems raises several challenges, e.g. no physics governs the applications. On one hand, the mathematical framework provided by control theory can be used to improve automation and robustness of computing systems. Moreover, the control theory provides by definition mathematical guarantees that its objectives will be fulfilled. On the other hand, the specific challenges of such use cases enable to expand the control theory itself. The approach taken in this work is to use two application computing systems: location privacy and cloud control. Those two use-cases are complementary in the nature of their technologies and softwares, their scale and in their end-users.The widespread of mobile devices has fostered the broadcasting and collection of users’ location data. It could be for the user to benefit from a personalized service (e.g. weather forecast or route planning) or for the service provider or any other third party to derive useful information from the mobility databases (e.g. road usage frequency or popularity of places). Indeed, many information can be retrieved from location data, including highly sensitive personal data. To overcome this privacy breach, Location Privacy Protection Mechanisms (LPPMs) have been developed. They are algorithm that modify the user’s mobility data, hopefully to hide some sensitive information. However, those tools are not easily configurable by non experts and are static processes that do not adapt to the user’s mobility. We develop two tools, one for already collected databases and one for online usage, that, by tuning the LPPMs, guarantee to the users objective-driven levels of privacy protection and of service utility preservation. First, we present an automated tool able to choose and configure LPPMs to protect already collected databases while ensuring a trade-off between privacy protection and database processing quality. Second, we present the first formulation of the location privacy challenge in control theory terms (plant and control, disturbance and performance signals), and a feedback controller to serve as a proof of concept. In both cases, design, implementation and validation has been done through experiments using data of real users collected on the field.The surge in data generation of the last decades, the so-called bigdata, has lead to the development of frameworks able to analyze them, such as the well known MapReduce. Advances in computing practices has also settled the cloud paradigms (where low-level resources can be rented to allow the development of higher level application without dealing with consideration such as investment in hardware or maintenance) as premium solution for all kind of users. Ensuring the performances of MapReduce jobs running on clouds is thus a major concern for the big IT companies and their clients. In this work, we develop advanced monitoring techniques of the jobs execution time and the platform availability by tuning the resource cluster size and realizing admission control, in spite of the unpredictable client workload. In order to deal with the non linearities of the MapReduce system, a robust adaptive feedback controller has been designed. To reduce the cluster utilization (leading to massive financial and energetic costs), we present a new event-based triggering mechanism formulation combined with an optimal predictive controller. Evaluation is done on a MapReduce benchmark suite running on a large-scale cluster, and using real jobs workloads.
175

Étude sur l’épistémologie naturalisée de Hermann von Helmholtz et Friedrich-Albert Lange dans la seconde moitié du XIXe siècle et ses analogies argumentaires avec l’épistémologie naturalisée de W.V.O. Quine au XXe siècle.

Descarreaux, Samuel 19 January 2024 (has links)
Cet ouvrage est consacré au kantisme non orthodoxe de Friedrich-Albert Lange (1828-1875) et Hermann von Helmholtz (1821-1894) développé dans la seconde moitié du XIXe qui propose une révision psychophysique de l’épistémologie kantienne. On affirme que ce procédé n’aboutit pas à une réduction psychologique de la connaissance qui aurait pour conséquence d’éliminer une objectivité judicative (contrairement à ce que prétendent plusieurs commentateurs) ; en revanche, ce procédé apporte des modifications significatives aux conditions de possibilité nécessaires et universelles de l’expérience qui légitiment chez Kant une objectivité judicative. On démontre que l’épistémologie développée par ces deux auteurs peut être qualifiée de « naturalisme méthodologique » et partage avec l’épistémologie naturalisée développée au XXe siècle par Willard von Orman Quine (1908-2000) une série de stratégies argumentaires analogues qui expliquent essentiellement « how evidence relates to theory, and in what ways one's theory of nature transcends any available evidence. » (Quine, 1969, 83) Ainsi afin de soutenir qu’il existe une telle épistémologie naturalisée au XIXe siècle, on divise l’ouvrage en trois parties. La première section (chapitres premier et deuxième) introduit le concept de « naturalisme épistémologique » et étudie ses conséquences doctrinales et conceptuelles. La seconde section (chapitres troisième, quatrième et cinquième) argumente que l’inscription de l’épistémologie kantienne dans un cadre conceptuel naturalisé n’implique pas l’élimination d’une réflexion de second ordre sur les raisons qui légitiment une objectivité judicative au profit d’une simple étude des causes psychophysiques de la perception et des jugements qui s’y rapporte. La troisième section (chapitres sixième et septième) est consacrée à la question de l’objectivité des jugements logico-mathématiques et plus particulièrement à leur signification intuitive dans le cadre de l’expérience psychophysique. À partir de ces trois sections, on prétend pouvoir démontrer que l’épistémologie naturalisée de Helmholtz, Lange et Quine mobilise des stratégies argumentaires structurellement analogues malgré des contextes historiques et conceptuels radicalement différents. On retrouve à la fin de chaque section des remarques conclusives comparatives qui mettent en valeur (autant que faire se peut) ces stratégies argumentaires analogues utilisées au XIXe et au XXe siècle.
176

Analyse de la dynamique neuronale pour les Interfaces Cerveau-Machines : un retour aux sources.

Besserve, Michel 22 November 2007 (has links) (PDF)
Les Interfaces Cerveau-Machine sont des dispositifs permettant d'instaurer un canal de communication entre le cerveau humain et le monde extérieur sans utiliser les voies usuelles nerveuses et musculaires. Le développement de tels systèmes se situe à l'interface entre le traitement du signal, l'apprentissage statistique et la neurophysiologie. Dans cette thèse, nous avons réalisé et étudié un dispositif d'Interface Cerveau-Machine non invasif asynchrone, c'est-à-dire capable d'identifier des actions mentales associées à des tâches motrices ou cognitives imaginées sans synchronisation sur un événement contrôlé par un système externe. Celui-ci est basé sur l'analyse en temps réel de signaux électro-encéphalographiques (EEG) issus d'électrodes disposées à la surface de la tête d'un sujet humain. Du point de vue méthodologique, nous avons implémenté plusieurs techniques de prétraitement de ces signaux et comparé leur influence sur les performances du système. Ces techniques comprennent : 1) l'utilisation directe du signal issu des capteurs EEG, 2) l'exploitation de méthodes de séparation de sources qui permettent de résumer les signaux EEG par un faible nombre de composantes spatiales et 3) la reconstruction de l'activité des sources de courant corticales par résolution du problème inverse en EEG. De plus, plusieurs mesures permettant de quantifier l'activité cérébrale sont exploitées et comparées : la puissance spectrale, la cohérence et la synchronie de phase. Nos résultats montrent que la reconstruction préalable de l'activité corticale par problème inverse, ainsi que l'utilisation de mesures d'interaction à distance permettent d'améliorer les performances du dispositif.
177

Imagerie sismique des milieux visco-acoustiques et visco-élastiques à deux dimensions par stéréotomographie et inversion des formes d'ondes: applications au champ pétrolier de Valhall

Prieux, Vincent 18 June 2012 (has links) (PDF)
La géophysique interne est une discipline riche en enseignements sur la structure de la Terre à différentes échelles, et sur les phénomènes passés liés à sa lente évolution. Elle constitue de plus un enjeu présent et d'avenir de première importance dans notre société, à l'heure où les ressources de toutes sortes se font de plus en plus rares, et dans le cadre d'une meilleure gestion de l'aménagement du territoire. La méthode d'inversion des formes d'ondes complètes, fondée sur un processus d'optimisation local, se distingue des autres méthodes d'imagerie sismique par sa vocation à extraire de manière aussi complète que possible l'intégralité de l'information sismique, afin de construire une image quantitative haute résolution d'un ou plusieurs paramètres physiques. Je discute dans ma thèse de plusieurs problématiques liées à cette méthode, en les illustrant par des applications à des données multicomposantes enregistrées par des câbles de fond de mer (OBC) sur le champ pétrolier de Valhall en mer du nord. Je discute tout d'abord de l'empreinte de l'anisotropie engendrée par des milieux transverses isotropes à axe de symétrie vertical sur les données du champ de Valhall. J'illustre cette empreinte sur les résultats de l'imagerie en comparant les modèles du sous-sol obtenus lorsque l'anisotropie est prise en compte ou pas dans la modélisation sismique. Je mets en évidence un biais dans les vitesses reconstruites par une méthode d'inversion isotrope, ce biais induisant un mauvais positionnement des réflecteurs en profondeur. %Les vitesses n'ont pas la même signification près de la surface et en profondeur, où elles sont représentatives des vitesses horizontales et NMO respectivement. J'aborde ensuite le problème de la construction du modèle initial nécessaire à l'inversion des formes d'ondes à partir de données à grands déports. L'approche sélectionnée est une extension de la stéréotomographie, une méthode de tomographie de pente, où les attributs temps de trajet+pente des ondes réfractées et réfléchies sont inversées au sein d'un algorithme hiérarchique multi-échelle. Le potentiel de la méthode est discuté à partir d'un cas synthétique représentatif du champ pétrolier de Valhall, avant l'application aux données réelles du champ de Valhall.
178

Détection d'un objet immergé dans un fluide

Caubet, Fabien 29 June 2012 (has links) (PDF)
Cette thèse s'inscrit dans le domaine des mathématiques appelé optimisation de formes. Plus précisément, nous étudions ici un problème inverse de type détection à l'aide du calcul de forme et de l'analyse asymptotique : l'objectif est de localiser un objet immergé dans un fluide visqueux, incompressible et stationnaire. Les questions principales qui ont motivé ce travail sont les suivantes : peut-on détecter un objet immergé dans un fluide à partir d'une mesure effectuée à la surface du fluide ? Peut-on reconstruire numériquement cet objet, i.e. approcher sa position et sa forme, à partir de cette mesure ? Peut-on connaître le nombre d'objets présents dans le fluide en utilisant cette mesure ? Pour répondre à ces questions, le problème inverse est analysé comme un problème d'optimisation en minimisant une fonctionnelle coût, la variable étant la forme inconnue. Deux différentes approches sont considérées dans ce travail : l'optimisation géométrique (à l'aide des dérivées de forme et du gradient de forme) et l'optimisation topologique (à l'aide d'un développement asymptotique et du "gradient" topologique). Dans un premier temps, un cadre mathématique est mis en place pour démontrer l'existence des dérivées de forme d'ordre un et deux pour les problèmes de détection d'inclusions. Le problème inverse considéré est ensuite analysé à l'aide de l'optimisation géométrique de forme : un résultat d'identifiabilité est montré, le gradient de forme de plusieurs types de fonctionnelles de forme est caractérisé et l'instabilité de ce problème inverse est enfin démontrée. Ces résultats théoriques sont alors utilisés pour reconstruire numériquement des objets immergés dans un fluide à l'aide d'un algorithme de gradient régularisé par une méthode de projection. Enfin, la localisation de petites inclusions dans un fluide est étudiée à l'aide de l'optimisation topologique pour une fonctionnelle de forme de Kohn-Vogelius. L'expression théorique de la dérivée topologique est finalement utilisée pour déterminer numériquement le nombre et la localisation de petits obstacles immergés dans un fluide à l'aide d'un algorithme de gradient topologique. Les limites effectives de cette approche sont explorées : la pénétration reste faible dans ce problème stationnaire.
179

Analyse de sensibilité et estimation de paramètres pour la modélisation hydrologique : potentiel et limitations des méthodes variationnelles

Castaings, William 24 October 2007 (has links) (PDF)
Comme tout évènement géophysique, la transformation de la pluie en débit dans les rivières est caractérisée par la complexité des processus engagés et par l'observation partielle, parfois très limitée, de la réponse hydrologique du bassin versant ainsi que du forçage atmosphérique auquel il est soumis. Il est donc essentiel de comprendre, d'analyser et de réduire les incertitudes inhérentes à la modélisation hydrologique (analyse de sensibilité, assimilation de données, propagation d'incertitudes). Les méthodes variationnelles sont très largement employées au sein d'autres disciplines (ex. météorologie, océanographie ...) confrontés aux mêmes challenges. Dans le cadre de ce travail, nous avons appliqué ce type de méthodes à des modèles représentant deux types de fonctionnement des hydrosystèmes à l'échelle du bassin versant. Le potentiel et les limitations de l'approche variationnelle pour la modélisation hydrologique sont illustrés avec un modèle faisant du ruissellement par dépassement de la capacité d'infiltration le processus prépondérant pour la genèse des écoulements superficiels (MARINE) ainsi qu'avec un modèle basé sur le concept des zones contributives d'aire variable (TOPMODEL). L'analyse de sensibilité par linéarisation ou basée sur la méthode de l'état adjoint permet une analyse locale mais approfondie de la relation entre les facteurs d'entrée de la modélisation et les variables pronostiques du système. De plus, le gradient du critère d'ajustement aux observations calculé par le modèle adjoint permet guider de manière très efficace un algorithme de descente avec contraintes de bornes pour l'estimation des paramètres. Les résultats obtenus sont très encourageants et plaident pour une utilisation accrue de l'approche variationnelle afin d'aborder les problématiques clés que sont l'analyse de la physique décrite dans les modèles hydrologiques et l'estimation des variables de contrôle (calibration des paramètres et mise à jour de l'état par assimilation de données).
180

Caractérisation d'une source de polluant en aéraulique à partir d'inversion de mesures de concentration / Characterization of a pollutant source in aerodynamics from inversion of measurements concentration

Maalej, Talal 24 November 2010 (has links)
Cette étude est consacrée au problème inverse d’estimation de l’intensité et de la position d’une source de polluant. Nous inversons tout d’abord des mesures de concentration à l’intérieur d’une chambre à sable(extension des égouts souterrain) en utilisant la méthode d’identification modale pour estimer l’intensité d’émission du gaz H2S. Une approche originale est ensuite proposée pour estimer la position d’une source en utilisant la notion de transmittance entre deux capteurs. Des outils de régularisation sont utilisés afin d’estimer chaque transmittance, dont le produit de convolution avec la concentration d’un capteur choisi comme référence correspond à la réponse d’un capteur quelconque. Les transmittances estimées à partir des signaux de concentration simulés dans une configuration d’un écoulement tunnel avec source ponctuelle sont ensuite comparées à la sortie d’un modèle analytique 1D de l’équation de transport.L’utilisation d’un algorithme de minimisation non linéaire a permis d’estimer d’abord la vitesse et le coefficient de diffusion de l’écoulement et ensuite la position de la source, sous certaines hypothèses / This numerical study deals with the inverse problem of estimating the intensity and the positionof a pollutant source. The estimation of time-varying emission rates of pollutant sources of H2S in asewer chamber is first implemented through inversion of concentration measurements using the modal identification method. A specific method based on transmittance functions between sensors output isused to estimate the source position. Regularization tools are applied to estimate each transmittance,whose convolution product with the concentration of a reference sensor models the response of any sensor.Transmittances estimated from simulated concentration signals in a tunnel flow with a point source arethen compared to the output of 1D analytical model for the transport equation. A nonlinear minimizationalgorithm is used to estimate the velocity and the diffusion coefficient first and the source position next,under some assumption

Page generated in 0.1235 seconds