• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 179
  • 81
  • 18
  • Tagged with
  • 269
  • 269
  • 133
  • 67
  • 52
  • 41
  • 34
  • 30
  • 28
  • 28
  • 27
  • 27
  • 26
  • 25
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Construction of a control and reconstruction of a source for linear and nonlinear heat equations / Construction d'un contrôle et reconstruction de source dans les équtions linéaires et nonlinéaires de la chaleur

Vo, Thi Minh Nhat 04 October 2018 (has links)
Dans cette thèse, nous étudions un problème de contrôle et un problème inverse pour les équationsde la chaleur. Notre premier travail concerne la contrôlabilité à zéro pour une équation de la chaleur semi-linéaire. Il est à noter que sans contrôle, la solution est instable et il y aura en général explosion de la solution en un temps fini. Ici, nous proposons un résultat positif de contrôlabilité à zéro sous une hypothèse quantifiée de petitesse sur la donnée initiale. La nouveauté réside en la construction de ce contrôle pour amener la solution à l’état d’équilibre.Notre second travail aborde l’équation de la chaleur rétrograde dans un domaine borné et sous la condition de Dirichlet. Nous nous intéressons à la question suivante: peut-on reconstruire la donnée initiale à partir d’une observation de la solution restreinte à un sous-domaine et à un temps donné? Ce problème est connu pour être mal-posé. Ici, les deux principales méthodes proposées sont: une approche de filtrage des hautes fréquences et une minimisation à la Tikhonov. A chaque fois, nous reconstruisons de manière approchée la solution et quantifions l’erreur d’approximation / My thesis focuses on two main problems in studying the heat equation: Control problem and Inverseproblem.Our first concern is the null controllability of a semilinear heat equation which, if not controlled, can blow up infinite time. Roughly speaking, it consists in analyzing whether the solution of a semilinear heat equation, underthe Dirichlet boundary condition, can be driven to zero by means of a control applied on a subdomain in whichthe equation evolves. Under an assumption on the smallness of the initial data, such control function is builtup. The novelty of our method is computing the control function in a constructive way. Furthermore, anotherachievement of our method is providing a quantitative estimate for the smallness of the size of the initial datawith respect to the control time that ensures the null controllability property.Our second issue is the local backward problem for a linear heat equation. We study here the followingquestion: Can we recover the source of a linear heat equation, under the Dirichlet boundary condition, from theobservation on a subdomain at some time later? This inverse problem is well-known to be an ill-posed problem,i.e their solution (if exists) is unstable with respect to data perturbations. Here, we tackle this problem bytwo different regularization methods: The filtering method and The Tikhonov method. In both methods, thereconstruction formula of the approximate solution is explicitly given. Moreover, we also provide the errorestimate between the exact solution and the regularized one.
122

Tomographie par rayons X multi-énergétiques pour l’analyse de la structure interne de l'objet appliquée dans l’imagerie médicale / Bayesian Multi-Energy Computed Tomography reconstruction approaches based on decomposition models

Cai, Caifang 23 October 2013 (has links)
La tomographie par rayons X multi-énergétiques (MECT) permet d'obtenir plus d'information concernant la structure interne de l'objet par rapport au scanner CT classique. Un de ses intérêts dans l’imagerie médicale est d'obtenir les images de fractions d’eau et d’os. Dans l'état de l'art, les intérêts de MECT n'est pas encore découvert largement. Les approches de reconstruction existantes sont très limitées dans leurs performances. L'objectif principal de ce travail est de proposer des approches de reconstruction de haute qualité qui pourront être utilisés dans la MECT afin d’améliorer la qualité d’imagerie.Ce travail propose deux approches de reconstruction bayésiennes. La première est adaptée au système avec un détecteur discriminant en énergie. Dans cette approche, nous considérons que les polychromaticités de faisceaux sont négligeables. En utilisant le modèle linéaire de la variance et la méthode d'estimation maximum à postériori (MAP), l'approche que nous avons proposé permets de prendre en compte les différents niveaux de bruit présentés sur les mesures multi-énergétiques. Les résultats des simulations montrent que, dans l'imagerie médicale, les mesures biénergies sont suffisantes pour obtenir les fractions de l'eau et de l'os en utilisant l'approche proposée. Des mesures à la troisième énergie est nécessaire uniquement lorsque l'objet contient des matériaux lourdes. Par exemple, l’acier et l'iode. La deuxième approche est proposée pour les systèmes où les mesures multi-énergétiques sont obtenues avec des faisceaux polychromatiques. C'est effectivement la plupart des cas dans l'état actuel du practice. Cette approche est basée sur un modèle direct non-linéaire et un modèle bruit gaussien où la variance est inconnue. En utilisant l’inférence bayésienne, les fractions de matériaux de base et de la variance d'observation pourraient être estimées à l'aide de l'estimateur conjoint de MAP. Sous réserve à un modèle a priori Dirac attribué à la variance, le problème d'estimation conjointe est transformé en un problème d'optimisation avec une fonction du coût non-quadratique. Pour le résoudre, l'utilisation d'un algorithme de gradient conjugué non-linéaire avec le pas de descente quasi-optimale est proposée.La performance de l'approche proposée est analysée avec des données simulées et expérimentales. Les résultats montrent que l'approche proposée est robuste au bruit et aux matériaux. Par rapport aux approches existantes, l'approche proposée présente des avantages sur la qualité de reconstruction. / Multi-Energy Computed Tomography (MECT) makes it possible to get multiple fractions of basis materials without segmentation. In medical application, one is the soft-tissue equivalent water fraction and the other is the hard-matter equivalent bone fraction. Practical MECT measurements are usually obtained with polychromatic X-ray beams. Existing reconstruction approaches based on linear forward models without counting the beam polychromaticity fail to estimate the correct decomposition fractions and result in Beam-Hardening Artifacts (BHA). The existing BHA correction approaches either need to refer to calibration measurements or suffer from the noise amplification caused by the negative-log pre-processing and the water and bone separation problem. To overcome these problems, statistical DECT reconstruction approaches based on non-linear forward models counting the beam polychromaticity show great potential for giving accurate fraction images.This work proposes a full-spectral Bayesian reconstruction approach which allows the reconstruction of high quality fraction images from ordinary polychromatic measurements. This approach is based on a Gaussian noise model with unknown variance assigned directly to the projections without taking negative-log. Referring to Bayesian inferences, the decomposition fractions and observation variance are estimated by using the joint Maximum A Posteriori (MAP) estimation method. Subject to an adaptive prior model assigned to the variance, the joint estimation problem is then simplified into a single estimation problem. It transforms the joint MAP estimation problem into a minimization problem with a non-quadratic cost function. To solve it, the use of a monotone Conjugate Gradient (CG) algorithm with suboptimal descent steps is proposed.The performances of the proposed approach are analyzed with both simulated and experimental data. The results show that the proposed Bayesian approach is robust to noise and materials. It is also necessary to have the accurate spectrum information about the source-detector system. When dealing with experimental data, the spectrum can be predicted by a Monte Carlo simulator. For a variety of materials, less than 5% estimation errors are observed on their average decomposition fractions.The proposed approach is a statistical reconstruction approach based on a non-linear forward model counting the full beam polychromaticity and applied directly to the projections without taking negative-log. Compared to the approaches based on linear forward models and the BHA correction approaches, it has advantages in noise robustness and reconstruction accuracy.
123

Séparation des variables et facteurs de forme des modèles intégrables quantiques / Separation of variables and form factors of quantum integrable models

Grosjean, Nicolas 25 June 2013 (has links)
Les facteurs de forme et les fonctions de corrélation déterminent les quantités dynamiques mesurables associées aux modèles de théorie des champs et de mécanique statistique. Dans le cas de modèles intégrables en dimension 2, au-delà des propriétés du spectre ou de la fonction de partition, un des grands défis actuels concerne le calcul exact des facteurs de forme et des fonctions de corrélation.Le but de cette thèse est de développer une approche permettant de résoudre ce problème dans le cadre de la méthode de séparation des variables quantique de Skyanin. Cette méthode généralise au cas quantique et pour des systèmes avec un grand nombre de degrés de liberté la méthode de Hamilton-Jacobi en mécanique analytique. Le Hamiltonien est exprimé avec des opérateurs séparés, son spectre et ses états propres caractérisés par un système d'équations de Baxter résultant des structures algébriques de Yang-Baxter, caractéristiques de l'intégrabilité de ces modèles.Cette thèse a permis, pour les modèles de sine-Gordon (théorie des champs quantique) et de Potts chiral (modèle de physique statistique), le calcul des produits scalaires entre états propres du Hamiltonien, la résolution du problème inverse, i. e. l'expression des opérateurs du modèle en termes des variables séparées, ainsi que le calcul en termes de déterminants des facteurs de forme, i. e. des éléments de matrice des opérateurs locaux du modèle dans la base propre du Hamiltonien, ce qui constitue un pas important vers le calcul des fonctions de corrélation de ces modèles. / Form factors and correlation functions determine the measurable dynamic quantities that are associated with field theories and statistical physics models. In the case of 2-dimensional integrable models, one of the main challenges beyond spectrum properties and partition function is the exact computation of form factors and correlation functions.The aim of this thesis is to develop an approach in the framework of Sklyanin's separation of variables to address this problem. This framework generalizes to the quantum case and for systems with many degrees of freedom the Hamilton-Jacobi method from analytical mechanics. The Hamiltonian is expressed in terms of separated operators, its spectrum and eigenvectors are characterized by a system of Baxter equations. These Baxter equations are a consequence of Yang-Baxter relations that are characteristic of these models being integrable.The result of this thesis is, in the case of the sine-Gordon model (quantum field theory) and of the chiral Potts model (statistical physics model), the computation of scalar products of Hamiltonian eigenstates, the resolution of the inverse problem (expressing the model operators in terms of separated variables) and the computation in terms of determinant of form factors (the matrix elements of the model local operators in the Hamiltonian eigenbasis), which is an important step towards the computation of the correlation functions of these models.
124

Reconstruction tomographique d'objets déformables pour la cryo-microscopie électronique à particules isolées / TomographIc reconstruction for deformable object applied to single particle cryo-electron microscopy

Michels, Yves 26 September 2018 (has links)
La cryo-microscopie électronique à particules isolées est une modalité d’imagerie permettant d’estimer la structure 3D de molécules. L’obtention d’un volume 3D est effectué par des algorithmes de reconstruction tomographique après acquisition par un microscope électronique à transmission d’un ensemble d’images de projection de l’objet observé. Les méthodes de reconstruction tomographique existantes permettent de déterminer la structure des molécules avec des résolutions proches de l’angström. Cependant la résolution est dégradée lorsque les molécules observées sont déformables. Les travaux réalisés au cours de cette thèse contribuent au développement de méthodes de traitement informatique des données (projections) dans le but de prendre en compte les déformations de l’objet observé dans le processus de reconstruction tomographique ab initio. Les problématiques principales abordées dans ce mémoire sont l’estimation des paramètres de projection basée sur la réduction de dimension non-linéaire, la détection des arêtes erronées dans les graphes de voisinages pour l’amélioration de la robustesse au bruit des méthodes de réduction de dimension, et la reconstruction tomographique basée sur un modèle paramétrique du volume. / Single particle cryo-electron microscopy is a technique that allows to estimate the 3D structure of biological complex. The construction of the 3D volume is performed by computerized tomography applied on a set of projection images from transmission electron microscope. Existing tomographic reconstructionalgorithms allow us to visualize molecular structure with a resolution around one angstrom. However the resolution is degraded when the molecules are deformable. This thesis contributes to the development of signal processing method in order to take into account the deformation information of the observed object for the ab initio tomographic reconstruction. The main contributions of this thesis are the estimation of projection parameters based on non-linear dimensionreduction, the false edges detection in neighborhood graphs to improve noise robustness of dimension reduction methods, and tomographic reconstruction based on a parametric model of the volume.
125

Problèmes inverses pour le diagnostic de câbles électriques à partir de mesures de réflectométrie / Inverse problems for diagnosis of electric cables from reflectometry measurement

Berrabah, Nassif 08 November 2017 (has links)
Les câbles électriques sont présents dans de nombreux produits et systèmes où ils sont utilisés pour transmettre des données ou transporter de l'énergie. Ces liaisons sont la plupart du temps installées pour des durées d'exploitation longues au cours desquelles elles doivent subir l'usure du temps, ainsi que celle résultant d'un environnement parfois agressif. Alors que les câbles électriques assurent des fonctions essentielles et dans certains cas critiques, ils sont aussi sujets à des défaillances qui découlent des contraintes qu'ils endurent. Ceci explique la nécessité de surveiller leur état, afin de détecter au plus tôt les défauts naissants et d'intervenir avant qu'ils ne dégénèrent en dommages dont les conséquences peuvent être préjudiciable et économiquement lourdes. L'entreprise EDF est particulièrement concernée par cette problématique dans la mesure ou elle exploite des longueurs considérables de câbles pour le transport et la distribution d'électricité sur tout le territoire bien sûr, mais aussi au sein des centrales qui produisent l'électricité, pour alimenter les différents organes, et acheminer commandes et mesures. L'entreprise, attentive à ce que ces câbles soient en bon état de fonctionnement mène plusieurs travaux, d'une part pour étudier leur vieillissement et modes de dégradation, et d'autre part pour développer des méthodes et outils pour la surveillance et le diagnostic de ces composants essentiels. Le projet EDF CAIMAN (Cable AgIng MANagement) commandé par le SEPTEN (Service Etudes et Projets Thermiques Et Nucléaires) traite de ces questions, et les travaux présentés dans cette thèse ont été conduits dans ce cadre et sont le fruit d'une collaboration avec Inria (Institut National de Recherche en Informatique et Automatique). Partant du constat que les méthodes de diagnostic de câbles existantes à l'heure actuelle ne donnent pas pleine satisfaction, nous nous sommes donné pour objectif de développer des outils nouveaux. En effet, les techniques actuelles reposent sur différents moyens dont des tests destructifs, des prélèvements pour analyse en laboratoire, et des mesures sur site mais qui ne permettent pas de diagnostiquer certains défauts. Parmi les techniques non destructives, la réflectométrie, dont le principe est d'injecter un signal électrique à une extrémité du câble et d'analyser les échos, souffre aussi de certaines de ces limitations. En particulier, les défauts non-francs restent encore difficiles à détecter. Toutefois les travaux qui se multiplient autour de cette technique tentent d'en améliorer les performances, et certains obtiennent des résultats prometteurs. Les chercheurs de l'Inria qui travaillent sur le sujet ont développé des algorithmes pour exploiter des mesures de réflectométrie. En résolvant un problème inverse, les paramètres d'un modèle de câble sont estimés et servent alors d'indicateurs de l'état de dégradation du câble testé. L'objectif de cette thèse est d'étendre ces méthodes pour répondre aux besoins spécifiques d'EDF. Un des principaux défis auquel nous avons apporté une solution est la prise en compte des pertes ohmiques dans la résolution du problème inverse. Plus spécifiquement, notre contribution principale est une méthode d'estimation du profil de résistance linéique d'un câble. Cette estimation permet de révéler les défauts résistifs qui produisent souvent des réflexions faibles dans les réflectogrammes habituels. Une seconde contribution vise à améliorer la qualité des données utilisées par cette méthode d'estimation. Ainsi, nous proposons un pré-traitement des mesures dont le but est de gommer l'effet de la désadaptation des instruments aux câbles ou celui des connecteurs. Ces travaux apportent de nouveaux outils pour l'exploitation des mesures de réflectométrie et des solutions pour le diagnostic de certains défauts encore difficiles à détecter aujourd'hui. / Electric cables are ubiquitous in many devices and systems where they are used for data or power transmission. These connection links are most often installed for long periods of operation during which they are subject to aging and sometimes exposed to harsh environments. While electric cables fulfill important and sometimes even critical functions, they might fail due to the hard constraints they have to endure. This motivates the need for monitoring tools, in order to detect early faults and to intervene as soon as possible, before they mutate into heavier damage whose consequences can be detrimental and expensive. EDF company is very affected by this problematic insofar as it operates significant lengths of cables for energy distribution, but also in power plant for power supply of the diverse apparatus, to route data and to transmit measurement. The company has been leading several studies regarding cable aging, cable faults, and wire diagnosis methods. The CAIMAN project (Cable AgIng MANagement), sponsored by the Engineering Department of Nuclear and Thermal Projects (SEPTEN), deals with these questions. The work presented in this dissertation were led in this context and results from a collaboration with Inria (French National Institute for Research in Applied Mathematics and Computer Sciences). Starting from the observation that existing cable diagnosis methods do not offer full satisfaction, we targeted the goal of developping new tools to improve the state of the art. Existing techniques rely on a range of tests, some of which are destructive or involve in-lab investigations, but these still cannot detect some kind of faults. Among major techniques, reflectometry has the most promising results. This technique consists in the same principle as a radar. One sends a wave down a cable from one end. Then the reflected signal is analysed searching for signs of faults. Yet, this method also suffers some limitations and soft faults remain hard to detect. Researchers and industries multiply the investigations in the domain of reflectometry-based techniques, and some get interesting results. Scientists from Inria developped algorithms for cable parameter estimation from reflectometry measurements, following an inverse-problem approach. The goal of our work was to extend these methods to meet the specific needs of EDF. One of the main challenges we coped with was to take into account electric losses in the resolution of the inverse problem. Our main contribution is a method to estimate the per unit length resistance profile of a cable. This estimation reveals resistive faults that most often only produce weak reflections in reflectometry measurements. Other contributions concerns the improvement of the method based on pre-processing of the data whose role is to erase the effect of impedance mismatches. This work breaks new grounds in the domain of reflectometry-based wire diagnosis techniques.
126

Quelques contributions à la modélisation numérique de structures élancées pour l'informatique graphique / Some contributions to the numerical modeling of slender structures for computer graphics

Casati, Romain 26 June 2015 (has links)
Il est intéressant d'observer qu'une grande partie des objets déformables qui nous entourent sont caractérisés par une forme élancée : soit filiforme, comme les cheveux, les plantes, les fils ; soit surfacique, comme le papier, les feuilles d'arbres, les vêtements ou la plupart des emballages. Simuler (numériquement) la mécanique de telles structures présente alors un intérêt certain : cela permet de prédire leur comportement dynamique, leur forme statique ou encore les efforts qu'elles subissent. Cependant, pour pouvoir réaliser correctement ces simulations, plusieurs problèmes se posent. Les modèles (mécaniques, numériques) utilisés doivent être adaptés aux phénomènes que l'on souhaite reproduire ; le modèle mécanique choisi doit pouvoir être traité numériquement ; enfin, il est nécessaire de connaître les paramètres du modèle qui permettront de reproduire l'instance du phénomène souhaitée. Dans cette thèse nous abordons ces trois points, dans le cadre de la simulation de structures élancées.Dans la première partie, nous proposons un modèle discret de tiges de Kirchhoff dynamiques, de haut degré, basé sur des éléments en courbures et torsion affines par morceaux : les Super-Clothoïdes 3D. Cette discrétisation spatiale est calculée de manière précise grâce à une méthode dédiée, adaptée à l'arithmétique flottante, utilisant des développements en séries entières. L'utilisation des courbures et de la torsion comme degrés de liberté permet d'aboutir à un schéma d'intégration stable grâce à une implicitation, à moindres frais, des forces élastiques. Le modèle a été utilisé avec succès pour simuler la croissance de plantes grimpantes ou le mouvement d'une chevelure. Nos comparaisons avec deux modèles de référence de la littérature ont montré que pour des tiges bouclées, notre approche offre un meilleur compromis en termes de précision spatiale, de richesse de mouvements générés et d'efficacité en temps de calcul.Dans la seconde partie, nous nous intéressons à l'élaboration d'un algorithme capable de retrouver la géométrie au repos (non déformée) d'une coque en contact frottant, connaissant sa forme à l'équilibre et les paramètres physiques du matériau qui la compose. Un tel algorithme trouve son intérêt lorsque l'on souhaite simuler un objet pour lequel on dispose d'une géométrie (numérisée) « à l'équilibre » mais dont on ne connaît pas la forme au repos. En informatique graphique, un exemple d'application est la modélisation de vêtements virtuels sous la gravité et en contact avec d'autres objets : simplement à partir de la forme objectif et d'un simulateur de vêtement, le but consiste à identifier automatiquement les paramètres du simulateur tels que la forme d'entrée corresponde à un équilibre mécanique stable. La formulation d'un tel problème inverse comme un problème aux moindres carrés nous permet de l'attaquer avec la méthode de l'adjoint. Cependant, la multiplicité des équilibres, donnant au problème direct son caractère mal posé, nous conduit à « guider » la méthode en pénalisant les équilibres éloignés de la forme objectif. On montre enfin qu'il est possible de considérer du contact et du frottement solide dans l'inversion, en reformulant le calcul d'équilibres en un problème d'optimisation sous contraintes coniques, et en adaptant la méthode de l'adjoint à ce cas non-régulier. Les résultats que nous avons obtenus sont très encourageants et nous ont permis de résoudre des cas complexes où l'algorithme se comportait de manière intuitive. / It is interesting to observe that many of the deformable objects around us are characterized by a slender structure: either in one dimension, like hair, plants, strands, or in two dimensions, such as paper, the leaves of trees or clothes. Simulating the mechanical behavior of such structures numerically is useful to predict their static shape, their dynamics, or the stress they undergo. However, to perform these simulations, several problems need to be addressed. First, the model (mechanical, numerical) should be adapted to the phenomena which it is aimed at reproducing. Then, the chosen mechanical model should be discretized consistently. Finally, it is necessary to identify the parameters of the model in order to reproduce a specific instance of the phenomenon. In this thesis we shall discuss these three points, in the context of the simulation of slender structures.In the first part, we propose a discrete dynamic Kirchhoff rod model of high degree, based on elements with piecewise affine curvature and twist: the Super-Space-Clothoids. This spatial discretization is computed accurately through a dedicated method, adapted to floating-point arithmetic, using power series expansions. The use of curvature and twist as degrees of freedom allows us to make elastic forces implicit in the integration scheme. The model has been used successfully to simulate the growth of climbing plants or hair motion. Our comparisons with two reference models have shown that in the case of curly rods, our approach offers the best trade-off in terms of spatial accuracy, richness of motion and computational efficiency.In the second part, we focus on identifying the undeformed configuration of a shell in the presence of frictional contact forces, knowing its shape at equilibrium and the physical parameters of the material. Such a method is of utmost interest in Computer Graphics when, for example, a user often wishes to model a virtual garment under gravity and contact with other objects regardless of physics. The goal is then to interpret the shape and provide the right ingredients to the cloth simulator, so that the cloth is actually at equilibrium when matching the input shape. To tackle such an inverse problem, we propose a least squares formulation which can be optimized using the adjoint method. However, the multiplicity of equilibria, which makes our problem ill-posed, leads us to "guide" the optimization by penalizing shapes that are far from the target shape. Finally, we show how it is possible to consider frictional contact in the inversion process by reformulating the computation of equilibrium as an optimization problem subject to conical constraints. The adjoint method is also adjusted to this non-regular case. The results we obtain are very encouraging andhave allowed us to solve complex cases where the algorithm behaves intuitively.
127

CARACTERISATION DES IMPACTS SUR UNE GALERIE « PARE-BLOCS STRUCTURELLEMENT DISSIPANT »

Boukria, Zoheir 08 December 2009 (has links) (PDF)
Cette thèse a pour objectif de quantifier l'aléa rocheux de type chute de blocs sur une galerie pare-blocs et ainsi pouvoir intégrer cette structure dans un système de détection et d'alerte de l'activité d'un versant rocheux. Pour ce type de problème, les méthodes inverses peuvent permettre une caractérisation (identification et localisation) de l'effort subi par la structure. Ces méthodes sont largement utilisées pour des structures de type poutre et plaques sous charges dynamiques inconnues. Pour résoudre ce genre de problème, l'une des approches les plus utilisées est de créer les fonctions de transfert entre des points d'impact et de mesure sur la structure expérimentalement ou numériquement, de mesurer les réponses, et de trouver la force par déconvolution du signal. Il est connu que ce type de problème est « mal posé ». Afin d'obtenir une solution stable ayant un sens physique, il faut généralement avoir recours à la régularisation soit par filtrage du bruit, soit par des méthodes de régularisation classique, telle que celle de Tikhonov. Le problème de caractérisation des impacts sur une structure devient plus complexe lorsque la localisation du point d'impact est inconnu. Pour résoudre ce problème, on peut utiliser une approche basée sur la minimisation d'une fonctionnelle représentant l'erreur entre les réponses mesurées et estimées en plusieurs points formant un quadrillage sur la structure. Dans le cas d'une structure en situation réelle avec des conditions aux limites complexes, Il est préférable d'opter pour une approche expérimentale. Une série d'essai sur des structures simples de type poutre et plaque permet de contrôler les paramètres influants sur la qualité de reconstruction de l'effort. Afin de recréer les caractéristiques de la structure et son comportement, une application de la démarche sur une dalle en béton armé s'avère la plus appropriée. En utilisant les fonctions de transfert obtenues expérimentalement et validées numériquement, la localisation des efforts et l'identification de leurs historiques devient possible. Cette étude ouvre les perspectives d'étendre l'application des méthodes inverses à la caractérisation des efforts de type souffle générés par une avalanche ou par une explosion.
128

Caractérisation de systèmes particulaires par inversion des diagrammes de diffusion critique de la lumière

Krzysiek, Mariusz 08 December 2009 (has links) (PDF)
Ce travail de thèse de doctorat étudie la diffusion de la lumière par des nuages de bulles au voisinage de l'angle de diffusion critique. Les bulles sont définies comme des particules dont l'indice de réfraction relatif est inférieur à l'unité. Dans l'hypothèse d'un régime de diffusion simple, le diagramme de diffusion critique produit par un ensemble de bulles peut être modélisé à l'aide de la théorie de Lorenz-Mie et d'une intégrale de Fredholm du premier type. Fondamentalement, ces diagrammes sont composés d'arcs (ou franges circulaires) qui présentent de grandes similarités avec ceux observés dans la zone de diffraction vers l'avant ou la région de l'angle d'arc-en-ciel. Il existe un lien clair entre l'étalement angulaire, la visibilité et la position globale de ces arcs avec le diamètre moyen, la dispersion et l'indice de réfraction (c.-à-d. composition) des bulles diffusantes. Différents effets particuliers ont été étudiés, comme ceux liés au profil d'intensité gaussien du faisceau laser incident, les effets de filtrage spatial de l'optique de Fourier, la non sphéricité des bulles, la possibilité de produire l'équivalent d'un arc-en-ciel sous-marin. Des simulations numériques, ainsi que la mise au point de différentes méthodes d'inversion et expériences ont permis de démontrer la validité et la fiabilité de ce que nous avons appelé la « Critical-Angle Refractometry and Sizing (CARS) technique ». Au delà des aspects fondamentaux, cette nouvelle méthode optique de caractérisation de particules s'avère prometteuse pour l'étude des écoulements à bulles et plus particulièrement quand la composition des bulles est recherchée.
129

Estimation des paramètres de transport en milieu hydro-géologique et analyse d'incertitudes

Migliore, Thomas 07 December 2009 (has links) (PDF)
Dans cette thèse, nous nous sommes intéressés à l'estimation des paramètres de transport de solutés dans un milieu poreux peu perméable, d'un point de vue théorique et appliqué, en lien avec le stockage des déchets nucléaires à vie longue en couche géologique profonde. La problématique de la gestion des déchets nucléaires est devenue durant ces dernières années une préoccupation importante de la société. Les modèles mathématiques utilisés pour le stockage des déchets en site profond sont basés sur les équations d'écoulement et de transport en milieu poreux. Ces modèles nécessitent de connaître les paramètres physiques des différentes couches géologiques. Ces paramètres (porosité et diffusion) n'étant pas accessibles directement, nous avons dans un premier temps étudié l'aspect identification de paramètres à zones fixées. Pour résoudre notre problème inverse, nous avons utilisé des méthodes déterministes (ou variationnelles) basées sur la minimisation d'un critère (ou fonction coût) quadratique, l'objectif étant de trouver l'ensemble des paramètres qui minimisent le critère. Nous avons décomposé le milieu en zones homogènes dans lesquelles les coefficients ont été identifiés (technique de zonation). Pour cela, nous avons différentié le code de convection-diffusion Traces avec le logiciel de différentiation automatique Tapenade afin d'obtenir le code adjoint de Traces. Dans un second temps, nous avons utilisé ce travail pour résoudre le problème d'identification de zones. On a cherché, partant d'une configuration géologique modifiée, à retrouver la configuration géologique réelle en identifiant les paramètres qui ont pour support ces zones. En regroupant ensuite par isovaleurs les coefficients identifiés, nous avons obtenu la configuration recherchée.
130

Localisation et suivi d'activité fonctionnelle cérébrale en électro et magnétoencéphalographie: Méthodes et applications au système visuel humain

Gramfort, Alexandre 12 October 2009 (has links) (PDF)
Cette thèse est consacrée à l'étude des signaux mesurés par Electroencéphalographie (EEG) et Magnétoencéphalographie (MEG) afin d'améliorer notre compréhension du cerveau humain. La MEG et l'EEG sont des modalités d'imagerie cérébrale non invasives. Elles permettent de mesurer, hors de la tête, respectivement le potentiel électrique et le champ magnétique induits par l'activité neuronale. Le principal objectif lié à l'exploitation de ces données est la localisation dans l'espace et dans le temps des sources de courant ayant généré les mesures. Pour ce faire, il est nécessaire de résoudre un certain nombre de problèmes mathématiques et informatiques difficiles. La première partie de cette thèse part de la présentation des fondements biologiques à l'origine des données M/EEG, jusqu'à la résolution du problème direct. Le problème direct permet de prédire les mesures générées pour une configuration de sources de courant donnée. La résolution de ce problème à l'aide des équations de Maxwell dans l'approximation quasi-statique passe par la modélisation des générateurs de courants, ainsi que de la géométrie du milieu conducteur, dans notre cas la tête. Cette modélisation aboutit à un problème direct linéaire qui n'admet pas de solution analytique lorsque l'on considère des modèles de tête réalistes. Notre première contribution porte sur l'implémentation d'une résolution numérique à base d'éléments finis surfaciques dont nous montrons l'excellente précision comparativement aux autres implémentations disponibles. Une fois le problème direct calculé, l'étape suivante consiste à estimer les positions et les amplitudes des sources ayant généré les mesures. Il s'agit de résoudre le problème inverse. Pour ce faire, trois méthodes existent: les méthodes paramétriques, les méthodes dites de "scanning", et les méthodes distribuées. Cette dernière approche fournit un cadre rigoureux à la résolution de problème inverse tout en évitant de faire de trop importantes approximations dans la modélisation. Toutefois, elle impose de résoudre un problème fortement sous-contraint qui nécessite de fait d'imposer des a priori sur les solutions. Ainsi la deuxième partie de cette thèse est consacrée aux différents types d'a priori pouvant être utilisés dans le problème inverse. Leur présentation part des méthodes de résolution mathématiques jusqu'aux détails d'implémentation et à leur utilisation en pratique sur des tailles de problèmes réalistes. Un intérêt particulier est porté aux a priori induisant de la parcimonie et conduisant à l'optimisation de problèmes convexes non différentiables pour lesquels sont présentées des méthodes d'optimisation efficaces à base d'itérations proximales. La troisième partie porte sur l'utilisation des méthodes exposées précédemment afin d'estimer des cartes rétinotopiques dans le système visuel à l'aide de données MEG. La présentation porte à la fois sur les aspects expérimentaux liés au protocole d'acquisition jusqu'à la mise en oeuvre du problème inverse en exploitant des propriétés sur le spectre du signal mesuré. La contribution suivante ambitionne d'aller plus loin que la simple localisation d'activités par le problème inverse afin de donner accès à la dynamique de l'activité corticale. Partant des estimations de sources sur le maillage cortical, la méthode proposée utilise des méthodes d'optimisation combinatoires à base de coupes de graphes afin d'effectuer de façon robuste le suivi de l'activité au cours du temps. La dernière contribution de cette thèse porte sur l'estimation de paramètres sur des données M/EEG brutes non moyennées. Compte tenu du faible rapport signal à bruit, l'analyse de données M/EEG dites "simple essai" est un problème particulièrement difficile dont l'intérêt est fondamental afin d'aller plus loin que l'analyse de données moyennées en explorant la variabilité inter-essais. La méthode proposée utilise des outils récents à base de graphes. Elle garantit des optimisations globales et s'affranchit de problèmes classiques tels que l'initialisation des paramètres ou l'utilisation du signal moyenné dans l'estimation. L'ensemble des méthodes développées durant cette thèse ont été utilisées sur des données M/EEG réels afin de garantir leur pertinence dans le contexte expérimental parfois complexe des signaux réelles M/EEG. Les implémentations et les données nécessaires à la reproductibilité des résultats sont disponibles. Le projet de rétinotopie par l'exploitation de données de MEG a été mené en collaboration avec l'équipe du LENA au sein de l'hôpital de La Pitié-Salpêtrière (Paris).

Page generated in 0.0525 seconds