31 |
Méthodes de Galerkine discontinues et analyse d'erreur a posteriori pour les problèmes de diffusion hétérogèneStephansen, Annette Fagerhaug 17 December 2007 (has links) (PDF)
Dans cette thèse, nous analysons une méthode de Galerkine discontinue (GD) et deux estimateurs d'erreur a posteriori pour l'équation d'advection-diffusion-réaction linéaire et stationnaire avec diffusion hétérogène. La méthode GD considérée, la méthode SWIP, utilise des moyennes pondérées dont les poids dépendent de la diffusion. L'analyse a priori montre que la convergence est optimale en le pas du maillage et robuste par rapport aux hétérogénéités de la diffusion, ce qui est confirmé par les tests numériques. Les deux estimateurs d'erreur a posteriori sont obtenus par une analyse par résidus et contrôlent la (semi-)norme d'énergie de l'erreur. L'analyse d'efficacité locale montre que presque tous les estimateurs sont indépendants des hétérogénéités. Le deuxième estimateur d'erreur est plus précis que le premier, mais son coût de calcul est légèrement plus élevé. Cet estimateur est basé sur la construction d'un flux H(div)-conforme dans l'espace de Raviart-Thomas-Nédéléc.
|
32 |
Modélisation statistique pour données fonctionnelles : approches non-asymptotiques et méthodes adaptatives / Statistical modeling for functional data : non-asymptotic approaches and adaptive methodsRoche, Angelina 07 July 2014 (has links)
L'objet principal de cette thèse est de développer des estimateurs adaptatifs en statistique pour données fonctionnelles. Dans une première partie, nous nous intéressons au modèle linéaire fonctionnel et nous définissons un critère de sélection de la dimension pour des estimateurs par projection définis sur des bases fixe ou aléatoire. Les estimateurs obtenus vérifient une inégalité de type oracle et atteignent la vitesse de convergence minimax pour le risque lié à l'erreur de prédiction. Pour les estimateurs définis sur une collection de modèles aléatoires, des outils de théorie de la perturbation ont été utilisés pour contrôler les projecteurs aléatoires de manière non-asymptotique. D'un point de vue numérique, cette méthode de sélection de la dimension est plus rapide et plus stable que les méthodes usuelles de validation croisée. Dans une seconde partie, nous proposons un critère de sélection de fenêtre inspiré des travaux de Goldenshluger et Lepski, pour des estimateurs à noyau de la fonction de répartition conditionnelle lorsque la covariable est fonctionnelle. Le risque de l'estimateur obtenu est majoré de manière non-asymptotique. Des bornes inférieures sont prouvées ce qui nous permet d'établir que notre estimateur atteint la vitesse de convergence minimax, à une perte logarithmique près. Dans une dernière partie, nous proposons une extension au cadre fonctionnel de la méthodologie des surfaces de réponse, très utilisée dans l'industrie. Ce travail est motivé par une application à la sûreté nucléaire. / The main purpose of this thesis is to develop adaptive estimators for functional data.In the first part, we focus on the functional linear model and we propose a dimension selection device for projection estimators defined on both fixed and data-driven bases. The prediction error of the resulting estimators satisfies an oracle-type inequality and reaches the minimax rate of convergence. For the estimator defined on a data-driven approximation space, tools of perturbation theory are used to solve the problems related to the random nature of the collection of models. From a numerical point of view, this method of dimension selection is faster and more stable than the usual methods of cross validation.In a second part, we consider the problem of bandwidth selection for kernel estimators of the conditional cumulative distribution function when the covariate is functional. The method is inspired by the work of Goldenshluger and Lepski. The risk of the estimator is non-asymptotically upper-bounded. We also prove lower-bounds and establish that our estimator reaches the minimax convergence rate, up to an extra logarithmic term.In the last part, we propose an extension to a functional context of the response surface methodology, widely used in the industry. This work is motivated by an application to nuclear safety.
|
33 |
Application de la méthode des éléments finis pour la modélisation de configurations de contrôle non destructif par courants de FoucaultChoua, Yahya 01 October 2009 (has links) (PDF)
Les travaux présentés dans cette thèse traitent de la modélisation par la méthode des éléments finis de configurations de contrôle non destructif par courants de Foucault. Un code de calcul programmé en langage C++, s'appuyant sur la discrétisation en trois dimensions des équations de Maxwell en régime harmonique a été développé. Deux formulations magnétodynamiques duales en potentiels combinés "a − psi" et "t −phi " ont été mises en oeuvre. Des éléments de Whitney étraédriques du premier ordre ont été utilisés. Les potentiels scalaires sont discrétisés aux noeuds des éléments et les potentiels vecteurs à leurs arêtes. Le travail présenté dans ce mémoire aborde un cas précis mais de grande importance parmi les applications du CND par CF. Il s'agit des défauts de faible ouverture (fissures), qui sont fréquemment rencontrés en CND. Leur détection permet de prévenir la destruction des pièces en fonctionnement et d'augmenter la fiabilité des produits industriels. Leur prise en compte par la MEF peut être délicate car leur maillage conduit à une forte densité d'éléments ou à des éléments déformés. C'est dans ce contexte qu'un modèle a été développé pour faciliter la modélisation de ce type de défauts. L'idée consiste à considérer la fissure comme une surface non conductrice imperméable au courant. Pour assurer le bon comportement des différentes grandeurs électromagnétiques, des conditions aux limites appropriées sont appliquées sur la surface de la fissure. Ces conditions sont prises en compte par la formulation électrique a− psi en dédoublant les degrés de liberté (potentiel scalaire électrique) attachés aux noeuds de la surface de la fissure de part et d'autre de celle-ci. Par la formulation magnétique t− phi en annulant la circulation du potentiel vecteur électrique t sur les arêtes appartenant à la surface de celle-ci. La résolution simultanée des deux formulations a−psi et t−phi par la MEF permet de vérifier au sens fort toutes les équations de Maxwell. Les résultats obtenus se complètent et les erreurs numériques dues aux discrétisations se traduisent sous forme d'une non-vérification des lois de comportement. Cela a permis, en utilisant cette propriété de complémentarité de deux formulations, de définir des indicateurs d'erreur afin de développer une procédure d'adaptation automatique de maillage. Plusieurs types d'estimateurs d'erreur ont été définis et étudiés sur différents cas test.
|
34 |
Adaptation de maillage anisotrope 3D multi-échelles et ciblée à une fonctionnelle pour la mécanique des fluides.<br />Application à la prédiction haute-fidélité du bang sonique.Loseille, Adrien 18 December 2008 (has links) (PDF)
En mécanique des fluides (CFD), l'adaptation de maillage anisotrope est reconnue pour sa capacité à réduire le ratio entre le nombre de degrés de liberté et la précision du calcul. Cependant, son application dans le cas d'écoulements compressibles avec des chocs pose les problématiques suivantes : (i) les schémas numériques d'ordre élevé de type shock capturing retombent à l'ordre un dans les chocs, (ii) les senseurs utilisés pour l'adaptation prescrivent dans les chocs des tailles qui tendent vers zéro. Il est donc nécessaire de prescrire une taille minimale. On perd alors tout l'intérêt d'une adaptation anisotrope. On apporte une réponse à ces problématiques en considérant une adaptation anisotrope multi-échelles du maillage basée sur le modèle de maillage continu. On alors montre que le processus adaptatif converge dans les chocs si le schéma numérique utilisé est non compressif. La prescription d'une taille minimale n'est plus nécessaire. On retrouve également un ordre deux de convergence dans tout le domaine, même en présence de chocs. Si on se donne des informations supplémentaires (fonctionnelle précise à observer, équation aux dérivées partielles, schéma numérique utilisé pour la résoudre) les méthodes génériques précédentes ne sont plus op- timales dans la distribution des degrés de liberté. On étudie cette problématique dans le cas particulier des équations d'Euler pour des fonctionnelles scalaires. Ce type d'étude est très bien adapté pour le calcul de grandeurs d'intérêt comme la portance ou la traînée en aérodynamique. On propose une estimation d'erreur a priori pour le contrôle de l'erreur d'approximation sur une fonctionnelle. Cette estimation est ensuite minimisée sur l'espace des maillages continus afin de décrire le maillage anisotrope optimal. Enfin, on applique l'adaptation multi-échelles à la prédiction haute-fidélité du bang sonique.
|
35 |
Methodes de filtrage pour du suivi dans des sequences d'images - Application au suivi de points caracteristiquesArnaud, Elise 24 November 2004 (has links) (PDF)
Cette etude traite de l'utilisation de methodes de filtrage pour du suivi dans des sequences d'images. Ces algorithmes reposent sur une representation du systeme dynamique par une chaine de Markov cachee, decrite par une loi dynamique et une vraisemblance des donnees. Pour construire une methode generale, une loi dynamique estimee sur les images est consideree. Ce choix met en evidence les limitations du modele simple de chaine de Markov cachee, qui ne decrit pas la dependance des elements du systeme aux images.<br />Nous proposons d'abord une modelisation originale du probleme. Celle-ci rend les images explicites et permet de construire des algorithmes sans information a priori. Les filtres associes a cette nouvelle representation sont derives sur la base des filtres classiques, en considerant un conditionnement par rapport a la sequence. Il est egalement presente comment ce nouveau schema permet de considerer des modeles simples, pour lesquels la fonction d'importance optimale est disponible.<br />Ensuite, nous nous interessons a la validation pratique de la modelisation proposee sur une application de suivi de points caracteristiques. Les systemes mis en oeuvre sont entierement estimes sur la sequence. Ils associent des mesures de similarite a une dynamique definie a partir d'un mouvement instantane estime par une methode differentielle robuste. Afin de controler l'importance des differents elements du systeme, les matrices de covariance de bruit des modeles sont estimees. Trois algorithmes de suivi de points sont ainsi construits et valides sur de nombreuses sequences reelles. Enfin, cette approche est etendue au suivi de motifs plans textures. Le modele considere introduit une information geometrique par homographie et amene a un algorithme robuste aux occultations totales.
|
36 |
Estimation adaptative de l'intensité de certains processus ponctuels par sélection de modèle.Reynaud-Bouret, Patricia 27 June 2002 (has links) (PDF)
L'objet de cette thèse est d'adapter des techniques<br />de sélection de modèle au cadre particulier de l'estimation d'intensité de<br />processus ponctuels. Plus précisément, nous voulons montrer que les<br />estimateurs par projection pénalisés de l'intensité sont adaptatifs soit dans<br />une famille d'estimateurs par projection, soit pour le risque minimax. Nous<br />nous sommes restreints à deux cas particuliers : les processus de Poisson<br />inhomogènes et les processus de comptage à intensité<br />multiplicative d'Aalen.<br />Dans les deux cas, nous voulons trouver une inégalité de type<br />oracle, qui garantit que les estimateurs par projection pénalisés ont un risque<br />du même ordre de grandeur que le meilleur estimateur par projection pour une<br />famille de modèles donnés. La clé qui permet de prouver des inégalités de<br />type oracle est le phénomène de concentration de la mesure ou plus précisément<br />la connaissance d'inégalités exponentielles, qui permettent de contrôler en<br />probabilité les déviations de statistiques de type khi-deux au dessus de leur<br />moyenne. Nous avons prouvé deux types d'inégalités de concentration. La<br />première n'est valable que pour les processus de Poisson. Elle est comparable<br />en terme d'ordre de grandeur à l'inégalité de M. Talagrand pour les suprema de<br />processus empiriques. La deuxième est plus grossière mais elle est valable<br />pour des processus de comptage beaucoup plus généraux.<br />Cette dernière inégalité met en oeuvre des techniques de<br />martingales dont nous nous sommes inspirés pour prouver des inégalités de<br />concentration pour des U-statistiques dégénérées d'ordre 2 ainsi que pour des<br />intégrales doubles par rapport à une mesure de Poisson recentrée.<br />Nous calculons aussi certaines bornes inférieures pour les<br />risques minimax et montrons que les estimateurs par projection pénalisés<br />atteignent ces vitesses.
|
37 |
Analyse d'erreur a priori et a posteriori pour des méthodes d'éléments finis mixtes non-conformesEl Alaoui Lakhnati, Linda 01 1900 (has links) (PDF)
Dans cette thèse nous nous intéressons à l'analyse d'erreur a priori et a posteriori de méthodes d'éléments finis mixtes et non-conformes. Nous considérons en particulier les équations de Darcy à perméabilité fortement variable et les équations de convection-diffusion-réaction en régime de convection dominante. Nous discrétisons les équations de Darcy par une méthode d'éléments finis mixtes non-conformes de type Petrov-Galerkin appelée schéma boîte. Les techniques d'estimations d'erreur a posteriori par résidu et hiérarchique conduisent à des estimateurs d'erreur a posteriori fiables et optimaux indépendamment des fluctuations de la perméabilité. Les résultats théoriques sont validés numériquement sur différents cas tests présentant de forts contrastes de perméabilité. Enfin, nous montrons comment les indicateurs d'erreur obtenus permettent de générer des maillages adaptatifs. Nous discrétisons les équations de convection-diffusion-réaction par des éléments finis nonconformes. Deux méthodes de stabilisation sont étudiées: la stabilisation par viscosité de sous-maille, conduisant à un schéma boîte et la méthode de pénalisation sur les faces. Nous montrons que les deux schémas ainsi obtenus ont les mêmes propriétés de convergence que les approximations par éléments finis conformes. Grâce aux techniques d'estimations d'erreur par résidu nous obtenons des estimateurs d'erreur a posteriori fiables et optimaux. Certains des indicateurs d'erreur sont robustes au sens de Verfürth, c'est à dire que le rapport des constantes intervenant dans les inégalités de fiabilité et d'optimalité explose en au plus l'inverse du nombre de Péclet. Les résultats théoriques sont validés numériquement et les indicateurs d'erreur a posteriori obtenus permettent de générer des maillages adaptatifs sur des problèmes présentant des couches intérieures.
|
38 |
Schémas numériques instationnaires pour des écoulements multiphasiques multiconstituants dans des bassins sédimentairesNadau, Lionel 22 September 2003 (has links) (PDF)
Un bassin sédimentaire est un milieu poreux de grande dimension (plusieurs dizaines de kilomètres de long et de large pour une profondeur d'environ cinq kilomètres) qui évolue au cours du temps par les effets de compaction et de sédimentation. Au cours de cette évolution, des hydrocarbures vont se former et s'écouler dans le bassin. On établit alors un modèle permettant de simuler cette évolution de bassin ainsi que la création, la migration et le piégeage des hydrocarbures dans des roches appelées roches magasins. Ces phénomènes se déroulant sur des centaines de millions d'années, on s'est attaché à étudier principalement une discrétisation temporelle de ces équations. On a ainsi mis en avant un raffinement local du pas de temps dont le principe est de recalculer la solution sur une zone jugée "mauvaise". A l'extérieure de cette zone, la solution est admissible. La difficulté vient de la détermination de la zone qui doit - être suffisamment "grande" pour avoir une bonne qualité de la solution, mais suffisamment "petite" pour obtenir un gain calcul. Les estimateurs a posteriori permettent de contourner cette difficulté. On a donc entrepris une étude théorique de ces estimateurs a posteriori dans le cas des équations linéaires elliptique et parabolique. Des simulations numériques montrent l'efficacité de ces estimateurs dans des cas académiques.
|
39 |
Estimateurs d'erreur et ramaillage adaptatif : application à la simulation 3D des procédés de mise en forme des matériauxBoussetta, Ramzy 18 March 2005 (has links) (PDF)
La simulation numérique par la méthode des éléments finis de tout problème physique s'appuie sur le maillage associé à la géométrie du domaine de calcul. Dans le cadre des problèmes de la mise en forme des matériaux, le maillage qui suit les grandes déformations de la pièce dégénère rapidement. La simulation de tels problèmes nécessite donc la génération de manière automatique de nombreux maillages dont la qualité conditionne la précision des calculs. L'objectif de cette étude est le développement d'une procédure d'adaptation de maillage entièrement automatique permettant le contrôle de l'erreur de discrétisation spatiale et le pilotage de l'étape de remaillage au cours des calculs. Une première partie de ce travail est consacrée à l'étude et l'évaluation numérique des estimateurs d'erreur de type Zienkiewicz-Zhu. Initialement développés pour des problèmes 2D d'élasticité, ces estimateurs sont étendus aux problèmes 3D non linéaires avec des matériaux incompressibles. L'objectif de cette première étude est le développement d'un estimateur fiable et efficace pour le contrôle d'erreur dans le cadre des problèmes de la mise en forme des matériaux. Une fois l'erreur estimée, il est possible de contrôler la qualité de la solution en calculant la taille optimale de chaque élément du maillage. Ceci revient à construire un maillage optimal, soit au sens d'une précision imposée ou au sens de la taille maximale du problème étudié. Il s'agit ainsi, dans cette deuxième partie, de développer une stratégie d'adaptation de maillage, pilotée par l'estimation d'erreur, qui soit efficace et robuste pour la simulation numérique des problèmes industriels de la mise en forme.
|
40 |
Méthodologie d'optimisation d'un coeur de réacteur à neutrons rapides, application à l'identification de solutions (combustible, coeur, système) permettant des performances accrues : étude de trois concepts de coeurs refroidis à gaz, à l'aide de l'approche FARMIngremeau, Jean-Jacques 01 December 2011 (has links) (PDF)
Dans l'étude de tout nouveau réacteur nucléaire, la conception de son cœur est une étape décisive. Or il s'agit d'un problème complexe, qui couple fortement la neutronique, la thermomécanique du combustible et la thermo-hydraulique. Actuellement cette conception se fait par longues itérations successives entre les différentes spécialités. Afin d'optimiser de façon plus globale et complète la conception d'un cœur, une nouvelle démarche appelée FARM (FAst Reactor Methodology) a été développée dans le cadre de la thèse. Elle consiste à établir des modèles simplifiés de neutronique, mécanique et thermo-hydraulique, sous forme analytique ou d'interpolation de calculs de codes de référence, puis à les coupler, de manière à pré-dimensionner automatiquement un cœur à partir de variables d'optimisation. Une fois ce modèle établi, on peut explorer et optimiser directement de nombreux cœurs, à partir d'algorithmes génétiques de façon à améliorer leurs performances (inventaire Plutonium en cycle, ...) et leur sûreté (estimateurs de sûreté pour accidents protégés et non-protégés). Une réflexion a également due être menée pour déterminer les performances d'un cœur, ainsi que la façon de prendre en compte la sûreté. Cette nouvelle approche a été utilisée pour optimiser la conception de trois concepts de cœurs de Réacteur à Neutrons Rapides refroidi au Gaz (RNR-G). Tout d'abord, la conception du RNR-G à combustible carbure et à aiguilles en SiC a pu être optimisée. Les résultats ont permis d'une part de démontrer que le cœur de référence issu de la méthode itérative était optimal (c'est-à-dire sur le front de Pareto). D'autre part, l'optimisation a également permis de proposer de nombreux autres cœurs, où en dégradant un estimateur de sûreté ou une performance (sur lesquels des marges étaient disponibles), on améliore les autres performances. Une évolution de ce concept utilisant la nouvelle technologie du buffer, a également été modélisée dans FARM et optimisée. FARM a ainsi permis de proposer les premières images de cœur GFR carbure gainé en SiC utilisant la technologie buffer, et d'estimer leurs performances. Les résultats obtenus montrent que cette innovation permet d'atteindre des cœurs beaucoup plus performants et/ou beaucoup plus " sûrs " (plusieurs profils de cœurs étant proposés). Une troisième application de FARM a été réalisée sur un concept de GFR carbure gainé en Vanadium, où là aussi FARM a proposé les premières images de cœur. Toutefois les grandes incertitudes en jeu ne permettent pas véritablement de conclure sur les performances de ce concept, qui semble prometteur.Ainsi, la faisabilité d'une optimisation globale, couplant les différentes physiques d'un cœur de réacteur nucléaire a été démontrée. Si la méthode ainsi obtenue (FARM) est moins précise que la méthode classique, elle permet d'explorer et d'optimiser beaucoup plus rapidement (en quelques semaines au lieu de quelques mois) un grand nombre de cœurs et est parfaitement adaptée pour l'étape de préconception des cœurs de réacteurs ; d'autres études détaillées permettant ensuite d'affiner l'image de cœur retenue.
|
Page generated in 0.044 seconds