Spelling suggestions: "subject:"[een] ERROR ESTIMATION"" "subject:"[enn] ERROR ESTIMATION""
61 |
A posteriori error estimation for non-linear eigenvalue problems for differential operators of second order with focus on 3D vertex singularitiesPester, Cornelia 07 May 2006 (has links) (PDF)
This thesis is concerned with the finite element
analysis and the a posteriori error estimation for
eigenvalue problems for general operator pencils on
two-dimensional manifolds.
A specific application of the presented theory is the
computation of corner singularities.
Engineers use the knowledge of the so-called singularity
exponents to predict the onset and the propagation of
cracks.
All results of this thesis are explained for two model
problems, the Laplace and the linear elasticity problem,
and verified by numerous numerical results.
|
62 |
Active evaluation of predictive modelsSawade, Christoph January 2012 (has links)
The field of machine learning studies algorithms that infer predictive models from data. Predictive models are applicable for many practical tasks such as spam filtering, face and handwritten digit recognition, and personalized product recommendation. In general, they are used to predict a target label for a given data instance. In order to make an informed decision about the deployment of a predictive model, it is crucial to know the model’s approximate performance. To evaluate performance, a set of labeled test instances is required that is drawn from the distribution the model will be exposed to at application time. In many practical scenarios, unlabeled test instances are readily available, but the process of labeling them can be a time- and cost-intensive task and may involve a human expert.
This thesis addresses the problem of evaluating a given predictive model accurately with minimal labeling effort. We study an active model evaluation process that selects certain instances of the data according to an instrumental sampling distribution and queries their labels. We derive sampling distributions that minimize estimation error with respect to different performance measures such as error rate, mean squared error, and F-measures. An analysis of the distribution that governs the estimator leads to confidence intervals, which indicate how precise the error estimation is. Labeling costs may vary across different instances depending on certain characteristics of the data. For instance, documents differ in their length, comprehensibility, and technical requirements; these attributes affect the time a human labeler needs to judge relevance or to assign topics. To address this, the sampling distribution is extended to incorporate instance-specific costs. We empirically study conditions under which the active evaluation processes are more accurate than a standard estimate that draws equally many instances from the test distribution.
We also address the problem of comparing the risks of two predictive models. The standard approach would be to draw instances according to the test distribution, label the selected instances, and apply statistical tests to identify significant differences. Drawing instances according to an instrumental distribution affects the power of a statistical test. We derive a sampling procedure that maximizes test power when used to select instances, and thereby minimizes the likelihood of choosing the inferior model. Furthermore, we investigate the task of comparing several alternative models; the objective of an evaluation could be to rank the models according to the risk that they incur or to identify the model with lowest risk. An experimental study shows that the active procedure leads to higher test power than the standard test in many application domains.
Finally, we study the problem of evaluating the performance of ranking functions, which are used for example for web search. In practice, ranking performance is estimated by applying a given ranking model to a representative set of test queries and manually assessing the relevance of all retrieved items for each query. We apply the concepts of active evaluation and active comparison to ranking functions and derive optimal sampling distributions for the commonly used performance measures Discounted Cumulative Gain and Expected Reciprocal Rank. Experiments on web search engine data illustrate significant reductions in labeling costs. / Maschinelles Lernen befasst sich mit Algorithmen zur Inferenz von Vorhersagemodelle aus komplexen Daten. Vorhersagemodelle sind Funktionen, die einer Eingabe – wie zum Beispiel dem Text einer E-Mail – ein anwendungsspezifisches Zielattribut – wie „Spam“ oder „Nicht-Spam“ – zuweisen. Sie finden Anwendung beim Filtern von Spam-Nachrichten, bei der Text- und Gesichtserkennung oder auch bei der personalisierten Empfehlung von Produkten. Um ein Modell in der Praxis einzusetzen, ist es notwendig, die Vorhersagequalität bezüglich der zukünftigen Anwendung zu schätzen. Für diese Evaluierung werden Instanzen des Eingaberaums benötigt, für die das zugehörige Zielattribut bekannt ist. Instanzen, wie E-Mails, Bilder oder das protokollierte Nutzerverhalten von Kunden, stehen häufig in großem Umfang zur Verfügung. Die Bestimmung der zugehörigen Zielattribute ist jedoch ein manueller Prozess, der kosten- und zeitaufwendig sein kann und mitunter spezielles Fachwissen erfordert.
Ziel dieser Arbeit ist die genaue Schätzung der Vorhersagequalität eines gegebenen Modells mit einer minimalen Anzahl von Testinstanzen. Wir untersuchen aktive Evaluierungsprozesse, die mit Hilfe einer Wahrscheinlichkeitsverteilung Instanzen auswählen, für die das Zielattribut bestimmt wird. Die Vorhersagequalität kann anhand verschiedener Kriterien, wie der Fehlerrate, des mittleren quadratischen Verlusts oder des F-measures, bemessen werden. Wir leiten die Wahrscheinlichkeitsverteilungen her, die den Schätzfehler bezüglich eines gegebenen Maßes minimieren. Der verbleibende Schätzfehler lässt sich anhand von Konfidenzintervallen quantifizieren, die sich aus der Verteilung des Schätzers ergeben. In vielen Anwendungen bestimmen individuelle Eigenschaften der Instanzen die Kosten, die für die Bestimmung des Zielattributs anfallen. So unterscheiden sich Dokumente beispielsweise in der Textlänge und dem technischen Anspruch. Diese Eigenschaften beeinflussen die Zeit, die benötigt wird, mögliche Zielattribute wie das Thema oder die Relevanz zuzuweisen. Wir leiten unter Beachtung dieser instanzspezifischen Unterschiede die optimale Verteilung her. Die entwickelten Evaluierungsmethoden werden auf verschiedenen Datensätzen untersucht. Wir analysieren in diesem Zusammenhang Bedingungen, unter denen die aktive Evaluierung genauere Schätzungen liefert als der Standardansatz, bei dem Instanzen zufällig aus der Testverteilung gezogen werden.
Eine verwandte Problemstellung ist der Vergleich von zwei Modellen. Um festzustellen, welches Modell in der Praxis eine höhere Vorhersagequalität aufweist, wird eine Menge von Testinstanzen ausgewählt und das zugehörige Zielattribut bestimmt. Ein anschließender statistischer Test erlaubt Aussagen über die Signifikanz der beobachteten Unterschiede. Die Teststärke hängt von der Verteilung ab, nach der die Instanzen ausgewählt wurden. Wir bestimmen die Verteilung, die die Teststärke maximiert und damit die Wahrscheinlichkeit minimiert, sich für das schlechtere Modell zu entscheiden. Des Weiteren geben wir eine Möglichkeit an, den entwickelten Ansatz für den Vergleich von mehreren Modellen zu verwenden. Wir zeigen empirisch, dass die aktive Evaluierungsmethode im Vergleich zur zufälligen Auswahl von Testinstanzen in vielen Anwendungen eine höhere Teststärke aufweist.
Im letzten Teil der Arbeit werden das Konzept der aktiven Evaluierung und das des aktiven Modellvergleichs auf Rankingprobleme angewendet. Wir leiten die optimalen Verteilungen für das Schätzen der Qualitätsmaße Discounted Cumulative Gain und Expected Reciprocal Rank her. Eine empirische Studie zur Evaluierung von Suchmaschinen zeigt, dass die neu entwickelten Verfahren signifikant genauere Schätzungen der Rankingqualität liefern als die untersuchten Referenzverfahren.
|
63 |
Apports du couplage non-intrusif en mécanique non-linéaire des structures / Contributions of non-intrusive coupling in nonlinear structural mechanicsDuval, Mickaël 08 July 2016 (has links)
Le projet ANR ICARE, dans lequel s'inscrit cette thèse, vise au développement de méthodes pour l'analyse de structures complexes et de grande taille. Le défi scientifique consiste à investiguer des zones très localisées, mais potentiellement critiques vis-à-vis de la tenue mécanique d'ensemble. Classiquement, sont mis en œuvre aux échelles globale et locale des représentations, discrétisations, modèles de comportement et outils numériques adaptés à des besoins de simulation gradués en complexité. Le problème global est traité avec un code généraliste dans le cadre d'idéalisations topologiques (formulation plaque, simplification géométrique) et comportementale (homogénéisation) ; l'analyse locale quant à elle demande la mise en œuvre d'outils spécialisés (routines, codes dédiés) pour une représentation fidèle de la géométrie et du comportement.L'objectif de cette thèse consiste à développer un outil efficace de couplage non-intrusif pour la simulation multi-échelles / multi-modèles en calcul de structures. Les contraintes de non-intrusivité se traduisent par la non modification de l'opérateur de rigidité, de la connectivité et du solveur du modèle global, ce qui permet de travailler dans un environnement logiciel fermé. Dans un premier temps, on propose une étude détaillée de l'algorithme de couplage global/local non-intrusif. Sur la base d'exemples et de cas-test représentatifs en calcul de structures (fissuration, plasticité, contact...), on démontre l'efficacité et la flexibilité d'un tel couplage. Aussi, une analyse comparative de plusieurs outils d'optimisation de l'algorithme est menée, et le cas de patchs multiples en interaction est traité. Ensuite le concept de couplage non-intrusif est étendu au cas de non-linéarités globales, et une méthode de calcul parallèle par décomposition de domaine avec relocalisation non-linéaire est développée. Cette méthode nous a permis de paralléliser un code industriel séquentiel sur un mésocentre de calcul intensif. Enfin, on applique la méthode de couplage au raffinement de maillage par patchs d'éléments finis. On propose un estimateur d'erreur en résidu explicite adapté au calcul de solutions multi-échelles via l'algorithme de couplage. Puis, sur la base de cet estimateur, on met en œuvre une procédure non-intrusive de raffinement local de maillage. Au travers de ces travaux, un outil logiciel de couplage non-intrusif a été mis au point, basé sur l'échange de données entre différents codes de calcul (protocole Message Passing Interface). Les développements effectués sont intégrés dans une surcouche Python, dont le rôle est de coupler plusieurs instances de Code_Aster, le code d'analyse de structures développé par EDF R&D, lequel sera utilisé dans l'ensemble des travaux présentés. / This PhD thesis, part of the ANR ICARE project, aims at developing methods for complex analysis of large scale structures. The scientific challenge is to investigate very localised areas, but potentially critical as of mechanical systems resilience. Classically, representation models, discretizations, mechanical behaviour models and numerical tools are used at both global and local scales for simulation needs of graduated complexity. Global problem is handled by a generic code with topology (plate formulation, geometric approximation...) and behaviour (homogenization) simplifications while local analysis needs implementation of specialized tools (routines, dedicated codes) for an accurate representation of the geometry and behaviour. The main goal of this thesis is to develop an efficient non-intrusive coupling tool for multi-scale and multi-model structural analysis. Constraints of non-intrusiveness result in the non-modification of the stiffness operator, connectivity and the global model solver, allowing to work in a closed source software environment. First, we provide a detailed study of global/local non-intrusive coupling algorithm. Making use of several relevant examples (cracking, elastic-plastic behaviour, contact...), we show the efficiency and the flexibility of such coupling method. A comparative analysis of several optimisation tools is also carried on, and the interacting multiple patchs situation is handled. Then, non-intrusive coupling is extended to globally non-linear cases, and a domain decomposition method with non-linear relocalization is proposed. Such methods allowed us to run a parallel computation using only sequential software, on a high performance computing cluster. Finally, we apply the coupling algorithm to mesh refinement with patches of finite elements. We develop an explicit residual based error estimator suitable for multi-scale solutions arising from the non-intrusive coupling, and apply it inside an error driven local mesh refinement procedure. Through this work, a software tool for non-intrusive coupling was developed, based on data exchange between codes (Message Passing Interface protocol). Developments are integrated into a Python wrapper, whose role is to connect several instances of Code_Aster, the structural analysis code developed by EDF R&D, which will be used in the following work.
|
64 |
A posteriori error estimations for the generalized finite element method and modified versions / Estimativas de erro a-posteriori para o método dos elementos finitos generalizados e versões modificadasRafael Marques Lins 07 August 2015 (has links)
This thesis investigates two a posteriori error estimators, based on gradient recovery, aiming to fill the gap of the error estimations for the Generalized FEM (GFEM) and, mainly, its modified versions called Corrected XFEM (C-XFEM) and Stable GFEM (SGFEM). In order to reach this purpose, firstly, brief reviews regarding the GFEM and its modified versions are presented, where the main advantages attributed to each numerical method are highlighted. Then, some important concepts related to the error study are presented. Furthermore, some contributions involving a posteriori error estimations for the GFEM are shortly described. Afterwards, the two error estimators hereby proposed are addressed focusing on linear elastic fracture mechanics problems. The first estimator was originally proposed for the C-XFEM and is hereby extended to the SGFEM framework. The second one is based on a splitting of the recovered stress field into two distinct parts: singular and smooth. The singular part is computed with the help of the J integral, whereas the smooth one is calculated from a combination between the Superconvergent Patch Recovery (SPR) and Singular Value Decomposition (SVD) techniques. Finally, various numerical examples are selected to assess the robustness of the error estimators considering different enrichment types, versions of the GFEM, solicitant modes and element types. Relevant aspects such as effectivity indexes, error distribution and convergence rates are used for describing the error estimators. The main contributions of this thesis are: the development of two efficient a posteriori error estimators for the GFEM and its modified versions; a comparison between the GFEM and its modified versions; the identification of the positive features of each error estimator and a detailed study concerning the blending element issues. / Esta tese investiga dois estimadores de erro a posteriori, baseados na recuperação do gradiente, visando preencher o hiato das estimativas de erro para o Generalized FEM (GFEM) e, sobretudo, suas versões modificadas denominadas Corrected XFEM (C-XFEM) e Stable GFEM (SGFEM). De modo a alcançar este objetivo, primeiramente, breves revisões a respeito do GFEM e suas versões modificadas são apresentadas, onde as principais vantagens atribuídas a cada método são destacadas. Em seguida, alguns importantes conceitos relacionados ao estudo do erro são apresentados. Além disso, algumas contribuições envolvendo estimativas de erro a posteriori para o GFEM são brevemente descritas. Posteriormente, os dois estimadores de erro propostos neste trabalho são abordados focando em problemas da mecânica da fratura elástico linear. O primeiro estimador foi originalmente proposto para o C-XFEM e por este meio é estendido para o âmbito do SGFEM. O segundo é baseado em uma divisão do campo de tensões recuperadas em duas partes distintas: singular e suave. A parte singular é calculada com o auxílio da integral J, enquanto que a suave é calculada a partir da combinação entre as técnicas Superconvergent Patch Recovery (SPR) e Singular Value Decomposition (SVD). Finalmente, vários exemplos numéricos são selecionados para avaliar a robustez dos estimadores de erro considerando diferentes tipos de enriquecimento, versões do GFEM, modos solicitantes e tipos de elemento. Aspectos relevantes tais como índices de efetividade, distribuição do erro e taxas de convergência são usados para descrever os estimadores de erro. As principais contribuições desta tese são: o desenvolvimento de dois eficientes estimadores de erro a posteriori para o GFEM e suas versões modificadas; uma comparação entre o GFEM e suas versões modificadas; a identificação das características positivas de cada estimador de erro e um estudo detalhado sobre a questão dos elementos de mistura.
|
65 |
Runge-Kuttovy metody / Runge-Kutta methodsKroulíková, Tereza January 2018 (has links)
Tato práce se zabývá Runge--Kuttovými metodami pro počáteční problém. Práce začíná analýzou Eulerovy metody a odvozením podmínek řádu. Jsou představeny modifikované metody. Pro dvě z nich je určen jejich řád teoreticky a pro všechny je provedeno numerické testování řádu. Jsou představeny a numericky testovány dva typy metod s odhadem chyby, "embedded" metody a metody založené na modifikovaných metodách. V druhé části jsou odvozeny implicitní metody. Jsou představeny dva způsoby konstrukce implicitních "embedded" metod. Jsou zmíněny také diagonální implicitní metody. Na závěr jsou probrány dva druhy stability u metod prezentovaných v práci.
|
66 |
Couplage AIG/MEG pour l'analyse de détails structuraux par une approche non intrusive et certifiée / IGA/FEM coupling for the analysis of structural details by a non-intrusive and certified approachTirvaudey, Marie 27 September 2019 (has links)
Dans le contexte industriel actuel, où la simulation numérique joue un rôle majeur, de nombreux outils sont développés afin de rendre les calculs les plus performants et exacts possibles en utilisant les ressources numériques de façon optimale. Parmi ces outils, ceux non-intrusifs, c’est-à-dire ne modifiant pas les codes commerciaux disponibles mais permettant d’utiliser des méthodes de résolution avancées telles que l’analyse isogéométrique ou les couplages multi-échelles, apparaissent parmi les plus attirants pour les industriels. L’objectif de cette thèse est ainsi de coupler l’Analyse IsoGéométrique (AIG) et la Méthode des Éléments Finis (MEF) standard pour l’analyse de détails structuraux par une approche non-intrusive et certifiée. Dans un premier temps, on développe un lien global approché entre les fonctions de Lagrange, classiquement utilisées en éléments finis et les fonctions NURBS bases de l’AIG, ce qui permet d’implémenter des analyses isogéométriques dans un code industriel EF vu comme une boîte noire. Au travers d’exemples linéaires et non-linéaires implémentés dans le code industriel Code_Aster de EDF, nous démontrons l’efficacité de ce pont AIG\MEF et les possibilités d’applications industrielles. Il est aussi démontré que ce lien permet de simplifier l’implémentation du couplage non-intrusif entre un problème global isogéométrique et un problème local éléments finis. Ensuite, le concept de couplage non-intrusif entre les méthodes étant ainsi possible, une stratégie d’adaptation est mise en place afin de certifier ce couplage vis-à-vis d’une quantité d’intérêt. Cette stratégie d’adaptation est basée sur des méthodes d’estimation d’erreur a posteriori. Un estimateur global et des indicateurs d’erreur d’itération, de modèle et de discrétisation permettent de piloter la définition du problème couplé. La méthode des résidus est utilisée pour évaluer ces erreurs dans des cas linéaires, et une extension aux problèmes non-linéaires via le concept d’Erreur en Relation de Comportement (ERC) est proposée. / In the current industrial context where the numerical simulation plays a major role, a large amount of tools are developed in order to perform accurate and effective simulations using as less numerical resources as possible. Among all these tools, the non-intrusive ones which do not modify the existing structure of commercial softwares but allowing the use of advanced solving methods, such as isogeometric analysis or multi-scale coupling, are the more attractive to the industry. The goal of these thesis works is thus the coupling of the Isogeometric Analysis (IGA) with the Finite Element Method (FEM) to analyse structural details with a non-intrusive and certified approach. First, we develop an approximate global link between the Lagrange functions, commonly used in the FEM, and the NURBS functions on which the IGA is based. It’s allowed the implementation of isogeometric analysis in an existing finite element industrial software considering as a black-box. Through linear and nonlinear examples implemented in the industrial software Code_Aster of EDF, we show the efficiency of the IGA\FEM bridge and all the industrial applications that can be made. This link is also a key to simplify the non-intrusive coupling between a global isogeometric problem and a local finite element problem. Then, as the non-intrusive coupling between both methods is possible, an adaptive process is introduced in order to certify this coupling regarding a quantity of interest. This adaptive strategy is based on a posteriori error estimation. A global estimator and indicators of iteration, model and discretization error sources are computed to control the definition of the coupled problem. Residual base methods are performed to estimated errors for linear cases, an extension to the concept of constitutive relation errors is also initiated for non-linear problems.
|
67 |
Contrôle d’erreur pour et par les modèles réduits PGD / Error control for and with PGD reduced modelsAllier, Pierre-Eric 21 November 2017 (has links)
De nombreux problèmes de mécanique des structures nécessitent la résolution de plusieurs problèmes numériques semblables. Une approche itérative de type réduction de modèle, la Proper Generalized Decomposition (PGD), permet de déterminer l’ensemble des solutions en une fois, par l’introduction de paramètres supplémentaires. Cependant, un frein majeur à son utilisation dans le monde industriel est l’absence d’estimateur d’erreur robuste permettant de mesurer la qualité des solutions obtenues. L’approche retenue s’appuie sur le concept d’erreur en relation de comportement. Cette méthode consiste à construire des champs admissibles, assurant ainsi l’aspect conservatif et garanti de l’estimation de l’erreur en réutilisant le maximum d’outils employés dans le cadre éléments finis. La possibilité de quantifier l’importance des différentes sources d’erreur (réduction et discrétisation) permet de plus de piloter les principales stratégies de résolution PGD. Deux stratégies ont été proposées dans ces travaux. La première s’est principalement limitée à post-traiter une solution PGD pour construire une estimation de l’erreur commise, de façon non intrusive pour les codes PGD existants. La seconde consiste en une nouvelle stratégie PGD fournissant une approximation améliorée couplée à une estimation de l’erreur commise. Les diverses études comparatives sont menées dans le cadre des problèmes linéaires thermiques et en élasticité. Ces travaux ont également permis d’optimiser les méthodes de construction de champs admissibles en substituant la résolution de nombreux problèmes semblables par une solution PGD, exploitée comme un abaque. / Many structural mechanics problems require the resolution of several similar numerical problems. An iterative model reduction approach, the Proper Generalized Decomposition (PGD), enables the control of the main solutions at once, by the introduction of additional parameters. However, a major drawback to its use in the industrial world is the absence of a robust error estimator to measure the quality of the solutions obtained.The approach used is based on the concept of constitutive relation error. This method consists in constructing admissible fields, thus ensuring the conservative and guaranteed aspect of the estimation of the error by reusing the maximum number of tools used in the finite elements framework. The ability to quantify the importance of the different sources of error (reduction and discretization) allows to control the main strategies of PGD resolution.Two strategies have been proposed in this work. The first was limited to post-processing a PGD solution to construct an estimate of the error committed, in a non-intrusively way for existing PGD codes. The second consists of a new PGD strategy providing an improved approximation associated with an estimate of the error committed. The various comparative studies are carried out in the context of linear thermal and elasticity problems.This work also allowed us to optimize the admissible fields construction methods by substituting the resolution of many similar problems by a PGD solution, exploited as a virtual chart.
|
68 |
A Discontinuous Galerkin - Front Tracking Scheme and its Optimal -Optimal Error EstimationFode, Adamou M. 11 June 2014 (has links)
No description available.
|
69 |
Finite element methods for threads and plates with real-time applicationsLarsson, Karl January 2010 (has links)
Thin and slender structures are widely occurring both in nature and in human creations. Clever geometries of thin structures can produce strong constructions while using a minimal amount of material. Computer modeling and analysis of thin and slender structures has its own set of problems stemming from assumptions made when deriving the equations modeling their behavior from the theory of continuum mechanics. In this thesis we consider two kinds of thin elastic structures; threads and plates. Real-time simulation of threads are of interest in various types of virtual simulations such as surgery simulation for instance. In the first paper of this thesis we develop a thread model for use in interactive applications. By viewing the thread as a continuum rather than a truly one dimensional object existing in three dimensional space we derive a thread model that naturally handles both bending, torsion and inertial effects. We apply a corotational framework to simulate large deformation in real-time. On the fly adaptive resolution is used to minimize corotational artifacts. Plates are flat elastic structures only allowing deflection in the normal direction. In the second paper in this thesis we propose a family of finite elements for approximating solutions to the Kirchhoff-Love plate equation using a continuous piecewise linear deflection field. We reconstruct a discontinuous piecewise quadratic deflection field which is applied in a discontinuous Galerkin method. Given a criterion on the reconstruction operator we prove a priori estimates in energy and L2 norms. Numerical results for the method using three possible reconstructions are presented.
|
70 |
Vers une stratégie robuste et efficace pour le contrôle des calculs par éléments finis en ingénierie mécanique / Towards a robust and effective strategy for the control of finite element computations in mechanical engineeringPled, Florent 13 December 2012 (has links)
Ce travail de recherche vise à contribuer au développement de nouveaux outils d'estimation d'erreur globale et locale en ingénierie mécanique. Les estimateurs d'erreur globale étudiés reposent sur le concept d'erreur en relation de comportement à travers des techniques spécifiques de construction de champs admissibles, assurant l'aspect conservatif ou garanti de l'estimation. Une nouvelle méthode de construction de champs admissibles est mise en place et comparée à deux autres méthodes concurrentes, en matière de précision, coût de calcul et facilité d'implémentation dans les codes éléments finis. Une amélioration de cette nouvelle méthode hybride fondée sur une minimisation locale de l'énergie complémentaire est également proposée. Celle-ci conduit à l'introduction et à l'élaboration de critères géométriques et énergétiques judicieux, permettant un choix approprié des régions à sélectionner pour améliorer localement la qualité des champs admissibles. Dans le cadre des estimateurs d'erreur locale basés sur l'utilisation conjointe des outils d'extraction et des estimateurs d'erreur globale, deux nouvelles techniques d'encadrement de l'erreur en quantité d'intérêt sont proposées. Celles-ci sont basées sur le principe de Saint-Venant à travers l'emploi de propriétés spécifiques d'homothétie, afin d'améliorer la précision des bornes d'erreur locale obtenues à partir de la technique d'encadrement classique fondée sur l'inégalité de Cauchy-Schwarz. Les diverses études comparatives sont menées dans le cadre des problèmes d'élasticité linéaire en quasi-statique. Le comportement des différents estimateurs d'erreur est illustré et discuté sur des exemples numériques tirés d'applications industrielles. Les travaux réalisés constituent des éléments de réponse à la problématique de la vérification dans un contexte industriel. / This research work aims at contributing to the development of innovative global and goal-oriented error estimation tools applied to Computational Mechanics. The global error estimators considered rely on the concept of constitutive relation error through specific techniques for constructing admissible fields ensuring the recovery of strict and high-quality error estimates. A new hybrid method for constructing admissible stress fields is set up and compared to two other techniques with respect to three different criteria, namely the quality of associated error estimators, the computational cost and the simplicity of practical implementation into finite element codes. An enhanced version of this new technique based on local minimization of the complementary energy is also proposed. Judicious geometric and energetic criteria are introduced to select the relevant zones for optimizing the quality of the admissible fields locally. In the context of goal-oriented error estimation based on the use of both extraction techniques and global error estimators, two new improved bounding techniques are proposed. They lean on Saint-Venant's principle through specific homotheticity properties in order to obtain guaranteed and relevant bounds of better quality than with the classical bounding technique based on the Cauchy-Schwarz inequality. The various comparative studies are conducted on linear elasticity problems under quasi-static loading conditions. The behaviour of the different error estimators is illustrated and discussed through several numerical experiments carried out on industrial cases. The associated results may open up opportunities and help broaden the field of model verification for both academic research and industrial applications.
|
Page generated in 0.0578 seconds