• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 80
  • 61
  • 12
  • 9
  • 4
  • 4
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 202
  • 73
  • 60
  • 46
  • 32
  • 32
  • 31
  • 29
  • 27
  • 26
  • 26
  • 25
  • 24
  • 24
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

On the quasi-optimal convergence of adaptive nonconforming finite element methods in three examples

Rabus, Hella 23 May 2014 (has links)
Eine Vielzahl von Anwendungen in der numerischen Simulation der Strömungsdynamik und der Festkörpermechanik begründen die Entwicklung von zuverlässigen und effizienten Algorithmen für nicht-standard Methoden der Finite-Elemente-Methode (FEM). Um Freiheitsgrade zu sparen, wird in jedem Durchlauf des adaptiven Algorithmus lediglich ein Teil der Gebiete verfeinert. Einige Gebiete bleiben daher möglicherweise verhältnismäßig grob. Die Analyse der Konvergenz und vor allem die der Optimalität benötigt daher über die a priori Fehleranalyse hinausgehende Argumente. Etablierte adaptive Algorithmen beruhen auf collective marking, d.h. die zu verfeinernden Gebiete werden auf Basis eines Gesamtfehlerschätzers markiert. Bei adaptiven Algorithmen mit separate marking wird der Gesamtfehlerschätzer in einen Volumenterm und in einen Fehlerschätzerterm aufgespalten. Da der Volumenterm unabhängig von der diskreten Lösung ist, kann einer schlechten Datenapproximation durch eine lokal tiefe Verfeinerung begegnet werden. Bei hinreichender Datenapproximation wird das Gitter dagegen bezüglich des neuen Fehlerschätzerterms wie üblich level-orientiert verfeinert. Die numerischen Experimente dieser Arbeit liefern deutliche Indizien der quasi-optimalen Konvergenz für den in dieser Arbeit untersuchten adaptiven Algorithmus, der auf separate marking beruht. Der Parameter, der die Verbesserung der Datenapproximation sicherstellt, ist frei wählbar. Dadurch ist es erstmals möglich, eine ausreichende und gleichzeitig optimale Approximation der Daten innerhalb weniger Durchläufe zu erzwingen. Diese Arbeit ermöglicht es, Standardargumente auch für die Konvergenzanalyse von Algorithmen mit separate marking zu verwenden. Dadurch gelingt es Quasi-Optimalität des vorgestellten Algorithmus gemäß einer generellen Vorgehensweise für die drei Beispiele, dem Poisson Modellproblem, dem reinen Verschiebungsproblem der linearen Elastizität und dem Stokes Problem, zu zeigen. / Various applications in computational fluid dynamics and solid mechanics motivate the development of reliable and efficient adaptive algorithms for nonstandard finite element methods (FEMs). To reduce the number of degrees of freedom, in adaptive algorithms only a selection of finite element domains is marked for refinement on each level. Since some element domains may stay relatively coarse, even the analysis of convergence and more importantly the analysis of optimality require new arguments beyond an a priori error analysis. In adaptive algorithms, based on collective marking, a (total) error estimator is used as refinement indicator. For separate marking strategies, the (total) error estimator is split into a volume term and an error estimator term, which estimates the error. Since the volume term is independent of the discrete solution, if there is a poor data approximation the improvement may be realised by a possibly high degree of local mesh refinement. Otherwise, a standard level-oriented mesh refinement based on an error estimator term is performed. This observation results in a natural adaptive algorithm based on separate marking, which is analysed in this thesis. The results of the numerical experiments displayed in this thesis provide strong evidence for the quasi-optimality of the presented adaptive algorithm based on separate marking and for all three model problems. Furthermore its flexibility (in particular the free steering parameter for data approximation) allows a sufficient and optimal data approximation in just a few number of levels of the adaptive scheme. This thesis adapts standard arguments for optimal convergence to adaptive algorithms based on separate marking with a possibly high degree of local mesh refinement, and proves quasi-optimality following a general methodology for three model problems, i.e., the Poisson model problem, the pure displacement problem in linear elasticity and the Stokes equations.
162

L'application dans le temps des décisions QPC / Temporal application of QPC decisions of the french Conseil constitutionnel

Benigni, Marina 12 November 2018 (has links)
La question prioritaire de constitutionnalité (QPC), instaurée en 2008, permet au Conseil constitutionnel de se prononcer sur la conformité d’une disposition législative déjà entrée en vigueur, aux « droits et libertés que la Constitution garantit ». Les effets substantiels des décisions QPC, c'est-à-dire la suppression ou la modification d’une disposition législative par le prononcé d’une inconstitutionnalité ou d’une réserve d’interprétation, peuvent se révéler importants compte tenu de la portée erga omnes de ces décisions. C’est alors par la maîtrise de leur application temporelle que les effets substantiels vont être encadrés voire modérés. Certains effets temporels revêtent un caractère automatique : la décision QPC en tant qu’elle porte sur une norme (la disposition législative en cause), s’insère dans l’ordonnancement juridique et, à ce titre, génère des conflits de normes. Par ailleurs, les effets temporels peuvent également, et surtout, être choisis par le Conseil constitutionnel, par l’utilisation de son pouvoir de modulation. Ce pouvoir a été conçu de manière à laisser une grande liberté au Conseil constitutionnel. Dans une démarche d’efficacité, le juge constitutionnel s’est fixé l’objectif de faire bénéficier le justiciable d’un« effet utile » de ses décisions et a par conséquent valorisé l’usage de la rétroactivité. Cependant, la liberté seule n’assure pas une pleine maîtrise de ce pouvoir de modulation et ce même pouvoir est parfois insuffisant pour régir les effets substantiels des décisions QPC. La thèse contribue, sur la base d’une analyse exhaustive de l’ensemble des décisions QPC du Conseil et de trèsnombreuses décisions dites « retour de QPC » des juridictions ordinaires, à étudier ces insuffisances et notamment le manque de réflexion sur la compatibilité entre la technique de la modulation et l’office du juge constitutionnel et sur la nécessité d’une collaboration avec les juridictions ordinaires. / The priority question of constitutionality (QPC), created in 2008, allows the french Constitutional Council to operate a judicial review of an adopted law. The substantial effects of a QPC decision, ie the abolition or the modification of a legislation by pronouncing its unconstitutionality or by interpreting it in accordance with the Constitution, can be considerable given the erga omnes impact of these decisions. These substantial effects can however be controlled or moderated by the temporal effects. Some temporal effects are inevitable: the QPCdecision since it concerns a norm (the law), integrates with the legal order and generates norms’ conflicts. Otherwise the temporal effects can be chosen by the Constitutional Council thanks to the ability of modulating the temporal effects of its decisions. This jurisdictional technical lets total liberty to the Constitutional Council. The court, in an efficacy perspective, sets the objectiveof giving a « useful effect » to the litigant and thus accords value to retroactivity. Yet this liberty alone isn’t enough to provide a complete control of this modulating ability and this ability can’t regulate all the substantial effects. This thesis, based on an exhaustive jurisprudential analysis ofthe QPC decisions, aims to study these difficulties and especially the lack of reflection about the compatibility of the technical into the judicial office of the court and about the essential collaboration with the ordinary jurisdictions.
163

Aspects of guaranteed error control in computations for partial differential equations

Merdon, Christian 17 September 2013 (has links)
Diese Arbeit behandelt garantierte Fehlerkontrolle für elliptische partielle Differentialgleichungen anhand des Poisson-Modellproblems, des Stokes-Problems und des Hindernisproblems. Hierzu werden garantierte obere Schranken für den Energiefehler zwischen exakter Lösung und diskreten Finite-Elemente-Approximationen erster Ordnung entwickelt. Ein verallgemeinerter Ansatz drückt den Energiefehler durch Dualnormen eines oder mehrerer Residuen aus. Hinzu kommen berechenbare Zusatzterme, wie Oszillationen der gegebenen Daten, mit expliziten Konstanten. Für die Abschätzung der Dualnormen der Residuen existieren viele verschiedene Techniken. Diese Arbeit beschäftigt sich vorrangig mit Equilibrierungsschätzern, basierend auf Raviart-Thomas-Elementen, welche effiziente garantierte obere Schranken ermöglichen. Diese Schätzer werden mit einem Postprocessing-Verfahren kombiniert, das deren Effizienz mit geringem zusätzlichen Rechenaufwand deutlich verbessert. Nichtkonforme Finite-Elemente-Methoden erzeugen zusätzlich ein Inkonsistenzresiduum, dessen Dualnorm mit Hilfe diverser konformer Approximationen abgeschätzt wird. Ein Nebenaspekt der Arbeit betrifft den expliziten residuen-basierten Fehlerschätzer, der für gewöhnlich optimale und leicht zu berechnende Verfeinerungsindikatoren für das adaptive Netzdesign liefert, aber nur schlechte garantierte obere Schranken. Eine neue Variante, die auf den equilibrierten Flüssen des Luce-Wohlmuth-Fehlerschätzers basiert, führt zu stark verbesserten Zuverlässigkeitskonstanten. Eine Vielzahl numerischer Experimente vergleicht alle implementierten Fehlerschätzer und zeigt, dass effiziente und garantierte Fehlerkontrolle in allen vorliegenden Modellproblemen möglich ist. Insbesondere zeigt ein Modellproblem, wie die Fehlerschätzer erweitert werden können, um auch auf Gebieten mit gekrümmten Rändern garantierte obere Schranken zu liefern. / This thesis studies guaranteed error control for elliptic partial differential equations on the basis of the Poisson model problem, the Stokes equations and the obstacle problem. The error control derives guaranteed upper bounds for the energy error between the exact solution and different finite element discretisations, namely conforming and nonconforming first-order approximations. The unified approach expresses the energy error by dual norms of one or more residuals plus computable extra terms, such as oscillations of the given data, with explicit constants. There exist various techniques for the estimation of the dual norms of such residuals. This thesis focuses on equilibration error estimators based on Raviart-Thomas finite elements, which permit efficient guaranteed upper bounds. The proposed postprocessing in this thesis considerably increases their efficiency at almost no additional computational costs. Nonconforming finite element methods also give rise to a nonconsistency residual that permits alternative treatment by conforming interpolations. A side aspect concerns the explicit residual-based error estimator that usually yields cheap and optimal refinement indicators for adaptive mesh refinement but not very sharp guaranteed upper bounds. A novel variant of the residual-based error estimator, based on the Luce-Wohlmuth equilibration design, leads to highly improved reliability constants. A large number of numerical experiments compares all implemented error estimators and provides evidence that efficient and guaranteed error control in the energy norm is indeed possible in all model problems under consideration. Particularly, one model problem demonstrates how to extend the error estimators for guaranteed error control on domains with curved boundary.
164

Approche stochastique de l'analyse du « residual moveout » pour la quantification de l'incertitude dans l'imagerie sismique / A stochastic approach to uncertainty quantification in residual moveout analysis

Tamatoro, Johng-Ay 09 April 2014 (has links)
Le principale objectif de l'imagerie sismique pétrolière telle qu'elle est réalisée de nos jours est de fournir une image représentative des quelques premiers kilomètres du sous-sol. Cette image permettra la localisation des structures géologiques formant les réservoirs où sont piégées les ressources en hydrocarbures. Pour pouvoir caractériser ces réservoirs et permettre la production des hydrocarbures, le géophysicien utilise la migration-profondeur qui est un outil d'imagerie sismique qui sert à convertir des données-temps enregistrées lors des campagnes d'acquisition sismique en des images-profondeur qui seront exploitées par l'ingénieur-réservoir avec l'aide de l'interprète sismique et du géologue. Lors de la migration profondeur, les évènements sismiques (réflecteurs,…) sont replacés à leurs positions spatiales correctes. Une migration-profondeur pertinente requiert une évaluation précise modèle de vitesse. La précision du modèle de vitesse utilisé pour une migration est jugée au travers l'alignement horizontal des évènements présents sur les Common Image Gather (CIG). Les évènements non horizontaux (Residual Move Out) présents sur les CIG sont dus au ratio du modèle de vitesse de migration par la vitesse effective du milieu. L'analyse du Residual Move Out (RMO) a pour but d'évaluer ce ratio pour juger de la pertinence du modèle de vitesse et permettre sa mise à jour. Les CIG qui servent de données pour l'analyse du RMO sont solutions de problèmes inverses mal posés, et sont corrompues par du bruit. Une analyse de l'incertitude s'avère nécessaire pour améliorer l'évaluation des résultats obtenus. Le manque d'outils d'analyse de l'incertitude dans l'analyse du RMO en fait sa faiblesse. L'analyse et la quantification de l'incertitude pourrait aider à la prise de décisions qui auront des impacts socio-économiques importantes. Ce travail de thèse a pour but de contribuer à l'analyse et à la quantification de l'incertitude dans l'analyse des paramètres calculés pendant le traitement des données sismiques et particulièrement dans l'analyse du RMO. Pour atteindre ces objectifs plusieurs étapes ont été nécessaires. Elles sont entre autres :- L’appropriation des différents concepts géophysiques nécessaires à la compréhension du problème (organisation des données de sismique réflexion, outils mathématiques et méthodologiques utilisés);- Présentations des méthodes et outils pour l'analyse classique du RMO;- Interprétation statistique de l’analyse classique;- Proposition d’une approche stochastique;Cette approche stochastique consiste en un modèle statistique hiérarchique dont les paramètres sont :- la variance traduisant le niveau de bruit dans les données estimée par une méthode basée sur les ondelettes, - une fonction qui traduit la cohérence des amplitudes le long des évènements estimée par des méthodes de lissages de données,- le ratio qui est considéré comme une variable aléatoire et non comme un paramètre fixe inconnue comme c'est le cas dans l'approche classique de l'analyse du RMO. Il est estimé par des méthodes de simulations de Monte Carlo par Chaîne de Markov.L'approche proposée dans cette thèse permet d'obtenir autant de cartes de valeurs du paramètre qu'on le désire par le biais des quantiles. La méthodologie proposée est validée par l'application à des données synthétiques et à des données réelles. Une étude de sensibilité de l'estimation du paramètre a été réalisée. L'utilisation de l'incertitude de ce paramètre pour quantifier l'incertitude des positions spatiales des réflecteurs est présentée dans ce travail de thèse. / The main goal of the seismic imaging for oil exploration and production as it is done nowadays is to provide an image of the first kilometers of the subsurface to allow the localization and an accurate estimation of hydrocarbon resources. The reservoirs where these hydrocarbons are trapped are structures which have a more or less complex geology. To characterize these reservoirs and allow the production of hydrocarbons, the geophysicist uses the depth migration which is a seismic imaging tool which serves to convert time data recorded during seismic surveys into depth images which will be exploited by the reservoir engineer with the help of the seismic interpreter and the geologist. During the depth migration, seismic events (reflectors, diffractions, faults …) are moved to their correct locations in space. Relevant depth migration requires an accurate knowledge of vertical and horizontal seismic velocity variations (velocity model). Usually the so-called Common-Image-Gathers (CIGs) serve as a tool to verify correctness of the velocity model. Often the CIGs are computed in the surface offset (distance between shot point and receiver) domain and their flatness serve as criteria of the velocity model correctness. Residual moveout (RMO) of the events on CIGs due to the ratio of migration velocity model and effective velocity model indicates incorrectness of the velocity model and is used for the velocity model updating. The post-stacked images forming the CIGs which are used as data for the RMO analysis are the results of an inverse problem and are corrupt by noises. An uncertainty analysis is necessary to improve evaluation of the results. Dealing with the uncertainty is a major issue, which supposes to help in decisions that have important social and commercial implications. The goal of this thesis is to contribute to the uncertainty analysis and its quantification in the analysis of various parameters computed during the seismic processing and particularly in RMO analysis. To reach these goals several stages were necessary. We began by appropriating the various geophysical concepts necessary for the understanding of:- the organization of the seismic data ;- the various processing ;- the various mathematical and methodological tools which are used (chapters 2 and 3). In the chapter 4, we present different tools used for the conventional RMO analysis. In the fifth one, we give a statistical interpretation of the conventional RMO analysis and we propose a stochastic approach of this analysis. This approach consists in hierarchical statistical model where the parameters are: - the variance which express the noise level in the data ;- a functional parameter which express coherency of the amplitudes along events ; - the ratio which is assume to be a random variable and not an unknown fixed parameter as it is the case in conventional approach. The adjustment of data to the model done by using smoothing methods of data, combined with the using of the wavelets for the estimation of allow to compute the posterior distribution of given the data by the empirical Bayes methods. An estimation of the parameter is obtained by using Markov Chain Monte Carlo simulations of its posterior distribution. The various quantiles of these simulations provide different estimations of . The proposed methodology is validated in the sixth chapter by its application on synthetic data and real data. A sensitivity analysis of the estimation of the parameter was done. The using of the uncertainty of this parameter to quantify the uncertainty of the spatial positions of reflectors is presented in this thesis.
165

Certified numerics in function spaces : polynomial approximations meet computer algebra and formal proof / Calcul numérique certifié dans les espaces fonctionnels : Un trilogue entre approximations polynomiales rigoureuses, calcul symbolique et preuve formelle

Bréhard, Florent 12 July 2019 (has links)
Le calcul rigoureux vise à produire des représentations certifiées pour les solutions de nombreux problèmes, notamment en analyse fonctionnelle, comme des équations différentielles ou des problèmes de contrôle optimal. En effet, certains domaines particuliers comme l’ingénierie des systèmes critiques ou les preuves mathématiques assistées par ordinateur ont des exigences de fiabilité supérieures à ce qui peut résulter de l’utilisation d’algorithmes relevant de l’analyse numérique classique.Notre objectif consiste à développer des algorithmes à la fois efficaces et validés / certifiés, dans le sens où toutes les erreurs numériques (d’arrondi ou de méthode) sont prises en compte. En particulier, nous recourons aux approximations polynomiales rigoureuses combinées avec des méthodes de validation a posteriori à base de points fixes. Ces techniques sont implémentées au sein d’une bibliothèque écrite en C, ainsi que dans un développement de preuve formelle en Coq, offrant ainsi le plus haut niveau de confiance, c’est-à-dire une implémentation certifiée.Après avoir présenté les opérations élémentaires sur les approximations polynomiales rigoureuses, nous détaillons un nouvel algorithme de validation pour des approximations sous forme de séries de Tchebychev tronquées de fonctions D-finies, qui sont les solutions d’équations différentielles ordinaires linéaires à coefficients polynomiaux. Nous fournissons une analyse fine de sa complexité, ainsi qu’une extension aux équations différentielles ordinaires linéaires générales et aux systèmes couplés de telles équations. Ces méthodes dites symboliques-numériques sont ensuite utilisées dans plusieurs problèmes reliés : une nouvelle borne sur le nombre de Hilbert pour les systèmes quartiques, la validation de trajectoires de satellites lors du problème du rendez-vous linéarisé, le calcul de polynômes d’approximation optimisés pour l’erreur d’évaluation, et enfin la reconstruction du support et de la densité pour certaines mesures, grâce à des techniques algébriques. / Rigorous numerics aims at providing certified representations for solutions of various problems, notably in functional analysis, e.g., differential equations or optimal control. Indeed, specific domains like safety-critical engineering or computer-assisted proofs in mathematics have stronger reliability requirements than what can be achieved by resorting to standard numerical analysis algorithms. Our goal consists in developing efficient algorithms, which are also validated / certified in the sense that all numerical errors (method or rounding) are taken into account. Specifically, a central contribution is to combine polynomial approximations with a posteriori fixed-point validation techniques. A C code library for rigorous polynomial approximations (RPAs) is provided, together with a Coq formal proof development, offering the highest confidence at the implementation level.After providing basic operations on RPAs, we focus on a new validation algorithm for Chebyshev basis solutions of D-finite functions, i.e., solutions of linear ordinary differential equations (LODEs) with polynomial coefficients. We give an in-depth complexity analysis, as well as an extension to general LODEs, and even coupled systems of them. These symbolic-numeric methods are finally used in several related problems: a new lower bound on the Hilbert number for quartic systems; a validation of trajectories arising in the linearized spacecraft rendezvous problem; the design of evaluation error efficient polynomial approximations; and the support and density reconstruction of particular measures using algebraic techniques.
166

Geometric modeling and characterization of the circle of willis

Bogunovic, Hrvoje 28 September 2012 (has links)
Los derrames cerebrales son una de las causas principales de morbilidad y mortalidad en los países desarrollados. Esto ha motivado una búsqueda de configuraciones del sistema vascular que se cree que están asociadas con el desarrollo de enfermedades vasculares. En la primera contribución se ha mejorado un método de segmentación vascular para lograr robustez en la segmentación de imágenes procedentes de diferentes modalidades y centros clínicos, con una validación exhaustiva. Una vez que el sistema vascular está correctamente segmentado, en la segunda contribución se ha propuesto una metodología para caracterizar ampliamente la geometría de la arteria carótida interna (ACI). Esto ha incluido el desarrollo de un método para identificar automáticamente la ACI a partir del árbol vascular segmentado. Finalmente, en la tercera contribución, esta identificación automática se ha generalizado a una colección de arterias incluyendo su conectividad y sus relaciones topológicas. Finalmente, la identificación de las arterias en un conjunto de individuos puede permitir la comparación geométrica de sus árboles arteriales utilizando la metodología introducida para la caracterización de la ACI. / Stroke is among the leading causes of morbidity and mortality in the developed countries. This motivated a search for the configurations of vasculature that is assumed to be associated with the development of vascular diseases. In the first contribution we improve a vascular segmentation method to achieve robustness in segmenting images coming from different imaging modalities and clinical centers and we provide exhaustive segmentation validation. Once the vasculature is successfully segmented, in the second contribution we propose a methodology to extensively characterize the geometry of the internal carotid artery (ICA). This includes the development of a method to automatically identify the ICA from the segmented vascular tree. Finally in the third contribution, this automatic identification is generalized to a collection of vessels including their connectivity and topological relationships. Identifying the corresponding vessels in a population enables comparison of their geometry using the methodology introduced for the characterization of the ICA.
167

Adaptive algorithms for poromechanics and poroplasticity / Algorithmes adaptatifs pour la poro-mécanique et la poro-plasticité

Riedlbeck, Rita 27 November 2017 (has links)
Dans cette thèse nous développons des estimations d'erreur a posteriori par équilibrage de flux pour la poro-mécanique et la poro-plasticité.En se basant sur ces estimations, nous proposons des algorithmes adaptatifs pour la résolution numérique de problèmes en mécanique des sols.Le premier chapitre traite des problèmes en poro-élasticité linéaire.Nous obtenons une borne garantie sur l'erreur en utilisant des reconstructions équilibrées et $H({rm div})$-conformes de la vitesse de Darcy et du tenseur de contraintes mécaniques.Nous appliquons cette estimation dans un algorithme adaptif pour équilibrer les composantes de l'erreur provenant de la discrétisation en espace et en temps pour des simulations en deux dimensions.La contribution principale du chapitre porte sur la reconstruction symétrique du tenseur de contraintes.Dans le deuxième chapitre nous proposons une deuxième technique de reconstruction du tenseur de contraintes dans le cadre de l'élasticité nonlinéaire.En imposant la symétrie faiblement, cette technique améliore les temps de calcul et facilite l'implémentation.Nous démontrons l'éfficacité locale et globale des estimateurs obtenus avec cette reconstruction pour une grande classe de lois en hyperélasticité.En ajoutant un estimateur de l'erreur de linéarisation, nous introduisons des critères d'arrêt adaptatifs pour le solveur de linéarisation.Le troisième chapitre est consacré à l'application industrielle des résultats obtenus. Nous appliquons un algorithme adaptatif à des problèmes poro-mécaniques en trois dimensions avec des lois de comportement mécanique élasto-plastiques. / In this Ph.D. thesis we develop equilibrated flux a posteriori error estimates for poro-mechanical and poro-plasticity problems.Based on these estimations we propose adaptive algorithms for the numerical solution of problems in soil mechanics.The first chapter deals with linear poro-elasticity problems.Using equilibrated $H({rm div})$-conforming flux reconstructions of the Darcy velocity and the mechanical stress tensor, we obtain a guaranteed upper bound on the error.We apply this estimate in an adaptive algorithm balancing the space and time discretisation error components in simulations in two space dimensions.The main contribution of this chapter is the symmetric reconstruction of the stress tensor.In the second chapter we propose another reconstruction technique for the stress tensor, while considering nonlinear elasticity problems.By imposing the symmetry of the tensor only weakly, we reduce computation time and simplify the implementation.We prove that the estimate obtained using this stress reconstuction is locally and globally efficient for a wide range of hyperelasticity problems.We add a linearization error estimator, enabling us to introduce adaptive stopping criteria for the linearization solver.The third chapter adresses the industrial application of the obtained results.We apply an adaptive algorithm to three-dimensional poro-mechanical problems involving elasto-plastic mechanical behavior laws.
168

Caractérisation des limites fondamentales de l'erreur quadratique moyenne pour l'estimation de signaux comportant des points de rupture / Characterization of mean squared error fundamental limitations in parameter estimation of signals with change-points

Bacharach, Lucien 28 September 2018 (has links)
Cette thèse porte sur l'étude des performances d'estimateurs en traitement du signal, et s'attache en particulier à étudier les bornes inférieures de l'erreur quadratique moyenne (EQM) pour l'estimation de points de rupture, afin de caractériser le comportement d'estimateurs, tels que celui du maximum de vraisemblance (dans le contexte fréquentiste), mais surtout du maximum a posteriori ou de la moyenne conditionnelle (dans le contexte bayésien). La difficulté majeure provient du fait que, pour un signal échantillonné, les paramètres d'intérêt (à savoir les points de rupture) appartiennent à un espace discret. En conséquence, les résultats asymptotiques classiques (comme la normalité asymptotique du maximum de vraisemblance) ou la borne de Cramér-Rao ne s'appliquent plus. Quelques résultats sur la distribution asymptotique du maximum de vraisemblance provenant de la communauté mathématique sont actuellement disponibles, mais leur applicabilité à des problèmes pratiques de traitement du signal n'est pas immédiate. Si l'on décide de concentrer nos efforts sur l'EQM des estimateurs comme indicateur de performance, un travail important autour des bornes inférieures de l'EQM a été réalisé ces dernières années. Plusieurs études ont ainsi permis de proposer des inégalités plus précises que la borne de Cramér-Rao. Ces dernières jouissent en outre de conditions de régularité plus faibles, et ce, même en régime non asymptotique, permettant ainsi de délimiter la plage de fonctionnement optimal des estimateurs. Le but de cette thèse est, d'une part, de compléter la caractérisation de la zone asymptotique (en particulier lorsque le rapport signal sur bruit est élevé et/ou pour un nombre d'observations infini) dans un contexte d'estimation de points de rupture. D'autre part, le but est de donner les limites fondamentales de l'EQM d'un estimateur dans la plage non asymptotique. Les outils utilisés ici sont les bornes inférieures de l’EQM de la famille Weiss-Weinstein qui est déjà connue pour être plus précise que la borne de Cramér-Rao dans les contextes, entre autres, de l’analyse spectrale et du traitement d’antenne. Nous fournissons une forme compacte de cette famille dans le cas d’un seul et de plusieurs points de ruptures puis, nous étendons notre analyse aux cas où les paramètres des distributions sont inconnus. Nous fournissons également une analyse de la robustesse de cette famille vis-à-vis des lois a priori utilisées dans nos modèles. Enfin, nous appliquons ces bornes à plusieurs problèmes pratiques : données gaussiennes, poissonniennes et processus exponentiels. / This thesis deals with the study of estimators' performance in signal processing. The focus is the analysis of the lower bounds on the Mean Square Error (MSE) for abrupt change-point estimation. Such tools will help to characterize performance of maximum likelihood estimator in the frequentist context but also maximum a posteriori and conditional mean estimators in the Bayesian context. The main difficulty comes from the fact that, when dealing with sampled signals, the parameters of interest (i.e., the change points) lie on a discrete space. Consequently, the classical large sample theory results (e.g., asymptotic normality of the maximum likelihood estimator) or the Cramér-Rao bound do not apply. Some results concerning the asymptotic distribution of the maximum likelihood only are available in the mathematics literature but are currently of limited interest for practical signal processing problems. When the MSE of estimators is chosen as performance criterion, an important amount of work has been provided concerning lower bounds on the MSE in the last years. Then, several studies have proposed new inequalities leading to tighter lower bounds in comparison with the Cramér-Rao bound. These new lower bounds have less regularity conditions and are able to handle estimators’ MSE behavior in both asymptotic and non-asymptotic areas. The goal of this thesis is to complete previous results on lower bounds in the asymptotic area (i.e. when the number of samples and/or the signal-to-noise ratio is high) for change-point estimation but, also, to provide an analysis in the non-asymptotic region. The tools used here will be the lower bounds of the Weiss-Weinstein family which are already known in signal processing to outperform the Cramér-Rao bound for applications such as spectral analysis or array processing. A closed-form expression of this family is provided for a single and multiple change points and some extensions are given when the parameters of the distributions on each segment are unknown. An analysis in terms of robustness with respect to the prior influence on our models is also provided. Finally, we apply our results to specific problems such as: Gaussian data, Poisson data and exponentially distributed data.
169

Adaptive Discontinuous Petrov-Galerkin Finite-Element-Methods

Hellwig, Friederike 12 June 2019 (has links)
Die vorliegende Arbeit "Adaptive Discontinuous Petrov-Galerkin Finite-Element-Methods" beweist optimale Konvergenzraten für vier diskontinuierliche Petrov-Galerkin (dPG) Finite-Elemente-Methoden für das Poisson-Modell-Problem für genügend feine Anfangstriangulierung. Sie zeigt dazu die Äquivalenz dieser vier Methoden zu zwei anderen Klassen von Methoden, den reduzierten gemischten Methoden und den verallgemeinerten Least-Squares-Methoden. Die erste Klasse benutzt ein gemischtes System aus konformen Courant- und nichtkonformen Crouzeix-Raviart-Finite-Elemente-Funktionen. Die zweite Klasse verallgemeinert die Standard-Least-Squares-Methoden durch eine Mittelpunktsquadratur und Gewichtsfunktionen. Diese Arbeit verallgemeinert ein Resultat aus [Carstensen, Bringmann, Hellwig, Wriggers 2018], indem die vier dPG-Methoden simultan als Spezialfälle dieser zwei Klassen charakterisiert werden. Sie entwickelt alternative Fehlerschätzer für beide Methoden und beweist deren Zuverlässigkeit und Effizienz. Ein Hauptresultat der Arbeit ist der Beweis optimaler Konvergenzraten der adaptiven Methoden durch Beweis der Axiome aus [Carstensen, Feischl, Page, Praetorius 2014]. Daraus folgen dann insbesondere die optimalen Konvergenzraten der vier dPG-Methoden. Numerische Experimente bestätigen diese optimalen Konvergenzraten für beide Klassen von Methoden. Außerdem ergänzen sie die Theorie durch ausführliche Vergleiche beider Methoden untereinander und mit den äquivalenten dPG-Methoden. / The thesis "Adaptive Discontinuous Petrov-Galerkin Finite-Element-Methods" proves optimal convergence rates for four lowest-order discontinuous Petrov-Galerkin methods for the Poisson model problem for a sufficiently small initial mesh-size in two different ways by equivalences to two other non-standard classes of finite element methods, the reduced mixed and the weighted Least-Squares method. The first is a mixed system of equations with first-order conforming Courant and nonconforming Crouzeix-Raviart functions. The second is a generalized Least-Squares formulation with a midpoint quadrature rule and weight functions. The thesis generalizes a result on the primal discontinuous Petrov-Galerkin method from [Carstensen, Bringmann, Hellwig, Wriggers 2018] and characterizes all four discontinuous Petrov-Galerkin methods simultaneously as particular instances of these methods. It establishes alternative reliable and efficient error estimators for both methods. A main accomplishment of this thesis is the proof of optimal convergence rates of the adaptive schemes in the axiomatic framework [Carstensen, Feischl, Page, Praetorius 2014]. The optimal convergence rates of the four discontinuous Petrov-Galerkin methods then follow as special cases from this rate-optimality. Numerical experiments verify the optimal convergence rates of both types of methods for different choices of parameters. Moreover, they complement the theory by a thorough comparison of both methods among each other and with their equivalent discontinuous Petrov-Galerkin schemes.
170

TAARAC : test d'anglais adaptatif par raisonnement à base de cas

Lakhlili, Zakia January 2007 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.

Page generated in 0.0799 seconds