• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 96
  • 75
  • 30
  • 9
  • 8
  • 6
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • Tagged with
  • 269
  • 47
  • 34
  • 32
  • 24
  • 24
  • 22
  • 22
  • 22
  • 20
  • 20
  • 20
  • 19
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Sobre existência de soluções para equações diferenciais ordinárias envolvendo operadores não-lineares via Métodos de Shooting e Ponto fixo. / On the existence of solutions for ordinary differential equations involving nonlinear operators via Shooting Methods and Fixed Point.

MARINHO, Sheyla Silva. 24 July 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-07-24T14:29:09Z No. of bitstreams: 1 SHEYLA SILVA MARINHO - DISSERTAÇÃO PPGMAT 2010..pdf: 654391 bytes, checksum: 5f92842e775dc0507ffa8d8ace6fc466 (MD5) / Made available in DSpace on 2018-07-24T14:29:09Z (GMT). No. of bitstreams: 1 SHEYLA SILVA MARINHO - DISSERTAÇÃO PPGMAT 2010..pdf: 654391 bytes, checksum: 5f92842e775dc0507ffa8d8ace6fc466 (MD5) Previous issue date: 2010-03 / Capes / Para visualizar o resumo recomendamos do download do arquivo uma vez que o mesmo utiliza fórmulas ou equações matemáticas que não puderam ser transcritas neste espaço. / In order to view the summary we recommend downloading the file as it uses mathematical formulas or equations that could not be transcribed in this space.
232

Imagerie sismique 4D quantitative en milieux complexes par l'inversion 2D de forme d'onde complète / Quantitative 4D seismic imaging in complex media using 2D full-waveform inversion

Asnaashari, Amir 14 October 2013 (has links)
Le suivi temporel est un processus d’acquisition et d’analyse d’acquisitions multiples répétées au même endroit sur la même cible à différentes périodes de temps. Cela s’applique bien à l’exploration sismique quand les propriétés de la cible varient au cours du temps comme pour les réservoirs pétroliers. Cette technique de sismique, dite 4D en raison de l’intégration du temps dans la construction des images, permet une détection et une estimation des variations du sous-sol survenues lors de l’évolution en temps du milieu. En particulier, dans l’industrie, le suivi et la surveillance peuvent améliorer notre compréhension d’un réservoir de pétrole/gaz ou d’un site de stockage de CO2. Analyser la sismique 4D peut aider à mieux gérer les programmes de production des réservoirs. Ainsi, des acquisitions répétées permettent de suivre l’évolutiondes fronts de fluide injectés: on peut optimiser les programmes d’injection de fluides pour une récupération améliorée des hydrocarbures (enhanced oil recovery). Plusieurs méthodes ont été développées pour l’imagerie variable dans le temps en utilisant les informations des ondes sismiques. Dans ma thèse, je montre que l’inversion de forme d’onde complété (FWI) peut être utilisée pour cette imagerie. Cette m´méthode offre des images sismiques quantitatives haute résolution. Elle est une technique prometteuse pour reconstruire les petites variations de propriétés physiques macro-échelle du sous-sol. Sur une cible identifiée pour ces imageries 4D, plusieurs informations a priori sont souvent disponibles et peuvent être utilisées pour augmenter la résolution de l’image. J’ai introduit ces informations grâce à la définition d’un modèle a priori dans une approche classique FWI en l’accompagnant de la construction d’un modèle d’incertitudes a priori. On peut réaliser deux reconstructions indépendantes et faire la différence les reconstruits: on parle de différence parallèle. On peut aussi effectuer une différence séquentielle o`u l’inversion de l’ensemble de données de la second acquisition, dite moniteur, se fait `a partir du modèle de base et non plus à partir du modèle utilisé initialement. Enfin, l’approche double-différence conduit à l’inversion des différences entre les deux jeux de données que l’on rajoute aux données synthétiques du modèle de base reconstruit. J’étudie quelle stratégie est à adopter pour obtenir des changements vitesse plus précis et plus robustes. En plus, je propose une imagerie 4D ciblée en construisant un modèle d’incertitude a priori grâce `a une information (si elle existe) sur la localisation potentielle des variations attendues. Il est démontré que l’inversion 4D ciblée empêche l’apparition d’artéfacts en dehors des zones cibles: on évite la contamination des zones extérieures qui pourrait compromettre la reconstruction des changements 4D réels. Une étude de sensibilité, concernant l’échantillonnage en fréquence pour cette imagerie 4D, montre qu’il est nécessaire de faire agir simultanément un grand nombre de fréquences au cours d’un cycle d’inversion. Ce faisant, l’inversion fournit un modèle de base plus précis que l’approche temporelle, ainsi qu’un modèle des variations 4D plus robuste avec moins d’artéfacts. Toutefois, la FWI effectuée dans le domaine temporel semble être une approche plus intéressante pour l’imagerie 4D. Enfin, l’approche d’inversion 4D régularisée avec un modèle a priori est appliquée sur des ensembles de données réelles d’acquisitions sismiques répétées fournis par TOTAL. Cette reconstruction des variations locales s’inscrit dans un projet d’injection de vapeur pour améliorer la récupération des hydro-carbures: Il est possible de reconstituer des variations de vitesse fines causées par la vapeur injectée. / Time-lapse monitoring is the process of acquiring and analysing multiple seismic surveys, repeatedat the same place at different time periods. This seismic technique, called 4D becauseof the integration time in the construction of images, allows detection and estimation of thesubsurface parameter variations occured through a time evolution. Particularly, in industries,the monitoring can improve our understanding of a producing oil/gas reservoir and CO2 storagesite. Analyzing the time-lapse seismics can help to better manage production programsof reservoirs. In addition, repeated surveys can monitor the evolution of injected fluid frontsand can permit to optimize injection programs which are considered for enhanced oil recovery(EOR) techniques.Several methods have been developed for time-lapse imaging using seismic wave information.In my thesis, I show that full waveform inversion (FWI) can be used for time-lapseimaging, since this method delivers high-resolution quantitative seismic images. It is a promisingtechnique to recover small variations of macro-scale physical properties of the subsurface.In time-lapse applications, several sources of prior information are often available and shouldbe used to increase the image reliability and its resolution. I have introduced this informationthrough a definition of a prior model in a classical FWI approach by also considering a prioruncertainty model. In addition, I have suggested a dynamic weighting to reduce the importanceof these prior models in the final convergence. In realistic synthetic cases, I have shownhow the prior model can reduce the sensitivity of FWI to a less accurate initial model. It istherefore possible to obtain a highly accurate baseline model for 4D imaging.Once the baseline reconstruction is achieved, several strategies can be used to assess thephysical parameter changes. We can make two independent reconstructions of baseline andmonitor models and make subtraction of the two reconstructed models. This strategy is calledparallel difference. The sequential difference strategy inverts the monitor dataset starting fromthe recovered baseline model, and not from the model used initially. Finally, the doubledifferencestrategy inverts the difference data between two datasets which are added to thecalculated baseline data computed in the recovered baseline model. I investigate which strategyshould be adopted to get more robust and more accurate time-lapse velocity changes. Inaddition, I propose a target-oriented time-lapse imaging using regularized FWI including priormodel and model weighting, if the prior information exists on the location of expected variations.It is shown that the target-oriented inversion prevents the occurrence of artifacts outsidethe target areas, which could contaminate and compromise the reconstruction of the effectivetime-lapse changes.A sensitivity study, concerning several frequency decimations for time-lapse imaging, showsthat the frequency-domain FWI requires a large number of frequencies inverting simultaneously.By doing so, the inversion provides a more precise baseline model and more robust time-lapsevariation model with less artifacts. However, the FWI performed in the time domain appearsto be a more interesting approach for time-lapse imaging considering all frequency content.Finally, the regularized time-lapse FWI with prior model is applied to the real field timelapsedatasets provided by TOTAL. The reconstruction of local variations is part of a steaminjection project to improve the recovery of hydrocarbons: it is possible to reconstruct thevelocity variations caused by the injected steam.
233

Inférence et apprentissage perceptifs dans l’autisme : une approche comportementale et neurophysiologique / Perceptual inference and learning in autism : a behavioral and neurophysiological approach

Sapey-Triomphe, Laurie-Anne 04 July 2017 (has links)
La perception de notre environnement repose sur les informations sensorielles reçues, mais aussi sur nos a priori. Dans le cadre Bayésien, ces a priori capturent les régularités de notre environnement et sont essentiels pour inférer les causes de nos sensations. Récemment, les théories du cerveau Bayésien ont été appliquées à l'autisme pour tenter d'en expliquer les symptômes. Les troubles du spectre de l'autisme (TSA) sont caractérisés par des difficultés de compréhension des interactions sociales, par des comportements restreints et répétitifs, et par une perception sensorielle atypique.Cette thèse vise à caractériser l'inférence et l'apprentissage perceptifs dans les TSA, en étudiant la sensorialité et la construction d'a priori. Nous avons utilisé des tests comportementaux, des modèles computationnels, des questionnaires, de l'imagerie fonctionnelle et de la spectroscopie par résonnance magnétique chez des adultes avec ou sans TSA. La définition des profils sensoriels de personnes avec des hauts quotients autistiques a été affinée grâce à un questionnaire dont nous avons validé la traduction française. En explorant les stratégies d'apprentissage perceptif, nous avons ensuite montré que les personnes avec TSA étaient moins enclines à spontanément utiliser une mode d'apprentissage permettant de généraliser. L'étude de la construction implicite des a priori a montré que les personnes avec TSA étaient capables d'apprendre un a priori, mais l'ajustaient difficilement suite à un changement de contexte. Enfin, l'étude des corrélats neurophysiologiques de l'inférence perceptive a révélé un réseau cérébral et une neuromodulation différents dans les TSA.L'ensemble de ces résultats met en lumière une perception atypique dans les TSA, marquée par un apprentissage et une pondération anormale des a priori. Une approche Bayésienne des TSA pourrait améliorer leur caractérisation, diagnostics et prises en charge / How we perceive our environment relies both on sensory information and on our priors or expectations. Within the Baysian framework, these priors capture the underlying statistical regularities of our environment and allow inferring sensation causes. Recently, Bayesian brain theories suggested that autistic symptoms could arise from an atypical weighting of sensory information and priors. Autism spectrum disorders (ASD) is characterized defined by difficulties in social interactions, by restricted and repetitive patterns of behaviors, and by an atypical sensory perception.This thesis aims at characterizing perceptual inference and learning in ASD, and studies sensory sensitivity and prior learning. This was investigated using behavioral tasks, computational models, questionnaires, functional magnetic resonance imaging and magnetic resonance spectroscopy in adults with or without ASD. Sensory profiles in people with high autism spectrum quotients were first refined, using a questionnaire that we validated in French. The study of perceptual learning strategies then revealed that subjects with ASD were less inclined to spontaneously use a learning style enabling generalization. The implicit learning of priors was explored and showed that subjects with ASD were able to build up a prior but had difficulties adjusting it in changing contexts. Finally, the investigation of the neurophysiological correlates and molecular underpinnings of a similar task showed that perceptual decisions biased by priors relied on a distinct neural network in ASD, and was not related to the same modulation by the glutamate/GABA ratio.The overall results shed light on an atypical learning and weighting of priors in ASD, resulting in an abnormal perceptual inference. A Bayesian approach could help characterizing ASD and could contribute to ASD diagnosis and care
234

Uncertainty management in parameter identification / Gestion des incertitudes pour l'identification des paramètres matériau

Sui, Liqi 23 January 2017 (has links)
Afin d'obtenir des simulations plus prédictives et plus précises du comportement mécanique des structures, des modèles matériau de plus en plus complexes ont été développés. Aujourd'hui, la caractérisation des propriétés des matériaux est donc un objectif prioritaire. Elle exige des méthodes et des tests d'identification dédiés dans des conditions les plus proches possible des cas de service. Cette thèse vise à développer une méthodologie d'identification efficace pour trouver les paramètres des propriétés matériau, en tenant compte de toutes les informations disponibles. L'information utilisée pour l'identification est à la fois théorique, expérimentale et empirique : l'information théorique est liée aux modèles mécaniques dont l'incertitude est épistémique; l'information expérimentale provient ici de la mesure de champs cinématiques obtenues pendant l'essai ct dont l'incertitude est aléatoire; l'information empirique est liée à l'information à priori associée à une incertitude épistémique ainsi. La difficulté principale est que l'information disponible n'est pas toujours fiable et que les incertitudes correspondantes sont hétérogènes. Cette difficulté est surmontée par l'utilisation de la théorie des fonctions de croyance. En offrant un cadre général pour représenter et quantifier les incertitudes hétérogènes, la performance de l'identification est améliorée. Une stratégie basée sur la théorie des fonctions de croyance est proposée pour identifier les propriétés élastiques macro et micro des matériaux multi-structures. Dans cette stratégie, les incertitudes liées aux modèles et aux mesures sont analysées et quantifiées. Cette stratégie est ensuite étendue pour prendre en compte l'information à priori et quantifier l'incertitude associée. / In order to obtain more predictive and accurate simulations of mechanical behaviour in the practical environment, more and more complex material models have been developed. Nowadays, the characterization of material properties remains a top-priority objective. It requires dedicated identification methods and tests in conditions as close as possible to the real ones. This thesis aims at developing an effective identification methodology to find the material property parameters, taking advantages of all available information. The information used for the identification is theoretical, experimental, and empirical: the theoretical information is linked to the mechanical models whose uncertainty is epistemic; the experimental information consists in the full-field measurement whose uncertainty is aleatory; the empirical information is related to the prior information with epistemic uncertainty as well. The main difficulty is that the available information is not always reliable and its corresponding uncertainty is heterogeneous. This difficulty is overcome by the introduction of the theory of belief functions. By offering a general framework to represent and quantify the heterogeneous uncertainties, the performance of the identification is improved. The strategy based on the belief function is proposed to identify macro and micro elastic properties of multi-structure materials. In this strategy, model and measurement uncertainties arc analysed and quantified. This strategy is subsequently developed to take prior information into consideration and quantify its corresponding uncertainty.
235

Régularisations de faible complexité pour les problèmes inverses / Low Complexity Regularization of Inverse Problems

Vaiter, Samuel 10 July 2014 (has links)
Cette thèse se consacre aux garanties de reconstruction et de l’analyse de sensibilité de régularisation variationnelle pour des problèmes inverses linéaires bruités. Il s’agit d’un problème d’optimisation convexe combinant un terme d’attache aux données et un terme de régularisation promouvant des solutions vivant dans un espace dit de faible complexité. Notre approche, basée sur la notion de fonctions partiellement lisses, permet l’étude d’une grande variété de régularisations comme par exemple la parcimonie de type analyse ou structurée, l’anti-Parcimonie et la structure de faible rang. Nous analysons tout d’abord la robustesse au bruit, à la fois en termes de distance entre les solutions et l’objet original, ainsi que la stabilité de l’espace modèle promu.Ensuite, nous étudions la stabilité de ces problèmes d’optimisation à des perturbations des observations. A partir d’observations aléatoires, nous construisons un estimateur non biaisé du risque afin d’obtenir un schéma de sélection de paramètre. / This thesis is concerned with recovery guarantees and sensitivity analysis of variational regularization for noisy linear inverse problems. This is cast as aconvex optimization problem by combining a data fidelity and a regularizing functional promoting solutions conforming to some notion of low complexity related to their non-Smoothness points. Our approach, based on partial smoothness, handles a variety of regularizers including analysis/structured sparsity, antisparsity and low-Rank structure. We first give an analysis of thenoise robustness guarantees, both in terms of the distance of the recovered solutions to the original object, as well as the stability of the promoted modelspace. We then turn to sensivity analysis of these optimization problems to observation perturbations. With random observations, we build un biased estimator of the risk which provides a parameter selection scheme.
236

Exponential weighted aggregation : oracle inequalities and algorithms / Agrégation à poids exponentiels : inégalités oracles et algorithmes

Luu, Duy tung 23 November 2017 (has links)
Dans plusieurs domaines des statistiques, y compris le traitement du signal et des images, l'estimation en grande dimension est une tâche importante pour recouvrer un objet d'intérêt. Toutefois, dans la grande majorité de situations, ce problème est mal-posé. Cependant, bien que la dimension ambiante de l'objet à restaurer (signal, image, vidéo) est très grande, sa ``complexité'' intrinsèque est généralement petite. La prise en compte de cette information a priori peut se faire au travers de deux approches: (i) la pénalisation (très populaire) et (ii) l'agrégation à poids exponentiels (EWA). L'approche penalisée vise à chercher un estimateur qui minimise une attache aux données pénalisée par un terme promouvant des objets de faible complexité (simples). L'EWA combine une famille des pré-estimateurs, chacun associé à un poids favorisant exponentiellement des pré-estimateurs, lesquels privilègent les mêmes objets de faible complexité.Ce manuscrit se divise en deux grandes parties: une partie théorique et une partie algorithmique. Dans la partie théorique, on propose l'EWA avec une nouvelle famille d'a priori favorisant les signaux parcimonieux à l'analyse par group dont la performance est garantie par des inégalités oracle. Ensuite, on analysera l'estimateur pénalisé et EWA, avec des a prioris généraux favorisant des objets simples, dans un cardre unifié pour établir des garanties théoriques. Deux types de garanties seront montrés: (i) inégalités oracle en prédiction, et (ii) bornes en estimation. On les déclinera ensuite pour des cas particuliers dont certains ont été étudiés dans littérature. Quant à la partie algorithmique, on y proposera une implémentation de ces estimateurs en alliant simulation Monte-Carlo (processus de diffusion de Langevin) et algorithmes d'éclatement proximaux, et montrera leurs garanties de convergence. Plusieurs expériences numériques seront décrites pour illustrer nos garanties théoriques et nos algorithmes. / In many areas of statistics, including signal and image processing, high-dimensional estimation is an important task to recover an object of interest. However, in the overwhelming majority of cases, the recovery problem is ill-posed. Fortunately, even if the ambient dimension of the object to be restored (signal, image, video) is very large, its intrinsic ``complexity'' is generally small. The introduction of this prior information can be done through two approaches: (i) penalization (very popular) and (ii) aggregation by exponential weighting (EWA). The penalized approach aims at finding an estimator that minimizes a data loss function penalized by a term promoting objects of low (simple) complexity. The EWA combines a family of pre-estimators, each associated with a weight exponentially promoting the same objects of low complexity.This manuscript consists of two parts: a theoretical part and an algorithmic part. In the theoretical part, we first propose the EWA with a new family of priors promoting analysis-group sparse signals whose performance is guaranteed by oracle inequalities. Next, we will analysis the penalized estimator and EWA, with a general prior promoting simple objects, in a unified framework for establishing some theoretical guarantees. Two types of guarantees will be established: (i) prediction oracle inequalities, and (ii) estimation bounds. We will exemplify them for particular cases some of which studied in the literature. In the algorithmic part, we will propose an implementation of these estimators by combining Monte-Carlo simulation (Langevin diffusion process) and proximal splitting algorithms, and show their guarantees of convergence. Several numerical experiments will be considered for illustrating our theoretical guarantees and our algorithms.
237

"Testes de hipótese e critério bayesiano de seleção de modelos para séries temporais com raiz unitária" / "Hypothesis testing and bayesian model selection for time series with a unit root"

Ricardo Gonçalves da Silva 23 June 2004 (has links)
A literatura referente a testes de hipótese em modelos auto-regressivos que apresentam uma possível raiz unitária é bastante vasta e engloba pesquisas oriundas de diversas áreas. Nesta dissertação, inicialmente, buscou-se realizar uma revisão dos principais resultados existentes, oriundos tanto da visão clássica quanto da bayesiana de inferência. No que concerne ao ferramental clássico, o papel do movimento browniano foi apresentado de forma detalhada, buscando-se enfatizar a sua aplicabilidade na dedução de estatísticas assintóticas para a realização dos testes de hipótese relativos à presença de uma raíz unitária. Com relação à inferência bayesiana, foi inicialmente conduzido um exame detalhado do status corrente da literatura. A seguir, foi realizado um estudo comparativo em que se testa a hipótese de raiz unitária com base na probabilidade da densidade a posteriori do parâmetro do modelo, considerando as seguintes densidades a priori: Flat, Jeffreys, Normal e Beta. A inferência foi realizada com base no algoritmo Metropolis-Hastings, usando a técnica de simulação de Monte Carlo por Cadeias de Markov (MCMC). Poder, tamanho e confiança dos testes apresentados foram computados com o uso de séries simuladas. Finalmente, foi proposto um critério bayesiano de seleção de modelos, utilizando as mesmas distribuições a priori do teste de hipótese. Ambos os procedimentos foram ilustrados com aplicações empíricas à séries temporais macroeconômicas. / Testing for unit root hypothesis in non stationary autoregressive models has been a research topic disseminated along many academic areas. As a first step for approaching this issue, this dissertation includes an extensive review highlighting the main results provided by Classical and Bayesian inferences methods. Concerning Classical approach, the role of brownian motion is discussed in a very detailed way, clearly emphasizing its application for obtaining good asymptotic statistics when we are testing for the existence of a unit root in a time series. Alternatively, for Bayesian approach, a detailed discussion is also introduced in the main text. Then, exploring an empirical façade of this dissertation, we implemented a comparative study for testing unit root based on a posteriori model's parameter density probability, taking into account the following a priori densities: Flat, Jeffreys, Normal and Beta. The inference is based on the Metropolis-Hastings algorithm and on the Monte Carlo Markov Chains (MCMC) technique. Simulated time series are used for calculating size, power and confidence intervals for the developed unit root hypothesis test. Finally, we proposed a Bayesian criterion for selecting models based on the same a priori distributions used for developing the same hypothesis tests. Obviously, both procedures are empirically illustrated through application to macroeconomic time series.
238

Maintien en conditions opérationnelles pour une flotte de véhicules : étude de la non stabilité des flux de rechange dans le temps / Maintenance, repair and operations for a fleet of vehicles : study of the non-stability of the flow of spares over time

Ducros, Florence 26 June 2018 (has links)
Dans cette thèse, nous proposons une démarche méthodologique permettant de simuler le besoin en équipement de rechange pour une flotte de véhicules. Les systèmes se dégradent avec l’âge ou l’usage, et sont défaillants lorsqu’ils ne remplissent plus leur mission. L’usager a alors besoin d’une assurance que le système soit opérationnel pendant sa durée de vie utile. Un contrat de soutien oblige ainsi l’industriel à remédier à une défaillance et à maintenir le système en condition opérationnelle durant la durée du contrat. Ces dernières années, la mondialisation et l’évolution rapide des technologies obligent les constructeurs à proposer des offres de contrat de maintenance bien au-delà de la vie utile des équipements. La gestion de contrat de soutien ou d’extension de soutien requiert la connaissance de la durée de vie des équipements, mais aussi des conditions d’usages des véhicules, dépendant du client. L’analyse des retours clientèle ou des RetEx est alors un outil important d’aide à la décision pour l’industriel. Cependant ces données ne sont pas homogènes et sont très fortement censurées, ce qui rend les estimations difficiles. La plupart du temps, cette variabilité n’est pas observée mais doit cependant être prise en compte sous peine d’erreur de décision. Nous proposons dans cette thèse de modéliser l’hétérogénéité des durées de vie par un modèle de mélange et de concurrence de deux lois de Weibull. On propose une méthode d’estimation des paramètres capable d’être performante malgré la forte présence de données censurées.Puis, nous faisons appel à une méthode de classification non supervisée afin d’identifier des profils d’utilisation des véhicules. Cela nous permet alors de simuler les besoins en pièces de rechange pour une flotte de véhicules pour la durée du contrat ou pour une extension de contrat. / This thesis gathers methodologicals contributions to simulate the need of replacement equipment for a vehile fleet. Systems degrade with age or use, and fail when they do not fulfill their mission. The user needs an assurance that the system is operational during its useful life. A support contract obliges the manufacturer to remedy a failure and to keep the system in operational condition for the duration of the MCO contract.The management of support contracts or the extension of support requires knowledge of the equipment lifetime and also the uses condition of vehicles, which depends on the customer. The analysis of customer returns or RetEx is then an important tool to help support the decision of the industrial. In reliability or warranty analysis, engineers must often deal with lifetimes data that are non-homogeneous. Most of the time, this variability is unobserved but has to be taken into account for reliability or warranty cost analysis.A further problem is that in reliability analysis, the data is heavily censored which makes estimations more difficult. We propose to consider the heterogeneity of lifetimes by a mixture and competition model of two Weibull laws. Unfortunately, the performance of classical estimation methods (maximum of likelihood via EM, Bayes approach via MCMC) is jeopardized due to the high number of parameters and the heavy censoring.To overcome the problem of heavy censoring for Weibull mixture parameters estimation, we propose a Bayesian bootstrap method, called Bayesian RestorationMaximization.We use an unsupervised clustering method to identify the profiles of vehicle uses. Our method allows to simulate the needs of spare parts for a vehicles fleet for the duration of the contract or for a contract extension.
239

Realization and comparison of various mesh refinement strategies near edges

Apel, T., Milde, F. 30 October 1998 (has links)
This paper is concerned with mesh refinement techniques for treating elliptic boundary value problems in domains with re- entrant edges and corners, and focuses on numerical experiments. After a section about the model problem and discretization strategies, their realization in the experimental code FEMPS3D is described. For two representative examples the numerically determined error norms are recorded, and various mesh refinement strategies are compared.
240

Finite-Elemente-Mortaring nach einer Methode von J. A. Nitsche für elliptische Randwertaufgaben

Pönitz, Kornelia 29 June 2006 (has links)
Viele technische Prozesse führen auf Randwertprobleme mit partiellen Differentialgleichungen, die mit Finite-Elemente-Methoden näherungsweise gelöst werden können. Spezielle Varianten dieser Methoden sind Finite-Elemente-Mortar-Methoden. Sie erlauben das Arbeiten mit an Teilgebietsschnitträndern nichtzusammenpassenden Netzen, was für Probleme mit komplizierten Geometrien, Randschichten, springenden Koeffizienten sowie für zeitabhängige Probleme von Vorteil sein kann. Ebenso können unterschiedliche Diskretisierungsmethoden in den einzelnen Teilgebieten miteinander gekoppelt werden. In dieser Arbeit wird das Finite-Elemente-Mortaring nach einer Methode von Nitsche für elliptische Randwertprobleme auf zweidimensionalen polygonalen Gebieten untersucht. Von besonderem Interesse sind dabei nichtreguläre Lösungen (u \in H^{1+\delta}(\Omega), \delta>0) mit Eckensingularitäten für die Poissongleichung sowie die Lamé-Gleichung mit gemischten Randbedingungen. Weiterhin werden singulär gestörte Reaktions-Diffusions-Probleme betrachtet, deren Lösungen zusätzlich zu Eckensingularitäten noch anisotropes Verhalten in Randschichten aufweisen. Für jede dieser drei Problemklassen wird das Nitsche-Mortaring dargelegt. Es werden einige Eigenschaften der Mortar-Diskretisierung angegeben und a-priori-Fehlerabschätzungen in einer H^1-artigen sowie der L_2-Norm durchgeführt. Auf lokal verfeinerten Dreiecksnetzen können auch für Lösungen mit Eckensingularitäten optimale Konvergenzordnungen nach gewiesen werden. Bei den Lösungen mit anisotropen Verhalten werden zusätzlich anisotrope Dreiecksnetze verwendet. Es werden auch hier Konvergenzordnungen wie bei klassischen Finite-Elemente-Methoden ohne Mortaring erreicht. Numerische Experimente illustrieren die Methode und die Aussagen zur Konvergenz.

Page generated in 0.0298 seconds