• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 125
  • 33
  • 20
  • 2
  • 2
  • 1
  • Tagged with
  • 189
  • 164
  • 164
  • 55
  • 23
  • 22
  • 22
  • 15
  • 14
  • 14
  • 14
  • 12
  • 12
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Business Cycle Models with Embodied Technological Change and Poisson Shocks

Schlegel, Christoph 28 May 2004 (has links)
The first part analyzes an Endogenous Business Cycle model with embodied technological change. Households take an optimal decision about their spending for consumption and financing of R&D. The probability of a technology invention occurring is an increasing function of aggregate R&D expenditure in the whole economy. New technologies bring higher productivity, but rather than applying to the whole capital stock, they require a new vintage of capital, which first has to be accumulated before the productivity gain can be realized. The model offers some valuable features: Firstly, the response of output following a technology shock is very gradual; there are no jumps. Secondly, R&D is an ongoing activity; there are no distinct phases of research and production. Thirdly, R&D expenditure is pro-cyclical and the real interest rate is counter-cyclical. Finally, long-run growth is without scale effects. The second part analyzes a RBC model in continuous time featuring deterministic incremental development of technology and stochastic fundamental inventions arriving according to a Poisson process. In a special case an analytical solution is presented. In the general case a delay differential equation (DDE) has to be solved. Standard numerical solution methods fail, because the steady state is path dependent. A new solution method is presented which is based on a modified method of steps for DDEs. It provides not only approximations but also upper and lower bounds for optimal consumption path and steady state. Furthermore, analytical expressions for the long-term equilibrium distributions of the stationary variables of the model are presented. The distributions can be described as extended Beta distributions. This is deduced from a methodical result about a delay extension of the Pearson system.
182

Design of Stochastic Neural-inspired Dynamical Architectures: Coordination and Control of Hyper-redundant Robots

Horchler, Andrew de Salle 31 May 2016 (has links)
No description available.
183

Modélisation de la dynamique spatio-temporelle d'une population de moustiques, sources de nuisances et vecteurs d'agents pathogènes

Cailly, Priscilla 27 September 2011 (has links) (PDF)
Les moustiques sont sources de nuisances et vecteurs d'agents pathogènes majeurs pour l'homme et les animaux. Malgré l'existence de moyens de lutte, la maîtrise de leurs populations reste un enjeu contraint par une connaissance fine de leur dynamique dans l'espace et le temps. Cette thèse vise à identifier les facteurs biotiques et abiotiques qui affectent la dynamique spatio-temporelle de population de moustiques. Une approche intégrative de modélisation dynamique, couplée à l'utilisation d'un système d'information géographique (SIG), d'analyses statistiques et de données d'observation, m'a permis de représenter la dynamique de population de moustiques pour mieux la comprendre et identifier des moyens de lutte efficaces. Un modèle déterministe générique, piloté par le climat, représente le cycle de vie des moustiques sur plusieurs années. Ce modèle appliqué à des espèces d'Anopheles en zone rurale humide (Camargue, France) est cohérent avec les données entomologiques. Il est sensible aux variations de mortalité, développement, sex-ratio et nombre d'oeufs pondus. Il permet d'évaluer des stratégies de lutte ciblant un stade du cycle de vie et une période de l'année. Ayant démontré que la distribution des sites de ponte expliquait pour partie la structuration spatiale des populations, ce facteur et la recherche d'hôtes ont été retenus pour piloter le déplacement des adultes. Une composante spatiale a été intégrée au modèle via la représentation d'un paysage réel et les déplacements sur ce paysage. Les premiers résultats montrent que l'hétérogénéité du paysage et son évolution dans le temps influencent la répartition et l'abondance en moustiques.
184

The computation of Greeks with multilevel Monte Carlo

Burgos, Sylvestre Jean-Baptiste Louis January 2014 (has links)
In mathematical finance, the sensitivities of option prices to various market parameters, also known as the “Greeks”, reflect the exposure to different sources of risk. Computing these is essential to predict the impact of market moves on portfolios and to hedge them adequately. This is commonly done using Monte Carlo simulations. However, obtaining accurate estimates of the Greeks can be computationally costly. Multilevel Monte Carlo offers complexity improvements over standard Monte Carlo techniques. However the idea has never been used for the computation of Greeks. In this work we answer the following questions: can multilevel Monte Carlo be useful in this setting? If so, how can we construct efficient estimators? Finally, what computational savings can we expect from these new estimators? We develop multilevel Monte Carlo estimators for the Greeks of a range of options: European options with Lipschitz payoffs (e.g. call options), European options with discontinuous payoffs (e.g. digital options), Asian options, barrier options and lookback options. Special care is taken to construct efficient estimators for non-smooth and exotic payoffs. We obtain numerical results that demonstrate the computational benefits of our algorithms. We discuss the issues of convergence of pathwise sensitivities estimators. We show rigorously that the differentiation of common discretisation schemes for Ito processes does result in satisfactory estimators of the the exact solutions’ sensitivities. We also prove that pathwise sensitivities estimators can be used under some regularity conditions to compute the Greeks of options whose underlying asset’s price is modelled as an Ito process. We present several important results on the moments of the solutions of stochastic differential equations and their discretisations as well as the principles of the so-called “extreme path analysis”. We use these to develop a rigorous analysis of the complexity of the multilevel Monte Carlo Greeks estimators constructed earlier. The resulting complexity bounds appear to be sharp and prove that our multilevel algorithms are more efficient than those derived from standard Monte Carlo.
185

Écrouissage thermique des argiles saturées : application au stockage des déchets radioactifs

Picard, Jean-Marc 19 December 1994 (has links) (PDF)
Les argiles soumises à une charge mécanique constante et à une lente élévation de température donnent lieu généralement à une contraction irréversible. Ce phénomène est interprété par une variation des limites d'élasticité avec la température appelée écrouissage thermique. Une formulation du comportement plastique compatible avec les principes de la thermodynamique montre que ces effets de la température en plasticité reposent sur un couplage particulier où intervient la chaleur latente de transformation de l'état d'écrouissage du matériau. Une extension thermomécanique simple du modèle Cam Clay est proposée pour l'étude du comportement thermomécanique des argiles saturées. Une analyse d'essais de laboratoire déjà publiés illustre la pertinence de ces concepts. Des argiles issues de formations géologiques profondes susceptibles de recevoir un stockage de déchets radioactifs présentent un écrouissage thermique en laboratoire. Les conséquences pour un stockage sont évaluées par des modélisations et par des essais in situ menés dans un laboratoire souterrain. Les mesures faites autour d'une sonde chauffante révèlent l'importance des couplages thermohydromécaniques au sein d'un massif argileux. Les modélisations donnent une interprétation cohérente des mesures in situ. L'accent est mis sur les interactions entre les diverses phases d'un essai : excavation, reconsolidation du massif puis chauffage. Ces analyses montrent que l'écrouissage thermique se manifeste peu dans ces essais. En revanche, les couplages thermohydromécaniques de nature élastique sont nettement plus importants que ceux prévus d'après les essais triaxiaux classiques, ce que l'on attribue la raideur accrue de ce matériau lorsqu'il subit de très faibles déformations.
186

Analyse numérique de méthodes performantes pour les EDP stochastiques modélisant l'écoulement et le transport en milieux poreux / Numerical analysis of performant methods for stochastic PDEs modeling flow and transport in porous media

Oumouni, Mestapha 06 June 2013 (has links)
Ce travail présente un développement et une analyse des approches numériques déterministes et probabilistes efficaces pour les équations aux dérivées partielles avec des coefficients et données aléatoires. On s'intéresse au problème d'écoulement stationnaire avec des données aléatoires. Une méthode de projection dans le cas unidimensionnel est présentée, permettant de calculer efficacement la moyenne de la solution. Nous utilisons la méthode de collocation anisotrope des grilles clairsemées. D'abord, un indicateur de l'erreur satisfaisant une borne supérieure de l'erreur est introduit, il permet de calculer les poids d'anisotropie de la méthode. Ensuite, nous démontrons une amélioration de l'erreur a priori de la méthode. Elle confirme l'efficacité de la méthode en comparaison avec Monte-Carlo et elle sera utilisée pour accélérer la méthode par l'extrapolation de Richardson. Nous présentons aussi une analyse numérique d'une méthode probabiliste pour quantifier la migration d'un contaminant dans un milieu aléatoire. Nous considérons le problème d'écoulement couplé avec l'équation d'advection-diffusion, où on s'intéresse à la moyenne de l'extension et de la dispersion du soluté. Le modèle d'écoulement est discrétisée par une méthode des éléments finis mixtes, la concentration du soluté est une densité d'une solution d'une équation différentielle stochastique, qui sera discrétisée par un schéma d'Euler. Enfin, on présente une formule explicite de la dispersion et des estimations de l'erreur a priori optimales. / This work presents a development and an analysis of an effective deterministic and probabilistic approaches for partial differential equation with random coefficients and data. We are interesting in the steady flow equation with stochastic input data. A projection method in the one-dimensional case is presented to compute efficiently the average of the solution. An anisotropic sparse grid collocation method is also used to solve the flow problem. First, we introduce an indicator of the error satisfying an upper bound of the error, it allows us to compute the anisotropy weights of the method. We demonstrate an improvement of the error estimation of the method which confirms the efficiency of the method compared with Monte Carlo and will be used to accelerate the method using the Richardson extrapolation technique. We also present a numerical analysis of one probabilistic method to quantify the migration of a contaminant in random media. We consider the previous flow problem coupled with the advection-diffusion equation, where we are interested in the computation of the mean extension and the mean dispersion of the solute. The flow model is discretized by a mixed finite elements method and the concentration of the solute is a density of a solution of the stochastic differential equation, this latter will be discretized by an Euler scheme. We also present an explicit formula of the dispersion and an optimal a priori error estimates.
187

Contributions to the development of residual discretizations for hyperbolic conservation laws with application to shallow water flows

Ricchiuto, Mario 12 December 2011 (has links) (PDF)
In this work we review 12 years of developments in the field of residual based discretizations for hyperbolic problems and their application to the solution of the shallow water equations. Fundamental concepts related to the topic are recalled and he construction of second and higher order schemes for steady problems is presented. The generalization to time dependent problems by means of multi-step implicit time integration, space-time, and genuinely explicit techniques is thoroughly discussed. Finally, the issues of C-property, super consistency, and wetting/drying are analyzed in this framework showing the power of the residual based approach.
188

Prise en compte de l'incertitude dans l'expertise des risques naturels en montagne par analyse multicritères et fusion d'information

Tacnet, Jean-Marc 26 November 2009 (has links) (PDF)
Les phénomènes naturels gravitaires rapides tels que les avalanches ou les crues torrentielles menacent les biens et les personnes en montagne mais restent mal connus. Dans un contexte de connaissance partielle des phénomènes, l'expertise contribue, par des approches pluridisciplinaires à la fois qualitatives et quantitatives, à identifier les phénomènes, analyser les risques et proposer des mesures structurelles et/ou non-structurelles pour la réduction des risques. Les jugements d'experts dépendent de la qualité des informations disponibles. En fin de compte, les scénarios de phénomènes et les décisions peuvent ainsi reposer sur des informations incertaines et contradictoires sans pouvoir vraiment identifier la part du vrai, de l'imprécis, du contradictoire ou simplement de l'inconnu dans les hypothèses ayant conduit au résultat. Ce travail analyse les relations entre l'information, ses imperfections et la décision. Il vise d'une part l'amélioration de la traçabilité, de l'explicitation et de la qualité des composants du processus d'expertise et, d'autre part, la fourniture et l'analyse des outils d'aide multicritères à la décision capables de considérer l'information imparfaite (incertaine, imprécise) provenant de sources de fiabilité variable et potentiellement conflictuelles. Dans un premier temps, l'analyse porte sur des méthodes empiriques d'aide multicritères à la décision d'évaluation des composantes du risque. Une méthodologie est proposée pour traduire des modèles existants sous forme hiérarchique puis transformer des modèles hiérarchiques quelconques dans d'autres modèles du même type tout en conservant les mêmes résultats globaux. Cette reconfiguration exhibe des vues différentes des préférences entre critères liées par exemple à l'importance et au rˆole de scénarios basés sur une aggravation de critères dans la décision. Dans un second temps, la méthodologie ER-MCDA associe la fusion d'information et l'aide multicritères à la décision. L'aide multicritères hiérarchique à la décision (AHP) permet de formuler conceptuellement le problème de décision et d'expliciter les préférences entre les critères. Les théories des ensembles flous et des possibilités sont utilisées pour transformer des critères quantitatifs et qualitatifs dans un cadre de discernement commun de décision associé à la théorie des fonctions de croyance via d'une part, la théorie de Dempster-Shafer (DST) et, d'autre part, la théorie de Dezert-Smarandache (DSmT). Finalement, l'aide multicritères à la décision peut être vue comme une alternative pour l'évaluation des composantes du risque. Elle permet non seulement d'améliorer la qualité globale de l'expertise et du processus de décision mais aussi de créer un nouvel espace d'interaction entre l'expertise et les décideurs publics. Au-delà d'un strict intérêt technique, ces méthodes sont des soutiens aussi inattendus que pertinents dans le cadre d'approches intégrées de la gestion du risque.
189

Modélisation des Hydrosystèmes Continentaux pour une Gestion Durable de la Ressource en Eau

Flipo, Nicolas 27 June 2013 (has links) (PDF)
L'ensemble des travaux présentés ici est centré sur la modélisation des hydrosystèmes continentaux comme support de la gestion durable de la ressource en eau. Ils portent sur la compréhension du cycle de l'eau, du fonctionnement des interfaces nappe-rivière, et de l'impact de l'anthropisation sur la qualité des eaux (pratiques agricoles, rejets urbains). Une réflexion transverse sur une meilleure imbrication entre stratégies d'échantillonnage et stratégies de modélisation, et un souci permanent de quantifier les incertitudes liées aux modèles déterministes au moyen de diverses techniques, sont aussi au cœur des travaux présentés. Le premier chapitre s'intéresse aux bases de la modélisation quantitative des hydrosystèmes continentaux. L'utilisation de cartes piézométriques permet de mettre en œuvre des techniques de calibration automatique, via des approches inverses, de modèles simulant les écoulements souterrains. Ce potentiel a été exploité par la conceptualisation d'une méthodologie hybride d'ajustement de mmd (modèle mécaniste distribué) d'hydrosystème. La simulation du bassin de la Loire réalisée avec EauDyssée, couplée à l'utilisation du modèle linéaire de co-régionalisation pour analyser les différentes composantes du cycle de l'eau, mènent à la conclusion que le système aquifère est en légère sur-exploitation. Un retour sur le concept d'hydrosystème continental permet de le structurer explicitement autour de ses interfaces emboîtées. Ce cadre théorique permet alors d'aborder la problématique des échanges nappe-rivière en fonction des échelles d'étude, et d'identifier l'échelle intermédiaire du corridor fluvial comme étant la clé de voûte des emboîtements d'échelles. De plus, ce découpage affiné de l'hydrosystème facilite la réflexion nécessaire à la mise en place de systèmes d'observation multi-échelle du comportement hydrologique des interfaces nappe-rivière. Si les échelles locales et intermédiaires autorisent le déploiement de tels systèmes, une analyse bibliographique approfondie montre qu'il n'en va pas de même de l'échelle régionale, pour laquelle des méthodologies couplant observations et modélisations doivent être développées. Il est alors montré que l'utilisation du modèle résistif couplé à une simulation dynamique des niveaux d'eau en rivière permet de bien simuler les comportements piézométriques à court et moyen termes. Le dernier chapitre démarre par la mise en œuvre du modèle hydrocologique, ProSe, sur le linéaire de la Seine depuis l'amont de Paris jusqu'à l'estuaire. L'étude de l'interaction entre les processus biogéochimiques et les processus hydro-sédimentaires révèle l'importance de ces derniers. L'impact des stocks de vase sur l'oxygénation des eaux de surface est aussi significatif pour les rivières aval. Le rôle joué par les interfaces devient primordial dans les têtes de bassin, où elles contrôlent la qualité de l'eau. Pour le bassin amont du Grand Morin, la modélisation du devenir des nitrates d'origine agricole, a permis de montrer que l'azote était éliminé, dans sa grande majorité, au niveau des interfaces nappe-rivière. Finalement, afin de mieux comprendre le devenir des nitrates dans les grandes rivières, la comparaison de deux cadres cognitifs (interprétation des observations et représentations des processus) a été menée à l'aide du modèle linéaire de co-régionalisation. Appliquée à la Seine, cette approche a permis d'analyser les écarts, entre modèles et mesures, associés soit à des erreurs de forçage du modèle déterministe (conditions aux limites), soit à des erreurs de formalisme des processus physiques ou/et de paramétrisation du modèle.

Page generated in 0.0251 seconds