• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 853
  • 391
  • 303
  • 123
  • 66
  • 54
  • 26
  • 26
  • 25
  • 22
  • 21
  • 14
  • 13
  • 13
  • 10
  • Tagged with
  • 2179
  • 294
  • 226
  • 185
  • 169
  • 144
  • 133
  • 117
  • 117
  • 111
  • 105
  • 102
  • 98
  • 96
  • 94
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
461

High dimensional Markov chain Monte Carlo methods : theory, methods and applications / Méthodes de Monte Carlo par chaîne de Markov en grandes dimensions : théorie, méthodes et applications

Durmus, Alain 02 December 2016 (has links)
L'objet de cette thèse est l'analyse fine de méthodes de Monte Carlopar chaînes de Markov (MCMC) et la proposition de méthodologies nouvelles pour échantillonner une mesure de probabilité en grande dimension. Nos travaux s'articulent autour de trois grands sujets.Le premier thème que nous abordons est la convergence de chaînes de Markov en distance de Wasserstein. Nous établissons des bornes explicites de convergence géométrique et sous-géométrique. Nous appliquons ensuite ces résultats à l'étude d'algorithmes MCMC. Nous nous intéressons à une variante de l'algorithme de Metropolis-Langevin ajusté (MALA) pour lequel nous donnons des bornes explicites de convergence. Le deuxième algorithme MCMC que nous analysons est l'algorithme de Crank-Nicolson pré-conditionné, pour lequel nous montrerons une convergence sous-géométrique.Le second objet de cette thèse est l'étude de l'algorithme de Langevin unajusté (ULA). Nous nous intéressons tout d'abord à des bornes explicites en variation totale suivant différentes hypothèses sur le potentiel associé à la distribution cible. Notre étude traite le cas où le pas de discrétisation est maintenu constant mais aussi du cas d'une suite de pas tendant vers 0. Nous prêtons dans cette étude une attention toute particulière à la dépendance de l'algorithme en la dimension de l'espace d'état. Dans le cas où la densité est fortement convexe, nous établissons des bornes de convergence en distance de Wasserstein. Ces bornes nous permettent ensuite de déduire des bornes de convergence en variation totale qui sont plus précises que celles reportées précédemment sous des conditions plus faibles sur le potentiel. Le dernier sujet de cette thèse est l'étude des algorithmes de type Metropolis-Hastings par échelonnage optimal. Tout d'abord, nous étendons le résultat pionnier sur l'échelonnage optimal de l'algorithme de Metropolis à marche aléatoire aux densités cibles dérivables en moyenne Lp pour p ≥ 2. Ensuite, nous proposons de nouveaux algorithmes de type Metropolis-Hastings qui présentent un échelonnage optimal plus avantageux que celui de l'algorithme MALA. Enfin, nous analysons la stabilité et la convergence en variation totale de ces nouveaux algorithmes. / The subject of this thesis is the analysis of Markov Chain Monte Carlo (MCMC) methods and the development of new methodologies to sample from a high dimensional distribution. Our work is divided into three main topics. The first problem addressed in this manuscript is the convergence of Markov chains in Wasserstein distance. Geometric and sub-geometric convergence with explicit constants, are derived under appropriate conditions. These results are then applied to thestudy of MCMC algorithms. The first analyzed algorithm is an alternative scheme to the Metropolis Adjusted Langevin algorithm for which explicit geometric convergence bounds are established. The second method is the pre-Conditioned Crank-Nicolson algorithm. It is shown that under mild assumption, the Markov chain associated with thisalgorithm is sub-geometrically ergodic in an appropriated Wasserstein distance. The second topic of this thesis is the study of the Unadjusted Langevin algorithm (ULA). We are first interested in explicit convergence bounds in total variation under different kinds of assumption on the potential associated with the target distribution. In particular, we pay attention to the dependence of the algorithm on the dimension of the state space. The case of fixed step sizes as well as the case of nonincreasing sequences of step sizes are dealt with. When the target density is strongly log-concave, explicit bounds in Wasserstein distance are established. These results are then used to derived new bounds in the total variation distance which improve the one previously derived under weaker conditions on the target density.The last part tackles new optimal scaling results for Metropolis-Hastings type algorithms. First, we extend the pioneer result on the optimal scaling of the random walk Metropolis algorithm to target densities which are differentiable in Lp mean for p ≥ 2. Then, we derive new Metropolis-Hastings type algorithms which have a better optimal scaling compared the MALA algorithm. Finally, the stability and the convergence in total variation of these new algorithms are studied.
462

Education quality and non-converge / Qualidade da educação e não-convergência

Souza, Danilo Paula de 29 July 2015 (has links)
This dissertation assesses the role of education quality in the convergence process of GDP per capita through teacher\'s quality impact in human capital formation. The simple two-period OLG model suggests initial level of teacher\'s human capital is important to explain non-convergence, even when education quality return is decreasing. This non-convergence arises because an initially low level of teachers\' human capital translates into a low level of human capital transferred to students, which means a low level of teachers\' human capital in the next period, and so on. This work, therefore, provides an alternative explanation of why countries income does not converge, even when differences in other inputs are not accounted for / Esta dissertação analisa o papel da qualidade da educação no processo de convergência do PIB per capita através do impacto da qualidade de professores na formação de capital humano. O modelo de gerações sobrepostas proposto sugere que o nível inicial de capital humano dos professores é importante para explicar o fenômeno da não-convergência, mesmo quando o retorno marginal da qualidade da educação é decrescente. Esta não-convergência surge porque um baixo nível inicial de capital humano dos professores se traduz em um baixo nível de capital humano transferido aos alunos, o que significa um baixo nível de capital humano dos professores no próximo período, e assim por diante. Este trabalho, portanto, fornece uma explicação alternativa do porquê não se observa convergência de renda entre países, mesmo quando as diferenças de outros fatores de produção não são levadas em conta.
463

Sur les abstractions et les projections des processus décisionnels de Markov de grande taille / On the abstractions and projections of Large Markov Decision Processes

Tagorti, Manel 03 February 2015 (has links)
Les processus décisionnels de Markov (MDP) sont un formalisme mathématique des domaines de l'intelligence artificielle telle que la planification, l'apprentissage automatique, l'apprentissage par renforcement... Résoudre un MDP permet d'identifier la stratégie (politique) optimale d'un agent en interaction avec un environnement stochastique. Lorsque la taille de ce système est très grande il devient difficile de résoudre ces processus par les moyens classiques. Cette thèse porte sur la résolution des MDP de grande taille. Elle étudie certaines méthodes de résolutions: comme les abstractions et les méthodes dites de projection. Elle montre les limites de certaines abstractions et identifie certaines structures "les bisimulations" qui peuvent s'avérer intéressantes pour une résolution approchée du problème. Cette thèse s'est également intéressée à une méthode de projection l'algorithme Least square temporal difference LSTD(λ). Une estimation de la borne sur la vitesse de convergence de cet algorithme a été établie avec une mise en valeur du rôle joué par le paramètre [lambda]. Cette analyse a été étendue pour déduire une borne de performance pour l'algorithme Least square non stationary policy iteration LS(λ)NSPI en estimant la borne d'erreur entre la valeur calculée à une itération fixée et la valeur sous la politique optimale qu'on cherche à identifier / Markov Decision Processes (MDP) are a mathematical formalism of many domains of artifical intelligence such as planning, machine learning, reinforcement learning... Solving an MDP means finding the optimal strategy or policy of an agent interacting in a stochastic environment. When the size of this system becomes very large it becomes hard to solve this problem with classical methods. This thesis deals with the resolution of MDPs with large state space. It studies some resolution methods such as: abstractions and the projection methods. It shows the limits of some approachs and identifies some structures that may be interesting for the MDP resolution. This thesis focuses also on projection methods, the Least square temporal difference algorithm LSTD(λ). An estimate of the rate of the convergence of this algorithm has been derived with an emphasis on the role played by the parameter [lambda]. This analysis has then been generalized to the case of Least square non stationary policy iteration LS(λ)NSPI . We compute a performance bound for LS([lambda])NSPI by bounding the error between the value computed given a fixed iteration and the value computed under the optimal policy, that we aim to determine
464

Stationnarité forte sur des graphes discrets ou quantiques / Strong stationnarity on discrete or quantum graphs

Copros, Guillaume 19 July 2018 (has links)
Dans cette thèse, on s'intéresse à la notion de temps fort de stationnarité et à celle, étroitement liée, de dual de stationnarité forte. Ces outils permettent d'étu- dier la convergence de processus ergodiques, en déterminant un instant aléatoire où l'équilibre est atteint. Les espaces d'état des processus considérés ici sont des graphes continus ou discrets. Dans la première partie, on considère le cas discret, et on dégage une condition nécessaire et suffisante à l'existence, pour n'importe quelle loi initiale, d'un temps fort de stationnarité fini. Pour cela, on construit explicitement un dual de station- narité forte, à valeurs dans l'ensemble des parties connexes du graphe, qui évolue à chaque étape en ajoutant ou en enlevant des points de sa frontière. Lorsque cette opération sépare l'ensemble dual en plusieurs parties, afin de ne pas le déconnecter, une de ces parties est choisie au hasard, avec une probabilité proportionnelle à son poids par la mesure invariante. On s'intéresse également au comportement général d'un processus dual, et on donne quelques exemples différents de celui construit précédemment. Dans la deuxième partie, on traite le cas continu, et le processus étudié est alors une diffusion. On caractérise notamment sa mesure invariante, et on explicite un générateur infinitésimal qui devrait être celui d'un processus dual. Néanmoins, ce cas s'avère plus compliqué que le cas discret. Le processus dual n'est donc construit que pour un mouvement brownien sur un graphe particulier, comme l'unique so- lution d'un problème de martingale. Des pistes sont présentées pour traiter des diffusions sur des graphes plus généraux, notamment en utilisant la convergence d'une suite de processus de saut tels que ceux présentés dans la première partie. / In this thesis, we are interested in the notion of strong stationary time, and in that, strongly connected, of strong stationary dual. These tools allow to study the convergence of ergodic processes, by determining a random time when the equilibrium is reached. The state space of the considered processes are discrete or continuous graphs. In the first part, we consider the discrete case, and we explicit a necessary and sufficient condition to the existence, for any initial distribution, of a finite strong stationary time. To do so, we construct explicitly a strong stationary dual, with values in the set of connected subsets of the graph, which evolves at each step by adding or removing some points at its border. Whenever this operation separates the dual set in several parts, in order not to disconnect it, one of these parts is chosen randomly, with a probability proportionnal to its weight relative to the invariant distribution. We also study the general behaviour of any dual process,2 and we give some other examples. In the second part, we deal with the continuous case, and the studied process is then a diffuion. We caracterize its invariant distribution, and we explicit an infinitesimal generator, which is expected to be that of a dual process. Nevertheless, this case turns out to be a little more involved that the discrete one. The dual process is thus constructed only for a brownian motion on a particular graph, as the unique solution of a martingale problem. Some leads are given to solve the case of diffusions on more general graphs, especially by using the convergence of a sequence of jump processes such as those presented in the first part.
465

Economic convergence in the EU based on the Augmented Solow model / Ekonomická konvergence v EU založená na doplněnem Solowovem modelu

Ryban, Ivan January 2011 (has links)
The topic of convergence in real GDP per capita has become a very sensitive issue, its results often depending on how the sample group, time period, estimation approach and theoretical concept are chosen. This dissertation presents a study and a convenient explanation of the Mankiw, Romer and Weil's (1992) augmentation of the Solow's (1956) neoclassical growth model and its subsequent empirical application to the EU27 over the period 1970-2010. The application is based on the convergence models designed by the Augmented Solow's model and studies convergence speed and patterns among the EU27 countries. The evidence indicates that the pace of convergence within the EU27 is much slower than what the model predicts. Nevertheless, the analysis shows that an increase in human capital has a stronger impact on per capita GDP and, by extension, on convergence than a similar increase in physical capital.
466

Méthodes d’homogénéisation et simulations numériques appliquées à la réponse électromagnétique des matériaux multi-échelles complexes / Homogenization methods and numerical simulations applied to the electromagnetic response of complex multiscale materials

Canot, Hélène 07 December 2018 (has links)
Les travaux de cette thèse concernent l'homogénéisation d'équations de Maxwell harmoniques tridimensionnelles, modélisant la propagation d'une onde électromagnétique issue de la foudre, de l'air dans le matériau composite. La problématique des composites étant, par exemple en aéronautique, l'évacuation de la foudre et la protection contre les agressions électromagnétiques. Nous considérons une structure constituée de fibres de carbone incluses dans une résine époxy qui sera elle-même nano chargée. Rendant ainsi le composite électriquement conducteur. Afin d'obtenir le problème homogénéisé nous utilisons l'analyse asymptotique à deux échelles. Puis nous justifions mathématiquement le résultat par la convergence à deux échelles. La solution du champ électrique est approchée par l'addition du champ électrique moyen et le champ correcteur, dépendant de la microstructure, et solution des problèmes de cellule. Dans la deuxième partie, nous proposons une validation numérique du modèle simplifié en 2D via des simulations avec le logiciel libre d'éléments finis Freefem ++. Trois cas tests seront présentés avant de valider la méthode d'homogénéisation. Enfin, en guise d'illustration du modèle, deux exemples d'agressions électromagnétiques : l'arc en retour de foudre de type A et une impulsion électromagnétique nucléaire seront testées dans le domaine fréquentiel. / The work of this thesis concerns the homogenization of three-dimensional harmonic Maxwell equations, modeling the propagation of an electromagnetic wave originating from lightning, from air in the composite material. The problem of composites being, for example in aeronautics, the evacuation of the lightning and the protection against the electromagnetic aggressions. We consider a structure made of carbon fibers included in an epoxy resin which will itself be nano- charged. Thus rendering the composite electrically conductive. In order to obtain the homogenized problem, we use asymptotic analysis at two scales. Then we mathematically justify the result by two-scale convergence. The solution of the electric field is approximated by the addition of the average electric field and the correct field, depending on the microstructure, and solution of the cell problems. In the second part, we propose a numerical validation of the simplified model in 2D via simulations with the free finite element software Freefem ++. Three test cases will be presented before validating the homogenization method. Finally, as an illustration of the model, two examples of electromagnetic aggression: the Type A lightning bolt and a nuclear electromagnetic pulse will be tested in the frequency domain.
467

Lattice structures with pivoted beams : Homogenization and nonlinear elasticity results / Structures en treillis avec poutres pivotantes : homogénéisation et résultats d'élasticité non-linéaire

Della Corte, Alessandro 15 December 2017 (has links)
Cette thèse est consacrée à la modélisation des structures fibreuses avec des milieuxcontinus généralisés. Dans l’Introduction, l'état de l'art concernant les milieuxcontinus généralisée et applications aux structures fibreuses sont décrits et lesproblèmes ouverts pertinents sont mis en évidence. Dans le Chapitre 1 et 2, uneprocédure d'homogénéisation rigoureuse basée sur des arguments de Gammaconvergenceest appliquée à une structure en treillis et à un model de poutrediscrétisé. Dans le Chapitre 3, un traitement variationnel est utilisé pour formuler unapproche favorable du point de vue numérique. Dans le Chapitre 4 sont discutées lesrésultats expérimentaux concernant le comportement de la structure dans différentstypes de déformation. Cela à motivé les études effectuées dans le Chapitre 5, ou lesMéthodes directes de calcul des variations sont appliquées à poutres d’Euler engrandes déformations. / This thesis focuses on the mathematical modeling of fibrous structures having somepeculiar properties (high strength-to-weight ratio and very good toughness infracture), whose mechanical behavior escapes from standard Cauchy elasticity. Inparticular, it addresses cases in which the presence of a microstructure, consisting ofregularly spaced pivoted beams, entails effects that are well described by generalizedcontinuum models, i.e. models in which the deformation energy density depends notonly on the gradient of the placement but also on the second (and possibly higher)gradients of it. In the Introduction, the state of the art concerning generalizedcontinua and their applications for the description of fibrous structures is describedand some relevant open problems are highlighted. In Chapter 1 and 2 a rigoroushomogenization procedure based on Gamma-convergence arguments is performedfor a lattice (truss-like) structure and for a discrete 1D system (Hencky-type beammodel). In Chapter 3, a variational treatment is employed to formulate acomputationally convenient approach. In Chapter 4 some experimental resultsconcerning the behavior of the structure in various kinds of deformation arediscussed. This motivated the investigation performed in Chapter 5, in which DirectMethods of Calculus of Variations are applied to Euler beams in large deformationsunder distributed load.
468

Fermeture des fonctionnelles de diffusion et de l'élasticité linéaire pour la topologie de la Mosco-convergence

CAMAR-EDDINE, Mohamed 11 March 2002 (has links) (PDF)
L'objectif de cette thèse est l'identification de toutes les limites possibles, vis-à-vis de la Mosco-convergence, des suites de fonctionnelles de diffusion ou de l'élasticité linéaire isotrope. Bien que chaque élément de ces suites soit une fonctionnelle fortement locale, il est bien connu que, sans hypothèse de majoration uniforme sur les coefficients de diffusion, dans le cas scalaire, ou d'élasticité dans le cas vectoriel, la limite peut contenir un terme non-local et un terme étrange. Dans le cas vectoriel, il peut même arriver que la fonctionnelle limite dépende du second gradient du déplacement. D'un point de vue mécanique, les propriétés effectives d'un matériau composite peuvent radicalement différer de celles de ces différents constituants. Umberto Mosco a montré que toute limite d'une suite de fonctionnelles de diffusion est une forme de Dirichlet. La contribution des travaux présentés dans la première partie de cette thèse apporte une réponse positive au problème inverse. Nous montrons que toute forme de Dirichlet est limite d'une suite de fonctionnelles de diffusion. Une étape cruciale consiste en la construction explicite d'un matériau composite dont les propriétés effectives contiennent une interaction non-locale élémentaire. Puis, on obtient progressivement des interactions plus complexes, pour finalement atteindre toutes les formes de Dirichlet. La deuxième partie de nos travaux traite du cas vectoriel. On y démontre que la fermeture des fonctionnelles de l'élasticité linéaire isotrope est l'ensemble de toutes les formes quadratiques positives, objectives et semi-continues inférieurement. La preuve de ce résultat qui est loin d'être une simple généralisation du cas scalaire s'appuie, au départ, sur un résultat comparable au cas scalaire. Elle nécessite ensuite une approche complétement différente.
469

Approximation du temps local et intégration par régularisation

Berard Bergery, Blandine 16 October 2007 (has links) (PDF)
Cette thèse s'inscrit dans la théorie de l'intégration par régularisation de Russo et Vallois. La première partie est consacrée à l'approximation du temps local des semi-martingales continues. On montre que, si $X$ est une diffusion réversible, alors $ \frac{1}{\epsilon}\int_0^t \left( \indi_{\{ y < X_{s+\epsilon}\}} - \indi_{\{ y < X_{s}\}} \right) \left( X_{s+\epsilon}-X_{s} \right)ds$ converge vers $L_t^y(X)$, en probabilité uniformément sur les compacts, quand $\epsilon \to 0$. De ce premier schéma, on tire deux autres schémas d'approximation du temps local, l'un valable pour les semi-martingales continues, l'autre pour le mouvement Brownien standard. Dans le cas du mouvement Brownien, une vitesse de convergence dans $L^2(\Omega)$ et un résultat de convergence presque sûre sont établis. La deuxième partie de la thèse est consacrée à l'intégrale "forward" et à la variation quadratique généralisée, définies par des limites en probabilité de famille d'intégrales. Dans le cas Höldérien, la convergence presque sûre est établie. Enfin, on montre la convergence au second ordre pour une série de processus particuliers.
470

Méthodes de décomposition de domaine robustes pour les problèmes symétriques définis positifs

Spillane, Nicole 22 January 2014 (has links) (PDF)
L'objectif de cette thèse est de concevoir des méthodes de décomposition de domaine qui sont robustes même pour les problèmes difficiles auxquels on est confronté lorsqu'on simule des objets industriels ou qui existent dans la nature. Par exemple une difficulté à laquelle est confronté Michelin et que les pneus sont constitués de matériaux avec des lois de comportement très différentes (caoutchouc et acier). Ceci induit un ralentissement de la convergence des méthodes de décomposition de domaine classiques dès que la partition en sous domaines ne tient pas compte des hétérogénéités. Pour trois méthodes de décomposition de domaine (Schwarz Additif, BDD et FETI) nous avons prouvé qu¿en résolvant des problèmes aux valeurs propres généralisés dans chacun des sous domaines on peut identifier automatiquement quels sont les modes responsables de la convergence lente. En d¿autres termes on divise le problème de départ en deux : une partie où on peut montrer que la méthode de décomposition de domaine va converger et une seconde où on ne peut pas. L¿idée finale est d¿appliquer des projections pour résoudre ces deux problèmes indépendemment (c¿est la déflation) : au premier on applique la méthode de décomposition de domaine et sur le second (qu¿on appelle le problème grossier) on utilise un solveur direct qu¿on sait être robuste. Nous garantissons théorétiquement que le solveur à deux niveaux qui résulte de ces choix est robuste. Un autre atout de nos algorithmes est qu¿il peuvent être implémentés en boite noire ce qui veut dire que les matériaux hétérogènes ne sont qu¿un exemple des difficultés qu¿ils peuvent contourner

Page generated in 0.0506 seconds