• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 47
  • 36
  • 8
  • Tagged with
  • 89
  • 89
  • 54
  • 50
  • 30
  • 18
  • 16
  • 16
  • 15
  • 14
  • 12
  • 12
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Recyclage des candidats dans l'algorithme Metropolis à essais multiples

Groiez, Assia 03 1900 (has links)
No description available.
82

Analyse numérique de méthodes performantes pour les EDP stochastiques modélisant l'écoulement et le transport en milieux poreux / Numerical analysis of performant methods for stochastic PDEs modeling flow and transport in porous media

Oumouni, Mestapha 06 June 2013 (has links)
Ce travail présente un développement et une analyse des approches numériques déterministes et probabilistes efficaces pour les équations aux dérivées partielles avec des coefficients et données aléatoires. On s'intéresse au problème d'écoulement stationnaire avec des données aléatoires. Une méthode de projection dans le cas unidimensionnel est présentée, permettant de calculer efficacement la moyenne de la solution. Nous utilisons la méthode de collocation anisotrope des grilles clairsemées. D'abord, un indicateur de l'erreur satisfaisant une borne supérieure de l'erreur est introduit, il permet de calculer les poids d'anisotropie de la méthode. Ensuite, nous démontrons une amélioration de l'erreur a priori de la méthode. Elle confirme l'efficacité de la méthode en comparaison avec Monte-Carlo et elle sera utilisée pour accélérer la méthode par l'extrapolation de Richardson. Nous présentons aussi une analyse numérique d'une méthode probabiliste pour quantifier la migration d'un contaminant dans un milieu aléatoire. Nous considérons le problème d'écoulement couplé avec l'équation d'advection-diffusion, où on s'intéresse à la moyenne de l'extension et de la dispersion du soluté. Le modèle d'écoulement est discrétisée par une méthode des éléments finis mixtes, la concentration du soluté est une densité d'une solution d'une équation différentielle stochastique, qui sera discrétisée par un schéma d'Euler. Enfin, on présente une formule explicite de la dispersion et des estimations de l'erreur a priori optimales. / This work presents a development and an analysis of an effective deterministic and probabilistic approaches for partial differential equation with random coefficients and data. We are interesting in the steady flow equation with stochastic input data. A projection method in the one-dimensional case is presented to compute efficiently the average of the solution. An anisotropic sparse grid collocation method is also used to solve the flow problem. First, we introduce an indicator of the error satisfying an upper bound of the error, it allows us to compute the anisotropy weights of the method. We demonstrate an improvement of the error estimation of the method which confirms the efficiency of the method compared with Monte Carlo and will be used to accelerate the method using the Richardson extrapolation technique. We also present a numerical analysis of one probabilistic method to quantify the migration of a contaminant in random media. We consider the previous flow problem coupled with the advection-diffusion equation, where we are interested in the computation of the mean extension and the mean dispersion of the solute. The flow model is discretized by a mixed finite elements method and the concentration of the solute is a density of a solution of the stochastic differential equation, this latter will be discretized by an Euler scheme. We also present an explicit formula of the dispersion and an optimal a priori error estimates.
83

Les options fondamentales de la finance moderne<br />Domestication sociologique d'un produit financier

Martin, David 06 December 2005 (has links) (PDF)
Cette thèse propose une façon sociologique de domestiquer un objet peu familier: le produit financier. Le cas retenu est celui de l'option: un des produits dérivés les plus controversés, qui s'est trouvé au coeur de la question sociale résurgente du "pouvoir de la finance". Ce travail s'inscrit dans une dynamique de recherche plus globale de reconquête des objets financiers par les sciences sociales entrepris depuis quelques années en France et au niveau international. En adoptant un centrage du regard sur le "produit" lui-même, l'auteur développe un ensemble d'opérations de recherches qui permettent de dessiner l'espace social (et technique) qui fait la teneur du produit. <br />Un premier travail d'anthropologie historique propose alors de soumettre l'option financière à une "anamnèse" qui remonte à Babylone pour revenir à Amsterdam (17ème siècle) avec une étape par la Grèce de Thalès et Aristote. L'option s'avère alors relever d'un espace social solidaire d'un ordre politique et religieux. <br />Néanmoins, le caractère trans-historique de ce "Phénix financier" laisse inexpliquée la spectaculaire transformation quantitative et qualitative subie par les produits dérivés contemporains sur les marchés organisés comme sur les marchés de gré à gré. La thèse s'attache alors à suivre le travail d'in-scription comptable et de pré-scription cognitive et formelle (ou juridque) qui sous-tend les transactions à base d'instruments financiers conditionnels. Cette dé-scription du produit donne alors à voir plusieurs modalités concrètes du processus de mondialisation financière.<br />Au terme de cette analyse, l'écriture collective du produit s'avère fondamentalement prise en charge par "la théorie financière moderne". Ce paradigme financier fait alors l'objet d'une analyse plus attentive sur les relations -descriptives et prescriptives- qu'il a entretenu avec le marché réel au fil de son avénement. A partir d'une mise en évidence de la double spéculation pratique et théorique sur la "volatilité" (qu'ont eu à couvrir ces options), la thèse conclut alors sur la consécration mutuelle et auto-référencielle opérée par la théorie et le marché. Cettte double consécration exprime un visage fondamental du nouvel ordre social, politique et moral de l'option financière moderne.
84

Métrologie des graphes de terrain, application à la construction de ressources lexicales et à la recherche d'information

Navarro, Emmanuel 04 November 2013 (has links) (PDF)
Cette thèse s'organise en deux parties : une première partie s'intéresse aux mesures de similarité (ou de proximité) définies entre les sommets d'un graphe, une seconde aux méthodes de clustering de graphe biparti. Une nouvelle mesure de similarité entre sommets basée sur des marches aléatoires en temps courts est introduite. Cette méthode a l'avantage, en particulier, d'être insensible à la densité du graphe. Il est ensuite proposé un large état de l'art des similarités entre sommets, ainsi qu'une comparaison expérimentale de ces différentes mesures. Cette première partie se poursuit par la proposition d'une méthode robuste de comparaison de graphes partageant le même ensemble de sommets. Cette méthode est mise en application pour comparer et fusionner des graphes de synonymie. Enfin une application d'aide à la construction de ressources lexicales est présentée. Elle consiste à proposer de nouvelles relations de synonymie à partir de l'ensemble des relations de synonymie déjà existantes. Dans une seconde partie, un parallèle entre l'analyse formelle de concepts et le clustering de graphe biparti est établi. Ce parallèle conduit à l'étude d'un cas particulier pour lequel une partition d'un des groupes de sommets d'un graphe biparti peut-être déterminée alors qu'il n'existe pas de partitionnement correspondant sur l'autre type de sommets. Une méthode simple qui répond à ce problème est proposée et évaluée. Enfin Kodex, un système de classification automatique des résultats d'une recherche d'information est présenté. Ce système est une application en RI des méthodes de clustering vues précédemment. Une évaluation sur une collection de deux millions de pages web montre les avantages de l'approche et permet en outre de mieux comprendre certaines différences entre méthodes de clustering.
85

Sélection de modèles robuste : régression linéaire et algorithme à sauts réversibles

Gagnon, Philippe 10 1900 (has links)
No description available.
86

Modélisation d'un phénomène pluvieux local et analyse de son transfert vers la nappe phréatique / Modeling a local phenomenon rainy and analysis of its transfer to groundwater

Golder, Jacques 24 July 2013 (has links)
Dans le cadre des recherches de la qualité des ressources en eau, l’étude du processus de transfert de masse du sol vers la nappe phréatique constitue un élément primordial pour la compréhension de la pollution de cette dernière. En effet, les éléments polluants solubles à la surface (produits liés aux activités humaines tels engrais, pesticides...) peuvent transiter vers la nappe à travers le milieu poreux qu’est le sol. Ce scénario de transfert de pollution repose sur deux phénomènes : la pluie qui génère la masse d’eau à la surface et la dispersion de celle-ci à travers le milieu poreux. La dispersion de masse dans un milieu poreux naturel comme le sol forme un sujet de recherche vaste et difficile aussi bien au plan expérimental que théorique. Sa modélisation constitue une préoccupation du laboratoire EMMAH, en particulier dans le cadre du projet Sol Virtuel dans lequel un modèle de transfert (modèle PASTIS) a été développé. Le couplage de ce modèle de transfert avec en entrée un modèle décrivant la dynamique aléatoire de la pluie est un des objectifs de la présente thèse. Ce travail de thèse aborde cet objectif en s’appuyant d’une part sur des résultats d’observations expérimentaux et d’autre part sur de la modélisation inspirée par l’analyse des données d’observation. La première partie du travail est consacrée à l’élaboration d’un modèle stochastique de pluie. Le choix et la nature du modèle sont basés sur les caractéristiques obtenus à partir de l’analyse de données de hauteur de pluie recueillies sur 40 ans (1968-2008) sur le Centre de Recherche de l’INRA d’Avignon. Pour cela, la représentation cumulée des précipitations sera assimilée à une marche aléatoire dans laquelle les sauts et les temps d’attente entre les sauts sont respectivement les amplitudes et les durées aléatoires entre deux occurrences d’événements de pluie. Ainsi, la loi de probabilité des sauts (loi log-normale) et celle des temps d’attente entre les sauts (loi alpha-stable) sont obtenus en analysant les lois de probabilité des amplitudes et des occurrences des événements de pluie. Nous montrons alors que ce modèle de marche aléatoire tend vers un mouvement brownien géométrique subordonné en temps (quand les pas d’espace et de temps de la marche tendent simultanément vers zéro tout en gardant un rapport constant) dont la loi de densité de probabilité est régie par une équation de Fokker Planck fractionnaire (FFPE). Deux approches sont ensuite utilisées pour la mise en œuvre du modèle. La première approche est de type stochastique et repose sur le lien existant entre le processus stochastique issu de l’équation différentielle d’Itô et la FFPE. La deuxième approche utilise une résolution numérique directe par discrétisation de la FFPE. Conformément à l’objectif principal de la thèse, la seconde partie du travail est consacrée à l’analyse de la contribution de la pluie aux fluctuations de la nappe phréatique. Cette analyse est faite sur la base de deux relevés simultanées d’observations de hauteurs de pluie et de la nappe phréatique sur 14 mois (février 2005-mars 2006). Une étude statistique des liens entre les signaux de pluie et de fluctuations de la nappe est menée comme suit : Les données de variations de hauteur de nappe sont analysées et traitées pour isoler les fluctuations cohérentes avec les événements de pluie. Par ailleurs, afin de tenir compte de la dispersion de masse dans le sol, le transport de la masse d’eau pluviale dans le sol sera modélisé par un code de calcul de transfert (modèle PASTIS) auquel nous appliquons en entrée les données de hauteurs de pluie mesurées. Les résultats du modèle permettent entre autre d’estimer l’état hydrique du sol à une profondeur donnée (ici fixée à 1.6m). Une étude de la corrélation entre cet état hydrique et les fluctuations de la nappe sera ensuite effectuée en complément à celle décrite ci-dessus pour illustrer la possibilité de modéliser l’impact de la pluie sur les fluctuations de la nappe / Within the research quality of water resources, the study of the process of mass transfer from soil to groundwater is a key element for understanding the pollution of the latter. Indeed, soluble contaminants to the surface (related to human activities such fertilizers, pesticides products ...) can transit to the web through the porous medium that is the ground. This scenario transfer pollution based on two phenomena: the rain that generates the body of water to the dispersion and the surface thereof through the porous medium. The dispersion of mass in a natural porous medium such as soil forms a subject of extensive research and difficult both experimental and theoretical grounds. Its modeling is a concern EMMAH laboratory, particularly in the context of Virtual Sol project in which a transfer model (PASTIS model) was developed. The coupling of this transfer model with input a model describing the dynamics of random rain is one of the objectives of this thesis. This thesis addresses this goal by relying in part on the results of experimental observations and also on modeling inspired by the analysis of observational data. The first part of the work is devoted to the development of a stochastic model of rain. The choice and nature of the model are based on the features obtained from the analysis of data collected rainfall over 40 years (1968-2008) on the Research Centre INRA Avignon. For this, the cumulative rainfall representation will be treated as a random walk in which the jumps and waiting times between jumps are the amplitudes and durations between two random occurrences of rain events. Thus, the probability jumps (log-normal distribution) and that of waiting between jumps (Law alpha-stable) time is obtained by analyzing the laws of probability amplitudes and occurrences of rain events. We show that the random walk model tends towards a subordinate in time geometric Brownian motion (when space step and time step walking simultaneously tend to zero while maintaining a constant ratio), the law of probability density is governed by a Fokker Planck fractional (FFPE). Two approaches are then used to implement the model. The first approach is based on stochastic type and the relationship between the stochastic process derived from the differential equation of Itô and FFPE. The second approach uses a direct numerical solution by discretization of the FFPE. Accordance with the main objective of the thesis, the second part of the work is devoted to the analysis of the contribution of rain to fluctuations in groundwater. We approach this analysis on the basis of two simultaneous records of observations of rainfall amounts and groundwater over 14 months (February 2005-March 2006). A statistical study of the relationship between the signals of rain and fluctuating water will be conducted. Data sheet height variations are analyzed and processed to isolate coherent fluctuations with rain events. In addition, to take account of the mass dispersion in the soil, the mass transport of storm water in the soil layer is modeled by a calculation code transfer (PASTIS model) which we apply input data measured heights of rain. The model results allow between another estimate soil water status at a given depth (here set at 1.6m). A study of the correlation between the water status and fluctuating water will then be performed in addition to that described above to illustrate the ability to model the impact of rain on the water table fluctuations
87

Calcul stochastique commutatif et non-commutatif : théorie et application / Commutative and noncommutarive stochastic calculus : theory and applications

Hamdi, Tarek 07 December 2013 (has links)
Mon travail de thèse est composé de deux parties bien distinctes, la première partie est consacrée à l’analysestochastique en temps discret des marches aléatoires obtuses quant à la deuxième partie, elle est liée aux probabili-tés libres. Dans la première partie, on donne une construction des intégrales stochastiques itérées par rapport à unefamille de martingales normales d-dimentionelles. Celle-ci permet d’étudier la propriété de représentation chaotiqueen temps discret et mène à une construction des opérateurs gradient et divergence sur les chaos de Wiener correspon-dant. [...] d’une EDP non linéaire alors que la deuxième est de nature combinatoire.Dans un second temps, on a revisité la description de la mesure spectrale de la partie radiale du mouvement Browniensur Gl(d,C) quand d ! +¥. Biane a démontré que cette mesure est absolument continue par rapport à la mesurede Lebesgue et que son support est compact dans R+. Notre contribution consiste à redémontrer le résultat de Bianeen partant d’une représentation intégrale de la suite des moments sur une courbe de Jordon autour de l’origine etmoyennant des outils simples de l’analyse réelle et complexe. / My PhD work is composed of two parts, the first part is dedicated to the discrete-time stochastic analysis for obtuse random walks as to the second part, it is linked to free probability. In the first part, we present a construction of the stochastic integral of predictable square-integrable processes and the associated multiple stochastic integrals ofsymmetric functions on Nn (n_1), with respect to a normal martingale.[...] In a second step, we revisited thedescription of the marginal distribution of the Brownian motion on the large-size complex linear group. Precisely, let (Z(d)t )t_0 be a Brownian motion on GL(d,C) and consider nt the limit as d !¥ of the distribution of (Z(d)t/d)⋆Z(d)t/d with respect to E×tr.
88

Statistical physics of constraint satisfaction problems

Lamouchi, Elyes 10 1900 (has links)
La technique des répliques est une technique formidable prenant ses origines de la physique statistique, comme un moyen de calculer l'espérance du logarithme de la constante de normalisation d'une distribution de probabilité à haute dimension. Dans le jargon de physique, cette quantité est connue sous le nom de l’énergie libre, et toutes sortes de quantités utiles, telle que l’entropie, peuvent être obtenue de là par des dérivées. Cependant, ceci est un problème NP-difficile, qu’une bonne partie de statistique computationelle essaye de résoudre, et qui apparaît partout; de la théorie des codes, à la statistique en hautes dimensions, en passant par les problèmes de satisfaction de contraintes. Dans chaque cas, la méthode des répliques, et son extension par (Parisi et al., 1987), se sont prouvées fortes utiles pour illuminer quelques aspects concernant la corrélation des variables de la distribution de Gibbs et la nature fortement nonconvexe de son logarithme negatif. Algorithmiquement, il existe deux principales méthodologies adressant la difficulté de calcul que pose la constante de normalisation: a). Le point de vue statique: dans cette approche, on reformule le problème en tant que graphe dont les nœuds correspondent aux variables individuelles de la distribution de Gibbs, et dont les arêtes reflètent les dépendances entre celles-ci. Quand le graphe en question est localement un arbre, les procédures de message-passing sont garanties d’approximer arbitrairement bien les probabilités marginales de la distribution de Gibbs et de manière équivalente d'approximer la constante de normalisation. Les prédictions de la physique concernant la disparition des corrélations à longues portées se traduise donc, par le fait que le graphe soit localement un arbre, ainsi permettant l’utilisation des algorithmes locaux de passage de messages. Ceci va être le sujet du chapitre 4. b). Le point de vue dynamique: dans une direction orthogonale, on peut contourner le problème que pose le calcul de la constante de normalisation, en définissant une chaîne de Markov le long de laquelle, l’échantillonnage converge à celui selon la distribution de Gibbs, tel qu’après un certain nombre d’itérations (sous le nom de temps de relaxation), les échantillons sont garanties d’être approximativement générés selon elle. Afin de discuter des conditions dans lesquelles chacune de ces approches échoue, il est très utile d’être familier avec la méthode de replica symmetry breaking de Parisi. Cependant, les calculs nécessaires sont assez compliqués, et requièrent des notions qui sont typiquemment étrangères à ceux sans un entrainement en physique statistique. Ce mémoire a principalement deux objectifs : i) de fournir une introduction a la théorie des répliques, ses prédictions, et ses conséquences algorithmiques pour les problèmes de satisfaction de constraintes, et ii) de donner un survol des méthodes les plus récentes adressant la transition de phase, prédite par la méthode des répliques, dans le cas du problème k−SAT, à partir du point de vu statique et dynamique, et finir en proposant un nouvel algorithme qui prend en considération la transition de phase en question. / The replica trick is a powerful analytic technique originating from statistical physics as an attempt to compute the expectation of the logarithm of the normalization constant of a high dimensional probability distribution known as the Gibbs measure. In physics jargon this quantity is known as the free energy, and all kinds of useful quantities, such as the entropy, can be obtained from it using simple derivatives. The computation of this normalization constant is however an NP-hard problem that a large part of computational statistics attempts to deal with, and which shows up everywhere from coding theory, to high dimensional statistics, compressed sensing, protein folding analysis and constraint satisfaction problems. In each of these cases, the replica trick, and its extension by (Parisi et al., 1987), have proven incredibly successful at shedding light on keys aspects relating to the correlation structure of the Gibbs measure and the highly non-convex nature of − log(the Gibbs measure()). Algorithmic speaking, there exists two main methodologies addressing the intractability of the normalization constant: a) Statics: in this approach, one casts the system as a graphical model whose vertices represent individual variables, and whose edges reflect the dependencies between them. When the underlying graph is locally tree-like, local messagepassing procedures are guaranteed to yield near-exact marginal probabilities or equivalently compute Z. The physics predictions of vanishing long range correlation in the Gibbs measure, then translate into the associated graph being locally tree-like, hence permitting the use message passing procedures. This will be the focus of chapter 4. b) Dynamics: in an orthogonal direction, we can altogether bypass the issue of computing the normalization constant, by defining a Markov chain along which sampling converges to the Gibbs measure, such that after a number of iterations known as the relaxation-time, samples are guaranteed to be approximately sampled according to the Gibbs measure. To get into the conditions in which each of the two approaches is likely to fail (strong long range correlation, high energy barriers, etc..), it is very helpful to be familiar with the so-called replica symmetry breaking picture of Parisi. The computations involved are however quite involved, and come with a number of prescriptions and prerequisite notions (s.a. large deviation principles, saddle-point approximations) that are typically foreign to those without a statistical physics background. The purpose of this thesis is then twofold: i) to provide a self-contained introduction to replica theory, its predictions, and its algorithmic implications for constraint satisfaction problems, and ii) to give an account of state of the art methods in addressing the predicted phase transitions in the case of k−SAT, from both the statics and dynamics points of view, and propose a new algorithm takes takes these into consideration.
89

Extremes of log-correlated random fields and the Riemann zeta function, and some asymptotic results for various estimators in statistics

Ouimet, Frédéric 05 1900 (has links)
No description available.

Page generated in 0.0467 seconds