• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 504
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1643
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 234
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
831

Managing Consistency for Big Data Applications on Clouds: Tradeoffs and Self Adaptiveness

Chihoub, Houssem-Eddine 10 December 2013 (has links) (PDF)
A l'ère de Big Data, les applications de traitement intensif de données gèrent des volumes de données extrêmement grands. De plus, ils requièrent des temps de traitement très rapides. Une grande partie de ces applications sont déployées sur des clouds, afin de bénéficier des avantages de ces infrastructures. Dans ce contexte, la réplication est un moyen essentiel dans le cloud afin de surmonter les défis de Big Data. Cependant, la réplication introduit le problème important de la cohérence des données. La gestion de la cohérence est primordiale. Les modèles à cohérence forte induisent des coûts importants en terme de performance et ont des difficultés à passer à l'échelle à cause des besoins de synchronisation. A l'inverse, les modèles à cohérence faible (la cohérence à terme, par exemple) fournissent de meilleures performances ainsi qu'une meilleure disponibilité de données. Toutefois, ces derniers modèles peuvent tolérer, sous certaines conditions, trop d'incohérence temporaire. Dans le cadre du travail de cette thèse, nous abordons les problèmes liés aux compromis suscités par la gestion de la cohérence dans les systèmes de Big Data. Premièrement, nous proposons un modèle de cohérence auto-adaptative qui augmente et diminue de manière automatique le niveau de cohérence. Ceci permet de fournir de meilleures performances tout en satisfaisant les besoins des applications. En deuxième lieu, nous abordons les enjeux financiers liés à la gestion de cohérence dans le cloud. Par conséquent, nous proposons une gestion de la cohérence efficace en termes de coût. La troisième contribution consiste à étudier les effets de gestion de cohérence sur la consommation d'énergie des systèmes de stockage distribués. Cette étude nous mène à analyser les gains potentiels des reconfigurations adaptatives des systèmes de stockage en matière de réduction de la consommation. Afin de compléter notre travail au niveau système, nous abordons la gestion de cohérence au niveau de l'application. Nous introduisons une approche pour la modélisation du comportement de l'application lors de ses accès aux données. Le modèle proposé facilite la compréhension des besoins en cohérence. De plus, ce modèle est utilisé afin de gérer la cohérence de manière spécifique à l'application lors de l'exécution. Des évaluations approfondies sur les plates-formes Grid'5000 et Amazon EC2 démontrent l'efficacité des approches proposées.
832

Étude théorique de la structure électronique des matériaux quasicristallins

Trambly De Laissardière, Guy 03 May 1996 (has links) (PDF)
Les Quasicristaux sont des solides ordonnés présentant une cohérence orientationnelle à longue distance sans périodicité de translation. Leurs propriétés électroniques sont spectaculaires. Par exemple, la phase AlPdRe présente une résistivité de semi-conducteur (> 10 Ohm.cm à 4 K), bien que sa densité d'états au niveau de Fermi soit environ 1/10 de celle de l'aluminium pur. Une étude numérique de plusieurs alliages intermétalliques à base d'aluminium et d'approximants réalistes de Quasicristaux a permis de dégager deux caractéristiques essentielles de leur structure électronique : un creusement important de la densité d'états au niveau de Fermi par rapport aux électrons libres, ce qui est attendu pour les alliages de Hume-Rothery, et une structure très piquée dans la densité d'états. Cette dernière propriété, spécifique des Quasicristaux, a été corrélée avec les propriétés de transport électroniques. Le rôle des métaux de transition a été étudié par une généralisation du modèle de l'état lié virtuel en tenant compte de la spécificité de ces alliages. Nous présentons, entre autre, une explication de la valence négative apparente des métaux de transition qui est évoquée depuis longtemps dans les intermétalliques. En outre, cette étude montre que les métaux de transition jouent un rôle important dans le creusement de la densité d'états au niveau de Fermi. Dans le cadre de la théorie de la diffusion, nous analysons le rôle de l'ordre atomique local sur la localisation des électrons. Cette étude, qui considère un agrégat atomique dans une matrice métallique, montre l'existence " d'états liés virtuels d'agrégats " qui peuvent expliquer la structure piquée de la densité d'états et sont cohérents avec la notion d'états critiques généralement considérés pour décrire le spectre électronique des pavages quasipériodiques. Cependant, la stabilité des agrégats n'est pas due à cette localisation car leur énergie structurale est la somme d'interaction de paires. Cela renforce l'image des Quasicristaux comme alliages de Hume-Rothery.
833

Calcul à une boucle avec plusieurs pattes externes dans les théories de jauge : la bibliothèque Golem95

Zidi, Mohamed Sadek 06 September 2013 (has links) (PDF)
Les calculs de précision dans les théories de jauge jouent un rôle très important pour l'étude de la physique du Modèle Standard et au-delà dans les super-collisionneurs de particules comme le LHC, TeVatron et ILC. Par conséquent, il est extrêmement important de fournir des outils du calcul d'amplitudes à une boucle stables, rapides, efficaces et hautement automatisés. Cette thèse a pour but de développer la bibliothèque d'intégrales Golem95. Cette bibliothèque est un programme écrit en Fortran95, qui contient tous les ingrédients nécessaires pour calculer une intégrale scalaire ou tensorielle à une boucle avec jusqu'à six pattes externes. Golem95 utilise une méthode traditionnelle de réduction (réduction à la Golem) qui réduit les facteurs de forme en des intégrales de base redondantes qui peuvent être scalaires (sans paramètres de Feynman au numérateur) ou tensorielles (avec des paramètres de Feynman au numérateur); ce formalisme permet d'éviter les problèmes de l'instabilité numérique engendrés par des singularités factices dues à l'annulation des déterminants de Gram. En plus, cette bibliothèque peut être interfacée avec des programmes du calcul automatique basés sur les méthodes d'unitarité comme GoSam par exemple. Les versions antérieures de Golem95 ont été conçues pour le calcul des amplitudes sans masses internes. Le but de ce travail de thèse est de généraliser cette bibliothèque pour les configurations les plus générales (les masses complexes sont incluses), et de fournir un calcul numériquement stable dans les régions problématique en donnant une représentation intégrale unidimensionnelle stable pour chaque intégrale de base de Golem95.
834

Modélisations de la dispersion du pollen et estimation à partir de marqueurs génétiques. / Modellings of pollen dispersal and estimation from genetic markers

Carpentier, Florence 29 June 2010 (has links)
La dispersion du pollen est une composante majeure des flux de gènes chez les plantes, contribuant à la diversité génétique et à sa structure spatiale. Son étude à l'échelle d'un épisode de reproduction permet de comprendre l'impact des changements actuels (fragmentation, anthropisation....) et de proposer des politiques de conservation. Deux types de méthodes basées sur les marqueurs microsatellites estiment la fonction de dispersion du pollen: (i) les méthodes directes (e.g. mating model) basées sur l'assignation de paternité et nécessitant un échantillonnage exhaustif (position et génotype des individus du site étudié, génotypes de graines échantillonnées sur des mères); (ii) les méthodes indirectes (e.g. TwoGener), nécessitant un échantillonnage réduit (génotypes des graines, génotypes et positions des mères) et résumant les données en indices génétiques. Nous proposons la formalisation statistique de ces deux types de méthodes et montrons qu'elles utilisent des fonctions de dispersion différentes: les méthodes directes estiment une fonction forward potentielle (déplacement du pollen depuis le père), les méthodes indirectes une fonction backward intégrative (de la fécondation jusqu'à l'existence du père). Nous explicitons le lien entre fonctions backward et forward, des hypothèses menant à leur équivalence, et des contraintes affectant les fonctions backward. Nous développons enfin une méthode de calcul bayésien approché qui permet (i) une estimation forward, (ii) avec des intervalles de crédibilité, (iii) à partir d'un jeu de données non exhaustif et d'informations partielles (e.g. positions sans génotype) et (iv) l'utilisation de différents modèles de dispersion. / Pollen dispersal is a major component of gene flow in plants. It determines to genetic diversity and spatial genetic structure.Studying it at the scale of a single reproduction event enables to understand the impact of current changes (fragmentation, anthropization ...) and to propose conservation practices.Two types of methods, based on microsatellite markers, estimate pollen dispersal functions : (i) direct methods (e.g. mating model) based on paternity assignment require exhaustif sampling (position and genotype of individuals in the study plot, genotypes of seeds harvested on mothers); (ii) indirect methods (e.g. TwoGener), require a weaker sampling (seeds genotypes, genotypes and positions of their mothers) and summarize data through genetic indices.We propose a statistical formalization of both types of methods and show that they rely on different dispersal functions : the direct methods estimate a potential forward function (pollen transfer from the father), whereas the indirect methods estimate an integrative backward one (from fecondation to father existence). We exhibit the link between forward and backward functions, assumptions leading to their equivalence and constrains affecting the backward functions.Finally, we develop an Approximate Bayesian Computation method, which enable (i) a forward estimation, (ii) with credibility intervals, (iii) from a non exhaustive dataset and partial information (e.g. positions without genotypes) and (iv) the use of different dispersal models.
835

On probability distributions of diffusions and financial models with non-globally smooth coefficients / Sur les lois de diffusions et de modèles financiers avec coefficients non globalement réguliers

De Marco, Stefano 23 November 2010 (has links)
Des travaux récents dans le domaine des mathématiques financières ont fait émerger l'importance de l'étude de la régularité et du comportement fin des queues de distribution pour certaines classes de diffusions à coefficients non globalement réguliers. Dans cette thèse, nous traitons des problèmes issus de ce contexte. Nous étudions d'abord l'existence, la régularité et l'asymptotique en espace de densités pour les solutions d'équations différentielles stochastiques en n'imposant que des conditions locales sur les coefficients de l'équation. Notre analyse se base sur les outils du calcul de Malliavin et sur des estimations pour les processus d'Ito confinés dans un tube autour d'une courbe déterministe. Nous obtenons des estimations significatives de la fonction de répartition et de la densité dans des classes de modèles comprenant des généralisations du CIR et du CEV et des modèles à volatilité locale-stochastique : dans ce deuxième cas, les estimations entraînent l'explosion des moments du sous-jacent et ont ainsi un impact sur le comportement asymptotique en strike de la volatilité implicite. La modélisation paramétrique de la surface de volatilité, à son tour, fait l'objet de la deuxième partie. Nous considérons le modèle SVI de J. Gatheral, en proposant une nouvelle stratégie de calibration quasi-explicite, dont nous illustrons les performances sur des données de marché. Ensuite, nous analysons la capacité du SVI à générer des approximations pour les smiles symétriques, en le généralisant à un modèle dépendant du temps. Nous en testons l'application à un modèle de Heston (sans et avec déplacement), en générant des approximations semi-fermées pour le smile de volatilité / Some recent works in the field of mathematical finance have brought new light on the importance of studying the regularity and the tail asymptotics of distributions for certain classes of diffusions with non-globally smooth coefficients. In this Ph.D. dissertation we deal with some issues in this framework. In a first part, we study the existence, smoothness and space asymptotics of densities for the solutions of stochastic differential equations assuming only local conditions on the coefficients of the equation. Our analysis is based on Malliavin calculus tools and on « tube estimates » for Ito processes, namely estimates for the probability that the trajectory of an Ito process remains close to a deterministic curve. We obtain significant estimates of densities and distribution functions in general classes of option pricing models, including generalisations of CIR and CEV processes and Local-Stochastic Volatility models. In the latter case, the estimates we derive have an impact on the moment explosion of the underlying price and, consequently, on the large-strike behaviour of the implied volatility. Parametric implied volatility modeling, in its turn, makes the object of the second part. In particular, we focus on J. Gatheral's SVI model, first proposing an effective quasi-explicit calibration procedure and displaying its performances on market data. Then, we analyse the capability of SVI to generate efficient approximations of symmetric smiles, building an explicit time-dependent parameterization. We provide and test the numerical application to the Heston model (without and with displacement), for which we generate semi-closed expressions of the smile
836

Optimisation Globale basée sur l'Analyse d'Intervalles : relaxation Affine et Limitation de la Mémoire / Global Optimization based on Interval Analysis : affine Relaxation and Limited Memory

Ninin, Jordan 08 December 2010 (has links)
Depuis une vingtaine d’années, la résolution de problèmes d’optimisation globale non convexes avec contraintes a connu un formidable essor. Les algorithmes de branch and bound basée sur l’analyse d’intervalles ont su trouver leur place, car ils ont l’avantage de prouver l’optimalité de la solution de façon déterministe, avec un niveau de certitude pouvant aller jusqu’à la précision machine. Cependant, la complexité exponentielle en temps et en mémoire de ces algorithmes induit une limite intrinsèque, c’est pourquoi il est toujours nécessaire d’améliorer les techniques actuelles. Dans cette thèse, nous avons développé de nouvelles arithmétiques basées sur l’arithmétique d’intervalles et l’arithmétique affine, afin de calculer des minorants et des majorants de meilleure qualité de fonctions explicites sur un intervalle. Nous avons ensuite développé une nouvelle méthode automatique de construction de relaxations linéaires. Cette construction est basée sur l’arithmétique affine et procède par surcharge des opérateurs. Les programmes linéaires ainsi générés ont exactement le même nombre de variables et de contraintes d’inégalité que les problèmes originaux, les contraintes d’égalité étant remplacées par deux inégalités. Cette nouvelle procédure permet de calculer des minorants fiables et des certificats d’infaisabilité pour chaque sous-domaine à chaque itération de notre algorithme de branch and bound par intervalles. De nombreux tests numériques issus du site COCONUT viennent confirmer l’efficacité de cette approche. Un autre aspect de cette thèse a été l’étude d’une extension de ce type d’algorithmes en introduisant une limite sur mémoire disponible. L’idée principale de cette approche est de proposer un processus inverse de l’optimisation par le biais d’un principe métaheuristique : plutôt que d’améliorer des solutions locales à l’aide de métaheuristiques telles que les algorithmes Taboo ou VNS, nous partons d’une méthode exacte et nous la modifions en une heuristique. De cette façon, la qualité de la solution trouvée peut être évaluée. Une étude de la complexité de ce principe métaheuristique a également été effectuée. Enfin, pour finir l’étude, nous avons appliqué notre algorithme à la résolution de problème en géométrie plane, ainsi qu’à la résolution d’un problème de dimensionnement de moteur électrique. Les résultats obtenus ont permis de confirmer l’intérêt de ce type d’algorithme, en résolvant des problèmes ouverts sur les polygones convexes et proposant des structures innovantes en génie électrique. / Since about thirty years, interval Branch and Bound algorithms are increasingly used to solve constrained global optimization problems in a deterministic way. Such algorithms are reliable, i.e., they provide an optimal solution and its value with guaranteed bounds on the error, or a proof that the problem under study is infeasible. Other approaches to global optimization, while useful and often less time-consuming than interval methods, do not provide such a guarantee. However, the exponential complexity in time and memory of interval Branch and Bound algorithms implies a limitation, so it is always necessary to improve these methods. In this thesis, we have developed new arithmetics based on interval arithmetic and affine arithmetic, to compute better lower and upper bounds of a factorable function over an interval. An automatic method for constructing linear relaxations of constrained global optimization problems is proposed. Such a construction is based on affine and interval arithmetics and uses operator overloading. These linear programs have exactly the same numbers of variables and of inequality constraints as the given problems. Each equality constraint is replaced by two inequalities. This new procedure for computing reliable bounds and certificates of infeasibility is inserted into a classical interval Branch and Bound algorithm. Extensive computation experiments, made on a sample of test problems from the COCONUT database, prove its effectiveness. Another aspect is the study of an extension of such a global optimization code by limiting the available memory. The main idea of this new kind of metaheuristique is to propose a reverse process of optimization via heuristics : rather than improving local solutions by using metaheuristics such as Taboo or VNS, we begin with an exact method and we modify it into a heuristic one. In such a way, the quality of the solution could be evaluated. Moreover, a study of the complexity of this metaheurisque has been done. Finally, we applied our algorithm to solve open problem in geometry, and to solve a design problem of an electric motor. The results have confirmed the usefulness of this kind of algorithms, solving open problems on convex polygons and offering innovative structures in electrical engineering.
837

Optimisation et approximation adiabatique

Renaud-Desjardins, Louis R.-D. 12 1900 (has links)
L'approximation adiabatique en mécanique quantique stipule que si un système quantique évolue assez lentement, alors il demeurera dans le même état propre. Récemment, une faille dans l'application de l'approximation adiabatique a été découverte. Les limites du théorème seront expliquées lors de sa dérivation. Ce mémoire à pour but d'optimiser la probabilité de se maintenir dans le même état propre connaissant le système initial, final et le temps d'évolution total. Cette contrainte sur le temps empêche le système d'être assez lent pour être adiabatique. Pour solutionner ce problème, une méthode variationnelle est utilisée. Cette méthode suppose connaître l'évolution optimale et y ajoute une petite variation. Par après, nous insérons cette variation dans l'équation de la probabilité d'être adiabatique et développons en série. Puisque la série est développée autour d'un optimum, le terme d'ordre un doit nécessairement être nul. Ceci devrait nous donner un critère sur l'évolution la plus adiabatique possible et permettre de la déterminer. Les systèmes quantiques dépendants du temps sont très complexes. Ainsi, nous commencerons par les systèmes ayant des énergies propres indépendantes du temps. Puis, les systèmes sans contrainte et avec des fonctions d'onde initiale et finale libres seront étudiés. / The adiabatic approximation in quantum mechanics states that if the Hamiltonian of a physical system evolves slowly enough, then it will remain in the instantaneous eigenstate related to the initial eigenstate. Recently, two researchers found an inconsistency in the application of the approximation. A discussion about the limit of this idea will be presented. Our goal is to optimize the probability to be in the instantaneous eigenstate related to the initial eigenstate knowing the initial and final system, with the total time of the experiment fixed to $T$. This last condition prevents us from being slow enough to use the adiabatic approximation. To solve this problem, we turn to the calculus of variation. We suppose the ideal evolution is known and we add a small variation to it. We take the result, put it in the probability to be adiabatic and expand in powers of the variation. The first order term must be zero. This enables us to derive a criterion which will give us conditions on the ideal Hamiltonian. Those conditions should define the ideal Hamiltonian. Time dependent quantum systems are very complicated. To simplify the problem, we will start by considering systems with time independent energies. Afterward, the general case will be treated.
838

Complexité raffinée du problème d'intersection d'automates

Blondin, Michael 01 1900 (has links)
Le problème d'intersection d'automates consiste à vérifier si plusieurs automates finis déterministes acceptent un mot en commun. Celui-ci est connu PSPACE-complet (resp. NL-complet) lorsque le nombre d'automates n'est pas borné (resp. borné par une constante). Dans ce mémoire, nous étudions la complexité du problème d'intersection d'automates pour plusieurs types de langages et d'automates tels les langages unaires, les automates à groupe (abélien), les langages commutatifs et les langages finis. Nous considérons plus particulièrement le cas où chacun des automates possède au plus un ou deux états finaux. Ces restrictions permettent d'établir des liens avec certains problèmes algébriques et d'obtenir une classification intéressante de problèmes d'intersection d'automates à l'intérieur de la classe P. Nous terminons notre étude en considérant brièvement le cas où le nombre d'automates est fixé. / The automata non emptiness intersection problem is to determine whether several deterministic finite automata accept a word in common. It is known to be PSPACE-complete (resp. NL-complete) whenever the number of automata is not bounded (resp. bounded by a constant). In this work, we study the complexity of the automata intersection problem for several types of languages and automata such as unary languages, (abelian) group automata, commutative languages and finite languages. We raise the issue of limiting the number of final states to at most two in the automata involved. This way, we obtain relationships with some algebraic problems and an interesting classification of automata intersection problems inside the class P. Finally, we briefly consider the bounded version of the automata intersection problem.
839

Parallel metaheuristics for stochastic capacitated multicommodity network design

Fu, Xiaorui January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
840

Effet d'une approche par le jeu sur l'apprentissage du répertoire mémorisé chez des élèves de deuxième année primaire

Juteau, Marie Christine January 2007 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.

Page generated in 0.0479 seconds