• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 853
  • 391
  • 303
  • 123
  • 66
  • 54
  • 26
  • 26
  • 25
  • 22
  • 21
  • 14
  • 13
  • 13
  • 10
  • Tagged with
  • 2179
  • 294
  • 226
  • 185
  • 169
  • 144
  • 133
  • 117
  • 117
  • 111
  • 105
  • 102
  • 98
  • 96
  • 94
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
551

An introduction to Multilevel Monte Carlo with applications to options.

Cronvald, Kristofer January 2019 (has links)
A standard problem in mathematical finance is the calculation of the price of some financial derivative such as various types of options. Since there exists analytical solutions in only a few cases it will often boil down to estimating the price with Monte Carlo simulation in conjunction with some numerical discretization scheme. The upside of using what we can call standard Monte Carlo is that it is relative straightforward to apply and can be used for a wide variety of problems. The downside is that it has a relatively slow convergence which means that the computational cost or complexity can be very large. However, this slow convergence can be improved upon by using Multilevel Monte Carlo instead of standard Monte Carlo. With this approach it is possible to reduce the computational complexity and cost of simulation considerably. The aim of this thesis is to introduce the reader to the Multilevel Monte Carlo method with applications to European and Asian call options in both the Black-Scholes-Merton (BSM) model and in the Heston model. To this end we first cover the necessary background material such as basic probability theory, estimators and some of their properties, the stochastic integral, stochastic processes and Ito’s theorem. We introduce stochastic differential equations and two numerical discretizations schemes, the Euler–Maruyama scheme and the Milstein scheme. We define strong and weak convergence and illustrate these concepts with examples. We also describe the standard Monte Carlo method and then the theory and implementation of Multilevel Monte Carlo. In the applications part we perform numerical experiments where we compare standard Monte Carlo to Multilevel Monte Carlo in conjunction with the Euler–Maruyama scheme and Milsteins scheme. In the case of a European call in the BSM model, using the Euler–Maruyama scheme, we achieved a cost O(ε-2(log ε)2) to reach the desired error in accordance with theory in comparison to the O(ε-3) cost for standard Monte Carlo. When using Milsteins scheme instead of the Euler–Maruyama scheme it was possible to reduce the cost in terms of the number of simulations needed to achieve the desired error even further. By using Milsteins scheme, a method with greater order of strong convergence than Euler–Maruyama, we achieved the O(ε-2) cost predicted by the complexity theorem compared to the standard Monte Carlo cost of order O(ε-3). In the final numerical experiment we applied the Multilevel Monte Carlo method together with the Euler–Maruyama scheme to an Asian call in the Heston model. In this case, where the coefficients of the Heston model do not satisfy a global Lipschitz condition, the study of strong or weak convergence is much harder. The numerical experiments suggested that the strong convergence was slightly slower compared to what was found in the case of a European call in the BSM model. Nevertheless, we still achieved substantial savings in computational cost compared to using standard Monte Carlo.
552

Tunneling under squeezing conditions : Effect of the excavation method / Comportement des tunnels profonds creusés dans des terrains poussants : Effet de la méthode de creusement

De la Fuente Mata, Manuel 19 November 2018 (has links)
L’excavation d’un tunnel profond dans des terrains poussants pose des difficultés particulières de conception et d’exécution. Ce type de terrain est caractérisé par des fortes convergences en paroi du tunnel de nature différée et souvent anisotrope. Le comportement d’un tunnel excavé en terrain poussant est très influencé par la technique d’excavation utilisée. Le cas d’étude du tunnel routier du Fréjus et de sa galerie de sécurité permet d’illustrer ce phénomène. Il s’agit de deux tunnels parallèles qui montrent une configuration très intéressante étant donné qu’ils traversent des conditions géotechniques similaires et qu’ils sont creusés avec des techniques d’excavation différentes : le tunnel routier a été creusé par méthode conventionnelle à l’explosif tandis que la galerie de sécurité a été creusée avec un tunnelier à bouclier simple. Les mesures d’auscultation réalisées pendant l’excavation des deux tunnels ont été analysées et comparées. Des modélisations numériques pour simuler la réponse des deux tunnels ont été développées avec le logiciel Flac3D. Le comportement du terrain est simulé avec un modèle visco-elasto-plastique et anisotrope. L’anisotropie liée à la schistosité du terrain est introduite dans le modèle par la présence de plans de faiblesse d’orientation donnée (ubiquitous joint model) insérés dans une matrice rocheuse caractérisée par un comportement visco-elasto-plastique isotrope. Une rétro-analyse a été réalisée sur les mesures de convergence obtenues lors du creusement du tunnel routier du Fréjus. Le comportement du terrain identifié dans le tunnel routier est ensuite extrapolé pour prédire la réponse de la galerie de sécurité. L’objectif est de reproduire l’état des contraintes observé dans les voussoirs de la galerie de sécurité et d’extrapoler les sollicitations à long terme. L’influence que la technique d’excavation, en particulier sur le comportement différé du terrain a été prise en compte dans les simulations numériques. On a mis en évidence que les déformations différées du terrain sont réduites lorsque l’excavation est réalisée au tunnelier.Par ailleurs, une synthèse critique de la méthode convergence-confinement et de ses variantes a été réalisée. Une discussion a été menée sur l’applicabilité des méthodes convergence-confinent quand elles sont utilisées pour le dimensionnement des tunnels circulaires excavés en section pleine avec l’installation d’un soutènement raide près du front d’excavation comme c’est le cas lors d’une excavation au tunnelier. Dans ce contexte, un ensemble de formules empiriques sont proposées. Elles permettent d’obtenir avec une bonne précision l’état d’équilibre entre le terrain et le soutènement et peuvent être utilisées dans la phase de pré-dimensionnement des ouvrages / During the excavation of deep tunnels, squeezing ground conditions are often encountered. The squeezing behavior of the ground is characterized by large time-dependent and usually anisotropic convergences that take place at the tunnel wall. The technique of excavation has a strong influence on the tunnel response when it is excavated under squeezing conditions. This phenomenon is illustrated throughout the case study of the Fréjus road tunnel excavated with conventional drill and blast methods and of its safety gallery excavated with a single shield tunneling boring machine. They exhibit a very interesting configuration of two tunnels excavated in parallel under the same geotechnical conditions but with different excavation techniques. Monitored geotechnical data from both tunnels are analyzed and compared. Numerical simulations of both tunnels have been carried out with Flac3D. An anisotropic creep model which includes weakness planes of given orientation embedded in a visco-elasto-plastic matrix has been used for describing the behavior of the ground. A back-analysis of convergence measurements of the Fréjus road tunnel has been carried out. The behavior of the ground identified from the Fréjus road tunnel is extrapolated to predict the response of the Fréjus safety gallery in terms of the stress state in the lining. The influence of the technique of excavation on the time-dependent parameters of the ground is taken into account in the computations and its effects are discussed. It is shown that the long term ground deformation are significantly reduced with TBM excavation as compared to traditional blast and drill method.Furthermore, the convergence-confinement methods are reviewed and their applicability is discussed when they are applied to full face circular tunnels excavated in rock masses with a stiff support system near the face. In this context, a set of empirical formula are proposed which allows to accurately predict the equilibrium state between the ground and the lining in circular tunnels excavated in full section. These formula are useful in the preliminary phase of tunnel design
553

Politique budgétaire procyclique, stabilisation conjoncturelle et croissance économique dans la zone Union Economique et Monétaire Ouest Africaine / Procyclical fiscal policy, economic stabilization and economic growth in the Economic and Monetary Union of West Africa area

Diop, Mamadou 20 December 2013 (has links)
Malgré les importants programmes économiques et financiers entrepris à la fin des années 80 et l’adoption du Pacte de convergence en 1999, les taux de croissance des Etats de l’UEMOA restent en deçà du niveau minimal de 7% requis pour la réalisation des Objectifs du Millénaire pour le Développement (OMD). Cette faiblesse du rythme de croissance conduit aujourd’hui à s’interroger sur l’efficacité des politiques économiques et en particulier, sur le rôle que devraient jouer les autorités publiques à travers la politique budgétaire. Nous analysons, à partir des données empiriques, le caractère procyclique de la politique budgétaire dans la zone UEMOA, en testant les éventuels retournements liés à l’adoption du Pacte de convergence. Ensuite, dans un deuxième temps, nous estimons à travers un modèle VAR structurel, l’impact dynamique des chocs budgétaires sur les fluctuations de l’activité économique des pays de l’UEMOA et leurs canaux de transmission. En dernier lieu, nous exposons d’abord les limites de l’approche utilisée par le FMI pour le calcul des contributions de la politique budgétaire à la croissance économique ; puis, nous proposons un modèle d’évaluation des effets de long terme de cette politique sur la croissance, tout en montrant les risques liés aux coupes budgétaires sur les investissements publics. Les résultats de cette thèse suggèrent l’adoption de règles budgétaires qui tiennent compte de la situation conjoncturelle de chaque pays, la rapidité dans l’action gouvernementale pour remédier à l’inertie des finances publiques et le renforcement des investissements publics productifs afin de mieux soutenir la croissance économique / Despite significant economic and financial programs undertaken in the late 80s and the adoption of the convergence Pact in 1999, the growth rate of Economic and Monetary Union of West Africa (EMUWA) countries remain below the minimum level of 7% required for the achievement of Millennium Development Goals (MDGs). This low growth rate now leads to questions about the effectiveness of economic policy and, in particular, on the role to be played by public authorities through fiscal policy. We analyze empirical data through, the procyclicality of fiscal policy in the EMUWA and we test the possible reversals related to the adoption of the convergence Pact. Then, in a second step, we estimate from a structural VAR model, the dynamic impact of fiscal shocks on fluctuations in the economic activity of the EMUWA countries and their transmission channels. Finally, we discuss the limitations of the approach used by the International Monetary Fund (IMF) to calculate the contributions of fiscal policy to economic growth; then, we propose an evaluation of the long-term effects of this policy model on growth, while showing the risks of cuts on public investment.The results of this thesis suggest the adoption of fiscal rules that take into account the economic situation of each country, the speed in government action to overcome the inertia of public finances and strengthening of productive public investments to better support economic growth
554

Développement d'un modèle particulaire pour la régression indirecte non paramétrique / Development of a particle-based model for nonparametric inverse regression

Naulet, Zacharie 08 November 2016 (has links)
Cette thèse porte sur les statistiques bayésiennes non paramétriques. La thèse est divisée en une introduction générale et trois parties traitant des aspects relativement différents des approches par mélanges (échantillonage, asymptotique, problème inverse). Dans les modèles de mélanges, le paramètre à inférer depuis les données est une fonction. On définit une distribution a priori sur un espace fonctionnel abstrait au travers d'une intégrale stochastique d'un noyau par rapport à une mesure aléatoire. Habituellement, les modèles de mélanges sont surtout utilisés dans les problèmes d'estimation de densités de probabilité. Une des contributions de ce manuscrit est d'élargir leur usage aux problèmes de régressions.Dans ce contexte, on est essentiellement concernés par les problèmes suivants:- Echantillonage de la distribution a posteriori- Propriétés asymptotiques de la distribution a posteriori- Problèmes inverses, et particulièrement l'estimation de la distribution de Wigner à partir de mesures de Tomographie Quantique Homodyne. / This dissertation deals with Bayesian nonparametric statistics, in particular nonparametric mixture models. The manuscript is divided into a general introduction and three parts on rather different aspects of mixtures approaches (sampling, asymptotic, inverse problem). In mixture models, the parameter to infer from the data is a function. We set a prior distribution on an abstract space of functions through a stochastic integral of a kernel with respect to a random measure. Usually, mixture models were used primilary in probability density function estimation problems. One of the contributions of the present manuscript is to use them in regression problems.In this context, we are essentially concerned with the following problems :- Sampling of the posterior distribution- Asymptotic properties of the posterior distribution- Inverse problems, in particular the estimation of the Wigner distribution from Quantum Homodyne Tomography measurements.
555

Asymptotique suramortie de la dynamique de Langevin et réduction de variance par repondération / Weak over-damped asymptotic and variance reduction

Xu, Yushun 18 February 2019 (has links)
Cette thèse est consacrée à l’étude de deux problèmes différents : l’asymptotique suramortie de la dynamique de Langevin d’une part, et l’étude d’une technique de réduction de variance dans une méthode de Monte Carlo par une repondération optimale des échantillons, d’autre part. Dans le premier problème, on montre la convergence en distribution de processus de Langevin dans l’asymptotique sur-amortie. La preuve repose sur la méthode classique des “fonctions test perturbées”, qui est utilisée pour montrer la tension dans l’espace des chemins, puis pour identifier la limite comme solution d’un problème de martingale. L’originalité du résultat tient aux hypothèses très faibles faites sur la régularité de l’énergie potentielle. Dans le deuxième problème, nous concevons des méthodes de réduction de la variance pour l’estimation de Monte Carlo d’une espérance de type E[φ(X, Y )], lorsque la distribution de X est exactement connue. L’idée générale est de donner à chaque échantillon un poids, de sorte que la distribution empirique pondérée qui en résulterait une marginale par rapport à la variable X aussi proche que possible de sa cible. Nous prouvons plusieurs résultats théoriques sur la méthode, en identifiant des régimes où la réduction de la variance est garantie. Nous montrons l’efficacité de la méthode en pratique, par des tests numériques qui comparent diverses variantes de notre méthode avec la méthode naïve et des techniques de variable de contrôle. La méthode est également illustrée pour une simulation d’équation différentielle stochastique de Langevin / This dissertation is devoted to studying two different problems: the over-damped asymp- totics of Langevin dynamics and a new variance reduction technique based on an optimal reweighting of samples.In the first problem, the convergence in distribution of Langevin processes in the over- damped asymptotic is proven. The proof relies on the classical perturbed test function (or corrector) method, which is used (i) to show tightness in path space, and (ii) to identify the extracted limit with a martingale problem. The result holds assuming the continuity of the gradient of the potential energy, and a mild control of the initial kinetic energy. In the second problem, we devise methods of variance reduction for the Monte Carlo estimation of an expectation of the type E [φ(X, Y )], when the distribution of X is exactly known. The key general idea is to give each individual sample a weight, so that the resulting weighted empirical distribution has a marginal with respect to the variable X as close as possible to its target. We prove several theoretical results on the method, identifying settings where the variance reduction is guaranteed, and also illustrate the use of the weighting method in Langevin stochastic differential equation. We perform numerical tests comparing the methods and demonstrating their efficiency
556

Emocionalita fanouškovské komunity seriálu Hra o trůny v éře konvergentní kultury / Emotionality of the Game of Thrones Fandom in the Era of Convergence Culture

Holá, Markéta January 2020 (has links)
This master's thesis deals with the topic of emotionality of the Game of Thrones fandom in the era of convergence culture. Game of Thrones, which had been on air since 2011 to 2019, became a hit show which gained millions of supporters and each new season was highly anticipated among public. During the course of all eight seasons, the show caused numerous heated controversies. Final season left both viewers and critics torn. This master's thesis is therefore interested in detecting and describing emotions of the Game of Thrones fan community during the time that the final season had been on air. Apart from emotionality, emphasis is also put on the characteristics of the show and its fandom. Reasearch was carried out online via the method of participant observation in six comments sections on the fan website Watchers on the Wall.com. Insomuch as fandom is connected to convergence culture, media convergence and audience participation, these topics are also covered. The term fandom is defined and the difference between audience and fandom is described. Last but not least, terms such as collective intelligence and knowledge community, which are also associated with fandom, are defined as well. All findings and the answers to research questions are then presented in the summary.
557

Homogenization of Rapidly Oscillating Riemannian Manifolds

Hoppe, Helmer 12 April 2021 (has links)
In this thesis we study the asymptotic behavior of bi-Lipschitz diffeomorphic weighted Riemannian manifolds with techniques from the theory of homogenization. To do so we re-interpret the problem as different induced metrics on one reference manifold. Our analysis is twofold. On the one hand we consider second-order uniformly elliptic operators on weighted Riemannian manifolds. They naturally emerge when studying spectral properties of the Laplace-Beltrami operator on families of manifolds with rapidly oscillating metrics. We appeal to the notion of H-convergence introduced by Murat and Tartar. In our first main result we establish an H-compactness result that applies to elliptic operators with measurable, uniformly elliptic coefficients on weighted Riemannian manifolds. We further discuss the special case of locally periodic coefficients and study the asymptotic spectral behavior of Euclidean submanifolds with rapidly oscillating geometry. On the other hand we study integral functionals featuring non-convex integrands with non-standard growth on the Euclidean space in a stochastic framework. Our second main result is a Γ-convergence statement under certain assumptions on the statistics of their integrands. Such functionals provide a tool to study the Dirichlet energy on non-uniformly bi-Lipschitz diffeomorphic manifolds. We show Mosco-convergence of the Dirichlet energy and deduce conditions for the spectral behavior of weighted Riemannian manifolds with locally oscillating random structure, especially in the case of Euclidean submanifolds.:Introduction Outline Notation I. Preliminaries 1. Convergence of Riemannian Manifolds 1.1. Hausdorff-Convergence 1.2. Gromov-Hausdorff-Convergence 1.3. Spectral Convergence 1.4. Mosco-Convergence 2. Homogenization 2.1. Periodic Homogenization 2.2. Stochastic Homogenization II. Uniformly bi-Lipschitz Diffeomorphic Manifolds 3. Uniformly Elliptic Operators on a Riemannian Manifold 3.1. Setting 3.2. Main Results 3.3. Strategy of the Proof and Auxiliary Results 3.4. Identi cation of the Limit via Local Coordinate Charts 3.5. Examples 3.6. Proofs 4. Application to Uniformly bi-Lipschitz Diffeomorphic Manifolds 4.1. Setting and Results 4.2. Examples 4.3. Proofs III. Rapidly Oscillating Random Manifolds 5. Integral Functionals with Non-Uniformal Growth 5.1. Setting 5.2. Main Results 5.3. Strategy of the Proof and Auxiliary Results 5.4. Proofs 6. Application to Rapidly Oscillating Riemannian Manifolds 6.1. Setting and Results 6.2. Examples 6.3. Proofs Summary and Discussion Bibliography List of Figures
558

Prise en compte des problèmes inter-métiers lors de l’introduction d’une innovation relative aux automatismes et systèmes d’information d’une entreprise : processus de spécification et de conception de l’offre / Consideration of inter-trades issues when introducing an innovation related to automation and information systems within an enterprise : integration to a specification and offer design process

Bonnetto, Émilie 06 December 2016 (has links)
Ce travail de thèse propose une démarche méthodologique pour caractériser et anticiper les perturbations organisationnelles dues à l’introduction d’un concept d’offre innovant dans un contexte « business to business ». Elle s’intéresse donc à des produits dont la mise en oeuvre induit conjointement une création de valeur pour le client et une modification des interrelations professionnelles entre métiers de cette entreprise cliente. L’enjeu est de concevoir des nouveaux produits ou services qui soient mieux acceptés par les clients internes des sociétés acheteuses par anticipation et intégration, dans la démarche de conception, de ces impacts. Les apports de cette recherche se positionnent à deux niveaux. D’une part, une démarche méthodologique est proposée. Elle s’intègre au processus de création de l’offre et permet de mieux décrire les opportunités de création de valeur induites par une meilleure définition des structures et attentes des acteurs des organisations clientes. Ces acteurs sont vus comme des individus mais aussi comme un réseau évolutif. D’autre part, une capitalisation des données recueillies auprès des clients est proposée. Ces dernières reposent sur une utilisation revisitée des concepts de « customers concerns » et de personas. Les informations recueillies et interprétées sont la base de nouveaux standards des cahiers des charges concepteurs. La première contribution, d’ordre méthodologique est appelée processus RACCP. Elle a été élaborée à partir d’un cas d’étude : la phase amont d’un processus de conception déployée chez un fournisseur d’automatisme industriel. Elle aide le concepteur à modéliser les évolutions induites par un concept d’offre sur le fonctionnement de tous les acteurs chez son client. Ceci est possible par l’utilisation conjointe de trois modèles opérationnels dès la phase amont d’un processus de conception : le modèle descriptif des problèmes clients, des profils d’acteurs associés à ces problèmes et une représentation des interrelations entre ces acteurs. La seconde contribution est constituée de l’ensemble des trois modèles opérationnels instanciés au cas de la convergence IT OT. Cet apport permet une meilleure compréhension des systèmes humains et techniques liés à ce contexte, riche en opportunités de création de valeur. Cette instanciation apporte également des premiers éléments de preuve d’efficacité du processus RACCP. / This thesis proposes a methodological approach to characterize and anticipate organizational disruptions due to the introduction of an innovative concept offer in a « business to business » context. Therefore, it concerns products whom implementation induced both value creation for the customer and a change of professional interrelationships between trades within the client company. The challenge is to design new products or services that are better accepted wihtin purchasing companies by anticipating and integrating these impacts into the design process. The contributions of this research are positioned at two levels. First, a methodological approach is proposed. It is integrated into the creative process of suppliers. It enables to better describe the value creation opportunities by a better definition of structures and expectations of actors within customer organizations. These actors are seen as individuals but also as a scalable network. Moreover, a capitalization of data collected from customers is proposed. It is based on an adapated use of "customers concerns" and personas concepts. The information collected and interpreted are the basis of new standards for designers’ specifications. The first methodological contribution is a process called RACCP. It was developed from a case study: the upstream phase of a design process used in an industrial automation supplier. It helps the designer to model the changes implied by an offer concept on the operations of all stakeholders within the client company. This is possible by the combined use of three operational models since the upstream phase of the design process: the descriptive model of customer pains, actors profiles involved in these pains and representation of the interrelationships between them. The second contribution consists of an instanciation of all these three operational models in the convergence IT OT context. This contribution enables a better understanding of human and technical systems related to this context, sources of high value creation opportunities. This instantiation also provides the first proof of RACCP process efficiency.
559

Méthodes asynchrones de décomposition de domaine pour le calcul massivement parallèle / Asynchronous domain decomposition methods for massively parallel computing

Gbikpi benissan, Tete guillaume 18 December 2017 (has links)
Une large classe de méthodes numériques possède une propriété d’échelonnabilité connue comme étant la loi d’Amdahl. Elle constitue l’inconvénient majeur limitatif du calcul parallèle, en ce sens qu’elle établit une borne supérieure sur le nombre d’unités de traitement parallèles qui peuvent être utilisées pour accélérer un calcul. Des activités de recherche sont donc largement conduites à la fois sur les plans mathématiques et informatiques, pour repousser cette limite afin d’être en mesure de tirer le maximum des machines parallèles. Les méthodes de décomposition de domaine introduisent une approche naturelle et optimale pour résoudre de larges problèmes numériques de façon distribuée. Elles consistent en la division du domaine géométrique sur lequel une équation est définie, puis le traitement itératif de chaque sous-domaine, séparément, tout en assurant la continuité de la solution et de sa dérivée sur leur interface de jointure. Dans le présent travail, nous étudions la suppression de la limite d’accélération en appliquant des itérations asynchrones dans différents cadres de décomposition, à la fois de domaines spatiaux et temporels. Nous couvrons plusieurs aspects du développement d’algorithmes asynchrones, de l’analyse théorique de convergence à la mise en oeuvre effective. Nous aboutissons ainsi à des méthodes asynchrones efficaces pour la décomposition de domaine, ainsi qu’à une nouvelle bibliothèque de communication pour l’expérimentation asynchrone rapide d’applications scientifiques existantes. / An important class of numerical methods features a scalability property well known as the Amdahl’s law, which constitutes the main limiting drawback of parallel computing, as it establishes an upper bound on the number of parallel processing units that can be used to speed a computation up. Extensive research activities are therefore conducted on both mathematical and computer science aspects to increase this bound, in order to be able to squeeze the most out of parallel machines. Domain decomposition methods introduce a natural and optimal approach to solve large numerical problems in a distributed way. They consist in dividing the geometrical domain on which an equation is defined, then iteratively processing each sub-domain separately, while ensuring the continuity of the solution and of its derivative across the junction interface between them. In the present work, we investigate the removal of the scalability bound by the application of the asynchronous iterations theory in various decomposition frameworks, both for space and time domains. We cover various aspects of the development of asynchronous iterative algorithms, from theoretical convergence analysis to effective parallel implementation. Efficient asynchronous domain decomposition methods are thus successfully designed, as well as a new communication library for the quick asynchronous experimentation of existing scientific applications.
560

Contribution to High Performance Computing and Big Data Infrastructure Convergence / Contribution à la convergence d'infrastructure entre le calcul haute performance et le traitement de données à large échelle

Mercier, Michael 01 July 2019 (has links)
La quantité de données produites dans le monde scientifique comme dans le monde commercial, est en constante augmentation. Le domaine du traitement de donnée à large échelle, appelé “Big Data”, a été inventé pour traiter des données sur de larges infrastructures informatiques distribuées. Mais l’intégration de système Big Data sur des machines de calcul intensif pose de nombreux problèmes. En effet, les gestionnaires de ressources ainsi que les systèmes de fichier de super calculateurs ne sont pas penser pour ce type de travail. Le sujet de cette thèse est de trouver la meilleure approche pour faire interagir ces deux gestionnaires de ressources et de traiter les différents problèmes soulevés par les mouvements de données et leur ordonnancement. / The amount of data produced, either in the scientific community and the commercial world, is constantly growing. The field of Big Data has emerged to handle a large amount of data on distributed computing infrastructures. High-Performance Computer (HPC) infrastructures are made for intensive parallel computations. The HPC community is also facing more and more data because of new high definition sensors and large physics apparatus. The convergence of the two fields is currently happening. In fact, the HPC community is already using Big Data tools, but they are not integrated correctly, especially at the level of the file system and the Resources and Job Management System (RJMS).In order to understand how we can leverage HPC clusters for Big Data usage, and what are the challenges for the HPC infrastructures, we have studied multiple aspects of the convergence: we have made a survey on the software provisioning methods, with a focus on data-intensive applications. We also propose a new RJMS collaboration technique called BeBiDa which is based on 50 lines of code whereas similar solutions use at least 1000x more. We evaluate this mechanismon real conditions and in a simulation with our simulator Batsim.

Page generated in 0.0816 seconds