• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 10
  • 1
  • Tagged with
  • 40
  • 14
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

La dépendance entre le marché financier et le marché de matières premières : une approche copule / Dependence between financial and equity markets : a copula approach

Soury, Manel 14 May 2018 (has links)
Cette thèse de doctorat est composée de trois chapitres, un article et deux papiers et est principalement liée au domaine de l’économétrie financière empirique. Elle analyse la dépendance et le lien entre les marchés financiers et les marchés de matières premières, en particulier celui de l’énergie. Les distributions et corrélations des variables appartenant aux deux marchés sont étudiées afin de déterminer leurs effets les uns sur les autres et d’analyser leurs tendances pour donner un meilleur aperçu de leurs comportements vis-à-vis des crises et des événements brusques en économie. Ces variables sont représentées par certains indices financiers (SP500, Euro stoxx 50, Msci China) ainsi que par les principaux indices de matières premières (SP GSCI, Brent Oil,Gaz naturel, Metaux precieux). Nous choisissons de modéliser leur corrélation dans le temps et de prendre en compte la non-linéarité et l’instabilité qui peuvent les affecter. Pour cela, l’approche fonction copule a été employée pour modéliser d’une manière efficace leurs distributions. Dans le premier chapitre, nous examinons la dépendance et les co-mouvements entre les prix des émissions de dioxyde de carbone et les indices énergétiques comme le charbon, le gaz naturel, le Brent oil et l’indice énergétique global. Le deuxième chapitre analyse les interactions et relations entre le marché pétrolier et deux principaux marchés financiers en Europe et aux États-Unis représentés par l’Euro stoxx 50 et le SP500. Dans le dernier chapitre, on analyse la dépendance multivariée entre les indices de matière première de différents secteurs avec des indices financiers en utilisant le modèle de la copule Regular Vine. / This Ph.D. thesis is composed by three chapters and is mainly related to theempirical financial econometrics field. It analysis the dependence and correlationbetween the financial markets and the commodity markets specially energy.Variables from both markets are studied to determine their effects on each othersand to analyse their trends to giva a better insight to their co-movements.These variables are represented by some of the major equities (SP500, Eurostoxx 50, Msci China) as well as major commodities indices (SP GSCI commodity,Brent Oil, Natural Gas, Precious metals). We choose to model theircorrelation dynamically and take into account any non-linearity and stylisedfacts into the nature of their dependencies. For that, the copula approach wasused to model efficiently the correlated joint distributions of the studied variables.In the first paper, we examine the dependence and co-movements between theprices of the carbon dioxide emissions and energy commodities (coal, naturalgas, Brent oil and SP GSCI energy index). The dependence between thereturns was modeled by a particular class of dynamic copula, the StochasticAutoregressive Copula (SCAR). The second chapter analysis the interactions and co-movements between the oilmarket and two major stock markets in Europe and the US (the Euro stoxx 50and the SP500). Both the dynamic and the markov (regime switching) copulawere chosen to better understand the link between the two. In The last paper, I study the multivariate dependence between commoditiesfrom different sectors with some major equities using the Regular Vine copula model.
2

Stroboscopie et moyennisation dans les équations différentielles fonctionnelles à retard

Lakrib, Mustapha 12 November 2004 (has links) (PDF)
Cette thèse concerne les équations différentielles fonctionnelles à retard. Son objectif est d'étendre la technique de stroboscopie initialement élaborée dans le cadre des équations différentielles ordinaires, puis de présenter une approche nouvelle dans la justification de la méthode de moyennisation basée sur ladite technique. Dans un premier temps, nous proposons une formulation adaptée de la technique de stroboscopie originale que nous appliquons pour montrer des résultats de moyennisation pour des équations qui se ramènent à la forme dite normale. Dans un second temps, nous commençons par étendre aux cas des équations différentielles fonctionnelles à retard, et de manière naturelle, la technique de stroboscopie proposée. Nous l'utilisons ensuite pour étendre les résultats de moyennisation aux équations rapidement oscillantes. Les résultats sur la moyennisation obtenus dans cette thèse généralisent ceux de la littérature existante.
3

Lois stables et processus ponctuels :liens et estimation des paramètres

Liu, Shuyan 10 December 2009 (has links) (PDF)
L'objectif de cette thèse est d'étendre une méthode d'estimation des paramètres d'une loi stable dans Rd aux lois à queue régulière dans un cône arbitraire. La méthode d'échantillonnage par paquets est modifiée afin d'optimiser la vitesse de convergence des estimateurs. Un nouvel estimateur de la masse totale de mesure spectrale est proposé. Des résultats sur les statistiques d'ordre des lois à queue régulière dans un cône et la loi des grands nombres pour le schéma triangulaire sont établis. La consistance et la normalité asymptotique des estimateurs sont démontrées. La performance des estimateurs est étudiée par simulation. On compare ces estimateurs avec quelques estimateurs connus. Les tableaux de performance sont fournis. La méthode de noyau est utilisée pour estimer la densité d'une mesure spectrale absolument continue d'une loi à queue régulière. On prouve la consistance de l'estimateur dans notre cas particulier. Pour augmenter le nombre de points utilisés dans l'échantillon, on propose une méthode d'estimation utilisant les permutations aléatoires de l'échantillon. La variation régulière a la propriété d'être préservée par plusieurs opérations et transformations. On considère trois sortes de transformations. Des conditions suffisantes pour cette préservation sont proposées et quelques contre-exemples sont présentés. Les modèles de lois stables et de lois à queue lourde sont très utilisés dans plusieurs domaines d'application. On considère deux jeux de données réelles : les cours des 30 valeurs de l'indice DJIA et les perturbations planétaires des comètes du nuage de Oort. En appliquant la méthode d'estimation présentée on obtient des descriptions statistiques de ces données.
4

Traitement générique des interactions haptiques pour l'assemblage d'objets issus de CAO

Tching, Loïc 04 February 2010 (has links) (PDF)
La simulation d'assemblage CAO en environnement virtuel donne une nouvelle dimension au développement rapide et à moindre coût d'un produit, en permettant de travailler collaborativement autour de la maquette numérique. L'interaction entre l'utilisateur et la simulation suppose que les modèles mécaniques utilisés soient conformes à la réalité, dans la mesure où les résultats de la simulation doivent être proches du comportement des objets matériels réels. Dans cette thèse, nous nous sommes intéressé au traitement des interactions entre objets 3D, dans le cadre spécifique des assemblages haptiques. L'objectif de la thèse est d'étudier les différents modes de dynamique applicables dans les simulations d'assemblage CAO. Ce domaine de recherche comporte plusieurs verrous technologiques et scientifiques concernant le couplage des interfaces haptiques avec des moteurs de simulation dynamique. La contrainte de temps interactif, très restrictive, impose à toutes méthodes dynamiques de détecter des collisions et calculer des efforts de contact de manière très rapide et avec des critères forts de stabilité mécanique. Dans ce contexte, nous proposons d'appliquer les technologies de l'interaction haptique, pour la réalisation d'assemblages mécaniques issus de la CAO. Parmi les nombreux facteurs qui influencent le degré de réalisme d'une simulation interactive d'assemblage, nous nous concentrons sur le réalisme des comportements physiques des objets 3D simulés ainsi que sur les performances de l'utilisateur dans la réalisation de tâches d'assemblage. Dans le cadre précis des simulations haptiques, nous proposons de traiter simultanément ces deux facteurs. Au sein d'une même simulation d'assemblage, l'utilisateur doit pouvoir percevoir des comportements dynamiques réalistes lors d'interactions élémentaires avec l'environnement virtuel, ainsi que pouvoir réaliser des tâches d'A/D de manière efficace. Dans les simulations d'assemblage, nous avons identifié deux phases de manipulation où le traitement dynamique des contacts peut être réalisé~: soit de manière contrainte pour aider les utilisateurs à positionner des objets dans l'espace, soit de manière non contrainte pour obtenir un rendu haptique réaliste des interactions. L'approche proposée consiste donc à séparer les interactions liées à l'exploration des scènes haptique, des interactions liées aux assemblages. Au sein d'une même simulation d'assemblage, nous proposons d'utiliser des modèles de traitement dynamique non contraint pour les phases exploratoires et l'utilisation de modèles de dynamique contrainte pour réaliser les assemblage haptiquement. Dans une première contribution, nous proposons de baser la simulation haptique sur une modélisation rigoureuse de la mécanique~: pour rendre compte de comportements réalistes des objets, nous utilisons les méthodes de dynamique non régulière, et particulièrement des approches de non smooth contact dynamics (NSCD). Dans une deuxième contribution, nous proposons d'identifier les différentes étapes qui composent l'assemblage interactif, pour assister l'utilisateur dans la réalisation de tâches de montage et de démontage. Cette assistance consiste en un guidage virtuel des objets, qui contraint géométriquement et cinématiquement les mouvements des objets à assembler. Nous présentons une nouvelle méthode de guidage, baptisée guidage virtuel contraint, qui applique des contraintes cinématiques aux objets, en fonction des tâches à réaliser. La transition entre le mode exploratoire, géré par dynamique non contrainte et le mode assemblage, géré par dynamique contrainte, est assuré par un guidage géométrique inspiré des virtual fixtures, qui constitue une troisième contribution.
5

Modélisation du comportement mécanique par éléments discrets des ouvrages maçonnés tridimensionnels. Contribution à la définition d'éléments de contacts surfaciques.

Perales, Robert 16 September 2007 (has links) (PDF)
Cette thèse concerne la modélisation d'ouvrages maçonnés tridimensionnels en grand appareil, précontraints ou comportant un grand nombre de blocs. Ces structures sont des constructions en gros blocs de pierre, éventuellement liés par des joints de mortier, dont les géométries tridimensionnelles ne permettent généralement pas la définition d'un volume élémentaire représentatif. Le comportement mécanique de ces édifices ou structures, peut être étudié par des méthodes qui considèrent le comportement des blocs et leurs interactions avec des blocs voisins, par frottement sec ou en présence de mortier cohésif. Nous avons donc choisi de les modéliser par la méthode des éléments discrets Non Smooth Contact Dynamics. Les monuments étudiés sont des structures en pierres massives, simple appareil régulier (mur) ou irrégulier (pont Julien) et structures précontraintes (escalier, coupôle). D'une part, un nouvel algorithme de détection des contacts a été développé pour gérer les contacts surfaciques, spécifiques aux maçonneries. Diverses applications sur des cas réels, et des comparaisons avec des expériences issues de la littérature, ont montré la robustesse de l'algorithme. Les résultats obtenus par l'analyse des descentes de charges sont cohérents avec les caractères physiques et géométriques des ouvrages considérés. D'autre part, les liaisons de contact conduisent souvent à un problème statiquement indéterminé au niveau local. Nous avons proposé une méthode de résolution qui traite simulatnément tous les noeuds d'une liaison plane. L'étude sur des cas académiques a permis de tester la pertinence de la méthode. Une comparaison a été faite avec la méthode de résolution existante, implémentée dans le code LMGC90.
6

Analyse statistique d'expériences simulées : Modélisation adaptative de réponses non régulières par krigeage et plans d'expériences, Application à la quantification des incertitudes en ingénierie des réservoirs pétroliers

Scheidt, Céline 25 September 2006 (has links) (PDF)
La quantification des incertitudes est essentielle à la bonne maîtrise de la production des réservoirs pétroliers. Ce problème est complexe car l'impact des paramètres incertains sur la production est souvent non-régulier. Du fait du coût important d'une simulation numérique d'écoulement, les méthodes traditionnelles d'analyse de risque sont basées sur un modèle approché du modèle d'écoulement. Ce modèle, construit à partir de plans d'expériences supposant un comportement polynomial de la réponse, ignore les non-régularités. L'objectif de cette thèse est la mise en place d'un formalisme de modélisation de réponses non-régulières. Nous proposons de construire des plans évolutifs afin d'intégrer graduellement les non-régularités. Cette approche est inspirée conjointement de méthodes géostatistiques et de plans d'expériences. En partant d'une surface de réponse initiale, la méthodologie consiste à déterminer itérativement de nouvelles simulations afin d'enrichir le dispositif expérimental et ainsi améliorer l'approximation de la réponse. Différents critères d'ajout de simulations sont proposés. Nous préconisons l'intégration de l'information apportée par les extrema et les points de dérivée partielle nulle de l'approximation. De plus, l'ajout d'information fictive par points pilotes permet une optimisation de la prédictivité de l'approximation ainsi que la détermination de nouveaux points candidats à la simulation. Cette méthodologie originale d'ajustement de surfaces complexes a montré son efficacité, en terme de modélisation comme en terme de réduction du nombre de simulations, notamment pour une quantification d'incertitudes pour deux cas de réservoir pétrolier.
7

Propositions pour une modélisation de la polysémie régulière des noms d'affect / Proposals for the analysis of regular polysemy in affect nouns

Goossens, Vannina 17 November 2011 (has links)
Cette thèse aborde l'étude de la structuration sémantique de la classe des noms abstraits, appréhendée sous l'angle de l'analysede leurs variations sémantiques régulières. La problématique qui sous-tend cette recherche est la suivante : de quelle façon les mécanismes de variation sémantique régulière permettent-ils d'appréhender la structure du lexique et en particulier celle des noms abstraits ? Cette problématique est abordée par l'étude de cas d'un sous-ensemble de noms abstraits : les noms d'affect. L'analyse des variations interprétatives régulières de ces noms se fonde sur une vaste étude de corpus. Le premier objectif est descriptif : nous mettrons en évidence les contraintes morpho-syntaxiques et sémantiques qui pèsent sur ces variations interprétatives et de nous déterminerons leur statut lexical. Le second objectif est explicatif : nous montrerons qu'il est possible de mettre en évidence des éléments sémantiques propres à expliquer la possibilité ou l'impossibilité de véhiculer une ou plusieurs variations interprétatives. Le dernier objectif est théorique : nous proposerons une réflexion sur la notion de polysémie régulière. Nous montrerons qu'il existe différents mécanismes de variation sémantique régulière qui ne peuvent pas recevoir un traitementidentique. / In this dissertation we study the semantic structure of the category of abstract nouns through the analysis of their regular semantic variations. The research questions underpinning this study are the following: how do the mechanisms of regular semantic variation allow us to apprehend the structure of the lexicon and of the abstract nouns in particular? We tackle these issues through the analysis of a subset of abstract nouns: the affect nouns. The observation of the regular interpretative variations of these nouns is based on a vast corpus study. The primary goal is descriptive: we will underline the morpho-syntactic and semantic constraints which weigh on these interpretative variations and determine their lexical status. The second goal is explanatory: we will show that it is possible to highlight certain semantic elements suitable to explain the possibility or impossibility of conveying one or more interpretative variations. The last goal is theoretical: we will discuss the concept of regular polysemy. We will show that there are various mechanisms of regular semantic variation at work which cannot receive an identical processing.
8

Une méthode de prolongement régulier pour la simulation d'écoulements fluide/particules / A smooth extension method for the simulation of fluid/particles flows

Fabrèges, Benoit 06 December 2012 (has links)
Nous étudions dans ce travail une méthode de type éléments finis dans le but de simuler le mouvement de particules rigides immergées. La méthode développée ici est une méthode de type domaine fictif. L'idée est de chercher un prolongement régulier de la solution exacte à tout le domaine fictif afin d'obtenir une solution régulière sur tout le domaine et retrouver l'ordre optimal de l'erreur avec des éléments d'ordre 1. Le prolongement régulier est cherché en minimisant une fonctionnelle dont le gradient est donné par la solution d'un nouveau problème fluide faisant intervenir une distribution simple couche dans le second membre. Nous faisons une analyse numérique, dans le cas scalaire, de l'approximation de cette distribution par une combinaison de masse de Dirac. Un des avantages de cette méthode est de pouvoir utiliser des solveurs rapides sur maillages cartésiens tout en conservant l'ordre optimal de l'erreur. Un autre avantage de la méthode vient du fait que les opérateurs ne sont pas modifiés, seul les seconds membres dépendent de la géométrie du domaine initial. Nous avons de plus écrit un code C++ parallèle en deux et trois dimensions, permettant de simuler des écoulements fluide/particules rigides avec cette méthode. Nous présentons ainsi une description des principales composantes de ce code. / In this work, we study a finite element method in order to simulate the motion of immersed rigid bodies. This method is of the fictitious domain type. The idea is to look for a smooth extension in the whole domain of the exact solution and to recover the optimal order obtain with a conformal mesh. This smooth extension is sought by minimizing a functional whose gradient is the solution of another fluid problem with a single layer distribution as a right hand side. We make the numerical analysis, in the scalar case, of the approximation of this distribution by a sum of Dirac masses. One of the advantage of this method is to be able to use fast solvers on cartesian mesh while recovering the optimal order of the error. Another advantage of this method is that the operators are not modified at all. Only the right hand side depends on the geometry of the original problem. We write a parallel C++ code in two and three dimensions that simulate fluid/rigid bodies flows with this method. We present the core blocks of this code to show how it works.
9

Mécanismes de transports dans la fissuration des matériaux hétérogènes : application à la durée de vie d’exploitation des centrales nucléaires / Taking into account the transport machanisms in the fracture of heterogeneous materials : application to the nuclear power plant aging

Bichet, Lionel 30 January 2017 (has links)
Les propriétés du béton constituant les enceintes de confinement des centrales électronucléaires évoluent sous les effets de mécanismes de vieillissement résultant notamment de transferts couplés de chaleur et de masse au sein du matériau. Ces phénomènes peuvent être modélisés par des équations de transports moyennées : lois de Fick pour le transport d’espèces en solution et lois de Fourier pour la description de la diffusion thermique. Dans cette étude, les développements concernent la diffusion de la thermique dans un milieu hétérogène fissuré représentant un matériau cimentaire dégradé chimiquement. Le problème thermo-mécanique est traité à l'aide d'une approche multi-corps reliés par des lois d’interactions enrichies (zones cohésives). La diffusion thermique est écrite dans le formalisme cohésif-volumique en prenant en compte le couplage entre un état d'endommagement local de la zone cohésive et une conductivité homogénéisée. Afin d'optimiser les coûts de calculs, une étude est menée sur la dimension d'un volume élémentaire représentatif (VER). Pour cela, la méthode d'eigenerosion est étendue à la fissuration de milieux hétérogènes puis appliquée aux milieux cimentaires. La propagation de fissures sous chargement thermique est ensuite analysée dans des VERs de béton dégradés représentatifs des enceintes de confinement des centrales nucléaires après plusieurs années. Le vieillissement est modélisé par un taux de pré-dégradation initial entre le mortier et les granulats. Le développement de multi-fissures est relié au taux de pré-dégradation et la formation "d'écrans" à la diffusion de la thermique est mise en avant. / During their confinement in a nuclear power plant, the mechanical properties of the constitutive materials of concrete change as a result of ageing. This is due to the transportation of chemical species at the microscopic level of the media. Firstly, this can be modelled with average equations. The Fick laws represent the evolution of chemical diffusion and the Fourier laws, the transportation of heat at a mesoscopic level. In this research, we will consider thermal evolution on a fractured media.This thermomechanical problem is solved with a staggered method. The mechanical contribution used an approach based on multi-bodies system linked with cohesive zone models. The thermal problem is based on the approximation of the heat transfer equation at the cohesive interface. This approach has been implemented and validated. The description of the heat trough the interface is composed with the definition of an homogenised conductivity and the local damage parameter. In order to optimize the computational cost with a good agreement of the crack propagation, a criterion is proposed for sizing a representative elementary volume (REV). The eigenerosion method is used, validated and extended to heterogeneous media. Two studies are carried out on the morphological properties on a cementious media. As a result of those studies, a minimal size for a REV is defined.Crack spread under thermal loads are investigated on a media representing the concrete of the containment of a nuclear power station. The ageing effect are taken into account as an initial damage between the mortar and the aggregates. These parameters are expressed in terms of rate of initial damage. A study is proposed for different values of this rate. As assumed, the development of multi-cracks is linked with the rate of initial damage and the creation of thermal border is proposed.
10

Sur la compilation des langages de requêtes pour le web des données : optimisation et évaluation distribuée de SPARQL / On the foundations for the compilation of web data queries : optimization and distributed evaluation of SPARQL

Jachiet, Louis 13 September 2018 (has links)
Ma thèse porte sur la compilation des langages de requêtes orientés web des données. Plus particulièrement, ma thèse s'intéresse à l'analyse, l'optimisation et l'évaluation distribuée d'un tel langage : SPARQL. Ma contribution principale est l'élaboration d'une méthode nouvelle particulièrement intéressante pour des requêtes contenant de la récursion ou dans le cadre d'une évaluation distribuée. Cette nouvelle méthode s'appuie sur un nouvel outil que nous introduisons : la μ-algèbre. C'est une variation de l'algèbre relationnelle équipée d'un opérateur de point fixe. Nous présentons sa syntaxe et sémantique ainsi qu'une traduction vers la μ-algèbre depuis SPARQL avec Property Paths (une fonctionnalité introduite dans le dernier standard SPARQL qui autorise une forme de récursion).Nous présentons ensuite un système de types et nous montrons comment les termes de la μ-algèbre peuvent être réécrits en d'autres termes (de sémantique équivalente) en utilisant soit des règles de réécriture provenant de l'algèbre relationnelle soit des règles nouvelles, spécifiques à la μ-algèbre. Nous démontrons la correction des nouvelles règles qui sont introduites pour réécrire les points fixes : elles permettent de pousser les filtres, les jointures ou les projections à l'intérieur des points fixes (dépendant des certaines conditions sur le terme).Nous présentons ensuite comment ces termes peuvent être évalués, d'abord de manière générale, puis en considérant le cas particulier d'une évaluation sur une plateforme distribuée. Nous présentons aussi un modèle de coût pour l'évaluation des termes. À l'aide du modèle de coût et de l'évaluateur, plusieurs termes qui sont équivalents d'un point de vue sémantiques peuvent maintenant être vus comme différentes manières d'évaluer les termes avec différents coûts estimés. Nous montrons alors que les termes qui sont considérés grâce aux nouvelles règles de réécritures que nous avons introduites, permettent une exécution plus efficace que ce qui était possible dans les autres approches existantes. Nous confirmons ce résultat théorique par une expérimentation comparant plusieurs exécuteurs sur des requêtes SPARQL contenant de la récursion.Nous avons investigué comment utiliser une plateforme de calcul distribuée (Apache Spark) pour produire un évaluateur efficace de requêtes SPARQL. Cet évaluateur s'appuie sur un fragment de la μ-algèbre, limité aux opérateurs qui ont une traduction en code Spark efficace. Le résultat de ces investigations à résultat en l'implémentation de SPARQLGX, un évaluateur SPARQL distribué en pointe par rapport à l'état de l'art.Pour finir, ma dernière contribution concerne l'estimation de la cardinalité des solutions à un terme de la μ-algèbre. Ces estimateurs sont particulièrement utiles pour l'optimisation. En effet, les modèles de coût reposent généralement sur de telles estimations pour choisir quel sera le terme le plus efficace parmi plusieurs termes équivalents. Pour cette estimation nous nous intéressons tout particulièrement au fragment conjonctif de la μ-algèbre (ce qui correspond au fragment bien connu Basic Graph Pattern de SPARQL). Notre nouvelle estimation de cardinalité s'appuie sur des statistiques sur les données et a été implémenté dans SPARQLGX. Nos expériences montrent que cette méthode permet de grandement accélérer l'évaluation de SPARQL sur SPARQLGX. / The topic of my PhD is the compilation of web data query languages. More particularly, the analysisand the distributed evaluation of a such language: SPARQL. My main contributions concern theevaluation of web data queries especially for recursive queries or for distributed settings.In this thesis, I introduce μ-algebra: it is a kind of relational algebra equipped with a fixpointoperator. I present its syntax, semantics, and a translation from SPARQL with Property Paths (anew feature of SPARQL allowing some form of recursion) to this μ-algebra.I then present a type system and show how μ-algebra terms can be rewritten to terms withequivalent semantics using either classical rewrite rules of the relational world or new rules that arespecific to this μ-algebra. We demonstrate the correctness of these new rules that are introduced tohandle the rewriting of fixpoints: they allow to push filters, joins and projections inside fixpointsor to combine several fixpoints (when some condition holds).I demonstrate how these terms could be evaluated both from a general perspective and in thespecific case of a distributed evaluation. I devise a cost model for μ-algebra terms inspired by thisevaluation. With this cost model and this evaluator, several terms that are semantically equivalentcan be seen as various Query Execution Plans (QEP) for a given query. I show that the μ-algebraand its rewrite rules allow the reach of QEP that are more efficient than all QEP considered in otherexisting approaches and confirm this by an experimental comparison of several query evaluators onSPARQL queries with recursion.I investigate the use of an efficient distributed framework (Spark) to build a fast SPARQL dis-tributed query evaluator. It is based on a fragment of μ-algebra, limited to operators that havea translation into fast Spark code. The result of this has been used to implement SPARQLGX, astate of the art distributed SPARQL query evaluator.Finally, my last contribution concerns the estimation of the cardinality of solutions to a μ-algebraterm. Such estimators are key in the optimization. Indeed, most cost models for QEP rely on suchestimators and are therefore necessary to determine the most efficient QEP. I specifically considerthe conjunctive query fragment of μ-algebra (which corresponds to the well-known Basic GraphPattern fragment of SPARQL). I propose a new cardinality estimation based on statistics about thedata and implemented the method into SPARQLGX. Experiments show that this method improvesthe performance of SPARQLGX.

Page generated in 0.0252 seconds