• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 255
  • 138
  • 34
  • 27
  • 13
  • 12
  • 10
  • 9
  • 4
  • 4
  • 4
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 518
  • 189
  • 97
  • 51
  • 47
  • 43
  • 38
  • 37
  • 37
  • 35
  • 34
  • 33
  • 30
  • 27
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Modélisation toxicocinétique d’un mélange de composés organiques volatils dans l’eau potable

Kaveh, Nazanin 04 1900 (has links)
L'évaluation des risques de l'exposition aux mélanges de produits chimiques par voies multiples peut être améliorée par une compréhension de la variation de la dose interne due à l’interaction entre les produits. Les modèles pharmacocinétiques à base physiologique (PBPK) sont des outils éprouvés pour prédire l'ampleur de ces variations dans différents scénarios. Dans cette étude, quatre composés organiques volatils (COV) (toluène, nhexane, cyclohexane et isooctane) ont été choisis pour représenter des produits pétroliers (essence) pouvant contaminer l'eau potable. Premièrement, les modèles PBPK ont simulé l'exposition à un seul COV par une voie (inhalation ou gavage). Ensuite, ces modèles ont été interconnectés pour simuler l'exposition à un mélange par voies multiples. Les modèles ont été validés avec des données in vivo chez des rats Sprague-Dawley (n=5) exposés par inhalation (50 ppm ; toluène, hexane, et 300 ppm ; cyclohexane, isooctane; 2-h) ou par gavage (8,3; 5,5; 27,9 et 41,27 mg/kg pour le toluène, l’hexane, le cyclohexane et l’isooctane, respectivement). Des doses similaires ont été utilisées pour l'exposition au mélange par voies multiples. Les AUC (mg/L x min) pour le toluène, l'hexane, le cyclohexane et l'isooctane étaient respectivement de 157,25; 18,77; 159,58 et 176,54 pour les données expérimentales, et 121,73; 21,91; 19,55 et 170,54 pour les modèles PBPK. Les résultats des modèles PBPK et les données in vivo (simple COV par voies multiples vs. mélange par voies multiples) ont montré des interactions entre les COVs dans le cas de l'exposition au mélange par voies multiples. Cette étude démontre l'efficacité des modèles PBPK pour simuler l'exposition aux mélanges de COV par voies multiples. / Risk assessment focusing on exposure to mixtures by multiple routes can be improved with an understanding of the changes in internal doses due to interaction among chemicals. Physiologically based pharmacokinetic (PBPK) models are proven tools to predict the magnitude of interaction in various scenarios. In this study, four volatile organic compounds (VOCs) (toluene, nhexane, cyclohexane and isooctane) were chosen to represent petroleum products that could contaminate the drinking water (e.g. gasoline). PBPK models were used first to simulate exposure to a single chemical by a single route (inhalation, gavage) and simulate exposure to a mixture by multiple routes. PBPK models were validated by comparing simulations with in vivo data. These data were collected from groups of male Sprague-Dawley rats (n=5) exposed by inhalation (50 ppm of toluene, hexane; 300 ppm of cyclohexane and isooctane; 2-hr) or gavage (8.3, 5.5, 27.9, and 41.27 mg/kg, respectively, for toluene, hexane, cyclohexane and isooctane). For exposure to the mixture by multiple routes, same doses were used. The AUCs (mg/L x min) based on experimental data were 157.25, 18.77, 159.58 and 176.54 and the AUCs of the PBPKs model were 121.73, 21.91, 19.55 and 170.54, respectively, for toluene, hexane, cyclohexane and isooctane. Results from both PBPK models and in vivo data (single VOC, multiple routes vs. mixture, multiple routes) showed interactions between VOCs in the case of exposure to the mixture by multiple routes. This study demonstrated that the PBPK model is an effective tool to simulate exposure to mixtures of VOCs by multiple routes.
192

Existence de traces dans les développements en chaos de Wiener

Hu, Yao-Zhong. January 1992 (has links)
Thèse (doctorat)--Université Louis Pasteur, Strasbourg, 1992. / "Cette thèse se compose de cinq mémoires originaux, deux articles ..., et deux courtes notes de probabilités non commutatives"--4e de couv. Notes bibliogr.
193

Détection de sources quasi-ponctuelles dans des champs de données massifs / Quasi-ponctual sources detection in massive data fields

Meillier, Céline 15 October 2015 (has links)
Dans cette thèse, nous nous sommes intéressés à la détection de galaxies lointaines dans les données hyperspectrales MUSE. Ces galaxies, en particulier, sont difficiles à observer, elles sont spatialement peu étendues du fait de leur distance, leur spectre est composé d'une seule raie d'émission dont la position est inconnue et dépend de la distance de la galaxie, et elles présentent un rapport signal-à-bruit très faible. Ces galaxies lointaines peuvent être considérées comme des sources quasi-ponctuelles dans les trois dimensions du cube. Il existe peu de méthodes dans la littérature qui permettent de détecter des sources dans des données en trois dimensions. L'approche proposée dans cette thèse repose sur la modélisation de la configuration de galaxies par un processus ponctuel marqué. Ceci consiste à représenter la position des galaxies comme une configuration de points auxquels nous ajoutons des caractéristiques géométriques, spectrales, etc, qui transforment un point en objet. Cette approche présente l'avantage d'avoir une représentation mathématique proche du phénomène physique et permet de s'affranchir des approches pixelliques qui sont pénalisées par les dimensions conséquentes des données (300 x 300 x 3600 pixels). La détection des galaxies et l'estimation de leurs caractéristiques spatiales, spectrales ou d'intensité sont réalisées dans un cadre entièrement bayésien, ce qui conduit à un algorithme générique et robuste, où tous les paramètres sont estimés sur la base des seules données observées, la détection des objets d'intérêt étant effectuée conjointement.La dimension des données et la difficulté du problème de détection nous ont conduit à envisager une phase de prétraitement des données visant à définir des zones de recherche dans le cube. Des approches de type tests multiples permettent de construire des cartes de proposition des objets. La détection bayésienne est guidée par ces cartes de pré-détection (définition de la fonction d'intensité du processus ponctuel marqué), la proposition des objets est réalisée sur les pixels sélectionnés sur ces cartes. La qualité de la détection peut être caractérisée par un critère de contrôle des erreurs.L'ensemble des traitements développés au cours de cette thèse a été validé sur des données synthétiques, et appliqué ensuite à un jeu de données réelles acquises par MUSE suite à sa mise en service en 2014. L'analyse de la détection obtenue est présentée dans le manuscrit. / Detecting the faintest galaxies in the hyperspectral MUSE data is particularly challenging because they have a small spatial extension, a very sparse spectrum that contains only one narrow emission line, which position in the spectral range is unknown. Moreover, their signal-to-noise ratio are very low. These galaxies are modeled as quasi point sources in the three dimensions of the data cube. We propose a method for the detection of a galaxy configuration based on a marked point process in a nonparametric Bayesian framework. A galaxy is modeled by a point (its position in the spatial domain), and marks (geometrical, spectral features) are added to transform a point into an object. These processes yield a natural sparse representation of massive data (300 x 300 x 3600 pixels). The fully Bayesian framework leads to a general and robust algorithm where the parameters of the objects are estimated in a fully data-driven way. Preprocessing strategies are drawn to tackle the massive dimensions of the data and the complexity of the detection problem, they allow to reduce the exploration of the data to areas that probably contain sources. Multiple testing approaches have been proposed to build proposition map. This map is also used to define the intensity of the point process, textit{i.e.} it describes the probability density function of the point process. It also gives a global error control criterion for the detection. The performance of the proposed algorithm is illustrated on synthetic data and real hyperspectral data acquired by the MUSE instrument for young galaxy detection.
194

Développement de la surveillance observationnelle / Development of the observational surveillance

Rieutort, Delphine 12 November 2015 (has links)
L'impact de la population sur l'environnement et celui de l'environnement sur la santé humaine est indéniable et représente depuis les années 2000 de réels enjeux de Santé Publique. Il a été constaté en outre des augmentations de prévalence de cancer, de maladies respiratoires ou encore des troubles de la reproduction, dont les origines multifactorielles sont de plus en plus suspectées. Dans ce contexte, la surveillance est devenue un outil indispensable à la prise de décision en santé publique, et les réseaux de surveillances des évènements sanitaires se sont multipliés, donnant naissance à de nombreuses bases de données, parfois massives, dont les utilisations sont encore limitées.L'objectif de ces travaux de thèse était de développer un nouveau concept de surveillance, la Surveillance Observationnelle (SO), permettant une utilisation optimale des bases de données observationnelles, généralisable à différentes bases et problématiques, et pouvant tenir compte des informations multiples qu'elles contiennent.La SO est basée sur la méthode de l'exposome, ayant pour but de restructurer les données sous forme de réseau, permettant ainsi l'étude des associations entre les informations mais également l'étude de leur structure. Il a alors été développé plusieurs indicateurs permettant d'étudier à la fois les différentes associations d'informations recrutées au sein d'une base de données pour un évènement de santé, mais également d'étudier l'évolution de leur structure dans le temps par un suivi dynamique, ces indicateurs permettant de générer la signature unique d'un évènement de santé : le spectre. Un outil, appelé « Observational Surveillance Analysis » (OSA) permettant l'utilisation en routine de la méthodologie a également été développé dans la plateforme R, permettant une automatisation et une standardisation des résultats.Des exemples d'applications ont permis d'illustrer le déroulement de l'analyse de la SO ainsi que sa portabilité et adaptabilité au contexte et à la problématique. Trois applications sont basées sur les données du Réseau National de Vigilance et de Prévention des Pathologies Professionnelles (RNV3P) : le cancer de la vessie, l'asthme et enfin le lymphome non hodgkinien. Trois autres applications sont basées sur la base de données du groupe de médecins du travail Belge IDEWE : les douleurs à la gorge, les aides-soignants et les agriculteurs.Grâce aux différentes applications, il a été démontré la portabilité de la méthodologie de la SO à des bases de données différentes, mais également à des configurations d'analyse différentes, pathologie/expositions ou activité/expositions. De plus, l'outil « OSA » qui a été développé permet une utilisation facilitée pour l'analyse en routine des données et pourrait à terme être intégré dans un réseau de surveillance déjà existant. / Impact of population on the environment, and conversely, is obvious and represents a real challenge for Public Health since 2000. It has been shown an increase in cancer prevalence, respiratory disease or even reproductive disorders, for which multifactorial origins are strongly suspected. In this context, surveillance has become an essential tool to decision making in public health, and surveillance networks of health events are multiplying, giving rise to numerous databases (sometimes considered as “big data”), still poorly used.Objective of this thesis work was to develop a new concept of surveillance, the Observational Surveillance (OS). This allows an optimal use of observational databases, extendable to different kind of databases and problematics, taking into account various multiple information available.OS is based on the exposome approach, to restructure data as a network, allowing the study of associations between information and also their structure. In this purpose, several indicators have been developed to study in the meantime the different recruited association for an event of interest, but also the evolution of their structure over time. These indicators allow generating the unique signature of the event: the spectrum. A tool, named “Observational Surveillance Analysis” (OSA), allowing the routine use of methodology, has been developed in the R platform, which permits automation and standardization of results.Applications were used to illustrate the OS analysis and its portability and adaptability to different context and problematic. Three applications are based on the French National Occupational Diseases Surveillance and Prevention Network (RNV3P): bladder cancer, asthma and non-Hodgkin lymphoma. Three other applications are based on the Belgium occupational physicians group IDEWE: sore throat, caregivers and farmers.Thanks to different applications, it has been demonstrated the portability of the OS methodology to different databases, and also, to different analysis configuration, disease/exposures or activity/diseases. Furthermore, the “OSA” tool which has been developed, allows an easier use to routine analysis and, in the end, could be integrated in an existing surveillance network.
195

Approches bioinformatiques pour l'exploitation des données génomiques / Bioinformatics methods for genomic data exploitation

Taing, Lieng 27 September 2012 (has links)
Les technologies actuelles permettent d'explorer le génome entier pour identifier des variants génétiques associés à des phénotypes particuliers, notamment de maladies. C’est le rôle de la bioinformatique de répondre à cette problématique. Dans le cadre de cette thèse, un nouvel outil logiciel a été développé qui permet de mesurer avec une bonne précision le nombre de marqueurs génétiques effectivement indépendants correspondant à un ensemble de marqueurs génotypés dans une population donnée. Cet algorithme repose sur la mesure de l’entropie de Shannon contenue au sein de ces marqueurs, ainsi que des niveaux d’information mutuelle calculés sur les paires de SNPs choisis au sein d’une fenêtre de SNPs consécutifs, dont la taille est un paramètre du programme. Il a été montré que ce nombre de marqueurs indépendants devient constant dès que la population est homogène avec une taille suffisante (N > 60 individus) et que l'on utilise une fenêtre assez grande (taille > 100 SNPs). Ce calcul peut avoir de nombreuses applications pour l'exploitation des données.Une analyse génome-entier a été réalisée sur le photo-vieillissement. Elle a porté sur 502 femmes caucasiennes pour lesquelles un grade de photo-vieillissement a été évalué selon une technologie bien établie. Les femmes ont été génotypées sur des puces Illumina OmniOne (1M SNPs), et deux gènes ont été identifiés (STXBP5L et FBX040) associés à un SNP passant le seuil de Bonferroni, dont l'implication dans le photo-vieillissement était jusqu'alors inconnue. De plus, cette association a aussi été retrouvé dans deux autres phénotypes suggérant un mécanisme moléculaire commun possible entre le relâchement cutané et les rides. On n'observe pas de réplication au niveau du critère lentigines, la troisième composante étudiée du photo-vieillissement.Ces travaux sont en cours de publication dans des revues scientifiques internationales à comité de lecture. / New technologies allow the exploration of the whole genome to identify genetic variants associated with various phenotypes, in particular diseases. Bioinformatics aims at helping to answer these questions. In the context of my PhD thesis, I have first developed a new software allowing to measure with a good precision the number of really independent genetic markers present in a set of markers genotyped in a given population. This algorithm relies on the Shannon's entropy contained within these markers and on the levels of mutual information computed from the pairs of SNPs chosen in a given window of consecutive SNPs, the window size is a parameter of the program. I have shown that the number of really independent markers become stable as soon as the population is homogeneous and large enough (N > 60) and as soon as the window size is large enough (size > 100 SNPs). This computation may have several applications, in particular the diminution of the Bonferroni threshold by a factor that may reach sometimes 4, the latter having little impact in practice.I have also completed a genome-wide association study on photo-ageing. This study was performed on 502 Caucasian women characterized by their grade of photo-ageing, as measured by a well-established technology. In this study, the women were genotyped with OmniOne Illumina chips (1M SNPs), and I have identified two genes (STXBP5L et FBX040) associated with a SNP that passes the Bonferroni threshold, whose implication in photo-ageing was not suspected until now. Interestingly, this association has been highlighted with two other phenotypes which suggest a possible common molecular mechanism between sagging and wrinkling. There was no replication for the lentigin criteria, the third component studied of photo ageing.These studies are on the process to be published in international peer-reviewed scientific journals.
196

Múltiplos e divisores de números naturais um estudo no quinto ano do ensino fundamental

Brehm, Juneor dos Santos January 2015 (has links)
Este trabalho é resultado de pesquisa desenvolvida no ano de 2013 em uma escola estadual de Ensino Fundamental, no Município de Itati, no Estado do Rio Grande do Sul, tendo como campo empírico a realização de dez encontros com uma turma do quinto ano do Ensino Fundamental com seis estudantes. A pesquisa abordou o estudo de múltiplos e divisores com auxílio do material didático “segredo dos números” via realização de atividades que viessem a auxiliar os alunos na construção dos conceitos de múltiplos e divisores de um número. O “segredo dos números” é um material didático criado pela professora Esther Pillar Grossi constituído por cartas nas quais os fatores primos dos números naturais são representados por símbolos. Na análise dos dados foi utilizada a Teoria dos Campos Conceituais de Gerard Vergnaud, com ênfase no campo conceitual multiplicativo. Constatou-se que os alunos evoluíram do ponto de vista da aprendizagem, nos conceitos relativos a múltiplos e divisores, desde o reconhecimento de um número primo, até as construções das maquetes de um número, que passa pela identificação de todos os divisores desse número. / This work is the result of research conducted in 2013 in a state school of Primary Education in Itati City, in the state of Rio Grande do Sul - Brazil, it has as the empirical field the realization of ten meetings with a class of fifth grade of Elementary School with six students. The research addressed the study about multiples and dividers with the help of teaching materials “secret of the numbers" through the realization of activities that were to assist students in the building of concepts of multiple and dividers of a number. The "secret of numbers" is a didactic material created by Professor Esther Pillar Grossi composed of letters in which the prime factors of natural numbers are represented by symbols. In the datas’ analysis it was used the Theory of Conceptual Fields of Gerard Vergnaud, emphasizing the multiplicative conceptual field. It was found that students progressed from the point of view of learning in the concepts related to multiple and dividers, from the recognition of a prime number, to the construction of models of a number, which includes the identification of all divisors of that number.
197

Múltiplos e divisores de números naturais um estudo no quinto ano do ensino fundamental

Brehm, Juneor dos Santos January 2015 (has links)
Este trabalho é resultado de pesquisa desenvolvida no ano de 2013 em uma escola estadual de Ensino Fundamental, no Município de Itati, no Estado do Rio Grande do Sul, tendo como campo empírico a realização de dez encontros com uma turma do quinto ano do Ensino Fundamental com seis estudantes. A pesquisa abordou o estudo de múltiplos e divisores com auxílio do material didático “segredo dos números” via realização de atividades que viessem a auxiliar os alunos na construção dos conceitos de múltiplos e divisores de um número. O “segredo dos números” é um material didático criado pela professora Esther Pillar Grossi constituído por cartas nas quais os fatores primos dos números naturais são representados por símbolos. Na análise dos dados foi utilizada a Teoria dos Campos Conceituais de Gerard Vergnaud, com ênfase no campo conceitual multiplicativo. Constatou-se que os alunos evoluíram do ponto de vista da aprendizagem, nos conceitos relativos a múltiplos e divisores, desde o reconhecimento de um número primo, até as construções das maquetes de um número, que passa pela identificação de todos os divisores desse número. / This work is the result of research conducted in 2013 in a state school of Primary Education in Itati City, in the state of Rio Grande do Sul - Brazil, it has as the empirical field the realization of ten meetings with a class of fifth grade of Elementary School with six students. The research addressed the study about multiples and dividers with the help of teaching materials “secret of the numbers" through the realization of activities that were to assist students in the building of concepts of multiple and dividers of a number. The "secret of numbers" is a didactic material created by Professor Esther Pillar Grossi composed of letters in which the prime factors of natural numbers are represented by symbols. In the datas’ analysis it was used the Theory of Conceptual Fields of Gerard Vergnaud, emphasizing the multiplicative conceptual field. It was found that students progressed from the point of view of learning in the concepts related to multiple and dividers, from the recognition of a prime number, to the construction of models of a number, which includes the identification of all divisors of that number.
198

Múltiplos e divisores de números naturais um estudo no quinto ano do ensino fundamental

Brehm, Juneor dos Santos January 2015 (has links)
Este trabalho é resultado de pesquisa desenvolvida no ano de 2013 em uma escola estadual de Ensino Fundamental, no Município de Itati, no Estado do Rio Grande do Sul, tendo como campo empírico a realização de dez encontros com uma turma do quinto ano do Ensino Fundamental com seis estudantes. A pesquisa abordou o estudo de múltiplos e divisores com auxílio do material didático “segredo dos números” via realização de atividades que viessem a auxiliar os alunos na construção dos conceitos de múltiplos e divisores de um número. O “segredo dos números” é um material didático criado pela professora Esther Pillar Grossi constituído por cartas nas quais os fatores primos dos números naturais são representados por símbolos. Na análise dos dados foi utilizada a Teoria dos Campos Conceituais de Gerard Vergnaud, com ênfase no campo conceitual multiplicativo. Constatou-se que os alunos evoluíram do ponto de vista da aprendizagem, nos conceitos relativos a múltiplos e divisores, desde o reconhecimento de um número primo, até as construções das maquetes de um número, que passa pela identificação de todos os divisores desse número. / This work is the result of research conducted in 2013 in a state school of Primary Education in Itati City, in the state of Rio Grande do Sul - Brazil, it has as the empirical field the realization of ten meetings with a class of fifth grade of Elementary School with six students. The research addressed the study about multiples and dividers with the help of teaching materials “secret of the numbers" through the realization of activities that were to assist students in the building of concepts of multiple and dividers of a number. The "secret of numbers" is a didactic material created by Professor Esther Pillar Grossi composed of letters in which the prime factors of natural numbers are represented by symbols. In the datas’ analysis it was used the Theory of Conceptual Fields of Gerard Vergnaud, emphasizing the multiplicative conceptual field. It was found that students progressed from the point of view of learning in the concepts related to multiple and dividers, from the recognition of a prime number, to the construction of models of a number, which includes the identification of all divisors of that number.
199

Modélisation de la combustion turbulente diphasique par une approche eulérienne-lagrangienne avec prise en compte des phénomènes transitoires / Two-phase flows turbulent combustion modelling based on an eulerian-lagrangian approach including transient effects

Gomet, Laurent 04 December 2013 (has links)
L'allumage d'ergols injectés dans une chambre de combustion, la propagation du noyau de flamme puis sa stabilisation sont autant de paramètres déterminants pour la conception d'un moteur fusée. Pour ce type d'application, il est nécessaire - du point de vue de la modélisation - de tenir compte du couplage existant entre les effets de compressibilité, les processus de mélange turbulent ainsi que de cinétique chimique, dans un environnement diphasique puisque les ergols sont injectés à l'état liquide. Un modèle Lagrangien a été implanté dans le code de calcul compressible N3S-Natur afin de disposer d'un outil numérique capable de simuler le transitoire d'allumage d'un moteur fusée. La physique représentative de chacun des processus physiques impliqués pendant la phase d'allumage a été incorporée puis validée sur des configurations académiques. Ce travail a permis de mettre en évidence l'importance de la description du mélange à petites échelles pour capturer correctement le développement de la flamme. Il a aussi mis en exergue la nécessité de prendre en compte le transitoire thermique des gouttes d'oxygène liquide afin de reproduire fidèlement sa stabilisation. Enfin, il a nécessité l'extension de la notion de fraction de mélange à des cas pratiques présentant plus de deux entrées afin d'être en mesure de simuler la propagation de l'allumage sur la plaque d'injection. Cette approche basée sur l'introduction d'un injecteur fictif est non seulement utile pour la simulation de l'allumage des moteurs-fusées mais peut aussi être employée dans tout autre système impliquant le mélange entre des courants de réactifs issus de deux entrées ou plus. / In the field of liquid rocket propulsion, ignition, propagation and stabilization of the flame are of first importance for the design of the engine. Computational fluid dynamics (CFD) solvers may provide a great deal of help to proceed with the primary design choice but need to be fed with suited physical models. Important modelling efforts are therefore required to provide reliable computational representations able to take into account compressibility effects, turbulent mixing and chemical kinetics in two-phase flows since ergols are injected at the liquid state. A Lagrangian model has been implemented in the compressible solver N3S-Natur so as to obtain a computational tool able to compute the transient ignition of rocket engines. The physical processes involved at each step of this ignition sequence have been integrated and validated on academically configurations. Three significant contributions rose from this work. First of all, it is highlighted that the description of the micro-mixing is of first importance to correctly capture the flame development. This study also emphasized the need to consider the transient heating of liquid oxygen droplets in order to accurately compute the flame stabilization. Finally, the notion of mixture fraction must be extended to practical devices implying more than two inlets. The proposed approach which is based on the introduction of a fictive injector is not only well suited to rocket engine ignition application but also to deal with other practical devices implying two inlets and more.
200

Amélioration de la dissémination de données biaisées dans les réseaux structurés / Improving skewed data dissemination in structured overlays

Antoine, Maeva 23 September 2015 (has links)
De nombreux systèmes distribués sont confrontés au problème du déséquilibre de charge entre machines. Avec l'émergence du Big Data, de larges volumes de données aux valeurs souvent biaisées sont produits par des sources hétérogènes pour être souvent traités en temps réel. Il faut donc être capable de s'adapter aux variations de volume/contenu/provenance de ces données. Nous nous intéressons ici aux données RDF, un format du Web Sémantique. Nous proposons une nouvelle approche pour améliorer la répartition des données, basée sur l'utilisation de plusieurs fonctions de hachage préservant l'ordre naturel des données dans le réseau. Cela permet à chaque pair de pouvoir indépendamment modifier la fonction de hachage qu'il applique sur les données afin de réduire l'intervalle de valeurs dont il est responsable. Plus généralement, pour résoudre le problème du déséquilibre de charge, il existe presque autant de stratégies qu'il y a de systèmes différents. Nous montrons que de nombreux dispositifs d'équilibrage de charge sont constitués des mêmes éléments de base, et que seules la mise en œuvre et l'interconnexion de ces éléments varient. Partant de ce constat, nous décrivons les concepts derrière la construction d'une API générique pour appliquer une stratégie d'équilibrage de charge qui est indépendante du reste du code. Mise en place sur notre système, l'API a un impact minimal sur le code métier et permet de changer une partie d'une stratégie sans modifier d'autres composants. Nous montrons aussi que la variation de certains paramètres peut influer sur les résultats obtenus. / Many distributed systems face the problem of load imbalance between machines. With the advent of Big Data, large datasets whose values are often highly skewed are produced by heterogeneous sources to be often processed in real time. Thus, it is necessary to be able to adapt to the variations of size/content/source of the incoming data. In this thesis, we focus on RDF data, a format of the Semantic Web. We propose a novel approach to improve data distribution, based on the use of several order-preserving hash functions. This allows an overloaded peer to independently modify its hash function in order to reduce the interval of values it is responsible for. More generally, to address the load imbalance issue, there exist almost as many load balancing strategies as there are different systems. We show that many load balancing schemes are comprised of the same basic elements, and only the implementation and interconnection of these elements vary. Based on this observation, we describe the concepts behind the building of a common API to implement any load balancing strategy independently from the rest of the code. Implemented on our distributed storage system, the API has a minimal impact on the business code and allows the developer to change only a part of a strategy without modifying the other components. We also show how modifying some parameters can lead to significant improvements in terms of results.

Page generated in 0.0629 seconds