• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 14
  • 10
  • 3
  • 1
  • Tagged with
  • 27
  • 27
  • 14
  • 10
  • 8
  • 8
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modelling and simulation of distributed large scale situated multi-agent systems / Modélisation et simulation de système multi-agents distribué à large échelle d'agents situés

Rihawi, Omar 03 December 2014 (has links)
Les systèmes multi-agents sont constitués d'entités autonomes qui interagissent avec leur environnement pour résoudre un objectif collectif. Si l'on souhaite modéliser des systèmes contenant des millions d'agents, une puissance de calcul et de stockage importante devient nécessaire. Pour atteindre de telles simulations large échelle, distribuer le simulateur sur un réseau de machines est nécessaire, mais il faut prendre en compte quelques aspects. Le premier aspect se concentre sur deux types de répartition de la charge de calcul : la première basée sur l'environnement, la deuxième basée sur les agents. Nous évaluons les performances de ces répartitions en les confrontant à des applications dont les dynamiques de déplacement sont très différentes, ce qui nous permet d'identifier plusieurs critères devant être pris en compte pour garantir des gains de performance lors de la distribution de simulations d'agents situés. Le second aspect de notre travail étudie la synchronisation. En effet, à notre connaissance, tous les simulateurs existants fonctionnent sur la base d'une synchronisation forte entre les machines, ce qui garantit la causalité temporelle et la cohérence des calculs. Dans cette thèse, nous remettons en cause cette hypothèse en étudiant la relaxation de la contrainte de synchronisation. Nous proposons deux politiques de synchronisation : la synchronisation forte classique et une forme de synchronisation reposant sur une fenêtre de temps bornée entre la machine la plus lente et la machine la plus rapide. Des applications de natures différentes sont exécutées avec ces différents mécanismes de synchronisation. / This thesis aims to design a distributed large scale MAS simulation. When the number of agents reaches several millions, it is necessary to distribute MAS simulation. However, this can raise some issues: agents allocation, interactions from different machines, time management, etc. When we distribute MAS simulation on different machines, agents must be separated between these machines and should still be able to produce their normal behaviours. Our distribution is able to cover all agents' perceptions during the simulation and allow all agents to interact normally. Moreover, with large-scale simulations the main observations are done on the macroscopic level. In this thesis, we study two main aspects to distribute large-scale simulations. The first aspect is the efficient strategy that can be used to distribute MAS concepts (agents and environment). We propose two efficient distribution approaches: agents distribution and environment distribution. The second aspect is the relaxation of synchronization constraints in order to speed up the execution of large-scale simulations. Relaxing this constraint can induce incoherent interactions, which do not exist in a synchronized context. But, in some applications that can not affect the macroscopic level. Our experiments on different categories of MAS applications show that some applications can be distributed efficiently in one distribution approach more than the other. In addition, we have studied the impact of incoherent iterations on the emerging behaviour of different applications, and we have evidenced situations in which unsynchronized simulations still produced the expected macroscopic behaviour.
2

Mobilité des sessions dans les communications multimédias en mode-conférence basées sur le protocole SIP

Elleuch, Wajdi January 2011 (has links)
Ce mémoire traite la problématique de la mobilité des sessions pour le transfert des communications multimédias basées sur le protocole SIP. Plusieurs aspects sont étudiés et des mécanismes proposés afin de permettre la mobilité des sessions avant, durant et après leur établissement. En plus d'une communication impliquant deux intervenants, Il a été possible d'étendre l'utilisation de la mobilité des sessions pour l'appliquer aux scénarios de communications en mode conférence regroupant plusieurs intervenants. Les mécanismes de mobilité de session développés au cours de cette thèse sont par la suite déployés pour (1) permettre des transformations entre différentes topologies de conférences et (2) construire un modèle de conférence adapté pour l'échange de la voix au sein des groupes de communication à large échelle.
3

Exploitation du contenu pour l'optimisation du stockage distribué / Leveraging content properties to optimize distributed storage systems

Kloudas, Konstantinos 06 March 2013 (has links)
Les fournisseurs de services de cloud computing, les réseaux sociaux et les entreprises de gestion des données ont assisté à une augmentation considérable du volume de données qu'ils reçoivent chaque jour. Toutes ces données créent des nouvelles opportunités pour étendre la connaissance humaine dans des domaines comme la santé, l'urbanisme et le comportement humain et permettent d'améliorer les services offerts comme la recherche, la recommandation, et bien d'autres. Ce n'est pas par accident que plusieurs universitaires mais aussi les médias publics se référent à notre époque comme l'époque “Big Data”. Mais ces énormes opportunités ne peuvent être exploitées que grâce à de meilleurs systèmes de gestion de données. D'une part, ces derniers doivent accueillir en toute sécurité ce volume énorme de données et, d'autre part, être capable de les restituer rapidement afin que les applications puissent bénéficier de leur traite- ment. Ce document se concentre sur ces deux défis relatifs aux “Big Data”. Dans notre étude, nous nous concentrons sur le stockage de sauvegarde (i) comme un moyen de protéger les données contre un certain nombre de facteurs qui peuvent les rendre indisponibles et (ii) sur le placement des données sur des systèmes de stockage répartis géographiquement, afin que les temps de latence perçue par l'utilisateur soient minimisés tout en utilisant les ressources de stockage et du réseau efficacement. Tout au long de notre étude, les données sont placées au centre de nos choix de conception dont nous essayons de tirer parti des propriétés de contenu à la fois pour le placement et le stockage efficace. / Cloud service providers, social networks and data-management companies are witnessing a tremendous increase in the amount of data they receive every day. All this data creates new opportunities to expand human knowledge in fields like healthcare and human behavior and improve offered services like search, recommendation, and many others. It is not by accident that many academics but also public media refer to our era as the “Big Data” era. But these huge opportunities come with the requirement for better data management systems that, on one hand, can safely accommodate this huge and constantly increasing volume of data and, on the other, serve them in a timely and useful manner so that applications can benefit from processing them. This document focuses on the above two challenges that come with “Big Data”. In more detail, we study (i) backup storage systems as a means to safeguard data against a number of factors that may render them unavailable and (ii) data placement strategies on geographically distributed storage systems, with the goal to reduce the user perceived latencies and the network and storage resources are efficiently utilized. Throughout our study, data are placed in the centre of our design choices as we try to leverage content properties for both placement and efficient storage.
4

Interactions cytokiniques dans le microenvironnement inflammatoire : analyse à large échelle de la réponse aux Interférons de Type I lors la de polarisation des Lymphocytes T auxiliaires / Modulation of cytokine response by microenvironment : large-­scale analysis of Type IFN response during Human T Helper cells differentiation

Touzot, Maxime 27 March 2013 (has links)
Les interférons de Type I (IFN) sont des cytokines produites par les cellules en réponse à une infection virale. Les IFNs ont des effets pleïotropiques et parfois paradoxaux, protecteur ou néfaste pour l’immunité Innée ou adaptative. Certains facteurs intrinsèques (type cellulaire) peuvent expliquer une partie ces discordances. Mon travail de thèse s’est intéressé à l‘effet du microenvironnement cytokinique sur la réponse IFN. En utilisant des analyses à large échelle, nous avons étudié la réponse IFN dans 4 contextes de polarisation des lymphocytes T auxiliaires (Th). Nous avons identifié 1/ un programme de transcription conservé et 2/ une réponse IFN flexible, modulant spécifiquement les principales fonctions des Th (cytokines, chemokines) en fonction du contexte polarisant. La réponse antivirale apparait aussi flexible avec une moins bonne protection des Th2 et Th17 contre l’infection par HIV-1et HIV-2. Nos résultats suggèrent que l’environnement cytokinique contrôle en partie la réponse IFN et peut ainsi moduler cette dernière dans différents contextes physiopathologiques. / Type I IFN (IFN) are innate cytokines produced by host cells during viral infection. Ithas pleiotropic and sometimes opposing, protective or detrimental effects, on both innateand adaptive immunity that remain poorly understood. Parts of IFN response may be explain by intrinsic effect (cell-­‐specificity). My thesis was focused on the effect of the microenvironment, as present during T Helper cell differentiation, on IFN response. Using a systems level approach, we studied IFN responses during Four Human T Helper cell differentiation. We identified 1/ a conserved IFN-­‐induced transcriptional program comprising mostly antiviral genes 2/ a flexible IFN response, leading to a different pattern of chemokine and cytokine induction by IFN in distinct Th environments. Antiviral response was also flexible with a lesser protection to HIV-1 and HIV-2 infection in Th2 and Th17 contexts. Our in vitro results suggested that environmental control might shape the effects of IFN in different physiopathological contexts.
5

La réalisation de modèles de cohérence et de requis de temps de réponse pour des services répliqués hétérogènes

Ferdean, Corina 08 December 2006 (has links) (PDF)
Le problème que je traite dans la thèse est comment offrir de<br />manière efficace les contraintes de cohérence et les requis de temps de<br />réponse, demandés par des services repliqués hétérogènes, accédés à large échelle.<br />La réplication est une technique classique utilisée pour améliorer la performance des applications<br />Internet populaires, surtout quand elles sont accédées concurremment<br />par un grand nombre de clients, dispersés à travers le monde. <br />Les travaux existants ne prennent pas en compte la diversité des demandes des services<br />pour différentes ressources système et réseau. Cette hypothèse relève une difficulté importante du problème de l'estimation du temps de réponse.<br />Une autre difficulté est déterminée par la hétérogénéité des capacités des ressources et par la variabilité des disponibilités des ressources. <br />Nous proposons une approche d'estimation, où le temps de réponse est décomposé dans des composants indépendants (temps de service et temps<br />d'attente), et chaque composante est approximée séparément, en prenant<br />en compte les capacités et les utilisations courantes des ressources demandées par le service.<br />Le requis sur le temps de réponse est spécifié par le fournisseur du<br />service, par un seuil qui correspond à la moyenne de temps de<br />service des requêtes, ou comme critère d'optimisation, demandant le meilleur temps de réponse. <br />Le requis est realisé par un protocole générique qui détermine quel<br />est le réplicat approprié à choisir pour répondre aux requêtes de<br />chaque client, parmi tous les réplicats existants. Nous avons implementé cette solution et les résultats expérimentaux obtenus ont montrés la satisfaction du requis sur le temps de réponse, à un coût raisonnable.<br /><br />Les approches existantes pour la gestion de la cohérence des<br />réplicats, offre un ensemble limité des garanties pour tous les<br />services. Tout de même, la variété des sémantiques des services,<br />demande des combinaisons des garanties différentes d'un service à<br />l'autre. Nous proposons un meta-modèle de cohérence, qui réifie les<br />garanties de cohérence existantes, en identifiant les paramètres qui<br />caractérisent chaqu'une des trois dimensions de la cohérence: contrôle<br />de divergence, contrôle de concurrence et contrôle de dépendances.<br />Le meta-modèle est attaché un protocole de cohérence générique, qui réalise des modèles de cohérence spécifiques aux services. Un modèle de cohérence, spécifié par le fournisseur du service, contient<br />des contraintes de sûreté, nécessaires pour que le service fonctionne<br />correctement lorsqu'il est répliqué, et des contraintes de vivacité,<br />nécessaires pour limiter la discrépance entre l'état d'un réplicat<br />particulier et l'état du réplicat idéal. Le protocole de cohérence<br />assemble trois briques de base indépendantes, qui correspondent aux<br />trois dimensions orthogonales de la cohérence. <br /><br />Le message de la thèse c'est que notre approche de réplication gère la hétérogénéité des<br />services en terme de sémantiques des opérations et de demandes de<br />ressources, en satisfaisant les contraintes appropriées concernant la cohérence des réplicats<br />et la performance observé par les requetes des clients.
6

Exploitation du contenu pour l'optimisation du stockage distribué

Kloudas, Konstantinos 06 March 2013 (has links) (PDF)
Les fournisseurs de services de cloud computing, les réseaux sociaux et les entreprises de gestion des données ont assisté à une augmentation considérable du volume de données qu'ils reçoivent chaque jour. Toutes ces données créent des nouvelles opportunités pour étendre la connaissance humaine dans des domaines comme la santé, l'urbanisme et le comportement humain et permettent d'améliorer les services offerts comme la recherche, la recommandation, et bien d'autres. Ce n'est pas par accident que plusieurs universitaires mais aussi les médias publics se référent à notre époque comme l'époque "Big Data". Mais ces énormes opportunités ne peuvent être exploitées que grâce à de meilleurs systèmes de gestion de données. D'une part, ces derniers doivent accueillir en toute sécurité ce volume énorme de données et, d'autre part, être capable de les restituer rapidement afin que les applications puissent bénéficier de leur traite- ment. Ce document se concentre sur ces deux défis relatifs aux "Big Data". Dans notre étude, nous nous concentrons sur le stockage de sauvegarde (i) comme un moyen de protéger les données contre un certain nombre de facteurs qui peuvent les rendre indisponibles et (ii) sur le placement des données sur des systèmes de stockage répartis géographiquement, afin que les temps de latence perçue par l'utilisateur soient minimisés tout en utilisant les ressources de stockage et du réseau efficacement. Tout au long de notre étude, les données sont placées au centre de nos choix de conception dont nous essayons de tirer parti des propriétés de contenu à la fois pour le placement et le stockage efficace.
7

Algorithmes d'accélération générique pour les méthodes d'optimisation en apprentissage statistique / Generic acceleration schemes for gradient-based optimization in machine learning

Lin, Hongzhou 16 November 2017 (has links)
Les problèmes d’optimisation apparaissent naturellement pendant l’entraine-ment de modèles d’apprentissage supervises. Un exemple typique est le problème deminimisation du risque empirique (ERM), qui vise a trouver un estimateur en mini-misant le risque sur un ensemble de données. Le principal défi consiste a concevoirdes algorithmes d’optimisation efficaces permettant de traiter un grand nombre dedonnées dans des espaces de grande dimension. Dans ce cadre, les méthodes classiques d’optimisation, telles que l’algorithme de descente de gradient et sa varianteaccélérée, sont couteux en termes de calcul car elles nécessitent de passer a traverstoutes les données a chaque évaluation du gradient. Ce défaut motive le développement de la classe des algorithmes incrémentaux qui effectuent des mises a jour avecdes gradients incrémentaux. Ces algorithmes réduisent le cout de calcul par itération, entrainant une amélioration significative du temps de calcul par rapport auxméthodes classiques. Une question naturelle se pose : serait-il possible d’accélérerdavantage ces méthodes incrémentales ? Nous donnons ici une réponse positive, enintroduisant plusieurs schémas d’accélération génériques.Dans le chapitre 2, nous développons une variante proximale de l’algorithmeFinito/MISO, qui est une méthode incrémentale initialement conçue pour des problèmes lisses et fortement convexes. Nous introduisons une étape proximale dans lamise a jour de l’algorithme pour prendre en compte la pénalité de régularisation quiest potentiellement non lisse. L’algorithme obtenu admet un taux de convergencesimilaire a l’algorithme Finito/MISO original.Dans le chapitre 3, nous introduisons un schéma d’accélération générique, appele Catalyst, qui s’applique a une grande classe de méthodes d’optimisation, dansle cadre d’optimisations convexes. La caractéristique générique de notre schémapermet l’utilisateur de sélectionner leur méthode préférée la plus adaptée aux problemes. Nous montrons que en appliquant Catalyst, nous obtenons un taux deconvergence accélère. Plus important, ce taux coïncide avec le taux optimale desméthodes incrémentales a un facteur logarithmique pres dans l’analyse du pire descas. Ainsi, notre approche est non seulement générique mais aussi presque optimale du point de vue théorique. Nous montrons ensuite que l’accélération est bienprésentée en pratique, surtout pour des problèmes mal conditionnes.Dans le chapitre 4, nous présentons une seconde approche générique qui appliqueles principes Quasi-Newton pour accélérer les méthodes de premier ordre, appeléeQNing. Le schéma s’applique a la même classe de méthodes que Catalyst. En outre,il admet une simple interprétation comme une combinaison de l’algorithme L-BFGSet de la régularisation Moreau-Yosida. A notre connaissance, QNing est le premieralgorithme de type Quasi-Newton compatible avec les objectifs composites et lastructure de somme finie.Nous concluons cette thèse en proposant une extension de l’algorithme Catalyst au cas non convexe. Il s’agit d’un travail en collaboration avec Dr. CourtneyPaquette et Pr. Dmitriy Drusvyatskiy, de l’Université de Washington, et mes encadrants de thèse. Le point fort de cette approche réside dans sa capacité a s’adapterautomatiquement a la convexité. En effet, aucune information sur la convexité de lafonction n’est nécessaire avant de lancer l’algorithme. Lorsque l’objectif est convexe,l’approche proposée présente les mêmes taux de convergence que l’algorithme Catalyst convexe, entrainant une accélération. Lorsque l’objectif est non-convexe, l’algorithme converge vers les points stationnaires avec le meilleur taux de convergencepour les méthodes de premier ordre. Des résultats expérimentaux prometteurs sontobserves en appliquant notre méthode a des problèmes de factorisation de matriceparcimonieuse et a l’entrainement de modèles de réseaux de neurones. / Optimization problems arise naturally in machine learning for supervised problems. A typical example is the empirical risk minimization (ERM) formulation, which aims to find the best a posteriori estimator minimizing the regularized risk on a given dataset. The current challenge is to design efficient optimization algorithms that are able to handle large amounts of data in high-dimensional feature spaces. Classical optimization methods such as the gradient descent algorithm and its accelerated variants are computationally expensive under this setting, because they require to pass through the entire dataset at each evaluation of the gradient. This was the motivation for the recent development of incremental algorithms. By loading a single data point (or a minibatch) for each update, incremental algorithms reduce the computational cost per-iteration, yielding a significant improvement compared to classical methods, both in theory and in practice. A natural question arises: is it possible to further accelerate these incremental methods? We provide a positive answer by introducing several generic acceleration schemes for first-order optimization methods, which is the main contribution of this manuscript. In chapter 2, we develop a proximal variant of the Finito/MISO algorithm, which is an incremental method originally designed for smooth strongly convex problems. In order to deal with the non-smooth regularization penalty, we modify the update by introducing an additional proximal step. The resulting algorithm enjoys a similar linear convergence rate as the original algorithm, when the problem is strongly convex. In chapter 3, we introduce a generic acceleration scheme, called Catalyst, for accelerating gradient-based optimization methods in the sense of Nesterov. Our approach applies to a large class of algorithms, including gradient descent, block coordinate descent, incremental algorithms such as SAG, SAGA, SDCA, SVRG, Finito/MISO, and their proximal variants. For all of these methods, we provide acceleration and explicit support for non-strongly convex objectives. The Catalyst algorithm can be viewed as an inexact accelerated proximal point algorithm, applying a given optimization method to approximately compute the proximal operator at each iteration. The key for achieving acceleration is to appropriately choose an inexactness criteria and control the required computational effort. We provide a global complexity analysis and show that acceleration is useful in practice. In chapter 4, we present another generic approach called QNing, which applies Quasi-Newton principles to accelerate gradient-based optimization methods. The algorithm is a combination of inexact L-BFGS algorithm and the Moreau-Yosida regularization, which applies to the same class of functions as Catalyst. To the best of our knowledge, QNing is the first Quasi-Newton type algorithm compatible with both composite objectives and the finite sum setting. We provide extensive experiments showing that QNing gives significant improvement over competing methods in large-scale machine learning problems. We conclude the thesis by extending the Catalyst algorithm into the nonconvex setting. This is a joint work with Courtney Paquette and Dmitriy Drusvyatskiy, from University of Washington, and my PhD advisors. The strength of the approach lies in the ability of the automatic adaptation to convexity, meaning that no information about the convexity of the objective function is required before running the algorithm. When the objective is convex, the proposed approach enjoys the same convergence result as the convex Catalyst algorithm, leading to acceleration. When the objective is nonconvex, it achieves the best known convergence rate to stationary points for first-order methods. Promising experimental results have been observed when applying to sparse matrix factorization problems and neural network models.
8

Machine Learning Strategies for Large-scale Taxonomies / Strategies d'apprentissage pour la classification dans les grandes taxonomies

Babbar, Rohit 17 October 2014 (has links)
À l'ère de Big Data, le développement de modèles d'apprentissage machine efficaces et évolutifs opérant sur des Tera-Octets de données est une nécessité. Dans cette thèse, nous étudions un cadre d'apprentissage machine pour la classification hiérarchique à large échelle. Cette analyse comprend l'étude des défis comme la complexité d'entraînement des modèles ainsi que leur temps de prédiction. Dans la première partie de la thèse, nous étudions la distribution des lois de puissance sous-jacente à la création des taxonomies à grande échelle. Cette étude permet de dériver des bornes sur la complexité spatiale des classifieurs hiérarchiques. L'exploitation de ce résultat permet alors le développement des modèles efficaces pour les classes distribuées selon une loi de puissance. Nous proposons également une méthode efficace pour la sélection de modèles pour des classifieurs multi-classes de type séparateurs à vaste marge ou de la régression logistique. Dans une deuxième partie, nous étudions le problème de la classification hiérarichique contre la classification plate d'un point de vue théorique. Nous dérivons une borne sur l'erreur de généralisation qui permet de définir les cas où la classification hiérarchique serait plus avantageux que la classification plate. Nous exploitons en outre les bornes développées pour proposer deux méthodes permettant adapter une taxonomie donnée de catégories à une taxonomies de sorties qui permet d'atteindre une meilleure performance de test. / In the era of Big Data, we need efficient and scalable machine learning algorithms which can perform automatic classification of Tera-Bytes of data. In this thesis, we study the machine learning challenges for classification in large-scale taxonomies. These challenges include computational complexity of training and prediction and the performance on unseen data. In the first part of the thesis, we study the underlying power-law distribution in large-scale taxonomies. This analysis then motivates the derivation of bounds on space complexity of hierarchical classifiers. Exploiting the study of this distribution further, we then design classification scheme which leads to better accuracy on large-scale power-law distributed categories. We also propose an efficient method for model-selection when training multi-class version of classifiers such as Support Vector Machine and Logistic Regression. Finally, we address another key model selection problem in large scale classification concerning the choice between flat versus hierarchical classification from a learning theoretic aspect. The presented generalization error analysis provides an explanation to empirical findings in many recent studies in large-scale hierarchical classification. We further exploit the developed bounds to propose two methods for adapting the given taxonomy of categories to output taxonomies which yield better test accuracy when used in a top-down setup.
9

Déploiement large échelle du POCIS pour l’évaluation de la contamination par les pesticides dans les eaux de surface : apports et complémentarité dans le cadre des réseaux de surveillance du bassin Adour-Garonne / Large-scale deployment of POCIS for the evaluation of pesticide contamination in surface waters : contribution and complementarity within the Adour-Garonne basin monitoring networks

Bernard, Marion 10 December 2018 (has links)
Les milieux aquatiques sont les réceptacles finaux des pesticides organiques et inorganiques. Ainsi, des textes réglementaires fixant des objectifs afin de préserver et restaurer l’état des milieux aquatiques ont été établis (ex. Directive Cadre sur l’Eau). Ces textes réglementaires ou les programmes d'actions s'accompagnent de la mise en place de réseaux de suivi de la qualité des eaux. Ces suivis sont effectués via la réalisation de prélèvements ponctuels d'eau, fournissant une donnée souvent sujette à un manque de représentativité temporelle. Pour estimer de façon plus robuste une concentration moyenne dans le temps, des techniques d’échantillonnage passif ont été développées. Celles-ci permettent la pré-concentration in situ des contaminants et disposent d’une capacité intégrative sur plusieurs semaines. Ces travaux de thèse sont axés sur le Polar Organic Chemical Integrative Sampler (POCIS), largement utilisé pour l’échantillonnage des pesticides moyennement polaires et non ionisables (0<log Kow<4).Le premier volet de ces travaux de thèse avait pour objectif de tester la capacité du POCIS à intégrer de brèves variations de concentration en pesticides. Pour ce faire, une expérimentation simulant des pics de contamination d’intensités et de durées variables a été menée dans des conditions contrôlées de laboratoire. Cette expérimentation a démontré que la réactivité du POCIS face à de tels événements était dépendante des propriétés physico-chimiques des pesticides ciblés (notamment du log Kow) et de la durée d’exposition. Des profils d’accumulation différents ont été observés, avec deux phénomènes opposés survenus en début d’exposition, soit le « burst effect » ou le « lag effect ». Malgré ces deux phénomènes, le domaine d’applicabilité du POCIS a été mieux défini puisqu’il a été démontré que pour des pesticides caractérisés par un log Kow entre 2 et 4, les pics de contamination étaient bien pris en compte dans la concentration moyennée obtenue.Le second volet de ces travaux devait définir à large échelle l’apport du POCIS en complément des réseaux de suivi basés sur les prélèvements ponctuels. Dans ce contexte, 51 sites du réseau de contrôle DCE localisés sur les cours d’eau du bassin Adour-Garonne ont été échantillonnés 6 fois en 2016 via ces deux techniques. L’exploitation des données acquises pendant cette année de terrain s’est découpée en deux axes. Le premier avait pour objectif de comparer les informations fournis via les deux techniques. L’apport des caractéristiques intégratives du POCIS y a été démontré. En effet, le POCIS permet d’améliorer significativement le nombre de pesticides quantifiés ainsi que leur fréquence de quantification. De plus, il fournit une meilleure représentativité temporelle des niveaux de contamination mesurés, puisqu’il permet d’avoir une image plus réaliste des variations annuelles des concentrations en lien avec les usages des pesticides ciblés (saisonnalité). Ainsi, la combinaison de ces deux techniques a permis une meilleure caractérisation de la pression « pesticides » subie par le bassin Adour-Garonne.Le second axe visait à proposer une méthodologie d’exploitation automatisée permettant une interprétation visuelle et simple d’un jeu de données conséquent (> 10 000 données). Les données acquises avec les POCIS ont été utilisées pour réaliser des analyses multivariées, type « principal component analysis » et « hierarchical cluster analysis » afin de démontrer des liens entre occupation du sol et pesticides quantifiés. De plus, l’empreinte « pesticides » de chaque site a été établie. Ainsi, ce dernier axe a permis une meilleure caractérisation des zones les plus à risques ainsi qu’une identification rapide des sources potentielles.Ces travaux de thèse ont donc démontré des aspects fondamentaux et appliqués qui confirment l’intérêt du POCIS pour évaluer la qualité des eaux superficielles vis-à-vis des pesticides. / The aquatic environments are considered as the final receptacles of organic or inorganic pesticides. Thus, regulatory texts were established in order to preserve and restore the good status for the aquatic environments (e.g. Water Framework Directive). Currently, the conventional method for freshwater analysis is grab sampling several times per year with a lack of temporal representativeness. To overcome this issue, and in the aim of estimating a robust average concentration over time, passive sampling strategies have been developed. These samplers allow an in situ pre-concentration of contaminants and offer an integrative capacity of several weeks. This thesis focuses on the Polar Organic Chemical Integrative Sampler (POCIS), which is widely used for the sampling of moderately polar or no-ionizable pesticides (0<log Kow<4).The first part of this thesis aimed to test the POCIS capacity to integrate short pesticides contamination peaks. In this way, a laboratory controlled-conditions experiment which included pesticides contamination peaks of variable intensity and duration was performed over 14 days. This experiment proved that POCIS response depends on physico-chemical properties of the studied pesticides and also on the exposure duration. During the first part of the exposure period two different phenomena were observed, which were a “burst effect” or a “lag effect”. Despite these, short contamination peaks were well integrated in the time weighted average concentration, for pesticides with log Kow between 2 and 4.The second part of this thesis was to define, at a large scale, the contribution of POCIS as a complement to the monitoring networks based on grab samples. In this context, 51 monitoring stations located in the Adour-Garonne basin were sampled with these two techniques during 6 periods in 2016. The analysis of the large amount of data collected during this 1-year monitoring was divided into two axes. Firstly, information provided with POCIS and grab samples was compared. The contribution of the integrative capacity of POCIS was demonstrated; this capacity allowed us to obtain additional and complementary information to those of the monitoring networks. Indeed, POCIS improved significantly the number of quantified pesticides as well as their quantification frequency. Moreover, POCIS brought a better temporal representativeness of contamination levels, since it provided a more realistic picture of the annual variations in concentration levels related to the seasonality in the use of some pesticides. Thus, the combination of grab samples and POCIS provided a better assessment of pesticide contamination levels in the Adour-Garonne basin.The second axis aimed to propose an automated methodology allowing a visual and simple interpretation of a large dataset (> 10,000 data). Data acquired with POCIS were used to demonstrate correlations between land use and quantified pesticides. In this context, multivariate analyses, such as hierarchical clustering and principal component analyses, confirmed the relationship between land use in the watershed and the major pesticides quantified. Then, the "pesticide" fingerprint of each site was established. Finally, this last axis has made it possible to better characterize the sites most at risk and to quickly identify potential sources.This thesis work demonstrated fundamental and applied aspects, which confirm the interest of the POCIS in assessing the freshwater quality for pesticides.
10

Scalable services for massively multiplayer online games / Services passant à l'échelle pour les jeux massivement multi-joueurs en ligne

Veron, Maxime Pierre Andre 25 September 2015 (has links)
Les jeux massivement multi-joueurs en ligne (jeux MMOGs) visent à rassembler un nombre infini de joueurs dans le même univers virtuel. Pourtant, tous les MMOG existants reposent sur des architectures client / serveur centralisé qui imposent une limite sur le nombre maximum de joueurs (avatars) et sur les ressources qui peuvent coexister dans un univers virtuel donné. Cette thèse vise à proposer des solutions pour améliorer l'évolutivité de MMOG. Cette thèse explore deux services qui sont essentiels à toutes les variantes de MMOG: jumelage et détection de triche. Ces deux services sont les goulots d'étranglement connus, et pourtant les implémentations actuelles restent centralisées. Cette thèse montre également qu'il est possible de concevoir un service d'arbitrage au-dessus d'un système de réputation. Le service résultant reste très efficace sur une grande échelle, à la fois en termes de performance et en termes de prévention de la fraude. Comme l'arbitrage est un problème similaire à la détection de fautes, cette thèse étend l'approche proposée pour surveiller les défaillances. / Massively Multi-player Online Games (MMOGs) aim at gathering an infinite number of players within the same virtual universe. Yet all existing MMOGs rely on centralized client/server architectures which impose a limit on the maximum number of players (avatars) and resources that can coexist in any given virtual universe. This thesis aims at proposing solutions to improve the scalability of MMOGs. To address the wide variety of their concerns, MMOGs rely on independent services such as virtual world hosting, avatar storage, matchmaking, cheat detection, and game design. This thesis explores two services that are crucial to all MMOG variants: matchmaking and cheat detection. Both services are known bottlenecks, and yet current implementations remain centralized. This thesis also shows that it is possible to design a peer to peer refereeing service on top of a reputation system. The resulting service remains highly efficient on a large scale, both in terms of performance and in terms of cheat prevention. Since refereeing is somewhat similar to failure detection, this thesis extends the proposed approach to monitor failures. The resulting failure detection service scales with the number of monitored nodes and tolerates jitter.

Page generated in 0.0703 seconds