• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 318
  • 91
  • 22
  • 2
  • Tagged with
  • 442
  • 198
  • 105
  • 73
  • 66
  • 54
  • 52
  • 48
  • 44
  • 42
  • 38
  • 38
  • 37
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Gestion multisite de workflows scientifiques dans le cloud / Multisite management of scientific workflows in the cloud

Liu, Ji 03 November 2016 (has links)
Les in silico expérimentations scientifiques à grande échelle contiennent généralement plusieurs activités de calcule pour traiter big data. Workflows scientifiques (SWfs) permettent aux scientifiques de modéliser les activités de traitement de données. Puisque les SWfs moulinent grandes quantités de données, les SWfs orientés données deviennent un problème important. Dans un SWf orienté donnée, les activités sont liées par des dépendances de données ou de contrôle et une activité correspond à plusieurs tâches pour traiter les différentes parties de données. Afin d’exécuter automatiquement les SWfs orientés données, Système de management pour workflows scientifiques (SWfMSs) peut être utilisé en exploitant High Perfmance Comuting (HPC) fournisse par un cluster, grille ou cloud. En outre, SWfMSs génèrent des données de provenance pour tracer l’exécution des SWfs.Puisque le cloud fournit des services stables, diverses ressources, la capacité de calcul et de stockage virtuellement infinie, il devient une infrastructure intéressante pour l’exécution de SWf. Le cloud données essentiellement trois types de services, i.e. Infrastructure en tant que Service (IaaS), Plateforme en tant que Service (PaaS) et Logiciel en tant que Service (SaaS). SWfMSs peuvent être déployés dans le cloud en utilisant des Machines Virtuelles (VMs) pour exécuter les SWfs orientés données. Avec la méthode de pay-as-you-go, les utilisateurs de cloud n’ont pas besoin d’acheter des machines physiques et la maintenance des machines sont assurée par les fournisseurs de cloud. Actuellement, le cloud généralement se compose de plusieurs sites (ou centres de données), chacun avec ses propres ressources et données. Du fait qu’un SWf orienté donnée peut-être traite les données distribuées dans différents sites, l’exécution de SWf orienté donnée doit être adaptée aux multisite cloud en utilisant des ressources de calcul et de stockage distribuées.Dans cette thèse, nous étudions les méthodes pour exécuter SWfs orientés données dans un environnement de multisite cloud. Certains SWfMSs existent déjà alors que la plupart d’entre eux sont conçus pour des grappes d’ordinateurs, grille ou cloud d’un site. En outre, les approches existantes sont limitées aux ressources de calcul statique ou à l’exécution d’un seul site. Nous vous proposons des algorithmes pour partitionner SWfs et d’un algorithme d’ordonnancement des tâches pour l’exécution des SWfs dans un multisite cloud. Nos algorithmes proposés peuvent réduire considérablement le temps global d’exécution d’un SWf dans un multisite cloud.En particulier, nous proposons une solution générale basée sur l’ordonnancement multi-objectif afin d’exécuter SWfs dans un multisite cloud. La solution se compose d’un modèle de coût, un algorithme de provisionnement de VMs et un algorithme d’ordonnancement des activités. L’algorithme de provisionnement de VMs est basé sur notre modèle de coût pour générer les plans à provisionner VMs pour exécuter SWfs dans un cloud d’un site. L’algorithme d’ordonnancement des activités permet l’exécution de SWf avec le coût minimum, composé de temps d’exécution et le coût monétaire, dans un multisite cloud. Nous avons effectué beaucoup d’expérimentations et les résultats montrent que nos algorithmes peuvent réduire considérablement le coût global pour l’exécution de SWf dans un multisite cloud. / Large-scale in silico scientific experiments generally contain multiple computational activities to process big data. Scientific Workflows (SWfs) enable scientists to model the data processing activities. Since SWfs deal with large amounts of data, data-intensive SWfs is an important issue. In a data-intensive SWf, the activities are related by data or control dependencies and one activity may consist of multiple tasks to process different parts of experimental data. In order to automatically execute data-intensive SWfs, Scientific Work- flow Management Systems (SWfMSs) can be used to exploit High Performance Computing (HPC) environments provided by a cluster, grid or cloud. In addition, SWfMSs generate provenance data for tracing the execution of SWfs.Since a cloud offers stable services, diverse resources, virtually infinite computing and storage capacity, it becomes an interesting infrastructure for SWf execution. Clouds basically provide three types of services, i.e. Infrastructure-as-a-Service (IaaS), Platform- as-a-Service (PaaS) and Software-as-a-Service (SaaS). SWfMSs can be deployed in the cloud using Virtual Machines (VMs) to execute data-intensive SWfs. With a pay-as-you- go method, the users of clouds do not need to buy physical machines and the maintenance of the machines are ensured by the cloud providers. Nowadays, a cloud is typically made of several sites (or data centers), each with its own resources and data. Since a data- intensive SWf may process distributed data at different sites, the SWf execution should be adapted to multisite clouds while using distributed computing or storage resources.In this thesis, we study the methods to execute data-intensive SWfs in a multisite cloud environment. Some SWfMSs already exist while most of them are designed for computer clusters, grid or single cloud site. In addition, the existing approaches are limited to static computing resources or single site execution. We propose SWf partitioning algorithms and a task scheduling algorithm for SWf execution in a multisite cloud. Our proposed algorithms can significantly reduce the overall SWf execution time in a multisite cloud.In particular, we propose a general solution based on multi-objective scheduling in order to execute SWfs in a multisite cloud. The general solution is composed of a cost model, a VM provisioning algorithm, and an activity scheduling algorithm. The VM provisioning algorithm is based on our proposed cost model to generate VM provisioning plans to execute SWfs at a single cloud site. The activity scheduling algorithm enables SWf execution with the minimum cost, composed of execution time and monetary cost, in a multisite cloud. We made extensive experiments and the results show that our algorithms can reduce considerably the overall cost of the SWf execution in a multisite cloud.
142

La prise en charge de l'arthrose des membres inférieurs ; aspect de santé publique / Management of knee and hip osteoarthritis; public health aspects

Salmon, Jean-Hugues 20 February 2019 (has links)
L’arthrose est la maladie articulaire la plus fréquente pouvant être responsable d’une perte d’autonomie et d’un handicap fonctionnel majeur. Du fait du vieillissement de la population et de la prévalence de l’obésité, le nombre de personnes ayant une arthrose des membres inférieurs va augmenter dans les années à venir et entrainer une explosion des dépenses de santé. La cohorte « Knee and Hip OsteoArthritis Long-term Assessment » (KHOALA) est une cohorte française multicentrique représentative de patients atteints d’arthrose symptomatique de hanche et/ou de genou.Les objectifs de ce projet étaient d’établir une revue de la littérature sur les conséquences économiques de l'arthrose de hanche et/ou du genou. Puis à partir de la cohorte KHOALA, nous avons décrit la consommation de soins ; identifié les facteurs associés aux trajectoires d'utilisation des ressources de santé et estimé les coûts annuels totaux. Enfin nous avons réalisé une analyse systématique de la littérature sur les analyses coût-efficacité des anti-arthrosiques d’action lente et de l’acide hyaluronique intra articulaire dans l’arthrose de genoux.La revue systématique a objectivé une hétérogénéité des couts totaux par patient (de 0,7 à 12 k€/an). Les données de KHOALA ont démontré que la majorité des patients consultait son médecin généraliste et une minorité de patients consultait un spécialiste. Le seul facteur clinique indépendant prédictif des consultations des professionnels de la santé était l'état de santé mentale. Le coût total annuel moyen par patient sur la période d'étude de 5 ans était de 2180 ± 5 305 €. En France, les coûts médians pourraient atteindre 2 milliards € / an (IQR 0,7–4,3). / Osteoarthritis is the most common joint disease that can be responsible for a loss of autonomy and a major functional disability. With the aging of the population and the prevalence of obesity, the number of people with lower limb osteoarthritis will increase in the coming years and lead to an explosion of health spending. The "Knee and Hip OsteoArthritis Long-term Assessment" cohort (KHOALA) is a representative French multicenter cohort of patients with symptomatic hip and / or knee osteoarthritis.The aims of this thesis were to provide an overview of the economic consequences of hip and knee osteoarthritis worldwide. Then from the KHOALA cohort, we described health care resources use in the KHOALA cohort, we identified factors associated with trajectories of healthcare use and we estimated the annual total costs. Finally, we conducted a systematic review of the literature on the cost effectiveness of intra-articular hyaluronic acid and disease-modifying osteoarthritis drugs used in the treatment of knee OA.The systematic review showed a heterogeneity of the total costs per patient (from 0.7 to 12 k € / year). KHOALA data showed that primary care physicians have a central role in osteoarthritis care, mental health state was the only independent predictive factor of healthcare professional consultations. The mean annual total cost per patient over 5 years was 2180 ± 5,305 €. In France, median annual total costs would be approximately 2 billion €/year (IQR 0.7-4.3).
143

Coût du prélèvement d'organes dans le système de soins français / Organ recovery cost in the French healthcare system

Hrifach, Abdelbaste 25 October 2018 (has links)
Dans la première partie, une méthode mixte combinant le top-down micro-costing et le bottom-up micro-costing a été développée afin d’évaluer le coût du prélèvement d’organes au sein d’un groupement hospitalier français. Cette méthode mixte a été comparée à une méthode utilisant exclusivement le top-down micro-costing, afin de mesurer les écarts entre les deux approches. Dans la seconde partie, la valorisation de la procédure de greffe des îlots de Langerhans a illustré l’usage pouvant être fait du coût du prélèvement d’organes. Au cours de la troisième partie, l’évaluation du coût du prélèvement a été étendue à l’ensemble des organes pouvant être prélevés sur une période de 8 années consécutives. Cette évaluation a été réalisée à partir d’une base de donnée médico-administrative nationale et de l’Etude Nationale de Coût. Les résultats des deux premières publications, chacune fondée sur une base de données spécifique, semblent fortement diverger. La dernière partie s’évertue à comparer le coût du prélèvement d’organes à partir de deux bases de données distinctes : la Comptabilité Analytique Hospitalière et l’Etude Nationale de Coût. Cette analyse a souligné les différences de coût existant entre deux bases de données pourtant intimement liées, l’une incrémentant l’autre. Les différences ont conduit à relativiser et à interpréter avec davantage de précaution les coûts du prélèvement d’organes évalués à partir des bases nationales. L’utilisation de différentes méthodes d’évaluation des coûts, de même que l’utilisation de différentes bases de données aboutissent à des écarts de coûts importants. Il est fondamental que les lecteurs, les directeurs d’hôpitaux, et les décideurs, gardent à l’esprit les forces et faiblesses de chaque approche méthodologique et de chaque base de données afin d’interpréter les résultats dans un contexte éclairé / In a first part, we developed a mixed method combining top-down micro-costing and bottom-up micro-costing to accurately assess the costs of organ recovery in a French hospital group. We compared this mixed method versus full top-down micro-costing to assess potential differences. In view of illustration, we applied in a second part the results of pancreas recovery cost to value the islet transplantation procedure. During a third part, we assessed organ recovery costs based on the national hospital discharge database and a national cost study from 8 consecutive years. Results of the first and the second publication, each based on specific database, appear to be widely different. We compared, in a last part, the hospital cost accounting system in a French hospital group with the national cost study in terms of the cost of organ recovery procedures. This study highlights the cost differences existing between hospital cost accounting and the national cost study. These differences relativize and lend caution to the interpretation of the results of our previous study assessing organ recovery cost from national data. Given these differences, it is fundamental for readers, hospital managers and decision-makers to know the strengths and weaknesses of each methodological approach and the strengths and weaknesses of each database used to be able to interpret the results in an informed context
144

La place du coût énergétique dans les facteurs de performance en trail running / The place of energy cost among performance factors in trail running

Balducci, Pascal 20 March 2017 (has links)
Le trail running, course nature de distances, dénivelés et technicités variables, est une discipline récente à la popularité croissante. La performance en trail dépend de nombreux facteurs génétiques, énergétiques, techniques, stratégiques et motivationnels. Parmi ces facteurs, le coût énergétique de la locomotion fait débat. Les études de cette Thèse s'attachent aux corrélations plat/montée de cette variable, au calcul d'un coût en pente à partir d'un coût à plat, à l'influence de la modification forcée de la fréquence de foulée sur l'énergie consommée, et à l'impact de la fatigue générée par un ultra trail sur le coût à plat et en montée. La prise en compte des contraintes musculaires et biomécaniques en trail d'une part, des facteurs influençant l'économie de course d'autre part, ainsi que des résultats de notre principale étude de terrain, nous laissent émettre l'hypothèse que le coût énergétique et ses variations pre/post course à plat/montée, ne sont pas des indicateurs de performance de l'activité. La force, l'endurance de force et le pacing, en plus de la puissance aérobie et de l'endurance, sont les variables testées les mieux corrélées à la performance en ultra trail / Trail running is a discipline with increasing popularity over the last 2 decades. Trail performance depends on many genetic, energetic, technical, strategic and motivational factors. Among these factors, the energy cost of locomotion is debated. The studies in this Thesis focus on the level/graded correlations of this variable, on the calculation of an uphill cost from a level cost, on the influence of a forced modification of stride frequency on running economy, and on the impact of fatigue generated by an ultra trail on level and uphill costs. Taking account of the muscular and biomechanical constraints on the one hand, and the factors influencing the running economy on the other hand, as well as the results of our main field study, we hypothesize that energy cost and its pre/post fatigue variations, are not performance indicators of the activity. Force, endurance of force and pacing, in addition to aerobic power and endurance, are the tested variables best correlated to ultra trail performance
145

Optimisation de consommation pour un véhicule de type voiture / Optimisation of energy consumption for a car-like vehicle

Oukacha, Ouazna 17 November 2017 (has links)
Cette thèse présente l’étude d’un problème de contrôle optimal dont le coût est non-différentiable pourcertaines valeurs du contrôle ou de l’état, tout en restant Lipschitz. Ce problème nous a été inspiré par laproblématique générale de la minimisation de l’énergie dépensée par un véhicule ou robot de type voiture lelong d’un trajet dont le profil de route est connu à l’avance. Cette problématique est formulée à l’aide d’unmodèle simple de la dynamique longitudinale du véhicule et une fonction coût qui englobe la notiond’efficacité du processus de conversion énergétique. Nous présentons un résultat de régularité des contrôles,valable pour la classe des systèmes non-linéaires, affines dans les contrôles, classe à laquelle appartient notreproblème. Ce résultat nous permet d’exclure les phénomènes de chattering de l’ensemble des solutions. Nousréalisons trois études de cas pour lesquelles les trajectoires optimales sont composées d’arcs bang,d’inactivations, d’arcs singuliers et, dans certains cas, de retours en arrière. / The present thesis is a study of an optimal control problem having a non-differentiable, but Lipschitz, costfunction. It is inspired by the minimization of the energy consumption of a car-like vehicle or robot along aroad which profile is known. This problem is stated by means of a simple model of the longitudinal dynamicsand a running cost that comprises both an absolute value function and a function that accounts for theefficiency of the energy conversion process. A regularity result that excludes chattering phenomena from theset of solutions is proven. It is valid for the class of control affine systems, which includes the consideredproblem. Three case studies are detailed and analysed. The optimal trajectories are shown to be made of bang,inactivated and backward arcs.
146

Estimation de la dépense énergétique chez des personnes diabétiques de type 2 à l'aide de capteurs "intelligents" / Estimation of energy expenditure in type 2 diabetic patients using a "smart" sensor

Caron, Nathan 06 December 2017 (has links)
L'objectif de cette thèse était de faire un bilan des méthodes et outils validés chez les patients DT2 et de développer une méthode d'estimation de la DE précise et adaptée à ces patients. Après avoir défini les activités quotidiennes les plus couramment réalisées dans une population de patients DT2 (Étude 1), nous nous sommes intéressés aux activités statiques et à la marche. Notre seconde étude a montré que le coût énergétique brut et net lors de la marche est respectivement 8,7 et 14,3 % plus élevé chez les patients DT2 en comparaison à un groupe témoin. Ce résultat mettait en avant la nécessité de valider une méthode d'estimation de la DE adaptée aux spécificités de la population diabétique. Les résultats de notre troisième étude ont démontré la validité de la DE estimée à partir d'un capteur intelligent et d'un algorithme existant pour différentes positions statiques et vitesses de marche chez des sujets DT2 et témoins. Enfin, dans une quatrième étude, trois équations d'estimation de la DE totale ont été développées à partir des données d'accélérations issues de trois capteurs intelligents (bas du dos, hanche et cheville) pour une population de sujets DT2 et témoins. Ces trois équations permettent d'estimer une DE totale lors d'activités statiques et de marches avec une différence moyenne respectivement de 0,009, -0,007 et -0,008 kcal/min pour le bas du dos, la hanche et la cheville en comparaison à celle de référence. Ainsi, ce travail de thèse a permis de valider trois équations d’estimation de la DE totale adaptés à une population de patients DT2, normo-pondérés ou en surpoids et âgés de 35 à 80 ans, basés sur les données d'un capteur intelligent. / The aim of this thesis is to review the methods and tools validated in T2D patients and to developed precise and adapted EE estimation method for these patients. After defining the most common daily activity in T2D patients (Study 1), we are interested, in particular, on static activities and walking. The results of our second study showed that the gross and net metabolic rate were 8.7 % and 14.3 % higher in T2D patients than in control subjects, respectively. These results highlight the need to validate an EE estimation method, adapted to diabetic’s specificities. The results of our third study demonstrated the validity of the activity-related EE estimated with a smart sensor and a validated algorithm during static activities and walking in T2D patients and healthy subjects. However, our results showed a lower accuracy of the estimated EE during walking in T2D patients in comparison with healthy subjects. Finally, in a fourth study, three equations estimating the total EE have been developed with acceleration data from three smart sensors (lower back, hip and ankle) and personal data (body mass index, sex, diabetes) from T2D and healthy subjects. These three equations allow to estimate the total EE during static activities and walking with a mean bias of 0.009, -0.007 et -0.008 kcal/min for the lower back, hip and ankle equation, respectively, in comparison with the reference value. Thus, this thesis enables to validate three suitable equations for the estimation of total EE in population including healthy and T2D patients, normal-weighted and overweighed and aged between 35 and 80 years, based on data from a smart sensor.
147

Groupement d'Objets Multidimensionnels Etendus avec un Modèle de Coût Adaptatif aux Requêtes

Saita, Cristian-Augustin 13 January 2006 (has links) (PDF)
Nous proposons une méthode de groupement en clusters d'objets multidimensionnels étendus, basée sur un modèle de co^ut adaptatif aux requêtes, pour accélérer l'exécution des requêtes spatiales de type intervalle (e.g., intersection, inclusion). Notre travail a été motivé par l'émergence de nombreuses applications de dissémination sélective d'informations posant de nouveaux défis au domaine de l'indexation multidimensionnelle. Dans ce contexte, les approches d'indexation existantes (e.g., R-trees) ne sont pas adaptées aux besoins applicatifs tels que scalabilité (beaucoup d'objets avec des dimensions élevées et des extensions spatiales), performance de recherche (taux élevés de requêtes), performance de mise à jour (insertions et suppressions fréquentes d'objets) et adaptabilité (à la distribution des objets et des requêtes, et aux paramètres systèmes). Dans notre méthode, nous relâchons plusieurs propriétés spécifiques aux structures d'indexation arborescentes classiques (i.e. équilibrage de l'arbre et du partitionnement, englobement minimal des objets) en faveur d'une stratégie de groupement basée sur un modèle de co^ut adaptatif. Ce modèle de co^ut tient compte des caractéristiques de la plateforme d'exécution, de la distribution spatiale des objets et surtout de la distribution spatiale des requêtes. Plus précisément, la distribution des requêtes permet de déterminer les dimensions les plus sélectives et discriminantes à utiliser dans le regroupement des objets. Nous avons validé notre approche par des études expérimentales de performance impliquant de grandes collections d'objets et des requêtes d'intervalles avec des distributions uniformes et non-uniformes.
148

Gestion optimale des consommations d'énergie dans les bâtiments

Le, Ky 10 July 2008 (has links) (PDF)
L'objectif de la thèse est de fournir les méthodes qui permettent de gérer au mieux l'énergie en assurant le confort souhaité. Les modèles de charges sont développés et validés par des mesures. La prévision à court-terme de la consommation correspondant aux multi bâtiments (région) et au secteur résidentiel est proposée par réseaux de neurones et la méthode ascendante. Trois méthodes originales de la gestion optimale prédictive des chauffages et des climatisations sont développées: optimisation du confort thermique, minimisation des pics et minimisation des coûts de consommation. Deux méthodes originales de la gestion des charges en temps réel sont proposées: méthode basée sur un système de régulation adaptative des chauffages et des climatisations et méthode basée sur le délestage en fonction de la courbe de protection. Les méthodes proposées sont validées par simulation pour une maison (secteur résidentiel) et un hôtel (secteur tertiaire) avec les résultats satisfaisants.
149

Exploitation socio-économique de la modélisation souterraine du transfert des nitrates à l'échelle du bassin de la Seine

Viavattene, Christophe 02 1900 (has links) (PDF)
Avec les lois sur l'eau de 1964 et 1992, la France s'est dotée d'une gestion intégrée et décentralisée de la ressource en eau, organisée autour de six bassins hydrographiques. Sans remettre en cause les fondements de cette organisation, la Directive Cadre sur l'Eau (DCE), adoptée le 22 décembre 2000, renforce cette gestion en fixant des objectifs environnementaux planifiés, en l'organisant au sein de sous entités hydrographiques, les masses d'eau, et en prônant l'utilisation de l'analyse économique. Dès 2009, les Agences de l'Eau doivent définir un plan de gestion fixant les objectifs à atteindre en 2015, première échéance de la DCE, et un programme de mesures nécessaires à leur réalisation. Parmi les objectifs de reconquête de la qualité des eaux, la réduction des contaminations nitriques des ressources en eau souterraine du bassin de la Seine constitue un des grands enjeux auxquels doivent faire face les gestionnaires. La principale source de cette contamination est une pollution diffuse d'origine agricole étendue à l'ensemble du bassin. Depuis plusieurs années, des efforts ont déjà été initiés en instaurant la mise en place de mesures agro-environnementales. Mais en raison de l'efficacité partielle de ce type de mesure et des temps de réponse souvent longs des aquifères, on est en droit de se demander si ce type de mesures suffira à remplir l'objectif de bon état chimique des eaux souterraines à l'horizon 2015. La première étape de notre travail a donc consisté en une exploitation prospective du modèle agro-hydrologique MODSUR-STICS-NEWSAM, développé dans le cadre du programme PIREN-Seine pour simuler l'impact des pollutions diffuses azotées d'origine agricole sur les trois principaux aquifères du bassin de la Seine. Sur la base d'un recensement des pratiques agricoles observées à l'échelle de grandes régions agricoles sur la période 1992-1998, deux scénarios ont été élaborés: continuité de ces pratiques en "laisser-faire" et application de mesures agro-environnementales. L'évolution de la médiane de la distribution des concentrations mesurées en nitrates, indice statistique caractérisant chaque aquifère, permet d'estimer l'impact des mesures à diverses échéances. Par confrontation entre données simulées avec données observées sur une période de 30 ans, le risque de dépassement d'une valeur seuil est évalué pour chaque cellule du modèle et agrégé à l'échelle des masses d'eau souterraines du bassin. Chaque masse d'eau peut alors être caractérisée par sa probabilité de franchissement des seuils de concentration de 25, 40, 50 et 100 mgNO3/l. La seconde partie de ce mémoire a pour objectif de mettre en œuvre l'exploitation socio-économique des résultats du modèle en déterminant les coûts et les bénéfices attendus des mesures agricoles préventives. Les surcoûts supportés par les agriculteurs tiennent compte des variations de rendements simulés par STICS et des coûts imputables à la mise en place des mesures. L'évaluation des bénéfices se limite à l'estimation des dommages évités pour la production domestique d'eau potable depuis les ressources en eau souterraine. Deux méthodes ont été employées. La première est basée sur l'approche de R.L. Raucher appliquée à l'ensemble du bassin en supposant qu'un traitement curatif systématique des eaux brutes est mis en œuvre dès que la probabilité de dépassement du seuil de 50 mgNO3/l devient trop grande. La seconde approche simule à l'aide s'un système multi-agents (SMA), le comportement des unités de gestion et d'exploitation (UGE) face à une pollution avérée de leur ressource. Ce modèle, baptisé WATER-RUSH, est appliqué sur plusieurs décennies au territoire de trois masses d'eau du bassin de la Seine couvrant 612 UGE, soit 1 027 communes. Cet outil permet de tester les différentes solutions pouvant être adoptées par les UGE suivant un critère de moindre coût et la prise en compte des conditions locales d'exploitation: mélange au sein du réseau, approfondissement des captages, traitement des eaux brutes, abandon et recherche de nouvelle ressource intra ou extra UGE. Sur cette base, le surcoût de chaque solution est calculé annuellement sur toute la période simulée et rapporté au mètre cube produit.
150

Athapascan-1 : interprétation distribuée du flot de données d'un programme parallèle

Galilée, François 22 September 1999 (has links) (PDF)
Cette thèse est centrée sur la modélisation de l'exécution d'une application parallèle par un graphe de flot de données. Ce graphe, qui relie les tâches aux données partagées, est construit de manière dynamique. Cette construction, indépendante de l'ordonnancement des tâches effectué, permet de définir la sémantique des accès aux données et de controler la consommation mémoire de toute exécution. Nous étudions dans une première partie les algorithmes permettant la construction et la gestion d'un tel graphe de flot de données dans un environnement distribué. Un point crucial de ces algorithmes est la détection de terminaison des accès des tâches sur les données partagées. Nous proposons un algorithme réactif réalisant cette détection. L'implantation de cet algorithme est au centre de l'implantation distribuée de l'interface de programmation parallèle Athapascan-1. Cette interface permet la description du parallélisme d'une application par création de tâches asynchrones. La sémantique (de type lexicographique) de cette interface est également définie à partir du graphe de flot de données. Nous montrons dans une deuxième partie que la connaissance du flot de données d'une application permet de controler de manière théorique la durée et, surtout, la consommation mémoire de toute exécution. Ce controle est effectué à partir d'un ordonnancement séquentiel implicite des tâches. Nous proposons, implantons dans Athapascan-1 et évaluons deux algorithmes d'ordonnancement distribués permettant de limiter le volume de mémoire requis par toute exécution. Ces expérimentations permettent de valider les résultats théoriques obtenus.

Page generated in 0.048 seconds