• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 316
  • 90
  • 22
  • 2
  • Tagged with
  • 437
  • 198
  • 105
  • 71
  • 65
  • 54
  • 52
  • 48
  • 44
  • 41
  • 38
  • 37
  • 37
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Algorithmes de routage : de la réduction des coûts de communication à la dynamique / Routing algorithms : from communication cost reduction to network dynamics

Glacet, Christian 06 December 2013 (has links)
Répondre à des requêtes de routage requiert que les entités du réseau, nommées routeurs, aient une connaissance à jour sur la topologie de celui-ci, cette connaissance est appelée table de routage. Le réseau est modélisé par un graphe dans lequel les noeuds représentent les routeurs, et les arêtes les liens de communication entre ceux ci.Cette thèse s’intéresse au calcul des tables de routage dans un modèle distribué.Dans ce modèle, les calculs sont effectués par un ensemble de processus placés sur les noeuds. Chaque processus a pour objectif de calculer la table de routage du noeud sur lequel il se trouve. Pour effectuer ce calcul les processus doivent communiquer entre eux. Dans des réseaux de grande taille, et dans le cadre d’un calcul distribué, le maintien à jour des tables de routage peut être coûteux en terme de communication. L’un des thèmes principaux abordés et celui de la réduction des coûts de communication lors de ce calcul. L’une des solutions apportées consisteà réduire la taille des tables de routage, permettant ainsi de réduire les coûts de communication. Cette stratégie classique dans le modèle centralisé est connue sous le nom de routage compact. Cette thèse présente notamment un algorithme de routage compact distribué permettant de réduire significativement les coûts de communication dans les réseaux tels que le réseau internet, i.e. le réseau des systèmes autonomes ainsi que dans des réseaux sans-échelle. Ce document contient également une étude expérimentale de différents algorithmes de routage compact distribués.Enfin, les problèmes liés à la dynamique du réseau sont également abordés. Plusprécisément le reste de l’étude porte sur un algorithme auto-stabilisant de calcul d’arbre de plus court chemin, ainsi que sur l’impact de la suppression de noeuds ou d’arêtes sur les tables de routage stockées aux routeurs. / In order to respond to routing queries, the entities of the network, nammedrouters, require to have a knowledge concerning the topology of the network, thisknowledge is called routing table. The network is modeled by a graph in whichnodes represent routers and edges represent communication links between nodes.This thesis focuses on routing tables computation in a distributed model. In thismodel, computations are done by a set of process placed on nodes. Every processhas for objective to compute the routing table of the node on which he is placed.To perform this computation, processes have to communicate with each other. Inlarge scale network, in the case of a distributed computation, maintaining routingtables up to date can be costly in terms of communication. This thesis focuses mainlyon the problem of communication cost reduction. One of the solution we proposeis to reduce routing tables size which allow to reduce communication cost. In thecentralised model this strategy is well known under the name of compact routing.This thesis presents in particular a distributed compact routing algorithm that allowsto reduce significantly the communication costs in networks like Internet, i.e. theautonomous systems network and others networks that present scale-free properties.This thesis also contains an experimental study of several distributed compact routingalgorithms. Finally, some problems linked to network dynamicity are addressed.More precisely, the problem of network deconnexion during a shortest path treecomputation with auto-stabilisation guaranties, together with a study of the impactof several edges or nodes deletion on the state of the routing tables.
132

Minimisation de fonctions de perte calibrée pour la classification des images / Minimization of calibrated loss functions for image classification

Bel Haj Ali, Wafa 11 October 2013 (has links)
La classification des images est aujourd'hui un défi d'une grande ampleur puisque ça concerne d’un côté les millions voir des milliards d'images qui se trouvent partout sur le web et d’autre part des images pour des applications temps réel critiques. Cette classification fait appel en général à des méthodes d'apprentissage et à des classifieurs qui doivent répondre à la fois à la précision ainsi qu'à la rapidité. Ces problèmes d'apprentissage touchent aujourd'hui un grand nombre de domaines d'applications: à savoir, le web (profiling, ciblage, réseaux sociaux, moteurs de recherche), les "Big Data" et bien évidemment la vision par ordinateur tel que la reconnaissance d'objets et la classification des images. La présente thèse se situe dans cette dernière catégorie et présente des algorithmes d'apprentissage supervisé basés sur la minimisation de fonctions de perte (erreur) dites "calibrées" pour deux types de classifieurs: k-Plus Proches voisins (kNN) et classifieurs linéaires. Ces méthodes d'apprentissage ont été testées sur de grandes bases d'images et appliquées par la suite à des images biomédicales. Ainsi, cette thèse reformule dans une première étape un algorithme de Boosting des kNN et présente ensuite une deuxième méthode d'apprentissage de ces classifieurs NN mais avec une approche de descente de Newton pour une convergence plus rapide. Dans une seconde partie, cette thèse introduit un nouvel algorithme d'apprentissage par descente stochastique de Newton pour les classifieurs linéaires connus pour leur simplicité et leur rapidité de calcul. Enfin, ces trois méthodes ont été utilisées dans une application médicale qui concerne la classification de cellules en biologie et en pathologie. / Image classification becomes a big challenge since it concerns on the one hand millions or billions of images that are available on the web and on the other hand images used for critical real-time applications. This classification involves in general learning methods and classifiers that must require both precision as well as speed performance. These learning problems concern a large number of application areas: namely, web applications (profiling, targeting, social networks, search engines), "Big Data" and of course computer vision such as the object recognition and image classification. This thesis concerns the last category of applications and is about supervised learning algorithms based on the minimization of loss functions (error) called "calibrated" for two kinds of classifiers: k-Nearest Neighbours (kNN) and linear classifiers. Those learning methods have been tested on large databases of images and then applied to biomedical images. In a first step, this thesis revisited a Boosting kNN algorithm for large scale classification. Then, we introduced a new method of learning these NN classifiers using a Newton descent approach for a faster convergence. In a second part, this thesis introduces a new learning algorithm based on stochastic Newton descent for linear classifiers known for their simplicity and their speed of convergence. Finally, these three methods have been used in a medical application regarding the classification of cells in biology and pathology.
133

L'assurance-chômage et le marché du travail contemporain / Unemployment insurance and comptaporary labour market

Coquet, Bruno 10 October 2011 (has links)
L’assurance chômage (AC) est un dispositif central des politiques du marché du travail. Une revue de littérature détaille ce que l’on sait de la pertinence et de l’optimalité de ces régimes dans le contexte du marché du travail contemporain. Elle illustre que si la stabilisation de la consommation des chômeurs est le motif générateur de l’AC, peu de travaux ont évalué cet aspect ou les autres effets positifs de l’AC, se focalisant sur les effets pervers du dispositif, notamment l’alea moral des chômeurs, et sur l’optimisation des règles pour les contenir. Dans la dernière décennie, la prise en compte des firmes et de la dynamique économique a rendu la littérature plus fertile pour optimiser les dépensescomme les ressources de l’AC.Les régimes d’AC profitent-ils de ces enseignements ? L’évolution des règles du régime français depuis 50 ans, ainsi que l’extrême diversité de celles en vigueur dans 5 pays incline à douter que ces régimes sont optimaux, surtout si on se limite à l’AC plutôt que de tenir compte de l’ensemble des transferts aux chômeurs pour analyser leurs comportements.La situation du régime français montre que ses fréquentes évolutions n’ont pas résolu ses problèmes. Il a subi, mais aussi stimulé, la récurrence au chômage, au prix d’une pression fiscale accrue et d’une efficacité dégradée pour la majorité des salariés et des firmes. En France comme dans de nombreux autres pays, les ressources de l’AC sont un domaine de réformes délaissé, alors qu’à tous points de vue (équité, incitations, équilibre financier, etc.) les gains potentiels d’une révision de leurs modalités sont plus élevés que ceux à attendre d’un nouvel ajustement marginal des droits. / Unemployment Insurance (UI) is a key labour market policy.A comprehensive survey of UI literature assesses what we know about UI optimality and its relevance regarding present labour market conditions. Despite of being its founding rationale, jobseekers’ consumption smoothing is rarely assessed, as well as other UI gains. In contrast research has long focused on UI adverse effects, namely recipients’ moral hazard, and on benefits optimization to control it. Recent literature better integrates firm and economic dynamics, thus being richer regarding the way UI benefits and financing rules could be more optimal.Do UI regimes build on this knowledge? An historical approach of French UI rules, and up to date descriptions of 5 other UI regimes, show an extreme diversity of UI arrangements, raising doubts about their optimality. Comprehensive analysis of social transfers to unemployed should be preferred to analysis restricted to UI benefits, because less misleading about unemployed real situation and behaviour.An in depth analysis of French UI rules illustrates that numerous reforms didn’t solve structural problems. The regime suffered increasing spending due to labour market changes, but it also stimulated adverse expensive behaviours among specific groups and short term contracts, both leading to heavier taxes and reduced efficiency for the bulk of workers and firms. In France as elsewhere, UI systems’ funding is a forsaken part of reforms. Yet regarding justice, incentives, financial stability, etc. reviewing rules governing resources could be more rewarding than implementing usual UI benefits reforms.
134

Etude du coût cognitif de l'écriture SMS chez les adolescents / Study of the cognitive load in adolescents’ SMS writing

Combes, Céline 19 May 2014 (has links)
Le SMS (Short Message Service) a favorisé la création d’une nouvelle forme d’écriture et offre la possibilité d’analyser de façon originale les processus généraux de la production écrite. L’étude de ces processus a permis de mettre en exergue le coût cognitif qu’ils représentent lors de leur mise en œuvre simultanée. Toutefois, si ces questions ont beaucoup été étudiées en production écrite conventionnelle, l’apparition de nouvelles formes d’écriture donnent l’occasion d’étudier l’orthographe de façon inédite. L’une des principales caractéristiques de l’écriture SMS (eSMS) est l’utilisation de formes orthographiques non conventionnelles (e.g., Slt pk tu menvoi ce mess ? Biz) qui peuvent sembler, au premier abord, plus simple et plus facile que celles de l’écriture conventionnelle. L’objectif de ce travail de thèse est donc de démontrer l’existence d’un coût cognitif de la production des processus spécifiques de l’écriture SMS chez les novices et de leur automatisation avec l’acquisition d’une expertise. Dans le cadre d’une épreuve d’écriture de SMS, nous avons fait varier, d’une part, le degré d’expertise des participants dans la pratique du SMS et, d’autre part, l’attention qu’ils pouvaient porter à cette tâche grâce à diverses variations du paradigme expérimental de la double tâche. Les résultats des différentes études expérimentales montrent que la production des processus spécifiques de l’eSMS présente un coût cognitif, comme ceux de l’écriture conventionnelle. Ce coût est particulièrement élevé chez les utilisateurs novices, et s’observe essentiellement en fin de message. Les processus spécifiques de l’eSMS s’automatisent ensuite avec l’acquisition d’une expertise. / SMS (Short Message Servicing) encourage the emergence of new writing forms and provides the opportunity to study in an original way the general processes of written production. The study of these processes allowed the highlighting of cognitive load that they represent during their simultaneous implementation. However, if these issues have been widely studied in conventional written production, appearance over the new forms of writing provide an opportunity to study spelling in a new way. One of the main characteristics of SMS writing (eSMS) is the use of unconventional orthographic forms (e.g., Slt pk tu menvoi ce mess? Biz [Hi why r u sending me this txt? Kisses]) which may seem, at first, simpler and easier than the conventional writing. The aim of this thesis is to demonstrate a cognitive load of producing specific processes of SMS writing (eSMS) for novices and their automation with the acquisition of expertise. In the context of a writing test of SMSes, we varied on the one hand the level of expertise of the participants in the use of SMS writing and, secondly, the attention they could bring to this task through a variety of changes in the experimental dual task paradigm. The results of various experimental studies support the conclusion that the production of eSMS specific processes has a cognitive load, like those of conventional writing. This cognitive load is especially high among novice users, with what is observed mainly at the end of a message. In addition, automation of these processes can be observed with the acquisition of expertise.
135

Comparative biology of susceptible and naturally- resistant Pseudosuccinea columella snails to Fasciola hepatica (Trematoda) infection in Cuba : ecological, molecular and phenotypical aspects / Biologie comparative de Pseudosuccinea columella (Mollusca Gastropoda) naturellement résistant et susceptible à l’infection par Fasciola hepatica (Trematoda) à Cuba : aspects écologiques, moléculaires et phénotypiques

Alba Menendez, Annia 12 December 2018 (has links)
Pseudosuccinea columella est un des principaux hôtes intermédiaires de Fasciola hepatica, un trématode cosmopolite infectant l’Homme et les animaux domestiques et sauvages, et transmis par des mollusques d’eau douce. L’existence exclusive à Cuba de populations de P. columella qui sont sensibles et naturellement résistantes (encapsulation hémocytaire du parasite) à l’infection par F. hepatica offre un modèle Mollusque-Trématode très intéressant en termes de biologie évolutive, de santé humaine et de stratégies de contrôle vectorielle. L’étude des aspects écologiques, moléculaires et phénotypiques est essentielle pour comprendre les particularités de ce système. Ainsi, nos résultats ont montré que les mollusques sensibles et résistants partagent des exigences écologiques similaires mais chez les résistants la distribution est limitée aux localités avec des eaux acides et peu dures (pH/dureté totale (DT), 6-6.5/4°-10°d) et une richesse des communautés de mollusques très faible, ceci semblant indiquer coût élevé à la résistance. La comparaison de traits d’histoire de vie en laboratoire a permis de confirmer une haute tolérance aux variations de pH/DT de l’eau chez les mollusques résistants mais a montré également une diminution du potentiel reproductif des souches résistantes par rapport aux sensibles. Sur la base de ces observations, des approches «omiques» comparatives ont été entreprises entre souches sensibles et résistantes. Ce travail de thèse nous a aidé à comprendre les particularités de ce modèle hôte-parasite, mais présente également une avancée en termes d’utilisation de la résistance de P. columella à des fins de contrôle de la transmission parasitaire. / Pseudosuccinea columella is one of the main intermediate hosts of Fasciola hepatica, a cosmopolitan snail-borne trematode that affects humans, livestock and wildlife. The occurrence in Cuba of susceptible and naturally-resistant populations of this species to F. hepatica infection (host’s hemocytes encapsulate the parasite upon penetration) offers an interesting Mollusca - Trematoda model with applications on evolutionary biology, health sciences and vector control strategies. Thus, here we explored different ecological, molecular and phenotypical aspects of this system to better understand P. columella resistance. We determined that while susceptible and resistant snails share similar ecological requirements, resistant populations occurred only at low pH (6.5-6.5) and total hardness (TH; 4°-10°d) waters, with low snail species richness, suggesting a high ecological cost of resistance. Comparison of life history traits between susceptible and resistant snails, experimentally-reared at low or common pH/TH conditions, showed that resistant populations display higher tolerance to pH/TH variations and a lower reproductive potential. To gain more insights on the molecular bases of the features associated to resistance in P. columella, we performed comparative “omics” approaches on naïve snails from both phenotypes at whole snail level (RNAseq) and at the albumen gland level (2D-electrophoresis). This thesis presents the latest efforts to broadly characterize this model, which constitute building steps for the comprehension of P. columella resistance and for its application to tackle parasite transmission
136

L'approche économique des politiques de prévention des risques liés à la dégradation de l'environnement et à ses effets sur la santé humaine. Cas d'étude : l'application de l'Analyse Coût Bénéfice en vue de réduire l'exposition au plomb et au méthylmercure dans la population infantile française / The economic approach of prevention policies risks of environmental degradation and its effects on human health. Case studies : the choice of the Cost Benefit Analysis to reduce exposure to lead and methylmercury in French child population

Dudoy-Pichery, Céline 12 November 2012 (has links)
L'environnement s'est considérablement transformé au cours des dernières décennies sous l'effet du développement économique. Ces transformations se sont accompagnées d'effets positifs, mais aussi négatifs car l'homme se trouve exposé à un grand nombre de substances chimiques dont certaines présentent des risques pour sa santé. La dégradation de l'environnement et ses conséquences néfastes sur la santé ont fait prendre conscience progressivement aux décideurs publics de la nécessité de s'engager dans un développement durable reposant sur un modèle de croissance économiquement soutenable. Dans ce contexte, l'élaboration de politiques de prévention en santé environnementale repose sur une approche globale mobilisant différentes disciplines scientifiques allant de la toxicologie aux sciences sociales en passant par les sciences de l?ingénieur et l'écologie environnementale. En France, les politiques publiques de prévention mobilisent encore peu l'approche économique comme outil d'aide à la décision. Or la contribution de cette approche est indéniable : elle peut, notamment, mesurer la réduction du bien-être social liée aux effets des expositions sur la santé. L'évaluation économique peut permettre, entre autres, de faire révéler aux agents leur consentement à payer pour éviter une réduction de leur état de santé ou de leur bien-être, en donnant une valeur monétaire à ces externalités. Outre le fait d'aider à la décision, elle apporte aussi des éléments utiles et nécessaires au débat public. Dans cette thèse, nous avons retenu l'Impact Pathway Analysis (IPA) comme méthode d?évaluation parce qu'elle analyse un risque environnemental donné en définissant précisément sa nature, son ampleur et les probabilités qui le caractérisent et elle intègre ensuite l'évaluation économique afin de mesurer l'impact monétaire de la réduction du risque sur la santé. Cette thèse s'appuie sur deux exemples des conséquences de la pollution environnementale sur la santé des enfants, les cas du plomb et du mercure, et cherche à mettre en évidence le bien-fondé de l'intégration de l'évaluation économique dans les processus de décision publique. L'exposition au plomb et l'exposition au mercure altèrent la santé des enfants et provoquent des effets indésirables graves, tels que des troubles cognitifs et comportementaux. L'impact économique de l'exposition de la population infantile française à ces deux polluants et de sa réduction a été évalué par l'Analyse Coût Bénéfice (ACB) qui permet de rapprocher l'objectif à atteindre de l'optimisation des coûts. Les premiers résultats de l'évaluation montrent que des politiques publiques axées sur la réduction de l'exposition à ces polluants permettraient de réaliser des bénéfices monétaires de plusieurs milliards d'Euros par année comme le montrent les deux articles présentés 1,2. Ces bénéfices incluent une réduction des dépenses médicales futures et de la charge d'une éducation spécialisée des enfants en bas âge, et surtout l'augmentation de la productivité de ces derniers au cours de leur vie d'adulte. L'évaluation des coûts d'investissements dans des programmes de réduction des émissions des polluants est utile au décideur public afin qu'il puisse mettre en balance les coûts des interventions et le bénéfice de cette réduction. Différentes interventions pour réduire les émissions et/ou les expositions sont possibles : "réglementation - permis d'émission - information" et ont des coûts et des efficacités différents. Un troisième papier fait apparaître des bénéfices nets négatifs dans le cas des changements des canalisations d'eau contenant du plomb. Dans un contexte d'allocation de ressources rares, la recherche de l'efficience d'une politique publique nécessite de s'interroger sur le retour sur investissements, ce que permet l'évaluation économique / The environment has changed considerably in recent decades due to economic development. These changes have been accompanied by positive effects but also negative because people are exposed to many chemicals, some of which pose health risks. The environmental degradation and its adverse health effects have gradually led policy makers to become aware of the need to engage in development based on an economically sustainable growth model. In this context, prevention policies in environmental health I should be based on a comprehensive approach mobilizing various scientific fields, from toxicology to social sciences through engineering and environmental ecology. In France, public policies hardly use the economic approach as a tool for decision support. Now, the contribution of this approach is undeniable: it may, in particular, measure the reduction of social welfare associated with the health effects of exposure. Economic evaluation can help economic agents disclose their willingness to pay in order to avoid a degradation of their health or welfare, by giving a monetary value on these externalities. In addition to helping decision, it also provides useful and necessary items for public discussion. In this thesis, we selected the Impact Pathway Analysis (IPA) as an assessment method because it precisely defines the nature, magnitude and probability of a given environmental hazard and integrates the economic assessment to measure the monetary impact of reducing risk. This thesis is based on two examples of the effects of environmental pollution on children's health, the cases of lead and mercury, and seeks to highlight the validity of integrating economic evaluation in the process of public decision. Exposure to lead and mercury affects the health of children and may cause serious side effects, such as cognitive and behavioral disorders. The objective of this thesis is to evaluate the economic impact of the exposure of the French child population to these pollutants, and to highlight the costs and benefits of measures that would reduce the risks. To do this, we selected the Cost Benefit Analysis (CBA), which encompasses a cost optimization assessment. The first results of the evaluation show that public policy focused on reducing exposure to these pollutants would achieve monetary benefits of several billion Euros per year as shown by the two first papers presented in the thesis1.2. These benefits include a reduction in future medical expenses and of the burden of special education of young children, and mainly increased productivity of the latter during their adult life. Assessing the costs of investments in programs to reduce emissions of pollutants is useful for public decision so that costs of intervention and the benefit of this reduction can be weighed. Different interventions are possible to reduce emissions and / or exposures: "regulation - emission permits - information" and have different costs and efficiencies. A third paper shows net negative benefits in the case of removal of water pipes containing lead. In a context of allocating scarce resources, the pursuit of efficiency in public policy requires to consider the return on investment, which is allowed by economic evaluation. Following the empirical work in the three articles, the general discussion comes back on contributions, limits and prospects of integration in the economic evaluation of prevention policies and environmental risks of their neurotoxic effects on the health of children
137

Conception et validation d'un nouvel outil d'évaluation de la stabilité posturale en position érigée / Design and validation of a new tool for assessing postural stability in quiet standing

Marin, Thibault 20 December 2018 (has links)
Conception et validation d’un nouvel outil d’évaluation de la stabilité posturale en position érigée(SAP3D : Système d’Analyse Postural 3D)La stabilité posturale en position debout est la capacité d'un sujet à maintenir un état d'équilibre ou à le retrouver en cas de perturbation. De nombreux organes sont mis à contribution par le système nerveux central afin d'aider l'organisme à maintenir sa stabilité. L'atteinte d'une ou plusieurs de ces structures (suite à un traumatisme, une pathologie, ou tout simplement du fait du vieillissement) modifie le comportement du sujet et altèrent sa capacité à maintenir sa stabilité. Les outils d’évaluation posturale actuels reposent essentiellement sur des mesures du centre des pressions et/ou du centre de masse, négligeant le comportement postural inter-segmentaire : les outils capables de les prendre en compte sont souvent inaccessibles, car complexes et coûteux. Le SAP3D a été développé comme un nouvel outil d’évaluation de la stabilité posturale, il permet une reconstruction tridimensionnelle multi-segmentaire et du centre de masse à partir d’une seule caméra bon marché. La validation du SAP3D comparativement à un système de référence optoélectronique met en évidence une excellente corrélation et un faible résidu moyen entre les deux systèmes. En situation clinique, le SAP3D confirme que les mécanismes de stabilisation posturale sont i) moins efficaces en condition yeux fermés ; ii) influencés négativement par le vieillissement ; iii) influencés positivement par la pratique régulière d’une activité telle que de la danse, au moins chez les jeunes femmes ; iv) altérés par plusieurs antécédents traumatiques et/ou pathologiques. Bien que des améliorations techniques soient envisagées, le SAP3D constitue une alternative clinique fiable, rapide, accessible et peu coûteuse aux systèmes d'analyse posturographique existants.Mots-clés : équilibre ; contrôle moteur ; analyse cinématique ; centre de masse ; personnes âgées ; vieillissement ; danse ; faible coût / Design and validation of a new tool for assessing postural stability in quiet standing(SAP3D: 3D Postural Analysis System)Postural stability in quiet standing is a subject’s ability to maintain its balance or to regain it after a perturbation. Multiple organs contribute to ensure postural stability, under a regulation ensured by the central nervous system. The alteration of one or several of these organs (following a trauma, a pathology or simply due to ageing) modifies the subject’s behavior and its ability to maintain stability. Current systems for postural evaluation rely mostly on center of pressure and/or center of mass assessment, disregarding the intersegmental postural behavior: such measurements are possible, but most tools are complex and expensive. The SAP3D system was developed as a new tool for postural stability assessment, allowing for center of mass and multi-segmental three dimensional modeling based on a single inexpensive camera. Validation of the SAP3D system compared to a standard optoelectronic system shows excellent agreement and a satisfyingly low average residue between the two systems. In a clinical setup, the SAP3D system confirms that postural steadiness mechanisms are i) less efficient with eyes closed than eyes opened; ii) negatively affected by ageing; iii) positively affected by regular practice of an activity such as dancing, at least for young women; iv) altered in pathological or injured patients. Although many technical improvements are being considered, the SAP3D system is a reliable, quick, accessible and low-cost clinical alternative to the existing systems for postural evaluation.Keywords: balance; steadiness; motor control; kinematics; center of mass; elderly; ageing; dance; low-cost
138

Gestion multisite de workflows scientifiques dans le cloud / Multisite management of scientific workflows in the cloud

Liu, Ji 03 November 2016 (has links)
Les in silico expérimentations scientifiques à grande échelle contiennent généralement plusieurs activités de calcule pour traiter big data. Workflows scientifiques (SWfs) permettent aux scientifiques de modéliser les activités de traitement de données. Puisque les SWfs moulinent grandes quantités de données, les SWfs orientés données deviennent un problème important. Dans un SWf orienté donnée, les activités sont liées par des dépendances de données ou de contrôle et une activité correspond à plusieurs tâches pour traiter les différentes parties de données. Afin d’exécuter automatiquement les SWfs orientés données, Système de management pour workflows scientifiques (SWfMSs) peut être utilisé en exploitant High Perfmance Comuting (HPC) fournisse par un cluster, grille ou cloud. En outre, SWfMSs génèrent des données de provenance pour tracer l’exécution des SWfs.Puisque le cloud fournit des services stables, diverses ressources, la capacité de calcul et de stockage virtuellement infinie, il devient une infrastructure intéressante pour l’exécution de SWf. Le cloud données essentiellement trois types de services, i.e. Infrastructure en tant que Service (IaaS), Plateforme en tant que Service (PaaS) et Logiciel en tant que Service (SaaS). SWfMSs peuvent être déployés dans le cloud en utilisant des Machines Virtuelles (VMs) pour exécuter les SWfs orientés données. Avec la méthode de pay-as-you-go, les utilisateurs de cloud n’ont pas besoin d’acheter des machines physiques et la maintenance des machines sont assurée par les fournisseurs de cloud. Actuellement, le cloud généralement se compose de plusieurs sites (ou centres de données), chacun avec ses propres ressources et données. Du fait qu’un SWf orienté donnée peut-être traite les données distribuées dans différents sites, l’exécution de SWf orienté donnée doit être adaptée aux multisite cloud en utilisant des ressources de calcul et de stockage distribuées.Dans cette thèse, nous étudions les méthodes pour exécuter SWfs orientés données dans un environnement de multisite cloud. Certains SWfMSs existent déjà alors que la plupart d’entre eux sont conçus pour des grappes d’ordinateurs, grille ou cloud d’un site. En outre, les approches existantes sont limitées aux ressources de calcul statique ou à l’exécution d’un seul site. Nous vous proposons des algorithmes pour partitionner SWfs et d’un algorithme d’ordonnancement des tâches pour l’exécution des SWfs dans un multisite cloud. Nos algorithmes proposés peuvent réduire considérablement le temps global d’exécution d’un SWf dans un multisite cloud.En particulier, nous proposons une solution générale basée sur l’ordonnancement multi-objectif afin d’exécuter SWfs dans un multisite cloud. La solution se compose d’un modèle de coût, un algorithme de provisionnement de VMs et un algorithme d’ordonnancement des activités. L’algorithme de provisionnement de VMs est basé sur notre modèle de coût pour générer les plans à provisionner VMs pour exécuter SWfs dans un cloud d’un site. L’algorithme d’ordonnancement des activités permet l’exécution de SWf avec le coût minimum, composé de temps d’exécution et le coût monétaire, dans un multisite cloud. Nous avons effectué beaucoup d’expérimentations et les résultats montrent que nos algorithmes peuvent réduire considérablement le coût global pour l’exécution de SWf dans un multisite cloud. / Large-scale in silico scientific experiments generally contain multiple computational activities to process big data. Scientific Workflows (SWfs) enable scientists to model the data processing activities. Since SWfs deal with large amounts of data, data-intensive SWfs is an important issue. In a data-intensive SWf, the activities are related by data or control dependencies and one activity may consist of multiple tasks to process different parts of experimental data. In order to automatically execute data-intensive SWfs, Scientific Work- flow Management Systems (SWfMSs) can be used to exploit High Performance Computing (HPC) environments provided by a cluster, grid or cloud. In addition, SWfMSs generate provenance data for tracing the execution of SWfs.Since a cloud offers stable services, diverse resources, virtually infinite computing and storage capacity, it becomes an interesting infrastructure for SWf execution. Clouds basically provide three types of services, i.e. Infrastructure-as-a-Service (IaaS), Platform- as-a-Service (PaaS) and Software-as-a-Service (SaaS). SWfMSs can be deployed in the cloud using Virtual Machines (VMs) to execute data-intensive SWfs. With a pay-as-you- go method, the users of clouds do not need to buy physical machines and the maintenance of the machines are ensured by the cloud providers. Nowadays, a cloud is typically made of several sites (or data centers), each with its own resources and data. Since a data- intensive SWf may process distributed data at different sites, the SWf execution should be adapted to multisite clouds while using distributed computing or storage resources.In this thesis, we study the methods to execute data-intensive SWfs in a multisite cloud environment. Some SWfMSs already exist while most of them are designed for computer clusters, grid or single cloud site. In addition, the existing approaches are limited to static computing resources or single site execution. We propose SWf partitioning algorithms and a task scheduling algorithm for SWf execution in a multisite cloud. Our proposed algorithms can significantly reduce the overall SWf execution time in a multisite cloud.In particular, we propose a general solution based on multi-objective scheduling in order to execute SWfs in a multisite cloud. The general solution is composed of a cost model, a VM provisioning algorithm, and an activity scheduling algorithm. The VM provisioning algorithm is based on our proposed cost model to generate VM provisioning plans to execute SWfs at a single cloud site. The activity scheduling algorithm enables SWf execution with the minimum cost, composed of execution time and monetary cost, in a multisite cloud. We made extensive experiments and the results show that our algorithms can reduce considerably the overall cost of the SWf execution in a multisite cloud.
139

La prise en charge de l'arthrose des membres inférieurs ; aspect de santé publique / Management of knee and hip osteoarthritis; public health aspects

Salmon, Jean-Hugues 20 February 2019 (has links)
L’arthrose est la maladie articulaire la plus fréquente pouvant être responsable d’une perte d’autonomie et d’un handicap fonctionnel majeur. Du fait du vieillissement de la population et de la prévalence de l’obésité, le nombre de personnes ayant une arthrose des membres inférieurs va augmenter dans les années à venir et entrainer une explosion des dépenses de santé. La cohorte « Knee and Hip OsteoArthritis Long-term Assessment » (KHOALA) est une cohorte française multicentrique représentative de patients atteints d’arthrose symptomatique de hanche et/ou de genou.Les objectifs de ce projet étaient d’établir une revue de la littérature sur les conséquences économiques de l'arthrose de hanche et/ou du genou. Puis à partir de la cohorte KHOALA, nous avons décrit la consommation de soins ; identifié les facteurs associés aux trajectoires d'utilisation des ressources de santé et estimé les coûts annuels totaux. Enfin nous avons réalisé une analyse systématique de la littérature sur les analyses coût-efficacité des anti-arthrosiques d’action lente et de l’acide hyaluronique intra articulaire dans l’arthrose de genoux.La revue systématique a objectivé une hétérogénéité des couts totaux par patient (de 0,7 à 12 k€/an). Les données de KHOALA ont démontré que la majorité des patients consultait son médecin généraliste et une minorité de patients consultait un spécialiste. Le seul facteur clinique indépendant prédictif des consultations des professionnels de la santé était l'état de santé mentale. Le coût total annuel moyen par patient sur la période d'étude de 5 ans était de 2180 ± 5 305 €. En France, les coûts médians pourraient atteindre 2 milliards € / an (IQR 0,7–4,3). / Osteoarthritis is the most common joint disease that can be responsible for a loss of autonomy and a major functional disability. With the aging of the population and the prevalence of obesity, the number of people with lower limb osteoarthritis will increase in the coming years and lead to an explosion of health spending. The "Knee and Hip OsteoArthritis Long-term Assessment" cohort (KHOALA) is a representative French multicenter cohort of patients with symptomatic hip and / or knee osteoarthritis.The aims of this thesis were to provide an overview of the economic consequences of hip and knee osteoarthritis worldwide. Then from the KHOALA cohort, we described health care resources use in the KHOALA cohort, we identified factors associated with trajectories of healthcare use and we estimated the annual total costs. Finally, we conducted a systematic review of the literature on the cost effectiveness of intra-articular hyaluronic acid and disease-modifying osteoarthritis drugs used in the treatment of knee OA.The systematic review showed a heterogeneity of the total costs per patient (from 0.7 to 12 k € / year). KHOALA data showed that primary care physicians have a central role in osteoarthritis care, mental health state was the only independent predictive factor of healthcare professional consultations. The mean annual total cost per patient over 5 years was 2180 ± 5,305 €. In France, median annual total costs would be approximately 2 billion €/year (IQR 0.7-4.3).
140

Coût du prélèvement d'organes dans le système de soins français / Organ recovery cost in the French healthcare system

Hrifach, Abdelbaste 25 October 2018 (has links)
Dans la première partie, une méthode mixte combinant le top-down micro-costing et le bottom-up micro-costing a été développée afin d’évaluer le coût du prélèvement d’organes au sein d’un groupement hospitalier français. Cette méthode mixte a été comparée à une méthode utilisant exclusivement le top-down micro-costing, afin de mesurer les écarts entre les deux approches. Dans la seconde partie, la valorisation de la procédure de greffe des îlots de Langerhans a illustré l’usage pouvant être fait du coût du prélèvement d’organes. Au cours de la troisième partie, l’évaluation du coût du prélèvement a été étendue à l’ensemble des organes pouvant être prélevés sur une période de 8 années consécutives. Cette évaluation a été réalisée à partir d’une base de donnée médico-administrative nationale et de l’Etude Nationale de Coût. Les résultats des deux premières publications, chacune fondée sur une base de données spécifique, semblent fortement diverger. La dernière partie s’évertue à comparer le coût du prélèvement d’organes à partir de deux bases de données distinctes : la Comptabilité Analytique Hospitalière et l’Etude Nationale de Coût. Cette analyse a souligné les différences de coût existant entre deux bases de données pourtant intimement liées, l’une incrémentant l’autre. Les différences ont conduit à relativiser et à interpréter avec davantage de précaution les coûts du prélèvement d’organes évalués à partir des bases nationales. L’utilisation de différentes méthodes d’évaluation des coûts, de même que l’utilisation de différentes bases de données aboutissent à des écarts de coûts importants. Il est fondamental que les lecteurs, les directeurs d’hôpitaux, et les décideurs, gardent à l’esprit les forces et faiblesses de chaque approche méthodologique et de chaque base de données afin d’interpréter les résultats dans un contexte éclairé / In a first part, we developed a mixed method combining top-down micro-costing and bottom-up micro-costing to accurately assess the costs of organ recovery in a French hospital group. We compared this mixed method versus full top-down micro-costing to assess potential differences. In view of illustration, we applied in a second part the results of pancreas recovery cost to value the islet transplantation procedure. During a third part, we assessed organ recovery costs based on the national hospital discharge database and a national cost study from 8 consecutive years. Results of the first and the second publication, each based on specific database, appear to be widely different. We compared, in a last part, the hospital cost accounting system in a French hospital group with the national cost study in terms of the cost of organ recovery procedures. This study highlights the cost differences existing between hospital cost accounting and the national cost study. These differences relativize and lend caution to the interpretation of the results of our previous study assessing organ recovery cost from national data. Given these differences, it is fundamental for readers, hospital managers and decision-makers to know the strengths and weaknesses of each methodological approach and the strengths and weaknesses of each database used to be able to interpret the results in an informed context

Page generated in 0.0377 seconds