• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 31
  • 11
  • 6
  • Tagged with
  • 51
  • 30
  • 15
  • 11
  • 11
  • 10
  • 8
  • 7
  • 5
  • 5
  • 5
  • 4
  • 4
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Optimisation topologique de dispositifs électromagnétiques / Topology optimisation of electromagnetic devices

Mohamodhosen, Bibi Safoorah Bilquis 06 December 2017 (has links)
L’Optimisation Topologique (OT) est un sujet en plein essor qui suscite l’intérêt de nombreux chercheurs depuis ces deux dernières décennies dans le domaine de l’électromagnétisme. L’OT représente une méthode très attrayante et originale car elle permet de trouver des structures innovantes sans aucun a priori. Ce travail de thèse est orienté vers l’OT des dispositifs électromagnétiques en approfondissant plusieurs aspects du sujet. Tout d’abord, un outil d’OT est développé et testé, à partir des outils existant au L2EP. En effet, l’OT requiert un outil d’éléments finis et un outil d’optimisation devant être couplés. Une méthodologie originale d’OT fondée sur les principes de la Méthode de Densité est développée et testée. Un cas test académique est utilisé afin de tester et valider le couplage des outils et la méthodologie. Une approche visant à prendre en compte le comportement non-linéaire des matériaux ferromagnétiques avec nos outils OT est également mise en place. Ensuite, la méthode est appliquée afin d’optimiser un électroaimant en 3 dimensions, représentant un cas test proche de la réalité. Ce cas test permet de comparer les résultats avec un comportement linéaire et non-linéaire des matériaux. Diverses topologies sont présentées, par rapport aux différentes formulations du problème. Par la suite, la méthodologie est appliquée à un dispositif électromagnétique plus complexe : une Génératrice Synchrone à Pôles Saillants. Cet exemple nous permet de voir comment la définition du problème d’optimisation peut grandement affecter les résultats d’OT. Quelques topologies sont présentées, et leur faisabilité est analysée / Topology Optimisation (TO) is a fast growing topic that has been sparking the interest of many researchers for the past two decades in the electromagnetic community. Its attractiveness lies in the originality of finding innovative structures without any layout a priori. This thesis work is oriented towards the TO of electromagnetic devices by elaborating on various aspects of the subject. First of all, a tool for TO is developed and tested, based on the ‘home-made’ tools available at the L2EP. As TO requires a FE and an optimisation tool working together, a coupling is done using both. Furthermore, a TO methodology is developed and tested, based on the Density Method. An academic cubic test case is used to carry out all the tests, and validate the tools and methodology. An approach is also developed to consider the nonlinear behaviour of the ferromagnetic materials with our TO tools. Afterwards, the methodology is applied to a 3D electromagnet, which represents a more real test case. This test case also serves to compare the results with linear and nonlinear behaviour of the materials used. Various topologies are presented, for different problem formulations. Subsequently, the methodology is applied to a more complex electromagnetic device: a Salient Pole Synchronous Generator. This example allows us to see how the problem definition can largely affect TO results. Some topologies are presented and their viability is discussed
32

Prise en charge précoce de l’infection VIH chez les nourrissons dans un pays d’Afrique Subsaharienne à moyenne prévalence du VIH / Early follow-up of infants living in a sub-Saharan African country with intermediate prevalence of HIV

Tejiokem, Mathurin Cyrille 11 October 2012 (has links)
Les recommandations de l’OMS sur la prise en charge des enfants nés de mères infectées par le VIH évoluent en fonction des nouvelles données scientifiques souvent issues d’essais thérapeutiques. Leur application en routine, surtout dans les pays à ressources limitées, devrait prendre en compte les contraintes opérationnelles locales pour guider les pratiques. Ce travail de thèse a été développé dans cette optique, avec pour objectif d’évaluer l’ensemble du processus de prise en charge de ces enfants avant l’âge de sept mois, depuis le dépistage précoce de l’infection VIH jusqu’à la mise en œuvre du traitement antirétroviral (ARV) systématiquement proposé dès le diagnostic de l’infection VIH, et leurs réponses aux vaccins administrés dans le Programme Elargi de Vaccination (PEV). Ce travail est issu de l’analyse des données collectées dans deux enquêtes : la cohorte ANRS-PEDIACAM initiée en 2007 et toujours en cours, menée dans trois hôpitaux urbains du Cameroun, et l’enquête transversale ACIP-EPIPEV, menée de novembre 2004 à Mai 2005 dans cinq hôpitaux du Cameroun et de la République Centrafricaine. Nos résultats ont montré que le diagnostic précoce du VIH et l’initiation des ARV chez les nourrissons étaient faisables et largement acceptés en routine dans les services de pédiatrie urbains. Parmi les nourrissons nés de mères séropositives inclus dans PEDIACAM, 89,7% ont été ramenés pour le test VIH à un âge médian de 1,5 mois (IQ : 1,4-1,6) et 83,9% ont complété le processus de diagnostic en revenant chercher les résultats du test avant l’âge de 7 mois. Les facteurs associés au processus incomplet reflétaient plus la qualité des soins prénataux et l’urgence du contexte obstétrical que les conditions environnementales. Parmi les nourrissons infectés par le VIH, 83,5% ont initié les ARV avant l’âge de 7 mois. Mais le processus d’initiation précoce des ARV a été considéré comme suboptimal chez environ un tiers d’entre eux. Les facteurs associés à ce retard étaient liés au système de soins, à la gestion des prélèvements et des résultats du test VIH. Enfin, dans l’étude EPIPEV, nous avons observé des proportions plus faibles de réponses vaccinales adéquates chez les enfants infectés que non infectés par le VIH, nés de mères séropositives. Cette différence était plus marquée pour le vaccin contre la rougeole (20% vs 60%). Le niveau de réponse observé chez les enfants non infectés nés de mères séropositives était néanmoins faible par rapport à celui attendu chez les enfants en population générale. Ce dernier résultat suggérerait que l’exposition au VIH pendant la grossesse pourrait entrainer un dysfonctionnement immunologique, même en l’absence de transmission du VIH à l’enfant. L’ensemble de ces travaux nous ont permis de cibler certains aspects pour améliorer le processus de prise en charge précoce des nourrissons exposés au VIH, portant sur l’organisation des sites, l’application effective des recommandations établies et la mise en place d’une coordination active. / The world health organization (WHO) recommendation updates regarding care of HIV-infected children reflects new scientific findings in clinical trials. Their implementation in routine practice, especially in resource-limited countries, should consider local operational constraints in order to direct good clinical practice guidelines. We put in place this work in order to evaluate the early care process of HIV-exposed infants aged less than 7 months including: early diagnosis of HIV, initiation of antiretroviral therapy (ART), and immune responses to vaccines administered by the Expanded Program on Immunization (EPI). Our data were collected from two surveys: the current ANRS-PEDIACAM cohort which started in 2007, in three urban hospitals located in Cameroon, and the ACIP-EPIPEV cross sectional study conducted from November 2004 to May 2005, in five urban hospitals based in Cameroon and the Central African Republic. Our results strongly suggested that both early HIV diagnosis and initiation of ART in infants were feasible and well accepted in “real pediatric world urban settings”. Among HIV-exposed infants enrolled in the PEDIACAM study, 89.7% were tested for HIV at a median age of 1.5 months and 83.9% completed the process by returning for the result before 7 months of age. Incomplete process was associated to factors related to the quality of antenatal care and obstetrical emergency than environmental ones. Among HIV-infected infants identified, 83.5% started ART before 7 months of age. However, ART initiation was considered as suboptimal in approximately one third of them. Risk factors associated with this delay were related to the care delivery system, including delays in sample collection and turn around procedures. Finally, the EPIPEV study showed that antibody levels to EPI vaccines in HIV-uninfected children born to HIV-infected mothers were higher compared to levels in HIV-infected children (60% vs 20% concerning measles vaccine), but lower than the levels described for children born to HIV-uninfected mothers. This result suggested an immunological dysfunction of HIV-exposed children which occurred during pregnancy and could affect their survival. Overall, our studies contributed in providing findings that could help in improving early care in HIV-exposed infants. These include the structural and functional organization of health structures, the effective implementation of current recommendations, and of active coordination.
33

Un modèle et son revers : la cogestion des réserves de biosphère de Waza et de la Bénoué dans le Nord-Cameroun

Saleh, Adam 06 December 2012 (has links) (PDF)
La cogestion des aires protégées a été conçue comme un modèle innovant àimplementer dans le but d'ameliorer les conditions de vie des populations riveraineset d'assurer une conservation durable des ressources biologiques. Cette theseconfronte ce modèle à la réalité de son application dans les réserves de biosphère deWaza et de la Bénoué, au Nord du Cameroun. Afin de mettre en évidence les raisonsdu contraste entre les resultats attendus et ceux obtenus, notre methode s'appuiesur l'analyse des donnees bioécologiques, des relevés sur le terrain, des enquêtes etinterviews auprès de différents acteurs et l'examen des terroirs des zones àcogestion. Les résultats montrent que la cogestion a permis de désamorcer unesituation conflictuelle entre les parties prenantes, et qu'elle a aussi favorise lacomprehension par les acteurs en charge des deux reserves, de l'interet qu'accordentles communautés riveraines aux ressources naturelles. Toutefois, ces résultatsrévèlent que les retombées de la cogestion en matière de protection de labiodiversite et de survie des populations riveraines n'ont pas ete a la hauteur dutemps et des moyens (financiers, matériels) investis et des espoirs placés en ceprocessus par les riverains. La situation de cogestion a provoqué de violents conflits,des rancoeurs et la decrepitude des entites biologiques, objets meme de cettecogestion. Cette étude montre comment les acteurs se servent de manièredetournee, comme d'une passerelle pour atteindre des fins personnelles, de lacogestion, prise en tenaille entre ses acteurs prêts à lui faire obstacle si besoin. Sontegalement mises en lumiere les responsabilites de l'Etat engage dans ce processussans étude de faisabilité et contraint de céder une partie de ses pouvoirs à desreprésentants sur le terrain. Sur le plan local, l'analyse des relations montre desstructures étatiques restées rigides, sans concession et sans ménagement face auxpopulations. Celles-ci, galvanisées par les ONG nationales et internationales,entendaient jouer pleinement le jeu, tout en masquant leurs activites d'exploitantsillégaux. Les deux parties se découvrent sur le terrain de la cogestion avec leursidentités de maître et de sujet, de répresseur et de braconnier. Ce jeu de dupes nepouvait être associé à la gestion participative. Les phases d'elaboration du conceptthéorique de cogestion qui auraient pu prévenir cette situation, ont étéappréhendées superficiellement par les parties prenantes, hypothéquant ainsi lesrésultats du processus à moyen et long terme. Effectivement, la perte de plus dutiers du potentiel faunique des deux réserves pendant la phase de cogestion et legain insignifiant de 400 frs CFA/an par habitant dans la réserve de la Bénoué ne sontpas de nature a stimuler l'avancee et l'appropriation du processus. La manière dontla cogestion dans les réserves de biosphère de Waza et de la Bénoué a été menée,met en évidence les limites des politiques préconçues, appliquées sur le terrain sanstenir compte des savoirs autochtones et des contextes particuliers. Notre étudedemontre l'importance d'une exploitation et d'une fusion reflechies et preparees dessavoirs et des compétences locaux et exogènes, afin de relever le défi de la gestiondurable des ressources naturelles.
34

Étude exploratoire et comparative du trouble bipolaire et du trouble de personnalité limite à l'adolescence

Huynh, Christophe 08 1900 (has links)
Actuellement, le diagnostic différentiel du trouble bipolaire (TB) et du trouble de personnalité limite (TPL) à l’adolescence s’avère difficile et complique le choix thérapeutique. Portant sur le TB et le TPL, ce mémoire fait le point sur la littérature scientifique adulte et adolescente, vérifie la faisabilité et présente les résultats d’une étude exploratoire portant sur les variables cliniques (instabilité émotionnelle, hostilité, impulsivité, tempraément) et le rythme veille-sommeil à l’adolescence. L’étude exploratoire comprend sept adolescents TB et huit TPL (12-17 ans), évalués par questionnaires autoadministrés pour les variables cliniques, et par actigraphie et agenda de sommeil pour le rythme veille-sommeil. Aucune différence significative n’existe entre les deux troubles pour les variables cliniques. En moyenne, les adolescents TB ont porté l'actigraphie pendant 9,9 jours et ont rempli un agenda de sommeil pendant 5,7 jours; chez les TPL, les chiffres sont respectivement 9,8 et 8,9 jours. Comparés aux TPL, les TB ont un plus grand intervalle d’éveil (p=0,035), ont un plus grand intervalle de sommeil (p>0,05), et ont une plus grand variabilité intrajournalière (p=0,04). Les données subjectives (agenda de sommeil) semblent refléter les données objectives (actigraphie) : aucune différence statistique n’est observée entre les deux mesures pour le délai d’endormissement, la durée du dernier réveil et le temps total de sommeil. La recension de la littérature montre un manque de données chez l’adolescent quant aux deux troubles. La faisabilité de l’étude est démontrée par la présence de résultats analysables. Ceci encourage la poursuite des recherches sur ces variables, afin de distinguer les deux psychopathologies à l’adolescence. / Presently, differential diagnosis between bipolar disorder (BD) and borderline personality disorder (BPD) in adolescents remains difficult and affects therapeutic choices. This master’s thesis reviews current scientific literature, both in adults and adolescents. It examines feasibility and presents results of a study on clinical dimensions and endophenotypes in adolescent BD and BPD. Seven BD and eight BPD adolescents (12-17 years old) were evaluated by self-reported questionnaires for clinical variables (affective instability, impulsivity, hostility and temperament) and by actigraphy and sleep diary for sleep-wake circadian rhythm. No significant difference was found between BD and BPD for the clinical variables. BD adolescents wore actigraphic device for 9.9 days and completed the sleep diary for 5.7 days on average; for BPD subjects, the numbers were respectively 9.8 days and 8.9 days. Compared to BPD, BD patients had longer active interval (p=0.035), tended to sleep longer, and had more intradaily variability (p=0.04). Subjective data (sleep diary) and objective data (actigraphy) did not significantly differ on sleep onset latency, last awakening duration and total sleep time, which suggested that BD and BPD adolescents had a good estimate of their sleep patterns. Literature review showed a dearth of research done on adolescent BD and BPD. Feasibility of this study was verified, since data was successfully collected. Research on these variables should continue, so differential diagnosis can be done in adolescent BD and BPD.
35

Contribution au développement du détecteur de Vertex de l'expérience CBM et étude de faisabilité des mesures du flot elliptique des particules à charme ouvert

Seddiki, Sélim 12 September 2012 (has links) (PDF)
CBM, une des expériences majeures du nouvel accélérateur FAIR en cours de construction au GSI (Darmstadt), a pour objectif d'explorer le diagramme des phases de la matière nucléaire dans la région des hautes densités baryoniques nettes. Un de ses principaux thèmes de physique est l'étude de la production des particules à charme ouvert dans les collisions d'ions lourds. La mesure directe de ces particules nécessite l'utilisation d'un détecteur de vertex très précis. La présente thèse est une contribution à la conception et au développement de ce détecteur, appelé MVD. Une première partie de la thèse concerne l'évaluation, à l'aide de simulations réalistes, des flots de données à transmettre par les capteurs qui équiperont la première génération du MVD. Les résultats obtenus montrent que les performances attendues des capteurs permettront de mener à bien le programme de physique de CBM. Une deuxième partie porte sur les performances attendues pour la reconstruction des particules à charme ouvert, à travers leur désintégration hadronique, dans les collisions Au+Au. Des simulations détaillées ont permis de démontrer que la reconstruction du méson D+ → π+ π+ K-, par exemple, est faisable avec une efficacité de reconstruction de 2% et un rapport signal/bruit de 1.5. La statistique attendue en deux mois de prises de données a été évaluée à environ 6.9 x 104 mésons D. Dans la dernière partie, il a été montré que cette statistique permettrait d'effectuer des études détaillées du flot elliptique intégré des mésons D. La mesure du flot elliptique différentiel de ces particules requerrait, cependant, des statistiques plus élevées, et donc l'utilisation de capteurs plus performants.
36

Prise en charge précoce de l'infection VIH chez les nourrissons dans un pays d'Afrique Subsaharienne à moyenne prévalence du VIH

Tejiokem, Mathurin Cyrille 11 October 2012 (has links) (PDF)
Les recommandations de l'OMS sur la prise en charge des enfants nés de mères infectées par le VIH évoluent en fonction des nouvelles données scientifiques souvent issues d'essais thérapeutiques. Leur application en routine, surtout dans les pays à ressources limitées, devrait prendre en compte les contraintes opérationnelles locales pour guider les pratiques. Ce travail de thèse a été développé dans cette optique, avec pour objectif d'évaluer l'ensemble du processus de prise en charge de ces enfants avant l'âge de sept mois, depuis le dépistage précoce de l'infection VIH jusqu'à la mise en œuvre du traitement antirétroviral (ARV) systématiquement proposé dès le diagnostic de l'infection VIH, et leurs réponses aux vaccins administrés dans le Programme Elargi de Vaccination (PEV). Ce travail est issu de l'analyse des données collectées dans deux enquêtes : la cohorte ANRS-PEDIACAM initiée en 2007 et toujours en cours, menée dans trois hôpitaux urbains du Cameroun, et l'enquête transversale ACIP-EPIPEV, menée de novembre 2004 à Mai 2005 dans cinq hôpitaux du Cameroun et de la République Centrafricaine. Nos résultats ont montré que le diagnostic précoce du VIH et l'initiation des ARV chez les nourrissons étaient faisables et largement acceptés en routine dans les services de pédiatrie urbains. Parmi les nourrissons nés de mères séropositives inclus dans PEDIACAM, 89,7% ont été ramenés pour le test VIH à un âge médian de 1,5 mois (IQ : 1,4-1,6) et 83,9% ont complété le processus de diagnostic en revenant chercher les résultats du test avant l'âge de 7 mois. Les facteurs associés au processus incomplet reflétaient plus la qualité des soins prénataux et l'urgence du contexte obstétrical que les conditions environnementales. Parmi les nourrissons infectés par le VIH, 83,5% ont initié les ARV avant l'âge de 7 mois. Mais le processus d'initiation précoce des ARV a été considéré comme suboptimal chez environ un tiers d'entre eux. Les facteurs associés à ce retard étaient liés au système de soins, à la gestion des prélèvements et des résultats du test VIH. Enfin, dans l'étude EPIPEV, nous avons observé des proportions plus faibles de réponses vaccinales adéquates chez les enfants infectés que non infectés par le VIH, nés de mères séropositives. Cette différence était plus marquée pour le vaccin contre la rougeole (20% vs 60%). Le niveau de réponse observé chez les enfants non infectés nés de mères séropositives était néanmoins faible par rapport à celui attendu chez les enfants en population générale. Ce dernier résultat suggérerait que l'exposition au VIH pendant la grossesse pourrait entrainer un dysfonctionnement immunologique, même en l'absence de transmission du VIH à l'enfant. L'ensemble de ces travaux nous ont permis de cibler certains aspects pour améliorer le processus de prise en charge précoce des nourrissons exposés au VIH, portant sur l'organisation des sites, l'application effective des recommandations établies et la mise en place d'une coordination active.
37

Maîtrise de la dimension temporelle de la qualité de service dans les réseaux

MARTIN, Steven 06 July 2004 (has links) (PDF)
Les nouvelles applications sur Internet nécessitent des garanties de qualité de service (QoS) de la part du réseau. Nous nous intéressons à deux paramètres de QoS : le temps de réponse et la gigue de bout-en-bout. Nous proposons un ordonnancement, noté FP/DP, à base de priorités fixes (FP), départageant les paquets ex aequo selon leurs priorités dynamiques (DP). La priorité fixe d'un flux reflète son degré d'importance et sa priorité dynamique est un paramètre temporel. FP/FIFO et FP/EDF sont deux exemples d'ordonnancement FP/DP. Nous déterminons des bornes déterministes sur les paramètres de QoS considérés, en utilisant l'approche par trajectoire. En monoprocesseur, nous améliorons les résultats existants et prouvons que FP/EDF domine FP/FIFO sous certaines conditions. En distribué, nous apportons de nouveaux résultats et montrons que l'approche par trajectoire est beaucoup moins pessimiste que l'approche holistique. Nos résultats sont appliqués dans une architecture DiffServ/MPLS.
38

Contrôle des applications fondé sur la qualité de service pour les plate-formes logicielles dématérialisées (Cloud) / Control of applications based on quality of service in Cloud software platforms

Li, Ge 21 July 2015 (has links)
Le « Cloud computing » est un nouveau modèle de systèmes de calcul. L’infrastructure, les applications et les données sont déplacées de machines localisées sur des systèmes dématérialisés accédés sous forme de service via Internet. Le modèle « coût à l’utilisation » permet des économies de coût en modifiant la configuration à l’exécution (élasticité). L’objectif de cette thèse est de contribuer à la gestion de la Qualité de Service (QdS) des applications s’exécutant dans le Cloud. Les services Cloud prétendent fournir une flexibilité importante dans l’attribution des ressources de calcul tenant compte des variations perçues, telles qu’une fluctuation de la charge. Les capacités de variation doivent être précisément exprimées dans un contrat (le Service Level Agreement, SLA) lorsque l’application est hébergée par un fournisseur de Plateform as a Service (PaaS). Dans cette thèse, nous proposons et nous décrivons formellement le langage de description de SLA PSLA. PSLA est fondé sur WS-Agreement qui est lui-même un langage extensible de description de SLA. Des négociations préalables à la signature du SLA sont indispensables, pendant lesquelles le fournisseur de PaaS doit évaluer la faisabilité des termes du contrat. Cette évaluation, par exemple le temps de réponse, le débit maximal de requêtes servies, etc, est fondée sur une analyse du comportement de l’application déployée dans l’infrastructure cloud. Une analyse du comportement de l’application est donc nécessaire et habituellement assurée par des tests (benchmarks). Ces tests sont relativement coûteux et une étude précise de faisabilité demande en général de nombreux tests. Dans cette thèse, nous proposons une méthode d’étude de faisabilité concernant les critères de performance, à partir d’une proposition de SLA exprimée en PSLA. Cette méthode est un compromis entre la précision d’une étude exhaustive de faisabilité et les coûts de tests. Les résultats de cette étude constituent le modèle initial de la correspondance charge entrante-allocation de ressources utilisée à l’exécution. Le contrôle à l’exécution (runtime control) d’une application gère l’allocation de ressources en fonction des besoins, s’appuyant en particulier sur les capacités de passage à l’échelle (scalability) des infrastructures de cloud. Nous proposons RCSREPRO (Runtime Control method based on Schedule, REactive and PROactive methods), une méthode de contrôle à l’exécution fondée sur la planification et des contrôles réactifs et prédictifs. Les besoins d’adaptation à l’exécution sont essentiellement dus à une variation de la charge soumise à l’application, variations difficiles à estimer avant exécution et seulement grossièrement décrites dans le SLA. Il est donc nécessaire de reporter à l’exécution les décisions d’adaptation et d’y évaluer les possibles variations de charge. Comme les actions de modification des ressources attribuées peuvent prendre plusieurs minutes, RCSREPRO réalise un contrôle prédictif fondée sur l’analyse de charge et la correspondance indicateurs de performance-ressources attribuées, initialement définie via des tests. Cette correspondance est améliorée en permanence à l’exécution. En résumé, les contributions de cette thèse sont la proposition de langage PSLA pour décrire les SLA ; une proposition de méthode pour l’étude de faisabilité d’un SLA ; une proposition de méthode (RCSREPRO) de contrôle à l’exécution de l’application pour garantir le SLA. Les travaux de cette thèse s’inscrivent dans le contexte du projet FSN OpenCloudware (www.opencloudware.org) et ont été financés en partie par celui-ci. / Cloud computing is a new computing model. Infrastructure, application and data are moved from local machines to internet and provided as services. Cloud users, such as application owners, can greatly save budgets from the elasticity feature, which refers to the “pay as you go” and on-demand characteristics, of cloud service. The goal of this thesis is to manage the Quality of Service (QoS) for applications running in cloud environments Cloud services provide application owners with great flexibility to assign “suitable” amount of resources according to the changing needs, for example caused by fluctuating request rate. “Suitable” or not needs to be clearly documented in Service Level Agreements (SLA) if this resource demanding task is hosted in a third party, such as a Platform as a Service (PaaS) provider. In this thesis, we propose and formally describe PSLA, which is a SLA description language for PaaS. PSLA is based on WS-Agreement, which is extendable and widely accepted as a SLA description language. Before signing the SLA contract, negotiations are unavoidable. During negotiations, the PaaS provider needs to evaluate if the SLA drafts are feasible or not. These evaluations are based on the analysis of the behavior of the application deployed in the cloud infrastructure, for instance throughput of served requests, response time, etc. Therefore, application dependent analysis, such as benchmark, is needed. Benchmarks are relatively costly and precise feasibility study usually imply large amount of benchmarks. In this thesis, we propose a benchmark based SLA feasibility study method to evaluate whether or not a SLA expressed in PSLA, including QoS targets, resource constraints, cost constraints and workload constraints can be achieved. This method makes tradeoff between the accuracy of a SLA feasibility study and benchmark costs. The intermediate of this benchmark based feasibility study process will be used as the workload-resource mapping model of our runtime control method. When application is running in a cloud infrastructure, the scalability feature of cloud infrastructures allows us to allocate and release resources according to changing needs. These resource provisioning activities are named runtime control. We propose the Runtime Control method based onSchedule, REactive and PROactive methods (RCSREPRO). Changing needs are mainly caused by the fluctuating workload for majority of the applications running in the cloud. The detailed workload information, for example the request arrival rates at scheduled points in time, is difficult to be known before running the application. Moreover, workload information listed in PSLA is too rough to give a fitted resource provisioning schedule before runtime. Therefore, runtime control decisions are needed to be performed in real time. Since resource provisioning actions usually require several minutes, RCSREPRO performs a proactive runtime control which means that it predicts future needs and assign resources in advance to have them ready when they are needed. Hence, prediction of the workload and workload-resource mapping are two problems involved in proactive runtime control. The workload-resource mapping model, which is initially derived from benchmarks in SLA feasibility study is continuously improved in a feedback way at runtime, increasing the accuracy of the control.To sum up, we contribute with three aspects to the QoS management of application running in the cloud: creation of PSLA, a PaaS level SLA description language; proposal of a benchmark based SLA feasibility study method; proposal of a runtime control method, RCSREPRO, to ensure the SLA when the application is running. The work described in this thesis is motivated and funded by the FSN OpenCloudware project (www.opencloudware.org).
39

Le traitement politique de l'allocation universelle en France

Guatieri, Quentin 12 1900 (has links)
No description available.
40

Etude du procédé d'estampage de plaques composites thermo-plastiques et recherche d'une méthodologie efficiente pour l'analyse de la faisabilité d'une pièce complexe / Study of thermoplastic composites plate formed by the stamping process and research of an efficient methodology for the analysis of the feasibility of a complex shape

Le Meur, Kevin 02 December 2015 (has links)
Le procédé de thermo-estampage est une voie intéressante pour la production en grande série de pièces composites. Cependant ce procédé est complexe à maitriser et simuler, en raison des phénomènes multi-physiques mis en jeu (déformation textiles, choc thermique, frottements...) ce qui engendre des campagnes par essai-erreurs qui peuvent être très coûteuses. Cette étude s'intéresse à la mesure et à la caractérisation du procédé d'estampage et des matériaux utilisés afin de simuler le refroidissement de la matrice et la mise en forme du textile. Des défauts récurrents sont évoqués ainsi que des solutions industrielles afin de les résoudre. La simulation thermique permet de déterminer le temps de consolidation nécessaire afin d'optimiser les temps de production en fonction des matériaux et de leur épaisseur. La simulation de la mise en forme textile permet de prédire la faisabilité d'une pièce et l'orientation des fibres afin de définir au mieux les pièces suivant les cas de charges statiques et dynamiques. Les apports de ce travail sont les suivants : la réalisation de mesures thermiques du flan durant un estampage et du choc thermique en surface du stratifié, la réalisation d'une méthodologie efficiente pour analyser la faisabilité d'une pièce complexe dans un contexte industriel grâce à des simulations de mise en forme couplées à des essais expérimentaux. Enfin une méthode d'analyse du comportement en cisaillement plan, pour des renforts dont les fils de chaîne et de trames ne sont pas orthogonaux est proposée. / The thermo-stamping process is a promising way for the mass production of the composite parts. However this process is complex to master and simulate due to the multi-physics background (textile deformation, thermal shock, rubbing...) and trial and error tests campaigns can be expensive. This study focuses on the measurement and assessment of the process and materials behaviour, to simulate the cooling down of the matrix and the forming of the woven. Typical defects are mentioned as well as associated industrial solutions to solve them. The simulation makes it possible to determine the consolidation time necessary in order to optimize the manufacturing time as a function of the material used and of its thickness. Furthermore the forming simulation shows the feasibility of the part and the fibre orientation to design the product for the static and crash cases. The contributions of this work are the following: thermal measurements of the pre-consolidated plate during the stamping phase and the thermal chock at the surface of the composites, an efficient method to analyse the feasibility of a complex shape in an industrial context is proposed through forming simulations compared to the experiment. Finally, a methodology for the analysis of the in-plane shearing behaviour of a woven fabric with non-orthogonal warp and weft yarn is proposed.

Page generated in 0.0731 seconds