31 |
Apports et limitations de la technologie MOS double grille à grilles à grilles indépendantes sub-45nm pour la conception analogique basse fréquenceFreitas, Philippe 21 December 2009 (has links)
L’objectif de cette thèse est d’étudier les apports et les limitations des dispositifs double grille à grilles indépendantes (IDGMOS) dans la conception de circuits analogiques fonctionnant à basses fréquences. Ce dispositif compte parmi les structures à l’étude pour le remplacement des transistors MOS à substrat massif. Ce remplacement deviendra nécessaire dès lors que ceux-ci auront atteint leurs limites physiques suite à la diminution géométrique dictée par les besoins de l’industrie du semiconducteur. Bien que cette technologie soit conçue pour ses potentialités quant à la réalisation de circuits numériques et RF, le fait de pouvoir déconnecter les deux grilles et de les contrôler séparément ouvre également la voie à de nouvelles solutions pour la conception des systèmes analogiques futurs. Ce travail se focalise tout d’abord sur l’étude du comportement de l’IDGMOS et notamment sur les effets du couplage existant entre les deux interfaces du composant. Cette étude s’appuie sur les caractéristiques du transistor ainsi que sur son modèle. Celui-ci est ensuite simplifié afin d’extraire des lois élémentaires régissant le fonctionnement dynamique de l’IDGMOS. Dans un second temps, ce manuscrit précise l’environnement futur du transistor ainsi que les solutions existantes, conçues à base de dispositifs à substrat massif et permettant de palier les détériorations fonctionnelles futures. Une brève étude comparative est présentée ensuite entre une technologie MOS standard avancée et un modèle IDGMOS ajusté sur les prévisions de l’ITRS. Néanmoins, les paramètres ajustés sont à ce point idéaux qu’il est difficile de conclure. Il reste donc préférable de se cantonner aux considérations analogiques données par la suite du chapitre, celles-ci se basant principalement sur les équations du modèle de l’IDGMOS ainsi que sur sa structure. La troisième partie de se chapitre met en œuvre le transistor IDGMOS au sein de circuits représentant les blocs de base de l’électronique analogique. Chacun de ces blocs est étudié afin de mettre en valeur un apport fonctionnel particulier du composant. Cette étude se termine par une comparaison entre les résultats simulés d’un amplificateur complet IDGMOS et ceux d’un autre circuit réalisé quant à lui en utilisant l’accès substrat de transistors MOS standard, tous deux fonctionnant sous une tension d’alimentation de 0; 5V. / The aim of this thesis is to study the contributions and the limitations of Independently Driven Double Gate MOS transistors in regard of the low frequency analog design. This device is one of the candidates for the replacement of the current bulk MOS technology since the gate length of the transistors cannot be efficiently decreased under 30nm. Even if the IDGMOS technology is mainly designed for digital and radio frequency applications, the independent drive of the gates should also improve the design of analog circuits ant it would provide solutions to the future circuits issues. First, this work focuses upon the IDGMOS’s behaviour, going a little deeper into the effects of the coupling that exists between its interfaces. Using the electrical characteristics of the transistor and simplifying its model, this report then reviews the static and dynamic laws of the component in order to extract a simple description of its operation modes. Secondly, a state of the art concerning both the future environment and issues is presented, followed by the solutions which currently exist using the standard MOS technology. A brief comparison between an advanced MOS technology and an IDGMOS model fitted on the ITRS parameters is given. However, these ideal parameters prevent this work from establishing a practical conclusion whereas the aforementioned theoretical studies can be used for providing a better understanding of the IDGMOS contributions. Those are reviewed just before the last part of the report which presents some basic analog circuits and their enhancement using double gate transistors. This chapter first emphasizes each important aspect of the device operating within the circuits and it thus concludes on an interesting comparison between two complete low supply voltage amplifiers, the first one designed using IDGMOS transistors and the other one based on bulk driven MOS devices.
|
32 |
Elaboration, validation et application de la grille de critères de persuasion interactive / Development, validation and application of the criteria grid for interactive persuasionNemery, Alexandra 19 January 2012 (has links)
Les concepteurs d'interfaces ont un besoin sans cesse évoluant d'influencer les utilisateurs. Dans n'importe quel domaine, de la vente à l'écologie en passant par l'éducation, les interfaces se font de plus en plus intelligentes, adaptatives et interactives afin d'inciter les individus à modifier leur attitude, voire leur comportement. Si l'inspection ergonomique et l'utilisabilité sont depuis longtemps prises en compte durant les phases d'évaluation ou de conception d'un produit, il s'avère que la dimension persuasive des technologies n'est pas encore reconnue. Or, elle fait partie intégrante de l?expérience utilisateur. Face à l'absence d'outil validé dans ce domaine, une grille de critères a été créée à ce besoin. Suite à la revue de cent soixante-quatre articles portant sur le domaine de la captologie, une grille de huit critères a été élaborée. Une expérience basée sur une tâche d'identification d'éléments dits persuasifs dans quinze interfaces a été mise en place auprès de 30 experts en ergonomie. L'utilisation de la grille a montré qu'elle aidait les experts à identifier 78,8% des éléments persuasifs présents. Avec un score de Kappa de 0.76, un accord inter-juge fort a été démontré. Suite à cette validation en laboratoire, une expérience réelle visant à montrer son opérationnalisation et à tester son efficacité sur le terrain a été menée. Appliquée dans le cadre d'un sondage entreprise en ligne annuel, la grille de critères a permis de passer de 25% à 41% de répondants sur une population de 897 salariés. Enfin, un travail d'aménagement de deux outils a permis d'élaborer une réflexion sur les éléments de la persuasion interactive propres à l'informatique décisionnelle / Interface designer have a constant need to influence users. In any field, interfaces are more and more smart, adaptive and interactive in order to encourage people to change. If ergonomic inspection and usability has long been considered to be a part of the evaluation phase or product design process, persuasive technology has not yet been taken into account. Faced with the lack of validated tool in this area, a set of criteria was elaborated. Following the review of 164 articles on the captology field, a grid of eight criteria was proposed. Following various pre-test and its stabilization, this list of criteria was tested with 30 experts in ergonomics to proceed to its validation. Experience-based identification task called persuasive elements in interfaces; 15 have been chosen. The use of the grid showed that it helped the experts identify 78.8% of persuasive elements. With a Kappa score of 0.76, a strong inter-judges agreement has been demonstrated. Following this validation in the laboratory, a real experience test to prove its effectiveness in the field has also been conducted. Applied in the context of an online survey company, annual use of the criteria increased the number of respondents from 25% to 41% in a population of 897 employees. Finally, intelligence has specific features to the world of professional software
|
33 |
Realization and characterization of Organic Field Effect Transistors and nano-floating gates memories on rigid and flexible substrates / Réalisation et caractérisation de transistors à effet de champ organiques OFETs et Mémoires à nano grille flottante sur des substrats rigides et flexiblesLi, Shuo 23 March 2018 (has links)
Depuis la découverte des polymères conducteurs, de nombreuses études ont été menées afin d’utiliser ces nouveaux matériaux semiconducteurs en tant que couche active de composants électroniques. Dans cette thèse nous nous intéressons à deux composants clés de l’électronique organique : Les transistors à effet de champs et les mémoires à nano-grille flottante seront réalisés à la fois sur des substrats rigides et flexibles. Pour l’optimisation de nos dispositifs, nous avons choisi de travailler sur les interfaces.Tout d’abord, des monocouches auto-assemblées SAMs ont été utilisés pour optimiser les interfaces électrode/SCO et diélectrique/SCO de l’OFET : des mobilités de 0.68 cm2V-1S-1 et des rapports on/off ˃106 ont été obtenus. Par la suite, nous avons fabriqué des dispositifs de mémoire à simple grille flottante SFG en utilisant les en nanoparticules (NP) d’or et à double grille flottante DFG en utilisant les NP d’or et des feuillets de graphène comme couches de piégeage de charges. En particulier, les DFG avec PFBT présentent en effet d'excellentes performances (une large fenêtre mémoire de 51 V et un temps de rétention stable et de plus de 108s).Ensuite, nous avons fabriqué tous les dispositifs sur des substrats souples en kapton avec des processus de fabrication simples et à basse température. Ces NFGM flexibles ont été caractérisés et leurs performances mesurées (fenêtre mémoire de 23V). Nous avons également mis en évidence un piégeage multi-niveaux dans les NP. De plus, ces composants ont montré une bonne résistance aux tests de flexibilité et de pliage et une stabilité très satisfaisante (supérieure à 500 cycles). / Organic field effect transistor (OFET) and organic based nano-floating gate memory (NFGM) devices are essentially expected to meet emerging technological demands that realizing flexible and wearable electronic devices. The objective of this thesis is to develop and optimize the pentacene OFET and NFGM based on rigid and flexible substrates. First, self-assembled monolayers (SAMs) were used to optimize the OFET, a high mobility of 0.68 cm2V-1S-1 and current on/off ratio ˃106 were obtained. Then, we fabricated single floating gate (SFG) and double floating gate (DFG) memory devices by using gold nanoparticles (Au NPs) and reduced graphene oxide (rGO) sheets as charge trapping layers. In particular, the DFG with PFBT exhibits excellent memory performances, including the large memory window of 51 V, and the stable retention property more than 108 s. Third, we fabricated all organics based OFET and NFGM on kapton flexible substrates with simple fabrication process under low temperature. The large memory window of 23 V was obtained, and the multi-level data storage performance was observed for our flexible NFGM devices. In addition, the bending stability/mechanical stability test present high current on /off ratio ˃105, retention time ˃104, as well as cycling exceed 500 cycles. Based on the experiments results of this work, we highlight the efficient ways to optimize the OFET and fabricate the high performances of flexible NFGM by simple fabrication process.
|
34 |
Etude et simulation physique des effets parasites dans les HEMTs AlGaN/GaNLachèze, Ludovic 14 December 2009 (has links)
Le développement des systèmes de télécommunication et de transfert d’informations motive la mise au point de systèmes de transmission qui permettent des débits plus élevés sur des distances plus grandes. De ce fait, les transistors utilisés dans ces systèmes doivent fonctionner à des fréquences et des puissances plus élevées. Différents transistors sont apparus pour répondre au mieux aux contraintes des applications visées par ces systèmes. Les transistors à haute mobilité électronique, HEMT, en nitrure de gallium (GaN) répondent actuellement aux applications allant de 1GHz à 30GHz. Pour ces applications, les HEMT GaN concurrencent avantageusement les technologies bipolaires et BiCMOS basées sur SiGe, les LDMOS Si et SiC, ainsi que les PHEMT GaAs. Même si la filière technologique GaN est encore récente, les HEMT GaN semblent prometteurs. A l’image des autres technologies III-V (InP, GaAs), les procédés de fabrication utilisés pour les HEMT AlGaN/GaN sont complexes et entraînent la formation de nombreux défauts cristallins. Des effets parasites de fonctionnement sont induits par des mécanismes physiques qui pénalisent le transport des porteurs dans la structure. De ce fait, à l’heure actuelle, ces effets parasites ont une influence négative sur les performances de ce transistor. Ils sont principalement liés aux pièges à électrons induits par des impuretés présentes dans le matériau ou des défauts cristallins. Malgré cela, les performances sont très prometteuses et rivalisent déjà avec d’autres technologies hyperfréquences (InP, GaAs, SiC et Si) puisque les HEMTs AlGaN/GaN débitent des puissances de 4W/mm à 30GHz [ITRS08]. Les travaux présentés dans ce manuscrit sont consacrés à l'étude des phénomènes parasites dans les HEMTs AlGaN/GaN. Les composants étudiés dans ce travail proviennent du programme blanc ANR CARDYNAL et ont été fabriqués par III-V Lab Alcatel-Thales. Une méthodologie a été développer afin de permettre la simulation TCAD d’un HEMT GaN dans l’objectif de valider ou d’invalider les origines des mécanismes de dégradation ainsi que des effets parasites. Le courant de grille a été spécialement étudié et un modèle analytique permettant de le décrire en fonction de la température a été développé. Les mécanismes de transport à travers la grille ont aussi été étudiés par simulation TCAD afin de les localiser géographiquement dans la structure du transistor. / III-V nitrides have attracted intense interest recently for applications in high-temperature, high-power electronic devices operating at microwave frequencies. Great progress has been made in recent years to improve the characteristics of nitride High Electron Mobility Transistors (HEMTs). However, it's necessary to study the mecanisms involved in the electron transport as the mechanic strain on the AlGaN layer, the fixed charge distribution and leakage currents. In this goal, from DC I-V measurements, pulsed I-V measurements and DCTS measurements, TCAD simulation are used to validate the assumption on the origin of the parasitic mechanisms on the electron transport. I-V measurement in temperature (from 100K to 200K) are used to identify the nature of mechanisms (Poole-Frenkel, band-to-band tunneling, thermionic,..). With this method, an accurate study of the gate current was done. To choose the different physical phenomena and which model to implement in the TCAD simulations, an analytical model was developed with a compraison with measurements. These mechanisms are validated by TCAD simulation. The comparaison between I-V measurements and simulation permit to localize (in the transistor) these parasitic mechanisms. In conclusion of this work, a high density of traps in a thin layer under the gate increase the probability of tunnelling current through the gate. When the gate bias increases, the high density of traps in AlGaN layer is using by electrons to leak by the gate. When the gate bias increases, the valence band in AlGaN layer is aligned with the conduction band in the channel. The very thin thickness of this layer (about 25nm) makes possible a band-to-band tunneling.
|
35 |
Coordination mechanisms for smart homes electric energy management through distributed resource scheduling with demand response programs / Mécanismes de coordination pour la gestion de l'énergie électrique dans un quartier intelligent : planification de l'utilisation des ressources et partage local d'énergieCelik, Berk 29 September 2017 (has links)
La modernisation des réseaux électriques via ce que l'appelle aujourd'hui les réseaux intelligents (ou smart grids) promet des avancées pour permettre de faire face à une augmentation de la demande mondiale ainsi que pour faciliter l'intégration des ressources décentralisées. Grâce à des moyens de communication et de calcul avancés, les smart grids offrent de nouvelles possibilités pour la gestion des ressources des consommateurs finaux, y compris pour de petits éléments comme de l'électroménager. Cependant, ce type de gestion basée sur des décisions prises indépendamment peuvent causer des perturbations tels qu'un rebond de consommation, ou des instabilités sur le réseau. La prise en compte des interactions entre les décisions de gestion énergétique de différentes maisons intelligentes est donc une problématique naissante dans les smart grids. Cette thèse vise à évaluer l'impact potentiel de mécanismes de coordination entre consommateurs résidentiels au niveau de quartiers, et ce à travers trois études complémentaires. Tout d'abord, une première stratégie pour la gestion coordonnée de maisons est proposée avec l'objectif d'augmenter l'utilisation locale d'énergie renouvelable à travers la mise en place d'échanges d'énergie électrique entre voisins. Les participants reçoivent en échange une compensation financière. L'algorithme de gestion est étudié dans une configuration centralisée et une configuration décentralisée en faisant appel au concept de système multi-agents, chaque maison étant représentée par un agent. Les résultats de simulation montrent que les deux approches sont efficaces pour augmenter la consommation locale d'énergie renouvelable et réduire les coûts énergétiques journaliers des consommateurs. Bien que l'approche décentralisée retourne des résultats plus rapidement, l'approche centralisée a une meilleure performance concernant les coûts. Dans une seconde étude, deux algorithmes de gestion énergétiques à J-1 sont proposés pour un quartier résidentiel. Un modèle de tarification dynamique est utilisé, où le prix dépend de la consommation agrégée du quartier ainsi que d'une forme de tarification heures creuses-heures pleines. L'objectif est ici de concevoir un mécanisme de coordination plus avancé (par rapport au précédent), en permettant des échanges d'énergie renouvelable résiduelle au sein du quartier. La performance des algorithmes est étudiée sur une période d'une journée puis d'une année, en prenant ou non en compte les erreurs de prévision. D'après les résultats de simulation, les deux algorithmes proposés montrent de meilleurs performances que les méthodes de référence (sans contrôle, et algorithme égoïste), même en considérant les erreurs de prévision. Enfin, dans une troisième étude, l'impact de l'introduction de production photovoltaïque résidentielle sur la performance d'un agrégateur est évaluée, dans une configuration centralisée. L'agrégateur interagit avec le marché spot et le gestionnaire de réseau, de façon à proposer un nouveau modèle de tarification permettant d'influencer les consommateurs à agir sur leur consommation. Les résultats de simulation montrent quand le taux de pénétration de photovoltaïque résidentiel augmente, le profit de l'agrégateur diminue, du fait de l'autoconsommation dans le quartier. / Grid modernization through philosophies as the Smart Grid has the potential to help meet the expected world increasing demand and integrate new distributed generation resources at the same time. Using advanced communication and computing capabilities, the Smart Grid offers a new avenue of controlling end-user assets, including small units such as home appliances. However, with such strategies, decisions taken independently can cause undesired effects such as rebound peaks, contingencies, and instabilities in the network. Therefore, the interaction between the energy management actions of multiple smart homes is a challenging issue in the Smart Grid. Under this purpose, in this work, the potential of coordination mechanisms established among residential customers at the neighborhood level is evaluated through three studies. Firstly, coordinative home energy management is presented, with the aim to increase local renewable energy usage in the neighborhood area by establishing energy trading among smart homes, which are compensated by incentives. The control algorithm is realized in both centralized and decentralized manners by deploying a multi-agent system, where neighborhood entities are modeled as agents. Simulations results show that both methods are effective on increasing local renewable energy usage and decreasing the daily electricity bills of customers. However, while the decentralized approach gives results in shorter time, the centralized approach shows a better performance regarding costs. Secondly, two decentralized energy management algorithms are proposed for day-ahead energy management in the neighborhood area. A dynamic pricing model is used, where price is associated to the aggregated consumption and grid time-of-use scheme. The objective of the study is to establish a more advanced coordination mechanism (compared to previous work) with residual renewable energy is shared among smart homes. In this study, the performance of the algorithms is investigated with daily and annual analyses, with and without considering forecasting errors. According to simulations results, both coordinative control models show better performance compared to baseline and selfish (no coordination) control cases, even when considering forecasting errors. Lastly, the impact of photovoltaic systems on a residential aggregator performance (in a centralized approach) is investigated in a neighborhood area. In the proposed model, the aggregator interacts with the spot market and the utility, and proposes a novel pricing scheme to influence customers to control their loads. Simulation results show that when the penetration level of residential photovoltaics (PV) is increased, the aggregator profit decreases due to self-consumption ability with PV in the neighborhood.
|
36 |
Reconstruction et identification des électrons dans l'expérience Atlas. Participation à la mise en place d'un Tier 2 de la grille de calculDerue, Frédéric 11 March 2008 (has links) (PDF)
L'origine de la masse des particules élémentaires est liée au mécanisme de brisure de la symétrie électrofaible. Son étude sera l'un des enjeux majeurs de l'expérience Atlas auprès du Large Hadron Collider, au Cern à partir de 2008. Dans la plupart des cas, les recherches seront limitées par notre connaissance des performances du détecteur, telles que la précision avec laquelle l'énergie des particules est reconstruite ou l'efficacité avec laquelle elles sont identifiées. Ce mémoire d'habilitation présente un travail portant sur la reconstruction des électrons dans Atlas avec des données simulées et des données prises durant le test en faisceau combiné qui s'est déroulé en 2004. L'analyse des données d'Atlas nécessite l'utilisation de ressources de calcul et de stockage importantes qui a impliqué le développement d'une grille de calcul mondiale dont un des noeuds est développé au laboratoire. Le manuscrit présente aussi l'effort effectué au LPNHE Paris pour la mise en place d'un Tier 2 en r\égion Ile de France.
|
37 |
Etude et développement de procédés de gravure plasma de HfO2 pour l'élaboration de transistors CMOS sub-45 nmSungauer, Elodie 16 January 2009 (has links) (PDF)
La miniaturisation des dispositifs CMOS impose d'introduire de nouveaux matériaux dans l'empilement de grille des transistors. Ainsi, l'empilement classique poly-silicium/SiO2 est remplacé par un empilement poly- silicium/métal/matériau à haute permittivité diélectrique. L'introduction de ces nouveaux matériaux nécessite le développement de nouveaux procédés de gravure plasma.<br />L'objectif de ce travail est de proposer un procédé de gravure plasma capable de graver une fine couche de diélectrique (HfO2 dans notre cas) sélectivement par rapport au substrat de silicium sous-jacent. Cette étude montre que les plasmas à base de BCl3 sont très prometteurs dans ce domaine. En effet, les mécanismes de gravure en BCl3 reposent sur une compétition entre gravure et formation d'un dépôt de BCl sur la surface. La transition d'un régime à l'autre est contrôlée par l'énergie des ions du plasma. Comme le seuil de gravure en énergie est plus faible pour HfO2 que pour les substrats contenant du Si, il est possible d'obtenir une sélectivité de gravure infinie en ajustant l'énergie des ions judicieusement. De plus ce travail souligne le rôle important du conditionnement des parois du réacteur de gravure dans les mécanismes mis en jeu en plasma de BCl3. Enfin, des procédés de gravure répondant aux problèmes de sélectivité et d'anisotropie de gravure sont proposés pour graver la fine couche de HfO2 de grille.
|
38 |
CoRDAGe : Un service générique de co-déploiement et redéploiement d'applications sur grillesCudennec, Loïc 15 January 2009 (has links) (PDF)
La mutualisation des ressources physiques réparties dans les universités, les instituts et les entreprises a permis l'émergence des grilles de calcul. Ces infrastructures dynamiques sont bien adaptées aux applications scientifiques ayant de grands besoins en puissance de calcul et en espace de stockage. L'un des défis majeur pour les grilles de calcul reste la simplification de leur utilisation. Contrairement au déploiement d'applications sur une infrastructure centralisée, le déploiement sur une grille nécessite de nombreuses tâches pénibles pour l'utilisateur. La sélection des ressources, le transfert des programmes ainsi que la surveillance de l'exécution sont en effet laissés à sa charge. Aujourd'hui, de nombreux travaux proposent d'automatiser ces étapes dans des cas simples. En revanche très peu permettent de prendre en charge des déploiements plus complexes, comme par exemple le redéploiement d'une partie de l'application pendant son exécution ou encore le déploiement coordonné de plusieurs applications. <br /><br />Dans cette thèse, nous proposons un modèle pour prendre en charge le déploiement dynamique des applications sur les grilles de calcul. Ce modèle vise à offrir deux fonctionnalités principales. La première consiste en la traduction d'actions de haut niveau, spécifiques aux applications, en opérations de bas niveau, relatives à la gestion des ressources sur la grille. La deuxième consiste en la pré-planification des déploiements, redéploiements et codéploiements d'applications sur les ressources physiques. <br /><br />Le modèle satisfait trois propriétés. Il rend transparent la gestion des ressources à l'utilisateur. Il offre des actions spécifiques aux besoins de l'application. Enfin, il est non-intrusif en limitant les contraintes sur le modèle de programmation de l'application. <br /><br />Une proposition d'architecture nommée CORDAGE vient illustrer ce modèle pour le co-déploiement et le redéploiement d'applications. CORDAGE a été développé en lien avec l'outil de réservation OAR et l'outil de déploiement ADAGE. La validation du prototype s'est effectuée avec la plate-forme pair-à-pair JXTA, le service de partage de données JUXMEM ainsi que le système de fichiers distribué GFARM. Notre approche a été évaluée sur la grille expérimentale GRID' 5000.<br /><br />http://cordage.gforge.inria.fr/
|
39 |
Identification de paramètres élastoplastiques par des essais statiquement indéterminés : mise en oeuvre expérimentale et validation de la méthode des champs virtuelsPannier, Yannick 26 September 2006 (has links) (PDF)
Ce travail concerne la mise en oeuvre expérimentale de la méthode des champs virtuels (MCV) pour identifier des paramètres pilotant une loi de comportement élastoplastique. La méthode a déjà été validée sur des données simulées, mais plusieurs aspects restaient à analyser pour une application expérimentale. La méthode d'identification est basée sur la minimisation d'une fonction coût traduisant l'écart à l'équilibre de la structure testée. Cette fonction coût est construite à partir du principe des travaux virtuels (pour plusieurs champs virtuels choisis arbitrairement), des champs cinématiques mesurés à la surface de l'éprouvette et de la force de traction appliquée. Dans un premier temps, un essai de traction sur une éprouvette plane à section variable, conduisant à un état de contrainte quasiment uniaxial, a été mis en place. Cette essai a conduit à l'identification des six paramètres d'une loi élastoplastique isotrope. Les valeurs des paramètres identifiés coïncident avec les valeurs de référence identifiées lors d'essais de traction classiques. La stabilité de l'identification vis à vis des paramètres influant a été examinée. Dans un deuxième temps, des essais mécaniques générant des champs de contraintes multiaxiales ont été conduit sur des éprouvettes planes à entailles circulaires. Les paramètres identifiés à partir de ces essais se sont révélés d'avantage éloignés des valeurs de référence. Plusieurs hypothèses ont été évoquées pour expliquer ces écarts, comme une construction non optimale de la fonction coût ou des erreurs lors du choix du modèle décrivant le comportement du matériau.
|
40 |
Programmation des systèmes parallèles distribués : tolérance aux pannes, résilience et adaptabilitéJafar, Samir 30 June 2006 (has links) (PDF)
Les grilles et les grappes sont des architectures de plus en plus utilisées dans le domaine du calcul scientifique distribué. Le nombre important de constituants hétérogènes (processeurs, mémoire, interconnexion) dans ces architectures dynamiques font que le risque de défaillance est très important. Compte tenu de la durée considérable de l'exécution d'une application parallèle distribuée, ce risque de défaillance doit être contrôlé par l'utilisation de technique de tolérance aux pannes. <br />Dans ce travail, la représentation de l'état de l'exécution d'un programme parallèle est un graphe, dynamique, de flot de données construit à l'exécution. Cette description du parallélisme est indépendante du nombre de ressources et donc exploitée pour résoudre les problèmes liés à la dynamicité des plateformes considérées. La définition de formats portables pour la représentation des noeuds du graphe résout les problèmes d'hétérogénéité. La sauvegarde du graphe de flot de données d'une application durant son exécution sur une plateforme, constitue des points de reprise pour cette application. Par la suite, une reprise est possible sur un autre type ou nombre de processus. Deux méthodes de sauvegarde / reprise, avec une analyse formelle de leurs complexités, sont présentées : SEL (Systematic Event Logging) et TIC (Theft-Induced Checkpointing). Des mesures expérimentales d'un prototype sur des applications caractéristiques montrent que le surcoût à l'exécution peut être amorti, permettant d'envisager des exécutions tolérantes aux pannes qui passent à l'échelle.
|
Page generated in 0.0484 seconds