• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 108
  • 36
  • 19
  • Tagged with
  • 164
  • 57
  • 51
  • 43
  • 41
  • 35
  • 28
  • 25
  • 25
  • 23
  • 23
  • 20
  • 19
  • 19
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Conception et mise en oeuvre d'un environnement logiciel de manipulation et d'accès à des données réparties

Duque, Hector Brunie, Lionel. Magnin, Isabelle January 2006 (has links)
Thèse doctorat : Informatique : Villeurbanne, INSA : 2005. / Thèse rédigée en anglais. Résumé étendu en anglais. Titre provenant de l'écran-titre. Bibliogr. p. 214-226.
92

Description des phénotypes cliniques des patientes diagnostiquées pour un cancer de l'ovaire de type épithélial à partir d'un entrepôt de données cliniques : un soutien pour la génomique fonctionnelle

Normandeau-Babin, Vincent January 2013 (has links)
Ce projet de maîtrise vise à décrire les phénotypes cliniques des patientes diagnostiquées pour un cancer de l'ovaire de type épithélial afin de soutenir la génomique fonctionnelle. Pour réaliser ce projet de recherche, quatre objectifs ont été réalisés : 1) proposer un modèle conceptuel décrivant les phénotypes cliniques des patientes à partir de données médicales enregistrées dans un entrepôt de données cliniques ; 2) à partir du modèle conceptuel, créer deux outils informatiques, dont l'un, le Master Specimen File (MSF) qui extrait des variables du modèle conceptuel issues des rapports de chirurgie et de pathologie des patientes (p. ex. histologie, stade, grade, etc.) afin de confirmer leurs diagnostics et de décrire leurs tissus de recherche selon des caractéristiques tissulaires, cellulaires et moléculaires. L'autre, le Clinical Response Database (CRD) , permet de visualiser d'autres variables (p. ex. traitements, résultats d'imagerie médicale et marqueurs tumoraux) pour déterminer l'ordre des traitements, les réponses aux traitements ainsi que les survies des patientes; 3) utiliser les deux outils informatiques au Centre hospitalier universitaire de Sherbrooke (CHUS) pour décrire les phénotypes cliniques de patientes recrutées pour le Laboratoire de génomique fonctionnelle de l'Université de Sherbrooke (LGFUS) ; et 4) réanalyser les résultats d'une étude publiée en 2009 par le LGFUS en effectuant un nouveau regroupement des patientes selon leurs phénotypes cliniques. L'utilisation des outils informatiques au CHUS a permis de décrire les phénotypes cliniques de 106 patientes diagnostiquées pour un cancer de l'ovaire de type épithélial. Ces outils ont permis de sélectionner les patientes dont les phénotypes cliniques correspondent à des critères de sélection établis par le LGFUS. Cette sélection a permis d'effectuer la réanalyse des résultats d'une étude génomique et de constater que les patientes ayant des phénotypes cliniques hétérogènes ont des moyennes de ratio d'événements d'épissage alternatif de gènes statistiquement différentes. De plus, cette reanalyse a permis d'obtenir de nouveaux résultats statistiquement significatifs et d'apporter de nouvelles hypothèses concernant le gène CDCA1 dans le cadre du cancer de l'ovaire de type épithélial.
93

Étude du recours informatique dans l'enseignement des mathématiques au collège

Mattiussi, Claude 12 December 2013 (has links) (PDF)
Avec plus d'un tiers de professeurs pratiquants dans l'académie de Toulouse, les enquêtes ont constaté que, désormais, le recours informatique est un phénomène historique irréversible dans l'enseignement des mathématiques au collège dû : premièrement, à la généralisation des équipements (vidéoprojecteurs en classe) ; à l'engagement des professeurs qui a compensé les défaillances de l'institution dans leurs administrations ; deuxièmement, aux incitations et obligations institutionnelles des nouveaux programmes et des inspections ; troisièmement, à la disponibilité des logiciels gratuits qui ont suppléé les carences budgétaires ; à l'abondance des activités diffusées en ligne par les sites académiques, les IREM et l'association Sésamath ; quatrièmement, au rôle éminent de la formation continue volontaire qui a mobilisé 40 % des professeurs en douze ans ; cinquièmement, à l'enclenchement d'un cercle vertueux de reconnaissance de la valeur du recours informatique. L'étude pragmatique et théorique a révélé que les diverses activités informatiques d'enseignement-apprentissage (AIEA) pratiquées (apprenticiel, imagiciel, exerciseur, didacticiel, praticiel), en utilisant les apports spécifiques de l'informatique (concrétisation, expérimentation intensifiée, individualisation, interaction, motivation), ont apporté des situations instrumentées nouvelles de transposition interne offrant des champs conceptuels féconds qui sous l'effet de schèmes opératoires sont capables d'améliorer l'enseignement-apprentissage des notions et méthodes mathématiques. Un résultat qui dépend de la qualité de ses composantes praxéologiques (intégration, pertinence, performance, supériorité, scénario, mise en scène, durée) et du respect de règles pratiques qui déterminent conjointement les valeurs éducologiques de l'AIEA (propre, efficace et d'usage, professionnelle et institutionnelle) susceptibles de donner un meilleur rendement et une plus grande productivité à l'enseignement des mathématiques.
94

Gestion autonome des ressources et des applications dans un nuage informatique selon une approche fondée sur un marché

Costache, Stefania 03 July 2013 (has links) (PDF)
Les organisations qui possèdent des infrastructures de calcul à haute performance (HPC) font souvent face à certaines difficultés dans la gestion de leurs ressources. En particulier, ces difficultés peuvent provenir du fait que des applications de différents types doivent pouvoir accéder concurremment aux ressources tandis que les utilisateurs peuvent avoir des objectifs de performance (SLOs) variés. Pour atteindre ces difficultés, cette thèse propose un cadre générique et extensible pour la gestion autonome des applications et l'allocation dynamique des ressources. L'allocation des ressources et l'exécution des applications est régie par une économie de marché observant au mieux des objectifs de niveau de service (SLO) tout en tirant avantage de la flexibilité d'une nuage informatique et en maximisant l'utilisation de des ressources. Le marché fixe dynamiquement un prix aux ressources, ce qui, combiné avec une politique de distribution de monnaie entre les utilisateurs, en garantit une utilisation équitable. Simultanément, des contrôleurs autonomes mettent en oeuvre des politiques d'adaptation pour faire évoluer la demande en ressource de leur application en accord avec la SLO requise par l'utilisateur. Les politiques d'adaptation peuvent : (i) adapter dynamiquement leur demande en terme de CPU et de mémoire demandés en période de contention de ressource aux machines virtuelles (ii) et changer dynamiquement le nombre de machines virtuelle. Nous avons évalué cette plateforme au moyen de la simulation et sur l'infrastructure Grid'5000. Nos résultats ont montré que cette solution: (i) offre un support plus flexible aux applications de type différent demandant divers niveaux de service; (ii) conduit à une bonne satisfaction des utilisateurs moyennant une dégradation acceptable des performances comparées aux solutions centralisées existantes.
95

Techniques de gestion des défaillances dans les grilles informatiques tolérantes aux fautes

Ndiaye, Ndeye Massata 17 September 2013 (has links) (PDF)
La construction des grilles informatiques est un des axes de recherche majeurs sur les systèmes informatiques en réseau. L'objectif principal de la construction d'une grille informatique, c'est de fournir les concepts et composant logiciels système adéquats pour agréger les ressources informatiques (processeurs, mémoires, et aussi réseau) au sein d'une grille de traitements informatiques, pour en faire (à terme) une infrastructure informatique globale de simulations, traitement de données ou contrôle de procédés industriels. Cette infrastructure est potentiellement utilisable dans tous les domaines de recherche scientifique, dans la recherche industrielle et les activités opérationnelles (nouveaux procédés et produits, instrumentation, etc.), dans l'évolution des systèmes d'information, du Web et du multimédia. Les grilles de qualité production supposent une maitrise des problèmes de fiabilité, de sécurité renforcé par un meilleur contrôle des accès et une meilleur protection contre les attaques, de tolérance aux défaillances ou de prévention des défaillances, toutes ces propriétés devant conduire à des infrastructure de grille informatique sûres de fonctionnement. Dans cette thèse on propose de poursuivre des recherches sur les problèmes de gestion automatisée des défaillances, l'objectif principal étant de masquer le mieux possible ces défaillances, à la limite les rendre transparents aux applications, de façon à ce que, du point de vue des applications, l'infrastructure de grille fonctionne de façon quasi-continue. Nous avons conçu un nouvel algorithme hiérarchique auto-adaptatif pour assurer la tolérance aux fautes dans les grilles informatiques. Ce protocole s'appuie sur l'architecture hiérarchique des grilles informatiques. Dans chaque cluster, nous avons défini un coordonnateur appelé processus leader, dont le rôle consiste à coordonner les échanges intra-cluster et à assurer le rôle d'intermédiaire entre les processus appartenant à des clusters différents. Pour sauvegarder les états des processus inter-cluster, le protocole adaptatif utilise le mécanisme de journalisation pessimiste basé sur l'émetteur. A l'intérieur du cluster, le protocole exécuté dépend de la fréquence des messages. A partir d'un seuil de fréquence maximale déterminée en fonction de la densité des communications, c'est le protocole de point de reprise coordonné non bloquant qui sera utilisé, tandis que si le nombre de messages dans le cluster est faible, les messages sont sauvegardés avec la journalisation pessimiste.
96

Processus unifié pour la personnalisation des activités pédagogiques : méta-modèle, modèles et outils

Lefèvre, Marie 01 December 2009 (has links) (PDF)
Cette thèse en informatique se situe dans le domaine des Environnements Informatiques pour l'Apprentissage Humain (EIAH). Dans ce cadre, nous avons abordé la question de la personnalisation de l'apprentissage. Nos travaux de recherche consistaient à identifier un processus qui permette à la fois de personnaliser des séances de travail sur papier et des séances de travail sur des logiciels pédagogiques. Nous souhaitions que ce processus permette de prendre en compte les spécificités de chaque apprenant en s'appuyant sur son profil, mais qu'il prenne également en compte les buts et les habitudes pédagogiques des enseignants. Enfin, nous souhaitions que ce processus soit implémentable dans un système externe aux logiciels à personnaliser. Notre problématique s'est donc décomposée en trois points : comment exploiter les profils d'apprenants pour prendre en compte les individualités des apprenants ? Comment adapter une activité pour prendre en compte les besoins et habitudes pédagogiques d'un enseignant ? Et enfin, comment attribuer une activité à un apprenant ? Pour répondre au premier point, nous avons proposé le modèle cPMDL. Ce complément du langage de modélisation des profils PMDL permet de contraindre les profils des apprenants afin de sélectionner ceux ayant les caractéristiques requises par les contraintes. cPMDL nous permet donc d'exploiter les informations contenues dans les profils au sein du processus de personnalisation. Pour répondre au deuxième point, nous avons proposé l'approche GEPPETO. Cette approche s'appuie sur des modèles et des processus génériques permettant d'adapter les activités en fonction des intentions pédagogiques des enseignants grâce à la définition de contraintes sur les activités. Nous avons décliné cette approche pour permettre l'adaptation des activités papier (GEPPETOP), ainsi que pour l'adaptation des activités logicielles et de la configuration des environnements qui les supportent (GEPPETOS). Pour répondre au troisième point, nous avons proposé le modèle PERSUA2 qui permet de lier les contraintes sur profils de cPMDL aux contraintes sur activités de GEPPETO. Ces liens, nommés règles d'affectation, sont ensuite hiérarchisés selon leur degré de priorité pour former une stratégie pédagogique qui sera associée { un ou plusieurs contextes d'utilisation. Nous avons mis en oeuvre ces différentes contributions théoriques dans Adapte, un module de l'environnement informatique du projet PERLEA. Le rôle de cet environnement est d'assister l'enseignant dans la gestion de profils créés par l'enseignant lui-même ou issus de logiciels pédagogiques. Adapte est l'une des exploitations possibles des profils : le module réalisé permet de fournir à chaque apprenant des activités adaptées à son profil tout en respectant les choix pédagogiques de son enseignant. Ces activités peuvent être des activités papier proposées par le système ou des activités logicielles personnalisées par Adapte, mais effectuées dans un autre EIAH. Ce module, pleinement opérationnel, a montré la faisabilité technique de nos contributions théoriques et nous a permis de conduire des mises à l'essai auprès d'enseignants
97

Analyses de terminaison des calculs flottants / Termination Analysis of Floating-Point Computations

Maurica Andrianampoizinimaro, Fonenantsoa 08 December 2017 (has links)
Le tristement célèbre Ecran Bleu de la Mort de Windows introduit bien le problème traité. Ce bug est souvent causé par la non-terminaison d'un pilote matériel : le programme s'exécute infiniment, bloquant ainsi toutes les ressources qu'il s'est approprié pour effectuer ses calculs. Cette thèse développe des techniques qui permettent de décider, préalablement à l'exécution, la terminaison d'un programme donné pour l'ensemble des valeurs possibles de ses paramètres en entrée. En particulier, nous nous intéressons aux programmes qui manipulent des nombres flottants. Ces nombres sont omniprésents dans les processeurs actuels et sont utilisés par pratiquement tous les développeurs informatiques. Pourtant, ils sont souvent mal compris et, de fait, source de bugs. En effet, les calculs flottants sont entachés d'erreurs, inhérentes au fait qu'ils sont effectués avec une mémoire finie. Par exemple, bien que vraie dans les réels, l'égalité 0.2 + 0.3 = 0.5 est fausse dans les flottants. Non gérées correctement, ces erreurs peuvent amener à des évènements catastrophiques, tel l'incident du missile Patriot qui a fait 28 morts. Les théories que nous développons sont illustrées, et mises à l'épreuve par des extraits de codes issus de programmes largement répandus. Notamment, nous avons pu exhiber des bugs de terminaisons dues à des calculs flottants incorrects dans certains paquets de la distribution Ubuntu. / The infamous Blue Screen of Death of Windows appropriately introduces the problem at hand. This bug is often caused by a non-terminating device driver: the program runs infinitely, blocking in the process all the resources it allocated for its calculations. This thesis develops techniques that allow to decide, before runtime,termination of a given program for any possible value ​​of its inputs. In particular, we are interested in programs that manipulate floating-point numbers. These numbers are ubiquitous in current processors andare used by nearly all software developers. Yet, they are often misunderstood and, hence, source of bugs.Indeed, floating-point computations are tainted with errors. This is because they are performed within a finite amount of memory. For example, although true in the reals, the equality 0.2 + 0.3 = 0.5 is false in the floats. Not handled properly, these errors can lead to catastrophic events,such as the Patriot missile incident that killed 28 people. The theories we develop are illustrated, and put to the test, by code snippets taken from widely used programs. Notably, we were able to exhibit termination bugs due toincorrect floating-point computations in some packages of the Ubuntu distribution.
98

Nouvelles solutions et classification du superpotentiel et du potentiel de Kähler compatibles avec une brisure de la supersymétrie à basse énergie induite par la gravitation / New solutions and classification of the Kähler potential and the superpotential compatibles with gravity-mediated supersymmetry breaking at low energy

Tant, Damien 01 December 2016 (has links)
L’introduction d’une symétrie entre les bosons et les fermions, appelée supersymétrie, étend de manière naturelle le modèle standard de la physique des particules. Néanmoins, une telle symétrie n’a jamais été observée dans la nature : elle doit être nécessairement brisée. L’étude de la brisure de la supersymétrie induite par la gravitation est le coeur du travail effectué dans cette thèse. En 1983, Soni et Weldon ont classifié les formes analytiques des deux fonctions fondamentales - le potentiel de Kahler et le superpotentiel - de manière à conduire à une supersymétrie brisée à basse énergie. Depuis, les analyses phénoménologiques sont basées sur cette classification. Le principal résultat du présent manuscrit est de démontrer l'incomplétude de leur classification. Pour un potentiel de Kahler dit canonique, une classification complète est réalisée tandis qu'un début de classification est proposé pour le cas non-canonique. Dans les deux cas, de nouvelles solutions sont établies menant à de possibles nouvelles conséquences phénoménologiques à basse énergie. L'apport de candidats pour le problème de la matière noire fait partie des contributions majeures des modèles supersymétriques. En parallèle du travail de classification, le développement d'un nouveau calculateur, permettant d'estimer la densité relique de matière noire dans l'Univers, est également proposé. / Supersymmetry extends naturally the Standard Model through the introduction of a new symmetry between bosons and fermions. However, such symmetry has never been observed in nature : Supersymmetry must be broken. Gravity-mediated supersymmetry breaking is the main subject of this doctoral thesis. In 1983, Soni and Weldon classified the analytical forms of the two fundamental functions - the Kahler potential and the superpotential - leading to a consistent low energy broken Supersymmetry. Up to nowadays, this classification has been used for phenomenological model building. The main result of the current thesis demonstrates the incompleteness of their classification. A complete classification is presented for a given canonical Kahler potential while a first sight of the classification is proposed for the non-canonical case. From these assumptions, new solutions are obtained leading to new possibilities for model building at low energy.The proposition of new dark matter candidates is one of the several contributions coming from supersymmetric models. In addition of the new classification, the development of a new generator, allowing to estimate the relic density of dark matter particles, is also proposed.
99

Interactive Prototyping of Interactions : from Throwaway Prototypes to Takeaway Prototyping / Prototypage interactif d'interactions : des prototypes jetables au prototypage recyclable

Leiva, Germán 12 December 2018 (has links)
Le prototypage est une étape essentielle du processus de design. Pendant les premières phases du processus de conception, les designers utilisent le prototypage rapide pour explorer diverses idées. Les outils et techniques actuels de prototypage se concentrent en particulier sur des représentations papier et donc destinées à être jetées. Or, alors que ces prototypes jetables peuvent être créés rapidement, ils se prêtent mal au processus d'itération. Je propose donc de créer des outils de prototypage rapide qui puissent efficacement supporter la création d'artéfacts à la fois jetables et réutilisables pour esquisser de nouvelles interactions dans les premières phases du processus de design. La première partie porte sur le prototypage vidéo. Les designers font face à deux écueils majeurs à l'utilisation de la vidéo en design d'interaction: le temps nécessaire pour filmer et celui nécessaire pour éditer. J’ai développé VideoClipper pour aider le processus de création de vidéo. Cet outil intègre une méthode de design itérative qui encourage la planification et permet une vraie flexibilité pendant la création de prototypes. Je présente les résultats d'une étude utilisateur informelle de trois semaines avec des étudiants en design d'interaction. Les résultats suggèrent que les participants passent moins de temps à capturer et éditer avec VideoClipper qu'avec les autres outils vidéos. En revanche, ils trouvent parfois difficile de créer des stop-motions pour représenter des interactions continues et de re-filmer de nouveaux segments lorsque le design évolue. J'ai ensuite crée Montage, un outil de prototypage vidéo qui permet aux designers de progressivement augmenter leurs prototypes papier avec des maquettes numériques pour faciliter la création, la réutilisation et l'exploration d'interactions dynamiques. Montage utilise l'incrustation vidéo pour découpler l'interface du prototype de son contexte d'utilisation, permettant aux designers de les réutiliser ou de les modifier indépendamment. Je décris comment Montage améliore le prototypage vidéo en combinant la vidéo avec des maquettes numériques animées et encourage l'exploration d'autres contextes d'utilisation tout en permettant le prototypage de styles d'interaction différents. La deuxième partie porte sur l’implémentation de prototypes interactifs. Les designers et développeurs professionnels ont souvent du mal à effectuer la transition de la représentation du design à son implémentation concrète. Avec N. Maudet, j'ai mené trois études sur la conception et l'implémentation d'interactions non-conventionnelles pour comprendre l'écart entre les processus, les outils et les représentations des designers et des développeurs. Nous avons découvert que les pratiques actuelles entraînent des redondances entre le travail des designers et celui des développeurs et des divergences entre le design et son implémentation. Nous identifions trois types de problèmes: l'omission de détails critiques, l'ignorance des cas extrêmes et la non prise en compte des limitations techniques. Je propose quatre principes de design pour créer des outils qui limitent ces problèmes. Ces principes sont utilisés pour créer Enact, un environnement interactif de prototypage d'interactions tactiles. Les résultats de deux études suggèrent que Enact aide les participants à détecter plus de cas extrêmes, augmente la participation des designers et offre de nouvelles possibilités de co-création. Ces trois outils de prototypage reposent sur les mêmes principes théoriques sous-jacent: réification, polymorphisme, réutilisation et substrats d'information. De même, les outils présentés mettent en œuvre une approche du prototypage que je nomme “Takeaway Prototyping” ou prototypage recyclable. Par contraste avec les prototypes jetables, les outils pour le prototypage recyclable permettent le design par énaction et réifient des artefacts de conception pour matérialiser la progression du design. / Prototyping is essential in any design process. During the early stages, designers rely on rapid prototyping to explore ideas. Current rapid prototyping tools and techniques focus on paper representations and their disposability. However, while these throwaway prototypes are quick to create they are difficult to iterate over. I argue that rapid prototyping tools can effectively support reusable as well as throwaway artifacts for sketching interaction in early-stage design. First, I investigate tools in the context of video prototyping. Designers experience two main barriers to use video in interaction design: the time to capture and edit the video artifacts. To aid during the capturing-phase of video prototyping I created VideoClipper. This tool embodies an integrated iterative design method that rewards discipline but permits flexibility for video prototyping. The tool provides a storyboard-style overview to organize multiple videos in story Lines. VideoClipper offers editable and reusable TitleCards, video capture for steady-state and rough stop-motion filming and the ability to recombine videos in new ways for redesign. I present informal user studies with interaction design students using VideoClipper in three design courses. Results suggest that participants spend less time capturing and editing in VideoClipper than with other video tools. However, many designers find tedious to create stop-motion videos for continuous interactions and to re-shoot clips as the design evolves. Participants continuously try to reduce re-shooting by reusing backgrounds or mixing different levels of fidelity. Inspired by this behavior, I created Montage, a prototyping tool for video prototyping that lets designers progressively augment paper prototypes with digital sketches, facilitating the creation, reuse and exploration of dynamic interactions. Montage uses chroma keying to decouple the prototyped interface from its context of use, letting designers reuse or change them independently. I describe how Montage enhances video prototyping by combining video with digital animated sketches, encourages the exploration of different contexts of use, and supports prototyping of different interaction styles. Second, I investigate how early designs start being implemented into interactive prototypes. Professional designers and developers often struggle when transitioning from the illustration of the design to the actual implementation of the system. In collaboration with Nolwenn Maudet, I conducted three studies that focused on the design and implementation of custom interactions to understand the mismatches between designers' and developers' processes, tools and representations. We find that current practices induce unnecessary rework and cause discrepancies between design and implementation and we identify three recurring types of breakdowns: omitting critical details, ignoring edge cases, and disregarding technical limitations. I propose four design principles to create tools that mitigate these problems: Provide multiple viewpoints, maintain a single source of truth, reveal the invisible and support design by enaction. We apply these principles to create Enact, an interactive live environment for prototyping touch-based interactions. We introduce two studies to assess Enact and to compare designer-developer collaboration with Enact versus current tools. Results suggest that Enact helps participants detect more edge cases, increases designers' participation and provides new opportunities for co-creation. These three prototyping tools rely on the same underlying theoretical principles: reification, polymorphism, reuse, and information substrates. Also, the presented tools outline a new prototyping approach that I call "Takeaway Prototyping". In contrast to throwaway prototypes, instead of emphasizing disposability, tools for "Takeaway Prototyping" support design by enaction and reify design artifacts to materialize the lessons learned.
100

Dedicated Hardware Context-Switch Services for Real-Time Multiprocessor Systems

Allard, Yannick 07 November 2017 (has links) (PDF)
Computers are widely present in our daily life and are used in critical applic-ations like cars, planes, pacemakers. Those real-time systems are nowadaysbased on processors which have an increasing complexity and have specifichardware services designed to reduce task preemption and migration over-heads. However using those services can add unpredictable overheads whenthe system has to switch from one task to another in some cases.This document screens existing solutions used in commonly availableprocessors to ease preemption and migration to highlight their strengths andweaknesses. A new hardware service is proposed to speed up task switchingat the L1 cache level, to reduce context switch overheads and to improvesystem predictability.The solution presented is based on stacking several identical cachememories at the L1 level. Each layer is able to save and restore its completestate independently to/from the main memory. One layer can be used forthe active task running on the processor while another layers can be restoredor saved concurrently. The active task can remain in execution until thepreempting task is ready in another layer after restoration from the mainmemory. The context switch between tasks can then be performed in avery short time by switching to the other layer which is now ready to runthe preempting task. Furthermore, the task will be resumed with the exactL1 cache memory state as saved earlier after the previous preemption. Theprevious task state can be sent back to the main memory for future use.Using this mechanism can lead to minimise the time required for migrationsand preemptions and consequently lower overheads and limit cache missesdue to preemptions and usually considered in the cache migration andpreemption delays. Isolation between tasks is also provided as they areexecuted from a dedicated layer.Both uniprocessor and multiprocessor designs are presented along withimplications on the real-time theory induced by the use of this hardware ser-vice. An implementation of the system is characterized and results show im-provements to the maximum and average execution time of a set of varioustasks: When the same size is used for the baseline cache and HwCS layers,94% of the tasks have a better execution time (up to 67%) and 80% have a bet-ter Worst Case Execution Time (WCET). 80% of the tasks are more predictableand the remaining 20% still have a better execution time. When we split thebaseline cache size among layers of the HwCS, measurements show that 75%of the tasks have a better execution time (up to 67%) leading to 50% of thetasks having a better WCET. Only 6% of the tasks suffer from worse executiontime and worse predictability while 75% of the tasks remain more predictablewhen using the HwCS compared to the baseline cache. / Les ordinateurs ont envahi notre quotidien et sont de plus en plus souventutilisés pour remplir des missions critiques. Ces systèmes temps réel sontbasés sur des processeurs dont la complexité augmente sans cesse. Des ser-vices matériels spécifiques permettent de réduire les coûts de préemption etmigration. Malheureusement, ces services ajoutent des temps morts lorsquele système doit passer d’une tâche à une autre.Ce document expose les solutions actuelles utilisées dans les processeurscourants pour mettre en lumière leurs qualités et défauts. Un nouveau ser-vice matériel (HwCS) est proposé afin d’accélérer le changement de tâches aupremier niveau de mémoire (L1) et de réduire ainsi les temps morts dus auxchangements de contextes tout en améliorant la prédictibilité du système.Bien que cette thèse se concentre sur le cache L1, le concept développépeut également s’appliquer aux autres niveaux de mémoire ainsi qu’àtout bloc dépendant du contexte. La solution présentée se base sur unempilement de caches identiques au premier niveau. Chaque couche del’empilement est capable de sauvegarder ou recharger son état vers/depuisla mémoire principale du système en toute autonomie. Une couche peutêtre utilisée par la tâche active pendant qu’une autre peut sauvegarder ourestaurer l’état d’une autre tâche. La tâche active peut ainsi poursuivre sonexécution en attendant que la tâche suivante soit rechargée. Le changementde contexte entre la tâche active et la tâche suivante peut alors avoir lieu enun temps très court. De plus, la tâche reprendra son exécution sur un cacheL1 dont l’état sera identique à celui au moment où elle a été interrompueprécédemment. L’état du cache de la tâche désormais inactive peut êtresauvegardé dans la mémoire principale en vue d’une utilisation ultérieure.Ce mécanisme permet de réduire au strict minimum le temps de calculperdu à cause des préemptions et migrations, les temps de sauvegarde et derechargement de la L1 n’ayant plus d’influence sur l’exécution des tâches. Deplus, chaque niveau étant dédié à une tâche, les interférences entre tâchessont réduites.Les propriétés ainsi que les implications sur les aspects temps réelsthéoriques sont présentées pour des systèmes mono et multiprocesseurs.Une implémentation d’un système uniprocesseur incluant ce servicematériel et sa caractérisation par rapport à l’exécution d’un set de tâchessont également présentées ainsi que les bénéfices apportés par le HwCS:Lorsque les couches du HwCS ont la même taille que le cache de base, 94%des tâches ont un meilleur temps d’exécution (jusqu’à 67%) et 80% ont unmeilleur pire temps d’exécution (WCET). 80% des tâches deviennent plusprédictibles et les 20% restants bénéficient néanmoins d’un meilleur WCET.Toutefois, si la taille du cache est partagée entre les couches du HwCS, lesmesures montrent que 75% des tâches ont un meilleur temps d’exécution,impliquant un meilleur WCET pour la moitié des tâches du système. Seule-ment 6% des tâches voient leur WCET augmenter et leur prédictibilitédiminuer tandis que 75% des tâches améliorent leur prédictibilité grâce auHwCS. / Doctorat en Sciences de l'ingénieur et technologie / info:eu-repo/semantics/nonPublished

Page generated in 0.0778 seconds