• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 317
  • 91
  • 22
  • 2
  • Tagged with
  • 439
  • 198
  • 105
  • 73
  • 65
  • 54
  • 52
  • 48
  • 44
  • 41
  • 38
  • 38
  • 37
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Fédération de données semi-structurées avec XML

Dang-Ngoc, Tuyet-Tram 18 June 2003 (has links) (PDF)
Contrairement aux données traditionnelles, les données semi-structurées sont irrégulières : des données peuvent manquer, des concepts similaires peuvent être représentés par différents types de données, et les structures même peuvent être mal connues. Cette absence de schéma prédéfini, permettant de tenir compte de toutes les données du monde extérieur, présente l'inconvénient de complexifier les algorithmes d'intégration des données de différentes sources. Nous proposons une architecture de médiation basée entièrement sur XML. L'objectif de cette architecture de médiation est de fédérer des sources de données distribuées de différents types. Elle s'appuie sur le langage XQuery, un langage fonctionnel conçu pour formuler des requêtes sur des documents XML. Le médiateur analyse les requêtes exprimées en XQuery et répartit l'exécution de la requête sur les différentes sources avant de recomposer les résultats. L'évaluation des requêtes doit se faire en exploitant au maximum les spécificités des données et permettre une optimisation efficace. Nous décrivons l'algèbre XAlgebre à base d'opérateurs conçus pour XML. Cette algèbre a pour but de construire des plans d'exécution pour l'évaluation de requêtes XQuery et traiter des tuples d'arbres XML. Ces plans d'exécution doivent pouvoir être modélisés par un modèle de coût et celui de coût minimum sera sélectionné pour l'exécution. Dans cette thèse, nous définissons un modèle de coût pour les données semi-structurées adapté à notre algèbre. Les sources de données (SGBD, serveurs Web, moteur de recherche) peuvent être très hétérogènes, elles peuvent avoir des capacités de traitement de données très différentes, mais aussi avoir des modèles de coût plus ou moins définis. Pour intégrer ces différentes informations dans l'architecture de médiation, nous devons déterminer comment communiquer ces informations entre le médiateur et les sources, et comment les intégrer. Pour cela, nous utilisons des langages basés sur XML comme XML-Schema et MathML pour exporter les informations de métadonnées, de formules de coûts et de capacité de sources. Ces informations exportées sont communiquées par l'intermédiaire d'une interface applicative nommée XML/DBC. Enfin, des optimisations diverses spécifiques à l'architecture de médiation doivent être considérées. Nous introduisons pour cela un cache sémantique basé sur un prototype de SGBD stockant efficacement des données XML en natif.
232

Analyses épidémiologiques et socioéconomiques de la situation des psychothérapies en France, en vue de propositions sur les politiques de remboursement des psychothérapies

Dezetter, Anne 19 January 2012 (has links) (PDF)
Les psychothérapies structurées sont des traitements des troubles de santé mentale recommandées par les guides de bonne pratique internationaux et dont l'efficacité et leur impact positif sur les coûts pour les régimes de santé ont été largement démontrés. Toutefois, actuellement en France, les psychothérapies effectuées par les professionnels de santé mentale non médecins exerçant en libéral, ne sont pas remboursées. L'évaluation financière de la prise en charge des psychothérapies a été effectuée à partir de la méthodologie du programme anglais Improving Access for Psychological Therapies 2005. Le coût de la séance a été estimé à 41€, le taux de remboursement par le régime obligatoire à 70% et 60% pour soigner les personnes de 18 à 75 ans souffrant de troubles de santé mentale courants chroniques et/ou sévères. Le coût de la prise en charge psychothérapeutique annuelle s'élèverait à 514 millions d'euros (entre 308 et 347 M€ pour le régime obligatoire), pour traiter 1,033 million de français, soit 2,3% de la population. Pour 1€ investi dans le traitement psychothérapeutique, le ratio coût-bénéfice s'élèverait, selon la symptomatologie, entre 1,14€ et 1,95€ épargnés par ce traitement. La France dispose des 14.300 professionnels nécessaires et habilités à effectuer des psychothérapies, pour traiter cette population.
233

Optimisation évolutionnaire multi-objectif parallèle : application à la combustion Diesel

Yagoubi, Mouadh 03 July 2012 (has links) (PDF)
Avec la sévérisation des réglementations environnementales sur les émissions polluantes (normes Euro) des moteurs d'automobiles, la nécessité de maitriser les phénomènes de combustion a motivé le développement de la simulation numérique comme outil d'aide à la conception. Tenant compte de la complexité des phénomènes à modéliser, et de l'antagonisme des objectifs à optimiser, l'optimisation évolutionnaire multi-objectif semble être la mieux adaptée pour résoudre ce type de problèmes. Cependant, l'inconvénient principal de cette approche reste le coût très élevé en termes de nombre d'évaluations qui peut devenir très contraignant dans le contexte des optimisations réelles caractérisées par des évaluations très coûteuseL'objectif principal de ce travail de thèse est de réduire le coût global des optimisations du monde réel, en explorant la parallélisation des algorithmes évolutionnaires multi-objectifs, et en utilisant les techniques de réduction du nombre d'évaluations (méta-modèles).Motivés par le phénomène d'hétérogénéité des coûts des évaluations, nous nous proposons d'étudier les schémas d'évolution stationnaires asynchrones dans une configuration parallèle de type " maître-esclave ". Ces schémas permettent une utilisation plus efficace des processeurs sur la grille de calcul, et par conséquent de réduire le coût global de l'optimisation.Ce problème a été attaqué dans un premier temps d'un point de vue algorithmique, à travers une adaptation artificielle des algorithmes évolutionnaires multi-objectifs au contexte des optimisations réelles caractérisées par un coût d'évaluation hétérogène. Dans un deuxième temps, les approches développées et validées dans la première partie sur des problèmes analytiques, ont été appliquées sur la problématique de la combustion Diesel qui représente le contexte industriel de cette thèse. Dans ce cadre, deux types de modélisations ont été utilisés: la modélisation phénoménologique 0D et la modélisation multidimensionnelle 3D. La modélisation 0D a permis par son temps de retour raisonnable (quelques heures par évaluation) de comparer l'approche stationnaire asynchrone avec celle de l'état de l'art en réalisant deux optimisations distinctes. Un gain de l'ordre de 42 % a été réalisé avec l'approche stationnaire asynchrone. Compte tenu du temps de retour très coûteux de la modélisation complète 3D (quelques jours par évaluation), l'approche asynchrone stationnaire déjà validée a été directement appliquée. L'analyse physique des résultats a permis de dégager un concept intéressant de bol de combustion permettant de réaliser un gain en termes d'émissions polluantes.
234

Sélection de modèle : une approche décisionnelle

Boisbunon, Aurélie 14 January 2013 (has links) (PDF)
Cette thèse s'articule autour de la problématique de la sélection de modèle, étudiée dans le contexte de la régression linéaire. L'objectif est de déterminer le meilleur modèle de prédiction à partir de données mesurées, c'est-à-dire le modèle réalisant le meilleur compromis entre attache aux données et complexité du modèle. La contribution principale consiste en la dérivation de critères d'évaluation de modèles basés sur des techniques de théorie de la décision, plus précisément l'estimation de coût. Ces critères reposent sur une hypothèse distributionnelle plus large que l'hypothèse classique gaussienne avec indépendance entre les observations : la famille des lois à symétrie sphérique. Cette famille nous permet à la fois de nous affranchir de l'hypothèse d'indépendance et d'ajouter une plus grande robustesse puisque nos critères ne dépendent pas de la forme spécifique de la distribution. Nous proposons également une méthode de comparaison des critères dérivés au travers d'une mesure de type Erreur quadratique (MSE), qui permet de déterminer si un critère d'évaluation de modèle est meilleur qu'un autre. La seconde contribution attaque le problème de la construction des différents modèles comparés. Les collections de modèles considérées sont celles issues des méthodes de régularisation parcimonieuses, de type Lasso. En particulier, nous nous sommes intéressés à la Pénalité Concave Minimax (MCP), qui garde la sélection du Lasso tout en corrigeant son biais d'estimation. Cette pénalité correspond cependant à un problème non différentiable et non convexe. La généralisation des outils habituels de sous-différentielles grâce aux différentielles de Clarke a permis de déterminer les conditions d'optimalité et de développer un algorithme de chemin de régularisation pour le MCP. Enfin, nous comparons nos propositions avec celles de la littérature au travers d'une étude numérique, dans laquelle nous vérifions la qualité de la sélection. Les résultats montrent notamment que nos critères obtiennent des performances comparables à ceux de la littérature, et que les critères les plus couramment utilisés en pratique (validation croisée) ne sont pas toujours parmi les plus performants.
235

Almost sure optimal stopping times : theory and applications.

Landon, Nicolas 04 February 2013 (has links) (PDF)
Résumé : Cette thèse comporte 8 chapitres. Le chapitre 1 est une introduction aux problématiques rencontrées sur les marchés énergétiques : fréquence d'intervention faible, coûts de transaction élevés, évaluation des options spread. Le chapitre 2 étudie la convergence de l'erreur de couverture d'une option call dans le modèle de Bachelier, pour des coûts de transaction proportionnels (modèle de Leland-Lott) et lorsque la fréquence d'intervention devient infinie. Il est prouvé que cette erreur est bornée par une variable aléatoire proportionnelle au taux de transaction. Cependant, les démonstrations de convergence en probabilité demandent des régularités sur les sensibilités assez restrictives en pratique. Les chapitres suivants contournent ces obstacles en étudiant des convergences presque sûres. Le chapitre 3 développe tout d'abord de nouveaux outils de convergence presque sûre. Ces résultats ont de nombreuses conséquences sur le contrôle presque sûr de martingales et de leur variation quadratique, ainsi que de leurs incréments entre deux temps d'arrêt généraux. Ces résultats de convergence trajectorielle sont connus pour être difficiles à obtenir sans information sur les lois. Par la suite, nous appliquons ces résultats à la minimisation presque sûre de la variation quadratique renormalisée de l'erreur de couverture d'une option de payoff général (cadre multidimensionnel, payoff asiatique, lookback) sur une large classe de temps d'intervention. Une borne inférieure à notre critère est trouvée et une suite minimisante de temps d'arrêt optimale est exhibée : il s'agit de temps d'atteinte d'ellipsoïde aléatoire, dépendant du gamma de l'option. Le chapitre 4 étudie la convergence de l'erreur de couverture d'une option de payoff convexe (dimension 1) en prenant en compte des coûts de transaction à la Leland-Lott. Nous décomposons l'erreur de couverture en une partie martingale et une partie négligeable, puis nous minimisons la variation quadratique de cette martingale sur une classe de temps d'atteintes générales pour des Deltas vérifiant une certaine EDP non-linéaire sur les dérivées secondes. Nous exhibons aussi une suite de temps d'arrêt atteignant cette borne. Des tests numériques illustrent notre approche par rapport à une série de stratégies connues de la littérature. Le chapitre 5 étend le chapitre 3 en considérant une fonctionnelle des variations discrètes d'ordre Y et de Z de deux processus d'Itô Y et Z à valeurs réelles, la minimisation étant sur une large classe de temps d'arrêt servant au calcul des variations discrètes. Borne inférieure et suite minimisant sont obtenues. Une étude numérique sur les coûts de transaction est faite. Le chapitre 6 étudie la discrétisation d'Euler d'un processus multidimensionnel X dirigé par une semi-martingale d'Itô Y . Nous minimisons sur les temps de la grille de discrétisation un critère quadratique sur l'erreur du schéma. Nous trouvons une borne inférieure et une grille optimale, ne dépendant que des données observables. Le chapitre 7 donne un théorème limite centrale pour des discrétisations d'intégrale stochastique sur des grilles de temps d'atteinte d'ellipsoïdes adaptées quelconque. La corrélation limite est conséquence d'asymptotiques fins sur les problèmes de Dirichlet. Dans le chapitre 8, nous nous intéressons aux formules d'expansion pour les options sur spread, pour des modèles à volatilité locale. La clé de l'approche consiste à conserver la propriété de martingale de la moyenne arithmétique et à exploiter la structure du payoff call. Les tests numériques montrent la pertinence de l'approche.
236

Contribution aux systèmes tolérants aux défauts : Synthèse<br />d'une méthode de reconfiguration et/ou de restructuration<br />intégrant la fiabilité des composants

Guenab, Fateh 20 February 2007 (has links) (PDF)
Le travail présenté dans ce mémoire de thèse porte sur les systèmes tolérants aux défauts, plus<br />précisément la synthèse d'une méthode de reconfiguration et/ou de restructuration intégrant<br />la fiabilité des composants. La tâche de reconfiguration permet d'amener le système dans un<br />état de fonctionnement permettant d'assurer des performances désirées tout en préservant la<br />stabilité. Sous l'hypothèse qu'il existe plusieurs structures de fonctionnement résultant de la<br />déconnexion des sous systèmes défaillants, chaque structure impose des nouvelles conditions<br />de fonctionnement et par conséquent une nouvelle valeur de la fiabilité et du coût. Parmi<br />ces structures, une structure optimale doit être choisie. Dans un contexte multicritères, ce<br />travail propose de déterminer la structure optimale en intégrant les performances du système,<br />la fiabilité et le coût.<br />– La première méthode proposée traite uniquement les performances statiques conduisant à<br />considérer la fiabilité et le coût des composants. La détermination de la structure optimale<br />se fonde sur une estimation en ligne de la fiabilité et des coûts des composants.<br />– Une seconde méthode utilisant les performances des régulateurs est ensuite développée. La<br />méthode pseudo inverse PIM est utilisée pour synthétiser les régulateurs. Des modifications<br />de la méthode PIM sont proposées afin d'assurer la stabilité du système et d'atteindre des<br />objectifs dynamiques définis. Un indice de performances dynamiques est intégré dans le critère<br />de choix de la structure optimale.<br />– Les deux méthodes développées sont intégrées afin de définir une stratégie tolérante aux défauts.<br />Elle est appliquée sur un système hydraulique et thermique à 3 cuves.
237

Conception d'un système d'aide à l'ordonnancement tenant<br />compte des impératifs économiques

Ihsen, Saad 12 July 2007 (has links) (PDF)
Nos travaux concernent la mise en œuvre de méthodologies pour la résolution et l'optimisation de la production en tenant compte des impératifs économiques, jouant aujourd'hui un rôle déterminant dans la conduite de la production industrielle. Pour le problème du job-shop flexible dans lequel les interactions entre les critères sont supposées disponibles, cinq critères ont été retenus : le Makespan, la charge critique, la charge totale, la pénalité de retards/avance et le coût de la production. Dans ce sens, nous avons, d'abord, traité le problème de décision et d'évaluation d'une solution et introduit ensuite trois approches intégrées, basées sur les algorithmes génétiques, améliorant les approches évolutionnistes existant dans la littérature : la méthode statique basée sur l'intégrale de Choquet, la méthode approchée basée sur le concept Paréto-optimalité ainsi que la méthode basée sur le concept de ε-dominance Paréto-optimalité. Les approches adoptées consistent à générer une variété de solutions optimales diversifiées dans l'espace de recherche de solutions, et d'aider le décideur, quand il ne peut pas donner une préférence particulière à l'une des fonctions objectif. Les résultats proposés, obtenus globalement pour l'ensemble des critères, ont été comparés, avec succès, avec ceux obtenus par d'autres approches existantes sur plusieurs benchmarks de complexités distinctes.
238

Modélisation et optimisation de problèmes de synchronisation dans les documents hypermédia

Bachelet, Bruno 24 February 2003 (has links) (PDF)
Les formats actuels de diffusion de documents sur Internet apportent sans conteste de nouvelles possibilités par rapport aux supports traditionnels. Mais les exigences deviennent toujours plus grandes et de nouveaux langages font régulièrement leur apparition pour tenter d'améliorer encore la structure et l'interactivité des documents. Parmi ces langages, certains offrent la possibilité d'animer et synchroniser des composants multimédia. Mais la variété de ces composants (audio, vidéo, texte, image...) font de l'animation un problème compliqué. L'auteur d'un document synchronisé fournit une liste de contraintes temporelles sur les composants de manière à décrire le déroulement de la présentation. Ces composants ont chacun une durée de présentation qui est flexible dans une certaine limite. Tout le problème consiste à trouver un bon ajustement des durées pour que la présentation se déroule au plus proche de ce que souhaite l'auteur tout en évitant les pauses. <br /><br />Le problème peut se modéliser, après quelques restrictions, comme un problème de tension de coût minimal dans un graphe. Pour le résoudre avec des coûts convexes linéaires par morceaux, nous avons étudié différentes approches (programmation linéaire, mise à conformité - out-of-kilter, mise à l'échelle du dual - cost-scaling). Nous proposons également une adaptation de la mise à conformité pour des coûts convexes dérivables. Toutes ces méthodes sont comparées sur des aspects théoriques et pratiques, en considérant des graphes quelconques. <br /><br />Les graphes représentant les contraintes temporelles sont en réalité très structurés et très proches de la classe des graphes appelés série-parallèles, et les méthodes élaborées pour une structure de graphe quelconque ne s'avèrent pas toujours très efficaces. Nous proposons une méthode polynômiale, en opérations, plus adaptée pour résoudre le problème sur des graphes série-parallèles, et que nous appelons agrégation. Mais ces graphes, bien que très proches de la réalité, restent encore une idéalisation. Nous proposons de mesurer l'aspect série-parallèle d'un graphe en définissant la notion de graphe presque série-parallèle, basée sur la décomposition du graphe en composantes série-parallèles. En exploitant l'efficacité de la méthode d'agrégation sur cette décomposition, nous proposons une méthode dite de reconstruction permettant de résoudre le problème pour des graphes presque série-parallèles plus efficacement que les méthodes étudiées précédemment. <br /><br />Lors de cette étude, nous avons développé une bibliothèque de composants réutilisables pour les problèmes de graphes. Nous expliquons en quoi ce type de développement ne peut pas toujours suivre les règles classiques du génie logiciel. Nous montrons comment le paradigme objet peut néanmoins être employé pour la création d'outils efficaces de recherche opérationnelle. Et nous proposons des patrons de conception pour élaborer des composants logiciels (algorithmes et structures de données) génériques, c'est-à-dire indépendants des structures de données qu'ils manipulent et des algorithmes qu'ils emploient, tout en étant fortement extensibles, et cela avec une perte d'efficacité minimale.
239

Effets des équipements de fantassin modernes sur la locomotion et la fatigue neuromusculaire du soldat déployé : simulation opérationnelle

Grenier, Jordane 15 November 2012 (has links) (PDF)
La problématique du port de charges par l'Homme est l'objet de questionnements scientifiques depuis plus d'un siècle, notamment dans les armées où les soldats doivent remplir des objectifs opérationnels tout en emportant des équipements lourds, distribués de façon complexe autour de leur corps, et cela au cours d'efforts allant de quelques heures à plusieurs jours. Aussi, avec le développement des nouvelles technologies et l'arrivée des systèmes fantassins futurs sur le marché de la défense, cette problématique continue de se complexifier puisque la masse totale emportée tend encore à croître. Objectif général : Le but de ce travail de thèse était d'étudier l'impact biomécanique, métabolique et neuromusculaire du port d'un système fantassin moderne chez le soldat expérimenté. Plus précisément, une première recherche a été menée pour caractériser les effets aigus du port d'un tel équipement sur la biomécanique et le coût métabolique de la marche. Puis, une seconde recherche a été consacrée à l'étude des conséquences neuromusculaires et locomotrices d'une mission militaire (simulation sur le terrain) de durée " extrême " réalisée avec ce système fantassin moderne. Première partie : L'analyse de la marche sur tapis roulant dynamométrique a permis de montrer que le port du système fantassin en configurations de " combat " et de " marche d'approche " (principales configurations du théâtre militaire, représentant respectivement ~30 % et ~50 % de la masse corporelle des sujets) altérait le pattern spatio-temporel par rapport à la marche sans charge. Par ailleurs, le travail mécanique appliqué au centre de masse et le coût métabolique de la marche augmentaient parallèlement lors du port des deux configurations du système fantassin, ce qui résultait en un maintien du rendement locomoteur constant dans toutes les conditions testées. Le mécanisme de transfert d'énergie en pendule inversé (méthode Cavagna), permettant de minimiser les coûts mécanique et métabolique de transport, était également similaire dans toutes les conditions avec et sans charge. Enfin, bien que complexement organisés autour du corps du soldat, les équipements militaires n'induisaient pas d'effets mécaniques et métaboliques sensiblement plus importants que ceux rapportés lors du port de masses positionnées symétriquement autour de la taille ; ce mode de portage étant pourtant considéré comme l'un des plus optimisés, abstraction faite des techniques de portage sur la tête inadaptées au contexte militaire. Deuxième partie : La réalisation d'une mission simulée, incluant 21 h d'activités militaires sur le terrain et le port constant d'un système fantassin, résultait en une fatigue neuromusculaire (mesure des forces, électrostimulation et EMG) relativement modérée des muscles locomoteurs extenseurs du genou et fléchisseurs plantaires chez les soldats expérimentés inclus dans ce travail. Les origines de cette fatigue neuromusculaire étaient essentiellement périphériques, mais s'accompagnaient d'une fatigue subjective importante. Enfin, la réalisation de la mission, et donc la fatigue des muscles locomoteurs notamment associée à cette dernière, n'affectait pas sensiblement les paramètres mécaniques et métaboliques de la marche. Conclusion générale : Ce travail rapporte les premières données relatives aux effets biomécaniques, métaboliques et neuromusculaires du port d'un système fantassin moderne chez le soldat expérimenté, et ce par le biais d'une simulation opérationnelle visant à reproduire les conditions militaires
240

Ordonnancement temps réel préemptif multiprocesseur avec prise en compte du coût du système d'exploitation

Ndoye, Falou 03 April 2014 (has links) (PDF)
Dans cette thèse nous étudions le problème d'ordonnancement temps réel multiprocesseur préemptif avec prise en compte du coût exact du système d'exploitation. Ce coût est formé de deux parties : une partie facile à déterminer, correspondant au coût de l'ordonnanceur et une partie difficile à déterminer, correspondant au coût de la préemption. Cette difficulté est due au fait qu'une préemption peut en engendrer une autre, pouvant ainsi créer un phénomène d'avalanche. Dans un premier temps, nous avons étudié l'ordonnancement hors ligne multiprocesseur de tâches indépendantes avec prise en compte du coût exact de la préemption et proposé une analyse d'ordonnançabilité fondée sur une heuristique d'ordonnancement multiprocesseur. Cette heuristique utilise la stratégie d'ordonnancement multiprocesseur par partitionnement. Pour prendre en compte le coût exact de la préemption sur chaque processeur nous avons utilisé la condition d'ordonnançabilité proposée par Meumeu et Sorel. Cette condition d'ordonnançabilité pour des tâches à priorités fixes, est basée sur une opération binaire d'ordonnancement qui permet de compter le nombre exact de préemption et d'ajouter leur coût dans l'analyse d'ordonnançabilité des tâches. L'heuristique proposée permet de maximiser le facteur d'utilisation restant afin de répartir équitablement les tâches sur les processeurs et de réduire leur temps de réponse. Elle produit une table d'ordonnancement hors ligne. Dans un second temps, nous avons étudié l'ordonnancement hors ligne multiprocesseur de tâches dépendantes avec prise en compte du coût exact de la préemption. Puisque la condition d'ordonnançabilité utilisée pour ordonnancer les tâches indépendantes ne s'applique qu'à des tâches à priorités fixes, elle ne permet pas de gérer les inversions de priorités que peuvent entraîner les tâches dépendantes. Nous avons donc proposé une nouvelle condition d'ordonnançabilité pour des tâches à priorités dynamiques. Elle prend en compte le coût exact de la préemption et les dépendances sans aucune perte de données. Ensuite en utilisant toujours la stratégie d'ordonnancement par partitionnement, nous avons proposé pour des tâches dépendantes une heuristique d'ordonnancement multiprocesseur qui réutilise cette nouvelle condition d'ordonnançabilité au niveau de chaque processeur. Cette heuristique d'ordonnancement prend en compte les coûts de communication inter-processeurs. Elle permet aussi de minimiser sur chaque processeur le makespan (temps total d'exécution) des tâches. Cette heuristique produit pour chaque processeur une table d'ordonnancement hors ligne contenant les dates de début et de fin de chaque tâches et de chaque commmunication inter-processeur. En supposant que nous avons une architecture multiprocesseur de type dirigée par le temps (Time-Triggered) pour laquelle tous les processeurs ont une référence de temps unique, nous avons proposé pour chacun des processeurs un ordonnanceur en ligne qui utilise la table d'ordonnancement produite lors de l'ordonnancement hors ligne. Cet ordonnanceur en ligne a l'avantage d'avoir un coût constant qui de plus est facile à déterminer de manière exacte. En effet il correspond uniquement au temps de lecture dans la table d'ordonnancement pour obtenir la tâche sélectionnée lors de l'analyse d'ordonnançabilité hors ligne, alors que dans les ordonnanceurs classiques en ligne ce coût correspond à mettre à jour la liste des tâches qui sont dans l'état prêt à l'exécution puis à sélectionner une tâche selon un algorithme, par exemple RM, DM, EDF, etc. Il varie donc avec le nombre de tâches prêtes à s'exécuter qui change d'une invocation à l'autre de l'ordonnanceur. C'est ce coût qui est utilisé dans les analyses d'ordonnançabilités évoquées ci-dessus. Un autre avantage est qu'il n'est pas nécessaire de synchroniser l'accès aux mémoires de données partagées par plusieurs tâches, car cette synchronisation a été déjà effectuée lors de l'analyse d'ordonnançabilité hors ligne.

Page generated in 0.0232 seconds