• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 51
  • 14
  • 2
  • Tagged with
  • 69
  • 59
  • 36
  • 35
  • 20
  • 17
  • 17
  • 17
  • 16
  • 13
  • 12
  • 10
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Configuration et déploiement d'applications temps-réel réparties embarquées à l'aide d'un langage de description d'architecture

Zalila, Bechir 07 November 2008 (has links) (PDF)
La production de systèmes temps-réel répartis embarqués (TR2E) est une opération lourde en temps et en coût de développement. De plus, les applications temps-réel doivent satisfaire des contraintes dures pour assurer leur bon fonctionnement (respect des échéances temporelles...). L'utilisation des langages de description d'architecture vise à réduire le coût de développement de ces applications. AADL (Architecture Analysis & Design Language) fait partie de cette famille de langages. Il propose la notion de ``composant'' (matériel ou logiciel) dont la sémantique bien définie permet de décrire plusieurs aspects d'un système TR2E. Les différentes contraintes qui doivent être satisfaites sont intégrées dans le modèle AADL sous forme de propriétés. Ce travail de thèse exploite les fonctionnalités offertes par AADL pour spécifier les besoins exacts d'une application AADL afin de la produire automatiquement. En effet, le processus de production que nous proposons (1) génère automatiquement le code pour intégrer les composants applicatifs à la plate-forme d'exécution, (2) génère automatiquement une importante partie des composants intergiciels taillés sur mesure pour l'application et (3) déploie automatiquement les composants applicatifs et intergiciels afin d'obtenir un système fortement dédié à l'application. Notamment, la plate-forme d'exécution supportant les composants AADL est elle même configurée statiquement en fonction des propriétés spécifiées. L'approche adoptée réduit le temps de développement et permet d'obtenir un code personnalisé et analysable. La configuration et le déploiement (souvent séparés du processus de développement) sont désormais automatiques et intégrés à la chaîne de production.
22

Réseaux pair-à-pair et simulation distribuée<br />Application à la simulation multiagent

Cabani, Adnane 07 December 2007 (has links) (PDF)
Mes travaux de recherche s'intéressent à la simulation distribuée et aux possibilités offertes par le paradigme pair-à-pair. Le modèle pair-à-pair est généralement asymétrique. Il est constitué de réseaux de machines totalement hétérogènes avec des configurations matérielles et des débits de connexion très variables. Les nœuds constituant un tel réseau sont hautement dynamiques et organisés de manière totalement décentralisée.<br /><br />Une étude comparative entre les deux paradigmes grille de calcul et pair-à-pair est présentée. Elle révèle que la taxonomie des systèmes de l'informatique répartie est simpliste et sommaire. Nous en présentons une autre plus raffinée. Elle prend en compte de nouveaux paramètres pouvant aider l'utilisateur à faire un choix entre les grilles de calculs et le modèle pair-à-pair.<br /><br />Ces nouveaux paramètres sont pris en compte dans le développement de la plate-forme PHAC (P2P-based Highly Available Computing Framework) présentée dans ce mémoire. Il s'agit d'un environnement de programmation de haut niveau qui permet de construire un réseau pair-à-pair hautement disponible et adapté aux besoins de l'utilisateur. La plate-forme tient compte des spécificités des réseaux pair-à-pair telles que la volatilité et l'hétérogénéité des pairs. La robustesse du réseau est étudiée selon une voie expérimentale. Les résultats montrent que le réseau est suffisamment robuste pour distribuer des simulations de manière transparente.
23

Contribution à la conception d'une plate-forme haute performance d'intégration d'exécutifs communicants pour la programmation des grilles de calcul

Denis, Alexandre 12 December 2003 (has links) (PDF)
Cette thèse étudie un modèle de plate-forme de communication pour la programmation des grilles de calcul. Notre but est d'étendre la portée des grilles en permettant l'exécution d'applications parallèles et/ou réparties sans imposer de contrainte de programmation ou d'exécutif particulier. Le modèle proposé permet l'utilisation d'exécutifs variés, adaptés à l'application plutôt que ceux dictés par les réseaux disponibles. Notre approche est basée sur : un arbitrage des accès aux ressources, pour permettre plusieurs exécutifs simultanément ; une adaptation d'abstraction qui permet de voir les ressources selon le paradigme choisi par l'utilisateur ; une virtualisation des ressources, qui permet l'utilisation d'exécutifs existants sans les modifier. Nous avons mis en oeuvre ce modèle dans la plate-forme PadicoTM, et porté divers exécutifs sur cette plate-forme, tels que MPI, CORBA, et SOAP. Les réseaux utilisables vont des SAN jusqu'aux WAN. Les performances obtenues sont excellentes.
24

Spécification formelle de systèmes temps réel répartis par une approche flots de données à contraintes temporelles

Le Berre, Tanguy 23 March 2010 (has links) (PDF)
Une définition des systèmes temps réel est que leur correction dépend de la correction fonctionnelle mais aussi du temps d'exécution des différentes opérations. Les propriétés temps réels sont alors exprimées comme des contraintes temporelles sur les opérations du système. Nous proposons dans cette thèse un autre point de vue où la correction est définie relativement à la validité temporelle des valeurs prises par les variables du système et aux flots de données qui parcourent le système. Pour définir ces conditions de validité, nous nous intéressons au rythme de mise à jour des variables mais aussi aux liens entre les valeurs des différentes variables du système. Une relation dite d'observation est utilisée pour modéliser les communications et les calculs du système qui définissent les liens entre les variables. Un ensemble de relations d'observation modélise l'architecture et les flots de données du système en décrivant les chemins de propagation des valeurs dans le système. Les propriétés temps réels sont alors exprimées comme des contraintes sur ces chemins de propagation permettant d'assurer la validité temporelle des valeurs prises par les variables. La validité temporelle d'une valeur est définie selon la validité temporelle des valeurs des autres variables dont elle dépend et selon le décalage temporel logique ou événementiel introduit par les communications ou les calculs le long des chemins de propagation. Afin de prouver la satisfiabilité d'une spécification définie par une telle architecture et de telles propriétés, nous construisons un système de transitions à état fini bisimilaire à la spécification. L'existence de ce système fini est justifiée par des bornes sur le décalage temporel entre les variables du système. Il est alors possible d'explorer les exécutions définies par ce système de transitions afin de prouver l'existence d'exécutions infinies satisfaisant la spécification.
25

Conception d'un système d'exploitation supportant nativement les architectures multiprocesseurs hétérogènes à mémoire partagée

Bécoulet, Alexandre 28 September 2010 (has links) (PDF)
Cette thèse présente le système d'exploitation MutekH, capable de s'exécuter nativement sur une plateforme matérielle multiprocesseur, où les processeurs peuvent être de complexité différente et disposer de spécificités ou de jeux d'instructions différents. Les travaux présentés ici s'insèrent dans un contexte où les systèmes multi-core et les processeurs spécialisés permettent tous deux de réduire la consommation énergétique et d'optimiser les performances dans les systèmes embarqués et dans les systèmes sur puce. Les autres solutions logicielles existantes permettant l'exécution d'applications sur des plateformes multiprocesseurs hétérogènes ne permettent pas, à ce jour, la communication par mémoire partagée, telle qu'on l'envisage habituellement pour les systèmes multiprocesseurs homogènes. Cette solution est la seule qui permet la réutilisation du code source d'applications parallèles existantes pour leur exécution directe par des processeurs différents. La solution proposée est mise en oeuvre en deux phases: grâce au développement d'un noyau dont l'abstraction rend transparente l'hétérogénéité des processeurs, puis à la réalisation d'un outil spécifique d'édition des liens, capable d'harmoniser le code et les données des fichiers exécutables chargés en mémoire partagée. Les résultats obtenus montrent que MutekH permet l'exécution d'applications préexistantes utilisant des services standards, tels que les Threads POSIX, sur des plateformes multiprocesseurs hétérogènes sans dégradation des performances par rapport aux autres systèmes d'exploitation opérant sur des plateformes multiprocesseurs classiques.
26

CONCEPTION ET REALISATION D'UN OBSERVATEUR DE PROTOCOLES POUR LA SURVEILLANCE EN LIGNE DES SYSTEMES DISTRIBUES

Noubel, Jocelyne 05 November 1981 (has links) (PDF)
APPROCHE PERMETTANT LA DETECTION EN LIGNE, DANS LES SYSTEMES DISTRIBUES, DES ERREURS DUES A DES FAUTES MATERIELLES, LOGICIELLES OU HUMAINES ET AFFECTANT LE FONCTIONNEMENT NORMAL DU SYSTEME. ELLE REPOSE SUR L'UTILISATION DE DEUX LOGICIELS DISTINCTS CONSTITUANT UN COUPLE EXECUTANT-OBSERVATEUR. L'EXECUTANT REALISE DE MANIERE CLASSIQUE LES TACHES FONCTIONNELLES DU SYSTEME, L'OBSERVATEUR IMPLEMENTE UN SIMULATEUR DE RESEAUX DE PETRI
27

Cohérence de données répliquées partagées par un groupe de processus coopérant à distance

Brun-Cottan, Georges 30 September 1998 (has links) (PDF)
La progression des applications coopératives est confrontée, de façon inhérente, à la latence des moyens de communication. Lorsque celle-ci devient importante, les modèles de cohérence traditionnels entraînent un manque de réactivité rédhibitoire. Nous attaquons ce problème, en réduisant une application coopérative à une collection de réplicats coopérants, puis en se focalisant sur la gestion de cohérence d'un tel groupe de réplicats.<br /><br />Ce problème est important par deux aspects : par son application dans tous les domaines impliquant la coopération d'individus et par son caractère fondamental dans la structuration et la compréhension des mécanismes de coopération.<br /><br />Notre étude critique, des critères de cohérence associés aux cohérences dites «faibles», embrasse quatre domaines : les systèmes transactionnels, les mémoires partagées réparties, les objets concurrents et les plate-formes de communication. Notre thèse contribue sur trois points :<br /><br />Notre modèle d'exécution est libre de tout a priori concernant la causalité des opérations. Ce modèle est basé sur des histoires répliquées.<br />Notre modèle de partage, la réplication coopérante, dérivée de la réplication active, n'impose pas un ordre commun unique sur l'exécution des opérations. Les réplicats sont autonomes et ne coopèrent que lorsque leur vue de l'histoire globale ne suffit plus à garantir la correction de l'application.<br />Nos principes systèmes permettent de construire un nouveau type de composant, le gestionnaire de cohérence . Ce composant :<br />prend en charge la coopération des réplicats. Il implante la partie complexe de la gestion de cohérence : le contrôle de la distribution, de la réplication et de la concurrence ;<br />maintient, sur l'ordre réparti des opérations, des propriétés déterministes. Ces propriétés définissent un contrat de cohérence ; elles peuvent être utilisées comme critère de correction ;<br />est choisi à l'exécution par l'application ;<br />est réutilisable.<br />Nous avons réalisé Core, une plate-forme de développement complète, partiellement documentée et accessible sur FTP, développée au-dessus d'Unix. Core offre, outre les services usuels nécessaires à la mise en oeuvre de groupes de processus répartis, une bibliothèque extensible de gestionnaires de cohérence. Core offre aussi de nombreuses classes, utilisées tant pour la réalisation de nouveaux gestionnaires que pour l'expression de nouveaux types et modèles d'exécution, par les concepteurs d'applications. Nous avons réalisé, avec Core, deux applications : une application d'édition coopérative basée sur Emacs et une simulation de ressource partagée.
28

Construction et analyse de mesures continues de la contrôlabilité pour une classe de systèmes à paramètres répartis

Benchimol, Philippe 13 January 1995 (has links) (PDF)
Dans le cas des systèmes a paramètres repartis, il existe de nombreuses définitions de la contrôlabilité, plus ou moins équivalentes a la définition classique, et correspondant a différents concepts d'état atteignable. Malheureusement, ces notions sont souvent non-robustes en ce sens qu'elles peuvent ne plus être vérifiées pour des variations arbitrairement petites des paramètres du système. Cette non robustesse est due principalement a la nature binaire de la contrôlabilité et a la dimension infinie de l'espace d'état. Nous définissons et analysons, dans le cas de systèmes vibrants du type corde, poutre, membrane,, deux mesures de la contrôlabilité par la voie quantitative permettant de retrouver la robustesse au sens de la continuité par rapport aux paramètres du système. La première définition (degré de contrôlabilité actif) est liée a un problème classique de contrôle avec pénalisation considéré comme une régularisation du problème avec contrainte sur l'état final. La seconde définition (degré de contrôlabilité passif) est liée a un contrôle passif correspondant a un retour de sortie statique dissipatif (analogue a un amortisseur visqueux). Le calcul de ce dernier est basé sur la seule simulation numérique du système, et donc facilement adaptable (par exemple au cas non-linéaire). Ces deux degrés de contrôlabilité présentent une très grande analogie, ce qui constitue un résultat particulièrement intéressant car d'une certaine manière intrinsèque. Nous développons enfin une méthodologie de mise en oeuvre basée sur des approximations dans l'objectif de l'applicabilité à des problèmes complexes comme la membrane vibrante.
29

Auto-stabilisation Efficace

Tixeuil, Sébastien 14 January 2000 (has links) (PDF)
Quand un système réparti est sujet à des défaillances transitoires qui modifient arbitrairement son état, il est crucial de pouvoir retrouver un comportement correct au bout d'un temps fini. L'auto-stabilisation présente une telle garantie, mais en général au prix de ressources importantes. Dans cette thèse, notre démarche a consisté à minimiser ces ressources lorsque cela était possible. <br /><br />Nous avons développé le concept de détecteur de défaillances transitoires, des oracles appelés par les processeurs du système, qui indiquent si des défaillances transitoires sont survenues, en un temps constant. Notre implantation permet de classifier les problèmes classiques suivant les ressources spécifiques nécessaires à la détection d'une erreur. Pour les tâches statiques, une suite naturelle a été de montrer qu'une condition sur le code localement exécuté par chaque processeur pouvait être suffisante pour garantir l'auto-stabilisation du système tout entier, indépendamment des hypothèses d'exécution et de la topologie du graphe de communication. Du fait que l'algorithme n'est pas modifié, il est forcément sans surcoût. De manière duale, nous avons développé des outils de synchronisation permettant de construire des algorithmes auto-stabilisants pour des spécifications dynamiques avec un surcoût en mémoire constant, c'est à dire indépendant de la taille du réseau. En outre, l'un des algorithmes présentés est instantanément stabilisant. Enfin, nous avons présenté une technique générale pour réduire systématiquement le coût des communications, en garantissant un délai de retransmission borné, et nous avons donné un cadre général ainsi que des outils d'implantation pour écrire des algorithmes auto-stabilisants dans ce contexte.
30

Caches collaboratifs noyau adaptés aux environnements virtualisés / A kernel cooperative cache for virtualized environments

Lorrillere, Maxime 04 February 2016 (has links)
Avec l'avènement du cloud computing, la virtualisation est devenue aujourd'hui incontournable. Elle offre isolation et flexibilité, en revanche elle implique une fragmentation des ressources, et notamment de la mémoire. Les performances des applications qui effectuent beaucoup d'entrées/sorties (E/S) en sont particulièrement impactées. En effet, celles-ci reposent en grande partie sur la présence de mémoire libre, utilisée par le système pour faire du cache et ainsi accélérer les E/S. Ajuster dynamiquement les ressources d'une machine virtuelle devient donc un enjeu majeur. Dans cette thèse nous nous intéressons à ce problème, et nous proposons Puma, un cache réparti permettant de mutualiser la mémoire inutilisée des machines virtuelles pour améliorer les performances des applications qui effectuent beaucoup d'E/S. Contrairement aux solutions existantes, notre approche noyau permet à Puma de fonctionner avec les applications sans adaptation ni système de fichiers spécifique. Nous proposons plusieurs métriques, reposant sur des mécanismes existants du noyau Linux, qui permettent de définir le niveau d'activité « cache » du système. Ces métriques sont utilisées par Puma pour automatiser le niveau de contribution d'un noeud au cache réparti. Nos évaluations de Puma montrent qu'il est capable d'améliorer significativement les performances d'applications qui effectuent beaucoup d'E/S et de s'adapter dynamiquement afin de ne pas dégrader leurs performances. / With the advent of cloud architectures, virtualization has become a key mechanism for ensuring isolation and flexibility. However, a drawback of using virtual machines (VMs) is the fragmentation of physical resources. As operating systems leverage free memory for I/O caching, memory fragmentation is particularly problematic for I/O-intensive applications, which suffer a significant performance drop. In this context, providing the ability to dynamically adjust the resources allocated among the VMs is a primary concern.To address this issue, this thesis proposes a distributed cache mechanism called Puma. Puma pools together the free memory left unused by VMs: it enables a VM to entrust clean page-cache pages to other VMs. Puma extends the Linux kernel page cache, and thus remains transparent, to both applications and the rest of the operating system. Puma adjusts itself dynamically to the caching activity of a VM, which Puma evaluates by means of metrics derived from existing Linux kernel memory management mechanisms. Our experiments show that Puma significantly improves the performance of I/O-intensive applications and that it adapts well to dynamically changing conditions.

Page generated in 0.0593 seconds