• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 44
  • 12
  • 4
  • Tagged with
  • 63
  • 26
  • 26
  • 23
  • 23
  • 20
  • 17
  • 15
  • 13
  • 11
  • 11
  • 10
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Un modèle de contrôle d'accès générique et sa réalisation dans la mémoire virtuelle répartie unique Arias

Jensen, Christian Damsgaard 29 October 1999 (has links) (PDF)
Un système à mémoire virtuelle répartie unique permet l'utilisation des adresses virtuelles comme identificateurs globaux uniques. Il faut donc séparer la résolution des adresses et le contrôle d'accès, parce qu'une adresse virtuelle est potentiellement visible par toute application dans le système. Nous proposons un modèle de contrôle d'accès pour une mémoire virtuelle répartie unique qui se base sur le modèle à capacités cachées. Le modèle se base sur les notions suivantes : la capacité (un droit d'accès simple), le domaine de protection (définit le contexte de protection par l'ensemble des capacités disponibles dans le domaine) et l'appel de changement de domaine (qui permet d'appeler une procédure désignée dans un autre domaine de protection). Deux principes de base sont très importants pour le modèle : l'utilisation des capacités confinées et la délégation contrôlée à travers des interfaces de protection. Les interfaces de protection permettent une séparation entre la spécification de la protection et le code de l'application. L'évaluation de notre modèle indique qu'il permet de réaliser la plupart des modèles de contrôle d'accès existants y compris le modèle mandataire de Bell & LaPadula. Le modèle à capacités cachées a été réalisé dans Arias, une mémoire virtuelle répartie unique conçue et développée au sein du projet SIRAC. Les expériences avec cette réalisation montrent que la séparation entre la spécification de la protection et le code de l'application facilite la réutilisation logicielle et l'évolution de l'application. L'efficacité d'un appel de changement de domaine correspond à celui d'un appel RPC standard.
12

Proposition d'un modèle d'agents hybrides basé sur la motivation naturelle

Andriamasinoro, Fenintsoa 28 August 2003 (has links) (PDF)
La thématique principale des recherches présentées dans le présent travail concerne la modélisation de comportement d'agents informatiques hybrides au sein de Systèmes multi-agents (SMA). Un agent hybride est un agent qui dispose à la fois de comportements réactifs et de comportements cognitifs. S'inspirant à la base d'une réflexion principalement psychophysiologique du vivant, ce travail s'insère dans la problématique plus vaste de l'Intelligence artificielle distribuée et de la Vie artificielle. Partant du principe qu'un être humain, même s'il est cognitif, est aussi une espèce issue de la nature, le présent travail a pour objectif de mettre en place une architecture hybride générique d'agents artificiels dont la base du comportement est la motivation naturelle existant dans ces agents. La particularité de cette étude est que nous intégrons les concepts d'instinct, pulsion, faim, soif, etc. dans les agents cognitifs ou hybrides alors que dans la plupart des cas, ces notions ont toujours été l'apanage des modèles d'agents réactifs, particulièrement ceux basés sur les animâts. A terme, le raisonnement et les attitudes mentales ne seront donc plus les seuls facteurs à prendre en compte pour comprendre le comportement de ces agents cognitifs ou hybrides. Au niveau de l'architecture, nous obtenons ainsi à la base un modèle générique basé uniformément sur le concept de motivation naturelle et ce, quel que soit le type de l'agent étudié (réactif, cognitif, hybride). Au niveau du comportement, nous proposons de fournir un cadre hybride permettant de gérer, à un niveau générique, la sélection d'actions et plus précisément pour le présent contexte, la sélection de motivations. Le terme "générique" signifie que l'ensemble des critères fournis dans le mécanisme de sélection ne dépend pas de l'application mais permettra à l'utilisateur du système de se préoccuper au minimum des stratégies de sélection. Pour ce faire, il appartient au modèle de fournir les règles de positionnement pour chaque motivation. Sur le plan de la conception, nous adoptons un modèle issu d'un travail déjà existant dans le monde de la psychologie. Il s'agit de la pyramide du psychologue américain Abraham Maslow, portant sur les cinq besoins abstraits des humains. Le choix d'un modèle issu de l'étude du monde réel est important. Nous évitons en effet de devoir fournir des hypothèses théoriques de conception. Notre cadre d'application concerne en premier lieu une application cas d'école axée sur des agents fourrageurs qui se déplacent pour transporter des objets. Puis, dans un cadre plus réel, l'étude porte sur la simulation du comportement des paysans dans une région à Madagascar.
13

Système et réseaux informatiques : fonctions frontales dans un environnement reparti bati sur un réseau

Cart, Michèle 11 December 1979 (has links) (PDF)
L'étude des réseaux a jusqu'à maintenant été abordée par l'aspect télécommunication en repoussant à plus long terme les points de vue système et externe. L'aspect externe concerne l'utilisateur qui se voit confronté à une multitude de systèmes d'exploitation différents. Or, très peu d'utilisateurs peuvent prétendre connaitre parfaitement deux ou plusieurs systèmes; ce que l'on pensait être un avantage des réseaux généraux devient donc un inconvénient. Avec leur développement croissant et notamment l'entrée dans l'ère de la télématique, il semble que le moment soit venu de chercher à faciliter l'utilisation de l'outil informatique dans le cadre d'une informatique répartie.
14

Conception d'un système d'exploitation supportant nativement les architectures multiprocesseurs hétérogènes à mémoire partagée

Bécoulet, Alexandre 28 September 2010 (has links) (PDF)
Cette thèse présente le système d'exploitation MutekH, capable de s'exécuter nativement sur une plateforme matérielle multiprocesseur, où les processeurs peuvent être de complexité différente et disposer de spécificités ou de jeux d'instructions différents. Les travaux présentés ici s'insèrent dans un contexte où les systèmes multi-core et les processeurs spécialisés permettent tous deux de réduire la consommation énergétique et d'optimiser les performances dans les systèmes embarqués et dans les systèmes sur puce. Les autres solutions logicielles existantes permettant l'exécution d'applications sur des plateformes multiprocesseurs hétérogènes ne permettent pas, à ce jour, la communication par mémoire partagée, telle qu'on l'envisage habituellement pour les systèmes multiprocesseurs homogènes. Cette solution est la seule qui permet la réutilisation du code source d'applications parallèles existantes pour leur exécution directe par des processeurs différents. La solution proposée est mise en oeuvre en deux phases: grâce au développement d'un noyau dont l'abstraction rend transparente l'hétérogénéité des processeurs, puis à la réalisation d'un outil spécifique d'édition des liens, capable d'harmoniser le code et les données des fichiers exécutables chargés en mémoire partagée. Les résultats obtenus montrent que MutekH permet l'exécution d'applications préexistantes utilisant des services standards, tels que les Threads POSIX, sur des plateformes multiprocesseurs hétérogènes sans dégradation des performances par rapport aux autres systèmes d'exploitation opérant sur des plateformes multiprocesseurs classiques.
15

Architecture de simulation multiressource pour un réseau grille basé sur OBS

Ourti, Maryem January 2009 (has links) (PDF)
Le concept de la grille de calcul a émergé récemment comme infrastructure apte à répondre aux exigences des applications scientifiques et économiques en termes de stockage et calcul. Le principe de la grille est de regrouper toute la puissance inexploitée des ordinateurs d'un réseau pour la mettre à la disposition des applications nécessitant de grands calculs. Il s'agit également d'utiliser l'espace de stockage inutilisé des serveurs pour y entreposer des données. Une grille de calcul représente donc une collection de ressources informatiques réparties en plusieurs emplacements et agissent en tant que ressources de traitement unifiées ou comme une collection d'ordinateurs virtuels. L'avantage de la grille consiste en un traitement plus rapide et plus efficace. Elle permet aussi d'éliminer l'inconvénient de lier étroitement des machines spécifiques à des travaux spécifiques. Puisqu'elle permet à des utilisateurs et à des applications d'accéder et de contrôler efficacement diverses ressources de différentes locations distribuées. Toutefois, sans un moyen de transport de données assez rapide, il y aurait aucun avantage dans le traitement distribué des données. La commutation optique par rafales (OBS) a été identifiée comme la technologie idéale pour répondre aux exigences de la grille. Cette approche est connue sous le nom de grille basée sur OBS « GOBS ». Dans ce mémoire nous étudions et évaluons la performance d'un réseau GOBS. Nous présentons aussi le problème de multi-ressource dans le cas où plusieurs ressources informatiques seront dédiées pour le traitement des tâches de la grille. Les résultats obtenus nous ont permis de démontrer que l'approche multi-ressource est efficace pour le traitement distribuée au sein de la grille et particulièrement dans le cas de grandes tâches. Elle permet de réduire le taux de perte et aussi d'assurer un traitement plus rapide. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Grille de calcul, GOBS, OBS, Tâche, Burst, Rafale, Paquet de contrôle, Ressource.
16

Commande et supervision des procédés discontinus : une approche hybride

Andreu, David 15 November 1996 (has links) (PDF)
Les travaux présentés s'inscrivent dans le cadre de la commande et de la supervision des procédés discontinus. Un système de commande/supervision, étudié dans le contexte particulier des systèmes de production à traitements par lots, est proposé. Notre démarche s'oriente vers une approche globale, hiérarchisée et modulaire, des aspects temps-réel de la conduite de ces procédés de fabrication, reposant sur une modélisation homogène de chaque composante du système. Les points originaux sont d'une part, une nouvelle architecture de commande et d'autre part, une modélisation séparée du procédé et de la commande, dont la nature hybride de chaque modèle obtenu est abordée selon le respect de l'identité des "mondes'' discret et continu. L'architecture proposée est organisée autour de deux réseaux locaux : un bus de terrain à caractère continu, dédié aux variables d'état continues échantillonnées, et un bus d'atelier à caractère discret, consacré aux échanges sporadiques entre les éléments du système de commande/supervision. L'interface entre le monde des variables continues et celui des événements est assurée par un générateur d'événements. Ayant mis en évidence la nécessité d'une représentation des aspects discrets et continus au niveau de la supervision, le modèle du système, constitué du modèle du procédé et du modèle de sa commande, résulte de la combinaison de deux formalismes. Les réseaux de Petri sont utilisés pour aborder l'aspect discret (événementiel) et les équations algébro-différentielles pour représenter l'aspect continu. Ce modèle est structuré selon trois vues : une vue discrète traduisant la stratégie de commande, une vue discrète correspondant à une représentation qualitative de l'état du procédé (ses configurations) et une vue continue associée à chaque configuration. L'évolution cohérente de cette structure, basée sur les événements, est garantie par une coopération des modèles dont le s interactions sont clairement définies. Deux exemples d'application sont présentés afin d'illustrer l'approche exposée. Ils insistent sur l'importance de la notion de configuration dynamique et illustrent la modélisation hybride du procédé, les interactions entre les modèles, ainsi que l'association directe d'une vue continue à des états du modèle discret de la commande.
17

Auto-stabilisation Efficace

Tixeuil, Sébastien 14 January 2000 (has links) (PDF)
Quand un système réparti est sujet à des défaillances transitoires qui modifient arbitrairement son état, il est crucial de pouvoir retrouver un comportement correct au bout d'un temps fini. L'auto-stabilisation présente une telle garantie, mais en général au prix de ressources importantes. Dans cette thèse, notre démarche a consisté à minimiser ces ressources lorsque cela était possible. <br /><br />Nous avons développé le concept de détecteur de défaillances transitoires, des oracles appelés par les processeurs du système, qui indiquent si des défaillances transitoires sont survenues, en un temps constant. Notre implantation permet de classifier les problèmes classiques suivant les ressources spécifiques nécessaires à la détection d'une erreur. Pour les tâches statiques, une suite naturelle a été de montrer qu'une condition sur le code localement exécuté par chaque processeur pouvait être suffisante pour garantir l'auto-stabilisation du système tout entier, indépendamment des hypothèses d'exécution et de la topologie du graphe de communication. Du fait que l'algorithme n'est pas modifié, il est forcément sans surcoût. De manière duale, nous avons développé des outils de synchronisation permettant de construire des algorithmes auto-stabilisants pour des spécifications dynamiques avec un surcoût en mémoire constant, c'est à dire indépendant de la taille du réseau. En outre, l'un des algorithmes présentés est instantanément stabilisant. Enfin, nous avons présenté une technique générale pour réduire systématiquement le coût des communications, en garantissant un délai de retransmission borné, et nous avons donné un cadre général ainsi que des outils d'implantation pour écrire des algorithmes auto-stabilisants dans ce contexte.
18

Agents et systèmes multi-agents : vers une synthèse de ces concepts

Grouls, Alexandre 05 1900 (has links) (PDF)
Les systèmes multi-agents appartiennent à un domaine de l'intelligence artificielle et ce sont des systèmes que l'on appréhende très différemment de l'ingénierie informatique classique. Les systèmes multi-agents interviennent là où la résolution classique des problèmes grâce à l'informatique a ses limites. Ce domaine est malheureusement peu exploité aujourd'hui compte tenu des possibilités qu'il offre dans de nombreux domaines comme les sciences sociales, sciences informatiques, sciences expérimentales ou encore l'industrie. Mais les limites des systèmes informatiques et industrielles actuels sont telles qu'il devient envisageable et même intéressant de développer des systèmes multi-agents pour répondre aux besoins croissants de nombreux domaines plus classiques, que ce soit en termes de temps, d'efficacité ou de productivité. Nous allons tout d'abord commencer par le concept d'agent, qui est l'élément fondamental pour concevoir des systèmes multi-agents. Nous verrons les divers types et catégories d'agents, ainsi que les architectures typiques qui leurs sont associés comme BDI, IDA ou CTS. Puis nous allons voir les notions concernant les systèmes multi-agents, comme la notion d'interaction qui est une des pièces maîtresses avec les agents pour concevoir un système multi-agents. Avec les interactions viennent des phénomènes d'auto-organisation, et on verra différent modèles d'organisation ainsi que plusieurs niveaux d'organisation dans les systèmes multi-agent. Enfin nous verrons différents outils, plateformes et langages adaptés à la conception de systèmes multi-agents, pour ce qui est de la structure des agents ou de l'aspect interactions et communications. Puis nous ferons quelques recommandations méthodologiques concernant le développement de systèmes multi-agents dans leur globalité. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : agent, système multi-agents, systèmes adaptatifs, organisation émergente, cycle cognitif, intelligence artificielle distribuée.
19

Modélisation et caractérisation de sources optiques pour les réseaux d'accès et métropolitains

Kechaou, Khalil 13 December 2012 (has links) (PDF)
Le déploiement des réseaux optiques d'accés et métropolitains à crée un besoin incessant de débits élevés et de portées étendues. Une demande pour des sources optiques compactes, polyvalentes, de bas coût et de consommation réduite a vu le jour dans ce contexte. Le but de cette thèse consiste à étudier expérimentalement et par la simulation deux techniques pour combattre les effets de la dispersion chromatique à travers l'ingénierie du chirp de la source. La première technique concerne les lasers DFB (Distributed Feedback Laser) modulés directement. Premièrement, un modèle complet et flexible d'un laser DFB développé au cours de la thèse a été exploité pour confirmer l'étude expérimentale des effets de phases du réseau de Bragg aux facettes sur le comportement du chirp. Les résultats ont montré l'existence de deux familles de lasers définies suivant la position du mode d'émission par rapport à la bande interdite. Deuxiémement, une étude théorique et expérimentale a montré la stabilisation et le contrôle du chirp des lasers DFB via la présence d'une rétroaction optique externe bien ajustée. La deuxième technique concerne le concept de la modulation duale des lasers modulateurs intégrés (D-EML : Dual Electroabsorption Modulated Laser) exploitant l'ajustement de la dérive en fréquence résultant de la juxtaposition d'une modulation de fréquence appliquée sur le laser et une modulation d'intensité appliquée sur le modulateur. L'évaluation expérimentale et théorique des performances du D-EML a permis de prouver sa compatibilité aux hauts débits (20, 25 et 40 Gb/s) ainsi que son efficacité par rapport à la modulation simple de l'EAM (Electro-Absorption Modulator).
20

Gestion mémoire dans une infrastructure répartie / Memory management in a distributed infrastructure

Gadafi, Aeiman 01 October 2013 (has links)
De nos jours, de plus en plus d'organisations déploient des infrastructures matérielles telles que des clusters ou des grilles. Elles sont utilisées pour héberger des services internet communs tels que l'email, les réseaux sociaux ou le commerce électronique ou pour exécuter des applications scientifiques telles que les simulations nucléaires ou les prédictions météorologiques. La capacité de traitement et de stockage demandée pour répondre à la charge de travail de ces applications ne peut être fournie que par le biais de ces infrastructures matérielles. Ces infrastructures matérielles embarquent des systèmes d'exploitation, qui peuvent potentiellement coopérer dans le but de gérer au mieux les ressources disponibles. Ces systèmes gèrent alors l'allocation des ressources aux applications en fonction des besoins de ces dernières. Ces systèmes visent à garantir la qualité de service et en même temps à gérer de façon optimale les ressources dans le but de limiter les coûts, notamment l'énergie. La communauté scientifique s'est intéressée à la problématique de la gestion des ressources. De nombreuses approches ont été proposées et des solutions ont été mises en œuvre. En réalisant un état de l'art de ces approches, nous constatons que la plupart d'entre elles s'intéressent à la gestion des nœuds dans l'objectif de répartir les calculs d'une façon adéquate pour exploiter de manière optimale la charge processeur. La gestion globale de la mémoire dans de telles infrastructures n'a pas été suffisamment étudiée. En effet, la mémoire est souvent considérée comme une ressource avec une capacité théoriquement illimitée grâce aux mécanismes de swap, mais ces derniers ont des conséquences importantes sur les performances des applications et le coût de fonctionnement de l'infrastructure. Dans cette thèse, nous étudions la conception et l'implantation d'un service de gestion globale de la mémoire dans une infrastructure matérielle. Ce service de gestion de mémoire doit éviter le gaspillage de mémoire et ne doit pas pénaliser les performances des applications hébergées. Nous proposons un service de swap à distance permettant à une machine, plutôt que swapper sur son disque local, de swapper sur la mémoire distante d'une autre machine ayant de la mémoire disponible. Les pages distantes peuvent être déplacées dynamiquement afin d'équilibrer la charge entre les machines. Ceci permet de mutualiser la mémoire et d'économiser les ressources. Un prototype a été implémenté et évalué. / Nowadays, more and more organizations are deploying large scale infrastructures such as clusters or grids. They are used to host common Internet services such as email, social networks, e-commerce applications or to run scientific applications such as nuclear simulations and weather predictions. Processing power and storage capacities satisfying the workload of these applications can only be provided by such infrastructure. The operating systems deployed on these nodes manage the allocation of application resources and can potentially cooperate in order to manage the available resources according of the application needs. The scientific community is usually interested in the resource management problematic. Many approaches have been proposed and solutions have been implemented. However, we find out that most of them focus on the node management in order to adequately distribute calculations to optimally exploit the CPU load. The global memory management in such infrastructures has not been enough studied. Indeed, memory is often considered as a resource with a theoretically unlimited capacity thanks to the swap capabilities, but swapping has a significant impact on the system performance and the operation cost. In this thesis, we study the design and the implementation of a global memory service management in a large scale infrastructure. This memory management service must avoid wasting memory resources and should not penalize the performance of hosted applications. It is based on remote swap mechanisms. A prototype has been implemented and evaluated.

Page generated in 0.0528 seconds