Spelling suggestions: "subject:"virtuelle"" "subject:"virtuelles""
321 |
Protection d'une mémoire virtuelle répartie par capacités implicitesSaunier, Frederic 25 October 1996 (has links)
Le contrôle d'accès d'une mémoire virtuelle répartie dans les systèmes à espace d'adressage uniforme est souvent réalisée par capacités logicielles à mot de passe. Ceci permet à l'utilisateur de manipuler les capacités comme des données banalisées. Cette thèse reprend l'idée de protection par capacités logicielles, mais en les cachant à l'utilisateur. On est alors capable d'ajouter la protection à une application répartie existante sans toucher au code de cette application. Les résultats sont étayés par la réalisation et l'évaluation d'un prototype.
|
322 |
Evaluation d'architectures parallèles à mémoire virtuelle partagée distribuée : étude et réalisation d'un émulateurJacquiot, Olivier 27 September 1996 (has links) (PDF)
Le but principal de cette thèse est d'étudier et de réaliser un émulateur performant de machines parallèles dotées d'une mémoire virtuelle partagée distribuée. Cet émulateur doit permettre d'évaluer la charge induite par des machines de ce type sur le réseau d'interconnexion, afin d'en choisir la meilleure topologie. Pour cela, ce travail est divisé en deux parties. La première est constituée d'une étude de l'éventail des techniques pouvant être utilisées lors de la construction d'une hiérarchie de mémoires ou lors du maintien de la cohérence des données contenues dans cette hiérarchie. La seconde partie décrit le fonctionnement de l'émulateur. Pour que celui-ci soit performant, il faut qu'il puisse faire varier un nombre important de paramètres de la machine émulée et qu'il puisse utiliser un grand nombre d'applications de taille significative. Pour cela, nous utilisons une technique qui permet de réellement exécuter les instructions et de ne simuler que les envois de pages sur le réseau. Les paramètres de l'émulateur sont le nombre de processeurs, les caractéristiques du réseau (débit, latence), et le type de maintien de la cohérence utilisé (5 possibles). En ce qui concerne les applications, il est possible de faire varier la taille et pour certaines la répartition des données. L'émulateur construit s'exécute au-dessus d'un micro-noyau MACH et d'un serveur UNIX. Il exploite certaines fonctionnalités du micro-noyau MACH, en particulier les paginateurs externes.
|
323 |
Conception et réalisation d'un service de stockage fiable et extensible pour un système réparti à objets persistantsKnaff, Alain 21 October 1996 (has links) (PDF)
Cette thèse décrit la conception et la mise en oeuvre d'un service de stockage fiable et extensible. Les travaux ont été faits dans le cadre de Sirac, un système réparti à objets persistants. L'objectif de Sirac est de fournir des services pour le support d'objets persistants répartis et pour la construction d'applications réparties. Les deux idées qui ont dirigé cette étude sont la souplesse des services offerts et la coopération entre les sous-systèmes. La souplesse, rendue possible par la conception modulaire du système, améliore les performances, étant donné que les applications doivent seulement payer le prix des services qu'elles utilisent. La coopération (par exemple entre le stockage et la pagination) permet aux différents modules de prendre des décisions en connaissance de cause. La thèse présente dans le second chapitre un état de l'art en trois parties. La première partie s'attache à étudier la manière dont un grand espace de stockage unique peut être présenté aux applications. La deuxième partie analyse la mise en oeuvre du stockage fiable en étudiant notamment différentes réalisations de l'atomicité. La troisième partie enfin montre comment ces deux aspects sont mariés dans les systèmes modernes. Dans le troisième chapitre, nous faisons un rapide tour d'horizon d'Arias et de ses différents sous-systèmes~: protection, cohérence, synchronisation et stockage. Au sein des différents services, nous distinguons d'un côté des modules génériques de bas niveau, et d'un autre côté des modules spécifiques aux applications. Les modules génériques mettent en oeuvre les mécanismes tandis que les modules spécifiques définissent la politique. Certains sous-systèmes sont toujours présents, comme la gestion de la cohérence et de la synchronisation, alors que d'autres, comme par exemple la gestion de la protection ou la gestion de la permanence, sont optionnels. Dans les quatrième et cinquième chapitres, nous nous concentrons sur le service de stockage. Le service générique de stockage est subdivisé en deux parties~: d'abord un gestionnaire de volume, qui assure la pérennité des données, et puis un service de journalisation, qui assure l'atomicité des transactions. Ce système a été mis en oeuvre au dessus d'AIX, et la coopération entre les différents modules s'appuie sur le mécanisme des streams. Les performances de notre système sont bonnes, et s'approchent des limites imposées par le matériel dans les cas favorables. Les projets futurs incluent la fourniture d'un vaste éventail de protocoles de journalisation spécifiques, le support de volumes dupliqués ainsi que l'optimisation du gestionnaire du volume.
|
324 |
Un modèle de contrôle d'accès générique et sa réalisation dans la mémoire virtuelle répartie unique AriasJensen, Christian Damsgaard 29 October 1999 (has links) (PDF)
Un système à mémoire virtuelle répartie unique permet l'utilisation des adresses virtuelles comme identificateurs globaux uniques. Il faut donc séparer la résolution des adresses et le contrôle d'accès, parce qu'une adresse virtuelle est potentiellement visible par toute application dans le système. Nous proposons un modèle de contrôle d'accès pour une mémoire virtuelle répartie unique qui se base sur le modèle à capacités cachées. Le modèle se base sur les notions suivantes : la capacité (un droit d'accès simple), le domaine de protection (définit le contexte de protection par l'ensemble des capacités disponibles dans le domaine) et l'appel de changement de domaine (qui permet d'appeler une procédure désignée dans un autre domaine de protection). Deux principes de base sont très importants pour le modèle : l'utilisation des capacités confinées et la délégation contrôlée à travers des interfaces de protection. Les interfaces de protection permettent une séparation entre la spécification de la protection et le code de l'application. L'évaluation de notre modèle indique qu'il permet de réaliser la plupart des modèles de contrôle d'accès existants y compris le modèle mandataire de Bell & LaPadula. Le modèle à capacités cachées a été réalisé dans Arias, une mémoire virtuelle répartie unique conçue et développée au sein du projet SIRAC. Les expériences avec cette réalisation montrent que la séparation entre la spécification de la protection et le code de l'application facilite la réutilisation logicielle et l'évolution de l'application. L'efficacité d'un appel de changement de domaine correspond à celui d'un appel RPC standard.
|
325 |
Cartographie de la pollution atmosphérique en milieu urbain a l'aide de données multisourcesUng, Anthony 07 November 2003 (has links) (PDF)
Sept ans après l'application de la loi sur l'air de 1996, toutes les villes de France de plus de 100 000 habitants possèdent désormais un réseau de surveillance de la qualité de l'air. La qualité de l'air s'améliore progressivement selon certaines études. Pour autant, des effets néfastes sur la santé des habitants et l'environnement subsistent. Il devient nécessaire de caractériser au mieux le risque induit par la pollution. Cela passe par une meilleure connaissance de la distribution spatiale des polluants. L'analyse des outils actuels de surveillance montre que cette dernière information n'est actuellement pas disponible en zone urbaine et à petite résolution spatiale. Pourtant ces outils sont complémentaires pour une bonne compréhension de la distribution spatiale des polluants. De cette analyse, nous proposons une méthode de fusion de toutes les informations pour une meilleure cartographie de la pollution atmosphérique en milieu urbain. La démarche repose sur la possibilité de cartographier les petites structures d'un champ de concentration de polluants, appelé « champ typique ». La cartographie est effectuée en densifiant le nombre de points pris pour une cartographie par interpolation. Cette étude est menée en trois étapes. La première étape concerne la caractérisation des stations de mesures et de la ville entière. Des images satellitaires Landsat, des mesures in situ, un cadastre d'émission et une base de données géographiques sont utilisés pour définir des « cartes d'identité ». La deuxième étape met à profit ces cartes d'identité pour localiser des « pseudostations », lieux de la ville présentant des attributs similaires à une station de mesures. Enfin la dernière étape s'intéresse à l'estimation de la concentration en polluants par télédétection. Les pseudostations deviennent alors des stations virtuelles. La démarche est originale dans le sens où elle fait appel à des données de sources diverses qui permettent d'assurer une cohérence de la cartographie entre les échelles spatiales.
|
326 |
Collaboration haptique étroitement couplée pour la manipulation moléculaire interactiveSimard, Jean 12 March 2012 (has links) (PDF)
Le docking moléculaire est une tâche complexe, difficile à appréhender pour une personne seule. C'est pourquoi, nous nous proposons d'étudier la distribution cognitive des charges de travail à travers la collaboration. Une plate-forme distribuée de déformation moléculaire interactive a été mise en place afin d'étudier les avantages mais aussi les limites et les contraintes du travail collaboratif étroitement couplé. Cette première étude, basée sur trois expérimentations, a permis de valider l'intérêt d'une approche collaborative pour des tâches complexes à fort couplage. Cependant, elle a mis en évidence des conflits de coordination ainsi que des problématiques liées à la dynamique d'un groupe. Suite à cette première étude, nous avons proposés une nouvelle configuration de travail associée à des métaphores de communication haptiques afin d'améliorer la communication et les interactions entre les différents collaborateurs. Une dernière expérimentation avec des biologistes a permis de montrer l'utilité de la communication haptique pour le travail collaboratif sur des tâches complexes à fort couplage.
|
327 |
Définition et opérationalisation d'une organisation virtuelle à base d'agents pour contribuer à de meilleures pratiques de gestion des risques dans les PME-PMIRigaud, Eric 18 December 2004 (has links) (PDF)
L'objet de cette thèse est de présenter une réflexion destinée à concevoir un ensemble d'outils dont la finalité est de favoriser l'émergence d'une culture de gestion des risques au sein de PME-PMI. Les hypothèses retenues pour mener à bien cette démarche sont de favoriser les échanges sur les pratiques de prévention entre les acteurs tant privés qu'institutionnels et d'élaborer des outils de prévention et de gestion impliquant les principaux acteurs de la PME-PMI. La démarche suivie dans cette thèse a consisté à identifier les fonctionnalités d'un système de gestion des risques selon la spécificité des PME-PMI puis de l'aborder à l'aide de la notion d'organisation virtuelle. Ce concept permet d'identifier les interactions entre les acteurs des PME-PMI et les instruments de la gestion des risques. La mise en œuvre d'une organisation virtuelle repose sur le développement d'un système d'intermédiation électronique, ce système fournit les mécanismes nécessaires à l'échange d'information entre les éléments constituant l'organisation virtuelle. Dans l'optique d'identifier les caractéristiques de ce système, une analyse a été menée à l'aide de concepts de la pensée complexe. Pour aborder la conceptualisation du système d'intermédiation électronique et d'un logiciel d'analyse des risques indispensables au déploiement de l'organisation virtuelle, le choix a été fait de recourir aux modèles et aux technologies des Systèmes Multi-Agents. Ainsi, un modèle d'agent d'intermédiation et un système multi-agents d'analyse des risques ont été réalisés. A partir de ces composantes et d'un ensemble de logiciels développés dans le cadre de cette thèse, un prototype d'organisation virtuelle de gestion des risques proposant des mécanismes de communication, de diagnostic, de supervision et de gestion des risques dédiée aux PME-PMI est détaillé.
|
328 |
Téléprésence, immersion et interactions pour le reconstruction 3D temps-réelPetit, Benjamin 21 February 2011 (has links) (PDF)
Les environnements 3D immersifs et collaboratifs en ligne sont en pleine émergence. Ils posent les problématiques du sentiment de présence au sein des mondes virtuels, de l'immersion et des capacités d'interaction. Les systèmes 3D multi-caméra permettent, sur la base d'une information photométrique, d'extraire une information géométrique (modèle 3D) de la scène observée. Il est alors possible de calculer un modèle numérique texturé en temps-réel qui est utilisé pour assurer la présence de l'utilisateur dans l'espace numérique. Dans le cadre de cette thèse nous avons étudié comment coupler la capacité de présence fournie par un tel système avec une immersion visuelle et des interactions co-localisées. Ceci a mené à la réalisation d'une application qui couple un visio-casque, un système de suivi optique et un système multi-caméra. Ainsi l'utilisateur peut visualiser son modèle 3D correctement aligné avec son corps et mixé avec les objets virtuels. Nous avons aussi mis en place une expérimentation de télépresence sur 3 sites (Bordeaux, Grenoble, Orléans) qui permet à plusieurs utilisateurs de se rencontrer en 3D et de collaborer à distance. Le modèle 3D texturé donne une très forte impression de présence de l'autre et renforce les interactions physiques grâce au langage corporel et aux expressions faciales. Enfin, nous avons étudié comment extraire une information de vitesse à partir des informations issues des caméras, grâce au flot optique et à des correspondances 2D et 3D, nous pouvons estimer le déplacement dense du modèle 3D. Cette donnée étend les capacités d'interaction en enrichissant le modèle 3D.
|
329 |
TEAMViz : systèmes multi-dispositifs, multi-vues et multi-surfaces pour la visualisation interactive de scènes 3DAjaj, Rami 16 November 2009 (has links) (PDF)
Les environnements virtuels sont des espaces immersifs et intuitifs mais la conception des interfaces d'édition et de navigation y est complexe en raison de la diversité des dispositifs d'interaction et des tâches à réaliser. Les tables tactiles offrent des interactions intuitives mais proposent seulement un nombre limité de degrés de liberté. Dans le but de mieux couvrir les besoins d'interaction dans les environnements 3D, nous proposons la conception des TEAMViz (Tabletop Environment Augmented with Mural Visualization soit en français environnement tabletop augmenté par une visualisation murale). Les TEAMViz combinent des interactions réalisées au moyen d'une vue 2D d'un environnement virtuel présentée sur une table tactile et des interactions au moyen d'une vue 3D en perspective de ce même environnement projetée sur un écran vertical. La contribution principale de notre recherche est la réalisation d'une méthode de conception pour la combinaison d'interactions effectuées avec plusieurs dispositifs d'entrée sur des vues multiples présentées sur des surfaces d'affichage distinctes pour des tâches d'édition et de navigation dans un environnement virtuel. Cette méthode de conception prend en compte les relations entre les degrés de liberté des dispositifs d'entrée dans le monde réel, les tâches à réaliser et les relations entre les vues. Elle permet de combiner des interactions réalisées avec des dispositifs dont le couplage fort entre l'entrée et la sortie est requis comme dans le cas des surfaces tactiles.
|
330 |
Autonomisation des modèles pour les simulations participativesDe Loor, Pierre 05 December 2006 (has links) (PDF)
Ce texte est une étape de mon travail de recherche. Intrigué depuis longtemps par la notion d''autonomie, j''ai tenté, avec mes étudiants, de l''aborder dans le cadre de différentes applications de simulations interactives. Ces travaux, résumés dans la première partie de ce livre, illustrent les limites de l''approche "classique" et computationaliste de l''intelligence artificielle pour développer des comportements autonomes en environnements ouverts. La deuxième partie de l''ouvrage cherche dans d''autres courants des sciences cognitives, en particulier ceux se rapprochant de la biologie et de l'énaction - qui développent la notion d''autonomie forte - les pistes permettant de dépasser ces limites.
|
Page generated in 0.0495 seconds