• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 49
  • 32
  • 6
  • 4
  • 1
  • 1
  • Tagged with
  • 101
  • 44
  • 35
  • 30
  • 19
  • 16
  • 16
  • 15
  • 14
  • 13
  • 13
  • 12
  • 12
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

L'entreprise virtuelle à travers l'organisation des activités industrielles : le cas de la société Logistock / The virtual enterprise through the organisation of industrial activities : the case of the Logistock company

Maumus, Gilles 11 December 2015 (has links)
L’inadaptation des organisations hiérarchiques à l’émergence de la virtualité s’exprime à travers les exigences suivantes : les dirigeants modernes doivent composer entre « organisations dures » et « organisations molles », entre science quantitative et qualitative, entre flexibilité et productivité maximale, entre performance de l'entreprise et qualité de la vie au travail, entre qualité des produits et désir des clients. Nous appuyant sur l’abductivité de notre propre expérience, c'est-à-dire en faisant des allers-retours entre les cadres théoriques et les observations de terrain, cette recherche tend à montrer que la firme virtuelle est l’une des réponses organisationnelles apportée à l’adaptation au nouveau contexte économique.Face aux incertitudes entourant le concept d’entreprise virtuelle et surtout à la multiplicité des références utilisées en la matière, il nous a semblé nécessaire de le clarifier, ce qui nous a conduit à élaborer un cadre théorique spécifique faisant la synthèse des aspects divers de la littérature sur l’entreprise virtuelle, puis à nous interroger sur la disparition de l’entrepreneur pour enfin envisager l’avenir de ce type d’organisation comme business model. Ainsi, dans ce nouvel environnement, un nouveau type d'entreprise est née : mince, flexible, dont l'objectif est de limiter son activité interne à ses seules compétences stratégiques et d'externaliser toutes les autres fonctions en les confiant à des fournisseurs, des sous-traitants, ou des partenaires extérieurs. Ainsi l'entreprise se concentre sur ce qu'elle sait le mieux faire et peut croître rapidement ou lancer régulièrement de nouveaux produits avec moins de capitaux et des structures de management plus réduites. / The inadequacy of hierarchical organizations to the emergence of virtuality is expressed through the following requirements: modern leaders must compromise between « hard organizations » and « soft organizations », quantitative and qualitative sciences, flexibility and maximum productivity, company performance and quality of work life, product quality and customer’s desires. Building on the abductivity of our own experience, that is to say by going back and forth between theoretical frameworks and field observations, this research suggests that the virtual firm is one of the organizational responses adapted to the new economic environment. Facing the uncertainties surrounding the concept of virtual enterprise, and especially the multiplicity of references used, it seemed necessary to clarify it, which led us to develop a specific theoretical framework summarizing the various aspects of literature on the virtual enterprise, and to wonder about the disappearance of the head-manager to finally consider the future of this type of organization as a business model. Thus, in this new environment, a new type of company is born: thin, flexible, which aims to limit its internal activity to its own strategic competencies and outsource all other functions by entrusting them to suppliers, subcontractors or external partners. Thus, the company focuses on what it knows better and can grow quickly or regularly launch new products with less capital and smaller management structures.
22

Utopie et dystopie dans l'internationalisation de l'enseignement supérieur européen

Rombert Trigo, Nadine 27 November 2009 (has links) (PDF)
Cette thèse explore l'influence de l'internationalisation de l'enseignement supérieur européen dans la construction d'une Université «contingente ». En partant de l'analyse de Richard Bagnall – qui identifie une «tendance des universités à mieux répondre aux exigences et aux attentes immédiates de ceux qu'elles servent, à mieux répondre aux préférences expresses de leurs marchés respectifs, à mieux répondre au désir collectif et individuel, à dépendre plus directement des contextes culturels dans lesquels elles s'insèrent», cette étude essaie de présenter une approche critique du rôle de l'internationalisation en tant que moteur et conséquence de cette situation de dépendance quelque peu nouvelle que semble vivre l'Université actuellement. Le cadre de Bagnall est élargi pour inclure l'examen de Bill Reading qui constate l'université en ruines (University in Ruins ) et la possibilité de développer une « nouvelle idée » de l'Université par le biais d'une approche «éthique » différente de l'internationalisation de l'enseignement supérieur. La recherche analyse les différentes définitions de l'internationalisation dans le contexte de l'enseignement supérieur. De plus, à travers le rapport de l'enquête menée en 2005 par l'AIU (2005 IAU Global Survey ), elle essaie de comprendre les différentes motivations (raisons d'être) présentées par les établissements d'enseignement supérieur (EES) pour développer des politiques/stratégies internationales. Ces différentes approches de l'internationalisation sont considérées dans le contexte de la mondialisation et de l'européanisation en ce qui concerne les politiques d'enseignement supérieur.
23

Enabling future internet research : the FEDERICA case

Szegedi, Peter, Riera, Jordi Ferrer, Garcia-Espin, Joan Antoni, Hidell, Markus, Sjödin, Peter, Söderman, Pehr, Ruffini, Marco, O’Mahony, Donal, Bianco, Andrea, Giraudo, Luca, Ponce de Leon, Miguel, Power, Gemma, Cervelló-Pastor, Cristina, López, Víctor, Naegele-Jackson, Susanne January 2011 (has links)
The Internet, undoubtedly, is the most influential technical invention of the 20th century that affects and constantly changes all aspects of our day-to-day lives nowadays. Although it is hard to predict its long-term consequences, the potential future of the Internet definitely relies on future Internet research. Prior to every development and deployment project, an extensive and comprehensive research study must be performed in order to design, model, analyze, and evaluate all impacts of the new initiative on the existing environment. Taking the ever-growing size of the Internet and the increasing complexity of novel Internet-based applications and services into account, the evaluation and validation of new ideas cannot be effectively carried out over local test beds and small experimental networks. The gap which exists between the small-scale pilots in academic and research test beds and the realize validations and actual deployments in production networks can be bridged by using virtual infrastructures. FEDERICA is one of the facilities, based on virtualization capabilities in both network and computing resources, which creates custom-made virtual environments and makes them available for Future Internet Researchers. This article provides a comprehensive overview of the state-of-the-art research projects that have been using the virtual infrastructure slices of FEDERICA in order to validate their research concepts, even when they are disruptive to the test bed’s infrastructure, to obtain results in realistic network environments. / © 2011 IEEE. Personal use of this material is permitted. Permission from IEEE must be obtained for all other uses, in any current or future media, including reprinting/republishing this material for advertising or promotional purposes, creating new collective works, for resale or redistribution to servers or lists, or reuse of any copyrighted component of this work in other works. QC20120119 / FEDERICA
24

Contribution à l'élaboration de supports exécutifs exploitant la virtualisation pour le calcul hautes performances

Diakhaté, François 10 December 2010 (has links) (PDF)
Ces dernières années, la virtualisation a connu un important regain d'intérêt dans les centres de traitement de données. Elle séduit par la grande flexibilité qu'elle apporte, par ses propriétés d'isolation et de tolérance aux pannes ainsi que par sa capacité à tirer partie des processeurs multicoeurs. Toutes ces caractéristiques en font une solution intéressante pour répondre aux problèmes liés aux évolutions matérielles des grappes de calcul. Cependant, la virtualisation est encore peu mise en oeuvre dans ce cadre, notamment car son impact sur les performances des applications parallèles est considéré comme prohibitif. Pour pallier ce problème, nous avons conçu un périphérique virtuel de communication permettant l'exécution efficace d'applications parallèles dans une grappe de machines virtuelles. Nous proposons en outre un ensemble de techniques permettant de faciliter le déploiement d'applications virtualisées. Ces fonctionnalités ont été regroupées au sein d'un support exécutif permettant de bénéficier des avantages de la virtualisation de la manière la plus transparente possible pour l'utilisateur, et ce en minimisant l'impact sur les performances.
25

Gossip et la convergence dans les réseaux d'équipements virtualisés

Héroux, Martin 02 1900 (has links) (PDF)
L'Internet du futur devra certainement utiliser la virtualisation, car elle permet un passage flexible vers de nouveaux modèles de réseau, offre une abstraction des ressources, permet une meilleure utilisation de ces ressources ainsi que le partage de ces ressources. La virtualisation des serveurs est déjà utilisée depuis plusieurs années dans les centres de données et sur Internet. L'abstraction du matériel, le partage des ressources et les facilités de déploiement ont permis d'évoluer vers le modèle des services infonuagiques. On pense donc que l'Internet du futur doit passer par une virtualisation des équipements de réseau pour emprunter un chemin similaire à celui des serveurs vers l'informatique en nuage. Pour faciliter la découverte des ressources d'un réseau d'équipements virtuels, il est préférable de ne pas contacter chaque équipement du réseau à tour de rôle. Pour accélérer la création d'un inventaire des ressources disponibles, il est nécessaire d'établir leur cartographie. Cette cartographie des ressources associées à leur nœud physique sera appelée topologie puisqu'elle tiendra compte des liaisons entre les ressources et les nœuds du réseau. Le contexte de cette recherche est une approche de stabilisation rapide de la topologie des ressources mises en commun pour des réseaux dont les équipements ont été virtualisés. La centralisation d'une topologie globale d'un réseau comme Internet ne pourrait être possible. La fréquence des mises à jour et la quantité d'opérations de lecture demanderaient une infrastructure incroyablement puissante pour supporter des millions de clients concurrents. La décentralisation est une approche qui permet de répondre à cette demande en puissance par la distribution massive de la charge de travail entre plusieurs ordinateurs. De plus, elle permet d'accroitre la tolérance aux fautes, l'autoadaptation de la topologie, la réplication d'une large quantité de données et rapproche les informations vers les clients. À première vue, le modèle semble parfait, mais pour maintenir une telle topologie qui soit structurée autour d'un réseau, qui est lui-même en constante évolution, le modèle présente une complexité supplémentaire. En effet, pour maintenir une telle structure, il faut la mettre à jour à chaque changement. La décentralisation seule peut alors entraîner des connexions lentes entre deux nœuds qui sont relativement éloignés l'un de l'autre géographiquement et dont la latence entre ces liens peut être élevée. Ces connexions lentes peuvent ralentir les mises à jour de la topologie et donc ralentir la convergence (voir lexique) de l'information. L'utilisation d'une approche non structurée peut éliminer cette limitation. Chaque nœud participant à un système non structuré prend ses propres décisions. Ces décisions n'affectent pas les autres nœuds du système. Le travail présenté dans ce mémoire utilise un réseau qui reflète une des directions d'exploration des projets de GENI [1], PlanetLab [2], VINI [3], Cabo [4], etc. Ce réseau utilise des routeurs virtuels dont les nœuds physiques partagent leurs ressources informatiques. Une approche de mises à jour décentralisées et non structurées sera utilisée dans le but de gérer la topologie et de répondre aux exigences de distribution, de robustesse, de croissance et d'extensibilité de cette dernière. Dans le réseau de routeurs virtuels du présent travail, chaque nœud physique possède sa propre copie de la topologie des ressources partagées par les autres nœuds physiques du réseau. Le défi principal que relève ce mémoire est la convergence rapide de cette topologie des ressources partagées, appliquée à un grand réseau. Afin de réaliser les mises à jour de la topologie des ressources partagées, deux modèles d'architecture de système distribué ont été étudiés : le P2P (voir lexique) et le Gossip (voir lexique). Dans un premier temps, il sera démontré comment le modèle Gossip paraît être le mieux adapté au contexte du présent travail. Dans un deuxième temps, l'expérience du protocole P2P Gnutella a fait ressortir qu'il est préférable de profiter de la topologie du réseau sur lequel on s'exécute. Le protocole Gossip sera amélioré en ce sens. Cette nouvelle version démontrera comment l'utilisation de la topologie du réseau physique peut être utilisée comme levier pour améliorer sa performance. Finalement, il sera démontré en quoi l'amélioration apportée permet de stabiliser le temps de convergence d'une topologie décentralisée et non structurée indépendamment de la taille et de la latence d'un réseau, pourvu qu' il soit fortement maillé. ______________________________________________________________________________
26

Managing VMware Virtual Infrastructure Environments

Heik, Andreas 27 January 2011 (has links) (PDF)
Der Vortrag beschreibt Stand, Entwicklung und Realisierung der Virtualisierungsinfrastruktur am Universitätsrechenzentrum der TU-Chemnitz in Form einer technischen Sicht.
27

Environnements d'exécution pour passerelles domestiques

Royon, Yvan Ubéda, Stéphane. Frénot, Stéphane. January 2008 (has links)
Thèse doctorat : Informatique : Villeurbanne, INSA : 2007. / Titre provenant de l'écran-titre. Bibliogr. p. 105-114.
28

Sécurités (immunité et innocuité) des architectures ouvertes à niveaux de criticité multiples : application en avionique

Laarouchi, Youssef 30 November 2009 (has links) (PDF)
La conception et le développement des applications critiques en avionique sont soumis à des contraintes strictes visant à assurer un niveau de confiance compatible avec les exigences de sécurité-innocuité (au sens safety) des tâches mises en Suvre. Ces contraintes induisent un accroissement considérable des coûts de production et de maintenance, ce qui rend le prix de revient de tels systèmes prohibitif. D'un autre côté, les composants sur étagère (Commercial Off-The-Shelf, COTS), matériels et logiciels, sont maintenant d'usage courant et offrent des services étendus pour un coût faible. Cependant, les COTS ne répondent pas aux contraintes d'innocuité exigées pour les tâches critiques ; de plus, ils présentent des vulnérabilités facilement exploitables par des attaques, les rendant incompatibles avec des exigences élevées de sécurité-immunité (au sens security). Il serait toutefois intéressant de profiter de tels composants dans un contexte avionique, mais en faisant en sorte qu'ils ne puissent affecter de façon préjudiciable les tâches critiques. Intégrer de tels composants dans les systèmes avioniques conduit donc à prendre en considération l'hétérogénéité des niveaux de confiance entre d'une part les applications critiques classiques, et d'autre part de nouvelles applications utilisant des composants sur étagère. Dans le cadre de cette thèse, nous proposons une architecture autorisant de telles interactions tout en préservant les propriétés de safety et security. La définition de cette architecture s'appuie sur le modèle Totel, et elle utilise la virtualisation afin de faciliter la mise en Suvre des mécanismes de tolérance aux fautes destinés à augmenter la crédibilité d'une application exécutée de façon répliquée sur des plateformes d'exécution COTS de niveau de confiance faible. Afin de valider notre approche, nous avons réalisé un prototype en nous appuyant sur deux cas d'étude identifiés avec Airbus et concernant tous deux des ordinateurs portables : un dédié à la maintenance et un au calcul du profil de décollage d'un avion.
29

Virtualisation des réseaux : performance, partage et applications

Fabienne, Anhalt 07 July 2011 (has links) (PDF)
La virtualisation apparait comme étant une solution clé pour révolutionner l'architecture des réseaux comme Internet. La croissance et le succès d'Internet ont fini par aboutir a' son ossification : le déploiement de nouvelles fonctionnalités ou la mise a jour de son architecture ne sont guère possibles, entravant ainsi les innovations. La virtualisation apporte une réponse a cette problématique, en ajoutant une couche d'abstraction entre le matériel et le réseau tel qu'il est vu par les utilisateurs. De tels réseaux virtuels peuvent être gérés et configures de manière flexible et indépendamment les uns des autres, par des opérateurs différents. Ceci crée donc un environnement compétitif qui stimule l'innovation. En étant dématérialisés de cette façon, les réseaux peuvent être déployés a la demande, configures, démarrés, suspendus, sauvegardes, supprimes, etc., comme un en- semble d'objets eux-mêmes programmables, organisées dans une topologie, où chaque objet représente un commutateur, un routeur ou un lien virtuel. La flexibilité qui en résulte donne a l'opérateur la possibilité de configurer la topologie du réseau, et de modifier les piles protocolaires. Parvenir à un tel degré de découplage, permettant d'aboutir a' des changements fondamentaux, est l'un des buts ultimes de la virtualisation des réseaux-- qui est envisagée comme une cl e pour le 'futur' de l'Internet--mais le concept est pour l'instant loin d'être réalisé. Jusqu'à' présent, la virtualisation du réseaux a été déployée dans des plateformes de test ou de recherche, pour permettre aux chercheurs d'expérimenter avec les protocoles de routage, notamment dans les réseaux interconnectant des nœuds de calcul, eux-mêmes virtuels. L'industrie propose des routeurs virtuels pour la consolidation des réseaux afin de réduire les coûts des équipements. Pourtant, dans le but d'introduire la virtualisation dans les réseaux de production comme ceux de l'Internet, plusieurs nouveaux défis apparaissent. La couche supplémentaire interposée entre le matériel et les réseaux virtuels doit prendre en charge le partage des ressources physiques entre les différents réseaux virtuels. Elle introduit potentiellement un surcoût en performance. Dans ce manuscrit, nous nous concentrons sur ces problématiques, en particulier la performance et le partage dans les réseaux virtualises. Ces deux questions sont particulièrement pertinentes, lorsque le plan de données du réseau lui-même est virtualise, pour offrir un maximum d'isolation et de configurabilité dans des réseaux virtuels. Puis, nous examinons les possibles applications des réseaux virtuels, partageant le réseau physique au niveau du plan de données. Dans ce contexte, les contributions présentées dans ce manuscrit peuvent être résumées de la manière suivante. Analyse et évaluation de l'impact des mécanismes de virtualisation sur la performance des communications. Afin d' évaluer l'impact de la virtualisation sur les performances d'un réseau virtualise, nous analysons d'abord différentes technologies qui permettent de virtualiser le plan de données. Puis nous construisons un prototype de routeur virtuel en utilisant des techniques logicielles de virtualisation. La performance réseau d'un tel routeur virtuel est évaluée en détail, en utilisant des configurations logicielles différentes [7] [9] [2]. Les résultats montrent que la performance des communications des serveurs virtuels a augmente durant les dernières années, pour atteindre jusqu'à' 100% du débit maximum sur des interfaces réseau de 1 Gb/s, grâce aux optimisations logicielles. La virtualisation en logiciel est donc une approche prometteuse pour l'expérimentation, mais pour un réseau de production tel qu'Internet, du matériel dédié est requis, pour atteindre de très hauts débits (> 10 Gb/s). Virtualisation de la matrice de commutation. Nous proposons une architecture de commutation virtualisée, qui permet de partager les ressources matérielles d'un commutateur de manière flexible entre plusieurs commutateurs virtuels [5]. Cette architecture de switch virtualisée permet a' des utilisateurs de mettre en place des commutateurs virtuels, instancies au dessus du commutateur physique, chaque commutateur ayant un nombre de ports configurable. De plus, la capacité par port et la taille des tampons mémoire peuvent être dimensionnées. En outre, chaque commutateur virtuel peut disposer de mécanismes d'ordonnancement et de mise en file d'attente de paquets différents. Un ordonnanceur de commutateurs virtuels contrôle le partage des ressources matérielles entre les commutateurs virtuels et assure l'isolation des performances. L'architecture proposée est évaluée par des simulations. Un brevet a été déposé pour cette architecture [VxSwitch]. Isolation et programmation de r eseaux virtuels. Etant virtualisées, les ressources réseau sont partagées par des réseaux virtuels différents. Pour contrôler la quantité de chaque ressource qui est attribuée à chaque réseau virtuel, nous proposons un service de réseaux virtuels. Ce service consiste en l'interconnexion de nœuds par un réseau virtuel, compose de routeurs et de liens virtuels. Les routeurs peuvent être configures afin que chaque réseau virtuel puisse contrôler quel chemin est utilise par son trafic. La bande passante peut être allouée dynamiquement aux liens virtuels. Les ressources physiques sous-jacentes vérifient que chaque lien virtuel fournit la bande passante configurée et qu'il assure un niveau de service garanti [1]. Ce service est implémenté de deux façons. En premier lieu, des routeurs virtuels logiciels interconnectes par des liens virtuels sont utilises [HIPerNet]. Puis, des routeurs et liens virtuels sont crées en utilisant des commutateurs OpenFlow. Des évaluations montrent qu'avec chacune des deux approches, des garanties en termes de bande passante, ainsi que des fonctions de configuration du routage peuvent être fournies a' chaque réseau virtuel. Application des réseaux virtuels. Finalement, le service de réseaux virtuels est applique au contexte des infrastructures virtuelles généralisées, combinant la virtualisation du réseau et des nœuds de calcul. Les utilisateurs peuvent demander une infrastructure virtuelle de calcul, dont les ressources sont interconnectées par un réseau virtuel contrôle. Cette approche est prometteuse pour les réseaux du Cloud ou nuage en français. Nous déployons un tel service dans la plateforme de test Grid'5000, et l'évaluons en utilisant une application distribuée à grande échelle [6]. Les résultats montrent que la configuration de niveaux de service réseau différents impacte directement le temps d'exécution de l'application [3] [12]. Nous validons donc l'importance du contrôle et de l'isolation dans les réseaux virtuels, dans le but de fournir des performances prévisibles a des applications Cloud.
30

Resource based analysis of Ethernet communication between software partitions

Chiru, Cezar January 2015 (has links)
Nowadays, Industrial Control Systems (ICSs) are becoming larger and implement more complex functions. Therefore, technologies that are currently used to implement these functions, like hardware platforms and communication protocols might soon become unusable due to the lack of resources. The industry is trying to adopt new technologies that will allow these functionalities to be developed without an increase in the size of the equipment, or of the development costs. To enumerate some of these technologies: virtualization, multi-core technologies are the ones that show the biggest potential. Because these technologies are not mature, research has to be done in order to fully maximize their potential. Another technology that is highly used by the industry is the Ethernet communication protocol. It presents some advantages, but due to the non-real-time nature of the applications that it was designed for, it has to be extended in order to be used in real-time applications. The objective of this thesis work is to model an Ethernet network comprised of software partitions so that it can provide timing guarantees for the traffic that traverses the network. A Response Time Analysis for real-time flows over such networks is proposed. The model and the RTA are evaluated by experiments.

Page generated in 0.1026 seconds