• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 16
  • 4
  • 2
  • Tagged with
  • 22
  • 10
  • 10
  • 9
  • 8
  • 6
  • 5
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Protection obligatoire des serveurs d'applications Web : application aux processus métiers

Fonda, Maxime 21 May 2014 (has links) (PDF)
Dans cette thèse, nous nous intéressons au contrôle d'accès obligatoire dans les serveurs d'applications Web. Nous présentons une approche de protection obligatoire fondée sur un modèle abstrait d'applications Web. Les modèles d'applications Web existants, comme par exemple SOA peuvent être représentés par ce modèle abstrait d'application. Notre protection obligatoire s'appuie sur un langage de protection dédié permettant d'exprimer les besoins en terme de contrôle d'accès au sein d'un serveur d'application Web. Ce langage de protection utilise notre modèle d'application pour contrôler de manière efficace les accès des sujets aux objets de l'applications Web. Nous établissons également une méthode de calcul automatisé des politiques de sécurité qui facilite donc l'administration de la protection obligatoire proposée. Une implémentation sur des environnements Microsoft basés sur le serveur Web IIS et le canevas .Net est présentée. La solution est indépendante des applications Web protégées car elle repose sur l'utilisation d'un adaptateur applicatif pour s'interfacer avec n'importe quelle application. Celle-ci est fonctionnelle sur des environnements de workflow de la société QualNet ayant co-financée cette thèse. Les expérimentations menées montrent que notre protection obligatoire supporte des environnements à grande échelle et impose une élévation faible du temps de traitement, de l'ordre de 5%, qui diminue lorsque la taille des applications augmente.
12

Apports des architectures à composants pour le déploiement d'applications à la juste taille

Bouzonnet, Loris 16 September 2011 (has links) (PDF)
L'informatique dans les nuages propose une alternative économique et performante au déploiement traditionnel sur site. Une utilisation efficace des nuages passe par une diminution des ressources consommées et une adaptation du déploiement à l'environnement cible. Nous proposons, dans cette thèse, une solution pour le déploiement de logiciels à la juste taille, c'est-à-dire en ne déployant que les dépendances nécessaires sur un environnement cible. Nous suivons une définition du déploiement basée sur les architectures à composants. Le contenu et les dépendances d'un logiciel sont capturés grâce au modèle à composants Fractal SoftwareUnit. Ce modèle offre une fine granularité de la représentation, le support de l'hétérogénéité des logiciels et des environnement cibles, ainsi qu'un contrôle distribué des logiciels. Nous proposons une mise en œuvre du modèle au travers du canevas SU Framework. Enfin, nous décrivons comment résoudre deux problèmes issus de besoins industriels, à l'aide de ce canevas : la définition de profils pour le serveur d'applications JOnAS et le déploiement d'applications hétérogènes sur cibles hétérogènes.
13

Protection obligatoire des serveurs d’applications Web : application aux processus métiers / Mandatory protection of Web applications servers : usage for the workflow environments

Fonda, Maxime 21 May 2014 (has links)
Dans cette thèse, nous nous intéressons au contrôle d’accès obligatoire dans les serveurs d’applications Web. Nous présentons une approche de protection obligatoire fondée sur un modèle abstrait d’applications Web. Les modèles d’applications Web existants, comme par exemple SOA peuvent être représentés par ce modèle abstrait d’application. Notre protection obligatoire s’appuie sur un langage de protection dédié permettant d’exprimer les besoins en terme de contrôle d’accès au sein d’un serveur d’application Web. Ce langage de protection utilise notre modèle d’application pour contrôler de manière efficace les accès des sujets aux objets de l’applications Web. Nous établissons également une méthode de calcul automatisé des politiques de sécurité qui facilite donc l’administration de la protection obligatoire proposée. Une implémentation sur des environnements Microsoft basés sur le serveur Web IIS et le canevas .Net est présentée. La solution est indépendante des applications Web protégées car elle repose sur l’utilisation d’un adaptateur applicatif pour s’interfacer avec n’importe quelle application. Celle-ci est fonctionnelle sur des environnements de workflow de la société QualNet ayant co-financée cette thèse. Les expérimentations menées montrent que notre protection obligatoire supporte des environnements à grande échelle et impose une élévation faible du temps de traitement, de l’ordre de 5%, qui diminue lorsque la taille des applications augmente. / This thesis focuses on mandatory access control in Web applications server. We present a novel approach of mandatory protection based on an abstract Web application model. Existing models of Web applications such as SOA fit with our abstract model. Our mandatory protection uses a dedicated language that allows to express the security requirements of a Web application. This dedicated protection language uses our Web application model to control efficiently the accesses of the subjects to the objects of a Web application. We establish a method to automatically compute the requested security policies facilitating thus the administration of the mandatory protection. An implementation on Microsoft-based environments uses the IIS Web server and the .Net Framework. The solution is independent from the Web applications to protect since it uses an application adaptor to interface our mandatory protection with the applications. This implementation is fully running on the workflow environments from the QualNet society, that cofunded this Ph.D thesis. Experiments show that our mandatory protection supports large scale environments since the overhead is near to 5 % and decreases when the size of the application increases.
14

Etude de performances sur processeurs multicoeur : environnement d'exécution événementiel efficace et étude comparative de modèles de programmation / Performance studies on multicore processors : efficient event-driven runtime and programming models comparison

Geneves, Sylvain 05 April 2013 (has links)
Cette thèse traite des performances des serveurs de données en multi-cœur. Plus précisément nous nous intéressons au passage à l'échelle avec le nombre de cœurs. Dans un premier temps, nous étudions le fonctionnement interne d'un support d'exécution événementiel multi-cœur. Nous montrons tout d'abord que le faux-partage ainsi que les mécanismes de communications inter-cœurs dégradent fortement les performances et empêchent le passage à l'échelle des applications. Nous proposons alors plusieurs optimisations pour pallier ces comportements. Dans un second temps, nous comparons les performances en multi-cœur de trois serveurs Web chacun représentatif d'un modèle de programmation. Nous remarquons que les différences de performances observées entre les serveurs varient lorsque le nombre de cœurs augmente. Après une analyse approfondie des performances observées, nous identifions la cause de la limitation du passage à l'échelle des serveurs étudiés. Nous présentons une proposition ainsi qu'un ensemble de pistes pour lever cette limitation. / This thesis studies the performances of data servers on multicores. More precisely, we focus on the scalability with the number of cores. First, we study the internals of an event-driven multicore runtime. We demonstrate that false sharing and inter-core communications hurt performances badly, and prevent applications from scaling. We then propose several optimisations to fix these issues. In a second part, we compare the multicore performances of three Webservers, each reprensentative of a programming model. We observe that the differences between each server's performances vary as the number of cores increases. We are able to pinpoint the cause of the scalability limitation observed. We present one approach and some perspectives to overcome this limit.
15

Apports des architectures à composants pour le déploiement d'applications à la juste taille / Contribution of component architectures for deploying applications to the right size.

Bouzonnet, Loris 16 September 2011 (has links)
L'informatique dans les nuages propose une alternative économique et performante au déploiement traditionnel sur site. Une utilisation efficace des nuages passe par une diminution des ressources consommées et une adaptation du déploiement à l'environnement cible. Nous proposons, dans cette thèse, une solution pour le déploiement de logiciels à la juste taille, c'est-à-dire en ne déployant que les dépendances nécessaires sur un environnement cible. Nous suivons une définition du déploiement basée sur les architectures à composants. Le contenu et les dépendances d'un logiciel sont capturés grâce au modèle à composants Fractal SoftwareUnit. Ce modèle offre une fine granularité de la représentation, le support de l'hétérogénéité des logiciels et des environnement cibles, ainsi qu'un contrôle distribué des logiciels. Nous proposons une mise en œuvre du modèle au travers du canevas SU Framework. Enfin, nous décrivons comment résoudre deux problèmes issus de besoins industriels, à l'aide de ce canevas : la définition de profils pour le serveur d'applications JOnAS et le déploiement d'applications hétérogènes sur cibles hétérogènes. / Cloud computing offers an economical and efficient alternative to traditional deployment on site. Effective use of cloud computing goes through a reduction of resource consumption and deployment tailored to the target environment. We propose, in this thesis, a solution for deploying softwares at fair size, by considering only the necessary dependencies to a target environment. We follow a definition of deployment based on component architecture. The content and dependencies of softwares are captured through the Fractal SoftwareUnit component model. This model offers a fine granularity of representation, the support of software heterogeneity and environmental targets, just as a distributed control of software. SU Framework is an implementation of this model. Finally, we describe how to solve two problems arising from industrial needs, by using the proposed framework : définition of profiles for the JOnAS application server and deployment of heterogeneous applications on heterogeneous targets.
16

Modèles mathématiques pour la gestion off-line et on-line des changements d'outils sur une machine flexible

Privault, Caroline 20 January 1994 (has links) (PDF)
L'objet de cette thèse est l'étude d'un problème d'ordonnancement, dont le critère d'optimisation est la minimisation du nombre total de changements d'outils sur une machine flexible. Différents problèmes liés à l'outillage et pouvant constituer un obstacle au fonctionnement d'un atelier flexible sont brièvement examinés, (de la gestion de l'inventaire aux changements d'outils). Nous nous concentrons ensuite sur le problème d'ordonnancement avec gestion d'outils sur une seule machine: ce problème est NP-complet. Un premier aspect qui est la gestion off-line des outils est étudié: différents modèles sont proposés pour la minimisation des changements en fonction d'une séquence des tâches donnée. Dans ce cas, le problème est polynomial. Nous revenons ensuite au problème d'ordonnancement proprement dit, pour lequel plusieurs types de méthodes heuristiques sont décrites et comparées. La seconde partie du travail est consacrée à la gestion on-line des changements d'outils; elle se compose de deux chapitres: dans le premier, le modèle que nous allons utiliser est décrit en détail. Il s'agit de la modélisation des problèmes de k-serveurs. Le principe peut être résumé comme suit: sur un réseau de n clients potentiels, on dispose de k serveurs mobiles, avec lesquels on doit répondre on-line aux demandes unitaires et successives des clients, tout en optimisant les déplacements des serveurs. Ce problème est en étroite relation avec la gestion des mémoires en informatique. Dans le dernier chapitre, le modèle des k-serveurs «classique» est généralisé aux problèmes avec service par blocs de demandes, ce qui permet d'adapter l'algorithme de partitionnement, (fortement compétitif pour le service unitaire), au cas plus général des demandes groupées. Cet algorithme dont nous étudions les propriétés et la compétitivité est applicable à la gestion on-line des changements d'outils. Il sert de base à la construction d'une heuristique d'ordonnancement avec gestion d'outils. Cette dernière méthode se révèle très efficace comparée aux précédentes
17

Méthodologie pour le Développement de Plates Formes Intégrées dédiées à la Conception en Génie Electrique

Bel Habib, Basma 13 July 2000 (has links) (PDF)
Ce travail de thèse concerne la création* d'environnements de conception intégrée en génie électrique. Cette problématique est abordée d'un point de vue méthodologique. Nous avons commencé par faire une synthèse de l'activité de conception et des outils aidant le concepteur en génie électrique. A partir de cette étude, nous avons montré le besoin d'un support informatique permettant d'automatiser partiellement l'interaction entre les outils et de réutiliser les processus de conception menés par le -concepteur. Pour 'cela, nous -avons développé le concept de Plates Formes Intégrées dédiées à la conception en génie électrique. Nous avons mis en place une démarche pour réaliser des couplages réutilisables entre les outils hétérogènes de conception permettant le transfert de paramètres. Pour l'implémentation du modèle proposé, nous avons mis en oeuvre un modèle Serveur d'Objets en Java en encapsulant les logiciels de Conception dans des Composants. En dernière partie, nous proposons un prototype de plate forme pour la Conception Intégrée.
18

Méthodes de sélection de collections dans un environnement de recherche d'informations distribuée

Abbaci, Faïza 20 June 2003 (has links) (PDF)
Le thème de cette thèse concerne le domaine de la recherche d'information distribuée (RID). Un système de RID (SRID) de recherche d'information distribuée gère la recherche sur un ensemble de collections de documents distribuées soit sur un réseau local, soit sur un ensemble plus étendu. Un SRID se compose, en général, d'un courtier et d'un ensemble de serveurs. Chaque serveur détient une collection de documents et un système de recherche d'information qui assure la recherche dans cette collection. Le courtier représente la composante avec laquelle l'utilisateur communique. A la réception d'une requête, le courtier choisit un sous-ensemble de serveurs parmi ceux qu'il connaît, auxquels il achemine la requête. Cette opération est appelée sélection de serveurs. Nous proposons dans cette thèse trois méthodes de sélection de serveurs. Ces méthodes ne nécessitent aucune coopération des serveurs interrogés, et aucune mise à jour de données au niveau du courtier.
19

Systèmes d'accès à des ressources documentaires : vers des anté-serveurs intelligents

Le Crosnier, Hervé 21 December 1990 (has links) (PDF)
Un système documentaire est modélisé par trois fonctions : la fonction d'indexation dont on étudie les hypothèses permettant l'indexation automatique. Une fonction de traduction des questions de l'utilisateur qui permet de définir la qualité de l'interface homme-système. Une fonction de pertinence qui permet de classer les documents en fonction des besoins documentaires de l'utilisateur. On étudie dans ce cadre le modèle booléen, le modèle vectoriel, et le modèle probabiliste. On évalue les perspectives offertes par le modèle hypertexte et l'approche connexionniste en informatique documentaire. Une application pratique est étudiée : la réalisation, suivant un modèle booléen de l'interface utilisateur du catalogue de la bibliothèque scientifique de l'université de Caen. On évalue ensuite les axes de recherche nouveaux en informatique documentaire au travers de trois axes de travail : les systèmes experts, l'auto-apprentissage et les modèles de représentation. La perspective des anté-serveurs intelligents est présentée, et une liste des fonctionnalités nécessaires au succès de ce type d'intermédiaire est établie.
20

Optimization algorithms for video service delivery / Algorithmes d'optimisation de service vidéo

Abousabea, Emad Mohamed Abd Elrahman 12 September 2012 (has links)
L'objectif de cette thèse est de fournir des algorithmes d'optimisation pour l'accès aux services vidéo qu’ils soient non-gérés (Internet TV) ou gérés (IPTV). Nous étudions des statistiques récentes concernant les services vidéo non-gérés comme YouTube et nous proposons des techniques d'optimisation appropriées qui pourraient améliorer l'accès aux fichiers vidéos et réduire le coût de cet accès. En outre, l’analyse des coûts joue un rôle important dans les décisions qui concernent la mise en cache des fichiers vidéos et celles liées au choix des périodes temporelles d'hébergement de ces fichiers sur les serveurs. En ce qui concerne les services vidéo gérés appelés IPTV, nous avons mené des expériences sur une architecture ouverte IPTV-collaboration entre différents opérateurs. Ce modèle est analysé selon un critère de coût d’investissement et d'exploitation à l'intérieur de la sphère domestique. En outre, nous avons introduit une solution d’optimisation dynamique de l'arbre « minimum spanning tree » (MST) pour le service IPTV multicast. Lors d’un accès nomade, les arbres statiques pourraient être incapables de fournir le service de manière efficace vu que l'utilisation de la bande passante augmente aux côté des points de streaming (racines de la topologie). Finalement, nous étudions des mesures de sécurité fiables en streaming vidéo basées sur la méthodologie de la chaîne de hachage et nous proposons un nouvel algorithme hybride. Nous effectuons des comparaisons entre les différentes manières utilisées dans la réalisation de la fiabilité des chaînes de hachage basées sur les classifications génériques / The aim of this thesis is to provide optimization algorithms for accessing video services either in unmanaged or managed ways. We study recent statistics about unmanaged video services like YouTube and propose suitable optimization techniques that could enhance files accessing and reduce their access costs. Moreover, this cost analysis plays an important role in decision making about video files caching and hosting periods on the servers. Under managed video services called IPTV, we conducted experiments for an open-IPTV collaborative architecture between different operators. This model is analyzed in terms of CAPEX and OPEX costs inside the domestic sphere. Moreover, we introduced a dynamic way for optimizing the Minimum Spanning Tree (MST) for multicast IPTV service. In nomadic access, the static trees could be unable to provide the service in an efficient manner as the utilization of bandwidth increases towards the streaming points (roots of topologies). Finally, we study reliable security measures in video streaming based on hash chain methodology and propose a new algorithm. Then, we conduct comparisons between different ways used in achieving reliability of hash chains based on generic classifications

Page generated in 0.0488 seconds