• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 474
  • 188
  • 93
  • 17
  • 7
  • 5
  • 3
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 816
  • 743
  • 740
  • 152
  • 89
  • 87
  • 69
  • 66
  • 56
  • 56
  • 55
  • 49
  • 48
  • 48
  • 47
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
461

CONCEPTION ET MANIPULATION DE BASES DE DONNEES DIMENSIONNELLES À CONTRAINTES

Faiza, Ghozzi 18 November 2004 (has links) (PDF)
L'accroissement du volume de données dans les systèmes d'information est de nos jours une réalité à laquelle chaque entreprise doit faire face. Notamment, elle doit permettre à ses responsables de déceler les informations pertinentes afin de prendre les bonnes décisions dans les plus brefs délais. Les systèmes décisionnels répondent à ces besoins en proposant des modèles et des techniques de manipulation des données. Dans le cadre de ces systèmes, mes travaux de thèse consistent à étudier la modélisation des données décisionnelles et à proposer un langage de manipulation adapté. Dans un premier temps, nous proposons un modèle dimensionnel organisant les données en une constellation de faits (sujets d'analyse) associés à des dimensions (axes d'analyse) pouvant être partagées. Notre modèle assure une plus grande cohérence des données par sa propriété de multi instanciations qui permet de spécifier des conditions d'appartenance des instances des dimensions aux hiérarchies. De plus, nous avons défini des contraintes exprimant des relations sémantiques entre les hiérarchies intra et inter dimensions (Inclusion, Exclusion, Totalité, Partition, Simultanéité). Au niveau de la manipulation des données, nous avons redéfini les opérateurs dimensionnels afin de permettre à l'utilisateur de mieux définir ses besoins en précisant l'ensemble des instances à analyser. Cette extension a permis d'éviter les incohérences lors de la manipulation des données dimensionnelles. Nous avons étudié également l'impact de ces contraintes sur l'optimisation des manipulations basée sur la technique de matérialisation des vues. La prise en compte des contraintes sémantiques a permis de supprimer des vues incohérentes et de réduire le nombre de vues candidates à la matérialisation. Dans un second temps, nous proposons un processus de conception d'un schéma dimensionnel comportant une démarche descendante, basée sur les besoins des décideurs, et une démarche ascendante basée sur les données sources. Une phase de confrontation, permet d'intégrer les résultats des deux démarches pour obtenir un schéma dimensionnel en constellation intégrant à la fois les besoins des décideurs et les données sources. Afin de valider nos propositions, nous avons développé un outil d'aide à la conception de schémas dimensionnels contraints intitulé GMAG (Générateur de MAGasin de données dimensionnelles).
462

Vérification et correction des spécifications B : application à l'assemblage de composants

Mouakher Abdelmoula, Inès 27 November 2010 (has links) (PDF)
Le sujet de cette thèse est l'étude de la vérification et de la correction de spécifications B dans le contexte d'une approche CBSE ("Component-Based Software Engineering"). La méthode B est reconnue comme une méthode formelle bien outillée pour développer formellement des logiciels, elle dispose du raffinement et de prouveurs permettant un développement rigoureux. L'approche CBSE consiste à développer des logiciels par assemblage de composants, elle trouve son intérêt pour des systèmes de grandes tailles. Cette thèse comprend trois contributions principales. La première est la mise en évidence de schémas de constructions B basés sur le raffinement et l'inclusion de machines B ainsi que l'étude de ces schémas pour modéliser des relations entre des Systèmes de Transitions Etiquetés (STEs). La deuxième contribution consiste en l'utilisation de deux formalismes : (i) le formalisme UML pour spécifier l'assemblage de deux interfaces (fournie et requise) et de plusieurs composants ainsi que les communications entre composants, (ii) le formalisme B pour vérifier les assemblages. La troisième contribution étudie l'aide à la correction des spécifications B à partir de l'échec de la preuve en B. Cette étude est d'abord générale et indépendante du contexte, puis elle tient compte du contexte CBSE et s'intérresse à la détection et la correction des incompatibilités : pour l'assemblage de deux interfaces, on corrige les adaptateurs en considérant les trois niveaux syntaxique, sémantique et protocole, pour l'assemblage et la coordination de plusieurs composants, on corrige les médiateurs en considérant les niveaux syntaxique et protocole.
463

Wikis sémantiques distribués sur réseaux pair-à-pair

Rahhal, Charbel 09 November 2010 (has links) (PDF)
Le Web 2.0 a montré l'importance des systèmes collaboratifs. Il a permis de transformer des internautes en écrivains du Web. De nombreux outils sociaux tels que les wikis et les blogs sont utilisés par des larges communautés produisant une grande quantité d'informations. Afin d'améliorer la recherche, la navigation et l'interopérabilité, les outils sociaux évoluent en intégrant les technologies du Web sémantique. Les wikis suivent cette tendance et évoluent vers des wikis sémantiques. L'introduction des technologies du Web sémantique dans les outils sociaux pose un certain nombre de problèmes tels que le passage à l'échelle et le support des procédés d'édition collaborative pour garantir la qualité des contenus. Dans ce manuscrit, nous adressons ces problèmes par une instanciation du modèle de réplication optimiste. Dans le cadre des wikis sémantiques, nous répliquons un nouveau type de données composé de pages wikis et d'annotations sémantiques. Nous nous plaçons dans un contexte où le nombre de répliques n'est pas connu et varie à l'exécution à l'instar des réseaux P2P. En tant que système collaboratif, un système de réplication optimiste est correct s'il respecte le modèle de cohérence CCI. Nous proposons Swooki et DSMW, deux instanciations du modèle de réplication optimiste pour les wikis sémantiques assurant la cohérence CCI sur le nouveau type de données répliqué. Swooki est le premier wiki sémantique P2P, il adresse particulièrement les problèmes de passage à l'échelle et de tolérance aux pannes. Tandis que DSMW permet de construire un réseau ami-à-ami sémantique et s'intéresse plus aux problèmes de représentation des procédés.
464

Une Approche Sécurisée pour la Délégation Dynamique de Tâches dans les Systèmes de Gestion de Workflow

Gaaloul, Khaled 05 October 2010 (has links) (PDF)
Les systèmes de gestion de workflow font maintenant partie de l'environnement classique des grandes organisations. Ces systèmes sont cependant aujourd'hui considérés comme trop rigides et de nombreux travaux ont pour but d'introduire de la flexibilité dans la modélisation et l'exécution de leurs procédés. Dans cette problématique, la prise en compte de la flexibilité organisationnelle est une étape importante. C'est à cette dernière que nous allons nous intéresser à travers un mécanisme particulier : la délégation de tâches. En effet, la délégation est un mécanisme qui permet d'obtenir une certaine flexibilité organisationnelle dans un système de gestion de workflow. Elle permet également d'assurer une forme de délégation des autorisations dans un système de contrôle d'accès. Dans ce contexte, une délégation sécurisée de tâches implique la présence d'un ensemble d'évènements de délégation et de règles définissant les possibles délégations d'autorisation ainsi que les moyens de contrôler les politiques associées. Dans ce mémoire, nous définissons une approche sécurisée pour la délégation dynamique de tâches dans les systèmes de gestion de workflow. Pour ce faire, nous identifions les évènements spécifiques du modèle de tâches correspondant à la délégation qui entrainent des changements dynamiques de la politique d'autorisation. Puis, nous montrons comment notre approche permet de contrôler dynamiquement les autorisations liées à la délégation et comment elle peut être intégrée dans les systèmes de contrôle d'accès existants. Afin de contrôler le comportement de délégation et de spécifier ses politiques d'autorisation, nous recueillons les événements pertinents qui définissent le chemin d'exécution des tâches ainsi que les politiques générées pour la délégation. Finalement, nous proposons une technique qui automatise les politiques de délégation et qui permet d'accroître la conformité des changements dus à la délégation dans la politique d'autorisation existante.
465

Etude des Interactions Temporisées dans la Composition de Services Web

Guermouche, Nawal 23 June 2010 (has links) (PDF)
L'avantage majeur qu'offrent les services Web est le fait qu'ils reposent sur des standards et les technologies du Web pour interagir en s'échangeant des messages. A part les séquences de messages, d'autres facteurs affectent l'interopérabilité des services Web, telles que les contraintes temporelles qui spécifient les délais nécessaires pour échanger des messages. La thèse rapportée dans ce manuscrit étudie l'impact de ces propriétés dans la composition de services Web. La considération de telles propriétés soulève plusieurs problèmes auxquels on a essayé d'apporter une solution. Le premier aspect consiste à définir un modèle qui tienne compte des abstractions nécessaires afin de pouvoir analyser et synthétiser une composition, à savoir les messages, les données, les contraintes de données, les propriétés temporelles et l'aspect asynchrone des communications des services. En se basant sur ce modèle, le deuxième problème consiste à proposer une approche d'analyse de compatibilité. Cette analyse vise à caractériser la compatibilité ou la non-compatibilité des services Web et ce en prenant en considération les abstractions précédemment citées. Nous étudions particulièrement l'impact des propriétés temporelles dans une chorégraphie dans laquelle les services Web supportent des communications asynchrones. Nous proposons une démarche basée sur le model checking qui permet de détecter les éventuels conflits temporisés qui peuvent surgir dans une chorégraphie. Finalement, le dernier problème auquel nous nous intéressons est celui de la construction d'une composition qui essaie de répondre au besoin du client et ce en prenant en compte les aspects temporels. L'approche que l'on propose est basée sur la génération d'un médiateur pour essayer, quand c'est possible, de contourner les incompatibilités temporisées et non-temporisées qui peuvent surgir lors d'une collaboration. Des mécanismes et des algorithmes ont été développés afin de mettre en oeuvre ces objectifs.
466

Modélisation et aide à la décision pour l'introduction des technologies RFID dans les chaînes logistiques

Sarac, Aysegul 26 April 2010 (has links) (PDF)
Les technologies RFID présentent des avantages non négligeables en comparaison aux technologies d'identification actuelles. Cependant, l'intégration de ces technologies dans les chaînes logistiques implique souvent des coûts élevés. Ainsi, les entreprises doivent conduire des analyses poussées pour évaluer l'impact des RFID sur le fonctionnement et l'économie des chaînes logistiques et décider de l'intégration ou non de ces technologies.Dans cette thèse nous nous concentrons sur la modélisation et l'analyse de l'introduction des technologies RFID dans les chaînes logistiques. Nous présentons d'abord une information générale sur les technologies RFID. Nous analysons ensuite la littérature sur l'intégration des RFID dans les chaînes logistiques en focalisant sur les défis et les avantages liés à l'intégration de ces technologies. Nous développons deux approches (analytique et par simulation) afin d'évaluer les impacts qualitatifs et quantitatifs des technologies RFID sur le fonctionnement et le profit des chaînes logistiques. Nous développons aussi une analyse du retour sur investissement (ROI), pour comparer les revenus obtenus à l'aide des technologies RFID avec les coûts associés à leur intégration. D'autre part, nous nous intéressons à l'amélioration des avantages de RFID dans les chaînes logistiques. Nous comparons les impacts de l'intégration de différentes RFID dans les chaînes logistiques par un remplacement simple des technologies d'identification actuelles et par la réorganisation des chaînes logistiques utilisant les nouvelles possibilités des technologies RFID. Les résultats obtenus dans ce travail mettent en évidence des perspectives intéressantes pour des études futures. L'originalité de cette étude est que nous comparons les impacts de plusieurs technologies RFID en les intégrant aux systèmes actuels et en reconstruisant des chaînes logistique grâce aux possibilités offertes par des technologies RFID. Notre modèle de simulation à événements discrets peut être utilisé comme un outil d'aide à la décision pour les sociétés qui visent à intégrer des technologies RFID.L'originalité de cette étude est que nous comparons les impacts de plusieurs technologies RFID en les intégrant aux systèmes actuels et en reconstruisant des chaînes logistique par les possibilités offertes par des technologies RFID. Notre simulation peut être utilisée comme un outil d'aide à la décision pour les sociétés qui considèrent l'intégration de technologies RFID.
467

Architecture Reconfigurable pour un Equipement Radio Multistandard

Alaus, Laurent 28 May 2010 (has links) (PDF)
Dans un contexte de multiplication des normes de télécommunications aux spécifications distinctes, nos travaux de recherche définissent une architecture reconfigurable pour des terminaux radio multistandard. Nous proposons ainsi une nouvelle méthode de paramétrisation intitulée "la Technique des Opérateurs Communs" afin d'accéder à la combinaison " reconfiguration temps réel/généricité du terminal". Cette technique est une méthodologie de conception et d'exécution qui vise à développer un ensemble limité d'"Opérateurs Communs" (OC), génériques, reconfigurables par simple téléchargement de paramètres, indépendants de la cible technologique d'implémentation et qui constituent les éléments de base de notre terminal multistandard. Afin d'exécuter l'ensemble du terminal multistandard, trois familles d'OC sont proposées (LFSR, FFT/VITERBI, CORDIC). Une méthodologie de gestion des OC est également présentée et une étude de di_érents cas d'implémentations est menée, permettant d'atteindre des gains en complexité jusqu'à 40% de la complexité matérielle sur une cible FPGA dans le cas d'un terminal tri-standard (IEEE 802.11, IEEE802.16 et 3GPP LTE).
468

Découverte de mappings dans un système pair-à-pair sémantique : application à SomeRDFS

Calvier, François-Élie 17 September 2010 (has links) (PDF)
La richesse des réponses aux requêtes posées aux systèmes pair-à-pair de gestion de données (PDMS) dépend du nombre de mappings entre les ontologies des différents pairs. Augmenter ce nombre permet d'améliorer les réponses aux requêtes. C'est à ce problème que nous nous intéressons dans cette thèse. Il s'agit de découvrir des liens sémantiques entre les ontologies des différents pairs du système. Ce problème, connu sous le nom d'alignement d'ontologies, est spécifique dans les systèmes pair-à-pair, au sein desquels les ontologies ne sont pas a priori complètement connues, le nombre d'ontologies à aligner est très important et l'alignement doit s'opérer en l'absence de contrôle centralisé. Nous proposons des techniques semi-automatiques pour identifier : (1) des raccourcis de mappings correspondant à une composition de mappings existants et (2) des mappings nouveaux ne pouvant être inférés en l'état actuel du système. Ces techniques sont basées sur l'exploitation des mécanismes de raisonnement des PDMS et sur des critères de filtrage restreignant le nombre de couples d'éléments à aligner. Les raccourcis de mappings sont identifiés à partir de l'analyse de la trace des requêtes posées par les utilisateurs, mais également après application de critères estimant leur utilité. La découverte de nouveaux mappings consiste à identifier les éléments de l'ontologie d'un pair donné qui permettent d'identifier des mises en correspondance jugées intéressantes puis à sélectionner les éléments de pairs distants avec lesquels il est pertinent de les aligner. Les techniques d'alignement proposées sont soit des adaptations de techniques existantes soit des techniques innovantes tirant parti des spécificités de notre cadre de travail
469

Time Sequence Summarization: Theory and Applications

Pham, Quang-Khai 09 July 2010 (has links) (PDF)
Les domaines de la médecine, du web, du commerce ou de la nance génèrent et stockent de grandes masses d'information sous la forme de séquences d'événements. Ces archives représentent des sources d'information très riches pour des analystes avides d'y découvrir des perles de connaissance. Par exemple, les biologistes cherchent à découvrir les facteurs de risque d'une maladie en analysant l'historique des patients, les producteurs de contenu web et les bureaux de marketing examinent les habitudes de consommation des clients et les opérateurs boursiers suivent les évolutions du marché pour mieux l'anticiper. Cependant, ces applications requièrent l'exploration de séquences d'événements très volumineuses, par exemple, la nance génère quotidiennement des millions d'événements, où les événements peuvent être décrits par des termes extraits de riches contenus textuels. La variabilité des descripteurs peut alors être très grande. De ce fait, découvrir des connaissances non triviales à l'aide d'approches classiques de fouille de données dans ces sources d'information prolixes est un problème dicile. Une étude récente montre que les approches classiques de fouille de données peuvent tirer prot de formes condensées de ces données, telles que des résultats d'agrégation ou encore des résumés. La connaissance ainsi extraite est qualiée de connaissance d'ordre supérieur. À partir de ce constat, nous présentons dans ces travaux le concept de résumé de séquence d'événements dont le but est d'amener les applications dépendantes du temps à gagner un facteur d'échelle sur de grandes masses de données. Un résumé s'obtient en transformant une séquence d'événements où les événements sont ordonnés chronologiquement. Chaque événement est précisément décrit par un ensemble ni de descripteurs symboliques. Le résumé produit est alors une séquence d'événements, plus concise que la séquence initiale, et pouvant s'y substituer dans les applications. Nous proposons une première méthode de construction guidée par l'utilisateur, appelée TSaR. Il s'agit d'un processus en trois phases : i) une généralisation, ii) un regroupement et iii) une formation de concepts. TSaR utilise des connaissances de domaine exprimées sous forme de taxonomies pour généraliser les descripteurs d'événements. Une fenêtre temporelle est donnée pour contrôler le processus de regroupement selon la proximité temporelle des événements. Dans un second temps, pour rendre le processus de résumé autonome, c'est- à-dire sans paramétrage, nous proposons une redénition du problème de résumé en un nouveau problème de classication. L'originalité de ce problème de classication tient au fait que la fonction objective à optimiser dépend simultanément du contenu des événements et de leur proximité dans le temps. Nous proposons deux algorithmes gloutons appelés G-BUSS et GRASS pour répondre à ce problème. Enn, nous explorons et analysons l'aptitude des résumés de séquences d'événements à contribuer à l'extraction de motifs séquentiels d'ordre supérieur. Nous analysons les caractéristiques des motifs fréquents extraits des résumés et proposons une méthodologie qui s'appuie sur ces motifs pour en découvrir d'autres, à granularité plus ne. Nous évaluons et validons nos approches de résumé et notre méthodologie par un ensemble d'expériences sur un jeu de données réelles extraites des archives d'actualités nancières produites par Reuters.
470

Autorité de certification distribuée pour des réseaux pair-à-pair structurés : modèle, mise en oeuvre et exemples d'applications

Lesueur, François 27 November 2009 (has links) (PDF)
Les systèmes pair-à-pair permettent de concevoir des systèmes de très grande taille à forte disponibilité, tout cela à faible coût. Au contraire des clients dans un système client-serveur, les pairs d'un réseau pair-à-pair jouent un rôle actif dans le fonctionnement du réseau et fournissent leur bande passante, leur puissance de calcul et leur capacité de stockage : la présence de pairs malveillants ou ne se conformant pas au comportement attendu peut rompre le service proposé. L'obtention de propriétés de sécurité dans un réseau pair-à-pair pose de nouveaux problèmes car, au contraire des systèmes actuels dans lesquels, le plus souvent, une autorité ponctuelle autorise ou non les opérations demandées, aucun pair ne doit avoir un rôle critique pour le système entier. La contribution principale de cette thèse est une autorité de certification distribuée qui permet la signature distribuée de certificats. Au contraire des autorités de certification centralisées actuellement utilisées, y compris dans des réseaux pair-à-pair, l'autorité que nous proposons est entièrement distribuée dans le réseau pair-à-pair et ce sont les pairs eux-mêmes qui prennent les décisions, par l'accord d'un pourcentage fixé d'entre eux. Nous présentons dans ce mémoire les mécanismes cryptographiques mis en œuvre ainsi que deux applications de cette autorité permettant de limiter l'attaque sybile et de nommer les utilisateurs de manière sécurisée.

Page generated in 0.0425 seconds