• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 474
  • 188
  • 93
  • 17
  • 7
  • 5
  • 3
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 816
  • 743
  • 740
  • 152
  • 89
  • 87
  • 69
  • 66
  • 56
  • 56
  • 55
  • 49
  • 48
  • 48
  • 47
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

On the dynamics of active documents for distributed data management

Bourhis, Pierre 11 February 2011 (has links) (PDF)
One of the major issues faced by Web applications is the management of evolving of data. In this thesis, we consider this problem and in particular the evolution of active documents. Active documents is a formalism describing the evolution of XML documents by activating Web services calls included in the document. It has already been used in the context of the management of distributed data \cite{axml}. The main contributions of this thesis are theoretical studies motivated by two systems for managing respectively stream applications and workflow applications. In a first contribution, we study the problem of view maintenance over active documents. The results served as the basis for an implementation of stream processors based on active documents called Axlog widgets. In a second one, we see active documents as the core of data centric workflows and consider various ways of expressing constraints on the evolution of documents. The implementation, called Axart, validated the approach of a data centric workflow system based on active documents. The hidden Web (also known as deep or invisible Web), that is, the partof the Web not directly accessible through hyperlinks, but through HTMLforms or Web services, is of great value, but difficult to exploit. Wediscuss a process for the fully automatic discovery, syntacticand semantic analysis, and querying of hidden-Web services. We proposefirst a general architecture that relies on a semi-structured warehouseof imprecise (probabilistic) content. We provide a detailed complexityanalysis of the underlying probabilistic tree model. We describe how wecan use a combination of heuristics and probing to understand thestructure of an HTML form. We present an original use of a supervisedmachine-learning method, namely conditional random fields,in an unsupervised manner, on an automatic, imperfect, andimprecise, annotation based on domain knowledge, in order to extractrelevant information from HTML result pages. So as to obtainsemantic relations between inputs and outputs of a hidden-Web service, weinvestigate the complexity of deriving a schema mapping between databaseinstances, solely relying on the presence of constants in the twoinstances. We finally describe a model for the semantic representationand intensional indexing of hidden-Web sources, and discuss how toprocess a user's high-level query using such descriptions.
202

La mesure de performance dans les cartes à puce

Cordry, Julien 30 November 2009 (has links) (PDF)
La mesure de performance est utilisée dans tous les systèmes informatiques pour garantir la meilleure performance pour le plus faible coût possible. L'établissement d'outils de mesures et de métriques a permis d'établir des bases de comparaison entre ordinateurs. Bien que le monde de la carte à puce ne fasse pas exception, les questions de sécurité occupent le devant de la scène pour celles-ci. Les efforts allant vers une plus grande ouverture des tests et de la mesure de performance restent discrets. Les travaux présentés ici ont pour objectif de proposer une méthode de mesure de la performance dans les plates-formes Java Card qui occupent une part considérable du marché de la carte à puce dans le monde d'aujourd'hui. Nous étudions en détails les efforts fournis par d'autres auteurs sur le sujet de la mesure de performance et en particulier la mesure de performance sur les cartes à puce. Un grand nombre de ces travaux restent embryonnaires ou ignorent certains aspects des mesures. Un des principaux défauts de ces travaux est le manque de rapport entre les mesures effectuées et les applications généralement utilisées dans les cartes à puce. Les cartes à puce ont par ailleurs des besoins importants en termes de sécurité. Ces besoins rendent les cartes difficiles à analyser. L'approche logique consiste à considérer les cartes à puce comme des boites noires. Après l'introduction de méthodologies de mesures de performance pour les cartes à puce, nous choisirons les outils et les caractéristiques des tests que nous voulons faire subir aux cartes, et nous analyserons la confiance à accorder aux données ainsi récoltées. Enfin une application originale des cartes à puce est proposée et permet de valider certains résultats obtenus.
203

Verification formelle et optimisation de l'allocation de registres

Robillard, Benoit, Bruno 30 November 2010 (has links) (PDF)
La prise de conscience générale de l'importance de vérifier plus scrupuleusement les programmes a engendré une croissance considérable des efforts de vérification formelle de programme durant cette dernière décennie. Néanmoins, le code qu'exécute l'ordinateur, ou code exécutable, n'est pas le code écrit par le développeur, ou code source. La vérification formelle de compilateurs est donc un complément indispensable à la vérification de code source.L'une des tâches les plus complexes de compilation est l'allocation de registres. C'est lors de celle-ci que le compilateur décide de la façon dont les variables du programme sont stockées en mémoire durant son exécution. La mémoire comporte deux types de conteneurs : les registres, zones d'accès rapide, présents en nombre limité, et la pile, de capacité supposée suffisamment importante pour héberger toutes les variables d'un programme, mais à laquelle l'accès est bien plus lent. Le but de l'allocation de registres est de tirer au mieux parti de la rapidité des registres, car une allocation de registres de bonne qualité peut conduire à une amélioration significative du temps d'exécution du programme.Le modèle le plus connu de l'allocation de registres repose sur la coloration de graphe d'interférence-affinité. Dans cette thèse, l'objectif est double : d'une part vérifier formellement des algorithmes connus d'allocation de registres par coloration de graphe, et d'autre part définir de nouveaux algorithmes optimisants pour cette étape de compilation. Nous montrons tout d'abord que l'assistant à la preuve Coq est adéquat à la formalisation d'algorithmes d'allocation de registres par coloration de graphes. Nous procédons ainsi à la vérification formelle en Coq d'un des algorithmes les plus classiques d'allocation de registres par coloration de graphes, l'Iterated Register Coalescing (IRC), et d'une généralisation de celui-ci permettant à un utilisateur peu familier du système Coq d'implanter facilement sa propre variante de cet algorithme au seul prix d'une éventuelle perte d'efficacité algorithmique. Ces formalisations nécessitent des réflexions autour de la formalisation des graphes d'interférence-affinité, de la traduction sous forme purement fonctionnelle d'algorithmes impératifs et de l'efficacité algorithmique, la terminaison et la correction de cette version fonctionnelle. Notre implantation formellement vérifiée de l'IRC a été intégrée à un prototype du compilateur CompCert.Nous avons ensuite étudié deux représentations intermédiaires de programmes, dont la forme SSA, et exploité leurs propriétés pour proposer de nouvelles approches de résolution optimale de la fusion, l'une des optimisations opéréeslors de l'allocation de registres dont l'impact est le plus fort sur la qualité du code compilé. Ces approches montrent que des critères de fusion tenant compte de paramètres globaux du graphe d'interférence-affinité, tels que sa largeur d'arbre, ouvrent la voie vers de nouvelles méthodes de résolution potentiellement plus performantes.
204

Routage inter-domaine

Sarakbi, Bakr 10 February 2011 (has links) (PDF)
Internet est le réseau le plus gigantesque que l'humanité ne se soit pourvu. Il fournit un nombre important de services à plus de deux milliards d'utilisateurs. Cette topologie grandissante et complexe pêche en stabilité, ce qui peut notamment être constaté quand un appel voix est interrompu, quand une page web à besoin d'être rafraîchie, etc. L'initiateur de cette instabilité est l'ensemble des événements constatés dans l'Internet. Ceci nous motive à une Étude profonde de la stabilité d'Internet afin de suggère des solutions à cette problématique. Internet est divisé en deux niveaux de base: le niveau AS (Autonomous System) et le niveau de routage. Cette distinction se répercute dans les protocoles de routage qui contrôlent le trafic Internet à travers deux types de protocoles: extérieur (inter-AS) et intérieur (intra-AS). L'unique protocole de routage extérieur utilité est le mode externe de BGP (External Border Gateway Protocol) tandis qu'il en existe plusieurs de type intérieur. De fait, la stabilisation de l'Internet est corrélée à la stabilité des protocoles de routage. Cela pousse les efforts de traitement de l'instabilité de l'Internet à Étudier le comportement du protocole de routage (BGP). Analyser les résultats des comportements de BGP dans son mode externe (eBGP) souffre d'un temps de convergence important menant notamment à des réponses lentes des évènements de topologie et, à terme, à la perte du trafic. Les études établissent également que le mode interne de BGP (iBGP) souffre de plusieurs types d'anomalies de routage causant la divergence. Afin d'illustrer la stabilité de BGP, nous avons besoin d'un modèle de routage qui formule la procédure de décision et le flot de signalisation. De plus, les améliorations de BGP ne peuvent pas être aisément validées dans l'Internet, rendant ainsi les modèles de BGP indispensables à une validation formelle. De fait, la première étape dans l'étude du routage inter-domaine est de définir un modèle approprié permettant la formulation de ses opérations et de prouver sa correction. Nous avons proposé deux modèles complémentaires: topologique et fonctionnel, avec lesquels nous avons formulé le processus de convergence du routage et démontré la sécurité et la robustesse de nos solutions d'inter/intra-AS. Notre proposition d'inter-AS élimine les déconnections transitoires causées par une faible convergence d'eBGP en suggérant une stratégie de backup lors d'une panne. Notre proposition d'intra-AS (skeleton) donne une alternative aux configurations internes existantes, pour laquelle nous avons montré l'absence d'anomalies.
205

Architecture des services de communication dans un contexte de convergence

Bertin, Emmanuel 11 December 2009 (has links) (PDF)
Les services de communication de nouvelle génération doivent pouvoir coopérer pour répondre à des besoins spécifiques tout en gardant leur autonomie. Ceci nécessite de maîtriser leurs architectures et de partager ces architectures au sein de l'entreprise. Des cadres architecturaux communs sont alors indispensables. Après avoir fait le point des travaux sur ce sujet dans les domaines télécoms, web et IT, et après avoir discuté des enjeux de la convergence des services télécoms, nous introduisons ici quatre angles de vue (métier, fonctionnel, technique et applicatif), ainsi qu'une méthodologie pour construire des vues de référence partagées au sein d'une entreprise et des vues d'architecture propres à chaque service. Nous illustrons cette démarche à l'aide d'exemples et montrons ses applications pour construire des offres de service, pour rationnaliser les services existants et pour réaliser une convergence entre différents services.
206

ROMIE, une approche d'alignement d'ontologies à base d'instances

Elbyed, Abdeltif 16 October 2009 (has links) (PDF)
L'interoperabilite semantique est une question importante, largement identifiee dans les technologies d'organisation et de l'information et dans la communaute de recherche en systemes d'information. L'adoption large du Web afin d'acceder a des informations distribuees necessite l'interoperabilite des systemes qui gerent ces informations. Des solutions et reflexions comme le Web Semantique facilitent la localisation et l'integration des donnees d'une maniere plus intelligente par l'intermediaire des ontologies. Il offre une vision plus semantique et comprehensible du web. Pourtant, il souleve un certain nombre de defis de recherche. Un des principaux defis est de comparer et aligner les differentes ontologies qui apparaissent dans des taches d'integration. Le principal objectif de cette these est de proposer une approche d'alignement pour identifier les liens de correspondance entre des ontologies. Notre approche combine les techniques et les methodes d'appariement linguistiques, syntaxiques, structurelles ou encore semantiques (basees sur les instances). Elle se compose de deux phases principales : la phase d'enrichissement semantique des ontologies a comparer et la phase d'alignement ou de mapping. La phase d'enrichissement est basee sur l'analyse des informations que les ontologies developpent (des ressources web, des donnees, des documents, etc.) et qui sont associes aux concepts de l'ontologie. Notre intuition est que ces informations ainsi que les relations qui peuvent exister entre elles participent a l'enrichissement semantique entre les concepts. A l'issue de la phase d'enrichissement, une ontologie contient plus de relations semantiques entre les concepts qui seront exploitees dans la deuxieme phase. La phase de mapping prend deux ontologies enrichies et calcule la similarite entre les couples de concepts. Un processus de filtrage nous permet de reduire automatiquement le nombre de fausses relations. La validation des correspondances est un processus interactif direct (avec un expert) ou indirect (en mesurant le degre de satisfaction de l'utilisateur). Notre approche a donne lieu a un systeme de mapping appele ROMIE (Resource based Ontology Mapping within an Interactive and Extensible environment). Il a ete experimente et evalue dans deux differentes applications : une application biomedicale et une application dans le domaine de l'apprentissage enrichi par les technologies (ou e-learning).
207

Approche d'assistance aux auteurs pour la réutilisation d'objets d'apprentissage

Farhat, Ramzi 17 December 2010 (has links) (PDF)
Cette thèse se situe dans le domaine de la création de contenus pédagogiques par une approche basée sur une structuration à base d'objets d'apprentissage et leur réutilisation au sein d'objets plus complexes. Les modèles récents d'objets pédagogiques comme SCORM ou SIMBAD permettent aux auteurs de construire de nouveaux objets par assemblage d'objets existants. La difficulté pour les auteurs est de concevoir de tels objets en maitrisant la complexité de la composition et en pouvant garantir un haut niveau de qualité, y compris pédagogique. Nous proposons dans ce travail une approche d'assistance aux auteurs basée sur un ensemble d'outils d'analyse permettant de mieux qualifier l'objet composé et d'en vérifier la conformité. Ces analyses portent tant sur le contenu de l'objet, ses métadonnées notamment celles issues de la norme LOM, que sur la structure de composition elle-même. L'objectif est de générer une cartographie détaillée sur l'objet en question. Il s'agit d'offrir à l'auteur des indicateurs divers et variés qui vont lui permettre d'avoir une meilleur vue sur les différentes facettes de l'objet d'apprentissage en cours de conception. En particulier, il aura une analyse de la vue système et de la vue apprenant. Une fois que l'analyse est satisfaisante, des métadonnées complémentaires sont calculées automatiquement par notre environnement en se basant sur les métadonnées éducatives des objets utilisés dans la composition de l'objet. La composition d'un objet peut être guidée par des règles de conformité. Celles-ci permettent de décrire certains critères structurels et sémantiques recherchés. Cette approche offre ainsi un moyen pour la promotion de la réutilisation des objets d'apprentissage. Elle offre le support théorique et les éléments pratiques permettent de rendre la composition par réutilisation pleinement sous contrôle de l'auteur et capable de produire par conséquence des objets d'apprentissage respectant des critères de qualité.
208

Empirical analysis of wireless sensor networks

Gupta, Ashish 10 September 2010 (has links) (PDF)
Wireless sensor networks are the collection of wireless nodes that are deployed to monitor certain phenomena of interest. Once the node takes measurements it transmits to a base station over a wireless channel. The base station collects data from all the nodes and do further analysis. To save energy, it is often useful to build clusters, and the head of each cluster communicates with the base station. Initially, we do the simulation analysis of the Zigbee networks where few nodes are more powerful than the other nodes. The results show that in the mobile heterogeneous sensor networks, due to phenomenon orphaning and high cost of route discovery and maintenance, the performance of the network degrades with respect to the homogeneous network. The core of this thesis is to empirically analyze the sensor network. Due to its resource constraints, low power wireless sensor networks face several technical challenges. Many protocols work well on simulators but do not act as we expect in the actual deployments. For example, sensors physically placed at the top of the heap experience Free Space propagation model, while the sensors which are at the bottom of the heap have sharp fading channel characteristics. In this thesis, we show that impact of asymmetric links in the wireless sensor network topology and that link quality between sensors varies consistently. We propose two ways to improve the performance of Link Quality Indicator (LQI) based algorithms in the real asymmetric link sensor networks. In the first way, network has no choice but to have some sensors which can transmit over the larger distance and become cluster heads. The number of cluster heads can be given by Matérn Hard-Core process. In the second solution, we propose HybridLQI which improves the performance of LQI based algorithm without adding any overhead on the network. Later, we apply theoretical clustering approaches in sensor network to real world. We deploy Matérn Hard Core Process and Max-Min cluster Formation heuristic on real Tmote nodes in sparse as well as highly dense networks. Empirical results show clustering process based on Matérn Hard Core Process outperforms Max-Min Cluster formation in terms of the memory requirement, ease of implementation and number of messages needed for clustering. Finally, using Absorbing Markov chain and measurements we study the performance of load balancing techniques in real sensor networks.
209

Continuité de service dans les réseaux sans fils hétérogènes pour les applications à contrainte de temps

Boutabia, Mohammed 08 April 2011 (has links) (PDF)
La continuité de service est un élément important dans les communications mobiles. Avec la coexistence de différentes technologies d'accès au réseau et l'émergence de dispositifs mobiles avec plusieurs interfaces réseau, les fournisseurs de services doivent maintenir la communication en cours lorsque les mobiles voyagent entre des réseaux hétérogènes. Des services comme l'IPTV, vidéo à la demande ou la voix sur IP sont largement proposés par les opérateurs pour lesquels la continuité de service doit être garantie. Cette thèse est consacrée à la continuité du service pour des applications temps réel dans des réseaux hétérogènes. Nous abordons ce problème de deux perspectives: la mobilité de session et la mobilité de terminal. Bien que ces deux mécanismes aient le même but qui est d'assurer la continuité de service lors du changement de terminal ou de réseau d'accès, chaque technique a ses propres défis et contraintes. En ce qui concerne la mobilité de session, un nouveau protocole de signalisation a été proposé pour transférer la session entre les différents terminaux d'un utilisateur. Ce protocole a été conçu pour les scénarios de streaming vidéo. Son implémentation a permis la validation du protocole proposé ainsi que son évaluation. En outre, nous traitons le problème de l'adaptation des flux multimédias, notamment la renégociation des paramètres de la qualité de service puisque la session pourrait être transféré à un nouveau terminal avec des capacités différentes que le terminal d'origine. Cette renégociation peut être étendue pour couvrir le cas où certains paramètres internes sont dégradés au cours de la session dans le même terminal. Quand à la mobilité de terminal, nous proposons un mécanisme basé sur l'utilisation de la nouvelle norme IEEE802.21 et du protocole de mobilité FMIPv6. Le but de cette proposition est de réduire le délai du handover et la taille de l'espace mémoire dédiée au niveau des routeurs d'accès. En outre, une optimisation est proposée pour FMIPv6 afin de maximiser la probabilité de son mode prédictive. Dans le même contexte, la mobilité dans l'IP Multimédia Subsystem (IMS) est considéré et une solution adaptée est proposée pour répondre aux exigences de l'IMS. Enfin, nous menons une étude comparative entre les différentes variantes de Mobile IP dans le cas de handover vertical. En se basant sur cette comparaison, nous donnons quelques directives qui devraient aider à choisir le protocole le plus efficace suivant des paramètres spécifiques. Les solutions proposées et les études ont été évaluées avec des méthodes analytiques et/ou en faisant appel à des simulations.
210

Vers un protocole de routage géographique avec contention et communications coopératives pour les réseaux de capteurs

Aguilar, Teck 15 December 2010 (has links) (PDF)
Le routage dans les réseaux de capteurs, est un service essentiel qui transmet les lectures des capteurs à certains points de collecte de données dans le réseau sur la base des relais multi-saut. Cette tâche est particulièrement difficile car elle doit être réalisé d'une manière efficace au niveau de consommation de ressources et avec une quantité limitée d'informations disponible. La facilité de mise à l'échelle et l'utilisation d'information local pour fonctionner ont permis au routage géographique être considéré comme une approche prometteuse. Cependant, lors de son implémentation, certains problèmes subsistent en raison des difficultés pratiques. Dans ce travail de recherche, deux problématiques inhérentes aux protocoles de routages géographique ont été étudiés: i) Le coût associé: aux évanouissements liés aux obstacles et aux multi-trajets suivis par un signal transmis sur un canal radio, aux changements rapides des conditions physiques du canal de transmission and ii) l'administration de resources affectés à chaque noeud appartenant au réseau. Afin de résoudre ce problème, deux protocoles ont été présentés: un protocole de routage géographique avec communications coopératives, Beaconless Cooperative Geographic cross-layer protocol for ad hoc and sensor networks (CoopGeo) et un protocole de routage basé sur le principe d'extension de couverture: Relay-Aware Cooperative Routing (RACR).

Page generated in 0.0345 seconds