• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 286
  • 255
  • 81
  • 1
  • Tagged with
  • 623
  • 623
  • 623
  • 623
  • 623
  • 623
  • 114
  • 77
  • 67
  • 64
  • 48
  • 47
  • 39
  • 36
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Système d'Administration Autonome Adaptable: application au Cloud

Tchana, Alain 29 November 2011 (has links) (PDF)
Ces dernières années ont vu le développement du cloud computing. Le principe fondateur est de déporter la gestion des services informatiques des entreprises dans des centres d'hébergement gérés par des entreprises tiers. Ce déport a pour principal avantage une réduction des coûts pour l'entreprise cliente, les moyens nécessaires à la gestion de ces services étant mutualisés entre clients et gérés par l'entreprise hébergeant ces services. Cette évolution implique la gestion de structures d'hébergement à grande échelle, que la dimension et la complexité rendent difficiles à administrer. Avec le développement des infrastructures de calcul de type cluster ou grilles ont émergé des systèmes fournissant un support pour l'administration automatisée de ces environnements. Ces systèmes sont désignés sous le terme Systèmes d'Administration Autonome (SAA). Ils visent à fournir des services permettant d'automatiser les tâches d'administration comme le déploiement des logiciels, la réparation en cas de panne ou leur dimensionnement dynamique en fonction de la charge. Ainsi, il est naturel d'envisager l'utilisation des SAA pour l'administration d'une infrastructure d'hébergement de type cloud. Cependant, nous remarquons que les SAA disponibles à l'heure actuelle ont été pour la plupart conçus pour répondre aux besoins d'un domaine applicatif particulier. Un SAA doit pouvoir être adapté en fonction du domaine considéré, en particulier celui de l'administration d'un cloud. De plus, dans le domaine du cloud, différents besoins doivent être pris en compte : ceux de l'administrateur du centre d'hébergement et ceux de l'utilisateur du centre d'hébergement qui déploie ses applications dans le cloud. Ceci implique qu'un SAA doit pouvoir être adapté pour répondre à ces besoins divers. Dans cette thèse, nous étudions la conception et l'implantation d'un SAA adaptable. Un tel SAA doit permettre d'adapter les services qu'il offre aux besoins des domaines dans lesquels il est utilisé. Nous montrons ensuite comment ce SAA adaptable peut être utilisé pour l'administration autonome d'un environnement de cloud.
152

The versatility of using explanations within constraint programming

Jussien, Narendra 18 September 2003 (has links) (PDF)
La programmation par contraintes est un sujet de recherche qui tire profit de nombreuses autres disciplines : mathématiques discrètes, analyse numérique, intelligence artificielle, recherche opérationnelle et calcul formel. Elle a prouvé son intérêt et son efficacité dans de nombreux domaines : optimisation combinatoire, ordonnancement, finance, simulation et synthèse de composants, diagnostic de panne, biologie moléculaire, ou encore problèmes géométriques. Néanmoins, un certain nombre de limitations et de difficultés ont été identifiées dans le domaine : conception d'algorithmes génériques et stables, traitement des problèmes dynamiques, accessibilité des concepts et des outils, ...<br /><br />Dans ce document, nous plaidons pour l'utilisation de la notion d'explication au sein de la programmation par contraintes. Notre but est double : non seulement présenter un tableau général des explications (définition, génération et utilisations) mais aussi montrer comment leur utilisation permet de contribuer à lever certains des problèmes ouverts en programmation par contraintes. Nous présentons aussi une démarche générale de résolution de problème dans un environnement expliqué. Enfin, nous montrons comment ce nouveau sujet semble promis à un bel avenir.
153

Testabilité des services Web

Rabhi, Issam 09 January 2012 (has links) (PDF)
Cette thèse s'est attaquée sous diverses formes au test automatique des services Web : une première partie est consacrée au test fonctionnel à travers le test de robustesse. La seconde partie étend les travaux précédents pour le test de propriétés non fonctionnelles, telles que les propriétés de testabilité et de sécurité. Nous avons abordé ces problématiques à la fois d'un point de vue théorique et pratique. Nous avons pour cela proposé une nouvelle méthode de test automatique de robustesse des services Web non composés, à savoir les services Web persistants (stateful) et ceux non persistants. Cette méthode consiste à évaluer la robustesse d'un service Web par rapport aux opérations déclarées dans sa description WSDL, en examinant les réponses reçues lorsque ces opérations sont invoquées avec des aléas et en prenant en compte l'environnement SOAP. Les services Web persistants sont modélisés grâce aux systèmes symboliques. Notre méthode de test de robustesse dédiée aux services Web persistants consiste à compléter la spécification du service Web afin de décrire l'ensemble des comportements corrects et incorrects. Puis, en utilisant cette spécification complétée, les services Web sont testés en y intégrant des aléas. Un verdict est ensuite rendu. Nous avons aussi réalisé une étude sur la testabilité des services Web composés avec le langage BPEL. Nous avons décrit précisément les problèmes liés à l'observabilité qui réduisent la faisabilité du test de services Web. Par conséquent, nous avons évalué des facteurs de la testabilité et proposé des solutions afin d'améliorer cette dernière. Pour cela, nous avons proposé une approche permettant, en premier lieu, de transformer la spécification ABPEL en STS. Cette transformation consiste à convertir successivement et de façon récursive chaque activité structurée en un graphe de sous-activités. Ensuite, nous avons proposé des algorithmes d'améliorations permettant de réduire ces problèmes de testabilité. Finalement, nous avons présenté une méthode de test de sécurité des services Web persistants. Cette dernière consiste à évaluer quelques propriétés de sécurité, tel que l'authentification, l'autorisation et la disponibilité, grâce à un ensemble de règles. Ces règles ont été crée, avec le langage formel Nomad. Cette méthodologie de test consiste d'abord à transformer ces règles en objectifs de test en se basant sur la description WSDL, ensuite à compléter, en parallèle, la spécification du service Web persistant et enfin à effectuer le produit synchronisé afin de générer les cas de test.
154

Un codage réseau contraint pour les réseaux de capteurs sans fil

Salhi, Ismail 04 April 2012 (has links) (PDF)
Les réseaux de communication inter-machines font partie des grandes évolutions de l'informatique contemporaine. Ces réseaux évolutifs promettent une nouvelle gamme de services et une meilleure connaissance du monde qui nous entoure. Pourtant, ils subissent plusieurs limitations de par la nature même des nœuds qui les composent : un débit faible et une fiabilité réduite dues aux contraintes en termes de capacité de calcul et de mémoire, une durée de vie limitée, ainsi que des délais non bornés souvent causés par des taux de perte élevés. Ces mêmes problématiques constituent, depuis une quinzaine d'années, un frein au déploiement à large échelle des réseaux de capteurs dans le monde réel. De récents développements dans la théorie de l'information sont finalement en train de bouleverser l'ordre établi, donnant naissance à une nouvelle approche connue sous le nom de théorie du codage réseau. Cette nouvelle façon d'acheminer l'information transforme les méthodes d'exploitation, de gestion et même la compréhension des réseaux de communications actuels et futurs. C'est dans ce contexte, que nous proposons dans cette thèse d'étudier l'impact, les bénéfices et la faisabilité du codage réseau dans les réseaux de capteurs sans fil. L'objectif étant de montrer l'intérêt d'exploiter ses concepts pour les différents paradigmes propres aux réseaux inter-machines en général, et aux réseaux de capteurs en particulier. Il s'agit dans un premier temps d'évaluer les apports prospectifs du codage réseau, qu'il soit linéaire ou opportuniste, strictement en termes de performances (i.e., latence et débit). Dans une seconde partie, nous poursuivrons notre étude en traitant de l'impact du codage réseau sur la fiabilité des réseaux de capteurs, ces derniers étant caractérisés par l'absence de mécanismes de contrôle de flux de bout-en-bout. Dans une dernière contribution, nous explorons la faisabilité dans une plateforme réelle, d'un mécanisme de codage réseau contraint spécifiquement conçu pour les réseaux à faible débit. Ce code opportuniste, est centré sur l'optimisation mémoire et l'efficacité énergétique. Il permet à la fois, d'améliorer les performances du réseau mais aussi sa fiabilité. De manière plus générale, cette thèse se présente comme une réponse à la question : " Quel type de codage, pour quels réseaux de capteurs ? " Elle ne prétend pas être l'unique réponse, mais propose néanmoins des briques théoriques et technologiques qui illustrent à la fois, la faisabilité du codage réseau dans les réseaux contraints, mais aussi la nécessité de l'adapter à leurs critères
155

Un cadre générique de découverte de motifs sous contraintes fondées sur des primitives

Soulet, Arnaud 13 November 2006 (has links) (PDF)
La découverte de motifs est une tâche centrale pour<br />l'extraction de connaissances dans les bases de données. Cette thèse<br />traite de l'extraction de motifs locaux sous contraintes. Nous<br />apportons un éclairage nouveau avec un cadre combinant des primitives<br />monotones pour définir des contraintes quelconques. La variété de ces<br />contraintes exprime avec précision l'archétype des motifs recherchés<br />par l'utilisateur au sein d'une base de données. Nous proposons alors<br />deux types d'approche d'extraction automatique et générique malgré les<br />difficultés algorithmiques inhérentes à cette tâche. Leurs efficacités<br />reposent principalement sur l'usage de conditions nécessaires pour<br />approximer les variations de la contrainte. D'une part, des méthodes<br />de relaxations permettent de ré-utiliser les nombreux algorithmes<br />usuels du domaines. D'autre part, nous réalisons des méthodes<br />d'extraction directes dédiées aux motifs ensemblistes pour les données<br />larges ou corrélées en exploitant des classes d'équivalences. Enfin,<br />l'utilisation de nos méthodes ont permi la découverte de phénomènes<br />locaux lors d'applications industrielles et médicales.
156

Un algorithme de fouille de données générique et parallèle pour architecture multi-coeurs

Negrevergne, Benjamin 29 November 2011 (has links) (PDF)
Dans le domaine de l'extraction de motifs, il existe un grand nombre d'algorithmes pour résoudre une large variété de sous problèmes sensiblement identiques. Cette variété d'algorithmes freine l'adoption des techniques d'extraction de motifs pour l'analyse de données. Dans cette thèse, nous proposons un formalisme qui permet de capturer une large gamme de problèmes d'extraction de motifs. Pour démontrer la généralité de ce formalisme, nous l'utilisons pour décrire trois problèmes d'extraction de motifs : le problème d'extraction d'itemsets fréquents fermés, le problème d'extraction de graphes relationnels fermés ou le problème d'extraction d'itemsets graduels fermés. Ce formalisme nous permet de construire ParaMiner qui est un algorithme générique et parallèle pour les problèmes d'extraction de motifs. ParaMiner est capable de résoudre tous les problèmes d'extraction de motifs qui peuvent ˆtre décrit dans notre formalisme. Pour obtenir de bonne performances, nous avons généralisé plusieurs optimisations proposées par la communauté dans le cadre de problèmes spécifique d'extraction de motifs. Nous avons également exploité la puissance de calcul parallèle disponible dans les archi- tectures parallèles. Nos expériences démontrent qu'en dépit de la généricité de ParaMiner ses performances sont comparables avec celles obtenues par les algorithmes les plus rapides de l'état de l'art. Ces algorithmes bénéficient pourtant d'un avantage important, puisqu'ils incorporent de nombreuses optimisations spécifiques au sous problème d'extraction de motifs qu'ils résolvent.
157

Using MapReduce to scale event correlation discovery for process mining

Reguieg, Hicham 19 February 2014 (has links) (PDF)
The volume of data related to business process execution is increasing significantly in the enterprise. Many of data sources include events related to the execution of the same processes in various systems or applications. Event correlation is the task of analyzing a repository of event logs in order to find out the set of events that belong to the same business process execution instance. This is a key step in the discovery of business processes from event execution logs. Event correlation is a computationally-intensive task in the sense that it requires a deep analysis of very large and growing repositories of event logs, and exploration of various possible relationships among the events. In this dissertation, we present a scalable data analysis technique to support efficient event correlation for mining business processes. We propose a two-stages approach to compute correlation conditions and their entailed process instances from event logs using MapReduce framework. The experimental results show that the algorithm scales well to large datasets.
158

Vers le futur Internet d'objets au travers d'une optimisation inter-couches des protocoles standardisés

Pavkovic, Bogdan 18 December 2012 (has links) (PDF)
Le paradigme d'Internet des objets (IdO) envisage d'augmenter l'Internet actuel avec un grand nombre de dispositifs intelligents communicants. Les réseaux de capteurs sans fil (RCsF) déploient les appareils fonctionnant sur les approvisionnements énergétiques maigres et mesurent les phénomènes environnementaux (comme la température, la radioactivité, ou CO2). Les applications populaires de réseaux de capteurs sans fil comprennent la surveillance, la télémétrie et la prévention des catastrophes naturelles. Les majeurs défis de réseaux de capteurs consistent à: comment obtenir l'efficacité énergétique? Comment surmonter les déficiences de support sans fil? et comment les faire fonctionner d'une manière auto-organisée? L'intégration de réseaux de capteurs dans IoD s'appuiera sur un ensemble de standards ouverts qui s'efforcent d'offrir le passage à l'échelle, la fiabilité dans une variété des conditions, et les scénarios d'exploitation. Néanmoins, les standards dans leur état actuel ont des problèmes d'interopérabilité et peuvent bénéficier de nouvelles améliorations. Les contributions de la thèse sont les suivantes: * Nous avons mené une analyse expérimentale et identifié les caractéristiques d'un environnement de réseau de capteurs. Notre analyse a porté sur la modélisation des liens et la dynamique du réseau, ainsi que la corrélation des liens avec les paramètres environnementaux. L'étude analytique nous a permis d'identifier les principales faiblesses de l'environnement du RCsF et a permis aussi d'obtenir une meilleure compréhension de la dynamique de lien radio et le voisinage des nœuds. * Nous avons confrontés la question de l'interopérabilité des deux principaux standards - IEEE 802.15.4 dans la couche de contrôle d'accès au medium, et RPL dans la couche de transport. Nous proposons d'adapter la structure originale de cluster tree et de construire un framework élégant, qui permettra le fonctionnement conjoint de l'IEEE 802.15.4 et RPL sans l'apparition des collisions. En outre, nous évaluons à travers de nombreuses simulations les deux algorithmes distribués d'attribution de slots. Ces algorithmes permettront d'atteindre un fonctionnement presque sans collisions. * Nous proposons une solution inter-couche distribuée dans le but de construire une topologie afin que IEEE 802.15.4 et RPL puissent fonctionner ensemble. Notre algorithme auto-organisé obtient une structure topologique obéissante aux recommandations globales, cela, par la seule utilisation des métriques mesurées localement. De nombreuses simulations démontrent les avantages de la structure résultante en termes de convergence de temps, de stabilité, et d'efficacité énergétique dans le long terme. Les simulations démontrent aussi un impact positif sur les performances de routage. * Nous proposons un ensemble de nouveaux mécanismes qui permettront d'améliorer les performances de RPL et d'utiliser la Qualité de Service pour gérer les problèmes de trafic sensible. Notre extension de routage opportuniste et multi-chemin contribue à améliorer la livraison des paquets avant une date limite, tout en minimisant le surcout et la consommation d'énergie par rapport à la version de base de RPL.
159

Vers une modélisation et un dimensionnement automatique des systèmes répartis

Harbaoui, Ahmed 21 October 2011 (has links) (PDF)
De nos jours, les systèmes distribués sont caractérisés par une complexité croissante de l'architecture, des fonctionnalités et de la charge soumise. Cette complexité induit souvent une perte de la qualité de service offerte, ou une saturation des ressources, voire même l'indisponibilité des services en ligne, en particulier lorsque la charge est importante. Afin d'éviter les désagrèments causés par d'importantes charges et remplir le niveau attendu de la qualité de service, les systèmes nécessitent une auto-gestion, en optimisant par exemple un tier ou en le renforçant à travers la réplication. Cette propriété autonome requiert une modélisation des performances de ces systèmes. Visant cet objectif, nous développons un framework basé sur une méthodologie théorique et expérimentale d'identification automatique de modèle et de dimensionnement, fournissant en premier un modèle de réseau de file d'attente pour un système distribué. Ensuite, ce Modèle est utilisé au sein de notre framwork pour dimensionner le système à travers une analyse ou une simulation du réseau de file d'attente.
160

Capacités audiovisuelles en robot humanoïde NAO

Sanchez-Riera, Jordi 14 June 2013 (has links) (PDF)
Dans cette thèse nous avons l'intention d'enquêter sur la complémentarité des données auditives et visuelles sensorielles pour la construction d'une interprétation de haut niveau d'une scène. L'audiovisuel (AV) d'entrée reçus par le robot est une fonction à la fois l'environnement extérieur et de la localisation réelle du robot qui est étroitement liée à ses actions. La recherche actuelle dans AV analyse de scène a eu tendance à se concentrer sur les observateurs fixes. Toutefois, la preuve psychophysique donne à penser que les humains utilisent petite tête et les mouvements du corps, afin d'optimiser l'emplacement de leurs oreilles à l'égard de la source. De même, en marchant ou en tournant, le robot mai être en mesure d'améliorer les données entrantes visuelle. Par exemple, dans la perception binoculaire, il est souhaitable de réduire la distance de vue à un objet d'intérêt. Cela permet à la structure 3D de l'objet à analyser à une profondeur de résolution supérieure.

Page generated in 0.0624 seconds