• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 26
  • 14
  • 9
  • Tagged with
  • 49
  • 49
  • 49
  • 49
  • 22
  • 9
  • 7
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Composition de Services Web: Une Approche basée Liens Sémantiques

Lécué, Freddy 08 October 2008 (has links) (PDF)
La composition automatisée de services Web ou le processus de formation de nouveaux services Web à plus forte valeure ajoutée est l'un des plus grand défis auxquels le Web sémantique est face aujourd'hui. La sémantique permet d'un côte de décrire les capacités des services Web mais aussi leurs processus d'exécution, d'où un élément clé pour la composition automatique de services Web. Dans cette étude de doctorat, nous nous concentrons sur la description fonctionnelle des services Web c'est-à-dire, les services sont vus comme une fonction ayant des paramètres i) d'entrée, de sortie sémantiquement annotés par des concepts d'une ontologie de domaine et ii) des conditions préalables et effets conditionnels sur le monde. La composition de services Web est alors considérée comme une composition des liens sémantiques où les lois de cause à effets ont aussi un rôle prépondérant. L'idée maîtresse est que les liens sémantiques et les lois causales permettent, au moment de l'exécution, de trouver des compatibilités sémantiques, indépendamment des descriptions des services Web. En considérant un tel niveau de composition, nous étudions tout d'abord les liens sémantiques, et plus particulièrement leurs propriétés liées à la validité et la robustesse. A partir de là et dépendant de l'expressivité des services Web, nous nous concentrons sur deux approches différentes pour effectuer la composition de services Web. Lors de la première approche, un modèle formel pour effectuer la composition automatique de services Web par le biais de liens sémantiques i.e., Matrice de liens sémantiques est introduite. Cette matrice est nécessaire comme point de départ pour appliquer des approches de recherche basées sur la régression (ou progression). Le modèle prend en charge un contexte sémantique et met l'accent sur les liens sémantiques afin de trouver des plans corrects, complets, cohérents et robustes comme solutions au problème de composition de services Web. Dans cette partie un modèle formel pour la planification et composition de services Web est présenté. Dans la seconde approche, en plus de liens sémantiques, nous considérons les lois de causalité entre effets et pré-conditions de services Web pour obtenir les compositions valides de services Web. Pour ceci, une version étendue et adaptée du langage de programmation logique Golog (ici sslGolog) est présentée comme un formalisme naturel non seulement pour le raisonnement sur les liens sémantiques et les lois causales, mais aussi pour composer automatiquement les services Web. sslGolog fonctionne comme un interprète qui prend en charge les paramètres de sortie de services pour calculer les compositions conditionnelles de services. Cette approche (beaucoup plus restrictive) suppose plus d'expressivité sur la description de service Web. Enfin, nous considérons la qualité des liens sémantiques impliqués dans la composition comme critère novateur et distinctif pour estimer la qualité sémantique des compositions calculées. Ainsi les critères non fonctionnels tels que la qualité de service(QoS) ne sont plus considérés comme les seuls critères permettant de classer les compositions satisfaisant le même objectif. Dans cette partie, nous nous concentrons sur la qualité des liens sémantiques appartenant à la composition de service Web. Pour ceci, nous présentons un modèle extensible permettant d'évaluer la qualité des liens sémantiques ainsi que leur composition. De ce fait, nous introduisons une approche fondée sur la sélection de liens sémantiques afin de calculer la composition optimale. Ce problème est formulé comme un problème d'optimisation qui est résolu à l'aide de la méthode par programmation linéaire entière. Notre système est mis en œuvre et interagit avec des services Web portant sur de scénarios de télécommunications. Les résultats de l'évaluation a montré une grande efficacité des différentes approches proposées.
32

Etude de l'influence du passage à l'échelle sur les modèles de recherche d'information

Imafouo, Amélie 06 December 2006 (has links) (PDF)
Les évolutions technologiques de ces dernières années ont entraîné une croissance exponentielle de la quantité d'information numérique disponible. La Recherche d'Information, discipline dont le cœur de métier est la manipulation de cette information est questionnée par cette croissance rapide. Les travaux présentés dans cette thèse se sont penchés sur le problème de l'influence du passage à l'échelle sur les performances des modèles de Recherche d'Information. Après un tour des travaux du domaine qui prennent en compte le passage à l'échelle, des méthodologies pour construire des espaces de recherche de tailles croissantes et dont le contenu est contrôlé sont proposées dans un premier temps; ces espaces de recherches sont utilisés pour observer les performances de divers modèles de RI en fonction de la taille des données manipulées. Dans un second temps, les travaux portent sur la proposition de métriques prenant en compte plusieurs niveaux de pertinence pour un document; la notion d'importance d'un niveau de pertinence est formalisée et la notion de gain d'information entre deux niveaux de pertinence est introduite. Ces deux notions permettent de fournir des métriques dédiées à analyser la capacité des systèmes de RI à retourner des documents en fonction de leur niveau de pertinence, au fur et à mesure que la taille de l'espace de recherche augmente.
33

Modélisation et analyse du comportement des utilisateurs exploitant des données vidéo

Mongy, Sylvain 25 November 2008 (has links) (PDF)
Nous proposons dans ce travail d'analyser le comportement des utilisateurs exploitant des données vidéo. Notre objectif est de contribuer à comprendre pourquoi et comment chacune des séquences vidéo est visionnée par les utilisateurs. Pour cela, nous présentons une approche qui combine usage intra-vidéo et usage inter-vidéo. Au niveau intra-vidéo, nous définissons le visionnage d'une vidéo comme unité de comportement. Au niveau inter-vidéo, nous introduisons la session (enchaînement des vidéos visionnées) comme unité de comportement. Un comportement intra-vidéo est modélisé par un modèle de Markov construit en utilisant les différentes actions réalisées lors des vision nages que nous regroupons à l'aide d'une nouvelle méthode de regroupement (K-models). Cette méthode est dérivée de la technique des K-moyennes adaptée à l'utilisation de modèles. Nous caractérisons ainsi plusieurs comportements type qui permettent d'estimer quelle fut l'utilité ou d'une séquence vidéo lors d'une session. Un comportement inter-vidéo est modélisé par une session. Cette session est une séquence ordonnée des vision nages des séquences vidéo. Pour regrouper ces sessions, nous proposons une technique de regroupement hiérarchique qui présente la particularité de traiter des classes représentées par plusieurs sous-séquences enrichies par les comportements intra-vidéo. Les résultats obtenus sur des ensembles de test permettent d'identifier les comportements observés et d'en tirer des suppositions sur la pertinence des vidéos. Nous proposons également un modèle d'intégration dans un moteur de recherche permettant de détecter les erreurs d'indexation et de proposer des recherches alternatives.
34

Détection de communautés dynamiques dans des réseaux temporels

Cazabet, Rémy 26 March 2013 (has links) (PDF)
La détection de communautés dans les réseaux est aujourd'hui un domaine ayant donné lieu à une abondante littérature. Depuis les travaux de Girvan et Newman en 2002, des centaines de travaux ont été menés sur le sujet, notamment la proposition d'un nombre important d'algorithmes de plus en plus élaborés. Cependant, la majorité de ces travaux portent sur des communautés statiques dans des réseaux statiques. Or, beaucoup de réseaux de terrains sont en fait dynamiques, ils évoluent au cours du temps. L'apport principal de cette thèse est donc la conception d'un algorithme de détection de communautés dynamiques sur des réseaux temporels. Le manuscrit est découpé en quatre sections : La première est un état de l'art, où sont passés en revu les méthodes existantes pour la détection de communauté, statiques, dynamiques, avec et sans recouvrement. La seconde est la présentation de la solution que nous proposons : iLCD, un framework pour la détection de communautés dynamiques dans les réseaux temporels, ainsi que deux implémentations de ce framework. La troisième partie présente les travaux effectués pour valider iLCD sur le plan statique, c'est à dire valider que les communautés trouvées sont pertinentes comparées à d'autres algorithmes existant sur des réseaux statiques. Pour ce faire, nous proposons des idées originales, afin de pouvoir comparer des méthodes sur des graphes réels. Enfin, la dernière partie est consacrée à la validation de l'aspect dynamique d'iLCD. En effet, la dynamique introduit des données supplémentaires : l'apparition et la disparition de communautés, leur évolution en continue, ainsi que des opérations complexes, telles que la fusion ou la division de communautés au cours du temps. Ce sont ces aspects qui sont validés ici, en étudiant en détail les résultats obtenus sur des réseaux réels.
35

Un intergiciel gérant des événements pour permettre l'émergence d'interactions dynamiques et ubiquitaires dans l'Internet des services

Pellegrino, Laurent 03 April 2014 (has links) (PDF)
Resource Description Framework (RDF) est devenu un modèle de données pertinentafin de décrire et de modéliser les informations qui sont partagées sur le Web.Cependant, fournir une solution permettant de stocker et de récupérer cesdonnées de manière efficace tout en passant à l'échelle reste un défi majeur.Dans le contexte de cette thèse nous proposons un intergiciel dévoué austockage, à la récupération synchrone mais aussi à la dissémination sélectiveet asynchrone en quasi temps réel d'informations RDF dans un environnementcomplètement distribué. L'objectif est de pouvoir tirer parti des informationsdu passé comme de celles filtrées en quasi temps réel. Contrairement à unegrande majorité de solutions existantes, nous avons avons fait le choixd'éviter le hachage pour indexer les données ce qui nous permet de traiter lesrequêtes à intervalles de manière efficace. Le filtrage des informations enquasi temps réel est permis par l'expression des intérêts à l'aide desouscriptions basées sur le contenu des évènements futurs. Nous avons proposédeux algorithmes qui permettent de vérifier la concordance des évènements RDFavec les souscriptions enregistrées. Les deux algorithmes ont été testésexpérimentalement. En sus de la récupération synchrone et de la diffusionasynchrone d'évènements, nous nous sommes intéressés à améliorer la répartitiondes données RDF qui souffrent de dissymétrie. Finalement, nous avons consacréun effort non négligeable à rendre notre intergiciel modulaire.
36

Un canevas pour l'adaptation et la substitution de services Web

Taher, Yehia 24 July 2009 (has links) (PDF)
Les services Web ont émergé comme un support de développement et d'intégration d'applications ou de systèmes d'information. Dans ce cadre, les interactions entre deux applications consommateur et fournisseur, encapsulées par des services Web se font par échanges de messages. Ces échanges s'appuient sur la notion d'interfaces, qui décrivent les interactions dans lesquelles un service peut s'engager et les dépendances entre ces interactions. Dans le Web actuel, il arrive très fréquemment que de nombreux services répondent à un même ensemble de besoins fonctionnels. Ces services sont souvent offerts par le biais d'interfaces différentes. Des nombreuses raisons, telles que la panne du service fournisseur, peuvent amener un consommateur à substituer son fournisseur habituel par un autre fournisseur qui offre la même fonctionnalité. Cette substitution provoque des incompatibilités entre l' interface du service consommateur et celle du service fournisseur substitut. Cela est dû au fait que le service consommateur n'a pas été fait en fonction de ce nouveau service fournisseur. Les recherches que nous menons dans cette thèse visent à résoudre le problème des incompatibilités dans des interactions entre deux services consommateur et fournisseur substitut. En particulier, notre contribution s'étend, tant sur le plan théorique que sur le plan pratique. Il s'agit d'une part d'un canevas pour la génération automatique des adaptateurs des interactions entre deux services. D'autre part, nous proposons une architecture logicielle multicouche fournissant un cadre permettant une substitution transparente et flexible d'un service fournisseur par un autre service vis-à-vis du consommateur du premier. Dans notre canevas pour la génération automatique des adaptateurs, une modélisation des interfaces de services en des automates a été adoptée. Puis, une étape de détection des incompatibilités entre ceux-ci est réalisée. Ensuite, un adaptateur des interactions entre les deux services est généré automatiquement sur la base d'incompatibilités détectées. La génération de l'adaptateur est guidée par le modèle d' automates. Cela permet de modéliser l' adaptateur indépendamment de son implémentation cible, permettant ainsi une bonne réutilisation des modèles. Une fois généré, l'automate de l'adaptateur suffisamment détaillé est projeté sur la technologie CEP (Complexe Event Processing). Cette projection est réalisée à l'aide des composants cartouches (en anglais : Templates) que nous avons mis en œuvre. Chaque cartouche étant conçue pour générer du code exécutable (en termes de requêtes continues) pour la technologie CEP. Notre architecture proposée pour la substitution de services Web s'intègre d'une part la notion de communauté de services, et d'autre part un progiciel nommé OSC (Open Service Connectivity). Une communauté de service est perçue comme un moyen d'exposer des descriptions communes d'un caractère fonctionnel désiré sans explicitement se référer à un service spécifique. L'OSC est un composant logiciel dont l'objectif est d'appliquer le principe de pilotes ODBC et JDBC dans un environnement à base de services Web. Plus précisément, il est responsable de gérer les interactions entre les consommateurs des communautés d'une part et les communautés d'autre part, en fournissant des fonctions permettant la sélection et la substitution de services.
37

Un wiki sémantique pour la gestion des connaissances décisionnelles - Application à la cancérologie

Meilender, Thomas 28 June 2013 (has links) (PDF)
Les connaissances décisionnelles sont un type particulier de connaissances dont le but est de décrire des processus de prise de décision. En cancérologie, ces connaissances sont généralement regroupées dans des guides de bonnes pratiques cliniques. Leur publication est assurée par des organismes médicaux suite à un processus d'édition collaboratif complexe. L'informatisation des guides a conduit à la volonté de formaliser l'ensemble des connaissances contenues de manière à pouvoir alimenter des systèmes d'aide à la décision. Ainsi, leur édition peut être vue comme une problématique d'acquisition des connaissances. Dans ce contexte, le but de cette thèse est de proposer des méthodes et des outils permettant de factoriser l'édition des guides et leur formalisation. Le premier apport de cette thèse est l'intégration des technologies du Web social et sémantique dans le processus d'édition. La création du wiki sémantique OncoLogiK a permis de mettre en œuvre cette proposition. Ainsi, un retour d'expérience et des méthodes sont présentés pour la migration depuis une solution Web statique. Le deuxième apport consiste à proposer une solution pour exploiter les connaissances décisionnelles présentes dans les guides. Ainsi, le framework KCATOS définit un langage d'arbres de décision simple pour lequel une traduction reposant sur les technologies du Web sémantique est développée. KCATOS propose en outre un éditeur d'arbres, permettant l'édition collaborative en ligne. Le troisième apport consiste à concilier dans un même système les approches pour la création des guides de bonnes pratiques informatisés : l'approche s'appuyant sur les connaissances symbolisée par KCATOS et l'approche documentaire d'OncoLogiK. Leur fonctionnement conjoint permet de proposer une solution bénéficiant des avantages des deux approches. De nombreuses perspectives sont exposées. La plupart d'entre elles visent à améliorer les services aux utilisateurs et l'expressivité de la base de connaissances. En prenant en compte le travail effectué et les perspectives, un modèle réaliste visant à faire du projet Kasimir un système d'aide à la décision complet est proposé.
38

Modélisation centrée sur les processus métier pour la génération complète de portails collaboratifs

Souissi, Amen 20 December 2013 (has links) (PDF)
Les entreprises collaborent pour saisir des opportunités, échanger des documents et ressources, cela en suivant des processus métier pouvant évoluer. Les portails collaboratifs sont une solution orientée web à ce besoin de collaboration. Cependant, la conception et la maintenance d'un portail collaboratif métier n'est pas trivial et reste peu accessible aux acteurs de l'entreprise. Cela a comme conséquence la difficulté de maintenir et faire évoluer le portail collaboratif sans que cela ne soit trop coûteux en temps et financièrement. Afin de répondre à cette problématique, une solution consiste à capter les besoins métier de la collaboration dans un modèle, puis générer automatiquement le portail collaboratif correspondant. Le modèle, dans ce cas, doit être accessible aux acteurs métier et expressif décrivant ainsi les aspects les plus complexes d'une collaboration. C'est dans ce contexte que se situent nos travaux. À défaut d'avoir une solution toute faite, nous avons mis en place une approche de conception de portail collaboratif fondée sur l'Ingénierie Dirigée par les Modèles. Pour la description de nos portails, nous avons choisi de privilégier la modélisation des entreprises centrée sur les processus métier comme point de départ. Notre solution repose sur notre métamodèle MACoP (Modeling and Analysis of Collaborative Portal). Dans ce métamodèle nous avons fait cohabiter l'accessibilité et l'expressivité. Cela en proposant de nouveaux concepts permettant ainsi la génération complète des portails collaboratifs. Le métamodèle MACoP est accompagné d'une chaîne de transformations permettant de passer directement d'un modèle MACoP au code Python du portail collaboratif.
39

Décentralisation Optimisée et Synchronisation des Procédés Métiers Inter-Organisationnels

Fdhila, Walid 07 October 2011 (has links) (PDF)
La mondialisation, la croissance continuelle des tailles des entreprises et le besoin d'agilité ont poussé les entreprises à externaliser leurs activités, à vendre des parties de leurs procédés, voire même distribuer leurs procédés jusqu'à lors centralisés. En plus, la plupart des procédés métiers dans l'industrie d'aujourd'hui impliquent des interactions complexes entre un grand nombre de services géographiquement distribués, développés et maintenus par des organisations différentes. Certains de ces procédés, peuvent être très complexes et manipulent une grande quantité de données, et les organisations qui les détiennent doivent faire face à un nombre considérable d'instances de ces procédés simultanément. Certaines même éprouvent des difficultés à les gérer d'une manière centralisée. De ce fait, certaines entreprises approuvent le besoin de partitionner leurs procédés métiers d'une manière flexible, et être capables de les distribuer d'une manière efficace, tout en respectant la sémantique et les objectifs du procédé centralisé. Le travail présenté dans cette thèse consiste à proposer une méthodologie de décentralisation qui permet de décentraliser d'une manière optimisée, générique et flexible, des procédés métiers. En d'autres termes, cette approche vise à transformer un procédé centralisé en un ensemble de fragments coopérants. Ces fragments sont déployés et exécutés indépendamment, distribués géographiquement et peuvent être invoqués à distance. Cette thèse propose aussi un environnement pour la modélisation des chorégraphies de services web dans un langage formel à savoir le calcul d'événements.
40

Contribution à la parallélisation de méthodes numériques à matrices creuses skyline. Application à un module de calcul de modes et fréquences propres de Systus

Bassomo, Pierre 12 July 1999 (has links) (PDF)
L'augmentation continue de la puissance des ordinateurs personnels (stations de travail ou PCs) et l'émergence de réseaux à haut débits fournissent de nouvelle opportunités de réalisation de machines parallèle à faible coût, en comparaison des machines parallèles traditionnelles. On peut aujourd 'hui construire de véritables machines parallèles en interconnectant des processeurs standards. Le fonctionnement de cet ensemble de processeurs en tant que machines parallèle est alors assuré par des logiciels tels que PVM et MPI. Quelle que soit la machine parallèle considérée, concevoir des applications parallèles impose, soit des outils de parallélisation automatique, soit un effort du programmeur suivant des méthodologies de programmation. Dans cette thèse, nous proposons une méthodologie de parallélisation des méthodes numériques. En général les méthodes numériques sont une chaîne d'algorithmes s'appelant les uns après les autres tout au long de leur exécution. A moins d'aborder leur parallélisation à partir du problème physique qu'elles traitent, par exemple par des techniques de décomposition de domaines, l'approche de parallélisation la plus réaliste est celle de type client/serveur.

Page generated in 0.0897 seconds