• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 30
  • 25
  • 12
  • 2
  • 1
  • 1
  • Tagged with
  • 72
  • 72
  • 70
  • 65
  • 51
  • 42
  • 40
  • 11
  • 10
  • 10
  • 10
  • 9
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

The implementation of form-based interface for relational database

Partoyo. January 1990 (has links) (PDF)
Thesis (M.S. in Computer Science)--Naval Postgraduate School, December 1990. / Thesis Advisor(s): Wu, Thomas. Second Reader: Griffin, Rachel. "December 1990." Description based on title screen as viewed on March 30, 2010. DTIC Identifier(s): Man computer interface, data bases, user needs, theses. Author(s) subject terms: Formed-based interface, DBMS, Form Designer, pushbutton. Includes bibliographical references (p. 103-104). Also available in print.
2

Approche d'extension de méthodes fondée sur l'utilisation de composants génériques

Deneckere, Rebecca 04 January 2001 (has links) (PDF)
Ce mémoire s'inscrit dans le domaine de l'ingénierie des méthodes et plus spécialement dans celui de l'ingénierie des méthodes situationnelles. Il propose une technique de construction de méthodes, dite d'Extension, permettant d'adapter une méthode d'analyse existante aux besoins spécifiques du projet en cours. L'approche proposée met en œuvre les trois points suivants : Une technique de représentation de la connaissance sous forme de patrons décrits par différents langages de description et de manipulation. Une technique d'organisation des patrons à l'aide de cartes d'extension facilitant le guidage lors de la réutilisation de patrons. Ces cartes sont des modèles de processus exécutables permettant d'étendre une méthode orientée objet à un domaine d'application spécifique. Elles permettent de gérer la cohérence de la méthode en prenant en compte les contraintes de précédence associées à chaque patron d'extension. Une technique de conception à l'aide de méta-patrons génériques permettant de faciliter le travail de l'ingénieur de méthodes lors de la conception d'une carte d'extension. Ces méta-patrons ont été générés suite à l'inventaire de toutes les stratégies possibles pouvant se trouver sur une carte d'extension et toute la connaissance relative à chacune d'entre elles est encapsulée dans un méta-patron spécifique. Cette approche permet donc d'offrir à l'ingénieur de méthodes un processus de guidage, tant au niveau de l'exécution des patrons d'extension (carte) qu'au niveau de leur conception (méta-patron).
3

Proposition d'un cadre générique d'optimisation de requêtes dans les environnements hétérogènes et répartis

Liu, Tianxiao 06 June 2011 (has links) (PDF)
Dans cette thèse, nous proposons un cadre générique d'optimisation de requêtes dans les environnements hétérogènes répartis. Nous proposons un modèle générique de description de sources (GSD), qui permet de décrire tous les types d'informations liées au traitement et à l'optimisation de requêtes. Avec ce modèle, nous pouvons en particulier obtenir les informations de coût afin de calculer le coût des différents plans d'exécution. Notre cadre générique d'optimisation fournit les fonctions unitaires permettant de mettre en œuvre les procédures d'optimisation en appliquant différentes stratégies de recherche. Nos résultats expérimentaux mettent en évidence la précision du calcul de coût avec le modèle GSD et la flexibilité de notre cadre générique d'optimisation lors du changement de stratégie de recherche. Notre cadre générique d'optimisation a été mis en œuvre et intégré dans un produit d'intégration de données (DVS) commercialisé par l'entreprise Xcalia - Progress Software Corporation. Pour des requêtes contenant beaucoup de jointures inter-site et interrogeant des sources de grand volume, le temps de calcul du plan optimal est de l'ordre de 2 secondes et le temps d'exécution du plan optimal est réduit de 28 fois par rapport au plan initial non optimisé.
4

Optimisation des mises à jours XML pour les systèmes main-memory: implémentation et expériences.

Marina, Sahakyan 17 November 2011 (has links) (PDF)
Cette Thèse propose des techniques permettant l'optimisation de mises à jour XML via la projection de données.
5

A browser-based tool for designing query interfaces to scientific databases

Newsome, Mark Ronald, 1960- 15 November 1996 (has links)
Scientists in the biological sciences need to retrieve information from a variety of data collections, traditionally maintained in SQL databases, in order to conduct research. Because current assistant tools are designed primarily for business and financial users, scientists have been forced to use the notoriously difficult command-line SQL interface, supplied as standard by most database vendors. The goal of our research has been to establish the requirements of scientific researchers and develop specialized query assistance tools to help them query data collections across the Internet. This thesis describes our work in developing HyperSQL, a Web-to-database scripting language, and most importantly, Query Designer, a user-oriented tool for designing query interfaces directly on Web browsers. Current browsers (i.e., Netscape, Internet Explorer) do not easily interoperate with databases without extensive "CGI" (Common Gateway Interface) programming. HyperSQL is a scripting language that enables database administrators to construct forms-based query interfaces intended for end-users who are not proficient with SQL. Query results are formatted as hypertext-clickable links which can be used to browse the database for related information, bring up Web pages, or access remote search engines. HyperSQL query interfaces are independent of the database computer, making it possible to construct different interfaces targeting distinct groups of users. Capitalizing on our experience with HyperSQL, we developed Query Designer, a user-oriented tool for building query interfaces directly on Web browsers. No experience in SQL and HTML programming is necessary. After choosing a target database, the user can build a personalized query interface by making menu selections and filling out forms--the tool automatically establishes network connections, and composes HTML and SQL code. The automatically generated query form can be used immediately to issue a query, customized, or saved for later use. Results returned from the database are dynamically formatted into hypertext for navigating related information in the database. / Graduation date: 1997
6

Optimisation de requêtes XQuery dans des bases de données XML distribuées sur des réseaux pair-à-pair

Butnaru, Bogdan 12 April 2012 (has links) (PDF)
XML distribuées basées sur les réseaux pair-à-pair. Notre approche est unique parce qu'elle est axée sur le traitement global du langage XQuery plutôt que l'étude d'un langage réduit spécifique aux index utilisés. Le système XQ2P présenté dans cette thèse intègre cette architecture ; il se présente comme une collection complète de blocs de logiciels fondamentaux pour développer des applications similaires. L'aspect pair-à-pair est fourni par P2PTester, un " framework " fournissant des modules pour les fonctionnalités P2P de base et un système distribué pour des tests et simulations. Une version de l'algorithme TwigStack adapté au P2P, utilisant un index structurel basé sur le numérotage des noeuds, y est intégré. Avec le concours d'un système de pré-traitement des requêtes il permet à XQ2P l'évaluation efficace des requêtes structurelles sur la base de données distribuée. Une version alternative du même algorithme est aussi utilisée pour l'évaluation efficace de la plupart des requêtes en langage XQuery. L'une des nouveautés majeures de XQuery 3.0 est l'étude des séries temporelles. Nous avons défini un modèle pour traiter ce type de données, utilisant le modèle XML comme représentation des valeurs et des requêtes XQuery 3.0 pour les manipuler. Nous ajoutons à XQ2P un index adapté à ce modèle ; le partitionnement horizontal des longues séries de données chronologiques, des opérateurs optimisés et une technique d'évaluation parallèle des sous-expressions permettent l'exécution efficace d'opérations avec des volumes de données importants.
7

Types for Detecting XML Query-Update Independence

Ulliana, Federico 12 December 2012 (has links) (PDF)
Pendant la dernière décennie, le format de données XML est devenu l'un des principaux moyens de représentation et d'échange de données sur le Web. La détection de l'indépendance entre une requête et une mise à jour, qui a lieu en absence d'impact d'une mise à jour sur une requête, est un problème crucial pour la gestion efficace de tâches comme la maintenance des vues, le contrôle de concurrence et de sécurité. Cette thèse présente une nouvelle technique d'analyse statique pour détecter l'indépendance entre requête et mise à jour XML, dans le cas où les données sont typées par un schéma. La contribution de la thèse repose sur une notion de type plus riche que celle employée jusqu'ici dans la littérature. Au lieu de caractériser les éléments d'un document XML utiles ou touchés par une requête ou mise à jour en utilisant un ensemble d'étiquettes, ceux-ci sont caractérisés par un ensemble de chaînes d'étiquettes, correspondants aux chemins parcourus pendant l'évaluation de l'expression dans un document valide pour le schéma. L'analyse d'indépendance résulte du développement d'un système d'inférence de type pour les chaînes. Cette analyse précise soulève une question importante et difficile liés aux schémas récursifs: un ensemble infini de chaînes pouvant être inférées dans ce cas, est-il possible et comment se ramener à une analyse effective donc finie. Cette thèse présente donc une technique d'approximation correcte et complète assurant une analyse finie. L'analyse de cette technique a conduit à développer des algorithmes pour une implantation efficace de l'analyse, et de mener une large série de tests validant à la fois la qualité de l'approche et son efficacité.
8

Relations entre bases de données et ontologies dans le cadre du web des données

Curé, Olivier 11 October 2010 (has links) (PDF)
Ce manuscrit présente mon intérêt pour la conception des méthodes et algorithmes nécessaires pour la réalisation d'applications avancées pour le web sémantique. Cette extension du web actuel vise à autoriser l'intégration et le partage de données entre organismes et applications. Une conséquence directe du succès de cette approche permettrait de considérer le web comme une base de données globale contenant les données stockées sur toutes les machines connectées. Cet aspect s'exprime bien dans le site web dédié à l'activité web sémantique du W3C, qui déclare que le web sémantique est un web des données. Ainsi, ce web des données permettra de soumettre des requêtes structurées sur tous les ensembles de données connectés, et de récupérer des résultats pertinents provenant de sources diverses et hétérogènes. Une question essentielle liée à cette hétérogénéité concerne la notion de sémantique. Dans le contexte du web sémantique, elle est généralement traitée avec des ontologies et les opérations de médiation associées. Ma recherche s'ancrent dans ces thématiques et ce manuscrit vise à présenter quelques unes de mes recherches et résultats, ainsi qu'à décrire certaines des applications que j'ai conçues et implémentées
9

Langage de mashup pour l'intégration autonomique de services de données dans des environements dynamiques

Othman-Abdallah, Mohamad 26 February 2014 (has links) (PDF)
Dans les communautés virtuelles, l'intégration des informations (provenant de sources ou services de données) est centrée sur les utilisateurs, i.e., associée à la visualisation d'informations déterminée par les besoins des utilisateurs. Une communauté virtuelle peut donc être vue comme un espace de données personnalisable par chaque utilisateur en spécifiant quelles sont ses informations d'intérêt et la façon dont elles doivent être présentées en respectant des contraintes de sécurité et de qualité de services (QoS). Ces contraintes sont définies ou inférées puis interprétées pour construire des visualisations personnalisées. Il n'existe pas aujourd'hui de langage déclaratif simple de mashups pour récupérer, intégrer et visualiser des données fournies par des services selon des spécifications spatio-temporelles. Dans le cadre de la thèse il s'agit de proposer un tel langage. Ce travail est réalisé dans le cadre du projet Redshine, bénéficiant d'un Bonus Qualité Recherche de Grenoble INP.
10

Gestion des données efficace en pair-à-pair

Zoupanos, Spyros 09 December 2009 (has links) (PDF)
Le développement de l'internet a conduit à une grande augmentation de l'information disponible pour les utilisateurs. Ces utilisateurs veulent exprimer leur besoins de manière simple, par l'intermédiaire des requêtes, et ils veulent que ces requêtes soient évaluées sans se soucier où les données sont placées ou comment les requêtes sont évaluées. Le travail qui est présenté dans cette thèse contribue à l'objectif de la gestion du contenu du Web de manière déclarative et efficace et il est composé de deux parties. Dans le premier partie, nous présentons OptimAX, un optimiseur pour la langage Active XML qui est capable de reécrire un document Active XML donné dans un autre document équivalent dont l'évaluation sera plus efficace. OptimAX contribue à résoudre le problème d'optimisation des requêtes distribuées dans le cadre d'Active XML et nous présentons deux études de cas. Dans le deuxième partie, nous proposons une solution au problème de l'optimisation d'un point de vue différent. Nous optimisons des requêtes en utilisant un ensemble des requêtes pré-calculées (vues matérialisées). Nous avons développé une plateforme pair-à-pair, qui s'appelle ViP2P (views in peer-to-peer) qui permet aux utilisateurs de publier des documents XML et de spécifier des vues sur ces documents en utilisant une langage de motifs d'arbres. Quand un utilisateur pose une requête, le système essaiera de trouver des vues qui peuvent être combinées pour construire une réécriture équivalente à la requête. Nous avons fait des expérimentations en utilisant des ordinateurs des différents laboratoires en France et nous avons montré que notre plateforme passe à l'échelle jusqu'à plusieurs GB de données.

Page generated in 0.0621 seconds