• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 557
  • 231
  • 139
  • 127
  • 110
  • 68
  • 65
  • 43
  • 30
  • 24
  • 19
  • 14
  • 10
  • 9
  • 8
  • Tagged with
  • 1548
  • 408
  • 263
  • 240
  • 233
  • 231
  • 226
  • 213
  • 171
  • 155
  • 145
  • 131
  • 127
  • 120
  • 112
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
391

RepliX: Um mecanismo para a replicaÃÃo de dados XML / RepliX: a mechanism for XML data replication

FlÃvio Rubens de Carvalho Sousa 09 March 2007 (has links)
Conselho Nacional de Desenvolvimento CientÃfico e TecnolÃgico / XML has become a widely used standard for data representation and exchange in applications. The growing usage of XML creates a need for ecient storage and recovery systems for XML data. Native XML DBs (NXDBs) are being developed to target this demand. NXDBs implement many characteristics that are common to traditional DBs, such as storage, indexing, query processing, transactions and replication. Most existing solutions solve the replication issue through traditional techniques. However, the exibility of XML data imposes new challenges, so new replication techniques ought to be developed. To improve the performance and availability of NXDBs, this thesis proposes RepliX, a mechanism for XML data replication that takes into account the main characteristics of this data type, making it possible to reduce the response time in query processing and improving the fault-tolerance property of such systems. Although there are several replication protocols, using the group communication abstraction for communication and fault detection has proven to be a good solution, since this abstraction provides ecient message exchanging techniques and conability guarantees. RepliX uses this strategy, organizing the sites into an update group and a read-only group in such a way that allows for the use of load balancing among the sites, and makes the system less susceptible to faults, since there is no single point of failure in each group. In order to evaluate RepliX, a new replication layer was implemented on top of an existing NXDB to introduce the characteristics of the proposed mechanism. Several experiments using this layer were conducted, and their results conrm the mechanism's eciency considering the dierent aspects of a replicated database, improving its performance considerably, as well as its availability. / XML tem se tornado um padrÃo amplamente utilizado na representaÃÃo e troca de dados em aplicaÃÃes. Devido a essa crescente utilizaÃÃo do XML, torna-se necessÃria a existÃncia de sistemas eficientes de armazenamento e recuperaÃÃo de dados XML. EstÃo sendo desenvolvidos para este fim Bancos de Dados XML Nativos (BDXNs). Estes bancos implementam muitas das caracterÃsticas presentes em Bancos de Dados tradicionais, tais como armazenamento, indexaÃÃo, processamento de consultas, transaÃÃes e replicaÃÃo. Tratando-se especificamente de replicaÃÃo, a maioria das soluÃÃes existentes resolve essa questÃo apenas utilizando tÃcnicas tradicionais. Todavia, a exibilidade dos dados XML impÃe novos desafios, de modo que novas tÃcnicas de replicaÃÃo devem ser desenvolvidas. Para melhorar o desempenho e a disponibilidade dos BDXNs, esta dissertaÃÃo propÃe o RepliX, um mecanismo para replicaÃÃo de dados XML que considera as principais caracterÃsticas desses dados. Dessa forma, à possÃvel melhorar o tempo de resposta no processamento de consultas e tornar esses sistemas mais tolerantes a falhas. Dentre vÃrios tipos de protocolos de replicaÃÃo, a utilizaÃÃo da abstraÃÃo de comunicaÃÃo em grupos como estratÃgia de comunicaÃÃo e detecÃÃo de falhas mostrase uma soluÃÃo eficaz, visto que essa abstraÃÃo possui tÃcnicas eficientes para troca de mensagens e provà garantias de confiabilidade. Essa estratÃgia à utilizada no RepliX, que organiza os sites em dois grupos: de atualizaÃÃo e de leitura, permitindo assim balanceamento de carga entre os sites, alÃm de tornar o sistema menos sensÃvel a falhas, jà que nÃo hà um ponto de falha Ãnico em cada grupo. Para validar o RepliX, uma nova camada de replicaÃÃo foi implementada em um BDXN, a _m de introduzir as caracterÃsticas e os comportamentos descritos no mecanismo proposto. Experimentos foram feitos usando essa camada e os resultados obtidos atestam a sua eficÃcia considerando diferentes aspectos de um banco de dados replicado, melhorando o desempenho desses banco de dados consideravelmente bem como sua disponibilidade.
392

Usando Assertivas de CorrespondÃncia para EspecificaÃÃo e GeraÃÃo de VisÃes XML para AplicaÃÃes Web / Using assertive of correspondence for specification and generation of XML view for applications Web

Fernando Cordeiro de Lemos 23 March 2007 (has links)
CoordenaÃÃo de AperfeiÃoamento de Pessoal de NÃvel Superior / AplicaÃÃes Web que possuem grande nÃmero de pÃginas, cujos conteÃdos sÃo dinamicamente extraÃdos de banco de dados, e que requerem intenso acesso e atualizaÃÃo dos dados, sÃo conhecidas como âdata-intensive Web applicationsâ (aplicaÃÃes DIWA). Neste trabalho, os requisitos de conteÃdo de cada pÃgina da aplicaÃÃo sÃo especificados atravÃs de uma visÃo XML, a qual denominamos VisÃo de NavegaÃÃo (VN). Consideramos que os dados das VNs estÃo armazenados em um banco de dados relacional ou XML. Nesse trabalho, propomos um enfoque para especificaÃÃo e geraÃÃo de VNs para aplicaÃÃes Web cujo conteÃdo à extraÃdo de uma ou mais fontes de dados. No enfoque proposto, uma VN à especificada conceitualmente com a ajuda de um conjunto de Assertivas de CorrespondÃncia, de forma que a definiÃÃo da VN pode ser gerada automaticamente a partir das assertivas da visÃo. / Web applications that have large number of pages, whose contents are dynamically extracted from one or more databases, and that requires data intensive access and update, are known as "data-intensive Web applications" (DIWA applications) [7]. In this work, the requirements for the content of each page of the application are specified by an XML view, which is called Navigation View (NV). We believe that the data of NVs are stored in a relational or XML database. In this work, we propose an approach to specify and generate NVs for Web applications whose content is extracted from one or more data sources. In the proposed approach, a NV is specified conceptually with the help of a set of Correspondence Assertions [44], so that the definition of NV can be generated automatically based on assertions of view.
393

En studie om HTML och XML : Blir det en förbättrad struktur i dokumenten med XML jämfört med HTML?

Malmberg, Ulrika, Lorentzon, Thomas January 2001 (has links)
Problemområde: I dag utvecklas nästan alla webbsidor på Internet med märkspråket HTML. XML är ett nytt märkspråk och används bland annat för att utveckla webbsidor. Uppsatsen undersöker skillnader mellan de båda märkspråkens grundläggande dokumentstruktur. Den grundläggande dokumentstrukturen för HTML är HTML, HEAD och BODY samt för XML är den Prolog, Rot and Epilog. Hypotes: Uppsatsen baseras på hypotesen -?Vid användning av XML blir det en förbättrad struktur på informationen i dokumenten?. Genomförandet: För att undersöka hypotesen har två kriterier definierats och testats; Märkspråkens struktur och Sökbarheten i märkspråkens struktur. De två kriterierna undersöks med hjälp av tre olika tester, varav två tester tillhörande det första kriteriet och det tredje testet tillhörande det andra kriteriet. De två första testerna utförs med hjälp av fem testpersoner och det tredje med hjälp av två sökmotorer på Internet. Slutsats: Test ett och två visade att XMLs dokumentstruktur är mycket lättare att läsa jämfört med HTMLs dokumentstruktur enligt resultaten och analysen efter testerna. Även det tredje testet visade att XMLs dokumentstruktur är förbättrad jämfört med HTMLs dokumentstruktur. Slutsatsen som drogs av testresultaten bekräftar hypotesen.
394

Prestandajämförelse av krypterade XML-databaser

Vahtra, Jonas January 2009 (has links)
I detta arbete undersöks hur kryptering påverkar prestandan hos en XML-databas. Detta görs med hjälp av ett inom litteraturen populärt dataset, XMark. Kryptering genomförs med hjälp av standarden XML Encryption. Okrypterade dataset jämförs med krypterade dataset genom att ställa Xpath-frågor och mäta tiden för dessa frågeställningar. Resultaten presenteras i tabeller och grafer och analyseras utifrån ett prestandaperspektiv. Även framtida utökning av testerna föreslås som framtida arbete.
395

XML document representation on the Neo solution

Faraglia, Piergiorgio January 2007 (has links)
This thesis aims to find a graph structure for representing XML documents and to implement the former representation for storing such documents. The graph structure, in fact, is the complete representation for the XML documents; this is dued to the id/idref attribute which could be present inside the XML document tag. Two different graph structures have been defined on this thesis, they are called most granular and customizable representations. The first one is the simplest way for representing XML documents, while the second one makes some improvements for optimizing inserting, deleting, and querying functions. The implementation of the former graph structures is made over a new kind of database built specifically for storing semi-structured data, such database is called Neo. Neo database works only with three primitives: node, relationship, and property. Such data model represents a new solution compared to the traditional relational view. The XML information manager implements two different API which work with the two former graph structure respectively. The first API works with the customizable representation, while the second one works with the customizable representation. Some evaluations have been done over the second implemented API, and they showed that the implemented code is free of bugs and moreover that the customizable representation brings about some improvements on making queries over the stored data.
396

XML/EDI - EDI med XML-format?

Boman, Maria January 2000 (has links)
Electronic data interchange (EDI) är en teknik vilken används för att utbyta elektroniska dokument mellan köpare och säljare. Dessa dokument överförs på en strikt elektronisk standardiserad väg, dokumenten kan vara fakturor, beställningsformulär, leveransplaner etc. EDI har funnits i över 25år och är vida spridd över världen. För att använda EDI krävs det stora resurser i form av kapital och kunskap. Små och medelstora företag har ofta inte de resurser som krävs för att kunna använda EDI. Nya tekniker utvecklas ständigt. Extensibel Markup Language (XML) är en ny teknik vilken är avsedd att användas främst på Internet. XML delar upp dokumenten med hjälp av etiketter vilket hjälper läsaren att identifiera innehållet i dokumenten. XML har väckt EDI-samhällets intresse då XML anses ha kapaciteten att kunna användas som ett EDI-format samtidigt som XML är Internetanpassat vilket betyder att EDI enklare skulle kunna användas på Internet. I mitt examensarbete har jag utrett om EDI-användande företag avser använda XML/EDI. Jag har genomfört intervjuer för att besvara problemformuleringen. Resultaten jag kommit fram till är att företagen avser använda XML/EDI om en ordentlig standard blir framtagen. Företagen är dessutom positivt inställda till XML/EDI samt Internetbaserad EDI. Anledningen till den positiva inställningen är främst att XML/EDI samt Internetbaserad EDI skulle innebära lägre kostnader vilket i sin tur skulle innebära att även små och medelstora företag skulle kunna använda tekniken.
397

Enkel navigering i webbdatabaser inom bioinformatik: En implementation av moduler för ett urval av databaser

Peterson, Rickard January 2010 (has links)
Detta examensarbete är framtaget för att utforma moduler till programmet BioSpider som utvecklats vid ADIT avdelningen vid IDA institutionen Linköping Universitet med syfte att förenkla för biologer när de söker information om andra forskares resultat. Det finns ett stort antal databaser som innehåller forskningsdata kring proteiner, reaktioner, signalvägar etc. Exempel på databaser är UniProt, Reactome, IntAct, BioModels och KEGG. Det uppstår problem med att dessa databaser är uppbyggda på olika sätt och ej kan användas på ett universellt sätt, utan kräver individuellt utformning och anpassning för att kunna användas tillsammans med andra databaser.  Det är där BioSpider kommer in, BioSpider är ett program som försöker bygga upp ett träd utifrån olika databaser. Varje databas hanteras individuellt av BioSpider men presenteras på ett universellt sätt i form av ett träd för användaren. Examensarbetets del i BioSpider är att utforma moduler som behandlar ytterligare databaser utöver BioModels som redan stöds i BioSpider. Behovet av att tillgängliggöra stöd för fler databaser var nödvändigt för att kunna visa upp en användbar version av BioSpider med mer än en databas. Detta för att kunna visa att metoden fungerar i praktiken. Examensarbetet har utförts genom att en förstudie av ett antal databaser har gjorts och inom dessa valt ut relevant information som sedan implementerats i BioSpider med olika moduler för de olika databaserna. Det som fanns tillgängligt vid examensarbetets start var programmet BioSpider och implementation för en databas (BioModels). Nu stöds BioSpider av ytterligare fyra stycken databaser som är UniProt, Reactome, KEGG och IntAct som bygger ut trädet. BioSpider stöds även utav DIP, Ensembl, EMBL, FlyBase, GO, InterPro, OMIM, PDB, PIR, PROSIT och RefSeq för vidare länkning till webbsida där ytterligare information kan återfås. / The aim of this thesis was to develop modules for the system BioSpider that are developed by ADIT division at IDA institute at Linköping University. The objective is to simplify for biologist when they seek for information about research findings. There is a large number of databases that contains research results about proteins, reactions, pathways etc. Examples of these databases are UniProt, Reactome, IntAct, BioModels and KEGG. Problems emerges since the databases are constructed in different ways and cannot be used in a universal way, they must be individually tailored and adjusted to be compatible with other databases. This is where BioSpider comes in, BioSpider is a program that is supposed to build up a tree of the different databases. Each database is managed individually by BioSpider and is presented to the user in a universal way in the form of a tree. This thesis extends the BioSpider system so that more databases are supported than just the database BioModels. The need to support more databases was necessary to be able to produce a usable version of BioSpider with more than one database. This is important to show that the method works in practice. The work has been performed by a pilot study of a number of databases. Within these we selected appropriate information that was implemented in BioSpider with different modules for different databases. At start of this thesis one database was supported by BioSpider, this database is BioModels. Now BioSpider supports by additional four databases UniProt, Reactome, KEGG and IntAct. BioSpider also supports linking to websites where information can be retrieved, the supported databases are DIP, Ensembl, EMBL, FlyBase, GO, InterPro, OMIM, PDB, PIR, PROSIT and RefSeq.
398

Mitt Fotbollslag : En mobilapplikation för fotbollslag

Malmsten Pedersen, Henrik January 2015 (has links)
Den mobila applikationsmarknaden har växt explosionsartat under senare år. Många applikationer syftar till att förenkla vardagslivet för människor. Fotboll är världens största sport och många ägnar en del av sitt vardagsliv åt organiserad fotboll på amatörnivå. Målet med det här projektet var att undersöka hur informationsteknologi kunde förenkla administrationen av fotbollslag på lägre nivå. Projektets grundtanke var utveckling av en mobilapplikation till operativsystemet Android. Metoden som används var en klassisk objektorienterad utvecklingsmodell med faserna Planering, Analys, Design, Implementation och Test. I syfte att reda ut vilka funktioner som kunde anses mest intressant till en applikation av denna karaktär, användes en enkätundersökning. Enkätundersökningen skickades ut och besvarades av fotbollstränare i division 5, och utgjorde grunden till en kravspecifikation för den tilltänkta mobilapplikationen. Kravspecifikationen kompletterades med funktioner som ansågs vitala för applikationens existens som exempelvis inloggning och val av användartyp. Utifrån kravspecifikationen utvecklades applikationen med tillhörande serverlösning. I syfte att säkerställa att de funktionella kraven hade uppfyllts genomfördes slutligen ett test för varje funktion i kravspecifikationen. Samtliga funktioner i kravspecifikationen uppfylldes. De slutsatser som kan dras är att informationsteknologi åtminstone kan förenkla vardagen för vissa fotbollslag. / During recent years the mobile application market has seen an explosive growth. Many of the applications are designed to simplify everyday life for people. Football is the largest sport in the world and many people devote a part of their everyday life to organized amateur-level football. The goal of this project was to investigate how information technology could simplify the administration of amateur-level football clubs. The initial idea was to develop an mobile applicationfor Android. The method that was used in the project was a classic objectoriented development model with the phases Planning, Analysis, Design, Implementation and Test. A questionaire was created in order to find out the most usable features. The questionaire was answered by football coaches i the swedish 7th division and formed the basis of the requirement specification for the indended mobile application. Additional features like logging were identified as vital for the project and were also added to the requirement specification. The application was developed based on the features identified in the requirement specification. A test was designed and executed in order to ensure that the requirements were met. All features in the requirement specification were met. The conclusionis that information technology can simplify everyday life at least for some football clubs.
399

On the dynamics of active documents for distributed data management / Etude de la dynamique des documents actifs pour la gestion d'information distribuées

Bourhis, Pierre 11 February 2011 (has links)
L'un des principaux problèmes que les applications Webs doivent gérer aujourd'hui est l'évolutivité des données. Dans cette thèse, nous considérons ce problème et plus précisément l'évolution des documents actifs. Les documents actifs sont documents XML pouvant évolués grâce à l'activation d'appel de services Web. Ce formalisme a déjà été utilisé dans le cadre de la gestion d'information distribuée. Les principales contributions de cette thèse sont l'étude théorique de différentes notions pour l'implémentation de deux systèmes gérant des applications manipulant des flux de données et des applications de type workflow. Dans un premier temps, nous étudions des notions reliées à la maintenance de vues sur des documents actifs. Ces notions sont utilisées dans l'implémentation d'un processeur de flux de données appelé Axlog widget manipulant des flux à travers un document actif. La deuxième contribution porte sur l'expressivité de différents formalismes pour contraindre le séquencement des activations d'un document actif. Cette étude a été motivée par l'implémentation d'un système gérant des workflows focalisés sur les données utilisant les documents actifs, appelé Axart. / One of the major issues faced by Web applications is the management of evolving of data. In this thesis, we consider this problem and in particular the evolution of active documents. Active documents is a formalism describing the evolution of XML documents by activating Web services calls included in the document. It has already been used in the context of the management of distributed data \cite{axml}. The main contributions of this thesis are theoretical studies motivated by two systems for managing respectively stream applications and workflow applications. In a first contribution, we study the problem of view maintenance over active documents. The results served as the basis for an implementation of stream processors based on active documents called Axlog widgets. In a second one, we see active documents as the core of data centric workflows and consider various ways of expressing constraints on the evolution of documents. The implementation, called Axart, validated the approach of a data centric workflow system based on active documents. The hidden Web (also known as deep or invisible Web), that is, the partof the Web not directly accessible through hyperlinks, but through HTMLforms or Web services, is of great value, but difficult to exploit. Wediscuss a process for the fully automatic discovery, syntacticand semantic analysis, and querying of hidden-Web services. We proposefirst a general architecture that relies on a semi-structured warehouseof imprecise (probabilistic) content. We provide a detailed complexityanalysis of the underlying probabilistic tree model. We describe how wecan use a combination of heuristics and probing to understand thestructure of an HTML form. We present an original use of a supervisedmachine-learning method, namely conditional random fields,in an unsupervised manner, on an automatic, imperfect, andimprecise, annotation based on domain knowledge, in order to extractrelevant information from HTML result pages. So as to obtainsemantic relations between inputs and outputs of a hidden-Web service, weinvestigate the complexity of deriving a schema mapping between databaseinstances, solely relying on the presence of constants in the twoinstances. We finally describe a model for the semantic representationand intensional indexing of hidden-Web sources, and discuss how toprocess a user's high-level query using such descriptions.
400

Policy Merger System for P3P in a Cloud Aggregation Platform

Olurin, Olumuyiwa January 2013 (has links)
The need for aggregating privacy policies is present in a variety of application areas today. In traditional client/server models, websites host services along with their policies in different private domains. However, in a cloud-computing platform where aggregators can merge multiple services, users often face complex decisions in terms of choosing the right services from service providers. In this computing paradigm, the ability to aggregate policies as well as services will be useful and more effective for users that are privacy conscious regarding their sensitive or personal information. This thesis studies the problems associated with the Platform for Privacy Preference (P3P) language, and the present issues with communicating and understanding the P3P language. Furthermore, it discusses some efficient strategies and algorithms for the matching and the merging processes, and then elaborates on some privacy policy conflicts that may occur after merging policies. Lastly, the thesis presents a tool for matching and merging P3P policies. If successful, the merge produces an aggregate policy that is consistent with the policies of all participating service providers.

Page generated in 0.0187 seconds