• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 557
  • 231
  • 139
  • 127
  • 110
  • 68
  • 65
  • 43
  • 30
  • 24
  • 19
  • 14
  • 10
  • 9
  • 8
  • Tagged with
  • 1548
  • 408
  • 263
  • 240
  • 233
  • 231
  • 226
  • 213
  • 171
  • 155
  • 145
  • 131
  • 127
  • 120
  • 112
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
341

ACID: arquitetura de controle para integração de dispositivos / ACID: control architecture for device integration

Tavares, Dalton Matsuo 03 December 2010 (has links)
O objetivo desta tese é adaptar um modelo de integração industrial baseado no protocolo de comunicação XML Interface for Robots and Peripherals (XIRP), de modo que este pudesse ser aplicado à realidade de pequenas e médias empresas brasileiras (PMEs). Para que isto fosse possível, é necessário estudar os ambientes industriais existentes e a complexidade envolvida na tarefa de integração de dispositivos para os mesmos. Observa-se que estes ambientes são orientados a fabricante com relação às soluções criadas em termos de equipamentos e softwares. Este é o exemplo de grandes empresas como ABB, KUKA, Reis Robotics etc. O fabricante detém a solução de integração e os dispositivos, e estes só podem ser integrados em plataformas deste fabricante. O protocolo de comunicação industrial, no caso o protocolo XIRP, possibilita a comunicação entre dispositivos e sistemas controladores de maneira padronizada, permitindo que dispositivos de um fabricante se comuniquem com sistemas de outros fabricantes. Este protocolo é baseado na linguagem eXtensible Markup Language (XML) e fornece a especificação dos arquivos de esquema XML (XML schema), os quais permitem a criação de uma descrição de dispositivos e a composição de mensagens a serem trocadas entre eles. Para tanto, foi necessário criar a partir do padrão, toda a infra-estrutura de comunicação e sistema de integração de dispositivos. Vale observar que o padrão XIRP foi criado levando em consideração dispositivos microprocessados. Como este padrão ainda está em desenvolvimento, e em caso de uma eventual adaptação a ele, seria impraticável modificar inteiramente um ambiente de produção por meio de substituição de equipamentos. Desta forma, este projeto de pesquisa apresenta uma infra-estrutura que consista em um sistema integrador para a adaptação gradativa a este protocolo de comunicação. O sistema integrador proposto permite a incorporação de dispositivos XIRP ou não-XIRP. Considerando que um dispositivo já troque mensagens compatíveis com o XIRP, a sua integração e operação em um ambiente de produção seria mais simples. Todavia, mesmo neste caso, o dispositivo ainda precisaria de suporte para trabalhar em uníssono com as demais entidades pertencentes ao ambiente. Esta sinergia é incluída na especificação do ambiente integrador, porém, não faz parte dos resultados pretendidos para a presente pesquisa. Desta forma, a hipótese prevista trata os mecanismos necessários para a incorporação de dispositivos não-XIRP em um ambiente de produção compatível com o padrão XIRP, desde o processo de indexação/identificação do dispositivo à geração automática da aplicação de controle e integração em baixo nível, de modo a permitir a operação do mesmo. / The goal of this research is to adapt an industrial integration model based on the XML Interface for Robots and Peripherals (XIRP) communication protocol, such that it could be applied to the reality of Brazilian small and medium enterprises (SMEs). In order to enable this, it is necessary to study the existing industrial environments and the complexity involved in the device integration task. We observed these environments are manufacture centered considering the solutions created in terms of equipments and softwares. This is the example set by manufacturers like ABB, KUKA, Reis Robotics etc. The manufacturer detains the integration solution and the devices, and these can only be integrated in platforms of the same manufacturer. The industrial communication protocol, in this case XIRP, enables the communication among devices and controller systems in a standardized way, allowing devices from one manufacturer to communicate with systems from another. This protocol is based on the eXtensible Markup Language (XML) and supplies the specification of the XML schema files, which allows the crea- tion of a device description and the composition of messages to be exchanged among devices. Therefore a communication infrastructure and device integra- tion system was built from the standard. Note that the XIRP standard was created considering processor based devices. As this standard is still in development, and in case of an eventual adaptation to it, it would be impracticable to change an entire production environment by means of equipment exchange. Therefore, this research project presents an infrastructure that consists in an integrator system to gradually adapt to this communication protocol. The proposed integrator system allows the incorporation of XIRP or non-XIRP devices. Considering a device already exchanges messages by means of XIRP compliant messages, its integration and operation would be simpler in a production environment. However, even in this case, the device would still need support to operate in unison with other entities pertaining to the environment. This synergy is included in the specification of the integrator environment, although, it is not part of the intended results for this research. Therefore, the foreseen hypothesis deals with the necessary mechanisms to incorporate non-XIRP devices in a production environment compliant with the XIRP standard, from the device indexing/identification to the automatic generation of the control application and its low level integration, in order to allow its operation.
342

Modelo de sistema para gerenciamento de conhecimentos explícitos em abordagens de DFA (Design for Assembly) / Management model for explicit knowledge in DFA (Design For Assembly) approaches

Antonio Francisco Savi 29 April 2009 (has links)
Uma importante fonte de vantagem competitiva para muitas empresas é a capacidade de criar projetos de produtos compostos por um número pequeno de partes e de fácil montagem sem deixar de atender às expectativas do consumidor, denominada abordagem DFA - Design For Assembly (Projeto para Montagem). Para o reprojeto ou para reduzir o custo do projeto de novos produtos com esse foco, é necessário obter informações que podem estar muitas vezes armazenadas em locais de difícil acesso e nas mais variadas formas de repositórios do conhecimento. Uma maneira de obter essas informações é criar uma classe sistema, chamada peer-to-peer, que permite a sincronização e compartilhamento desses documentos entre cada local espalhado numa rede. Esse tipo de sistema busca a descentralização das informações, ou seja, estas ficam espalhadas pela rede (interna ou externa) com a vantagem de que cada organização poderá manter sob sua \"guarda\" as informações sem nunca dispô-las em servidores de terceiros e estas poderão chegar automaticamente até os usuários por meio de transações XML. Sendo assim, o objetivo deste trabalho é desenvolver uma ferramenta de auxílio à gestão do conhecimento que atue na geração, codificação e transferência do conhecimento sobre técnicas DFA. A avaliação de soluções existentes foi utilizada como metodologia para propor um modelo teórico que especifica o desenvolvimento do sistema. Pode-se concluir que esse tipo de sistema fornece aos participantes meios de coleta de informações mais eficazes, já que informações sobre DFA podem ser consultadas. / An important source of competitive advantages for many organizations worldwide is the capacity to create projects for products consisting of a small number of parts of easy assemblage, nonetheless attending to the consumers\' expectations, named DFA approach - Design for Assembly. In order to re-project or decrease the expenses caused by designing new products aimed at such, it is necessary to retrieve information data which might be stored in inaccessible places and in a large variety of knowledge repositories. A way of retrieving this data is the creation of a system class, called peer-to-peer, which allows these documents to be synchronized and shared among terminals connected to a network. This system aims at decentralizing data, that is, they are spread throughout the network (internal or external) with the advantage that each company may protect the information by not making it available in computers belonging to third parties. Moreover, this information can automatically reach users by means of XML transactions. Therefore, the aim of this study is to develop a tool to help knowledge management work in generating, codifying and transferring knowledge concerning DFA techniques. The assessment of available solutions was used as a method to propose a theoretical model which pinpoints the system development. It can be concluded that this type of system provides the users with means to collect data more efficiently, since DFA data may be accessed.
343

DTX: um mecanismo de controle de concorrÃncia distribuÃdo para dados XML / DTX: a mechanism of control of distributed concurrency for XML data

Leonardo Oliveira Moreira 24 July 2008 (has links)
CoordenaÃÃo de AperfeiÃoamento de Pessoal de NÃvel Superior / XML tornou-se um padrÃo amplamente utilizado na representaÃÃo e troca de dados entre aplicaÃÃes na Web. Com isso, grande volume desses dados està distribuÃdo na Web e armazenado em diversos meios de persistÃncia. SGBD relacionais que suportam XML fornecem tÃcnicas de controle de concorrÃncia para gerenciar esses dados. A estrutura dos dados XML, entretanto, dificulta a aplicaÃÃo dessas tÃcnicas. Trabalhos estÃo sendo propostos e fornecem gerenciamento de documentos XML. A maioria destes trabalhos, todavia, nÃo oferecem um controle de concorrÃncia eficiente para dados distribuÃdos. Outros trabalhos dÃo suporte ao controle distribuÃdo de dados XML, mas estes possuem protocolos com baixo grau de concorrÃncia e limitaÃÃes. Para prover um gerenciamento eficaz em ambientes distribuÃdos, este trabalho apresenta o DTX, como mecanismo para o controle de concorrÃncia distribuÃdo para dados XML, que leva em consideraÃÃo caracterÃsticas estruturais destes dados. O DTX visa a um gerenciamento eficaz de dados XML e contemplar as propriedades de isolamento e consistÃncia em transaÃÃes, utilizando um protocolo para controle de concorrÃncia multigranular que aumenta o paralelismo entre as transaÃÃes e possui uma estrutura otimizada para representaÃÃo dos dados. A soluÃÃo proposta possui uma arquitetura modular e flexÃvel, o que facilita sua integraÃÃo com diferentes estruturas de armazenamento XML, alÃm de poder ser estendido, adicionando novos recursos. Para validar o DTX, diversos testes foram feitos, comparando o DTX descrito neste trabalho com uma variaÃÃo do DTX, utilizando um protocolo de maior granulosidade, visando a simular as estratÃgias dos trabalhos relacionados. Os resultados obtidos atestam a eficÃcia do DTX, considerando diferentes aspectos em transaÃÃes distribuÃdas a dados XML, melhorando o desempenho, ou seja, o tempo de execuÃÃo destas transaÃÃes. / XML has become a widely used standard for data representation and exchange among Web applications. Consequently, a large volume of such data is distributed all over the Web and stored using several persistence methods. DBMSs provide concurrency control techniques to manage data. However, the structure of XML data makes it difficult to use these techniques. Projects are being proposed and they provide management of XML documents. Nevertheless, most of these projects do not provide efficient concurrency control mechanisms for distributed data. Some of them do provide support for distributed control of XML data, but use protocols that have limitations and offer low concurrency levels. In order to provide effective data management in distributed environments, we present DTX, a distributed concurrency control mechanism for XML data that takes into account its structural characteristics. DTX aims to provide effective management of XML data and contemplate properties such as isolation and consistency in transactions, using a multi-granular concurrency control protocol that increases parallelism among transactions and that has an optimized structure for data representation. DTX has a modular and flexible architecture, allowing for easy integration with any XML storage mechanisms. Moreover, DTX can be extended by adding new features to it. In order to evaluate DTX, several experiments were conducted comparing DTX as it is with a variation of DTX that uses a fine-grained protocol, in an attempt to simulate existing strategies in related work. Results confirm DTXâs effectiveness considering different aspects of distributed transactions on XML data, improving their performance, i.e., transaction execution time.
344

Common Information Model/eXtensible Markup Language (CIM/XML) na troca de informações entre centros de controle de energia elétrica. / Common information Model/eXtensible Markup Language (CIM/XML) to exchange data among Power Utilities' Control Centers.

Carlos Augusto Siqueira da Cunha Júnior 14 July 2005 (has links)
Esta dissertação analisa a utilização do modelo de dados padronizado pela norma IEC 61970 (CIM), tida como uma ferramenta para troca de informações cadastrais e operacionais entre empresas de energia elétrica, com sistemas computacionais de diferentes fabricantes. O propósito deste padrão é criar um mecanismo para troca de informações baseado em XML, denominado de CIM/XML – um formato, especificamente, utilizado pelos Centros de Controle de Energia Elétrica para troca de dados. Os modelos de dados do padrão IEC 61970 são apresentados, bem como a avaliação do CIM/XML como uma ferramenta de interoperabilidade de dados entre empresas de energia que apresentam bases de dados de diferentes modelagem e implementação. Um dos méritos deste modelo, além de fazer uso de uma tecnologia aberta (XML) disponível em qualquer tipo de computador, e que possibilita armazenar e transferir não só dados cadastrais de equipamentos, mas também dados de topologia da rede, curvas de carga, programação de geração, saídas programadas de equipamentos, bem como medições de sistemas SCADA, indicações de estado e alarmes. Possibilita ainda armazenamento de resultados de simulação, tais como resultados do programa de fluxo de potência. Adicionalmente, é apresentado em detalhes informações sobre: a implementação do modelo lógico orientado a objetos do CIM, numa base de dados relacional; os registros de equipamentos e a topologia de um trecho de linha de sub-transmissão aéreo e subterrâneo; as informações (exportadas e importadas no formato CIM/XML) inseridas na base de dados, e a geração do documento CIM/XML. / This dissertation provides an analysis about the application of a data model based on IEC 61970 (CIM) standard – a tool for exchanging operational and equipments information among different Electrical Power Utilities' computing systems. The purpose of this standard is to create a mechanism for information exchange using XML, called CIM/XML – a format specifically used by Electrical Power Utilities' Control Centers for data exchange. The IEC 61970 standard-based data models is presented as well the evaluation of CIM/XML as a tool for data interoperability among Electrical Power Utilities' databases, that uses different modeling and implementation approaches. The benefit of this model – besides of using a open standard technology (XML) that can be found on any type of computer – is the capability of store and transfer information not only from equipments, but also from network topology, load flow curves, generation scheduling, equipments outages, SCADA system measurements, status indication and alarms. It also enables the storage of simulation results, such as the power flow bus voltage and lines loads. Additionally, is also provided highly detailed information about: the CIM object-oriented model implementation mapped to a relational database; the records of equipments and topology of an aerial and underground subtransmission line section; the information (exported and imported using CIM/XML format) included in the database, and the CIM/XML document generation.
345

Serviços semânticos: uma abordagem RESTful. / Semantic web services: a RESTful approach

Otávio Freitas Ferreira Filho 06 April 2010 (has links)
Este trabalho foca na viabilização do desenvolvimento de serviços semânticos de acordo com o estilo arquitetural REST. Mais especificamente, considera-se a realização REST baseada no protocolo HTTP, resultando em serviços semânticos RESTful. A viabilização de serviços semânticos tem sido tema de diversas publicações no meio acadêmico. Porém, a grande maioria dos esforços considera apenas os serviços desenvolvidos sob o estilo arquitetural RPC, através do protocolo SOAP. A abordagem RPC, fortemente incentivada pela indústria de software, é perfeitamente realizável em termos tecnológicos, mas agrega computações e definições desnecessárias, o que resulta em serviços mais complexos, com baixo desempenho e pouca escalabilidade. O fato é que serviços REST compõem a maioria dos serviços disponibilizados na Web 2.0 nome amplamente adotado para referenciar a atual fase da Web, notoriamente focada na geração colaborativa de conteúdo. A proposta oferecida por este trabalho utiliza uma seleção específica de linguagens e protocolos já existentes, reforçando sua realizabilidade. Utiliza-se a linguagem OWL-S como ontologia de serviços e a linguagem WADL para a descrição sintática dos mesmos. O protocolo HTTP é utilizado na transferência das mensagens, na definição da ação a ser executada e no escopo de execução desta ação. Identificadores URI são utilizados na definição da interface de acesso ao serviço. A compilação final dá origem à ontologia RESTfulGrounding, uma especialização de OWL-S. / The proposal is to allow the development of semantic Web services according to an architectural style called REST. More specifically, it considers a REST implementation based on the HTTP protocol, resulting in RESTful Semantic Web Services. The development of semantic Web services has been the subject of various academic papers. However, the predominant effort considers Web services designed according to another architectural style named RPC, mainly through the SOAP protocol. The RPC approach, strongly stimulated by the software industry, aggregates unnecessary processing and definitions that make Web services more complex than desired. Therefore, services end up being not as scalable and fast as possible. In fact, REST services form the majority of Web services developed within the Web 2.0 context, an environment clearly focused on user-generated content and social aspects. The proposal presented here makes use of a specific selection of existing languages and protocols, reinforcing its feasibility. Firstly, OWL-S is used as the base ontology for services, whereas WADL is for syntactically describing them. Secondly, the HTTP protocol is used for transferring messages; defining the action to be executed; and also defining the execution scope. Finally, URI identifiers are responsible for specifying the service interface. The final compilation proposed results in an ontology named RESTfulGrounding, which extends OWL-S.
346

Common Information Model/eXtensible Markup Language (CIM/XML) na troca de informações entre centros de controle de energia elétrica. / Common information Model/eXtensible Markup Language (CIM/XML) to exchange data among Power Utilities' Control Centers.

Cunha Júnior, Carlos Augusto Siqueira da 14 July 2005 (has links)
Esta dissertação analisa a utilização do modelo de dados padronizado pela norma IEC 61970 (CIM), tida como uma ferramenta para troca de informações cadastrais e operacionais entre empresas de energia elétrica, com sistemas computacionais de diferentes fabricantes. O propósito deste padrão é criar um mecanismo para troca de informações baseado em XML, denominado de CIM/XML – um formato, especificamente, utilizado pelos Centros de Controle de Energia Elétrica para troca de dados. Os modelos de dados do padrão IEC 61970 são apresentados, bem como a avaliação do CIM/XML como uma ferramenta de interoperabilidade de dados entre empresas de energia que apresentam bases de dados de diferentes modelagem e implementação. Um dos méritos deste modelo, além de fazer uso de uma tecnologia aberta (XML) disponível em qualquer tipo de computador, e que possibilita armazenar e transferir não só dados cadastrais de equipamentos, mas também dados de topologia da rede, curvas de carga, programação de geração, saídas programadas de equipamentos, bem como medições de sistemas SCADA, indicações de estado e alarmes. Possibilita ainda armazenamento de resultados de simulação, tais como resultados do programa de fluxo de potência. Adicionalmente, é apresentado em detalhes informações sobre: a implementação do modelo lógico orientado a objetos do CIM, numa base de dados relacional; os registros de equipamentos e a topologia de um trecho de linha de sub-transmissão aéreo e subterrâneo; as informações (exportadas e importadas no formato CIM/XML) inseridas na base de dados, e a geração do documento CIM/XML. / This dissertation provides an analysis about the application of a data model based on IEC 61970 (CIM) standard – a tool for exchanging operational and equipments information among different Electrical Power Utilities' computing systems. The purpose of this standard is to create a mechanism for information exchange using XML, called CIM/XML – a format specifically used by Electrical Power Utilities' Control Centers for data exchange. The IEC 61970 standard-based data models is presented as well the evaluation of CIM/XML as a tool for data interoperability among Electrical Power Utilities' databases, that uses different modeling and implementation approaches. The benefit of this model – besides of using a open standard technology (XML) that can be found on any type of computer – is the capability of store and transfer information not only from equipments, but also from network topology, load flow curves, generation scheduling, equipments outages, SCADA system measurements, status indication and alarms. It also enables the storage of simulation results, such as the power flow bus voltage and lines loads. Additionally, is also provided highly detailed information about: the CIM object-oriented model implementation mapped to a relational database; the records of equipments and topology of an aerial and underground subtransmission line section; the information (exported and imported using CIM/XML format) included in the database, and the CIM/XML document generation.
347

A Method for Efficient Transmission of XML Data across a Network

Ridgewell, Alexander Graham, n/a January 2007 (has links)
Extensible Markup Language (XML) is a simple, very flexible text format derived from SGML (ISO 8879), which is a well defined, public standard. It uses plain text to encode a hierarchical set of information using verbose tags to allow the XML document to be understood without any special reader. The use of schemas in XML also allows a well defined contract describing what a single XML document means. The self-contained nature of XML and the strong contract provided by its schemas makes it useful as an archival storage format and as a means of communicating across system or organizational boundaries. As such XML is being increasingly used by businesses throughout the world. These businesses use XML as a means of storing, transmitting and (with the use of style sheets) displaying information. The simple, well defined structure of XML does present some problems when it is used by businesses and similar organizations. As it is an open, plain text based standard care must be taken when looking at security. The use of plain text with verbose tags also results in XML documents that are far larger than other means of storing the same information. This thesis focuses on the affect of the large size of XML when it is used to communicate across a network. This large size can often increase the time taken to transmit the document and we were interested to see how it could be minimized. we investigated the ways that are used to control the size of XML documents and how they are transmitted. We carefully investigated by implementing solutions on how to transmit the XML document. We then first presented a new method, called dynamic adaptive threshold transmission (DATT), in comparisons with other existing similar methods, which, under the discussed conditions, offers significant improvements in transmission times and network transmission efficiencies.
348

Managing dynamic XML data

Fisher, Damien Kaine, School of Computer Science & Engineering, UNSW January 2007 (has links)
Recent years have seen a surge in the popularity of XML, a markup language for representing semi-structured data. Some of this popularity can be attributed to the success that the semi-structured data model has had in environments where the relational data model has been insufficiently expressive. Concomitant with XMLs growing popularity, the world of database research has seen the rebirth of interest in tree-structured, hierarchical database systems. This thesis analyzes several problems that arise when constructing XML data management systems, particularly in the case where such systems must handle dynamic content. In the first chapter, we consider the problem of incremental schema validation, which arises in almost any XML database system. We build upon previous work by finding several classes of schemas for which very efficient algorithms exist. We also develop an algorithm that works for any schema, and prove that it is optimal. In the second chapter, we turn to the problem of improving query evaluation times on extremely large database systems. In particular, we boost the performance of the structural and twig joins, fundamental XML query evaluation techniques, through the use of an adaptive index. This index tunes itself to the query workload, providing a 20-80% boost in speed for these join operators. The adaptive nature of the index also allows updates to the database to be easily tracked. While accurate selectivity estimation is a critical problem in any database system due to its importance in choosing optimal query plans, there has been very little work on selectivity estimation in the presence of updates. We ask whether it is possible to design a structure for selectivity in XML databases that is updateable, and can return results with theoretically sound error guarantees. Through a combination of lower and upper bounds, we give strong evidence suggesting that this is unlikely in practice. Motivated by these results, we then develop a heuristic selectivity estimation structure for XML databases. This structure is the first such synopsis that can handle all aspects of core XPath, and is also updateable. Our experimental results demonstrate the efficacy of the approach.
349

An XML-based Database of Molecular Pathways / En XML-baserad databas för molekylära reaktioner

Hall, David January 2005 (has links)
<p>Research of protein-protein interactions produce vast quantities of data and there exists a large number of databases with data from this research. Many of these databases offers the data for download on the web in a number of different formats, many of them XML-based.</p><p>With the arrival of these XML-based formats, and especially the standardized formats such as PSI-MI, SBML and BioPAX, there is a need for searching in data represented in XML. We wanted to investigate the capabilities of XML query tools when it comes to searching in this data. Due to the large datasets we concentrated on native XML database systems that in addition to search in XML data also offers storage and indexing specially suited for XML documents.</p><p>A number of queries were tested on data exported from the databases IntAct and Reactome using the XQuery language. There were both simple and advanced queries performed. The simpler queries consisted of queries such as listing information on a specified protein or counting the number of reactions.</p><p>One central issue with protein-protein interactions is to find pathways, i.e. series of interconnected chemical reactions between proteins. This problem involve graph searches and since we suspected that the complex queries it required would be slow we also developed a C++ program using a graph toolkit.</p><p>The simpler queries were performed relatively fast. Pathway searches in the native XML databases took long time even for short searches while the C++ program achieved much faster pathway searches.</p>
350

Enkel navigering i webbdatabaser inom bioinformatik: En implementation av moduler för ett urval av databaser

Peterson, Rickard January 2010 (has links)
<p>Detta examensarbete är framtaget för att utforma moduler till programmet BioSpider som utvecklats vid ADIT avdelningen vid IDA institutionen Linköping Universitet med syfte att förenkla för biologer när de söker information om andra forskares resultat.</p><p>Det finns ett stort antal databaser som innehåller forskningsdata kring proteiner, reaktioner, signalvägar etc. Exempel på databaser är UniProt, Reactome, IntAct, BioModels och KEGG. Det uppstår problem med att dessa databaser är uppbyggda på olika sätt och ej kan användas på ett universellt sätt, utan kräver individuellt utformning och anpassning för att kunna användas tillsammans med andra databaser.  Det är där BioSpider kommer in, BioSpider är ett program som försöker bygga upp ett träd utifrån olika databaser. Varje databas hanteras individuellt av BioSpider men presenteras på ett universellt sätt i form av ett träd för användaren. Examensarbetets del i BioSpider är att utforma moduler som behandlar ytterligare databaser utöver BioModels som redan stöds i BioSpider.</p><p>Behovet av att tillgängliggöra stöd för fler databaser var nödvändigt för att kunna visa upp en användbar version av BioSpider med mer än en databas. Detta för att kunna visa att metoden fungerar i praktiken.</p><p>Examensarbetet har utförts genom att en förstudie av ett antal databaser har gjorts och inom dessa valt ut relevant information som sedan implementerats i BioSpider med olika moduler för de olika databaserna.</p><p>Det som fanns tillgängligt vid examensarbetets start var programmet BioSpider och implementation för en databas (BioModels). Nu stöds BioSpider av ytterligare fyra stycken databaser som är UniProt, Reactome, KEGG och IntAct som bygger ut trädet. BioSpider stöds även utav DIP, Ensembl, EMBL, FlyBase, GO, InterPro, OMIM, PDB, PIR, PROSIT och RefSeq för vidare länkning till webbsida där ytterligare information kan återfås.</p> / <p>The aim of this thesis was to develop modules for the system BioSpider that are developed by ADIT division at IDA institute at Linköping University. The objective is to simplify for biologist when they seek for information about research findings.</p><p>There is a large number of databases that contains research results about proteins, reactions, pathways etc. Examples of these databases are UniProt, Reactome, IntAct, BioModels and KEGG. Problems emerges since the databases are constructed in different ways and cannot be used in a universal way, they must be individually tailored and adjusted to be compatible with other databases. This is where BioSpider comes in, BioSpider is a program that is supposed to build up a tree of the different databases. Each database is managed individually by BioSpider and is presented to the user in a universal way in the form of a tree. This thesis extends the BioSpider system so that more databases are supported than just the database BioModels.</p><p>The need to support more databases was necessary to be able to produce a usable version of BioSpider with more than one database. This is important to show that the method works in practice.</p><p>The work has been performed by a pilot study of a number of databases. Within these we selected appropriate information that was implemented in BioSpider with different modules for different databases.</p><p>At start of this thesis one database was supported by BioSpider, this database is BioModels. Now BioSpider supports by additional four databases UniProt, Reactome, KEGG and IntAct. BioSpider also supports linking to websites where information can be retrieved, the supported databases are DIP, Ensembl, EMBL, FlyBase, GO, InterPro, OMIM, PDB, PIR, PROSIT and RefSeq.</p>

Page generated in 0.0256 seconds