• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 64
  • 1
  • 1
  • Tagged with
  • 68
  • 68
  • 49
  • 49
  • 20
  • 12
  • 10
  • 10
  • 9
  • 9
  • 9
  • 8
  • 8
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Usando assertivas de correspondência para especificação e geração de visões XML para aplicações web / Using assertive of correspondence for specification and generation of XML view for applications Web

Lemos, Fernando Cordeiro de January 2007 (has links)
LEMOS, Fernando Cordeiro de. Usando assertivas de correspondência para especificação e geração de visões XML para aplicações web. 2007. 127 f. Dissertação (Mestrado em ciência da computação)- Universidade Federal do Ceará, Fortaleza-CE, 2007. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-11T15:21:34Z No. of bitstreams: 1 2007_dis_fclemos.pdf: 1586971 bytes, checksum: d5add67ad3fb40e35813240332a35900 (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-15T15:35:40Z (GMT) No. of bitstreams: 1 2007_dis_fclemos.pdf: 1586971 bytes, checksum: d5add67ad3fb40e35813240332a35900 (MD5) / Made available in DSpace on 2016-07-15T15:35:40Z (GMT). No. of bitstreams: 1 2007_dis_fclemos.pdf: 1586971 bytes, checksum: d5add67ad3fb40e35813240332a35900 (MD5) Previous issue date: 2007 / Web applications that have large number of pages, whose contents are dynamically extracted from one or more databases, and that requires data intensive access and update, are known as "data-intensive Web applications" (DIWA applications) [7]. In this work, the requirements for the content of each page of the application are specified by an XML view, which is called Navigation View (NV). We believe that the data of NVs are stored in a relational or XML database. In this work, we propose an approach to specify and generate NVs for Web applications whose content is extracted from one or more data sources. In the proposed approach, a NV is specified conceptually with the help of a set of Correspondence Assertions [44], so that the definition of NV can be generated automatically based on assertions of view. / Aplicações Web que possuem grande número de páginas, cujos conteúdos são dinamicamente extraídos de banco de dados, e que requerem intenso acesso e atualização dos dados, são conhecidas como “data-intensive Web applications” (aplicações DIWA). Neste trabalho, os requisitos de conteúdo de cada página da aplicação são especificados através de uma visão XML, a qual denominamos Visão de Navegação (VN). Consideramos que os dados das VNs estão armazenados em um banco de dados relacional ou XML. Nesse trabalho, propomos um enfoque para especificação e geração de VNs para aplicações Web cujo conteúdo é extraído de uma ou mais fontes de dados. No enfoque proposto, uma VN é especificada conceitualmente com a ajuda de um conjunto de Assertivas de Correspondência, de forma que a definição da VN pode ser gerada automaticamente a partir das assertivas da visão.
22

Um ambiente para processamento de consultas federadas em linked data Mashups / An environment for federated query processing in linked data Mashups

Magalhães, Regis Pires January 2012 (has links)
MAGALHÃES, Regis Pires. Um ambiente para processamento de consultas federadas em linked data Mashups. 2012. 117 f. Dissertação (Mestrado em ciência da computação)- Universidade Federal do Ceará, Fortaleza-CE, 2012. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-12T16:08:12Z No. of bitstreams: 1 2012_dis_rpmagalhaes.pdf: 2883929 bytes, checksum: 1a04484a7e875cd8ead588d91693577a (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-21T16:05:44Z (GMT) No. of bitstreams: 1 2012_dis_rpmagalhaes.pdf: 2883929 bytes, checksum: 1a04484a7e875cd8ead588d91693577a (MD5) / Made available in DSpace on 2016-07-21T16:05:44Z (GMT). No. of bitstreams: 1 2012_dis_rpmagalhaes.pdf: 2883929 bytes, checksum: 1a04484a7e875cd8ead588d91693577a (MD5) Previous issue date: 2012 / Semantic Web technologies like RDF model, URIs and SPARQL query language, can reduce the complexity of data integration by making use of properly established and described links between sources.However, the difficulty to formulate distributed queries has been a challenge to harness the potential of these technologies due to autonomy, distribution and vocabulary of heterogeneous data sources. This scenario demands effective mechanisms for integrating data on Linked Data.Linked Data Mashups allow users to query and integrate structured and linked data on the web. This work proposes two architectures of Linked Data Mashups: one based on the use of mediators and the other based on the use of Linked Data Mashup Services (LIDMS). A module for efficient execution of federated query plans on Linked Data has been developed and is a component common to both proposed architectures.The execution module feasibility has been demonstrated through experiments. Furthermore, a LIDMS execution Web environment also has been defined and implemented as contributions of this work. / Tecnologias da Web Semântica como modelo RDF, URIs e linguagem de consulta SPARQL, podem reduzir a complexidade de integração de dados ao fazer uso de ligações corretamente estabelecidas e descritas entre fontes.No entanto, a dificuldade para formulação de consultas distribuídas tem sido um obstáculo para aproveitar o potencial dessas tecnologias em virtude da autonomia, distribuição e vocabulário heterogêneo das fontes de dados.Esse cenário demanda mecanismos eficientes para integração de dados sobre Linked Data.Linked Data Mashups permitem aos usuários executar consultas e integrar dados estruturados e vinculados na web.O presente trabalho propõe duas arquiteturas de Linked Data Mashups:uma delas baseada no uso de mediadores e a outra baseada no uso de Linked Data Mashup Services (LIDMS). Um módulo para execução eficiente de planos de consulta federados sobre Linked Data foi desenvolvido e é um componente comum a ambas as arquiteturas propostas.A viabilidade do módulo de execução foi demonstrada através de experimentos. Além disso, um ambiente Web para execução de LIDMS também foi definido e implementado como contribuições deste trabalho.
23

Integração, visualização e análise de informações eleitorais usando bancos de dados analíticos e fontes heterogêneas de grande volume

Pires, Luciano Barros January 2015 (has links)
Orientador: Prof. Dr. Márcio Katsumi Oikawa / Dissertação (mestrado) - Universidade Federal do ABC, Programa de Pós-Graduação em Ciência da Computação, 2015. / Integração de dados heterogêneos e seu uso para ferramentas de análise é um problema cuja complexidade aumenta muito com bancos de dados de grandes volumes. No Brasil, há um conjunto grande de informações públicas que pode ser usadas para análise em diversos setores. Apesar disso, a heterogeneidade de formatos e a distribuição difusa dos dados dificulta sua utilização de forma mais produtiva. O atual tratamento dos dados é realizado internamente às instituições, de maneira que os dados, embora públicos, mantém uma difícil estratégia de integração para a maior parte da população, que normalmente conta com recursos limitados de computação, além de conhecimentos básicos de Informática. Este projeto propõe a criação de um ambiente composto por servidor, banco de dados, bibliotecas e ferramentas visuais de dados. Além da integração de fontes de dados heterogêneas e de grande volume, a saída visual dos dados propõe uma forma de facilitar a análise dos dados para usuários finais, permitindo que possam ter maior capacidade de utilização das informações públicas. Neste trabalho, são ilustradas as técnicas usadas no contexto de dados eleitorais, integrando fontes de dados de diferentes instituições na produção de modelos visuais que facilitam a análise dessa informação e a tomada de decisões. / Heterogeneous database integration and its usage to support software analysis tools is a problem whose complexity decisively grows for the big data volumes. In Brazil, there is a great set of public information available to analysis. However, its format heterogeneity and diffuse distribution hamper more effective data analysis. The current data treatment occurs inside the institutions, so that the information is not available to the majority of the population, usually with limited computer resources and basic knowledge of Computer Science. This project proposes the creation of an environment integrating server, databases, libraries, and visual tools for public data analysis. In addition to the heterogeneity integration of big data volumes, the visual interface offers an easy way to data analysis by final users, allowing them to make use of the public information. In this work, it was illustrated the techniques using electoral data, integrating data sources from many different institutions. Furthermore, these visual models support data analysis and decision-making processes.
24

GeoDrill : uso de SQL para integração de fontes de dados espaciais heterogêneas com ou sem esquema.

ACIOLI FILHO, José Amilton Moura. 21 May 2018 (has links)
Submitted by Maria Medeiros (maria.dilva1@ufcg.edu.br) on 2018-05-21T13:33:00Z No. of bitstreams: 1 JOSÉ AMILTON MOURA ACIOLI FILHO - DISSERTAÇÃO (PPGCC) 2016.pdf: 4531903 bytes, checksum: 0544920547c2d257f657b480a1c5f45f (MD5) / Made available in DSpace on 2018-05-21T13:33:00Z (GMT). No. of bitstreams: 1 JOSÉ AMILTON MOURA ACIOLI FILHO - DISSERTAÇÃO (PPGCC) 2016.pdf: 4531903 bytes, checksum: 0544920547c2d257f657b480a1c5f45f (MD5) Previous issue date: 2016-09-02 / Com a evolução da web e dos sistemas de informação, as organizações têm obtido dados dos mais diversos formatos, estruturas e tipos, podendo-se destacar os espaciais. Devido aos dados apresentarem características distintas, estes acabam sendo mantidos em fontes de dados heterogêneas, sendo assim necessário investir cada vez mais em soluções que possam integrar e analisar estes dados de diferentes fontes. Algumas destas soluções conseguem analisar o componente espacial dos dados, no entanto, essa análise dos dados espaciais é limitada pelo tipo de dados ou funções espaciais suportadas. Neste trabalho, é abordado o problema da integração de dados espaciais de fontes de dados heterogêneas, com ou sem esquema, utilizando linguagem SQL. Este é um problema em aberto na área de integração de dados espaciais, pois as soluções existentes apresentam inúmeras limitações, a exemplo da linguagem de consulta utilizada, os meios para acesso a dados, as tecnologias que podem ser integradas, as funções disponibilizadas e os tipos de dados espaciais suportados. Visando solucionar esse problema, desenvolveu-se a solução GeoDrill, uma extensão do Apache Drill que dá suporte a todas as funções espaciais padronizadas pela OGC (Open Geospatial Consortium), através da linguagem SQL, podendo realizar consultas em dados com ou sem esquema. Para validar a capacidade de integração dos dados no GeoDrill, foi desenvolvido um experimento para analisar as funcionalidades e o desempenho do mesmo. A solução GeoDrill foi capaz de realizar a integração dos dados espaciais de fontes heterogêneas, apresentando-se como uma alternativa para a resolução de parte das limitações existentes na área. / With the evolution of the web and information systems, organizations have obtained data of various formats, structures and types, specially the spatial one. Due to different characteristics presented in data, such data have been stored in heterogeneous data sources. Therefore, it is needed to increasingly invest in solutions that can integrate and analyze these data from different sources. Some of these solutions can analyze the spatial component of data; however, this analysis of spatial data is limited either by the data type or spatial functions supported. In this work, the problem of spatial data integration from heterogeneous data sources is addressed, either with or without using schemas, using SQL language. This is an open issue in the area of spatial data integration, since existing solutions present many limitations, such as the query language used, the ways to access data, the technologies that can be integrated, the available functions set and the spatial data types supported. Aiming at solving this problem, the GeoDrill solution was developed, which is an extension of the Apache Drill that supports all standard spatial functions provided by the OGC (Open Geospatial Consortium) through the SQL language. The GeoDrill can perform queries on data with or without schema. In order to validate the capacity of GeoDrill to integrate data, an experiment was conducted to analyze its functionalities and performance. The obtained results indicate the GeoDrill solution is able to integrate spatial data from heterogeneous data sources. Hence, it appears to be a suitable alternative for solving part of the existing limitations in this research field.
25

Uma proposta para o Gerenciamento de Cache de um Sistema de Integração de Dados

GALVÃO, Walter de Carvalho Mattos January 2007 (has links)
Made available in DSpace on 2014-06-12T16:00:24Z (GMT). No. of bitstreams: 2 arquivo6556_1.pdf: 641759 bytes, checksum: 7046c38915c80e308e3cd3bc91890b55 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2007 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Sistemas de Integração de Dados (SID) proporcionam ao usuário uma visão unificada de dados que estão armazenados em diversas fontes diferentes. Essas fontes são independentes e cada uma possui um esquema próprio, elaborado para atender as necessidades dos usuários de cada banco. Cada SID possui um conjunto de fontes de dados distintas relevantes para o seu domínio, e deve colher de cada uma os dados necessários para responder as consultas do usuário. Uma vez obtidos esses dados, o SID deverá traduzi-los para um esquema global (esquema de mediação), integrá-los e exibi-los ao usuário. Para Sistemas de Integração de Dados na Web, como o Integra - SID desenvolvido por alunos e professores do Centro de Informática da UFPE e utilizado para a implementação das nossas contribuições - os desafios são ainda maiores, visto que a disponibilidade das fontes se torna um fator bastante relevante. Sendo assim, o custo para se buscar os dados sempre nas fontes pode ser bastante alto. Por isso, alguns SID, como o Integra, possuem uma cache para o armazenamento dos dados resultantes das consultas que o sistema considera mais relevantes. Desta forma, quando alguma consulta que já esteja armazenada em cache for novamente solicitada pelo usuário, o sistema não mais necessitará acessar as fontes de dados para respondê-la, o que otimizará o processamento. O objetivo desta dissertação de mestrado é apresentar uma proposta de um Gerenciador de Cache para um Sistema de Integração de Dados. Esse Gerenciador é composto por um módulo que controla o espaço da cache, decidindo que consultas devem entrar e quais devem permanecer em cache. Possui outro módulo que identifica se a consulta submetida pelo usuário está contida em outra que esteja armazenada em cache (técnica de query containment). E por último, um módulo que realiza a substituição parcial de uma consulta, para o melhor aproveitamento do espaço da cache
26

Materialização seletiva de dados baseada em critérios de qualidade

AMARAL, Haroldo José Costa do January 2007 (has links)
Made available in DSpace on 2014-06-12T16:00:34Z (GMT). No. of bitstreams: 2 arquivo6689_1.pdf: 1440653 bytes, checksum: 8e110d032301a3d0e89392806c78a317 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2007 / Sistemas de integração de dados oferecem acesso uniforme a informações distribuídas em fontes autônomas e heterogêneas, através de um esquema integrado que compõe uma visão integrada das fontes. Normalmente, duas abordagens podem ser usadas na construção de sistemas de integração de dados, onde cada uma segue uma arquitetura de implementação: as abordagens virtual e materializada. Na abordagem virtual, implementada pela arquitetura de mediadores, as informações são recuperadas sob demanda diretamente das fontes de dados. Por outro lado, na abordagem materializada (warehousing), implementada pela arquitetura de data warehouse, as informações relevantes são recuperadas com antecedência, integradas e armazenadas em um repositório central, comumente chamado de data warehouse, de forma que uma consulta é avaliada diretamente nesse repositório. O sistema de integração de dados Integra, em desenvolvimento pelo Centro de Informática da UFPE, combina recursos de ambas as abordagens, com suporte ao processamento de consultas virtuais e materializadas. O Integra foi desenvolvido usando a arquitetura de mediadores (abordagem virtual) com recursos de materialização (abordagem materializada), compondo uma abordagem híbrida de integração de dados. A abordagem híbrida é proposta como uma forma de otimizar a performance do sistema de integração, uma vez que a inserção de mecanismos de materialização funciona como um mecanismo otimizador no processamento de consultas, além de aumentar a disponibilidade do sistema, principalmente se for feita uma seleção criteriosa dos dados que serão materializados. O objetivo principal deste trabalho é desenvolver e implementar os processos de materialização de dados e de manutenção desses dados materializados, no contexto da proposta definida pelo sistema Integra. A estratégia de materialização é baseada na seleção parcial de dados, mediante análise de critérios de qualidade e custo, refletindo as características das fontes e das consultas. Para tal, o processo de materialização ainda conta com o desenvolvimento de métodos para estimar os critérios. Na arquitetura do sistema Integra, o módulo responsável pela materialização e manutenção dos dados materializados é o Gerenciador do Data Warehouse. Sendo assim, este trabalho visa, também, o desenvolvimento (funcionalidades) e implementação desse módulo.
27

Análise de expressão gênica diferencial entre diversas bibliotecas de soja / Analysis of differential gene expression between different libraries of soybean

Nascimento, Leandro Costa do 12 September 2010 (has links)
Orientador: Gonçalo Amarante Guimarães Pereira / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Biologia / Made available in DSpace on 2018-08-17T20:48:34Z (GMT). No. of bitstreams: 1 Nascimento_LeandroCostado_M.pdf: 1292421 bytes, checksum: e05cfc27d3bf5ae000bfe8b621a750c8 (MD5) Previous issue date: 2010 / Resumo: A soja é uma das principais commodities da economia internacional, sendo sua produção mundial de cerca de 220 milhões de toneladas por safra. Além de ser um alimento rico em proteínas e usado para a fabricação de óleo vegetal, a planta vem ganhando visibilidade devido a possibilidade de ser usada na fabricação de biocombustíveis, principalmente o biodiesel. Para o Brasil, a soja tem grande importância na balança comercial, sendo o país o segundo maior produtor do mundo. Neste contexto, no ano de 2007, o governo brasileiro estabeleceu um consórcio de pesquisas em soja - denominado GENOSOJA - com o objetivo de identificar características genéticas que possam facilitar o processo produtivo da planta, com foco nos diversos estresses que acometem a produção nacional, como a ocorrência de secas, o ataque de pragas e a doença da ferrugem asiática, causada pelo fungo Phakopsora pachyrhizi. Este trabalho está inserido no escopo do GENOSOJA, propondo a construção de bancos de dados contendo informações disponíveis nos diversos bancos públicos (sequências genômicas, ESTs e cDNA full-lenght), integrando-as com as informações geradas no decorrer do projeto (tags de SuperSAGE, bibliotecas subtrativas de cDNA e microRNAs). Além disso, foram construídas diversas interfaces web que oferecem aos usuários diversas funcionalidades, incluindo: comparações estatísticas, consultas por palavras-chave, dados sobre anotação e expressão dos genes nas diversas condições e experimentos estudados. Dessa forma, o ferramental de bioinformática aqui apresentado pode facilitar a compreensão de como as diferenças de expressão gênica da planta podem afetar características de importância agronômica / Abstract: Soybean is one of the main commodities in the international economy, with a world production of about 220 millions of tons per harvest. Besides being a protein rich food and used for vegetable oil production, the plant has been gaining visibility due to the possibility of being to make biofuels, especially biodiesel. The soybean culture is of great importance in the Brazilian economy, being the country the second largest producer in the world. In this context, in 2007, the Brazilian government established a research consortium in soybean - called GENOSOJA - aiming to identify genetic traits that may facilitate the production process of the plant, focusing on the different stresses that affect the national production, as the occurrence of drought, pests' attacks and the asian rust disease, caused by the Phakopsora pachyrhizi fungus. This work is inserted in the GENOSOJA, proposing to build a set of databases containing information available in several public databases (genomic sequences, ESTs and full-length cDNA), integrating them with information generated during the project (SuperSAGE tags, cDNA subtractive libraries and miRNAs). Additionally, several web interfaces were built. They offer to users many features, including: statics comparisons, keyword searches, data about annotation and gene expression in different experiments and conditions. Thus, the bioinformatics tools presented here may facilitate the understanding of how the differences in gene expression can affect plant traits with agronomic importance / Mestrado / Bioinformatica / Mestre em Genética e Biologia Molecular
28

Alinhamento Espaço-Temporal em Sistemas Multissensoriais Heterogêneos / Alignment Space-Time Heterogeneous Systems multisensory

Froner, Diego da Silva 29 February 2012 (has links)
Made available in DSpace on 2015-04-11T14:03:15Z (GMT). No. of bitstreams: 1 DISSERTACAO DIEGO FRONER.pdf: 2152405 bytes, checksum: e2cee67bca7f2b5d58460ec7502da76c (MD5) Previous issue date: 2012-02-29 / Fundação de Amparo à Pesquisa do Estado do Amazonas / This work presents the use of different sensors improving the information to perform spatio-temporal alignment of sequential images. The existing proposals called feature-based uses the dynamics of scenes as a major indicator that simultaneously events are ocurring at the same time, and lately indicating their relative position in space. Adding motion sensors to a multiple video cameras system with overlapping fields of coverage, it s possible to acquire information about positions of the monitored objects that serves to aid the alignment between images. / Este trabalho apresenta a utilização de diferentes sensores no aprimoramento da informação necessária para realizar o alinhamento espaço-temporal de imagens sequenciais. As propostas existentes chamadas feature-based utilizam-se da dinâmica da cena como maior indicador de que eventos estão ocorrendo simultaneamente no tempo, e assim posteriormente indicando suas posições relativas no espaço. Adicionando sensores de movimentação a um sistema com múltiplas câmeras de vídeo que possuam sobreposição de campos de cobertura, é possível adquirir informações de posicionamento dos objetos monitorados, servindo assim de auxílio para o alinhamento entre as imagens.
29

Genômica translacional: integrando dados clínicos e biomoleculares / Translational genomics: integrating clinical and biomolecular data

Newton Shydeo Brandão Miyoshi 06 February 2013 (has links)
A utilização do conhecimento científico para promoção da saúde humana é o principal objetivo da ciência translacional. Para que isto seja possível, faz-se necessário o desenvolvimento de métodos computacionais capazes de lidar com o grande volume e com a heterogeneidade da informação gerada no caminho entre a bancada e a prática clínica. Uma barreira computacional a ser vencida é o gerenciamento e a integração dos dados clínicos, sócio-demográficos e biológicos. Neste esforço, as ontologias desempenham um papel essencial, por serem um poderoso artefato para representação do conhecimento. Ferramentas para gerenciamento e armazenamento de dados clínicos na área da ciência translacional que têm sido desenvolvidas, via de regra falham por não permitir a representação de dados biológicos ou por não oferecer uma integração com as ferramentas de bioinformática. Na área da genômica existem diversos modelos de bancos de dados biológicos (tais como AceDB e Ensembl), os quais servem de base para a construção de ferramentas computacionais para análise genômica de uma forma independente do organismo de estudo. Chado é um modelo de banco de dados biológicos orientado a ontologias, que tem ganhado popularidade devido a sua robustez e flexibilidade, enquanto plataforma genérica para dados biomoleculares. Porém, tanto Chado quanto os outros modelos de banco de dados biológicos não estão preparados para representar a informação clínica de pacientes. Este projeto de mestrado propõe a implementação e validação prática de um framework para integração de dados, com o objetivo de auxiliar a pesquisa translacional integrando dados biomoleculares provenientes das diferentes tecnologias omics com dados clínicos e sócio-demográficos de pacientes. A instanciação deste framework resultou em uma ferramenta denominada IPTrans (Integrative Platform for Translational Research), que tem o Chado como modelo de dados genômicos e uma ontologia como referência. Chado foi estendido para permitir a representação da informação clínica por meio de um novo Módulo Clínico, que utiliza a estrutura de dados entidade-atributo-valor. Foi desenvolvido um pipeline para migração de dados de fontes heterogêneas de informação para o banco de dados integrado. O framework foi validado com dados clínicos provenientes de um Hospital Escola e de um banco de dados biomoleculares para pesquisa de pacientes com câncer de cabeça e pescoço, assim como informações de experimentos de microarray realizados para estes pacientes. Os principais requisitos almejados para o framework foram flexibilidade, robustez e generalidade. A validação realizada mostrou que o sistema proposto satisfaz as premissas, levando à integração necessária para a realização de análises e comparações dos dados. / The use of scientific knowledge to promote human health is the main goal of translational science. To make this possible, it is necessary to develop computational methods capable of dealing with the large volume and heterogeneity of information generated on the road between bench and clinical practice. A computational barrier to be overcome is the management and integration of clinical, biological and socio-demographics data. In this effort, ontologies play a crucial role, being a powerful artifact for knowledge representation. Tools for managing and storing clinical data in the area of translational science that have been developed, usually fail due to the lack on representing biological data or not offering integration with bioinformatics tools. In the field of genomics there are many different biological databases (such as AceDB and Ensembl), which are the basis for the construction of computational tools for genomic analysis in an organism independent way. Chado is a ontology-oriented biological database model which has gained popularity due to its robustness and flexibility, as a generic platform for biomolecular data. However, both Chado as other models of biological databases are not prepared to represent the clinical information of patients. This project consists in the proposal, implementation and validation of a practical framework for data integration, aiming to help translational research integrating data coming from different omics technologies with clinical and socio-demographic characteristics of patients. The instantiation of the designed framework resulted in a computational tool called IPTrans (Integrative Platform for Translational Research), which has Chado as template for genomic data and uses an ontology reference. Chado was extended to allow the representation of clinical information through a new Clinical Module, which uses the data structure entity-attribute-value. We developed a pipeline for migrating data from heterogeneous sources of information for the integrated database. The framework was validated with clinical data from a School Hospital and a database for biomolecular research of patients with head and neck cancer. The main requirements were targeted for the framework flexibility, robustness and generality. The validation showed that the proposed system satisfies the assumptions leading to integration required for the analysis and comparisons of data.
30

An event-based approach to process environmental data = Um enfoque baseado em eventos para processar dados ambientais / Um enfoque baseado em eventos para processar dados ambientais

Koga, Ivo Kenji, 1981- 23 August 2018 (has links)
Orientador: Claudia Maria Bauzer Medeiros / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-23T23:06:49Z (GMT). No. of bitstreams: 1 Koga_IvoKenji_D.pdf: 2109870 bytes, checksum: 7ac5400b2e71be3e15b3bdf5504e3adf (MD5) Previous issue date: 2013 / Resumo: O resumo poderá ser visualizado no texto completo da tese digital / Abstract: The complete abstract is available with the full electronic document. / Doutorado / Ciência da Computação / Doutor em Ciência da Computação

Page generated in 0.0923 seconds