• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 64
  • 1
  • 1
  • Tagged with
  • 68
  • 68
  • 49
  • 49
  • 20
  • 12
  • 10
  • 10
  • 9
  • 9
  • 9
  • 8
  • 8
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Otimização de acesso em um sistema de integração de dados através do uso de caching e materialização de dados

BATISTA, Maria da Conceição Moraes January 2003 (has links)
Made available in DSpace on 2014-06-12T15:58:51Z (GMT). No. of bitstreams: 2 arquivo4733_1.pdf: 880825 bytes, checksum: f98e9dd65830a1642ae36a2ba204441e (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2003 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Sistemas de integração de dados oferecem acesso uniforme sobre fontes de dados heterogêneas e distribuídas. Para fornecer um acesso integrado a diversas fontes de dados, duas abordagens clássicas foram propostas na literatura atual: abordagem materializada e abordagem virtual. Na abordagem materializada, os dados são previamente acessados, integrados e armazenados em um data warehouse e as consultas submetidas ao sistema de integração são processadas nesse repositório sem haver acesso direto às fontes de dados. Na abordagem virtual, as consultas submetidas ao sistema de integração são decompostas em subconsultas endereçadas diretamente às fontes de dados. Os dados obtidos das fontes como resposta a essas subconsultas são integrados e retornados ao usuário solicitante. O nosso trabalho, consiste em criar um ambiente de integração de dados provenientes de múltiplas fontes no ambiente Web o qual combina recursos de ambas as abordagens suportando o processamento de consultas virtuais e materializadas. Um outro recurso de nossa proposta é a inserção de um subsistema de gerenciamento de uma cache para armazenar os resultados das consultas mais freqüentemente submetidas pelo usuário. O ambiente tem recursos de materialização de dados em um data warehouse, e o processo de materialização é feito seletivamente com base na análise e classificação de critérios de qualidade e custo associados aos dados das fontes. Essa seleção criteriosa visa equilibrar melhorias no tempo de resposta das consultas com taxas de custo de manutenção do data warehouse aceitáveis. A partir de uma arquitetura de integração de dados baseada na abordagem virtual, foram incluídos módulos para gerenciamento do data warehouse, gerenciamento da cache e módulos de processamento de consultas sob três formas: virtuais com acesso às fontes de dados, materializadas com acesso ao data warehouse e consultas acessando diretamente a cache. Todos esses recursos são colocados em conjunto visando obter ganhos no desempenho do processamento das consultas no sistema de integração
2

SIDATA - Sistema de integração de dados apoiado no tamino

da Silveira Siedler, Marcelo January 2004 (has links)
Made available in DSpace on 2014-06-12T15:59:02Z (GMT). No. of bitstreams: 2 arquivo4821_1.pdf: 2775265 bytes, checksum: ae1df286c372b6f969c33e46a9ba66e2 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2004 / O presente trabalho apresenta o SIDATA Sistema de Integração de Dados Apoiado no TAmino. O projeto consiste em uma proposta de arquitetura e desenvolvimento de um protótipo de um sistema de integração de dados utilizando técnicas relacionadas à web. As principais características do sistema consistem na utilização de XML tanto no armazenamento quanto na representação dos dados e, na utilização de ontologias, criadas a partir das premissas relacionadas à Web Semântica. Documentos XML são armazenados em sua forma nativa utilizando o SGBD XML Nativo Tamino, enquanto que as ontologias visam eliminar heterogeneidades sintáticas e/ou semânticas existentes entre as fontes de dados que estão sendo integradas. Por fim, cria-se uma opção aos sistemas de integração convencionais, buscando um menor esforço de administração e uma maior capacidade de integração de dados em sistemas legados
3

Desenvolvimento de Ferramenta Computacional para intergração de transcriptomas e redes biológicas medidas de desempenho global /

Biazotti, Alex Augusto January 2017 (has links)
Orientador: José Luiz Rybarczyk Filho / Resumo: A cada dia surgem novas tecnologias que possibilitam o estudo em larga escala dos RNAs transcritos por um organismo em condições especı́ficas, com isso fornecendo uma grande quantidade de informações. No entanto as metodologias tradicionais não são capazes de análisar de forma eficiente esses dados por utilizar cut-offs pré-definidos, eliminando assim uma grande quan- tidade de genes não considerados diferencialmente expresso, e por consequência reduzindo a precisão e a acurácia do estudo. Esse trabalho propõe o aperfeiçoamento da metodologia do transcriptograma (modelo cruz), desenvolvido por Rybarczyk-Filho et al., que realiza uma análise de forma global de um organismo, utilizando por sua vez redes proteı́cas e processos biológicos. Dentre as modificações realizadas estão: mudança no algoritmo de ordenamento para a redução do tempo de processamento da rede, adição de dois novos modelos “X” e “Anel”, a automação dos processos de análise de dados de expressão gênica, enriquecimento funcio- nal e da compilação de todas as informações em um gráfico. Para testar o aperfeiçoamento foram utilizadas duas séries de dados de expressão gênica, a GSE10072 e a GSE19804, re- ferentes a amostras de câncer de pulmão. O modelo “Anel” apresentou a melhor redução do custo energético de uma matriz, aproximadamente 93%. Para a modularidade, o modelo “Anel” também teve o melhor desempenho. A automação dos processos de enriquecimento funcional, da análise dos dados de expressão e da compilação d... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: Every day, new technologies are emerging that make it possible the large-scale study of RNAs transcribed by an organism under specific conditions, providing a huge amount of information. However, the traditional methodologies are not able to efficiently analyze these data due the use of pre-defined cut-offs, thus eliminating a large number of genes not considered differentially expressed, and consequently reducing precision andaccuracy of the study. This work proposes the improvement of the methodology of the Transcriptogram (model “Cross”), developed by Rybarczyk-Filho et al., which performs an overall analysis of an organism, using protein networks and biological processes. Among the modifications made are: Modification in ordering algorithm to reduce the network processing time, addition of the two new “X” and “Ring” models, the automation of the processes of gene expression data analysis, functional enrichment and the compilation of all information in a graphic. To test the improvements, two sets of gene expression data were used, GSE10072 and GSE19804, corresponding to samples of lung cancer. The “Ring” model showed the best matrix energy cost reduction, approximately 93%. For modularity, the “Ring” model also had the best performance. The automation of functional enrichment processes, the analysis of expression data and the compilation of all data in a graphic form reduces the time spent for acquisition and generation, increasing the accuracy. The results indicate that ... (Complete abstract click electronic access below) / Mestre
4

oLinDa: Uma Abordagem para Decomposição de Consultas em Federações de Dados Interligados

CUNHA, Danusa Ribeiro Bezerra da 21 February 2014 (has links)
Submitted by Lucelia Lucena (lucelia.lucena@ufpe.br) on 2015-03-06T19:07:13Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO Danusa Ribeiro Bezerra da Cunha.pdf: 5211208 bytes, checksum: c051cd99928c224160a77aa04d2ef53b (MD5) / Made available in DSpace on 2015-03-06T19:07:13Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO Danusa Ribeiro Bezerra da Cunha.pdf: 5211208 bytes, checksum: c051cd99928c224160a77aa04d2ef53b (MD5) Previous issue date: 2014-02-21 / CAPES / Um dos principais desafios a serem solucionados quando se deseja oferecer uma visão integrada de dados distribuídos em múltiplas fontes de dados diz respeito à decomposição de consultas. Em sistemas de integração de dados que fazem uso de um esquema de mediação, o problema de decomposição de consultas consiste em decompor uma consulta definida de acordo com o esquema de mediação em uma ou mais consultas a serem executadas nas fontes de dados locais. Um componente fundamental para a decomposição de consultas é o conjunto de mapeamentos entre o esquema de mediação e os esquemas das fontes de dados. Tendo em vista que os esquemas podem ser complexos e heterogêneos, um dos grandes problemas das soluções convencionais de integração de dados consiste em descobrir esses mapeamentos, pois este processo geralmente é feito de forma manual ou semiautomática, demandando um elevado custo durante a inicialização do sistema. Este trabalho aborda o problema de decomposição de consultas no contexto de integração de dados na Web de Dados, onde as fontes de dados seguem o modelo RDF (Resource Description Framework) e podem ser acessadas a partir de consultas SPARQL (SPARQL Protocol and RDF Query Language). Além disso, as fontes de dados podem estar associadas a uma ontologia que, em geral, desempenha o papel do esquema da fonte de dados. É importante destacar que, dada a natureza dinâmica e heterogênea do ambiente, não se deve esperar que uma estratégia de decomposição seja aplicada sobre toda a Web de Dados por questões de escalabilidade. Especificamente, neste trabalho propõe-se uma solução para o problema de decomposição de consultas em federações de conjuntos de dados interligados disponíveis na Web de Dados, ou seja, conjuntos de dados publicados de acordo com os princípios de Linked Data. Neste tipo de ambiente, se uma aplicação necessita consultar diferentes conjuntos de dados sem ter que formular uma nova consulta para cada um deles, pode ser necessário lidar com o problema de decomposição de consultas entre conjuntos de dados distintos e heterogêneos. Para solucionar tal problema, este trabalho propõe uma abordagem para decomposição de consultas em federações de dados interligados, a qual é dividida em três atividades principais. Dentre estas atividades, a principal contribuição reside na definição e implementação de um processo para decomposição de consultas, considerando que as fontes de dados possuem ontologias estruturalmente distintas que descrevem seus esquemas. Nesta abordagem, são manipuladas consultas SPARQL e são utilizados mapeamentos heterogêneos com o objetivo de tratar aspectos referentes às diferenças estruturais entre as ontologias. Para avaliar a abordagem proposta, um protótipo foi implementado e alguns experimentos foram realizados com fontes de dados que seguem os princípios Linked Data.
5

Clio-i: Interoperabilidade entre repositórios digitais utilizando o protocolo OAI-PMH

José de Menezes Cardoso Junior, Marcos January 2007 (has links)
Made available in DSpace on 2014-06-12T16:00:06Z (GMT). No. of bitstreams: 2 arquivo6016_1.pdf: 2591725 bytes, checksum: 2af65bc5a065dfd598a2058423fac02c (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2007 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O interesse na criação de Bibliotecas Digitais cresceu significativamente a partir do sur- gimento e da disseminação da Web, que trouxe consigo a necessidade de ferramentas que facilitassem a publica»c~ao, gerenciamento e a recupera»c~ao da informa»c~ao digital. Atual- mente, podemos observar uma ampla gama de Bibliotecas Digitais, que se caracterizam como servi»cos que gerenciam e disponibilizam documentos digitais, de forma mais es- truturada do que convencionalmente se observa na Web. Nesses servi»cos, em geral, os documentos s~ao descritos por metadados, recuperados atrav¶es de ferramentas de busca estruturada e visualizados em interfaces apropriadas.Uma das limita»c~oes de grande parte das Bibliotecas Digitais existentes ¶e a aus^encia de mecanismos de integra»c~ao de dados, de maneira a fornecer ao usu¶ario, acesso uni¯cado e transparente aos reposit¶orios gerenciados por diferentes servi»cos. Esse problema ¶e conhecido na literatura como o problema da Inte- roperabilidade entre Bibliotecas Digitais. Dentro desse contexto, desenvolvemos o Clio-i, um sistema para gerenciamento de Bibliotecas Digitais. A sua arquitetura apresenta ca- racter¶³sticas desej¶aveis como um m¶odulo de recupera»c~ao de documentos, um visualizador de documentos e dois m¶odulos para interoperabilidade entre reposit¶orios digitais. Para prover o mecanismo de interoperabilidade, foi implementada no Clio-i uma extens~ao do protocolo OAI-PMH (Open Archives Initiative-Protocol for Metadata Harvesting), que ¶e um padr~ao internacional para interoperabilidade de reposit¶orios digitais. A interopera- bilidade do Clio-i ¶e composto por dois m¶odulos: (1) o Clio-i Data Provider, respons¶avel por exportar os metadados dos documentos gerenciados localmente, de acordo com os padr~oes estabelecidos no OAI-PMH; e (2) o Clio-i Service Provider, que realiza a coleta de informa»c~oes a partir de qualquer provedor de dados remoto baseado em OAI-PMH. O prot¶otipo de sistema implementado foi validado em dois estudos de caso, operacionali- zando centenas de milhares de registros e efetivando a extens~ao do protocolo OAI-PMH adotada
6

Uso de altimetria e imagens de satélite na diferenciação de tipos florestais

SILVA FILHO, Aguinaldo Araújo January 2005 (has links)
Made available in DSpace on 2014-06-12T16:30:50Z (GMT). No. of bitstreams: 2 arquivo5075_1.pdf: 3477676 bytes, checksum: 57ba33dea24e451fae4d38ac3d17c17a (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2005 / Este trabalho mostra a integração de dados auxiliares para melhorar a classificação digital da imagem do sensor ETM+ (Landsat 7) na diferenciação de tipos florestais. Os dados auxiliares são aqui relacionados com a topografia do lugar. A área de estudo encontra-se inserida num brejo de altitude abrangendo parte dos municípios de Belo Jardim, Brejo da Madre de Deus e Tacaimbó, no Agreste pernambucano. A metodologia classifica parte da imagem que recobre a área pelo método supervisionado utilizando o algoritmo da máxima verossimilhança e comparar este resultado com a integração de dados auxiliares antes, durante e depois do processo de classificação da imagem. A matriz de erros permitiu analisar as similaridades espectrais entre as classes de tipos florestais e a acurácia da classificação por meio do desempenho global da classificação e do coeficiente de contingência Kappa. A classificação sem integração da altimetria apresentou um desempenho global de 90,29% e 0,8544 (85,44%) para o valor de Kappa e com na incorporação da altimetria antes do processo de classificação tem-se um desempenho global de 94,74% e um coeficiente kappa de 0,9157 (91,57%). Já para a incorporação da altimetria durante do processo de classificação tem-se um desempenho global de 95,18% e um coeficiente kappa de 0,9211 (92,11%). E finalmente na incorporação da altimetria após o processo de classificação tem-se um desempenho global de 94,57% e um coeficiente kappa de 0,9134 (91,34%). As três técnicas utilizadas mostraram que são eficientes para melhorar a estimativa das áreas cobertas por esses tipos de vegetação
7

Um processo para publicação de dados abertos em institutos federais baseado em BPM

LEMOS, José Mário de Mendonça 20 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-08-01T20:24:27Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO José Mário de Mendonça Lemos.pdf: 3805798 bytes, checksum: de461c6ceaaaa901d18deb9f86b57202 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-02T20:07:41Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO José Mário de Mendonça Lemos.pdf: 3805798 bytes, checksum: de461c6ceaaaa901d18deb9f86b57202 (MD5) / Made available in DSpace on 2018-08-02T20:07:41Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO José Mário de Mendonça Lemos.pdf: 3805798 bytes, checksum: de461c6ceaaaa901d18deb9f86b57202 (MD5) Previous issue date: 2017-02-20 / Dados são criados a cada instante pelo Governo, inclusive pelas Instituições Educacionais. No entanto, o aproveitamento desses dados pela sociedade é comprometido, uma vez que, os dados não estão disponíveis de forma pública, além disso, quando estão disponíveis, é muito comum encontrar dados que não estão devidamente estruturados ou são de difícil compreensão e manipulação. No âmbito governamental brasileiro, existe um movimento para ampliação da oferta de dados na Web, ora motivado por temáticas como transparência, democracia, crescimento econômico, inovação e valor social aos cidadãos, ora imposto por instrumentos regulatórios. Com o intuito de auxiliar no processo de abertura dos dados, diversas iniciativas têm sido desenvolvidas, incluindo a elaboração de metodologias, guias, padrões, leis, regulamentos e boas práticas. No entanto, cada iniciativa faz de um jeito diferente, não apresentando uma linguagem padronizada. Porém, a imaturidade dos órgãos, principalmente do nicho foco desta pesquisa (Rede Federal), muitas vezes os responsáveis pela abertura de dados, acabam perdidos nesse turbilhão de possibilidades, devido à falta de padronização das mesmas. Além do mais, nenhuma das opções existentes apresenta uma linguagem apropriada para descrição de processos. Com isso, surge a necessidade de uma nova abordagem padronizada para guiar as referidas instituições no processo de publicação de Dados Abertos. Por um lado, esta nova abordagem deve propor alguns passos essenciais, por outro lado não deve limitar a criatividade profissional. Além disso, deve se configurar como um instrumento que determine um planejamento metódico para um processo de abertura de dados. Dessa forma, espera-se harmonizar as áreas envolvidas, facilitando e acelerando a implantação do processo, além de contribuir para a criação de um guia único, padronizado e de referência. Neste contexto, este trabalho apresenta como principal contribuição, uma proposta de processo para Publicação de Dados Abertos na Rede Federal de Educação Profissional, Científica e Tecnológica, baseado nos conceitos de Gerenciamento de Processos de Negócios (BPM, do inglês Business Process Management) com a utilização da notação BPMN (Business Process Model and Notation). / Data are created at any moment by the Government, including educational institutions. However, the use of these data by society is compromised because the data are not publically available. Besides, when they are available, they are commonly not properly structured or they are difficult to understand and manipulate. In the Brazilian government sphere, there is a movement to increase the supply of data on the Web, sometimes motivated by themes such as transparency, democracy, economic growth, innovation and social value to citizens and sometimes imposed by regulatory instruments. In order to assist in the process to make the data public, several initiatives have been developed, such as the development of methodologies, guides, standards, laws, regulations and good practices. However, each initiative does in a different way, not presenting a standardized language. But the immaturity of the institutions, especially the ones in the Federal sphere (focus of this work), in charge of making the data public, can get confused in this whirlwind of possibilities, because there is no standardization. Moreover, none of the existing options present an appropriate language for describing processes. Thus, there is a need for a new approach to guide these institutions to publicize data. On one hand, this new approach must propose some essential steps. On the other hand, it should not limit professional creativity. In addition, it must be configured as an instrument that determines a methodical planning for a process of making data public. This way, it is hoped the approach can harmonize involved areas, facilitating and accelerating the implementation of the process and contributing to the creation of a single and standard guide. In this context, this work presents, as main contribution, a proposal of process for publication of public data in the Federal Network of Vocational, Scientific and Technological Education based on the concepts of Business Process Management (BPM) using the notation BPMN (Business Process Model and Notation).
8

Uma Infraestrutura de Integração de Fontes de Dados para Auxílio ao Desenvolvimento de Aplicações IoT.

GOMES FILHO, H. O. 29 September 2016 (has links)
Made available in DSpace on 2018-08-02T00:03:45Z (GMT). No. of bitstreams: 1 tese_10343_Ata de Defesa.pdf: 619087 bytes, checksum: 66e2b3cf964913b79a60204a111ffade (MD5) Previous issue date: 2016-09-29 / Desenvolvedores de aplicações IoT estão criando seus projetos em um ecosistema que possui diversidade de dispositivos e sensores, diferentes implementações de software (por exemplo, em Android, iOS, Linux, Desktop, Web), diferenes modos de interação (publisher/subscriber, request/response, comandos), diferentes unidades métricas (por exemplo, Celsius e Fahrenheit) e diversos desafios no desenvolvimento de aplicações. Um fator desejável nesta área é que o especialista de domínio seja aproximado do ambiente de desenvolvimento e cada vez menos o analista de software fique encarregado de aplicar as alterações pensadas pelo especialista de domínio. Percebe-se que existe um grande gap nessa área até que seja possível o fácil desenvolvimento de aplicações avançadas de IoT por pessoas que desconhecem o domínio de programação de computadores. Uma Linguagem Específica de Domínio (DSL) poderia ser definida para simplificar o desenvolvimento de aplicações IoT, oferecendo ainda primitivas funcionais para descrição do problema e solução. A proposta da ISBM é justamente definir uma linguagem orientada a datasets para programação de aplicações voltadas para IoT. Dessa forma, a iteração entre diferentes bases de dados acontece de forma transparente, e o desenvolvedor não precisa se preocupar com a transferência de dados. Além disso, incluso na proposta, está uma máquina virtual capaz de interpretar o código ISBM em diferentes plataformas, incluindo Desktop (Windows, Linux, OSX), WEB e Dispositivos Móveis (Android, iOS). Para facilitar o uso da linguagem e permitir que pessoas sem grandes conhecimentos no domínio de programação (por exemplo, analistas de domínio) possam descrever regras complexas a fim de criar uma aplicação IoT baseada na ISBM, está incluso também na proposta um Editor Visual da linguagem ISBM, com suporte a edição e conexão à serviços IoT, recomendação de serviços, associação entre diferentes fontes de dados e edição de regras complexas de forma visual. O objetivo é que usuários não especialistas em programação ou mesmo pessoas leigas consigam relacionar diferentes bases de dados de forma visual e criar regras a partir de uma idéia para gerar conclusões. As conclusões podem executar tarefas ou comandos na arquitetura em que a aplicação IoT estiver sendo executada, por exemplo, o envio de e-mail ou de SMS.
9

Mapeamentos conceituais entre modelo relacional e estruturas NoSQL: um estudo de caso com documentos

FREITAS, Myller Claudino de 28 August 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-04-22T19:25:38Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO Myller Claudino de Freitas.pdf: 2449409 bytes, checksum: f01171d0926ab71314cb3fecb89317e2 (MD5) / Made available in DSpace on 2016-04-22T19:25:38Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO Myller Claudino de Freitas.pdf: 2449409 bytes, checksum: f01171d0926ab71314cb3fecb89317e2 (MD5) Previous issue date: 2015-08-28 / FACEPE / As atuais perspectivas computacionais, sobretudo vindas da Internet, têm gerado novas demandas na manipulação de dados que são cada vez maiores em volume, heterogeneidade e dinamismo. Este fato tem ocasionado alguns gargalos em aplicações no mercado devido ao descompasso das crescentes requisições e às atuais estruturas de dados adotadas. Uma proposta para enfrentar esse desafio é a utilização dos denominados sistemas de bancos de dados NoSQL que se diferenciam dos sistemas baseados no Modelo Relacional por possibilitar a implementação de estruturas mais flexíveis. Contudo, a maioria das bases de dados do mercado vem sendo projetada em estruturas relacionais, e a migração de uma base que segue o Modelo Relacional para outro requer grande esforço dos projetistas diante das diferenças existentes e falta da automatização desse processo. Assim, equipes de desenvolvimento se deparam com esse fato e necessitam desenvolver, muitas vezes, soluções de conversão dos dados do Modelo Relacional para essas novas estruturas. Porém, algumas dessas soluções são específicas para cada estrutura de dados, não sendo replicáveis em outras situações ou com outras bases de dados. Nesse sentido, este trabalho apresenta uma abordagem para conversão de estruturas de dados relacionais para sistemas NoSQL. Para isso, ele compara as estruturas de dados do modelo relacional com as quatro abordagens NoSQL (Chave-valor, Colunas, Documentos e Grafos), gerando um conjunto de correspondências estruturais, e regras de conversão do modelo relacional para as abordagens NoSQL. O trabalho incluiu o desenvolvimento de um protótipo de uma ferramenta que implementa a conversão entre dados de um banco Relacional para o NoSQL baseado em documentos (MongoDB). Por fim, o trabalho mostra alguns experimentos que comprovam a consistência dos resultados de consultas executadas sobre os sistemas mencionados. / Current computational perspectives, especially from the Internet, have created new demands on data handling that are increasing in volume, diversity and dynamism. This has caused some problems in commercial applications due to the mismatch of the growing requests and the current data structures adopted. A proposal to address this challenge is the use of the so-called NoSQL database systems, that differ from systems based on the Relational Model for enabling the implementation of more flexible structures. However, most commercial databases are designed in relational structures, and the migration of such databases to other models requires great effort from designers because of the existing differences and lack of automation in this process. Thus, development teams are often faced with this fact and need to develop data conversion solutions of Relational Model to these new structures. However, some of these solutions are specific to each data structure, and is not replicable in other situations and databases. In this sense, this work presents a conversion approach from relational data structures to NoSQL systems. It compares the relational model data structures with four NoSQL approaches (Key-value, Columns, Documents and Graphs), generating a set of structural correspondences and conversion rules from the relational model to NoSQL approaches. The work included the development of a prototype tool that implements the conversion between relational to NoSQL databases based on documents (MongoDB). Finally, this work presents experiments that indicate the consistency of the results of queries executed on the mentioned systems.
10

Análise gênica de comorbidades a partir da integração de dados epidemiológicos / Comorbidities genetic analysis from epidemological data integration

Ferraz Néto, Karla 01 December 2014 (has links)
A identificação de genes responsáveis por doenças humanas pode fornecer conhecimentos sobre mecanismos patológicos e psicológicos que são essenciais para o desenvolvimento de novos diagnósticos e terapias. Sabemos que uma doença é raramente uma consequência de uma anormalidade num único gene, porém reflete desordens de uma rede intra e intercelular complexa. Muitas metodologias conhecidas na Bioinformática são capazes de priorizar genes relacionados a uma determinada doença. Algumas abordagens também podem validar a pertinência ou não destes genes em relação à doença estudada. Uma abordagem de priorização de genes é a investigação a partir de doenças que acometem pacientes ao mesmo tempo, as comorbidades. Existem muitas fontes de dados biomédicos que podem ser utilizadas para a coleta de comorbidades. Desta forma, podemos coletar pares de doenças que formam comorbidades epidemiológicas e assim analisar os genes de cada doença. Esta análise serve para expandirmos a lista de genes candidatos de cada uma dessas doenças e justificarmos a relação gênica entre essas comorbidades. O objetivo principal deste projeto é o de integração dos dados epidemiológicos e genéticos para a realização da predição de genes causadores de doenças. Isto se dará através do estudo de comorbidade destas doenças. / The identification of genes responsible for human diseases can provide knowledge about pathological and physiological mechanisms that are essential for the development of new diagnostics and therapeutics. It is known that a disease is rarely a consequence of an abnormality in a single gene, but reflects complex intra and intercellular network disorders. Many methodologies known in Bioinformatics are able to prioritize genes related to a particular disease. Some approaches can also validate how appropriate or not these genes are relative to a disease. An approach for prioritizing genes is the research from diseases afecting patients at the same time, i.e. comorbidities. There are many sources of biomedical data that can be used to collect comorbidities and analyse genes of each disease. We can also expand the list of candidate genes for each singular disease and justify the genetic relationship of these comorbidities. The main objective of this project is the integration of epidemiologic and genetic data to perform the prediction of causing genes through the study of comorbidity of these illnesses.

Page generated in 0.0906 seconds