• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 957
  • 31
  • 30
  • 23
  • 23
  • 23
  • 14
  • 12
  • 11
  • 9
  • 9
  • 9
  • 1
  • Tagged with
  • 1014
  • 1014
  • 266
  • 200
  • 191
  • 191
  • 172
  • 128
  • 123
  • 110
  • 110
  • 106
  • 105
  • 101
  • 87
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

NoSQL2 : administrando banco de dados NoSQL com a linguagem SQL

Souza, Jane Adriana 24 November 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2016. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2017-02-15T12:23:44Z No. of bitstreams: 1 2016_JaneAdrianaSouza.pdf: 1805634 bytes, checksum: be4f8c819c44b36ff04c685db1485101 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2017-03-17T17:00:26Z (GMT) No. of bitstreams: 1 2016_JaneAdrianaSouza.pdf: 1805634 bytes, checksum: be4f8c819c44b36ff04c685db1485101 (MD5) / Made available in DSpace on 2017-03-17T17:00:26Z (GMT). No. of bitstreams: 1 2016_JaneAdrianaSouza.pdf: 1805634 bytes, checksum: be4f8c819c44b36ff04c685db1485101 (MD5) / Nos últimos anos, novos modelos de banco de dados, chamados NoSQL (Not Only SQL) estão sendo considerados alternativas para a gestão de grandes volumes de dados - Big Data, pois gerenciam e armazenam os dados de forma eficiente, possuem alta escalabilidade, disponibilidade e desempenho satisfatório. A administração de bancos de dados implica na execução de tarefas, tais como criação de bases e objetos, atribuição de privilégios, realização de backups, dentre outras atividades. A execução dessas tarefas de administração em bancos de dados NoSQL exige um maior nível de conhecimento por parte dos administradores de bancos de dados (DBA), e expõe questões relacionadas à falta de familiaridade desses profissionais nos ambientes NoSQL. De forma a contribuir nesse campo de estudo, a presente dissertação apresenta a solução NoSQL2 para execução de tarefas de administração, usando a linguagem SQL (Structured Query Language), que funciona em diferentes Sistemas Gerenciadores de Bancos de Dados (SGBD) NoSQL. O NoSQL2 permite aos DBAs se desvincularem das particularidades de formas de acesso de cada NoSQL, pois disponibiliza recursos para conversão de comandos da sintaxe SQL para a sintaxe proprietária do banco de dados NoSQL. / New database models, called NoSQL (Not Only SQL) are considered appropriate alternatives for managing and storing Big Data due to their efficiency, high scalability, availability and performance. Database administration effects tasks such as creating databases and objects, attributing priorities and performing backups. The execution of these tasks, in NoSQL databases, require that DBA (database administrators) have a high level of knowledge, and often exposes problems with the DBA unfamiliarity of the NoSQL environments. In order to contribute to the scholarship in this field, this paper presents the middleware NoSQL2 to perform management tasks using the SQL language, which runs on different NoSQL databases. The NoSQL2 allows DBA to disassociate themselves from the particularities of access forms of each NoSQL, since provides resources for converting SQL commands to the proprietary NoSQL database syntax.
302

Reconhecimento de espécies florestais através de imagens macroscópicas

Paula Filho, Pedro Luiz de 21 March 2013 (has links)
Resumo: A identificação de espécies e uma necessidade primordial para as atividades de comércio e preservacao de florestas. Entretanto, devido a escassez de dados e bases de imagens florestais, os estudos computacionais relacionados a esse tema sao raros e recentes. Outros fatores que influenciam a raridade desses estudos estao relacionados a falta de tecnicas computacionais comprovadamente eficazes para essa tarefa e ao custo para a aquisicão de imagens para a construcao das bases e modelos computacionais, uma vez que equipamentos sofisticados e caros sao utilizados. Tendo em vista esse contexto e com objetivo de minimizar os custos relacionados ao processo de identificaçao de especies florestais, e proposta uma nova abordagem para essa tarefa, com a qual a identificaçao podera ser realizada em campo e com equipamentos de baixo valor, agregando maior mobilidade e agilidade à execucao dessa tarefa. Para avaliar e validar essa proposta, foram construídas duas bases de imagens macroscópicas a partir de amostras de madeira de especies florestais encontradas no território nacional, considerando dois metodos diferentes: abordagem tradicional em laboratório e abordagem em campo, sendo esta ultima, a proposta deste trabalho. Um protocolo modular baseado na estratégia de dividir para conquistar foi proposto, nele as imagens sao divididas em subimagens, com o intuito de que problemas locais nao afetem a classificacao geral da imagem. A partir delas, sao extraídas informacoes de cor e textura que sao utilizadas para a construcão de conjuntos de treinamento, teste e validaçao de classificadores. Para extraçao desses atributos sao avaliadas diversas tecnicas consagradas como analises de cor, GLCM, histograma de borda, Fractais, LBP, LPQ e Gabor. Apos a classificação de cada conjunto de atributos das subimagens, seus resultados passam por duas camadas de fusoes (baixo e alto nível), para se chegar a decisão final de qual especie a amostra pertence. Inicialmente, a avaliaçao experimental foi realizada com a base de imagens obtidas a partir da abordagem em campo uma vez que dessa maneira os resultados sao mais conservadores devido à presenca de ruídos nos conjuntos de dados e ao naão tratamento das amostras adquiridas. A taxa de reconhecimento obtida nessa etapa foi 95,82%. Apos a validacao do metodo proposto, os modelos de classificação foram reconstruídos e avaliados a partir da base de imagens criada com a abordagem tradicional em laboratório. Com esse novo modelo, a taxa de classificaçao foi de 99,49%. A partir da analise dos resultados, observa-se a viabilidade da abordagem proposta neste trabalho, que alem de apresentar uma excelente taxa de classificaçao, muito proxima da obtida com tecnicas mais sofisticadas e de alto custo, ainda agrega a mobilidade para a classificacão de especies em campo. Ressalta-se ainda, a construcao e disponibilizacao das bases de imagens florestais, contribuindo, desta forma, para trabalhos futuros nesta area.
303

Desenvolvimento de uma base de dados para fatores de transcrição de seres humanos e suas redes de interação: Human Transcriptional Regulation Interaction Database (HTRIDB 2.0)

Bovolenta, Luiz Augusto [UNESP] 01 March 2012 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:23:00Z (GMT). No. of bitstreams: 0 Previous issue date: 2012-03-01Bitstream added on 2014-06-13T20:49:46Z : No. of bitstreams: 1 bovolenta_la_me_botib.pdf: 1243263 bytes, checksum: ae0c358db6c21782ceadf7284345fd8a (MD5) / Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Fatores de transcrição são proteínas que interagem com sequências nucleotídicas específicas situadas nas regiões promotoras de genes e, através dessa interação, regulam a transcrição dos genes. Devido a essa função reguladora, a identificação e a caracterização da rede de interações entre fatores de transcrição e seus genes alvos são importantes por que essa rede representa o arcabouço molecular através do qual os estímulos ambientais são convertidos em expressão diferencial dos genes. Como essa expressão diferencial, por sua vez, determina o comportamento da célula em resposta a um certo estímulo, a rede de interações de regulação transcricional pode, portanto, fornecer uma compreensão sistêmica de como os comportamentos celulares emergem a partir dos estímulos ambientais. A primeira etapa para a construção de uma rede de regulação transcricional consiste na coleta de dados relacionados às interações entre os fatores de transcrição e seus genes alvos. Porém, como esses dados são encontrados de forma dispersa na literatura ou em bancos de dados pagos, essa etapa demanda muito tempo. Com o objetivo de centralizar esses dados de forma a facilitar sua coleta e, consequentemente, a construção da rede de interações de regulação transcricional, desenvolvemos um banco de dados relacional chamado Human Transcriptional Regulation Interaction Database (HTRIdb). Desenvolvido em PostgreSQL e Java, o HTRIdb contém uma coleção de milhares de interações de regulação transcricional experimentalmente verificadas em seres humanos que podem ser acessadas e obtidas gratuitamente por toda a comunidade científica. Além do acesso gratuito e livre permissão para a obtenção dos dados, o HTRIdb oferece... / Transcription factors are proteins that interact with specific nucleotide sequences located in promoter regions of genes and, through this interaction, regulate gene transcription. Due of this regulatory function, the identification and characterization of the network of interactions between transcription factors and their target genes are important since this network represents the molecular framework that explains how environmental stimuli are converted into differential expression of genes. This network provides a systemic understanding of how cellular behaviors emerge from the environmental stimuli. The first step for the transcriptional regulatory network construction is the collection of data about interactions between transcription factors and their target genes. This step is very time-consuming as these data are found dispersed on the literature or in commercial databases. In an effort to provide researchers with a repository of transcriptional regulatory interactions from which such interactions can be directly and easily extracted, we developed a relational database called the Human Interaction Database Transcriptional Regulation (HTRIdb). HTRIdb was implemented using PostgreSQL and Java and contains a collection of thousands of experimentally verified human transcriptional regulation interactions. HTRIdb can be freely accessed by the scientific community and offers a visualization tool for the regulatory network and provides a communication interface between users and developers to enhance... (Complete abstract click electronic access below)
304

Definição do banco de dados DOG para obtenção de ortologia em múltiplos proteomas através do padrão PVOM. / DOG Data Base definition for obtaining orthology in multiples proteoms using the PVOM pattern.

Martelli, Vinicius Garibaldi 17 August 2006 (has links)
Made available in DSpace on 2016-06-02T19:03:57Z (GMT). No. of bitstreams: 1 DissVGM.pdf: 1726321 bytes, checksum: 77824044c07dfd3881c733be7febdca5 (MD5) Previous issue date: 2006-08-17 / This work presents a modeling of a data base and the process created for its instantiation with the objective to store the information necessary for the application of a new form of attainment of regions of contiguous genes that had conserved its contents, order and functions between some species of organisms prokaryotes during the evolutionary process, in order to make possible the prediction of genes and unknown proteins being based on existing information already. It also presents a tool of consultations created to make possible to the user the access to this information. / Este trabalho apresenta uma modelagem de um banco de dados e o processo criado para sua instanciação com o objetivo de armazenar as informações necessárias para a aplicação de uma nova forma de obtenção de regiões de genes contíguos que conservaram seus conteúdos, ordem e funções entre várias espécies de organismos procariontes durante o processo evolutivo, a fim de possibilitar a predição de genes e proteínas desconhecidas baseando-se em informações já existentes. Apresenta também uma ferramenta de consultas criada para viabilizar ao usuário o acesso a estas informações.
305

Desenvolvimento de uma base de dados nacional para um instrumento automatizado de medidas do campo visual in vivo

Carvalho, Valéria Mellaci de 22 April 2013 (has links)
Made available in DSpace on 2016-08-17T18:39:49Z (GMT). No. of bitstreams: 1 5499.pdf: 3793809 bytes, checksum: a99ce532a5c0a65e0f17ef8ad90f5754 (MD5) Previous issue date: 2013-04-22 / Glaucoma is a leading cause of blindness in the elderly throughout the world. One of the most important diagnoses that is made in order to detect this pathology is a visual field perimetry, which measures the sensitivity of different portions of the retina to different light intensities. However, the available instruments in Brazil with quality considered within the "Gold Standard" are all imported and therefore the basis of all computational data, information essential to obtain a reliable report is also based on populations with ethnic and demographic characteristics distinct from the Brazilian population. In this project, the goal was to develop a database with emphasis on the Brazilian population for a computerized instrument that performs measurements of the visual field of the human eye. Practical results of this new database are presented and also a discussion of why it is more appropriate for the Brazilian population when compared to imported databases. / O glaucoma é uma das principais causas de cegueira em pessoas da terceira idade no mundo. Um dos principais diagnósticos que se faz para detecção desta patologia é a campimetria visual, que mede as diferentes sensibilidades da retina para estímulos luminosos de múltiplas intensidades. No entanto, os instrumentos disponíveis no Brasil com qualidade considerada dentro do Padrão Ouro (Gold Standard) são todos importados e portanto com base de dados computacional, informação imprescindível para obtenção de um laudo confiável, também baseada em populações com características étnicas e demográficas distintas da brasileira. Neste projeto o objetivo foi o desenvolvimento de um banco de dados com base na população brasileira para um instrumento de campimetria também nacional. Resultados práticos para esta nova base de dados são apresentados aqui e faz-se também uma discussão do porque ela é mais adequada para a população brasileira do que a base de dados de instrumentos importados.
306

Enriquecimento de dados: uma pré-etapa em relação à limpeza de dados

Carreira , Juliano Augusto [UNESP] 12 July 2012 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:24:01Z (GMT). No. of bitstreams: 0 Previous issue date: 2012-07-12Bitstream added on 2014-06-13T18:20:04Z : No. of bitstreams: 1 carreira_ja_me_sjrp.pdf: 438099 bytes, checksum: d4a3de381d717416cf913583222eee97 (MD5) / A incidência de tuplas duplicadas é um problema significativo e inerente às grandes bases de dados atuais. Trata-se da repetição de registros que, na maioria das vezes, são representados de formas diferentes nas bases de dados, mas fazem referência a uma mesma entidade do mundo real, tornando, assim, a tarefa de identificação das duplicatas um trabalho árduo. As técnicas designadas para o tratamento deste tipo de problema são geralmente genéricas. Isso significa que não levam em consideração as características particulares dos idiomas o que, de certa forma, inibe a maximização quantitativa e qualitativa das tuplas duplicadas identificadas. Este trabalho propõe a criação de uma pré-etapa – intitulada “enriquecimento” – referente ao processo de identificação de tuplas duplicadas. Tal processo baseia-se no favorecimento do idioma e se dá por meio da utilização de regras de linguagem pré-definidas, de forma genérica, para cada idioma desejado. Assim, consegue-se enriquecer os registros de entrada, definidos em qualquer idioma, e, com a aproximação ortográfica que o enriquecimento proporciona, consegue-se aumentar a quantidade de tuplas duplicadas e/ou melhorar o nível de confiança em relação aos pares de tuplas duplicadas identificadas pelo processo / The incidence of duplicate tuples is a significant problem inherent in current large databases. It is the repetition of records that, in most cases, are represented differently in the database but refer to the same real world entity thus making the task of identifying duplicates a hard work. The techniques designed to treat this type of problem are usually generic. That means they do not take into account the particular characteristics of the languages that somehow inhibits the quantitative and qualitative maximization of duplicate tuples identified. This dissertation proposes the creation of a pre-step - called enrichment – in relation to the process of duplicate tuples identification. This process is based on the language favoring and is through the use of predefined language rules in a general way for each language. Thus, it is possible to enrich the input records defined in any language and considering the spell approximation provided by the enrichment process, it is possible to increase the amount of duplicate tuples and/or improve the level of trust in relation to the pairs of duplicate tuples identified by the process
307

Contribuições para desenvolvimento da pesquisa e da avaliação em política e gestão educacional com uso de novas tecnologias: desenvolvimento de bases de dados

Maziero, Breno Vicente [UNESP] 13 February 2008 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:24:35Z (GMT). No. of bitstreams: 0 Previous issue date: 2008-02-13Bitstream added on 2014-06-13T20:12:37Z : No. of bitstreams: 1 maziero_bv_me_arafcl.pdf: 434927 bytes, checksum: bb07f64e08e35e819028d9ca0857047c (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Este trabalho, em abordagem interdisciplinar, procura discutir contribuições de diferentes áreas do conhecimento para a fundamentação e o desenvolvimento de aplicativos que permitam a coleta e o tratamento eletrônico de informações relevantes e confiáveis em projetos de pesquisa e avaliação em política e gestão educacional. Inicialmente, é feita uma análise da legislação vigente e de principais referências para caracterização do sistema educacional de acordo com os novos paradigmas de gestão, com ênfase na gestão democrática. A seguir são consideradas as possibilidades oferecidas pela Informática para apoio à pesquisa e à avaliação. São então descritas duas das possibilidades consideradas, formulários para coleta eletrônica de dados e digitalização de acervos documentais. Nas considerações finais é feita uma análise das possibilidades e das contribuições para a pesquisa e avaliação em política e gestão educacional. / This work, in interdisciplinary approach, has as main idea discuss contributions of knowledge´s different areas to support the development of data base to enable the collection of relevant and reliable electronic information in research projects and evaluation in educational policy and management. Initially, it presents an analysis of the current legislation and key references for the educational system characterization in accordance with the new management paradigms. Following, are considered the possibilities offered by Informatics to support the research and evaluation. Then, are described two of the considered possibilities, forms for the data collection and electronic scanning of documentary collections. The final consideration is over bases analysis and possibilities of free software to support research and evaluation in the educational policy and management area.
308

On indexing highly dynamic multidimensional datasets for interactive analytics

Pedreira, Pedro Eugênio Rocha January 2016 (has links)
Orientador : Prof. Dr. Luis Carlos Erpen de Bona / Tese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 15/04/2016 / Inclui referências : f. 77-91 / Área de concentração : Ciência da computação / Resumo: Indexação de dados multidimensionais tem sido extensivamente pesquisada nas últimas décadas. Neste trabalho, um novo workload OLAP identificado no Facebook é apresentado, caracterizado por (a) alta dinamicidade e dimensionalidade, (b) escala e (c) interatividade e simplicidade de consultas, inadequado para os SGBDs OLAP e técnicas de indexação de dados multidimensionais atuais. Baseado nesse caso de uso, uma nova estratégia de indexação e organização de dados multidimensionais para SGBDs em memória chamada Granular Partitioning é proposta. Essa técnica extende a visão tradicional de partitionamento em banco de dados, particionando por intervalo todas as dimensões do conjunto de dados e formando pequenos blocos que armazenam dados de forma não coordenada e esparsa. Desta forma, é possível atingir altas taxas de ingestão de dados sem manter estrutura auxiliar alguma de indexação. Este trabalho também descreve como um SGBD OLAP capaz de suportar um modelo de dados composto por cubos, dimensões e métricas, além de operações como roll-ups, drill-downs e slice and dice (filtros) eficientes pode ser construído com base nessa nova técnica de organização de dados. Com objetivo de validar experimentalmente a técnica apresentada, este trabalho apresenta o Cubrick, um novo SGBD OLAP em memória distribuída e otimizada para a execução de consultas analíticas baseado em Granular Partitioning, escritas desde a primeira linha de código para este trabalho. Finalmente, os resultados de uma avaliação experimental extensiva contendo conjuntos de dados e consultas coletadas de projetos pilotos que utilizam Cubrick é apresentada; em seguida, é mostrado que a escala desejada pode ser alcançada caso os dados sejam organizados de acordo com o Granular Partitioning e o projeto seja focado em simplicidade, ingerindo milhões de registros por segundo continuamente de uxos de dados em tempo real, e concorrentemente executando consultas com latência inferior a 1 segundo. / Abstrct: Indexing multidimensional data has been an active focus of research in the last few decades. In this work, we present a new type of OLAP workload found at Facebook and characterized by (a) high dynamicity and dimensionality, (b) scale and (c) interactivity and simplicity of queries, that is unsuited for most current OLAP DBMSs and multidimensional indexing techniques. To address this use case, we propose a novel multidimensional data organization and indexing strategy for in-memory DBMSs called Granular Partitioning. This technique extends the traditional view of database partitioning by range partitioning every dimension of the dataset and organizing the data within small containers in an unordered and sparse fashion, in such a way to provide high ingestion rates and indexed access through every dimension without maintaining any auxiliary data structures. We also describe how an OLAP DBMS able to support a multidimensional data model composed of cubes, dimensions and metrics and operations such as roll-up, drill-down as well as efficient slice and dice filtering) can be built on top of this new data organization technique. In order to experimentally validate the described technique we present Cubrick, a new in-memory distributed OLAP DBMS for interactive analytics based on Granular Partitioning we have written from the ground up at Facebook. Finally, we present results from a thorough experimental evaluation that leveraged datasets and queries collected from a few pilot Cubrick deployments. We show that by properly organizing the dataset according to Granular Partitioning and focusing the design on simplicity, we are able to achieve the target scale and store tens of terabytes of in-memory data, continuously ingest millions of records per second from realtime data streams and still execute sub-second queries.
309

J-schemas integrator

Scopim, Kemmel da Silva 10 February 2011 (has links)
Resumo: Atualmente, várias organizações e companhias utilizam diversos sistemas de bancos de dados para gerenciar grande quantidade de seus dados. Entretanto, esses numerosos sistemas de banco de dados heterogêneos foram projetados para rodarem isoladamente e para não cooperarem entre si. Prover interoperabilidade entre esses bancos de dados é importante para o sucesso das organizações, nas quais ganhos de produtividade serão obtidos se esses sistemas puderem ser integrados e permitirem uma visão unificada dos dados. A integração de esquemas de bancos de dados heterogêneos pode ser definida como um processo que, através de uma entrada de um conjunto de esquemas de banco de dados, produz como saída, uma descrição unificada dos esquemas iniciais, chamado esquema integrado e a descrição da informação de mapeamento entre o esquema integrado e os esquemas iniciais. Essa dissertação de mestrado consiste na implementação de uma ferramenta cujo objetivo seja auxiliar e facilitar o processo de integração de esquemas de banco de dados. A ferramenta visual é responsável por importar esquemas de banco de dados, facilitar a identificação dos objetos conflitantes entre esquemas e pelo processo de integração e geração do esquema integrado e da informação de mapeamento entre o esquema integrado e os esquemas iniciais.
310

Modelo de mapa do conhecimento em instituições

Santos, Elaine Conceição Venâncio 12 November 2013 (has links)
Resumo: Este trabalho tem por objetivo propor um modelo para mapear o conhecimento de colaboradores e pesquisadores em instituições. Aborda o problema da perspectiva do compartilhamento do conhecimento científico. O modelo proposto utiliza uma estrutura baseada nos seguintes componentes: atores, grupos de trabalho e artefatos produzidos. O enfoque está na definição do fluxo de atividades necessárias para a construção do mapa do conhecimento e nas alternativas disponíveis para visualização das informações. Com base na revisão da literatura, uma metodologia para apoiar a construção do mapa do conhecimento é apresentada e opções para visualização das informações são propostas. Como prova de conceito, desenvolveuse um sistema utilizando os dados disponíveis na Plataforma Lattes sobre os pesquisadores e professores dos programas de pós-graduação stricto sensu da Universidade Federal do Paraná. A base de dados criada é caracterizada e algoritmos de mineração de dados são aplicados, buscando identificar relacionamentos não conhecidos anteriormente. A validação do modelo proposto é feita por meio do uso da prova de conceito que é composto por dois processos. O primeiro processo é responsável por importar os dados em formato XML para a base de dados do modelo proposto. O segundo processo é responsável por disponibilizar ferramentas para que o usuário possa consultar o mapa do conhecimento e visualizar os resultados utilizando diferentes técnicas como páginas amarelas e grafos. A implementação da prova de conceito auxiliou na identificação dos aspectos positivos do modelo proposto e na detecção de deficiências. Destaca-se como aspectos positivos a criação de um banco de dados especializado, a facilidade de navegação entre as informações disponíveis no banco, a possibilidade de filtrar os resultados das consultas e as diferentes opções de visualização disponíveis, considerando a problemática que norteou a pesquisa sobre construção de mapas do conhecimento que incentivem o compartilhamento e facilitem a localização do conhecimento.

Page generated in 0.2171 seconds