• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 957
  • 31
  • 30
  • 23
  • 23
  • 23
  • 14
  • 12
  • 11
  • 9
  • 9
  • 9
  • 1
  • Tagged with
  • 1014
  • 1014
  • 266
  • 200
  • 191
  • 191
  • 172
  • 128
  • 123
  • 110
  • 110
  • 106
  • 105
  • 101
  • 87
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
291

Teste de aplicações baseado em análise de instâncias de dados alternativas.

Árias, João Carlos Garcia 04 July 2011 (has links)
Resumo: No desenvolvimento de software frequentemente é necessário validar a especificação dos dados do sistema, geralmente descrita por esquemas. O esquema de dados define a estrutura lógicae os relacionamentos entre os dados manipulados e armazenados por aplicações de software. Para auxiliar a detectar defeitos em esquemas e garantir a integridade dos dados por eles definidos, foi proposta uma abordagem de teste baseada em defeitos, denominada Análise de Instâncias de Dados Alternativas (AIDA). Na abordagem AIDA, uma instância de dados associada ao esquema em teste sofre alterações simples gerando instâncias de dados alternativas. A Análise de Instâncias de Dados Alternativas (AIDA) pode ser aplicada no teste de diferentes tipos de esquema, desde que o mesmo seja representado de acordo com um modelo formal. Apesar de existirem trabalhos na literatura que utilizam informações do esquema para testar as aplicações, a maioria não considera os possíveis efeitos presentes no esquema para gerar os dados de teste. Esses defeitos podem ocasionar falhas na aplicação e, considerando esse fato, este trabalho explora a utilização da AIDA no teste de aplicações que utilizam esquemas de dados, introduzindo estratégias de uso em dois contextos de aplicação: aplicações de banco de dados relacional e aplicações que utilizam Serviços Web. Para validar as estratégias em ambos contextos foram realizados experimentos em aplicações reais. Os resultados obtidos são analisados e verifica-se que a abordagem utilizada foi eficaz em revelar não somente defeitos de esquema, mas também defeitos relacionados à própria aplicação.
292

Uma proposta de especificação formal para data warehousing

Hauagge, Josiane Michalak 25 October 2010 (has links)
No description available.
293

Proposta de método para integração de bases de dados do agronegócio do Paraná

Oikawa, Igor Yoshio, 1985- January 2017 (has links)
Orientador : Prof. Dr. Jose Simão de Paula Pinto / Coorientador : Prof. Dr. Egon Walter Wildauer / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Sociais Aplicadas, Programa de Pós-Graduação em Ciência, Gestão e Tecnologia da Informação. Defesa: Curitiba, 17/02/2017 / Inclui referências / Resumo: Este trabalho é parte integrante de um grupo de pesquisa, sob orientação do professor Egon Walter Wildauer, do Programa de Pós-Graduação em Ciência, Gestão e Tecnologia da Informação da Universidade Federal do Paraná; que visa estudar e desenvolver uma plataforma que permita a integração, armazenamento e consulta de diversas fontes de dados da produção do agronegócio do Estado do Paraná, que possibilite a comunicação, coleta, tratamento e disseminação de dados e informações do setor. O Agronegócio sendo um sistema que envolve toda a cadeia produtiva, seus dados e informações correspondentes são distribuídos por natureza. Isto implica na possibilidade da existência de mesmos objetos do mundo real, existirem em locais diferentes, sob diferentes visões. O interesse em uma visão única e integrada de um todo, implica no uso e aplicação de conceitos da Gestão da Informação e o entendimento do Ciclo de Vida da Informação no processo de extração de dados de fontes de dados, sua manipulação e integração, visando a centralização de dados para uso de terceiros e auxílio no processo de tomada de decisão. Este processo remete a concepção de Armazéns de Dados (DW), sendo utilizados seus conceitos e técnicas, como Extração, Transformação e Carregamento (ETL). É objetivo deste trabalho o desenvolvimento de um método de integração de fontes de dados bem como de um modelo / esquema de dados integrado que o comporte; fazendo o uso de técnicas e conceitos de Integração de Dados (DI) e Modelagem de Dados em seu desenvolvimento. Palavras-chave: Gestão da Informação; Agronegócio; Integração de Dados; Armazéns de Dados; ETL. / Abstract: This work is a part of a research group, under the guidance of Professor Egon Walter Wildauer, from the Post-Graduate Program in Science, Management and Information Technology of the Universidade Federal do Paraná; which aims to research and develop a platform that allows the integration, storage and query of several data sources of agribusiness production in the State of Paraná-Brazil allowing the communication, collection, treatment and dissemination of data and information of the agribusiness sector. Agribusiness is a system that involves the entire production chain, which means that data and corresponding information are distributed in its essence. This feature implies the possibility of existence of the same real world objects exists in different places, under different visions. The interest in an integrated view implies the use and application of Information Management concepts and the understanding of the Information Life Cycle in the process of data extraction from data sources, their manipulation and integration, aiming at the data integration for use by third parties and assistance in the decision-making process. This process reminds the concepts of Data Warehouses (DW), and its techniques, such as Extraction, Transformation and Loading (ETL). The objective of this work is the development of a method of integrating data sources as well an integrated schema that supports it; making use of techniques and concepts of Data Integration (DI) and Data Modeling in its development. Keywords: Information Management; Agribusiness; Data Integration; Data Warehouse; ETL.
294

Normalisation of imprecise temporal expressions extracted from text

Tissot, Hegler Correa January 2016 (has links)
Orientador : Prof. Dr. Marcos Didonet Del Fabro / Co-Orientador : Prof. Dr. Angus Roberts / Tese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 05/04/2016 / Inclui referências : f. 95-105 / Resumo: Técnicas e sistemas de extração de informações são capazes de lidar com a crescente quantidade de dados não estruturados disponíveis hoje em dia. A informação temporal está entre os diferentes tipos de informações que podem ser extraídos a partir de tais fontes de dados não estruturados, como documentos de texto. Informações temporais descrevem as mudanças que acontecem através da ocorrência de eventos, e fornecem uma maneira de gravar, ordenar e medir a duração de tais ocorrências. A impossibilidade de identificar e extrair informação temporal a partir de documentos textuais faz com que seja difícil entender como os eventos são organizados em ordem cronológica. Além disso, em muitas situações, o significado das expressões temporais é impreciso, e não pode ser descrito com precisão, o que leva a erros de interpretação. As soluções existentes proporcionam formas alternativas de representar expressões temporais imprecisas. Elas são, entretanto, específicas e difíceis de generalizar. Além disso, a análise de dados temporais pode ser particularmente ineficiente na presença de erros ortográficos. As abordagens existentes usam métodos de similaridade para procurar palavras válidas dentro de um texto. No entanto, elas não são suficientes para processos erros de ortografia de uma forma eficiente. Nesta tese é apresentada uma metodologia para analisar e normalizar das expressões temporais imprecisas, em que, após a coleta e pré-processamento de dados sobre a forma como as pessoas interpretam descrições vagas de tempo no texto, diferentes técnicas são comparadas a fim de criar e selecionar o modelo de normalização mais apropriada para diferentes tipos de expressões imprecisas. Também são comparados um sistema baseado em regras e uma abordagem de aprendizagem de máquina na tentativa de identificar expressões temporais em texto, e é analisado o processo de produção de padrões de anotação, identificando possíveis fontes de problemas, dando algumas recomendações para serem consideradas no futuro esforços de anotação manual. Finalmente, é proposto um mapa fonético e é avaliado como a codificação de informação fonética poderia ser usado a fim de auxiliar os métodos de busca de similaridade e melhorar a qualidade da informação extraída. / Abstract: Information Extraction systems and techniques are able to deal with the increasing amount of unstructured data available nowadays. Time is amongst the different kinds of information that may be extracted from such unstructured data sources, including text documents. Time describes changes which happen through the occurrence of events, and provides a way to record, order, and measure the duration of such occurrences. The inability to identify and extract temporal information from text makes it difficult to understand how the events are organized in a chronological order. Moreover, in many situations, the meaning of temporal expressions is imprecise, and cannot be accurately described, leading to interpretation errors. Existing solutions provide alternative ways of representing imprecise temporal expressions, though they are specific and hard to generalise. Furthermore, the analysis of temporal data may be particularly inefficient in the presence of spelling errors. Existing approaches use string similarity methods to search for valid words within a text. However, they are not rich enough to processes misspellings in an efficient way. In this thesis, we present a methodology to analyse and normalise of imprecise temporal expressions, in which, after collecting and pre-processing data on how people interpret vague descriptions of time in text, we compare different techniques in order to create and select the most appropriate normalisation model for different kinds of imprecise expressions. We also compare how a rule-based system and a machine learning approach perform on trying to identify temporal expression from text, and we analyse the process of producing gold standards, identifying possible sources of issues, giving some recommendations to be considered in future manual annotation efforts. Finally, we propose a phonetic map and evaluate how encoding phonetic information could be used in order to assist similarity search methods and improve information extraction quality.
295

Uma avaliação de algoritmos não exaustivos para a otimização de junções

Lange, Adriano 29 November 2010 (has links)
Resumo: Os sistemas gerenciadores de bancos de dados (SGBDs) relacionais proporcionam atualmente uma ambiente bastante produtivo para a manipulação de informações. A partir de uma linguagem de alto nível, tais sistemas permitem que seus usuários descrevam consultas de uma maneira simples e rápida, sem definir com isso detalhes relacionados ao seu processamento. Tais detalhes são de responsabilidade do próprio SGBD, o qual deve escolher, através de um sofisticado processo de otimização e planejamento, uma alternativa eficiente para a obtenção dessas informações. A otimização de junções é uma das mais importantes e complexas dentre todas as fases que compõem este processo. A definição da melhor ordem de junções somente pode ser realizada em condições relativamente simples, através do uso de algoritmos de busca exaustiva fortemente baseados na programação dinâmica. Para os demais casos, espera-se que apenas uma aproximação desta melhor ordem seja encontrada, utilizando para isso técnicas não exaustivas de busca. Este estudo concentra-se na avaliação de dois algoritmos não exaustivos de otimização de junções implementados para o SGBD de código aberto PostgreSQL: o enetic Queri Optimization (GEQO) e o Two Phase Optimization (2PO). Através de um esquema de testes multidimensional, este estudo apresenta diversos dados relevantes sobre o comportamento desses algoritmos. Estes resultados servem tanto para o processo de melhoria dos algoritmos avaliados como para a elaboração de novas abordagens de otimização de junções.
296

Visualização da informação colaborativa por meio de um ambiente multiprojetado e dispositivos móveis

Moraes, Alessandro Campanhã de [UNESP] 04 February 2015 (has links) (PDF)
Made available in DSpace on 2015-09-17T15:25:02Z (GMT). No. of bitstreams: 0 Previous issue date: 2015-02-04. Added 1 bitstream(s) on 2015-09-17T15:46:48Z : No. of bitstreams: 1 000845495.pdf: 3119789 bytes, checksum: da68920e82d822ecbf8648a1482a5c48 (MD5) / A ampla disponibilidade de sistemas de bancos de dados e o baixo custo de hardware permitem às empresas e pesquisadores a oportunidade de armazenarem grandes volumes de dados. O grande desafio passou então a ser a compreensão desses dados. Para superar esse problema, técnicas de Visualização da Informação são empregadas para ampliar a capacidade cognitiva dos seres humanos através de representações gráficas que expressem as propriedades e relacionamentos dos dados. Este trabalho apresenta um sistema de Visualização da Informação que busca resolver a escalabilidade visual por meio de um ambiente multiprojetado, possibilitando assim a exploração de um grande conjunto de dados. Adicionalmente, esta abordagem permite interação e exploração dos dados de forma colaborativa por meio do uso de dispositivos móveis, tais como tablets e smartphones. Após o desenvolvimento, o sistema foi validado por meio de testes com usuários, de forma colaborativa, em um estudo da estrutura relacional da Base de Dados Corporativa da UNESP, onde foi possível identificar características essencias, tais como: alto acoplamento entre sistemas, principais entidades e pontos críticos. O experimento realizado evidenciou a capacidade do sistema de proporcionar um correto entendimento dos dados e a descoberta de novas informações / The wide availability of database systems and low cost of hardware allow enterprises and researchers the opportunity to store large data collections. The challenge then became the understanding of these data. To overcome this problem Information Visualization techniques have been employed to amplify the human cognitive ability through graphical data representations, that show properties and relationships from these data. This work presents a Information Visualization system that aims to overcome the visual scalability by using a Multi-projection system, allowing the exploration of large datasets. Additionally, this approach allows collaborative interaction and exploration by using mobile devices like tablets and smartphones. After the development, the system was validated through collaborative user tests, in an analysis about the relational sctructure of the UNESP Corporate Database, where was possible to identify essential characteristics like: high coupling between systems, main entities and critical points. The experiment showed the system capacity to provide correct data understanding and discovery of new information
297

Liderança na gestão do esporte universitário: proposta da criação de uma rede de dados

Barbosa, Cláudio Gomes [UNESP] 20 March 2014 (has links) (PDF)
Made available in DSpace on 2014-08-13T14:50:51Z (GMT). No. of bitstreams: 0 Previous issue date: 2014-03-20Bitstream added on 2014-08-13T18:00:13Z : No. of bitstreams: 1 000763966.pdf: 2674152 bytes, checksum: a738e06f71298c037020de6f77851bb3 (MD5) / O esporte universitário brasileiro é visto como um setor esportivo peculiar, por ser considerado de alto potencial de crescimento, porém, pouco assistido por pesquisas científicas na área de gestão. Além desta realidade, este setor é abarcado por pouca visibilidade e falta de investimento público e privado. O estado de Minas Gerais possui uma das mais antigas e tradicionais federações do esporte universitário do Brasil: Federação Universitária Mineira de Esporte (FUME) e em virtude deste fato, merece uma atenção para trabalhos na área. O desenvolvimento da integração, a troca de informações e acesso a conteúdos entre as IES torna-se primordial para o crescimento e capacitação dos gestores esportivos que trabalham nas IES filiadas a federação. Essa pesquisa busca a criação de um projeto de sistema integrado entre os gestores das universidades para propiciar maior integração entre os gestores. Além da criação desta plataforma de dados, esta dissertação tem como objetivos: definir o perfil sócio-demográfico dos gestores esportivos, identificar os aspectos de liderança dos gestores esportivos e apresentar os procedimentos para a criação da plataforma de dados, bem como a escolha dos conteúdos e disposição no site. De caráter descritivo, esta pesquisa utilizou o método netnográfico para coleta dos dados. Foram aplicados 3 instrumentos (entre questionários e entrevista) em 10 gestores de 10 diferentes universidades filiadas a FUME por meio da plataforma Google Drive®. De todas as universidades estudadas, 7 possuem gestão discente (média de idade de 24,43 anos; Não possuem capacitação em gestão) e 3 possuem gestão institucional (média de idade de 36,67 anos; somente 1 possui capacitação). Todas as IES possuem problemas com financiamento, porém em média apresentam boas condições de trabalho, salvo exceções. Como competências, objetivos e condições de trabalho podemos destacar liderança...
298

Nubbe natural products, source of molecular diversity for the design of new anticancer agents

Valli, Marilia [UNESP] 28 March 2014 (has links) (PDF)
Made available in DSpace on 2014-11-10T11:09:59Z (GMT). No. of bitstreams: 0 Previous issue date: 2014-03-28Bitstream added on 2014-11-10T11:58:20Z : No. of bitstreams: 1 000796531.pdf: 5589932 bytes, checksum: 23400d4937d9c4df5a1ed4c87d102fff (MD5) / Os produtos naturais são uma importante fonte de inspiração para o desenvolvimento de novos fármacos. O presente trabalho visou identificar produtos naturais bioativos que pudessem ser usados como modelo para o planejamento de novos compostos com propriedades antitumorais. A falta de dados organizados é ainda uma das dificuldades das áreas de produtos naturais e química medicinal. Portanto, a compilação de dados disponíveis sobre os metabólitos secundários sejam de espécies vegetais ou de outras fontes é de grande valor. Esse fato nos motivou a propor como primeiro objetivo deste projeto, a criação de uma base de dados contendo informações botânicas, químicas e biológicas dos metabólitos secundários obtidos e publicados pelo NuBBE durante 15 anos. A base de dados poderá ser útil não apenas para a pesquisa em química de produtos naturais atual do grupo, mas para todos interessados em estudos de planejamento de moléculas bioativas, metabolômica e dereplication, já que está disponível para acesso livre na internet. Um artigo científico descrevendo a criação da base de dados foi publicado na revista Journal of Natural Products em 2013. Os compostos da base de dados foram utilizados como fonte de moléculas para uma triagem virtual baseada na estrutura do receptor com a proteína tubulina para a identificação de moduladores dessa proteína. Baseado nos resultados de triagem virtual foi realizada a avaliação biológica in vitro das substâncias utilizando a proteína tubulina e ensaios de migração celular (wound healing e câmara de Boyden). Os ensaios biológicos indicaram uma série de guanidinas e a piplartina como principais compostos bioativos dentre os avaliados. A piplartina foi selecionada como modelo para o planejamento de novos compostos, pois apresentou relevante inibição de migração celular, além de estar descrito na literatura como citotóxico e... / Natural products are an important source for the design of new drugs. This thesis aimed at the identification of bioactive natural products to be used as models for the design of compounds with antitumor properties. The lack of organized data is still one of the drawbacks in the natural products and medicinal chemistry area. Therefore, the compilation of accessible data of secondary metabolites from plant species or other sources is of great value, especially for the identification of molecular leads. This fact inspired us to propose as first objective of this thesis, the creation of the NuBBE database (NuBBEDB) containing botanical, chemical, and biological information of the secondary metabolites obtained and published by NuBBE in 15 years. This database can be useful not only for the current research in natural products of the group, but for the scientific society interested in bioactive compounds, metabolomics, and dereplication. A scientific paper describing the creation of the database was published in the Journal of Natural Products in 2013. NuBBEDB compounds were used as molecular source for the virtual screening with the protein tubulin. Based on the results of the virtual screening the biological evaluation of selected compounds was performed with the protein tubulin, and cell migration assays (Wound Healing and Boyden Chamber). The results of the biological assays indicated a series of guanidines and piplartine as active compounds. Piplartine was selected to be a model for the design of new compounds because it inhibited cell migration and is described in the literature as cytotoxic and selective, an interesting profile for this project. A series of 5 analogue compounds were designed and synthesized aiming at a better understanding of structure activity relationship and improvement of the biological activity. The compound designed by molecular simplification showed activity in the cell...
299

Estruturação, modelagem e implementação de banco de dados geoespaciais para o cadastro ambiental rural

Couto, Rodrigo de Souza 30 May 2017 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Geociências, Programa de Pós-Graduação em Geociências Aplicadas, 2017. / Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2017-08-10T17:07:22Z No. of bitstreams: 1 2017_RodrigodeSouzaCouto.pdf: 5921802 bytes, checksum: 369438d4f30c99b134b1c59727b6ac47 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2017-09-25T22:18:39Z (GMT) No. of bitstreams: 1 2017_RodrigodeSouzaCouto.pdf: 5921802 bytes, checksum: 369438d4f30c99b134b1c59727b6ac47 (MD5) / Made available in DSpace on 2017-09-25T22:18:39Z (GMT). No. of bitstreams: 1 2017_RodrigodeSouzaCouto.pdf: 5921802 bytes, checksum: 369438d4f30c99b134b1c59727b6ac47 (MD5) Previous issue date: 2017-09-25 / A crescente produção de dados geoespaciais em formatos digitais e consequentemente o aumento da demanda por dados/informações espaciais, em termos quantitativos e qualitativos, requer dos órgãos públicos e privados a organização de uma estrutura que permita aos usuários o fácil conhecimento das informações já produzidas, o registro de novas informações e a disponibilização delas. A proposta deste trabalho é desenvolver uma ferramenta que auxilie o governo do Distrito Federal na organização das informações geoespaciais referente ao Cadastro Ambiental Rural – CAR, a partir da elaboração da modelagem de dados geoespaciais para uma melhor compreensão e organização dos dados disponibilizados pelo Sistema de Cadastro Ambiental Rural – SICAR. Por conseguinte, a estruturação do banco de dados passará, necessariamente, pelas etapas de desenvolvimento de modelo lógico e implementação física dos dados relacionados ao CAR e, por fim, serão propostos procedimentos que facilitem a gestão dos dados geoespaciais relacionados ao tema CAR. Para tanto, a modelagem proposta explicita as regras aplicadas aos dados oriundos dos cadastros ambientais rurais e que podem ser aplicadas e aprimoradas com o propósito de desenvolver novas ferramentas de gestão de informações relacionadas ao tema CAR. / The increasing of geospatial data production in digital formats and consequently the increasing of the demand for spatial data / information in quantitative and qualitative terms requires from the public and private agencies to organize a structure that allows the users to easily know the information already produced and the registration of the new informations and the availability of them. The aim of this project is to develop a tool to aid the Distrito Federal government in the organization of geospatial information related to the Rural Environmental Registry - CAR, based on the elaboration of geospatial data modeling that allows a better understanding and organization of the data provided by the Environmental Cadastre System - SICAR. Therefore, the structuring of the data bank will necessarily go through the stages of development of a logical model and physical implementation of the data related to the CAR. Finally, there will be proposed that will help the management of the geospatial data related to the CAR. So, this modeling method exposes these rules applied from the data of the rural environmental registers and it can be used and improved for the purpose of developing new information management tools related to the CAR theme.
300

Implementação de um geocatálogo utilizando banco de dados orientado a grafos para apoio à metodologia SERVUS

Santos, Drausio Gomes dos 13 April 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, Mestrado Profissional em Computação Aplicada, 2016. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2016-10-13T16:15:04Z No. of bitstreams: 1 2016_DrausioGomesdosSantos.pdf: 8982228 bytes, checksum: 24f0da48e5db19ab270048381d25a047 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2016-11-24T16:03:13Z (GMT) No. of bitstreams: 1 2016_DrausioGomesdosSantos.pdf: 8982228 bytes, checksum: 24f0da48e5db19ab270048381d25a047 (MD5) / Made available in DSpace on 2016-11-24T16:03:13Z (GMT). No. of bitstreams: 1 2016_DrausioGomesdosSantos.pdf: 8982228 bytes, checksum: 24f0da48e5db19ab270048381d25a047 (MD5) / Esta pesquisa apresenta a construção de um geocatálogo que utiliza a semântica e ontologias para auxílio no processo de descoberta de recursos geográficos em serviços de uma infraestrutura de dados espaciais. Sua arquitetura incorpora um banco de dados não relacional orientado a grafos e é passível de implementação em ambiente de nuvem. Para sua validação foi utilizada a metodologia de desenvolvimento de sistemas SERVUS, especializada em arquitetura orientada a serviços geoespaciais. O estudo de caso abordou uma situação típica de auditoria governamental no tema de meio ambiente. ________________________________________________________________________________________________ ABSTRACT / This research presents the construction of a Geo-Catalogue using semantics and ontologies to aid in the discovery process of geographic features in service of a spatial data infrastructure. Its architecture incorporates a non-relational graph database and is liable for deployment to an environment of clouds. For its validation, the methodology of development of system called SERVUS was used. It is a methodology specialized in services of geospatial oriented architecture. The study of the case discusses a typical situation of government auditing in the environmental theme.

Page generated in 0.3024 seconds