• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 957
  • 31
  • 30
  • 23
  • 23
  • 23
  • 14
  • 12
  • 11
  • 9
  • 9
  • 9
  • 1
  • Tagged with
  • 1014
  • 1014
  • 266
  • 200
  • 191
  • 191
  • 172
  • 128
  • 123
  • 110
  • 110
  • 106
  • 105
  • 101
  • 87
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

Um método para determinar a equivalência semãntica entre esquemas GML

Frozza, Angelo Augusto January 2007 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Ciência da Computação / Made available in DSpace on 2012-10-23T12:32:27Z (GMT). No. of bitstreams: 1 241097.pdf: 4035645 bytes, checksum: ca89085c527c07397f0f1f442610e7de (MD5)
252

Um estudo de estratégias de sistemas distribuidos aplicadas a sistemas de telemedicina

Macedo, Douglas Dyllon J. de January 2008 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Engenharia e Gestão do Conhecimento / Made available in DSpace on 2012-10-24T00:29:24Z (GMT). No. of bitstreams: 1 251018.pdf: 1177775 bytes, checksum: 112801a531c52754ec42b2a52918577d (MD5) / Desde o surgimento da Telemedicina na década de 60, ela vem sendo sugerida e aplicada como uma forma de prover acesso a saúde das pessoas, que estão isoladas dos grandes centros médicos. A sua disseminação e popularização trouxe alguns desafios no que tange à disponibilidade e escalabilidade dos sistemas que as suportam e, conseqüentemente, do conhecimento embutido em seus bancos de dados. Desta forma, este trabalho se propõe a realizar um estudo de estratégias de sistemas distribuídos aplicadas aos sistemas de telemedicina. Foram desenvolvidos três estudos, baseados em cenários de aplicação. São eles: agregados computacionais, bancos de dados distribuídos e sistemas de arquivos distribuídos. No primeiro cenário proposto, foi realizado um estudo para o provimento de alta disponibilidade e alto desempenho, usando agregados computacionais, para o sistema de telemedicina do Laboratório de Telemedicina da Universidade Federal de Santa Catarina. Neste cenário foram avaliados e comparados o sistema atual versus o sistema utilizando agregados computacionais. No segundo cenário foi avaliado o uso de replicação de dados assíncrona entre bancos de dados distribuídos, no sentido de integrar o conhecimento embutido nos bancos de dados médicos. Por fim, no terceiro e último cenário, foi avaliado o uso de sistemas de arquivos distribuídos como dispositivo de armazenamento de imagens médicas, no sentido de promover altos níveis de escalabilidade e desempenho para as informações.
253

Desenvolvimento de uma base de dados para fatores de transcrição de seres humanos e suas redes de interação : Human Transcriptional Regulation Interaction Database (HTRIDB 2.0) /

Bovolenta, Luiz Augusto. January 2012 (has links)
Orientador: Ney Lemke / Coorientador: Marcio Luis Acencio / Banca: Cesar Martins / Banca: Lucas Bleicher / Resumo: Fatores de transcrição são proteínas que interagem com sequências nucleotídicas específicas situadas nas regiões promotoras de genes e, através dessa interação, regulam a transcrição dos genes. Devido a essa função reguladora, a identificação e a caracterização da rede de interações entre fatores de transcrição e seus genes alvos são importantes por que essa rede representa o arcabouço molecular através do qual os estímulos ambientais são convertidos em expressão diferencial dos genes. Como essa expressão diferencial, por sua vez, determina o comportamento da célula em resposta a um certo estímulo, a rede de interações de regulação transcricional pode, portanto, fornecer uma compreensão sistêmica de como os comportamentos celulares emergem a partir dos estímulos ambientais. A primeira etapa para a construção de uma rede de regulação transcricional consiste na coleta de dados relacionados às interações entre os fatores de transcrição e seus genes alvos. Porém, como esses dados são encontrados de forma dispersa na literatura ou em bancos de dados pagos, essa etapa demanda muito tempo. Com o objetivo de centralizar esses dados de forma a facilitar sua coleta e, consequentemente, a construção da rede de interações de regulação transcricional, desenvolvemos um banco de dados relacional chamado Human Transcriptional Regulation Interaction Database (HTRIdb). Desenvolvido em PostgreSQL e Java, o HTRIdb contém uma coleção de milhares de interações de regulação transcricional experimentalmente verificadas em seres humanos que podem ser acessadas e obtidas gratuitamente por toda a comunidade científica. Além do acesso gratuito e livre permissão para a obtenção dos dados, o HTRIdb oferece... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: Transcription factors are proteins that interact with specific nucleotide sequences located in promoter regions of genes and, through this interaction, regulate gene transcription. Due of this regulatory function, the identification and characterization of the network of interactions between transcription factors and their target genes are important since this network represents the molecular framework that explains how environmental stimuli are converted into differential expression of genes. This network provides a systemic understanding of how cellular behaviors emerge from the environmental stimuli. The first step for the transcriptional regulatory network construction is the collection of data about interactions between transcription factors and their target genes. This step is very time-consuming as these data are found dispersed on the literature or in commercial databases. In an effort to provide researchers with a repository of transcriptional regulatory interactions from which such interactions can be directly and easily extracted, we developed a relational database called the Human Interaction Database Transcriptional Regulation (HTRIdb). HTRIdb was implemented using PostgreSQL and Java and contains a collection of thousands of experimentally verified human transcriptional regulation interactions. HTRIdb can be freely accessed by the scientific community and offers a visualization tool for the regulatory network and provides a communication interface between users and developers to enhance... (Complete abstract click electronic access below) / Mestre
254

Os documentos arquivísticos digitais no sistema de informações SIE/UFSM : da produção ao acesso /

Viana, Gilberto Fladimar Rodrigues. January 2015 (has links)
Orientadora: Telma Campanha de Carvalho Madio / Banca: Ricardo César Gonçalves Sant'Ana / Banca: Daniel Flores / Banca: José Carlos Abbud Grácio / Banca: Eloi Juniti Yamaoka / Resumo: Esta pesquisa analisa os documentos arquivísticos digitais e analógicos no Sistema de Informações para o Ensino, da Universidade Federal de Santa Maria - SIE/UFSM - aplicado ao subsistema "Produção Institucional", "Módulo de Registro de Projetos", no âmbito do Centro de Artes e Letras - CAL. Desenvolve estudos que propiciem o adequado tratamento da massa documental criada, armazenada e acessada em sistemas de informações, como o SIE/UFSM, sendo que o estudo se desenvolveu através da observância do arcabouço teórico, normativo, legal, institucional e social, pertinente à gestão e à destinação documental dos documentos digitais na Instituição. A pesquisa foi desenvolvida através de uma abordagem quali-quanti, constituída de levantamentos através de acessos e consulta ao SIE em nível operacional gerencial, apoiada pelo referencial teórico e normativo pertinente aos tópicos desenvolvidos ao longo da pesquisa, que se constitui, inicialmente, do detalhamento do SIE/UFSM, do módulo de registro projetos, onde também se procede à análise quantitativa dos projetos nele registrados, provenientes do CAL. Foi observada a variação quantitativa das situações dos projetos em períodos distintos em função da definição institucional do tempo máximo de sua duração, assim como ações institucionais de incentivo ao desenvolvimento de projetos. Foram abordadas, também, as questões do patrimônio documental e da memória associados ao esquecimento na perspectiva do SIE/UFSM, constatando-se a ausência de ações institucionais (políticas) que reconheçam a potencialidade e estabeleçam o SIE como gênese da memória institucional consubstanciada como patrimônio documental disponível à sociedade; procede-se, também, à contextualização teórica da Arquivologia contemporânea, considerando os ... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: This research analyzes the digital and analogical archival documents in the Information System for Education, from the Federal University of Santa Maria - SIE / UFSM - applied to the subsystem "Institutional Production", "Project Registration Module" within the Arts and Letters Center - CAL. It develops studies that propitiate the adequate treatment of documentary mass created, stored and accessed in information systems such as the SIE / UFSM, wherein the study was developed through compliance with the theoretical, normative, legal, institutional and social framework related to the management and documentary allocation of digital documents in the Institution. The research was developed through a qualitative and quantitative approach, consisting of examinations through access and consultation of the SIE in management operational level, supported by the theoretical and normative reference frame relevant to topics developed throughout the research, which is initially detailing the SIE / UFSM, the project registration module, which also carries out the quantitative analysis of projects registered in it, derived from CAL. It was observed quantitative variation of the projects situations at different times depending on the institutional setting of the maximum duration time as well as institutional actions to encourage the development of projects. Were addressed also the issues of documentary heritage and memory associated to oblivion in view of SIE / UFSM, evidencing the absence of institutional actions (policies) that recognize the potential and establish the SIE as source of institutional memory consubstantiated as documentary heritage available to society; proceeds, also, to the theoretical context of contemporary Archival Science considering the analogical and digital documents, the concept of information systems, as ... (Complete abstract click electronic access below) / Doutor
255

[en] DATA MINING WITH ROUGH SETS TECHNIQUES / [pt] MINERAÇÃO DE DADOS COM TÉCNICAS DE ROUGH SETS

DANTE JOSE ALEXANDRE CID 13 October 2005 (has links)
[pt] Esta dissertação investiga a utilização de Rough Sets no processo de descoberta de conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases). O objetivo do trabalho foi avaliar o desempenho da técnica de Rough Sets na tarefa de Classificação de Dados. A Classificação é a tarefa da fase de Mineração de Dados que consiste na descoberta de regras de decisão, ou regras de inferência, que melhor representem um grupo de registros do banco de dados. O trabalho consistiu de cinco etapas principais: estudo sobre o processo de KDD; estudo sobre as técnicas de Rough Sets aplicadas à mineração de dados; análise de ferramentas de mineração de dados do mercado; evolução do projeto Bramining; e a realização de alguns estudos de caso para avaliar o Bramining. O estudo sobre o caso KDD abrangeu todas as suas fases: transformação, limpeza, seleção, mineração de dados e pós-processamento. O resultado obtido serviu de base para o aprimoramento do projeto Bramining. O estudo sobre as técnicas de Rough Sets envolveu a pesquisa de seus conceitos e sua aplicabilidade no contexto de KDD. A teoria de Rough Sets foi apresentada por Zdzislaw Pawlak no início dos anos 80 como uma abordagem matemática para a análise de dados vagos e imprecisos. Este estudo permitiu sua aplicação na ferramenta de mineração de dados desenvolvida. A análise de ferramentas de mineração de dados do mercado abrangeu o estudo e testes de aplicativos baseados em diferentes técnicas, enriquecimento a base de comparação utilizada na avaliação da pesquisa. A evolução do projeto Bramining consistiu no aprimoramento do ambiente KDD desenvolvido em estudos anteriores, passando a incluir técnica de Rough Sets em seu escopo. Os estudos de caso foram conduzidos paralelamente com o uso de Bramining e de outras ferramentas existentes, para efeito de comparação. Os índices apresentados pelo Bramining nos estudos de caso foram considerados, de forma geral, equivalentes aos do software comercial, tendo ambos obtidos regras de boa qualidade na maioria dos casos. O Bramining, entretanto, mostrou-se mais completo para o processo de KDD, graças às diversas opções nele disponíveis para preparação dos dados antes da fase de mineração. Os resultados obtidos comprovaram, através da aplicação desenvolvida, a adequação dos conceitos de Rough Sets à tarefa de classificação de dados. Alguns pontos frágeis da técnica foram identificados, como a necessidade de um mecanismo de apoio para a redução de atributos e a dificuldade em trabalhar com atributos de domínio contínuo. Porém, ao se inserir a técnica em um ambiente mais completo de KDD, como o Bramining, estas deficiências foram sanadas. As opções de preparação da base que o Bramining disponibiliza ao usuário para executar, em particular, a redução e a codificação de atributos permitem deixar os dados em estado adequado à aplicação de Rough Sets. A mineração de dados é uma questão bastante relevante nos dias atuais, e muitos métodos têm sido propostos para as diversas tarefas que dizem respeito a esta questão. A teoria de Rough Sets não mostrou significativas vantagens ou desvantagens em relação a outras técnicas já consagradas, mas foi de grande valia comprovar que há caminhos alternativos para o processo de descoberta de conhecimento. / [en] This dissertation investigates the application of Rough Sets to the process of KDD - Knowledge Discovery in Databases. The main goal of the work was to evaluate the performance of Rough Sets techniques in solving the classification problem. Classification is a task of the Data Mining step in KDD Process that performs the discovery of decision rules that best represent a group of registers in a database. The work had five major steps: study of the KDD process; study of Rough Sets techniques applied to data mining; evaluation of existing data mining tools; development of Bramining project; and execution of some case studies to evaluate Bramining. The study of KDD process included all its steps: transformation, cleaning, selection, data mining and post- processing. The results obtained served as a basis to the enhamcement of Bramining. The study of Rough Sets techniques included the research of theory´s concepts and its applicability at KDD context. The Rough Sets tehory has been introduced by Zdzislaw Pawlak in the early 80´s as a mathematical approach to the analysis of vague and uncertain data. This research made possible the implementation of the technique under the environment of the developed tool. The analysis of existing data mining tools included studying and testing of software based on different techniques, enriching the background used in the evaluation of the research. The evolution of Bramining Project consisted in the enhancement of the KDD environment developed in previous works, including the addition of Rough Sets techniques. The case studies were performed simultaneously with Bramining and a commercial minig tool, for comparison reasons. The quality of the knowledge generated by Bramining was considered equivalent to the results of commercial tool, both providing good decision rules for most of the cases. Nevertheless, Bramining proved to be more adapted to the complete KDD process, thanks to the many available features to prepare data to data mining step. The results achieved through the developed application proved the suitability of Rough Sets concepts to the data classification task. Some weaknesses of the technique were identified, like the need of a previous attribute reduction and the inability to deal with continuous domain data. But as the technique has been inserted in a more complete KDD environment like the Bramining Project, those weaknesses ceased to exist. The features of data preparation available in Bramining environment, particularly the reduction and attribute codification options, enable the user to have the database fairly adapted to the use of Rough Sets algorithms. Data mining is a very relevant issue in present days and many methods have been proposed to the different tasks involved in it. Compared to other techniques, Rough Sets Theory did not bring significant advantages or disadvantages to the process, but it has been of great value to show there are alternate ways to knowledge discovery.
256

Banco de dados geoquímicos georreferenciados aplicado a regiões do litoral sul e da baía de todos os santos - Bahia

Lago, Joaquim Bonfim 23 October 2013 (has links)
Submitted by Gisele Mara Hadlich (gisele@ufba.br) on 2017-11-08T18:02:24Z No. of bitstreams: 1 Dissertacao_Joaquim_Lago.pdf: 4167117 bytes, checksum: b42d868995eccc06c8ce63c36963363d (MD5) / Made available in DSpace on 2017-11-08T18:02:24Z (GMT). No. of bitstreams: 1 Dissertacao_Joaquim_Lago.pdf: 4167117 bytes, checksum: b42d868995eccc06c8ce63c36963363d (MD5) / Devido à enorme quantidade de dados gerados a partir de pesquisas realizadas pelo Núcleo de Estudos Ambientais (NEA) e pelo Programa de Pós Graduação em Geoquímica: Petróleo e Meio Ambiente (POSPETRO) na região Litoral Sul (municípios de Belmonte, Canavieiras e Una) e na Baía de Todos os Santos (BTS),do Estado da Bahia, verificou-se a necessidade da criação de um Sistema de Banco de Dados Georreferenciados para a inserção, armazenamento e recuperação dos dados geoquímicos produzidos por esses e outros estudos científicos do NEA e do POSPETRO. Esta dissertação tem por objetivo apresentar a construção do Sistema de Banco de Dados Geoquímicos Georreferenciados (SBDGG) e exemplos de sua utilização através da caracterização geoquímica de ambientes do Litoral Sul e da Baía de Todos os Santos. O presente trabalho se inicia com o levantamento de tecnologias para a concepção do SBDGG, que foi criado usando a filosofia de softwares livres, paralelamente com revisão de literatura em banco de dados e aspectos geoquímicos relevantes relacionados com as áreas piloto definidas para esta pesquisa. Posteriormente foi feito um levantamento dos dados existentes, os quais foram testados e tratados, para ulterior inserção no SBDGG. Em complementação ao desenvolvimento do trabalho, fez-se necessário o conhecimento do funcionamento de metodologias de coletas adotadas, informações das áreas amostradas, localizações de pontos e análises geoquímicas com matrizes e suas variáveis e sub-variáveis, que foram obtidas em laboratório. O SBDGG, construído em plataforma WEB, contempla três níveis de usuários com diferentes perfis. Para a entrada de dados são necessários, inicialmente, informações sobre o local de coleta (projeto, coordenadas UTM-WGS84), data e responsável pela coleta (referência do trabalho original com o dado primário). Em seguida, são verificados os dados a seguir disponíveis para inclusão no sistema: 1) matriz (sedimento, água, vegetação, dentre outras); 2) variáveis (inorgânicas, orgânicas, físico-químicas, granulométricas, de nutrientes etc.), sendo que para cada uma há diversas sub-variáveis, por exemplo: condutividade, argila, silte, areia, alcalinidade. Para a saída é permitido a seleção das análises, filtrando por “ponto”, “autor”, “matriz” e “parâmetro”, gerando então uma tabela de dados que pôde ser exportada para outros aplicativos. O uso do SBDGG foi testado e foram gerados resultados científicos e tecnológicos, a exemplo da patente que está sendo encaminhada para o Núcleo de Inovação Tecnológica NIT/UFBA, para o devido processo de registro e deposição. O SBDGG mostrou-se adequado para a inclusão, armazenamento e saída dos dados produzidos por diferentes autores em trabalhos realizados no Litoral Sul e na BTS, e pode abranger qualquer área de estudo, desde que os dados geoquímicos estejam vinculados à locais de coleta georreferenciados.
257

Integração de multidatabases heterogêneos com aplicação de XML Schemas / Silvio Bortoleto ; orientador, Edgard Jamhour

Bortoleto, Silvio January 2004 (has links)
Dissertação (mestrado) - Pontifícia Universidade Católica do Paraná, Curitiba, 2004 / Inclui bibliografia / O desenvolvimento de software hoje alcança níveis consideráveis de evolução e portabilidade. Entretanto, ainda são encontradas grandes dificuldades na integração dos bancos de dados, seja por fabricantes diversos ou ainda por que as ferramentas de conecti.
258

Qualidade da informação em empresas que utilizam data warehouse na perspectiva do consumidor de informação / Rosana Adami Mattioda ; orientador, Fábio Favaretto

Mattioda, Rosana Adami January 2006 (has links)
Dissertação (mestrado) - Pontifícia Universidade Católica do Paraná, Curitiba, 2006 / Inclui bibliografia / Atualmente, convivemos com um grande volume de dados, redundantes e inconsistentes que necessitam cada vez mais serem administrados com eficiência e transformados em informação pertinente para fins de suporte á decisão. Sabendo-se que a competitividade de
259

Marketing com banco de dados: uma vantagem competitiva no varejo

Mendes, Marcelo Teixeira 31 March 1997 (has links)
Made available in DSpace on 2010-04-20T20:15:40Z (GMT). No. of bitstreams: 0 Previous issue date: 1997-03-31T00:00:00Z / Trata-se de uma revisão bibliográfica sobre Marketing com banco de dados, que é o marketing auxiliado por um banco de dados de clientes. No varejo, depois do advento da automação comercial, muitas empresas passaram a possuir um grande banco de dados de seus clientes com as mais variadas informações. Através de alguns exemplos enfatiza-se como aspectos conceituais estão relacionados com os casos práticos apresentados
260

Uma abordagem semi-automática para geração incremental de correspondências entre ontologias / A Semi-automatic approach for generating incremental correspondences between ontologies

Hortêncio Filho, Fernando Wagner Brito January 2011 (has links)
HORTÊNCIO FILHO, Fernando Wagner Brito. Uma Abordagem semi-automática para geração incremental de correspondências entre ontologias. 2011. 80 f. Dissertação (Mestrado em ciência da computação)- Universidade Federal do Ceará, Fortaleza-CE, 2011. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-11T15:27:53Z No. of bitstreams: 1 2011_dis_fwbhortenciofilho.pdf: 2807164 bytes, checksum: f2d22503112321ee69d172f0ac56d4c8 (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-15T15:37:23Z (GMT) No. of bitstreams: 1 2011_dis_fwbhortenciofilho.pdf: 2807164 bytes, checksum: f2d22503112321ee69d172f0ac56d4c8 (MD5) / Made available in DSpace on 2016-07-15T15:37:23Z (GMT). No. of bitstreams: 1 2011_dis_fwbhortenciofilho.pdf: 2807164 bytes, checksum: f2d22503112321ee69d172f0ac56d4c8 (MD5) Previous issue date: 2011 / The discovery of semantic correspondences between schemas is an important task for different fields of applications such as data integration, data warehousing and data mashup. In most cases, the data sources involved are heterogeneous and dynamic, making it even harder the performance of that task. Ontologies are being used in order to define common vocabulary used to describe the elements of the schemas involved in a particular application. The problem of matching between ontologies, or ontology matching, consists in the discovery of correspondences between terms of vocabularies (represented by ontologies) used between the various applications. The solutions proposed in the literature, despite being fully automatic have heuristic nature, and may produce non-satisfactory results. The problem intensifies when dealing with large data sources. The purpose of this paper is to propose a method for generation and incremental refinement of correspondences between ontologies. The proposed approach makes use of filtering techniques of ontologies, as well as user feedback to support the generation and refining these matches. For validation purposes, a tool was developed and experiments were conducted. / A descoberta de correspondências semânticas entre esquemas é uma importante tarefa para diversos domínios de aplicações, tais como integração de dados, data warehouse e mashup de dados. Na maioria dos casos, as fontes de dados envolvidas são heterogêneas e dinâmicas, dificultando ainda mais a realização dessa tarefa. Ontologias vêm sendo utilizadas no intuito de definir vocabulários comuns usados para descrever os elementos dos esquemas envolvidos em uma determinada aplicação. O problema de matching entre ontologias, ou ontology matching, consiste na descoberta de correspondências entre os termos dos vocabulários (representados por ontologias) usados entre as diversas aplicações. As soluções propostas na literatura, apesar de serem totalmente automáticas possuem natureza heurística, podendo produzir resultados não-satisfatórios. O problema se intensifica quando se lida com grandes fontes de dados. O objetivo deste trabalho é propor um método para geração e refinamento incremental de correspondências entre ontologias. A abordagem proposta faz uso de técnicas de filtragem de ontologias, bem como do feedback do usuário para dar suporte à geração e ao refinamento dessas correspondências. Para fins de validação, uma ferramenta foi desenvolvida e experimentos foram realizados.

Page generated in 0.0972 seconds