Spelling suggestions: "subject:"banco dde dados"" "subject:"banco dee dados""
251 |
Um método para determinar a equivalência semãntica entre esquemas GMLFrozza, Angelo Augusto January 2007 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Ciência da Computação / Made available in DSpace on 2012-10-23T12:32:27Z (GMT). No. of bitstreams: 1
241097.pdf: 4035645 bytes, checksum: ca89085c527c07397f0f1f442610e7de (MD5)
|
252 |
Um estudo de estratégias de sistemas distribuidos aplicadas a sistemas de telemedicinaMacedo, Douglas Dyllon J. de January 2008 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Engenharia e Gestão do Conhecimento / Made available in DSpace on 2012-10-24T00:29:24Z (GMT). No. of bitstreams: 1
251018.pdf: 1177775 bytes, checksum: 112801a531c52754ec42b2a52918577d (MD5) / Desde o surgimento da Telemedicina na década de 60, ela vem sendo sugerida e aplicada como uma forma de prover acesso a saúde das pessoas, que estão isoladas dos grandes centros médicos. A sua disseminação e popularização trouxe alguns desafios no que tange à disponibilidade e escalabilidade dos sistemas que as suportam e, conseqüentemente, do conhecimento embutido em seus bancos de dados. Desta forma, este trabalho se propõe a realizar um estudo de estratégias de sistemas distribuídos aplicadas aos sistemas de telemedicina. Foram desenvolvidos três estudos, baseados em cenários de aplicação. São eles: agregados computacionais, bancos de dados distribuídos e sistemas de arquivos distribuídos. No primeiro cenário proposto, foi realizado um estudo para o provimento de alta disponibilidade e alto desempenho, usando agregados computacionais, para o sistema de telemedicina do Laboratório de Telemedicina da Universidade Federal de Santa Catarina. Neste cenário foram avaliados e comparados o sistema atual versus o sistema utilizando agregados computacionais. No segundo cenário foi avaliado o uso de replicação de dados assíncrona entre bancos de dados distribuídos, no sentido de integrar o conhecimento embutido nos bancos de dados médicos. Por fim, no terceiro e último cenário, foi avaliado o uso de sistemas de arquivos distribuídos como dispositivo de armazenamento de imagens médicas, no sentido de promover altos níveis de escalabilidade e desempenho para as informações.
|
253 |
Desenvolvimento de uma base de dados para fatores de transcrição de seres humanos e suas redes de interação : Human Transcriptional Regulation Interaction Database (HTRIDB 2.0) /Bovolenta, Luiz Augusto. January 2012 (has links)
Orientador: Ney Lemke / Coorientador: Marcio Luis Acencio / Banca: Cesar Martins / Banca: Lucas Bleicher / Resumo: Fatores de transcrição são proteínas que interagem com sequências nucleotídicas específicas situadas nas regiões promotoras de genes e, através dessa interação, regulam a transcrição dos genes. Devido a essa função reguladora, a identificação e a caracterização da rede de interações entre fatores de transcrição e seus genes alvos são importantes por que essa rede representa o arcabouço molecular através do qual os estímulos ambientais são convertidos em expressão diferencial dos genes. Como essa expressão diferencial, por sua vez, determina o comportamento da célula em resposta a um certo estímulo, a rede de interações de regulação transcricional pode, portanto, fornecer uma compreensão sistêmica de como os comportamentos celulares emergem a partir dos estímulos ambientais. A primeira etapa para a construção de uma rede de regulação transcricional consiste na coleta de dados relacionados às interações entre os fatores de transcrição e seus genes alvos. Porém, como esses dados são encontrados de forma dispersa na literatura ou em bancos de dados pagos, essa etapa demanda muito tempo. Com o objetivo de centralizar esses dados de forma a facilitar sua coleta e, consequentemente, a construção da rede de interações de regulação transcricional, desenvolvemos um banco de dados relacional chamado Human Transcriptional Regulation Interaction Database (HTRIdb). Desenvolvido em PostgreSQL e Java, o HTRIdb contém uma coleção de milhares de interações de regulação transcricional experimentalmente verificadas em seres humanos que podem ser acessadas e obtidas gratuitamente por toda a comunidade científica. Além do acesso gratuito e livre permissão para a obtenção dos dados, o HTRIdb oferece... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: Transcription factors are proteins that interact with specific nucleotide sequences located in promoter regions of genes and, through this interaction, regulate gene transcription. Due of this regulatory function, the identification and characterization of the network of interactions between transcription factors and their target genes are important since this network represents the molecular framework that explains how environmental stimuli are converted into differential expression of genes. This network provides a systemic understanding of how cellular behaviors emerge from the environmental stimuli. The first step for the transcriptional regulatory network construction is the collection of data about interactions between transcription factors and their target genes. This step is very time-consuming as these data are found dispersed on the literature or in commercial databases. In an effort to provide researchers with a repository of transcriptional regulatory interactions from which such interactions can be directly and easily extracted, we developed a relational database called the Human Interaction Database Transcriptional Regulation (HTRIdb). HTRIdb was implemented using PostgreSQL and Java and contains a collection of thousands of experimentally verified human transcriptional regulation interactions. HTRIdb can be freely accessed by the scientific community and offers a visualization tool for the regulatory network and provides a communication interface between users and developers to enhance... (Complete abstract click electronic access below) / Mestre
|
254 |
Os documentos arquivísticos digitais no sistema de informações SIE/UFSM : da produção ao acesso /Viana, Gilberto Fladimar Rodrigues. January 2015 (has links)
Orientadora: Telma Campanha de Carvalho Madio / Banca: Ricardo César Gonçalves Sant'Ana / Banca: Daniel Flores / Banca: José Carlos Abbud Grácio / Banca: Eloi Juniti Yamaoka / Resumo: Esta pesquisa analisa os documentos arquivísticos digitais e analógicos no Sistema de Informações para o Ensino, da Universidade Federal de Santa Maria - SIE/UFSM - aplicado ao subsistema "Produção Institucional", "Módulo de Registro de Projetos", no âmbito do Centro de Artes e Letras - CAL. Desenvolve estudos que propiciem o adequado tratamento da massa documental criada, armazenada e acessada em sistemas de informações, como o SIE/UFSM, sendo que o estudo se desenvolveu através da observância do arcabouço teórico, normativo, legal, institucional e social, pertinente à gestão e à destinação documental dos documentos digitais na Instituição. A pesquisa foi desenvolvida através de uma abordagem quali-quanti, constituída de levantamentos através de acessos e consulta ao SIE em nível operacional gerencial, apoiada pelo referencial teórico e normativo pertinente aos tópicos desenvolvidos ao longo da pesquisa, que se constitui, inicialmente, do detalhamento do SIE/UFSM, do módulo de registro projetos, onde também se procede à análise quantitativa dos projetos nele registrados, provenientes do CAL. Foi observada a variação quantitativa das situações dos projetos em períodos distintos em função da definição institucional do tempo máximo de sua duração, assim como ações institucionais de incentivo ao desenvolvimento de projetos. Foram abordadas, também, as questões do patrimônio documental e da memória associados ao esquecimento na perspectiva do SIE/UFSM, constatando-se a ausência de ações institucionais (políticas) que reconheçam a potencialidade e estabeleçam o SIE como gênese da memória institucional consubstanciada como patrimônio documental disponível à sociedade; procede-se, também, à contextualização teórica da Arquivologia contemporânea, considerando os ... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: This research analyzes the digital and analogical archival documents in the Information System for Education, from the Federal University of Santa Maria - SIE / UFSM - applied to the subsystem "Institutional Production", "Project Registration Module" within the Arts and Letters Center - CAL. It develops studies that propitiate the adequate treatment of documentary mass created, stored and accessed in information systems such as the SIE / UFSM, wherein the study was developed through compliance with the theoretical, normative, legal, institutional and social framework related to the management and documentary allocation of digital documents in the Institution. The research was developed through a qualitative and quantitative approach, consisting of examinations through access and consultation of the SIE in management operational level, supported by the theoretical and normative reference frame relevant to topics developed throughout the research, which is initially detailing the SIE / UFSM, the project registration module, which also carries out the quantitative analysis of projects registered in it, derived from CAL. It was observed quantitative variation of the projects situations at different times depending on the institutional setting of the maximum duration time as well as institutional actions to encourage the development of projects. Were addressed also the issues of documentary heritage and memory associated to oblivion in view of SIE / UFSM, evidencing the absence of institutional actions (policies) that recognize the potential and establish the SIE as source of institutional memory consubstantiated as documentary heritage available to society; proceeds, also, to the theoretical context of contemporary Archival Science considering the analogical and digital documents, the concept of information systems, as ... (Complete abstract click electronic access below) / Doutor
|
255 |
[en] DATA MINING WITH ROUGH SETS TECHNIQUES / [pt] MINERAÇÃO DE DADOS COM TÉCNICAS DE ROUGH SETSDANTE JOSE ALEXANDRE CID 13 October 2005 (has links)
[pt] Esta dissertação investiga a utilização de Rough Sets no
processo de descoberta de conhecimento em Bancos de
Dados (KDD - Knowledge Discovery in Databases). O
objetivo do trabalho foi avaliar o desempenho da técnica
de Rough Sets na tarefa de Classificação de Dados. A
Classificação é a tarefa da fase de Mineração de Dados
que consiste na descoberta de regras de decisão, ou
regras de inferência, que melhor representem um grupo de
registros do banco de dados. O trabalho consistiu de
cinco etapas principais: estudo sobre o processo de KDD;
estudo sobre as técnicas de Rough Sets aplicadas à
mineração de dados; análise de ferramentas de mineração
de dados do mercado; evolução do projeto Bramining; e a
realização de alguns estudos de caso para avaliar o
Bramining.
O estudo sobre o caso KDD abrangeu todas as suas fases:
transformação, limpeza, seleção, mineração de dados e
pós-processamento. O resultado obtido serviu de base
para o aprimoramento do projeto Bramining.
O estudo sobre as técnicas de Rough Sets envolveu a
pesquisa de seus conceitos e sua aplicabilidade no
contexto de KDD. A teoria de Rough Sets foi apresentada
por Zdzislaw Pawlak no início dos anos 80 como uma
abordagem matemática para a análise de dados vagos e
imprecisos. Este estudo permitiu sua aplicação na
ferramenta de mineração de dados desenvolvida.
A análise de ferramentas de mineração de dados do
mercado abrangeu o estudo e testes de aplicativos
baseados em diferentes técnicas, enriquecimento a base
de comparação utilizada na avaliação da pesquisa.
A evolução do projeto Bramining consistiu no
aprimoramento do ambiente KDD desenvolvido em estudos
anteriores, passando a incluir técnica de Rough Sets em
seu escopo.
Os estudos de caso foram conduzidos paralelamente com o
uso de Bramining e de outras ferramentas existentes,
para efeito de comparação.
Os índices apresentados pelo Bramining nos estudos de
caso foram considerados, de forma geral, equivalentes
aos do software comercial, tendo ambos obtidos regras de
boa qualidade na maioria dos casos. O Bramining,
entretanto, mostrou-se mais completo para o processo de
KDD, graças às diversas opções nele disponíveis para
preparação dos dados antes da fase de mineração.
Os resultados obtidos comprovaram, através da aplicação
desenvolvida, a adequação dos conceitos de Rough Sets à
tarefa de classificação de dados. Alguns pontos frágeis
da técnica foram identificados, como a necessidade de um
mecanismo de apoio para a redução de atributos e a
dificuldade em trabalhar com atributos de domínio
contínuo. Porém, ao se inserir a técnica em um ambiente
mais completo de KDD, como o Bramining, estas
deficiências foram sanadas. As opções de preparação da
base que o Bramining disponibiliza ao usuário para
executar, em particular, a redução e a codificação de
atributos permitem deixar os dados em estado adequado à
aplicação de Rough Sets.
A mineração de dados é uma questão bastante relevante
nos dias atuais, e muitos métodos têm sido propostos
para as diversas tarefas que dizem respeito a esta
questão. A teoria de Rough Sets não mostrou
significativas vantagens ou desvantagens em relação a
outras técnicas já consagradas, mas foi de grande valia
comprovar que há caminhos alternativos para o processo
de descoberta de conhecimento. / [en] This dissertation investigates the application of Rough
Sets to the process of KDD - Knowledge Discovery in
Databases. The main goal of the work was to evaluate the
performance of Rough Sets techniques in solving the
classification problem. Classification is a task of the
Data Mining step in KDD Process that performs the
discovery of decision rules that best represent a group of
registers in a database. The work had five major steps:
study of the KDD process; study of Rough Sets techniques
applied to data mining; evaluation of existing data mining
tools; development of Bramining project; and execution of
some case studies to evaluate Bramining.
The study of KDD process included all its steps:
transformation, cleaning, selection, data mining and post-
processing. The results obtained served as a basis to the
enhamcement of Bramining.
The study of Rough Sets techniques included the research
of theory´s concepts and its applicability at KDD context.
The Rough Sets tehory has been introduced by Zdzislaw
Pawlak in the early 80´s as a mathematical approach to the
analysis of vague and uncertain data. This research made
possible the implementation of the technique under the
environment of the developed tool.
The analysis of existing data mining tools included
studying and testing of software based on different
techniques, enriching the background used in the
evaluation of the research.
The evolution of Bramining Project consisted in the
enhancement of the KDD environment developed in previous
works, including the addition of Rough Sets techniques.
The case studies were performed simultaneously with
Bramining and a commercial minig tool, for comparison
reasons.
The quality of the knowledge generated by Bramining was
considered equivalent to the results of commercial tool,
both providing good decision rules for most of the cases.
Nevertheless, Bramining proved to be more adapted to the
complete KDD process, thanks to the many available
features to prepare data to data mining step.
The results achieved through the developed application
proved the suitability of Rough Sets concepts to the data
classification task. Some weaknesses of the technique were
identified, like the need of a previous attribute
reduction and the inability to deal with continuous domain
data. But as the technique has been inserted in a more
complete KDD environment like the Bramining Project, those
weaknesses ceased to exist. The features of data
preparation available in Bramining environment,
particularly the reduction and attribute codification
options, enable the user to have the database fairly
adapted to the use of Rough Sets algorithms.
Data mining is a very relevant issue in present days and
many methods have been proposed to the different tasks
involved in it. Compared to other techniques, Rough Sets
Theory did not bring significant advantages or
disadvantages to the process, but it has been of great
value to show there are alternate ways to knowledge
discovery.
|
256 |
Banco de dados geoquímicos georreferenciados aplicado a regiões do litoral sul e da baía de todos os santos - BahiaLago, Joaquim Bonfim 23 October 2013 (has links)
Submitted by Gisele Mara Hadlich (gisele@ufba.br) on 2017-11-08T18:02:24Z
No. of bitstreams: 1
Dissertacao_Joaquim_Lago.pdf: 4167117 bytes, checksum: b42d868995eccc06c8ce63c36963363d (MD5) / Made available in DSpace on 2017-11-08T18:02:24Z (GMT). No. of bitstreams: 1
Dissertacao_Joaquim_Lago.pdf: 4167117 bytes, checksum: b42d868995eccc06c8ce63c36963363d (MD5) / Devido à enorme quantidade de dados gerados a partir de pesquisas realizadas pelo Núcleo de Estudos Ambientais (NEA) e pelo Programa de Pós Graduação em Geoquímica: Petróleo e Meio Ambiente (POSPETRO) na região Litoral Sul (municípios de Belmonte, Canavieiras e Una) e na Baía de Todos os Santos (BTS),do Estado da Bahia, verificou-se a necessidade da criação de um Sistema de Banco de Dados Georreferenciados para a inserção, armazenamento e recuperação dos dados geoquímicos produzidos por esses e outros estudos científicos do NEA e do POSPETRO. Esta dissertação tem por objetivo apresentar a construção do Sistema de Banco de Dados Geoquímicos Georreferenciados (SBDGG) e exemplos de sua utilização através da caracterização geoquímica de ambientes do Litoral Sul e da Baía de Todos os Santos. O presente trabalho se inicia com o levantamento de tecnologias para a concepção do SBDGG, que foi criado usando a filosofia de softwares livres, paralelamente com revisão de literatura em banco de dados e aspectos geoquímicos relevantes relacionados com as áreas piloto definidas para esta pesquisa. Posteriormente foi feito um levantamento dos dados existentes, os quais foram testados e tratados, para ulterior inserção no SBDGG. Em complementação ao desenvolvimento do trabalho, fez-se necessário o conhecimento do funcionamento de metodologias de coletas adotadas, informações das áreas amostradas, localizações de pontos e análises geoquímicas com matrizes e suas variáveis e sub-variáveis, que foram obtidas em laboratório. O SBDGG, construído em plataforma WEB, contempla três níveis de usuários com diferentes perfis. Para a entrada de dados são necessários, inicialmente, informações sobre o local de coleta (projeto, coordenadas UTM-WGS84), data e responsável pela coleta (referência do trabalho original com o dado primário). Em seguida, são verificados os dados a seguir disponíveis para inclusão no sistema: 1) matriz (sedimento, água, vegetação, dentre outras); 2) variáveis (inorgânicas, orgânicas, físico-químicas, granulométricas, de nutrientes etc.), sendo que para cada uma há diversas sub-variáveis, por exemplo: condutividade, argila, silte, areia, alcalinidade. Para a saída é permitido a seleção das análises, filtrando por “ponto”, “autor”, “matriz” e “parâmetro”, gerando então uma tabela de dados que pôde ser exportada para outros aplicativos. O uso do SBDGG foi testado e foram gerados resultados científicos e tecnológicos, a exemplo da patente que está sendo encaminhada para o Núcleo de Inovação Tecnológica NIT/UFBA, para o devido processo de registro e deposição. O SBDGG mostrou-se adequado para a inclusão, armazenamento e saída dos dados produzidos por diferentes autores em trabalhos realizados no Litoral Sul e na BTS, e pode abranger qualquer área de estudo, desde que os dados geoquímicos estejam vinculados à locais de coleta georreferenciados.
|
257 |
Integração de multidatabases heterogêneos com aplicação de XML Schemas / Silvio Bortoleto ; orientador, Edgard JamhourBortoleto, Silvio January 2004 (has links)
Dissertação (mestrado) - Pontifícia Universidade Católica do Paraná, Curitiba, 2004 / Inclui bibliografia / O desenvolvimento de software hoje alcança níveis consideráveis de evolução e portabilidade. Entretanto, ainda são encontradas grandes dificuldades na integração dos bancos de dados, seja por fabricantes diversos ou ainda por que as ferramentas de conecti.
|
258 |
Qualidade da informação em empresas que utilizam data warehouse na perspectiva do consumidor de informação / Rosana Adami Mattioda ; orientador, Fábio FavarettoMattioda, Rosana Adami January 2006 (has links)
Dissertação (mestrado) - Pontifícia Universidade Católica do Paraná, Curitiba, 2006 / Inclui bibliografia / Atualmente, convivemos com um grande volume de dados, redundantes e inconsistentes que necessitam cada vez mais serem administrados com eficiência e transformados em informação pertinente para fins de suporte á decisão. Sabendo-se que a competitividade de
|
259 |
Marketing com banco de dados: uma vantagem competitiva no varejoMendes, Marcelo Teixeira 31 March 1997 (has links)
Made available in DSpace on 2010-04-20T20:15:40Z (GMT). No. of bitstreams: 0
Previous issue date: 1997-03-31T00:00:00Z / Trata-se de uma revisão bibliográfica sobre Marketing com banco de dados, que é o marketing auxiliado por um banco de dados de clientes. No varejo, depois do advento da automação comercial, muitas empresas passaram a possuir um grande banco de dados de seus clientes com as mais variadas informações. Através de alguns exemplos enfatiza-se como aspectos conceituais estão relacionados com os casos práticos apresentados
|
260 |
Uma abordagem semi-automática para geração incremental de correspondências entre ontologias / A Semi-automatic approach for generating incremental correspondences between ontologiesHortêncio Filho, Fernando Wagner Brito January 2011 (has links)
HORTÊNCIO FILHO, Fernando Wagner Brito. Uma Abordagem semi-automática para geração incremental de correspondências entre ontologias. 2011. 80 f. Dissertação (Mestrado em ciência da computação)- Universidade Federal do Ceará, Fortaleza-CE, 2011. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-11T15:27:53Z
No. of bitstreams: 1
2011_dis_fwbhortenciofilho.pdf: 2807164 bytes, checksum: f2d22503112321ee69d172f0ac56d4c8 (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-15T15:37:23Z (GMT) No. of bitstreams: 1
2011_dis_fwbhortenciofilho.pdf: 2807164 bytes, checksum: f2d22503112321ee69d172f0ac56d4c8 (MD5) / Made available in DSpace on 2016-07-15T15:37:23Z (GMT). No. of bitstreams: 1
2011_dis_fwbhortenciofilho.pdf: 2807164 bytes, checksum: f2d22503112321ee69d172f0ac56d4c8 (MD5)
Previous issue date: 2011 / The discovery of semantic correspondences between schemas is an important task for different fields of applications such as data integration, data warehousing and data mashup. In most cases, the data sources involved are heterogeneous and dynamic, making it even harder the performance of that task. Ontologies are being used in order to define common vocabulary used to describe the elements of the schemas involved in a particular application. The problem of matching between ontologies, or ontology matching, consists in the discovery of correspondences between terms of vocabularies (represented by ontologies) used between the various applications. The solutions proposed in the literature, despite being fully automatic have heuristic nature, and may produce non-satisfactory results. The problem intensifies when dealing with large data sources. The purpose of this paper is to propose a method for generation and incremental refinement of correspondences between ontologies. The proposed approach makes use of filtering techniques of ontologies, as well as user feedback to support the generation and refining these matches. For validation purposes, a tool was developed and experiments were conducted. / A descoberta de correspondências semânticas entre esquemas é uma importante tarefa para diversos domínios de aplicações, tais como integração de dados, data warehouse e mashup de dados. Na maioria dos casos, as fontes de dados envolvidas são heterogêneas e dinâmicas, dificultando ainda mais a realização dessa tarefa. Ontologias vêm sendo utilizadas no intuito de definir vocabulários comuns usados para descrever os elementos dos esquemas envolvidos em uma determinada aplicação. O problema de matching entre ontologias, ou ontology matching, consiste na descoberta de correspondências entre os termos dos vocabulários (representados por ontologias) usados entre as diversas aplicações. As soluções propostas na literatura, apesar de serem totalmente automáticas possuem natureza heurística, podendo produzir resultados não-satisfatórios. O problema se intensifica quando se lida com grandes fontes de dados. O objetivo deste trabalho é propor um método para geração e refinamento incremental de correspondências entre ontologias. A abordagem proposta faz uso de técnicas de filtragem de ontologias, bem como do feedback do usuário para dar suporte à geração e ao refinamento dessas correspondências. Para fins de validação, uma ferramenta foi desenvolvida e experimentos foram realizados.
|
Page generated in 0.0812 seconds