• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 68
  • 2
  • Tagged with
  • 70
  • 70
  • 37
  • 28
  • 14
  • 14
  • 11
  • 11
  • 10
  • 10
  • 10
  • 10
  • 9
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Modelagem de dados para planejamento e gestão operacional de transportes. / Data modeling for transportation planning and operations management.

Marcelo Eduardo Giacaglia 03 February 1999 (has links)
A integração das atividades da gestão de sistemas de transportes urbanos, em todos os níveis, é altamente desejável no âmbito de uma entidade. A integração interinstitucional é também importante quando existe sobreposição de planos ou de áreas de atuação, situação típica de grandes aglomerados urbanos. Para que os planos dessas entidades sejam consistentes entre si, há necessidade do uso compartilhado de informações. Esse compartilhamento é melhor obtido pela integração dos respectivos bancos de dados. Tal integração, entretanto, tem sido inviabilizada por fatores de natureza técnica e até política ligadas à necessária autonomia de cada uma. Nesta Tese, após a análise de diversas tentativas de solução para o problema, são identificados os aspectos críticos para a modelagem e a construção de Sistemas de Bancos de Dados, como elementos de suporte à Integração do Planejamento e da Gestão Operacional de Transportes, tanto no âmbito intra-institucional como interinstitucional. Para cada um deles, são indicadas as deficiências de sistemas existentes e propostas soluções ou diretrizes. Os aspectos críticos identificados e tratados são: a capacidade de suporte à integração das diferentes atividades da gestão operacional: planejamento, programação e acompanhamento, em uma mesma entidade; a capacidade de suporte à integração dos diferentes níveis decisórios em uma mesma entidade; o conteúdo, a estrutura e a estabilidade temporal de bancos de dados utilizados em planejamento estratégico e/ou tático, regional e/ou local; a capacidade de prover a comunicação interinstitucional; a estabilidade face a mudanças institucionais. / The integration of urban transportation systems management activities, at all levels, pertaining one entity, is highly desirable. Integration across entities is also important when their plans or transportation systems overlap, as usually happens in urban agglomerations. In order to achieve consistent plans among these entities, information must be shared. This sharing of information is better obtained through the integration of their databases. However, such integration has been unsuccessful because of technical and even political factors related to the necessary autonomy of each one. In this Thesis, after analysing several attempts to solve the problem, critical aspects of modelling and building database systems to support Integrated Transportation Planning and Management, pertaining to one entity and also across multiple entities, are identified. For each one, deficiencies of existing systems are analysed and solutions are proposed or directions to follow are given. The critical aspects identified and dealt with are: the ability to support the integration of the different transportation management activities at the operational level: planning, programming and attendance, pertaining one entity; the ability to support the integration of different decision levels pertaining one entity; the content, structure and the temporal stability of databases used for planning at the strategic and/or tactical and regional and/or local levels; the ability to provide communication among different entities; the stability in the face of institutional changes.
32

Uma abordagem para publicaÃÃo de visÃes RDF de dados relacionais / One approach to publishing RDF views of relational data

Luis Eufrasio Teixeira Neto 21 January 2014 (has links)
nÃo hà / A iniciativa Linked Data trouxe novas oportunidades para a construÃÃo da nova geraÃÃo de aplicaÃÃes Web. Entretanto, a utilizaÃÃo das melhores prÃticas estabelecidas por este padrÃo depende de mecanismos que facilitem a transformaÃÃo dos dados armazenados em bancos relacionais em triplas RDF. Recentemente, o grupo de trabalho W3C RDB2RDF propÃs uma linguagem de mapeamento padrÃo, denominada R2RML, para especificar mapeamentos customizados entre esquemas relacionais e vocabulÃrios RDF. No entanto, a geraÃÃo de mapeamentos R2RML nÃo à uma tarefa fÃcil. à imperativo, entÃo, definir: (a) uma soluÃÃo para mapear os conceitos de um esquema relacional em termos de um esquema RDF; (b) um processo que suporte a publicaÃÃo dos dados relacionais no formato RDF; e (c) uma ferramenta para facilitar a aplicaÃÃo deste processo. Assertivas de correspondÃncia sÃo propostas para formalizar mapeamentos entre esquemas relacionais e esquemas RDF. VisÃes sÃo usadas para publicar dados de uma base de dados em uma nova estrutura ou esquema. A definiÃÃo de visÃes RDF sobre dados relacionais permite que esses dados possam ser disponibilizados em uma estrutura de termos de uma ontologia OWL, sem que seja necessÃrio alterar o esquema da base de dados. Neste trabalho, propomos uma arquitetura em trÃs camadas â de dados, de visÃes SQL e de visÃes RDF â onde a camada de visÃes SQL mapeia os conceitos da camada de dados nos termos da camada de visÃes RDF. A criaÃÃo desta camada intermediÃria de visÃes facilita a geraÃÃo dos mapeamentos R2RML e evita que alteraÃÃes na camada de dados impliquem em alteraÃÃes destes mapeamentos. Adicionalmente, definimos um processo em trÃs etapas para geraÃÃo das visÃes RDF. Na primeira etapa, o usuÃrio define o esquema do banco de dados relacional e a ontologia OWL alvo e cria assertivas de correspondÃncia que mapeiam os conceitos do esquema relacional nos termos da ontologia alvo. A partir destas assertivas, uma ontologia exportada à gerada automaticamente. O segundo passo produz um esquema de visÃes SQL gerado a partir da ontologia exportada e um mapeamento R2RML do esquema de visÃes para a ontologia exportada, de forma automatizada. Por fim, no terceiro passo, as visÃes RDF sÃo publicadas em um SPARQL endpoint. Neste trabalho sÃo detalhados as assertivas de correspondÃncia, a arquitetura, o processo, os algoritmos necessÃrios, uma ferramenta que suporta o processo e um estudo de caso para validaÃÃo dos resultados obtidos. / The Linked Data initiative brought new opportunities for building the next generation of Web applications. However, the full potential of linked data depends on how easy it is to transform data stored in conventional, relational databases into RDF triples. Recently, the W3C RDB2RDF Working Group proposed a standard mapping language, called R2RML, to specify customized mappings between relational schemas and target RDF vocabularies. However, the generation of customized R2RML mappings is not an easy task. Thus, it is mandatory to define: (a) a solution that maps concepts from a relational schema to terms from a RDF schema; (b) a process to support the publication of relational data into RDF, and (c) a tool that implements this process. Correspondence assertions are proposed to formalize the mappings between relational schemas and RDF schemas. Views are created to publish data from a database to a new structure or schema. The definition of RDF views over relational data allows providing this data in terms of an OWL ontology structure without having to change the database schema. In this work, we propose a three-tier architecture â database, SQL views and RDF views â where the SQL views layer maps the database concepts into RDF terms. The creation of this intermediate layer facilitates the generation of R2RML mappings and prevents that changes in the data layer result in changes on R2RML mappings. Additionally, we define a three-step process to generate the RDF views of relational data. First, the user defines the schema of the relational database and the target OWL ontology. Then, he defines correspondence assertions that formally specify the relational database in terms of the target ontology. Using these assertions, an exported ontology is generated automatically. The second step produces the SQL views that perform the mapping defined by the assertions and a R2RML mapping between these views and the exported ontology. This dissertation describes a formalization of the correspondence assertions, the three-tier architecture, the publishing process steps, the algorithms needed, a tool that supports the entire process and a case study to validate the results obtained.
33

Proposta de Esquema Dimensional Hierárquico Genérico para implementação em SGBD relacional

Paranaguá de Carvalho, Ney January 2003 (has links)
Made available in DSpace on 2014-06-12T15:58:51Z (GMT). No. of bitstreams: 2 arquivo4735_1.pdf: 1533660 bytes, checksum: aa67a9072a7931fd4026194587808e0f (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2003 / Os Sistemas de Informação têm evoluído naturalmente, impulsionados pelo aumento do volume de dados tratado e armazenado, pela disponibilidade de novas e mais baratas tecnologias para manipulação dos dados e por demandas mais complexas por informação e conhecimento, originadas do usuário. Este, por sua vez, teve o seu perfil expandido: se antes era preponderantemente de nível operacional, hoje apresenta com maior freqüência o nível de gerência e executivo, o que exige uma visão progressivamente mais ampla e corporativa do negócio. Diante deste cenário, tecnologias para o tratamento da informação foram desenvolvidas para o atendimento às novas demandas, especialmente voltadas para a modelagem do negócio sob uma nova ótica a dimensional e a recuperação de informações e conhecimento diretamente pelo usuário final. No centro das novas tecnologias está o Data Warehouse, grande repositório integrador dos dados corporativos do negócio. Os esquemas atualmente existentes para a modelagem dimensional de Data Warehouse em SGBDs relacionais estrela e, sua derivação, flocos de neve são simples o suficiente para proporcionar a compreensão do modelo pelo usuário final e para possibilitar um excelente desempenho no processamento de consultas. No entanto, não atacam diretamente questões que consideramos importantes: a) permitir que o usuário final realize, sem a intervenção do projetista de banco de dados, a concepção da modelagem de seu negócio; b) permitir que o usuário final diretamente implemente as modificações requeridas na modelagem dimensional decorrentes da alteração do negócio ou das alterações de sua visão do negócio e; c) poder ser genérico a fim de permitir que qualquer modelagem dimensional realizada possa ser implementada sobre os mesmos projetos lógico e físico de bancos de dados relacionais. Para atender a estas questões propusemos neste trabalho um esquema para modelagem dimensional implementada em SGBD relacional genérico que
34

Uma metodologia para suporte ao processo de gerenciamento de problemas em empresas de grande porte prestadoras de serviços de TIC

Nascimento de Carvalho, Fabiano 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T16:00:38Z (GMT). No. of bitstreams: 2 arquivo6832_1.pdf: 3440193 bytes, checksum: 4aa3694aae58b9a326bebb39ef410111 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / Atualmente, empresas que prestam serviços de TI (Tecnologia da Informação) enfrentam desafios na entrega e no suporte de serviços para atender aos níveis contratados, garantindo a efetividade dos seus serviços e assim, atingir as expectativas dos seus clientes. Neste contexto, o Gerenciamento de Serviços de TI é uma abordagem de grande relevância, com foco na entrega e no suporte de serviços. Para dar suporte ao Gerenciamento de Serviços de TI, a biblioteca ITIL (Information Technology Infrastructure Library) propõe um conjunto consistente e coerente de melhores práticas, associadas a cada um dos processos de Gerenciamento de Serviços de TI. Entre estes processos, destaca-se o Gerenciamento de Problemas. Tal processo possui grande importância para a efetividade dos serviços, uma vez que objetiva prevenir problemas, erradicar a recorrência de incidentes e minimizar o impacto dos incidentes que não podem ser evitados. Incidente é qualquer evento não planejado que cause a interrupção ou redução do nível de serviço contratado por um cliente. Problema é a causa desconhecida de um ou mais incidentes. Cada incidente ocorrido motiva a abertura de um registro de incidente, onde o próprio usuário ou o atendente da Central de Serviços (Service Desk) fornecerá informações para o tratamento do incidente pelas equipes responsáveis. Tal procedimento está eventualmente sujeito a desvios na sua correta identificação, podendo produzir informações imprecisas ou inadequadas. Isto pode comprometer a qualidade dos dados disponibilizados para o processo de Gerenciamento de Problemas, prejudicando o tempo de investigação e a prevenção de novos incidentes. Assim o objetivo deste trabalho é propor uma metodologia que ofereça suporte ao processo de Gerenciamento de Problemas em empresas que prestam serviços de TI, visando minimizar os efeitos de eventuais incorreções na categorização de incidentes, e assim contribuir para a redução no tempo de investigação e a diminuição do impacto de problemas recorrentes no negócio. Para aplicar a metodologia proposta, é especificada a Ferramenta de Análise de Problemas e Incidentes FAPI. Esta ferramenta permite analisar problemas e incidentes e gerar um arquivo que, por meio de análises estatísticas, permita investigar possíveis desvios na categorização destes incidentes
35

Bancos de dados geográficos: uma análise das arquiteturas dual (Spring) e integrada (Oracle Spatial). / Spatial databases: an analyse of the architectures dual (Spring) e integrated (Oracle Spatial).

Rosângela Silva 29 August 2002 (has links)
As características particulares dos dados geográficos constituem a razão pela qual se faz necessário estruturar novos tipos de dados e arquitetar novas formas de armazenamento e acesso aos dados. Este trabalho apresenta uma análise considerando as Arquiteturas Dual e Integrada em relação à forma de gerenciamento e recuperação da informação espacial, em conjunto com as informações não espaciais. Este trabalho aborda os conceitos fundamentais acerca dos Sistemas Gerenciadores de Banco de Dados Geográficos. Para demonstrar como estes conceitos são importantes e influenciam diretamente na eficiência dos mesmos, conclui-se o trabalho com o desenvolvimento de alguns testes de funcionalidade sob duas ferramentas com arquiteturas distintas, são elas: o SPRING, de Arquitetura Dual, e o ORACLE SPATIAL, de Arquitetura Integrada. Os testes de funcionalidade objetivaram verificar se e como as ferramentas em estudo, suportam determinados tipos de consultas espaciais. Para tanto foi escolhido o cenário de Planejamento Urbano e selecionados alguns tipos de consultas envolvendo componentes espaciais, que normalmente são implementadas neste tipo de aplicação. Os resultados obtidos permitem concluir, principalmente, que as ferramentas analisadas suportaram as consultas espaciais utilizadas nos testes - algumas envolvendo o objeto espacial e o atributo ao mesmo tempo - porém, com algumas restrições. Além disso, foi possível fazer algumas considerações em relação à utilização ou não de índices espaciais para otimização das consultas e algumas constatações sobre as arquiteturas de banco de dados geográficos analisadas, em relação à integração dos dados espaciais com os dados não espaciais. / The spatial data complexity justifies the need to develop new spatial data types and to design new structures to store, to query and to handle spatially referenced data inside a database management system (DBMS). This work presents an analysis of these issues considering the different architectures of geographic databases. The Dual and Integrated arquitectures are considered in relation to spatial data and attribute handling. The principal concepts concerning the spatial DBMS are presented. To demonstrate how these concepts are important and influence directly in the efficiency of Geographic Information Systems (GIS) tools, these work concludes with the development of some tests of functionality. Two GIS programs with distinct architectures were tested, and they are: the SPRING, of Dual Architecture, and ORACLE SPATIAL, of Integrated Architecture. The functionality tests aimed to verify if the tools in study support some kind of spatial queries, describing the necessary steps to perform these queries. In order to perform the tests, an Urban Planning application was chosen and some spatial queries were defined and executed.
36

Genômica translacional: integrando dados clínicos e biomoleculares / Translational genomics: integrating clinical and biomolecular data

Newton Shydeo Brandão Miyoshi 06 February 2013 (has links)
A utilização do conhecimento científico para promoção da saúde humana é o principal objetivo da ciência translacional. Para que isto seja possível, faz-se necessário o desenvolvimento de métodos computacionais capazes de lidar com o grande volume e com a heterogeneidade da informação gerada no caminho entre a bancada e a prática clínica. Uma barreira computacional a ser vencida é o gerenciamento e a integração dos dados clínicos, sócio-demográficos e biológicos. Neste esforço, as ontologias desempenham um papel essencial, por serem um poderoso artefato para representação do conhecimento. Ferramentas para gerenciamento e armazenamento de dados clínicos na área da ciência translacional que têm sido desenvolvidas, via de regra falham por não permitir a representação de dados biológicos ou por não oferecer uma integração com as ferramentas de bioinformática. Na área da genômica existem diversos modelos de bancos de dados biológicos (tais como AceDB e Ensembl), os quais servem de base para a construção de ferramentas computacionais para análise genômica de uma forma independente do organismo de estudo. Chado é um modelo de banco de dados biológicos orientado a ontologias, que tem ganhado popularidade devido a sua robustez e flexibilidade, enquanto plataforma genérica para dados biomoleculares. Porém, tanto Chado quanto os outros modelos de banco de dados biológicos não estão preparados para representar a informação clínica de pacientes. Este projeto de mestrado propõe a implementação e validação prática de um framework para integração de dados, com o objetivo de auxiliar a pesquisa translacional integrando dados biomoleculares provenientes das diferentes tecnologias omics com dados clínicos e sócio-demográficos de pacientes. A instanciação deste framework resultou em uma ferramenta denominada IPTrans (Integrative Platform for Translational Research), que tem o Chado como modelo de dados genômicos e uma ontologia como referência. Chado foi estendido para permitir a representação da informação clínica por meio de um novo Módulo Clínico, que utiliza a estrutura de dados entidade-atributo-valor. Foi desenvolvido um pipeline para migração de dados de fontes heterogêneas de informação para o banco de dados integrado. O framework foi validado com dados clínicos provenientes de um Hospital Escola e de um banco de dados biomoleculares para pesquisa de pacientes com câncer de cabeça e pescoço, assim como informações de experimentos de microarray realizados para estes pacientes. Os principais requisitos almejados para o framework foram flexibilidade, robustez e generalidade. A validação realizada mostrou que o sistema proposto satisfaz as premissas, levando à integração necessária para a realização de análises e comparações dos dados. / The use of scientific knowledge to promote human health is the main goal of translational science. To make this possible, it is necessary to develop computational methods capable of dealing with the large volume and heterogeneity of information generated on the road between bench and clinical practice. A computational barrier to be overcome is the management and integration of clinical, biological and socio-demographics data. In this effort, ontologies play a crucial role, being a powerful artifact for knowledge representation. Tools for managing and storing clinical data in the area of translational science that have been developed, usually fail due to the lack on representing biological data or not offering integration with bioinformatics tools. In the field of genomics there are many different biological databases (such as AceDB and Ensembl), which are the basis for the construction of computational tools for genomic analysis in an organism independent way. Chado is a ontology-oriented biological database model which has gained popularity due to its robustness and flexibility, as a generic platform for biomolecular data. However, both Chado as other models of biological databases are not prepared to represent the clinical information of patients. This project consists in the proposal, implementation and validation of a practical framework for data integration, aiming to help translational research integrating data coming from different omics technologies with clinical and socio-demographic characteristics of patients. The instantiation of the designed framework resulted in a computational tool called IPTrans (Integrative Platform for Translational Research), which has Chado as template for genomic data and uses an ontology reference. Chado was extended to allow the representation of clinical information through a new Clinical Module, which uses the data structure entity-attribute-value. We developed a pipeline for migrating data from heterogeneous sources of information for the integrated database. The framework was validated with clinical data from a School Hospital and a database for biomolecular research of patients with head and neck cancer. The main requirements were targeted for the framework flexibility, robustness and generality. The validation showed that the proposed system satisfies the assumptions leading to integration required for the analysis and comparisons of data.
37

Ontologias de domínio na interpretação de consultas a bancos de dados relacionais / Domain ontologies in query interpretation to relational databases

Marins, Walquíria Fernandes 08 October 2015 (has links)
Submitted by Luciana Ferreira (lucgeral@gmail.com) on 2016-02-29T10:48:44Z No. of bitstreams: 2 Dissertação - Walquiria Fernandes Marins - 2015.pdf: 2611919 bytes, checksum: 3d20806ae28d0e0e4c891d8dd65cbd88 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2016-02-29T10:54:01Z (GMT) No. of bitstreams: 2 Dissertação - Walquiria Fernandes Marins - 2015.pdf: 2611919 bytes, checksum: 3d20806ae28d0e0e4c891d8dd65cbd88 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Made available in DSpace on 2016-02-29T10:54:01Z (GMT). No. of bitstreams: 2 Dissertação - Walquiria Fernandes Marins - 2015.pdf: 2611919 bytes, checksum: 3d20806ae28d0e0e4c891d8dd65cbd88 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Previous issue date: 2015-10-08 / There is an huge amount of data and information stored digitally. Part of this amount of data is available for consultation by Web, however, a significant portion is hidden, due to its storage form, and can’t be recovered by traditional search engines. This makes users face a common and growing challenge to search and find specific information. This challenge is enhanced by the unpreparedness of users to formulate searches and the limitations inherent in research technologies, that because of syntactic differences, can’t find probably relevant data. Aiming to expand the possibilities of semantic interpretation of a query, this work proposes an approach to interpretation of queries in natural language to relational databases through the use of domain ontologies as a tool for their interpretation and semantic enrichment. With the implementation of the approach and its appreciation against a backdrop of queries without the semantic enrichment it is observed that the approach contributes satisfactorily to identify the user’s intention. / Há uma quantidade enorme de dados e informações armazenadas digitalmente. Uma parte desse volume de dados está disponível para consultas através da Web, entretanto, uma parcela significativa está oculta, devido à sua forma de armazenamento, e não pode ser recuperada pelos mecanismos tradicionais de busca. Isso faz com que os usuários enfrentem um desafio comum e crescente para buscar e encontrar informações específicas. Este desafio é potencializado pelo despreparo dos usuários em formular buscas e pelas limitações inerentes às tecnologias de pesquisa que, em virtude de diferenças sintáticas, não conseguem encontrar dados provavelmente relevantes. Visando ampliar as possibilidades de interpretação semântica de uma consulta, este trabalho propõe uma abordagem de interpretação de consultas em linguagem natural a bancos de dados relacionais através do uso de ontologias de domínio como instrumento para sua interpretação e enriquecimento semântico. Com a implementação da abordagem e sua apreciação em relação a um cená- rio de consultas sem o enriquecimento semântico observa-se que a abordagem contribui satisfatoriamente para identificar a intenção do usuário.
38

[en] WORKLOAD BALANCING STRATEGIES FOR PARALLEL BLAST EVALUATION ON REPLICATED DATABASES AND PRIMARY FRAGMENTS / [pt] ESTRATÉGIAS DE BALANCEAMENTO DE CARGA PARA AVALIAÇÃO PARALELA DO BLAST COM BASES DE DADOS REPLICADAS E FRAGMENTOS PRIMÁRIOS

DANIEL XAVIER DE SOUSA 07 April 2008 (has links)
[pt] Na área de biologia computacional a busca por informações relevantes em meio a volumes de dados cada vez maiores é uma atividade fundamental. Dentre outras, uma tarefa importante é a execução da ferramenta BLAST (Basic Local Alignment Search Tool), que possibilita comparar biosseqüências a fim de se descobrir homologias entre elas e inferir as demais informações pertinentes. Um dos problemas a serem resolvidos no que diz respeito ao custo de execução do BLAST se refere ao tamanho da base de dados, que vem aumentando consideravelmente nos últimos anos. Avaliar o BLAST com estrat´egias paralelas e distribuídas com apoio de agrupamento de computadores tem sido uma das estratégias mais utilizadas para obter ganhos de desempenho. Nesta dissertação, é realizada uma alocação física replicada da base de dados (de seqüências), onde cada réplica é fragmentada em partes distintas, algumas delas escolhidas como primárias. Dessa forma, é possível mostrar que se aproveitam as principais vantagens das estratégias de execução sobre bases replicadas e fragmentadas convencionais, unindo flexibilidade e paralelismo de E/S. Associada a essa alocação particular da base, são sugeridas duas formas de balanceamento dinâmico da carga de trabalho. As abordagens propostas são realizadas de maneira não intrusiva no código BLAST. São efetuados testes de desempenho variados que demonstram não somente a eficácia no equilíbrio de carga como também eficiência no processamento como um todo. / [en] A fundamental task in the area of computational biology is the search for relevant information within the large amount of available data. Among others, it is important to run tools such as BLAST - Basic Local Alignment Search Tool - effciently, which enables the comparison of biological sequences and discovery of homologies and other related information. However, the execution cost of BLAST is highly dependent on the database size, which has considerably increased. The evaluation of BLAST in distributed and parallel environments like PC clusters has been largely investigated in order to obtain better performances. This work reports a replicated allocation of the (sequences) database where each copy is also physically fragmented, with some fragments assigned as primary. This way we show that it is possible to execute BLAST with some nice characteristics of both replicated and fragmented conventional strategies, like flexibility and I/O parallelism. We propose two dynamic workload balancing strategies associated with this data allocation. We have adopted a non- intrusive approach, i.e., the BLAST code remains unchanged. These methods are implemented and practical results show that we achieve not only a balanced workload but also very good performances.
39

Subsídios para a implantação de um sistema de vigilância de causas externas no município de Cuiabá/MT / Support for implementing an external causes surveillance system in the municipality of Cuiabá, Mato Grosso

Oliveira, Ligia Regina de 06 February 2007 (has links)
Introdução. A violência é um dos problemas mais sérios de Saúde Pública. Para conhecê-lo, usam-se, principalmente, dados de mortalidade, reconhecendo-se, no entanto, como relevante, o uso de outros dados para o monitoramento desses eventos. Objetivo. Fornecer subsídios para a implantação de um Sistema de Vigilância de Causas Externas (CE), por meio da análise de dados oriundos de diferentes fontes de informação e subseqüente relacionamento entre os bancos de dados produzidos por essas fontes. Metodologia. Para análise da mortalidade utilizou-se o Sistema de Informações sobre Mortalidade (SIM/MS); para os de morbidade hospitalar, o Sistema de Informações Hospitalares (SIH/SUS); para a morbidade não hospitalar criou-se um sistema de informações para as unidades de urgência e emergência. Esses bancos foram relacionados entre si e com o da Secretaria de Justiça e Segurança Pública (Sistema de Registro de Ocorrências Policiais), por meio do aplicativo RecLinkII. Resultados. Dados de 1980 a 2002 mostram que os coeficientes de mortalidade são sempre mais elevados em Cuiabá que no Brasil e Mato Grosso; o homicídio é a principal causa de morte, com tendência de crescimento. As internações por CE também apresentam índices superiores aos do Brasil e do Estado, assim como as taxas relativas ao tempo médio de permanência, gasto médio e mortalidade hospitalar; o traumatismo é a principal lesão e, diferente da mortalidade, os acidentes, exceto os de transporte, são as principais causas de internação. Quanto às unidades de urgência e emergência, verificou-se que é viável e necessária a implantação da ficha de notificação; a qualidade do preenchimento foi boa nos itens identificação e tipo de CE, possibilitando o uso dessas informações; a análise epidemiológica mostrou que os acidentes são mais freqüentes e que 97% dos pacientes, atendidos nessas unidades, receberam alta na própria unidade. Um dos usos do processo de relacionamento é o aprimoramento da qualidade da informação gerada por esses bancos e o monitoramento dos eventos; o relacionamento entre os bancos é possível, mas é recomendável que se inicie com o SIM e SIH/SUS. Conclusões: O perfil de morbimortalidade apresentado para os diferentes sistemas é muito distinto, o que aponta para a necessidade de integração desses bancos de dados para ampliar o conhecimento sobre os acidentes e violências. No entanto, é necessário estabelecer metas a curto, médio e longo prazo, que contemplem, no mínimo, a melhoria da qualidade da informação, a criação de uma equipe de vigilância de causas externas e a implantação de um sistema de informação para unidades de urgência e emergência. / Introduction. Violence is one of the most serious public health problems. It is studied mainly by means of mortality data, although the use of other data for monitoring such events is also recognized to be important. Objective. To furnish support for implementing an External Causes Surveillance System, by means of analyzing data from different information sources and subsequently correlating between the databases produced from these sources. Methodology. To analyze the mortality data, the Ministry of Health Mortality Information System (SIM/MS) was utilized. For the morbidity data, the National Health System Hospitalization Information System (SIH/SUS) was utilized. For non-hospitalized morbidity, an information system for urgency and emergency units was created. These databases were correlated with each other and with those of the Justice and Public Security Department (Police Occurrences Registration System), by means of the RecLinkII software. Results. Data from 1980 to 2002 showed that the mortality coefficients were always higher in Cuiabá than in the State of Mato Grosso or Brazil. Homicide was the principal cause of death, with a rising trend. Hospitalization due to external causes also presented higher rates in Cuiabá than in the whole state or the country, as did the rates for the mean length of stay, mean expenditure and mortality in hospital. Trauma was the principal injury and, differing from mortality, accidents other than traffic accidents were the main causes of hospitalization. With regard to the urgency and emergency units, it was seen that it was possible and necessary to implement a notification card system. The quality of filling in the information was good for the items of identification and external cause type, thus making it possible to use this information. Epidemiological analysis showed that accidents were most frequent and that 97% of the patients attended in these units were discharged from these same units. One of the uses of the correlation process is to improve the quality of the information generated by these databases and to monitor events. Correlations between the databases are possible, but it is recommendable to start with SIM and SIH/SUS. Conclusions. The morbidity-mortality profiles presented by the different systems are very distinct from each other, and this indicates the need to integrate these databases in order to expand the knowledge about accidents and violence. However, short, medium and long-term targets need to be established, at least with regard to improving the quality of the information, creating an external causes surveillance team and implementing an information system for the urgency and emergency units.
40

Integração de bancos de dados heterogêneos utilizando grades computacionais. / Heterogeneous databases integration using grid computing.

Kakugawa, Fernando Ryoji 18 November 2010 (has links)
Bancos de dados normalmente são projetados para atender a um domínio específico de uma aplicação, tornando o acesso aos dados limitado e uma tarefa árdua em relação à integração de bancos e compartilhamento de dados. Existem várias pesquisas no intuito de integrar dados, como a criação de softwares específicos para uma determinada aplicação e até soluções mais radicais como refazer todos os bancos de dados envolvidos, demonstrando que ainda existem questões em aberto e que a área está longe de atingir soluções definitivas. Este trabalho apresenta conceitos e estratégias para a integração de bancos de dados heterogêneos e a implementa na forma do DIGE, uma ferramenta para desenvolver sistemas de banco de dados integrando diferentes bancos de dados relacionais heterogêneos utilizando grades computacionais. O sistema criado permite o compartilhamento de acesso deixando os dados armazenados em seu local de origem, desta forma, usuários do sistema acessam os dados em outras instituições com a impressão de que os dados estão armazenados localmente. O programador da aplicação final pode acessar e manipular os dados de forma convencional utilizando a linguagem SQL sem se preocupar com a localização e o esquema de cada banco e o administrador do sistema pode adicionar ou remover bancos de forma facilitada sem a necessidade de solicitar alterações na aplicação final. / Databases are usually designed to support a specific application domain, thus making data-access and data-sharing a hard and arduous task when database integration is required. Therefore, research projects have been developed in order to integrate several and heterogeneous databases systems, such as specific-domain application tools or even more extreme solutions, as a complete database redefinition and redesign. Considering these open questions and with no definite answers, this work presents some concepts, strategies and an implementation for heterogeneous databases integration. In this implementation, the DIGE tool was developed to provide access to heterogeneous and geographically distributed databases, using Grid computing, which store locally its data, appearing to the user application, the data are stored locally. By this way, programmers can manipulate data using conventional SQL language with no concern about database location or its schema. Systems Administrators may also add or remove databases on the whole system without need to change the final user application.

Page generated in 0.4576 seconds