Spelling suggestions: "subject:"banco dde dados"" "subject:"banco dee dados""
81 |
Desenvolvimento de um filtro de descritores moleculares geométricos para gerar um ranqueamento em banco de dados de ligantesQuevedo, Christian Vahl January 2011 (has links)
Made available in DSpace on 2013-08-07T18:43:27Z (GMT). No. of bitstreams: 1
000435073-Texto+Completo-0.pdf: 3764608 bytes, checksum: 23d34083821e24bc00c6f737db4be5b8 (MD5)
Previous issue date: 2011 / Public databases provide currently over 20 million ligands to users. In contrast, testing in silico with such a high volume of data is computationally very expensive, which demands the development of new solutions for reducing the number of ligands to be tested on their target receptors. However, there is no method to effectively reduce that high number in a manageable amount, thus becoming, as a major challenge of rational drug design. This work aims to develop a heuristic function to perform a virtual screening with available ligands, whose intention is to select the most promising candidates. The function is developed based on the geometry of the substrate of the receiver, filtering only the binder compatible with the cavity, derived from a fully flexible model of the receiver. To test the effectiveness of the proposed function a case study with the enzyme of Mycobacterium tuberculosis, InhA, is evaluated. The results of this filter improved the virtual screening using molecular docking, avoiding the testing of ligands that do not fit the substrate of the receptor binding pocket. / Bancos de dados de ligantes de acesso público oferecem atualmente mais de 20 milhões ligantes para os usuários. Em contrapartida, a realização de testes in silico com esse elevado volume de dados é computacionalmente muito custoso, que vem demandar o desenvolvimento de novas soluções para a redução do número de ligantes a ser testado em seus receptores alvo. No entanto, ainda não há método para efetivamente reduzir esse número elevado em um valor gerenciável, constituindo-se assim, um grande desafio do Planejamento Racional de Fármacos. Este trabalho tem o objetivo de desenvolver uma função heurística para realizar uma triagem virtual com ligantes disponíveis, cuja intenção é selecionar os candidatos mais promissores. A função desenvolvida é baseada na geometria da cavidade do substrato do receptor, filtrando apenas os ligantes compatíveis com esta cavidade considerando as variações 3D do modelo totalmente flexível do receptor. Para testar a eficácia da função proposta foram feitas duas avaliações utilizando como estudo de caso a enzima do Mycobacterium tuberculosis, a InhA. Os resultados obtidos deste filtro melhoraram o processo de triagem virtual, descartando a realização dos testes de docagem molecular dos ligantes que não se encaixam na cavidade do substrato do receptor.
|
82 |
Apresentação de documentos XML através de exemplosBorges, Raquel Trindade January 2002 (has links)
A linguagem XSLT transforma documentos XML não apenas em novos documentos XML, mas também em documentos HTML, PDF e outros formatos, tornando-se bastante útil. Entretanto, como um ambiente de programação, XSLT apresenta algumas deficiências. Não apresenta um ambiente gráfico de programação e exige conhecimento prévio sobre manipulação de estrutura de dados em árvores, o que compromete a produtividade do programador e limita o uso da linguagem a especialistas. Assim, várias propostas têm sido apresentadas na tentativa de suprir estas deficiências, utilizando recursos variados como geração automática de script XSLT e reuso de transformações. Este trabalho apresenta a ferramenta X2H que visa auxiliar a apresentação de documentos XML em HTML, aumentando a produtividade de programadores que utilizam a linguagem XSLT. Para facilitar a sua utilização, a X2H possui uma interface gráfica com abordagem baseada em exemplos, na qual o usuário compõe um documento exemplo HTML a partir de um documento fonte XML. Estes documentos são visualizados como árvores hierárquicas, nas quais é vinculado um conjunto de operações dependente do contexto, que permitem a composição do documento exemplo. Este documento serve de entrada para um gerador de regras, que gera um script na linguagem XSLT que, se executado, apresenta o documento HTML resultado desejado.
|
83 |
Um algoritmo de alocação para bancos de dados biológicos distribuídosTonini, Gustavo Alexssandro January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2014 / Made available in DSpace on 2015-02-05T20:28:22Z (GMT). No. of bitstreams: 1
331443.pdf: 1788516 bytes, checksum: f0f3608dbed78c3559ca285e874e1844 (MD5)
Previous issue date: 2014 / O presente trabalho propõe um algoritmo de alocação de dados distribuídos baseado na anidade de dados e perfis de uso com foco em bancos de dados (BD) relacionais biológicos. A proposta visa instruir os administradores de banco de dados (DBAs) sobre como alocar os dados nos nós de um cluster visando obter o melhor desempenho possível nas consultas e demais requisições dos usuários. O esquema e verificado através de testes em laboratório. Os experimentos são realizados sobre o sistema data warehouse (DW) Intermine (SMITH et al., 2012) utilizando o pgGrid, que adiciona funções de reaplicação e fragmentação no PostgreSQL e o HadoopDB (implementação do modelo Map-Reduce para bancos de dados relacionais). O algoritmo e comparado com outras propostas de alocação geradas por algoritmos desenvolvidos em pesquisas recentes.<br> / Abstract: This work proposes a data allocation algorithm based on distributed data affinity and query profile with focus on biological relational databases.The proposal aims to help database administrators (DBAs) about how to allocate the data across nodes in a cluster in order to obtain the maximum performance improvements on query time and executing other user requests. The allocation schema is verified in laboratory tests. The Intermine datawarehouse (DW) system (SMITH et al., 2012) was chosen as subject of this evaluation. The experiments were executed on distributed database platforms such as pgGrid, which adds replication and fragmentation functions to PostgreSQL and HadoopDB(implementation of Map-Reduce model for relational databases). Finally, the algorithm is compared with other allocation methods developed in recent researches.
|
84 |
Considerações sobre a estrutura de dados espaciais de rodovias no BrasilLopes, Caroline Helena Rosa January 2017 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia de Transportes e Gestão Territorial, Florianópolis, 2017. / Made available in DSpace on 2017-10-31T03:17:01Z (GMT). No. of bitstreams: 1
348705.pdf: 3263031 bytes, checksum: 987a5e642777c945cf9d201f43206143 (MD5)
Previous issue date: 2017 / Os dados geográficos configuram-se como importante recurso para instituições dos mais variados segmentos. Entretanto a falta de padronização na estrutura do "dado", bem como a falta de metadados e de um sistema geodésico de referência adequado podem inviabilizar a sua utilização futura. Com o objetivo de promover o adequado ordenamento na geração, no armazenamento, no acesso, no compartilhamento, na disseminação e no uso dos dados geoespaciais, a partir dos anos 90 diversos países passaram a estruturar suas Infraestruturas de Dados Espaciais (IDE), sendo que, no Brasil, o Governo Federal instituiu, em 2008, a Infraestrutura Nacional de Dados Espaciais notadamente conhecida como INDE. Hodiernamente, porém, ainda existem instituições produtoras de dados espaciais que não se adaptaram aos padrões estabelecidos pela INDE, como é o caso do Departamento Nacional de Infraestrutura de Transportes (DNIT), órgão responsável por elaborar, estruturar e manter atualizada a base de dados geográfica das rodovias federais. Neste contexto, a pesquisa teve como objetivo analisar a atual estrutura dos dados espaciais presentes no subsistema Rodoviário da INDE; e propor um modelo estrutural de base de dados de rodovias, utilizando como estudo de caso a base de dados do DNIT. A proposição foi fundamentada com base na estrutura proposta apresentada pela INDE e ainda por uma referência internacional, já consolidada nos países da Comunidade Europeia, denominada Infrastructure for Spatial Information in European (INSPIRE). O resultado obtido na pesquisa configura-se na proposição de uma tabela contendo os atributos para uma nova estrutura de base de dados geográficos de rodovias, elaborada e adaptada a partir de: análises realizadas nas IDEs de referência; atributos oriundos da base de dados do DNIT; e, por fim, atributos propostos pela autora. / Abstract : Geographic data is an important resource for institutions of the most varied segments. However, the lack of standardization in the structure of the "data", as well as the lack of metadata and an adequate geodetic reference system can make future use infeasible. In order to promote adequate planning in the generation, storage, access, sharing, dissemination and use of geospatial data, from the 1990s, several countries started to structure their Spatial Data Infrastructures (SDI). In Brazil, the Federal Government instituted in 2008, the National Spatial Data Infrastructure (INDE). However, there are still institutions that produce spatial data that have not adapted to the standards established by INDE, such as the National Department of Transport Infrastructure (DNIT), which is responsible for developing, structuring and updating the geographic database of Federal highways. In this context, the objective of the research was to analyze the current spatial data structure in the INDE Road Subsystem and to propose a structural model of road database, using as a case study the DNIT database. The proposal was based on the proposed structure presented by INDE and also on an international reference, already consolidated in the countries of the European Community, called INSPIRE. The result obtained in the research is configured in the proposition of a table containing the attributes for a new geographic database structure of highways, elaborated and adapted from: the analyzes performed in the reference IDEs; attributes from the DNIT database; and finally, of the attributes proposed by the author.
|
85 |
Restrições de integridade e regras ativas em bancos de dados distribuídosCamargo, Luiz Carlos January 2001 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Computação. / Made available in DSpace on 2012-10-18T09:27:36Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-25T22:17:25Z : No. of bitstreams: 1
182871.pdf: 4499809 bytes, checksum: c972fab00475ae6a2bde1236f5602a11 (MD5) / Esta dissertação ressalta e analisa uma das possibilidades de aplicação da tecnologia de banco de dados (que é o ambiente distribuído), onde várias instâncias de bancos de dados são interligadas por redes de computadores independentes da localização geográfica, constituindo uma integração transparente e autônoma. Porém, esse ambiente apresenta vários problemas, dentre eles destacamos as restrições de integridade distribuídas, sob os aspectos de definição e de cumprimento das restrições de integridade. Para tanto, admitimos os principais sistemas gerenciadores de banco de dados disponíveis no mercado atualmente (Ingres II, Oracle8i, DB2 v7 e SQL 2000), nos quais analisamos as formas que os mesmos suportam a replicação e distribuição de dados. Ciente das propriedades de replicação e distribuição de dados de cada SGBD, verificamos a maneira pela qual as regras de integridade são concebidas e mantidas por eles. Neste sentido, avaliamos cada SGBD (considerando o domínio de aplicação) em conformidade às respectivas características. Outro modelo investigado neste trabalho, que pode ser adotado como um forte aliado ao cumprimento das restrições de integridade distribuídas, é o paradigma de regras ativas (ECA-Rule).
|
86 |
Apresentação de documentos XML através de exemplosBorges, Raquel Trindade January 2002 (has links)
A linguagem XSLT transforma documentos XML não apenas em novos documentos XML, mas também em documentos HTML, PDF e outros formatos, tornando-se bastante útil. Entretanto, como um ambiente de programação, XSLT apresenta algumas deficiências. Não apresenta um ambiente gráfico de programação e exige conhecimento prévio sobre manipulação de estrutura de dados em árvores, o que compromete a produtividade do programador e limita o uso da linguagem a especialistas. Assim, várias propostas têm sido apresentadas na tentativa de suprir estas deficiências, utilizando recursos variados como geração automática de script XSLT e reuso de transformações. Este trabalho apresenta a ferramenta X2H que visa auxiliar a apresentação de documentos XML em HTML, aumentando a produtividade de programadores que utilizam a linguagem XSLT. Para facilitar a sua utilização, a X2H possui uma interface gráfica com abordagem baseada em exemplos, na qual o usuário compõe um documento exemplo HTML a partir de um documento fonte XML. Estes documentos são visualizados como árvores hierárquicas, nas quais é vinculado um conjunto de operações dependente do contexto, que permitem a composição do documento exemplo. Este documento serve de entrada para um gerador de regras, que gera um script na linguagem XSLT que, se executado, apresenta o documento HTML resultado desejado.
|
87 |
Replicação de dados em workflows de bioinformática usando os bancos de dados NoSQLLima, Iasmini Virgínia Oliveira 02 December 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2016. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2017-02-14T20:06:16Z
No. of bitstreams: 1
2016_IasminiVirgíniaOliveiraLima.pdf: 9288284 bytes, checksum: 60f129cce5f057223b8532bc67380557 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2017-03-13T18:57:10Z (GMT) No. of bitstreams: 1
2016_IasminiVirgíniaOliveiraLima.pdf: 9288284 bytes, checksum: 60f129cce5f057223b8532bc67380557 (MD5) / Made available in DSpace on 2017-03-13T18:57:10Z (GMT). No. of bitstreams: 1
2016_IasminiVirgíniaOliveiraLima.pdf: 9288284 bytes, checksum: 60f129cce5f057223b8532bc67380557 (MD5) / Projetos em Bioinformática são geralmente executados como workflows científicos. Os biólogos frequentemente podem executar o mesmo workflow diversas vezes com diferentes parâmetros. Estas execuções podem gerar um grande volume de arquivos com diferentes formatos, que precisam ser armazenados para futuras execuções. Dentre diversos sistemas de armazenamento de dados apresentados na literatura, novos modelos de bancos de dados têm sido definidos para armazenar grandes volumes de dados, os bancos de dados NoSQL (Not Only SQL), que surgiram da necessidade de uma alta escalabilidade e de um desempenho superior quando o volume de dados é muito grande. Nesse contexto, é proposta a análise do impacto da replicação de dados quando se utiliza bancos de dados NoSQL para o armazenamento dos diferentes formatos de arquivos resultantes da execução de workflows de Bioinformática. Foram executados três workflows de Bioinformática envolvendo diferentes formatos de dados, os quais foram utilizados para os testes nos bancos de dados NoSQL Cassandra e MongoDB, e em seguida é apresentada uma análise dessas execuções e testes. Os resultados obtidos mostraram que os tempos de inserção e extração dos dados são mínimos comparados aos tempos de execução dos workflows e portanto, os bancos de dados NoSQL mostraram ser uma boa opção para armazenamento e gerenciamento de dados biológicos. / Projects in bioinformatics are generally executed as scientific workflows. The biologists often perform the same workflow several times with different parameters. These executions can generate a large volume of files with different formats, which need to be stored for future executions. Among several data storage systems presented in the literature, new database models have been defined to store large volumes of data, the NoSQL databases (Not Only SQL), which arose from the need for high scalability and superior performance when the data volume is too large. In this context, it is proposed to analyze the impact of data replication when using NoSQL databases for the storage of the different file formats resulting from the execution of bioinformatics workflows. Three bioinformatics workflows involving different data formats were executed, which were used for testing the NoSQL Cassandra and MongoDB databases, and then an analysis of those executions and tests is presented. The results show that the data insertion and extraction times are minimal compared to the execution times of the workflows, and therefore, the NoSQL databases have proved to be a good option for the storage and management of biological data.
|
88 |
Levantamento de dados jurídicos para a formação de uma base de dados informatizada dirigida aos gestores educacionaisLofrano, Rute Corrêa [UNESP] 25 August 2008 (has links) (PDF)
Made available in DSpace on 2018-07-27T17:13:48Z (GMT). No. of bitstreams: 0
Previous issue date: 2008-08-25. Added 1 bitstream(s) on 2018-07-27T17:16:25Z : No. of bitstreams: 1
000893656.pdf: 1237793 bytes, checksum: b16020c4edbfb645ad21e66f6dc6db16 (MD5) / O presente trabalho visa selecionar o conteúdo para a criação de um bancos de dados informatizado, contendo a legislação mais relevante sobre educação, com enfoque nos aspectos jurídicos que regulamentam o exercício da profissão de educador, e disponibilizá-lo na web, visando facilitar o acesso à legislação para o gestor educacional. Procurou-se definir quem é o gestor educacional, sob o enfoque legal, qual é seu perfil e quais são as suas obrigações legais. Fez-se uma explicação sobre o sistema legislativo brasileiro, para esclarecer como são feitas as leis e como elas se relacionam entre si, e abordou-se a legislação educacional tendo como ponto de partida, sempre as normas constitucionais sobre educação, e inserindo, quando se achou pertinente, jurisprudência sobre os assuntos comentados. Isso, sempre focado no fato de que este trabalho parte do pressuposto de que educação é serviço público relevante e de que, o gestor de educação, assim como o todo prestador de serviço de educação, é agente público, ainda que trabalhe no sistema privado de ensino
|
89 |
Otimizando a execução de aplicações de banco de dados através de uma melhor alocação de recursos de disco em ambientes virtualizadosFonseca, Fábio Miguel Blasak da January 2017 (has links)
Made available in DSpace on 2018-06-20T12:04:13Z (GMT). No. of bitstreams: 1
000488935-Texto+Completo-0.pdf: 2321276 bytes, checksum: 333d6e8a8d369d82fe548927b2edaad3 (MD5)
Previous issue date: 2017 / The growing need to extend IT (Information Technology) resources to meet business needs has raised concerns about how to increase capacity with lower cost and greater use of data center. Therefore, in order to avoid underutilization of infrastructure resources virtualization is a trend towards cost reduction and consolidation of the server infrastructure, thus taking advantage of existing assets. However, with virtualization growth, there is a problem related to resources concurrence in consolidated environments, where diskintensive applications such as databases can be impacted in this type of environment, if they do not have their resources managed properly, can generate performance degradation and increasing execution time respectively. In order to optimize performance and reduce I/O contention, Kassiano J.M. [19] presented a study on the acceleration of Hadoop applications through manual adjustment of disk resource allocation, showing that it is possible to get performance gains. Therefore, proposed work follows this line of study, however, with objective of optimizing the execution of database applications in virtualized environments with shared resources, applying a dynamic adjustment policy of disk resources allocation.It aims to distribute disk resources optimally through an algorithm, avoiding that one or more processes consume all disk resources, while others wait to be executed or are being executed without minimum of appropriate disk resources, thus, taking more time to complete their execution. In order to demonstrate this scenario, workloads of OLTP (Online Transaction Processing) and DW (Data Warehouse) databases have been evaluated using the Orion data load simulator [24] and real captured data from a loading test provided by a large IT company in partnership with PUCRS University (Pontifical Catholic University of Rio Grande do Sul), through the Oracle RAT (Real Application Testing) [25]. Laboratory tests have been performed using the following test scenarios: without adjustment of disk resources, with static adjustment of disk resources and through a dynamic adjustment policy of disk resources based on performance metrics. In this case, it can be observed that dynamic policy obtained the best result among the other test groups, generating a gain of 23% for OLTP database workloads, 21% for DW database workloads and 18% for environments with different types of workloads in concurrency like DW and OLTP. / A crescente necessidade de extensão dos recursos de TI (Tecnologia da Informação) para atender as demandas do negócio, geraram uma preocupação de como aumentar a capacidade com menor custo e maior aproveitamento do data center. Portanto, a fim de evitar a subutilização de recursos de infraestrutura a virtualização é uma tendência para redução de custos e consolidar a infraestrutura de servidores, aproveitando assim os ativos existentes. Entretanto, com o crescimento da virtualização, surge um problema relacionado a concorrência por recursos em ambientes consolidados, onde aplicações com uso intensivo de disco, como bancos de dados, podem ser impactados neste tipo de ambiente, caso não tenham os seus recursos gerenciados apropriadamente, podendo gerar degradação no desempenho e consequentemente aumentando o tempo de execução. A fim de otimizar performance e reduzir a contenção de E/S (Entrada/Saída), Kassiano J. M. [19] apresentou um estudo sobre a aceleração de aplicações Hadoop através de ajuste manual na alocação de recursos de disco, mostrando que é possível obter ganhos de performance. Logo, o trabalho proposto, segue esta linha de estudo, entretanto, com o objetivo de otimizar a execução de aplicações de banco de dados em ambientes virtualizados com recursos compartilhados, aplicando uma política de ajuste dinâmico de alocação de recursos de disco, a qual visa acelerar ainda mais os ganhos de performance.Essa política tem por objetivo distribuir os recursos de disco de forma otimizada, conforme algoritmo aplicado, evitando que um ou mais processos consumam todos os recursos de disco, enquanto outros aguardam para serem executados ou executam com o mínimo de recursos de disco apropriados, por isso, levando maior tempo para concluir o processamento. Para evidenciar esta situação, foram avaliados workloads de banco de dados do tipo OLTP (Online Transaction Processing) e DW (Data Warehouse), utilizando o simulador de cargas de dados Orion [24] e com dados reais capturados de um teste de carga cedidos por uma empresa de TI de grande porte, em parceria com a universidade PUCRS (Pontifícia Universidade Católica do Rio Grande do Sul), através do recurso Oracle RAT (Real Application Testing) [25]. Foram realizados testes em laboratório utilizando os seguintes cenários de teste: sem ajuste de recursos de disco, com ajuste estático de recursos de disco e através de uma política de ajuste dinâmico de recursos de disco com base em métricas de performance. A partir disso, pode-se observar que a política dinâmica obteve o melhor resultado entre os demais grupos de teste, gerando um ganho de 23% para a execução de workloads de banco de dados OLTP, 21% para workloads de banco de dados DW e 18% durante a execução de ambientes com workloads de tipos diferentes em concorrência, exemplo: DW e OLTP.
|
90 |
Gerenciamento do processo de calibração secundária de acelerômetros por meio de uma aplicação de banco de dadosJuliani, Fernando [UNESP] 07 December 2012 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:28:33Z (GMT). No. of bitstreams: 0
Previous issue date: 2012-12-07Bitstream added on 2014-06-13T20:58:29Z : No. of bitstreams: 1
juliani_f_me_guara.pdf: 7467903 bytes, checksum: 5354d77ba11f440d705f38fd2fe0eaf0 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / A vibração é um dos fenômenos que deve ser controlado quando atinente à componentes aeroespaciais. Sua ocorrência, em geral, não é benéfica para a vida útil de um sistema mecânico desse tipo e, por isso, este deve ser submetido a inúmeros testes de vibração para que informações sobre seu comportamento em operação sejam conhecidas. Sendo o acelerômetro o principal componente do sistema de medição empregado nos testes de vibração em sistemas mecânicos, é fundamental que sua calibração seja realizada periodicamente de forma a garantir suas condições operacionais. O processo de calibração secundária de acelerômetros especificamente envolve informações determinantes para a obtenção de resultados confiáveis e análise correta do comportamento de uma estrutura submetida a um ambiente vibratório. O valor de sensibilidade para uma frequência fixa de calibração é um exemplo de informação relevante que deve ser gerenciada. O Laboratório Central de Calibração de Acelerômetros do Comando da Aeronáutica é responsável pelo controle de um elevado número desses transdutores e, portanto, deve gerenciar dados de sua calibração e utilização. No entanto, deficiências foram detectadas no modo de controle vigente. Esta pesquisa propõe uma sistemática auxiliada por sistema proprietário de banco de dados para o gerenciamento laboratorial de dados de calibração de acelerômetros utilizados em testes e monitoramentos de vibração mecânica atendendo a itens da norma NBR ISO/IEC 17025 (2005) / Vibration is one of the phenomena that must be controlled regarding aerospace components. In general, its occurrence is not beneficial to the life cycle of such a mechanical system, and therefore it must be subjected to numerous vibration tests so that information about its behavior in operation is known. Since the accelerometer is the main component of the measuring system employed in mechanical vibration tests, it is essential that its calibration is performed periodically to ensure its operational conditions. The accelerometer secondary calibration process specifically involves critical information to obtain reliable results and correct analysis of the behavior of a structure subjected to a vibration environment. The sensitivity value for a fixed frequency calibration is an example of relevant information that must be managed. The Brazilian Air Force Command Central Laboratory of Accelerometer Calibration is responsible for managing a large number of transducers and therefore must manage data from their calibration and use. However, deficiencies were detected in the current control system. This research proposes a systematic approach aided by a proprietary database to manage the laboratory calibration data of accelerometers used in testing and monitoring of mechanical vibration according to NBR ISO/IEC 17025 (2005) item.
|
Page generated in 0.0667 seconds