• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1017
  • 224
  • 97
  • 96
  • 70
  • 31
  • 29
  • 19
  • 19
  • 14
  • 12
  • 8
  • 7
  • 7
  • 7
  • Tagged with
  • 2079
  • 745
  • 706
  • 585
  • 437
  • 357
  • 330
  • 310
  • 227
  • 221
  • 193
  • 189
  • 174
  • 165
  • 160
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
961

From XML to relational view updates: applying old solutions to solve a new problem / De atualizações sobre visões XML para atualizações sobre visões relacionais: aplicando soluções antigas a um novo problema

Braganholo, Vanessa de Paula January 2004 (has links)
XML vem se tornando um importante meio para intercâmbio de dados, e é frequentemente usada com uma interface para - isto é, uma visão de - um banco de dados relacional. Apesar de existirem muitos trabalhos que tratam de consultas a bancos de dados através de visões XML, o problema de atualização de bancos de dados relacionais através de visões XML não tem recebido muita atenção. Neste trabalho, apresentam-se os primeiros passos para a solução deste problema. Usando query trees para capturar noções de seleção, projeção, aninhamento, agrupamento e conjuntos heterogêneos, presentes na maioria das linguagens de consulta XML, demonstra-se como visões XML expressas através de query trees podem ser mapeadas para um conjunto de visões relacionais correspondentes. Consequentemente, esta tese transforma o problema de atualização de bancos de dados relacionais através de visões XML em um problema clássico de atualização de bancos de dados através de visões relacionais. A partir daí, este trabalho mostra como atualizações na visão XML são mapeadas para atualizações sobre as visões relacionais correspondentes. Trabalhos existentes em atualização de visões relacionais podem então ser aplicados para determinar se as visões são atualizáveis com relação àquelas atualizações relacionais, e em caso a rmativo, traduzir as atualizações para o banco de dados relacional. Como query trees são uma caracterização formal de consultas de de nição de visões, elas não são adequadas para usuários nais. Diante disso, esta tese investiga como um subconjunto de XQuery pode ser usado como uma linguagem de de nição das visões, e como as query trees podem ser usadas como uma representação intermedi ária para consultas de nidas nesse subconjunto. / XML has become an important medium for data exchange, and is frequently used as an interface to - i.e. a view of - a relational database. Although lots of work have been done on querying relational databases through XML views, the problem of updating relational databases through XML views has not received much attention. In this work, we give the rst steps towards solving this problem. Using query trees to capture the notions of selection, projection, nesting, grouping, and heterogeneous sets found throughout most XML query languages, we show how XML views expressed using query trees can be mapped to a set of corresponding relational views. Thus, we transform the problem of updating relational databases through XML views into a classical problem of updating relational databases through relational views. We then show how updates on the XML view are mapped to updates on the corresponding relational views. Existing work on updating relational views can then be leveraged to determine whether or not the relational views are updatable with respect to the relational updates, and if so, to translate the updates to the underlying relational database. Since query trees are a formal characterization of view de nition queries, they are not well suited for end-users. We then investigate how a subset of XQuery can be used as a top level language, and show how query trees can be used as an intermediate representation of view de nitions expressed in this subset.
962

Tecnicas de otimização do mergesort externo num ambiente de banco de dados / External mergesort optimization strategies in a database environment

Fanelli, Elton Gustavo 23 February 2006 (has links)
Orientador: Rogerio Drummond / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-06T04:55:54Z (GMT). No. of bitstreams: 1 Fanelli_EltonGustavo_M.pdf: 1448895 bytes, checksum: 513ab9546abfaae1b9d4c5ba4ab6fa2e (MD5) Previous issue date: 2006 / Mestrado / Banco de Dados, Analise de Algoritmos e Complexidade / Mestre em Ciência da Computação
963

Proposta para o banco de dados do projeto WebMaps / A proposal for the database of the WebMaps project

Martins, Rodrigo Grassi 12 December 2006 (has links)
Orientador: Claudia Maria Bauzer Medeiros / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-08T07:31:46Z (GMT). No. of bitstreams: 1 Martins_RodrigoGrassi_M.pdf: 1266697 bytes, checksum: abefc5e9662e9a00291a681e6d8ccd0d (MD5) Previous issue date: 2006 / Resumo: O objetivo do projeto WebMaps é a especificação e desenvolvimento de um sistema de informação WEB que sirva de apoio ao monitoramento e planejamento de safras agrícolas no Brasil. Os trabalhos necessários para tais objetivos são alvo de pesquisa multidisciplinar de ponta mundial. Um dos problemas a ser enfrentado é o projeto do banco de dados para o WebMaps. Esta dissertação discute as necessidades do banco de dados do projeto WebMaps e propõe um modelo básico para o mesmo. O banco de dados proposto deve servir como suporte ao cadastro de usuários, propriedades e talhões, além de gerenciar informações sobre os demais dados - em especial- imagens de satélite. As principais contribuições deste trabalho são: especificação de um modelo de dados com suporte ao gerenciamento espaço-temporal, especificação de um conjunto de consultas temporais, espaciais e espaço-temporais, resultando na implementação de um protótipo, utilizando Postgresql/Postgis / Abstract: The goals of the WebMaps project is the specification and development of a WEB information system to support crop planning and monitoring in Brazil. This kind of project involves state-of-the art research all over world. One of the problems faced by WebMaps is database design. This work attacks this issue, discussing the project's needs and proposing a basic database supports management of users, properties and parcials, as well as others kinds of data, especially satellite images. The main contributions of this work are: specification of a spatio-temporal database model; specification of sets of temporal, spatial and spatio-temporal queries; and the implementation of a prototype, in Postgresql/Postgis / Mestrado / Sistemas de Informação / Mestre em Ciência da Computação
964

Uma arquitetura para consultas a repositorios de biodiversidade na Web / An architecture to query biodiversity data on the Web

Gomes Junior, Luiz Celso, 1979- 18 May 2007 (has links)
Orientador: Claudia Maria Bauzer Medeiros / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-08T21:08:38Z (GMT). No. of bitstreams: 1 GomesJunior_LuizCelso_M.pdf: 2851826 bytes, checksum: 3831116628e7070356b5ae9e89047c6a (MD5) Previous issue date: 2007 / Resumo: A vida na Terra forma uma ampla e complexa rede de interações que alguns especialistas estimam conter até 80 milhões de espécies diferentes. Abordar o tema biodiversidade é essencialmente um esforço distribuído. Uma instituição de pesquisa, seja qual for seu tamanho, é capaz de lidar com apenas uma pequena fração desta variedade. Portanto, para conduzir pesquisas ecologicamente relevantes, é preciso coletar porções de informação sobre espécies e seus habitats em um grande número de instituições e correlacioná-las usando conhecimento geográfico, biológico e ecológico. A distribuição e a heterogeneidade inerentes aos dados de biodiversidade impõem diversos desafios, por exemplo, como encontrar informação relevante na Web, como resolver divergências sintáticas e semânticas e como processar vários predicados ecológicos e espaciais. Esta dissertação apresenta uma arquitetura que explora avanços em interoperabilidade de dados e tecnologias da Web semântica para tratar destes desafios. A solução se baseia em ontologias e anotação de repositórios para prover compartilhamento e descoberta de dados, estimulando a pesquisa colaborativa em biodiversidade. Um protótipo usando dados reais implementa parte da arquitetura / Abstract: Life on Earth forms a broad and complex network of interactions, which some experts estimate to be composed of up to 80 million different species. Tackling biodiversity is essentially a distributed effort. A research institution, no matter how big, can only deal with a small fraction of this variety. Therefore, to carry ecologically-relevant biodiversity research, one must collect chunks of information on species and their habitats from alarge number of institutions and correlate them using geographic, biologic and ecological knowledge. Distribution and heterogeneity inherent to biodiversity data pose several challenges, such as how to find relevant information on the Web, how to solve syntactic and semantic heterogeneity, and how to process a variety of ecological and spatial predicates. This dissertation presents an architecture that exploits advances in data interoperability andsemantic Web technologies to meet these challenges. The solution relies on ontologies and annotated repositories to support data sharing, discovery and collaborative biodiversity research. A prototype using real data has implemented part of the architecture / Mestrado / Banco de Dados / Mestre em Ciência da Computação
965

SICOF : sistema de informação distribuido para controle de licenças e outorgas de direito de uso de recursos hidricos

Penteado, Antonio Henrique Dantas da Gama 31 January 2006 (has links)
Orientador: Sueli Yoshinaga Pereira / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Geociencias / Made available in DSpace on 2018-08-11T00:46:58Z (GMT). No. of bitstreams: 1 Penteado_AntonioHenriqueDantasdaGama_D.pdf: 2937340 bytes, checksum: 0d1fdfb079fad03ce60bc155ef48f8d4 (MD5) Previous issue date: 2006 / Resumo: Este trabalho tem por finalidade apresentar um protótipo de sistema de informação arquitetado e desenvolvido para auxiliar a gestão dos recursos hídricos no Estado de São Paulo. Esse sistema de informação para controle de outorgas e fiscalização, chamado de SICOF, foi desenhado para manter uma base de dados com informações sobre usuários e diferentes usos de recursos hídricos, e desenvolvido para amparar o Departamento de Águas e Energia Elétrica (DAEE) do Estado de São Paulo em algumas de suas funções administrativas básicas. O DAEE é o órgão competente para contemplar os usuários de recursos hídricos com o direito de uso da água. Para essa obrigação, adota como base a Portaria DAEE no 717/96. Essa portaria disciplina a forma e o conteúdo a ser apresentado ao DAEE no ato de solicitação do direito de uso por parte de um usuário, e foi empregada como padrão para o desenvolvimento do SICOF. Esse protótipo foi desenvolvido com as tecnologias Microsoft JavaScript, JScript e ASP, e estruturado para operar bancos de dados em redes fechadas ou internet. Foram utilizados: o padrão de modelagem de software chamado UML (Unified Modeling Language); o conceito de estruturação de sistemas em camadas; e o conceito de sistemas distribuídos via internet. As bases de dados foram desenvolvidas com o Microsoft ACCESS e são operadas por de linhas de programação. A opção pelas ferramentas acima mencionadas foi feita na busca de se produzir uma solução para atender ao aspecto descentralizador das políticas paulista e brasileira de recursos hídricos (Lei no 7.663/91 ¿ São Paulo; Lei Federal no 7.663/97), com baixo custo operacional e de implantação, elevado potencial de integralização dos dados e facilidade de operação. Sua arquitetura foi desmembrada em diferentes subsistemas que estão disponíveis ao seu operador: a) USUARIOS ¿ para dados de usuários, pessoas físicas ou jurídicas, de seus domicílios válidos; b) IMPLANTAR ¿para cadastrar resumidamente os diferentes usos de recursos hídricos, localização geográfica e valores de uso e consumo; c) AUTOS ¿ que relaciona solicitações de direto de uso aos números de processos e às respectivas certificações de direito de uso; d) UNIFILAR ¿ para pesquisa orientada por bacia hidrográfica, cujo resultado é a consolidação das ocorrências existentes em bacias hidrográficas informadas pelos usuários do sistema; e) SIPP ¿ para cadastramento técnico de poços perfurados. Tem como funções básicas: 1) adquirir informações via páginas e aplicativos internet; 2) armazenar informações em bases de dados relacionais via objetos de conectividade de base de dados; 3) integrar informações provenientes de bases de dados independentes; 4) gerar registros, fichas, tabelas e relatórios em formatos ASCII, HTM ou XML. O SICOF também pode ser utilizado como alimentador de bases de dados, uma vez que os dados são uniformemente formatados e podem ser transferidos para outros sistemas que operam dados diversos e georeferenciados. Por ser estruturado em linguagem simples e aberta, esse protótipo pode ser adaptado para novas funções quando surgirem novas necessidades. Por ter sido modelado ante sua concepção, pode ser reescrito e editado em outras linguagens de programação. Por fim, representa uma progressão científica em termos de aplicação de tecnologias na busca de soluções de baixo custo para otimizar a gestão dos recursos hídricos no Estado de São Paulo / Abstract: The aim of this work is to present an information system prototype, which was planned and developed to help water resources management in São Paulo State, Brazil. This information system for water right-of-use control and inspection, named SICOF, was projected to maintain a database with information about water users and different water resources uses in delimited regions that are recognized as hydrographic basins. It was developed to support some basic administrative functions of the Department of Water and Electric Energy of São Paulo State (DAEE), which is the institution responsible for granting water right of use to water resources users. Formats for registering water right of use and water resources users, as well as for requiring water use licenses are adopted according to DAEE¿s Law #717/96, which was used as a guideline to develop the SICOF modeling system. SICOF was structured on the basis of the following Microsoft technologies: Java Script, JScript, Active Server Pages (ASP), and Internet Information Server (IIS). It was also programmed to operate databases through intranet or Internet systems. Databases were generated with Microsoft ACCESS, being handled by Microsoft OBDC object. As for SICOF architecture, it was planned using the Unified Modeling Language (UML) in association with concepts of 3-layered systems and distributed systems via Internet, and their basics functions are: 1) to acquire information through web pages and Internet applications; 2) to store information in relational databases by database connective objects; 3) to integrate information from independent databases; 4) to generate records, files, tables, and reports in ASCII, HTML, XML or other file formats. It was divided in into different subsystems that are available to the operator: a) USUARIOS ¿ for water resources users data, considering their valid address information; b) IMPLANTAR ¿ to summarily register information about different water resources uses, geographic position, and use and consume values; c) AUTOS ¿ relates each request of water right of use to a process number, as well as to its respective water use license; d) UNIFILAR ¿ for hydrographic basin-oriented research. Information provided by the system users will compose tables and forms related to a certain hydrographic basin; e) SIPP ¿ for registering technical information about drilled wells for groundwater. SICOF processes and formats data uniformly; therefore, it may be used to collect primary data and to feed database systems with geo-referenced information. The development of this system focused on two objectives: 1) to line up the decentralized policies to first objective, given by Law #7.663/91 (São Paulo State) and by Federal Law #9.433/97; 2) to create an open and friendly source architecture, using low cost tools. The developed system presented here has shown good functionality to treat an amount of data that refers to one decentralized institute of water resources management. It is composed of: i) a software with programs code, routines, scripts, and databases; ii) SICOF technical document, which can be used to guide future projects to develop software and systems for water resources management / Doutorado / Administração e Politica de Recursos Minerais / Doutor em Ciências
966

Análise temporal de 21 anos do câncer de pele com base no registro de câncer de base populacional de Goiânia-Brasil / Temporal Analysis of 21 years of the skin câncer according to the population based câncer registrer of Goiânia-Brazil

Cavarsan, Flávio 21 November 2014 (has links)
Submitted by Cássia Santos (cassia.bcufg@gmail.com) on 2015-10-13T12:03:31Z No. of bitstreams: 2 Dissertação - Flávio Cavarsan - 2014.pdf: 2147420 bytes, checksum: 4c71cd47ba4580423701808c54260308 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2015-10-13T12:26:12Z (GMT) No. of bitstreams: 2 Dissertação - Flávio Cavarsan - 2014.pdf: 2147420 bytes, checksum: 4c71cd47ba4580423701808c54260308 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Made available in DSpace on 2015-10-13T12:26:12Z (GMT). No. of bitstreams: 2 Dissertação - Flávio Cavarsan - 2014.pdf: 2147420 bytes, checksum: 4c71cd47ba4580423701808c54260308 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Previous issue date: 2014-11-21 / Objective: To analyze the temporal evolution of incidence and trends of skin cancer, either melanoma and nonmelanoma lesions, in the city of Goiania during the period from 1998 to 2008. Methods: From January 1988 to December 2008, all malignant skin tumours of the city of Goiania (Brazil), registered by the Population Based Cancer Register of Goiania were accessed. The cases were stratified according to gender, age, morphology and anatomical site. The proportions, crude coefficients and incidence rates were calculated using the SPSS version 18 software, while Poison's regression model was obtained by Joinpoint software. Results: Twenty six thousand nine hundred and eighty-eight registers of skin cancer were found, 19,961 basal cell carcinomas (BCC), 6,156 squamous cell carcinomas (SCC) and 871 cutaneous melanomas (CM). Histological confirmation was performed in more than 98% of the cases. A significant trend of increasing incidence associated to age was observed in men with SCC (APC=6.6%) and CM (APC=9.8%). The same trend was identified for women with CM (APC=7.7%). A rising incidence related to age was found. Nonmelanomas skin tumours occurred more often on face, while the trunk was more common for melanomas. Conclusions: The incidence of BCC was stable for both genders in Goiania during the study period. In the other hand, it was observed an increasing incidence for CM in men and women, and SCC showed a raise in incidence only for males. The age above 50s is a risk factor for increasing incidence of skin cancer. The trunk and face were the most common sites of either SCC and BCC, while cutaneous melanomas were more often on the trunk and limbs. Prevention through a complete physical exam is the best action for early detection of skin lesions; as well information regarding the risks of excess chronic sun exposition is the best primary prevention method. / Objetivo: Analisar a evolução temporal da incidência e a tendência das neoplasias cutâneas, não melanoma e melanoma no município de Goiânia no período de 1998 a 2008. Metodologia: Foram alvos do estudo os casos registrados de neoplasias malignas de pele de residentes de Goiânia, no período de 1988 – 2008, identificados pelo Registro de Câncer de Base Populacional de Goiânia. Os casos foram estratificados por gênero, grupo etário, morfologia e localização anatômica. Realizaram-se os cálculos das proporções, coeficientes brutos e padronizados de incidência. Utilizou-se o programa SPSS versão 18 e para as análises de tendências, o modelo de regressão linear do programa Joinpoint. Resultados: Foram observados 26.988 casos registrados de neoplasias de pele, com 19.961 carcinomas basocelulares (CBC), 6.156 carcinomas espinocelulares (CEC) e 871 melanomas cutâneos (MC); em mais de 98% dos casos houve confirmação histológica; observou-se tendência de aumento de incidência significante para homens com CEC (APC = 6,6%) e MC (APC = 9,8%) e para mulheres com MC (APC = 7,7%). Houve aumento de incidência com a idade. A face foi o local mais comum entre as neoplasias não melanomas, enquanto o tronco foi o mais comum nos melanomas. Conclusões: A incidência do CBC está estável em homens e mulheres em Goiânia. Para os CEC a incidência está aumentando nos homens enquanto nos MC houve aumento nos dois sexos, maior entre os homens. A idade é um fator de risco após 50 anos com maior aumento de incidência. A face e o tronco foram as localizações mais incidentes para CBC e CEC. Nos melanomas o aumento foi em tronco e membros. A prevenção com exame clínico de todo o tegumento é a melhor recomendação para o diagnóstico precoce do câncer de pele não melanoma e melanoma cutâneo. Medidas de orientação quanto a exposição solar são recomendas na prevenção primária.
967

RepliX: Um mecanismo para a replicaÃÃo de dados XML / RepliX: a mechanism for XML data replication

FlÃvio Rubens de Carvalho Sousa 09 March 2007 (has links)
Conselho Nacional de Desenvolvimento CientÃfico e TecnolÃgico / XML has become a widely used standard for data representation and exchange in applications. The growing usage of XML creates a need for ecient storage and recovery systems for XML data. Native XML DBs (NXDBs) are being developed to target this demand. NXDBs implement many characteristics that are common to traditional DBs, such as storage, indexing, query processing, transactions and replication. Most existing solutions solve the replication issue through traditional techniques. However, the exibility of XML data imposes new challenges, so new replication techniques ought to be developed. To improve the performance and availability of NXDBs, this thesis proposes RepliX, a mechanism for XML data replication that takes into account the main characteristics of this data type, making it possible to reduce the response time in query processing and improving the fault-tolerance property of such systems. Although there are several replication protocols, using the group communication abstraction for communication and fault detection has proven to be a good solution, since this abstraction provides ecient message exchanging techniques and conability guarantees. RepliX uses this strategy, organizing the sites into an update group and a read-only group in such a way that allows for the use of load balancing among the sites, and makes the system less susceptible to faults, since there is no single point of failure in each group. In order to evaluate RepliX, a new replication layer was implemented on top of an existing NXDB to introduce the characteristics of the proposed mechanism. Several experiments using this layer were conducted, and their results conrm the mechanism's eciency considering the dierent aspects of a replicated database, improving its performance considerably, as well as its availability. / XML tem se tornado um padrÃo amplamente utilizado na representaÃÃo e troca de dados em aplicaÃÃes. Devido a essa crescente utilizaÃÃo do XML, torna-se necessÃria a existÃncia de sistemas eficientes de armazenamento e recuperaÃÃo de dados XML. EstÃo sendo desenvolvidos para este fim Bancos de Dados XML Nativos (BDXNs). Estes bancos implementam muitas das caracterÃsticas presentes em Bancos de Dados tradicionais, tais como armazenamento, indexaÃÃo, processamento de consultas, transaÃÃes e replicaÃÃo. Tratando-se especificamente de replicaÃÃo, a maioria das soluÃÃes existentes resolve essa questÃo apenas utilizando tÃcnicas tradicionais. Todavia, a exibilidade dos dados XML impÃe novos desafios, de modo que novas tÃcnicas de replicaÃÃo devem ser desenvolvidas. Para melhorar o desempenho e a disponibilidade dos BDXNs, esta dissertaÃÃo propÃe o RepliX, um mecanismo para replicaÃÃo de dados XML que considera as principais caracterÃsticas desses dados. Dessa forma, à possÃvel melhorar o tempo de resposta no processamento de consultas e tornar esses sistemas mais tolerantes a falhas. Dentre vÃrios tipos de protocolos de replicaÃÃo, a utilizaÃÃo da abstraÃÃo de comunicaÃÃo em grupos como estratÃgia de comunicaÃÃo e detecÃÃo de falhas mostrase uma soluÃÃo eficaz, visto que essa abstraÃÃo possui tÃcnicas eficientes para troca de mensagens e provà garantias de confiabilidade. Essa estratÃgia à utilizada no RepliX, que organiza os sites em dois grupos: de atualizaÃÃo e de leitura, permitindo assim balanceamento de carga entre os sites, alÃm de tornar o sistema menos sensÃvel a falhas, jà que nÃo hà um ponto de falha Ãnico em cada grupo. Para validar o RepliX, uma nova camada de replicaÃÃo foi implementada em um BDXN, a _m de introduzir as caracterÃsticas e os comportamentos descritos no mecanismo proposto. Experimentos foram feitos usando essa camada e os resultados obtidos atestam a sua eficÃcia considerando diferentes aspectos de um banco de dados replicado, melhorando o desempenho desses banco de dados consideravelmente bem como sua disponibilidade.
968

"Prevalência e covariação de mutações relacionadas à resistência aos inibidores de protease no subtipo F do HIV-1" / Prevalence and covariation of protease inhibitor resistance related mutations of HIV type 1 subtype F

Marcia Perez Resende Oliveros 23 August 2005 (has links)
Cada subtipo de HIV-1 tem um padrão mutacional próprio. Dados sobre mutações de resistência aos antiretrovirais foram obtidos com o subtipo B, primeiro em prevalência no Brasil. O segundo em algumas regiões é o subtipo F. Foram analisados padrões mutacionais em seqüências brasileiras de protease do subtipo F e levantou as seqüências deste subtipo disponíveis na base de dados de Stanford. A análise de dois grupos de seqüências (pacientes não tratados e tratados com inibidores de protease) mostrou 19 mutações associadas ao tratamento comuns ao subtipo B e 17 duplas de mutações associadas ao tratamento que diferem das descritas para o subtipo B, indicando a necessidade de estudos sobre rotas mutacionais no subtipo F. / Each HIV-1 subtype has a specific mutation pattern. Data on HIV-1 antiretroviral resistance mutations were obtained with subtype B, the first in prevalence in Brazil. The second in some regions is subtype F. Mutation patterns of Brazilian subtype F protease sequences were analyzed and performed a research of the sequences of Stanford Database. The analysis of two groups of sequences (untreated and treated patients with protease inhibitors) showed 19 treatment associated mutations also common in subtype B and 17 combinations of statistically treatment associated mutations that were quite different to those described for subtype B, indicating the need of studies to evaluate specific mutation pathways of subtype F.
969

Genômica translacional: integrando dados clínicos e biomoleculares / Translational genomics: integrating clinical and biomolecular data

Newton Shydeo Brandão Miyoshi 06 February 2013 (has links)
A utilização do conhecimento científico para promoção da saúde humana é o principal objetivo da ciência translacional. Para que isto seja possível, faz-se necessário o desenvolvimento de métodos computacionais capazes de lidar com o grande volume e com a heterogeneidade da informação gerada no caminho entre a bancada e a prática clínica. Uma barreira computacional a ser vencida é o gerenciamento e a integração dos dados clínicos, sócio-demográficos e biológicos. Neste esforço, as ontologias desempenham um papel essencial, por serem um poderoso artefato para representação do conhecimento. Ferramentas para gerenciamento e armazenamento de dados clínicos na área da ciência translacional que têm sido desenvolvidas, via de regra falham por não permitir a representação de dados biológicos ou por não oferecer uma integração com as ferramentas de bioinformática. Na área da genômica existem diversos modelos de bancos de dados biológicos (tais como AceDB e Ensembl), os quais servem de base para a construção de ferramentas computacionais para análise genômica de uma forma independente do organismo de estudo. Chado é um modelo de banco de dados biológicos orientado a ontologias, que tem ganhado popularidade devido a sua robustez e flexibilidade, enquanto plataforma genérica para dados biomoleculares. Porém, tanto Chado quanto os outros modelos de banco de dados biológicos não estão preparados para representar a informação clínica de pacientes. Este projeto de mestrado propõe a implementação e validação prática de um framework para integração de dados, com o objetivo de auxiliar a pesquisa translacional integrando dados biomoleculares provenientes das diferentes tecnologias omics com dados clínicos e sócio-demográficos de pacientes. A instanciação deste framework resultou em uma ferramenta denominada IPTrans (Integrative Platform for Translational Research), que tem o Chado como modelo de dados genômicos e uma ontologia como referência. Chado foi estendido para permitir a representação da informação clínica por meio de um novo Módulo Clínico, que utiliza a estrutura de dados entidade-atributo-valor. Foi desenvolvido um pipeline para migração de dados de fontes heterogêneas de informação para o banco de dados integrado. O framework foi validado com dados clínicos provenientes de um Hospital Escola e de um banco de dados biomoleculares para pesquisa de pacientes com câncer de cabeça e pescoço, assim como informações de experimentos de microarray realizados para estes pacientes. Os principais requisitos almejados para o framework foram flexibilidade, robustez e generalidade. A validação realizada mostrou que o sistema proposto satisfaz as premissas, levando à integração necessária para a realização de análises e comparações dos dados. / The use of scientific knowledge to promote human health is the main goal of translational science. To make this possible, it is necessary to develop computational methods capable of dealing with the large volume and heterogeneity of information generated on the road between bench and clinical practice. A computational barrier to be overcome is the management and integration of clinical, biological and socio-demographics data. In this effort, ontologies play a crucial role, being a powerful artifact for knowledge representation. Tools for managing and storing clinical data in the area of translational science that have been developed, usually fail due to the lack on representing biological data or not offering integration with bioinformatics tools. In the field of genomics there are many different biological databases (such as AceDB and Ensembl), which are the basis for the construction of computational tools for genomic analysis in an organism independent way. Chado is a ontology-oriented biological database model which has gained popularity due to its robustness and flexibility, as a generic platform for biomolecular data. However, both Chado as other models of biological databases are not prepared to represent the clinical information of patients. This project consists in the proposal, implementation and validation of a practical framework for data integration, aiming to help translational research integrating data coming from different omics technologies with clinical and socio-demographic characteristics of patients. The instantiation of the designed framework resulted in a computational tool called IPTrans (Integrative Platform for Translational Research), which has Chado as template for genomic data and uses an ontology reference. Chado was extended to allow the representation of clinical information through a new Clinical Module, which uses the data structure entity-attribute-value. We developed a pipeline for migrating data from heterogeneous sources of information for the integrated database. The framework was validated with clinical data from a School Hospital and a database for biomolecular research of patients with head and neck cancer. The main requirements were targeted for the framework flexibility, robustness and generality. The validation showed that the proposed system satisfies the assumptions leading to integration required for the analysis and comparisons of data.
970

Integrando mineração de séries temporais e fractais para encontrar padrões e eventos extremos em bases de dados climáticas e de sensoriamento remoto / Integrating time series mining and fractals to discover patterns and extreme events in climate and remote sensing databases

Luciana Alvim Santos Romani 13 December 2010 (has links)
Esta tese apresenta novos metodos baseados na teoria dos fractais e em tecnicas de mineração de dados para dar suporte ao monitoramento agrícola em escala regional, mais especicamente areas com plantações de cana-de-açucar que tem um papel importante na economia brasileira como uma alternativa viavel para a substituição de combustíveis fósseis. Uma vez que o clima tem um grande impacto na agricultura, os agrometeorologistas utilizam dados climáticos associados a índices agrometeorológicos e mais recentemente dados provenientes de satélites para apoiar a tomada de decisão. Neste sentido, foi proposto um método que utiliza a dimensão fractal para identicar mudanças de tendências nas séries climáticas juntamente com um módulo de análise estatística para definir quais atributos são responsáveis por essas alterações de comportamento. Além disso, foram propostos dois métodos de medidas de similaridade para auxiliar na comparação de diferentes regiões agrícolas representadas por múltiplas variáveis provenientes de dados meteorológicos e imagens de sensoriamento remoto. Diante da importância de se estudar os extremos climáticos que podem se intensicar dado os cenários que preveem mudanças globais no clima, foi proposto o algoritmo CLIPSMiner que identifica padrões relevantes e extremos em séries climáticas. CLIPSMiner também permite a identificação de correlação de múltiplas séries considerando defasagem de tempo e encontra padrões de acordo com parâmetros que podem ser calibrados pelos usuários. A busca por padrões de associação entre séries foi alcançada por meio de duas abordagens distintas. A primeira delas integrou o cálculo da correlação de dimensão fractal com uma técnica para tornar os valores contínuos das séries em intervalos discretos e um algoritmo de regras de associação gerando o método Apriori-FD. Embora tenha identificado padrões interessantes em relação a temperatura, este método não conseguiu lidar de forma apropriada com defasagem temporal. Foi proposto então o algoritmo CLEARMiner que de forma não-supervisionada minera padrões em uma série associando-os a padrões em outras séries considerando a possibilidade de defasagem temporal. Os métodos propostos foram comparados a técnicas similares e avaliados por um grupo composto por meteorologistas, agrometeorologistas e especialistas em sensoriamento remoto. Os experimentos realizados mostraram que a aplicação de técnicas de mineração de dados e fractais contribui para melhorar a análise dos dados agrometeorológicos e de satélite auxiliando no trabalho de pesquisadores, além de se configurar como uma ferramenta importante para apoiar a tomada de decisão no agronegócio / This thesis presents new methods based on fractal theory and data mining techniques to support agricultural monitoring in regional scale, specifically regions with sugar canefields. This commodity greatly contributes to the Brazilian economy since it is a viable alternative to replace fossil fuels. Since climate in uences the national agricultural production, researchers use climate data associated to agrometeorological indexes, and recently they also employed data from satellites to support decision making processes. In this context, we proposed a method that uses the fractal dimension to identify trend changes in climate series jointly with a statistical analysis module to define which attributes are responsible for the behavior alteration in the series. Moreover, we also proposed two methods of similarity measure to allow comparisons among different agricultural regions represented by multiples variables from meteorological data and remote sensing images. Given the importance of studying the extreme weather events, which could increase in intensity, duration and frequency according to different scenarios indicated by climate forecasting models, we proposed the CLIPSMiner algorithm to identify relevant patterns and extremes in climate series. CLIPSMiner also detects correlations among multiple time series considering time lag and finds patterns according to parameters, which can be calibrated by the users. We applied two distinct approaches in order to discover association patterns on time series. The first one is the Apriori-FD method that integrates an algorithm to perform attribute selection through applying the correlation fractal dimension, an algorithm of discretization to convert continuous values of series into discrete intervals, and a well-known association rules algorithm (Apriori). Although Apriori-FD has identified interesting patterns related to temperature, this method failed to appropriately deal with time lag. As a solution, we proposed CLEARMiner that is an unsupervised algorithm in order to mine the association patterns in one time series relating them to patterns in other series considering the possibility of time lag. The proposed methods were compared with similar techniques as well as assessed by a group of meteorologists, and specialists in agrometeorology and remote sensing. The experiments showed that applying data mining techniques and fractal theory can contribute to improve the analyses of agrometeorological and satellite data. These new techniques can aid researchers in their work on decision making and become important tools to support decision making in agribusiness

Page generated in 0.0421 seconds