• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 135
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 138
  • 138
  • 138
  • 51
  • 51
  • 45
  • 41
  • 40
  • 37
  • 34
  • 31
  • 30
  • 30
  • 29
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Modelagem computacional distribuida e paralela de sistemas e de series temporais multivariaveis no espaço de estado

Barreto, Gilmar, 1958- 01 August 2018 (has links)
Orientador : Celso Pascoli Bottura / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-01T16:06:11Z (GMT). No. of bitstreams: 1 Barreto_Gilmar_D.pdf: 3708607 bytes, checksum: 3b4291314b6c8041286e4a776d5c99f6 (MD5) Previous issue date: 2002 / Resumo: Este estudo primeiramente investiga fundamentos teóricos para análise, desenvolvimento e implementação de algoritmos para modelagem de dados de sistemas dinâmicos e de séries temporais multivariáveis no espaço de estado, através de métodos de subespaço. Tem como segundo objetivo o desenvolvimento e implementação de algoritmos para modelagem computacional distribuída e paralela destes tipos de dados multivariados. A modelagem computacional de dados no espaço de estado é apresentada, comentada e avaliada sobre "benchmarks ". Desta forma esperamos viabilizar uma metodologia original e eficiente que contribuirá de forma direta para a modelagem de sistemas multivariáveis e de formas direta e ou indireta para o controle de sistemas multivariáveis. / Abstract: This study investigates firstly theoretical foundations in analysis, development and implementation of algorithms for state space modelling of time series and dynamic systems data. The second objective is the development and implementation of parallel and distributed computational modelling algorithms for such types of multivariate data. State space computational data modelling is presented, commented upon and evaluated against benchmarks. This procedure leads to the expectation of assured feasibility of an original and efficient methodology that will contribute in a direct way to multivariable systems modelling and, both in direct and indirect ways, to the control of multivariable systems. / Doutorado
92

Estudo sobre processamento maciçamente paralelo na internet

Huerta Yero, Eduardo Javier 29 July 2003 (has links)
Orientador: Marco Aurélio Amaral Henriques / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-04T14:25:45Z (GMT). No. of bitstreams: 1 HuertaYero_EduardoJavier_D.pdf: 2542631 bytes, checksum: c80e6ec9e2f0c2c08ea46f6ccd078d4b (MD5) Previous issue date: 2003 / Resumo: Este trabalho estuda a possibilidade de aproveitar o poder de processamento agregado dos computadores conectados pela Internet para resolver problemas de grande porte. O trabalho apresenta um estudo do problema tanto do ponto de vista teórico quanto prático. Desde o ponto de vista teórico estudam-se as características das aplicações paralelas que podem tirar proveito de um ambiente computacional com um grande número de computadores heterogêneos fracamente acoplados. Desde o ponto de vista prático estudam-se os problemas fundamentais a serem resolvidos para se construir um computador paralelo virtual com estas características e propõem-se soluções para alguns dos mais importantes como balanceamento de carga e tolerância a falhas. Os resultados obtidos indicam que é possível construir um computador paralelo virtual robusto, escalável e tolerante a falhas e obter bons resultados na execução de aplicações com alta razão computação/comunicação / Abstract: This thesis explores the possibility of using the aggregated processing power of computers connected by the Internet to solve large problems. The issue is studied both from the theoretical and practical point of views. From the theoretical perspective this work studies the characteristics that parallel applications should have to be able to exploit an environment with a large, weakly connected set of computers. From the practical perspective the thesis indicates the fundamental problems to be solved in order to construct a large parallel virtual computer, and proposes solutions to some of the most important of them, such as load balancing and fault tolerance. The results obtained so far indicate that it is possible to construct a robust, scalable and fault tolerant parallel virtual computer and use it to execute applications with high computing/communication ratio / Doutorado / Engenharia de Computação / Doutor em Engenharia Elétrica
93

Avaliação de um sistema de gerencia de banco de dados em memoria principal para uso em aplicações WEB / Evaluation of a main-memory database for use on web applications

Supriano, Anderson 31 July 2006 (has links)
Orientador: Luiz Eduardo Buzato / Dissertação (mestrado profissional) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-07T21:51:35Z (GMT). No. of bitstreams: 1 Supriano_Anderson_M.pdf: 835080 bytes, checksum: b62645ab9d314ade2a5badaad1879518 (MD5) Previous issue date: 2006 / Resumo: Aplicações web são cada vez mais comuns em nosso cotidiano e com isto torna-se necessária a busca por soluções para a melhora do desempenho no acesso a essas aplicações. Várias técnicas existem para esta melhora de desempenho, entre elas a replicação de aplicações e bancos de dados e o uso de bancos de dados em memória principal. Em busca da melhora de desempenho pensa-se em juntar um banco de dados de memória principal com as técnicas de replicação. Para isto, é necessário escolher um banco de dados de memória principal que seja estável e já tenha bom desempenho, para que a camada de replicação possa ser implementada utilizando-o como base. Este trabalho tem o objetivo de analisar o desempenho de um banco de dados de memória principal e compará-lo com o desempenho de dois bancos de dados tradicionais. Os bancos de dados escolhidos foram: Monet, de memória principal, e MySQL e PostgreSQL, tradicionais. Para que uma medida de desempenho seja feita de modo que seja válida para o uso em aplicações web, o benchmark escolhido foi o TPC-W, que especifica a implementação de uma loja de livros e browsers emulados para acessar essa loja, de modo que é possível fazer uma análise de desempenho. Este trabalho irá mostrar um estudo sobre as teorias envolvidas e os resultados dos testes aplicados, em que o Monet não mostra ter um desempenho superior em todos os casos e nem está maduro o suficiente para ser usado na prática em replicação de aplicações web. Portanto, outras soluções baseadas em sistemas de gerência de persistência alternativos devem ser consideradas / Abstract: Web applications are very common applications nowadays and it is necessary to find solutions for performance improvements for these applications. There are several ways to implement these performance improvements, including applications and databases replication and usage of main-memory databases. Looking for performance improvements we can think about using main-memory databases together with replication algorithms. In order to implement this, it is necessary to choose a main-memory database that are stable and with good performance to be used to implement a replication layer on it. The objective of this work is analyzing a main-memory database performance and compares it with the performance of two traditional databases. The database systems chosen were: Monet, as a main-memory database, and MySQL and PostgreSQL, as traditional databases. In order to have a benchmark that is valid for web applications usage we chose the TPC-W benchmark, which specifies a book store implementation and emulated browsers to access this shop, which allows an analysis on database performance. This work will show a study about theories involved and the results of executed tests, where Monet¿s performance does not seem to be better performance in most cases and Monet seems not be stable enough to be used on a real system for replication of web applications. Therefore, other solutions based on alternative persistence management systems should be considered. / Mestrado / Engenharia de Computação / Mestre em Ciência da Computação
94

Algoritmos genéticos para predição ab initio de estrutura de proteínas / Genetic algorithms for AB INITIO protein structure prediction

Custódio, Fábio Lima 30 April 2008 (has links)
Made available in DSpace on 2015-03-04T18:51:02Z (GMT). No. of bitstreams: 1 thesis_final.pdf: 17163181 bytes, checksum: 00c96f156953680b2cfcf263393486b2 (MD5) Previous issue date: 2008-04-30 / Conselho Nacional de Desenvolvimento Cientifico e Tecnologico / The goal of ab initio protein structure prediction (PSP) methods is to predict, based on first principles, the three-dimensional structure that a given amino-acid sequence will assume. These methods have important biotechnological applications from the creation of new proteins, drug design (the receptor's structure), the refinement of theoretical models and the elucidation of structures from sparse experimental data. The prediction encompasses an optimization problem with thousands of degrees of freedom and is associated with extremely complex energy hypersurfaces. This results in a problem that is difficult to treat computationally. In this work a simplified three-dimensional protein model (hydrophobic-polar model, HP) was used in order to reduce the computational costs of the PSP problem allowing for the fast development of a robust and efficient genetic algorithms based methodology. This methodology was then adapted to an all-atoms protein model. During the development different strategies for the PSP problem were analyzed. A new crowding based approach is described for the maintenance of diversity within the population which resulted in achieving multiple solutions. The HP model's methodology was tested against all 35 major sequences from the literature and the comparative results showed that the proposed genetic algorithm is superior to other evolutionary algorithms and comparable to specialized methods. The algorithm applied to the all-atoms model was initially tested with poli-alanines and later with five other proteins. Structures with RMSDs ranging from 2.0 to 6.7 Å were found and the proposed algorithm was superior to others similar methods, in terms of computational costs. The results obtained showed that optimization strategies with multiple solutions characteristics present two advantages. The first one is the more efficient investigation of a complex hypersurface, with better chances of finding optimal solutions; the second one is increasing the probability of finding structures close to those experimentally determined, even when they are not near the global optimum of the energy hypersurface. / Métodos de predição ab initio de estrutura de proteínas (PSP) buscam prever, baseando-se em primeiros princípios, a estrutura tridimensional que uma dada seqüência de aminoácidos irá adotar no espaço. Os métodos de predição ab initio atualmente possuem aplicações biotecnológicas que envolvem desde a criação de novas proteínas, o auxílio no desenho racional de fármacos (estrutura do receptor), o refinamento de modelos teóricos e a obtenção de estruturas a partir de dados experimentais incompletos. Entretanto, a predição envolve um problema de otimização que lida com milhares de graus de liberdade e está associado à hipersuperfícies de energia extremamente complexas o que torna o problema difícil de ser tratado computacionalmente. Neste trabalho utilizamos um modelo tridimensional de proteínas simplificado (modelo hidrofóbico-polar, HP) para reduzir os custos computacionais associados ao problema de PSP de modo que uma metodologia de otimização, robusta e eficiente, baseada em algoritmos genéticos, fosse desenvolvida mais rapidamente. Em seguida a metodologia foi adaptada para um modelo com descrição atômica que utiliza um campo de forças clássico como função de energia. Durante o desenvolvimento foram implementadas e analisadas várias estratégias para o problema. Foi descrita uma nova abordagem, baseada em crowding, para a manutenção da diversidade na população que resulta na obtenção simultânea de múltiplas soluções. A metodologia para o modelo HP foi aplicada a 35 seqüências disponíveis na literatura e os resultados comparativos mostraram que o algoritmo genético desenvolvido é superior a outros algoritmos evolutivos publicados, e comparável a métodos especializados. A metodologia para o modelo atômico foi inicialmente testada em poli-alaninas e em seguida em cinco outras proteínas de maior complexidade. Foram encontradas estruturas apresentando RMSDs entre 2,0 e 6,7 Å, em relação à estrutura determinada experimentalmente. O algoritmo genético se mostrou superior a outros métodos semelhantes, em termos de custo computacional. Os resultados obtidos mostram que as estratégias de otimização envolvendo a busca por múltiplos mínimos possuem duas grandes vantagens. A primeira delas está em uma investigação mais efetiva de uma hipersuperfície complexa aumentando a probabilidade de se encontrar soluções ótimas (de mais baixa energia); a segunda delas está no aumento da probabilidade de se obter estruturas próximas daquelas determinadas experimentalmente mesmo quando estas não são o mínimo global da hipersuperfície de energia investigada.
95

Análise de requisitos temporais para sistemas embarcados automotivos / Timing analysis of automotive embedded systems

Acras, Mauro 14 December 2016 (has links)
Os sistemas embarcados automotivos são caracterizados por sistemas computacionais que suportam funcionalidades na forma de softwares embarcados para proporcionar aos usuários maior conforto, segurança e desempenho. Entretanto, existe uma grande quantidade de funções integradas que elevam o nível de complexidade de forma que se deve utilizar métodos e ferramentas de projetos adequados para garantir os requisitos funcionais e não funcionais do sistema. Todo o projeto de software embarcado automotivo deve iniciar com a definição de requisitos funcionais e de acordo com a dinâmica do subsistema que uma ECU (Electronic Control Unit) irá controlar e/ou gerenciar, deve-se ainda definir os requisitos temporais. Uma função automotiva pode ter requisitos temporais do tipo, período de ativação, atraso fim-a-fim, deadline entre outras que por sua vez estão estritamente relacionadas com as características da arquitetura de hardware utilizada. Em um sistema automotivo, tem-se uma arquitetura de computação embarcada distribuída em que existem tarefas e mensagens que trocam sinais entre si e podem ter requisitos temporais que devam ser atendidos. A análise temporal para verificação e validação dos requisitos temporais pode ser realizada ao nível de arquitetura distribuída, tarefas e instruções sendo que a utilização adequada de métodos e ferramentas é uma condição necessária para sua verificação. Desta forma, apresenta-se uma descrição do estado da arte de análise temporal em sistemas embarcados automotivos, suas propriedades e a utilização das ferramentas da Gliwa para avaliar se os requisitos temporais são atendidos. Um exemplo ilustrativo foi implementado com o propósito de apresentar como os métodos, processos e ferramentas devem ser aplicados para verificar se os requisitos temporais definidos previamente no início do projeto foram atendidos e para que em um sistema já existente possam suportar funções adicionais com requisitos temporais a serem garantidos. É importante verificar que as ferramentas de análise temporal, tem o propósito ainda de verificar se os recursos computacionais estão sendo utilizados de acordo com o especificado no início do projeto. / Automotive embedded systems are characterized by computer systems that support embedded software functionalities to provide users with greater comfort, security and performance. However, there are a number of integrated functions that raise the level of complexity so that appropriate design methods and tools must be used to guarantee the functional and non-functional requirements of the system. All automotive embedded software design must begin with the definition of functional requirements and according to the dynamics of the subsystem that an ECU (Electronic Control Unit) will control and/or manage, it is necessary to define the time requirements. An automotive function may have time requirements of type, activation period, end-to-end delay and deadline among others which in turn are strictly related to the characteristics of the hardware architecture used. In an automotive system there is a distributed embedded computing architecture in which there are tasks and messages that exchange signals between them and may have timing requirements that must be met. The timing analysis for verification and validation of timing constrains can be carried out at the level of distributed architecture, tasks and instructions, and the proper use of methods and tools is a necessary condition for their verification. In this way, a description of the state of the art of timing analysis in automotive embedded systems, their properties and the use of the tools of Gliwa to evaluate if the timing constrains are met. An illustrative example has been implemented with the purpose of presenting how the methods, processes and tools should be applied to verify that the time requirements defined at the beginning of the project are met and that in an existing system can support additional functions with requirements to be guaranteed. It is important to note that timing analysis tools are still intended to verify that computational resources are being used as specified at the beginning of the project.
96

Critérios para adoção e seleção de sistemas operacionais embarcados

Moroz, Maiko Rossano 30 November 2011 (has links)
CNPq / Sistemas embarcados são sistemas computacionais projetados para aplicações específicas, os quais estão presentes em praticamente todos os dispositivos eletrônicos atuais. A utilização de um sistema operacional (SO) é uma maneira de simplificar o desenvolvimento de software, livrando os programadores do gerenciamento do hardware de baixo nível e fornecendo uma interface de programação simples para tarefas que ocorrem com frequência. A alta complexidade dos computadores pessoais atuais torna a utilização de um SO indispensável. Por outro lado, sistemas embarcados são arquiteturas limitadas, geralmente com muitas restrições de custo e consumo. Devido às demandas adicionais impostas por um SO, os desenvolvedores de sistemas embarcados enfrentam a crítica decisão quanto à adoção ou não de um SO. Nesta dissertação, apresenta-se uma série de critérios a fim de auxiliar os projetistas de sistemas embarcados na decisão quanto ao uso ou não de um SO. Além disso, outros critérios são apresentados com o intuito de guiar a seleção do SO mais adequado às características do projeto. Adicionalmente, escolheu-se 15 sistemas operacionais para serem analisados de acordo com os critérios apresentados, os quais podem ser utilizados como base para o processo de seleção de um SO. Adicionalmente, a fim de avaliar o impacto da adoção de um SO em um projeto embarcado, apresenta-se um estudo de caso no qual uma aplicação modelo (uma estação meteorológica embarcada) foi desenvolvida em três diferentes cenários: sem um SO, usando um SO de tempo real (µC/OS-II), e usando um SO de propósito geral (uClinux). Uma FPGA e um SoPC foram utilizados para obter uma plataforma flexível de hardware apta para acomodar as três configurações. A adoção de um SO proporcionou uma redução de até 48% no tempo de desenvolvimento; em contrapartida, isto aumentou os requisitos de memória de programa em pelo menos 71%. / An embedded system (ES) is a computing system designed for a specific purpose, present essentially in every electronic device. The use of an operating system (OS) is advocated as a means to simplify software development, freeing programmers from managing low-level hardware and providing a simpler programming interface for common tasks. The high complexity of modern desktop computers makes an OS indispensable; embedded systems, on the other hand, are limited architectures, usually severely cost- and power-constrained. Because of the additional demands imposed by an OS, embedded developers are faced with the crucial decision of whether to adopt an OS or not. In this work, we introduce a set of criteria to help determine whether an OS should be adopted in an embedded design. We then go further and establish a series of rules to help decide which OS to pick, if one should be used. In addition, we present a case study in which a sample application (an embedded weather station) was developed under three different scenarios: without any OS, using the µC/OS-II real-time OS, and using the uClinux general-purpose OS. An FPGA and a SoPC were used to provide a flexible hardware platform able to accommodate all three configurations. The adoption of an OS provided a reduction of up to 48% in development time; on the other hand, it increased program memory requirements in at least 71%.
97

Auxílio computadorizado ao diagnóstico do câncer de pulmão otimizado por GPU / Computer-aided diagnosis of lung cancer otimized by GPU

Ferreira Júnior, José Raniery 11 May 2015 (has links)
Lung cancer is the leading cause of cancer-related deaths in the world and its main manifestation occurs due to the appearance of pulmonary nodules. Pulmonary nodule classification is a complex task because it is a subjective and qualitative process that might be compromised by interpretation errors. Therefore, it is important to integrate computational tools to the pulmonary nodule classification process, since they have the potential to characterize objectively and quantitatively the lesions, so they can aid lung cancer diagnosis process. Content-Based Image Retrieval (CBIR) has been described as one of the most promissing differential diagnosis tool, since it is capable of retrieving similar cases from large image databases that were previously diagnosed. However, CBIR has some limitations, like the image feature extraction process and the time to compare one reference image with an image database. In this context, the goal of this work is to develop an algorithm to aid the diagnosis of lung cancer and the pulmonary nodule classification, using CBIR with the integration of three methods: 3D Texture Analysis and 3D Margin Sharpness Analysis for nodule characterization, and optimization on the execution time of the nodule comparison with paralelism on a Graphics Processing Unit (GPU). Images used in this work were computed tomography scans provided by the Lung Image Database Consortium, which has pulmonary nodules identified and classified by specialists according to the lesion’s likelihood of malignancy. Texture Attributes (TA) were extracted from a co-occurrence matrix obtained from the nodule volume. Margin Sharpness Attributes (MSA) were extracted from perpendicular lines drawn over the borders on all nodule slices. Integrated Attributes (IA) were created by concatenating TA and MSA. Euclidean distance was employed as similarity metric between feature vectors. CBIR algorithm’s precision was evaluated on the 10 most similar cases according to the likelihood of malignancy and with Precision and Recall parameters, on single-core, multi-core and many-core architectures. Results showed that MSA obtained more efficiency on pulmonary nodule retrieval, in the majority of precision evaluation scenarios, with the precision increase of 2% compared with TA. Texture attributes obtained the same efficiency as IA and presented higher mean precision only on benign nodule retrieval with Precision vs. Recall metric, with the precision increase of 3% compared with MSA. Results also showed that GPU, represented by the many-core device, was able to decrease execution time on image feature vector comparison and increase Euclidean distance performance on pulmonary nodule retrieval, with speedups of 16x, 17x and 19x. Therefore, CBIR allied to 3D margin sharpness descriptors and GPU optimization have big potential as a computer-based tool on lung cancer diagnosis and pulmonary nodule classification. / Fundação de Amparo a Pesquisa do Estado de Alagoas / O câncer de pulmão é o tipo de câncer que mais causa mortes no mundo e sua principal manifestação ocorre devido ao aparecimento de nódulos pulmonares. A classificação dos nódulos pulmonares é uma tarefa complexa que está sujeita a diversos erros de interpretação. Dessa forma, é importante integrar ferramentas computacionais ao processo de classificação de nódulos pulmonares, pois elas têm potencial de auxiliar no processo de diagnóstico do câncer de pulmão. Técnicas de recuperação de imagens baseada em conteúdo (CBIR - Content-Based Image Retrieval) têm sido descritas como ferramentas de diagnóstico diferencial promissoras, pois elas são capazes de recuperar em grandes bases de dados casos similares previamente diagnosticados. Contudo, a CBIR possui algumas limitações, como o processo de extração de características das imagens e o tempo de execução na comparação de uma imagem de referência com uma base de imagens. Neste contexto, o objetivo deste trabalho é desenvolver um algoritmo para o auxílio computadorizado à classificação de nódulos pulmonares utilizando CBIR, com a integração das técnicas: Análise de Textura 3D e Análise de Nitidez de Borda 3D para a caracterização dos nódulos pulmonares, e otimização no tempo de execução da comparação entre os nódulos pulmonares com paralelismo em uma unidade de processamento gráfico (GPU - Graphics Processing Unit). As imagens utilizadas neste trabalho são de tomografia computadorizada provenientes do projeto público Lung Image Database Consortium, que possui nódulos pulmonares identificados e classificados por especialistas segundo a probabilidade de malignidade da lesão radiológica. Atributos de Textura (AT) foram extraídos a partir da matriz de coocorrência obtida sobre o volume do nódulo. Atributos de Nitidez de Borda (ANB) foram extraídos a partir de linhas ortogonais traçadas sobre as bordas da lesão em todas as fatias do volume. Atributos Integrados (AI) foram criados a partir da concatenação dos AT e ANB. Distância Euclidiana foi utilizada como métrica de similaridade entre os vetores de características. A avaliação do algoritmo de CBIR desenvolvido utilizou as métricas de Precisão vs. Revocação e precisão para os 10 casos mais similares segundo a probabilidade de malignidade dos nódulos, em arquiteturas single-core, multi-core e many-core. Os resultados mostraram que os ANB obtiveram maior eficiência na recuperação dos nódulos pulmonares, na maioria dos cenários da avaliação de precisão, com aumento de precisão de 2 pontos percentuais em relação aos AT e AI na recuperação dos 10 casos mais similares. Os AT obtiveram mesma eficiência que os AI e apresentaram maior precisão média apenas na recuperação de nódulos benignos, com aumento de precisão de 3 pontos percentuais em relação aos ANB, quando empregada Precisão vs. Revocação. Os resultados mostraram também que a GPU conseguiu diminuir o tempo de execução na comparação dos vetores de características e aumentar o desempenho da distância Euclidiana na recuperação dos nódulos pulmonares, com ganhos de performance de até 19x. Com isto, a CBIR aliada aos atributos de nitidez de borda 3D e otimização em GPU possuem grande potencial como ferramenta computacional ao diagnóstico do câncer de pulmão e classificação de nódulos pulmonares.
98

Development and validation of new methods of distribution of initial population on genetic algorithms for the problem of protein-ligand docking / Desenvolvimento e validação de novos métodos de distribuição da população inicial em algoritmos genéticos para o problema de docking proteína-ligante

Reinaldo Bellini Gonçalves 05 June 2008 (has links)
The methods of protein-ligand docking are computational methods usedto predict the mode of binding of molecules into drug candidates for its receptor. The docking allows tests of hundreds of compounds in ashort space of time, assisting in the discovery of new drug candidates. The great complexity that involves the binding of protein-ligand complex, makes the problem of docking computationally difficult to be solved. In this work, we used the Genetic Algorithms which is a technique of optimization based on the theory of biological evolution of Darwin. The proposed algorithm was implemented and tested initially by Camila S. de Magalhães in her doctoral thesis, with the Group of Molecular Modeling of Biological Systems at LNCC, with a range of 5 ligands of HIV-1 protease. It was built a new set used for test with 49 structures with several physico-chemical properties, distributed in 22 different families of protein, allowing for a broader test of the algorithm It was conducted a detailed study of the dependence of the genetic algorithm in relation to the distribution of its initial population and it was also investigated ways more efficient and robust to generate the same. Among these, the proposal to distribute the initial population based on the coordinates of individuals of lower energy in the population (proposal 5), it is very promising. This distribution has allowed the algorithm to obtain good results, finding solutions of lower energy in the population very close to experimental structure optimized, without having specific information about the experimental structure. This fact is very important, because the algorithm makes it more realistic in view that in the rational design of drugs, it has not the trial structure. / Os métodos de docking proteína-ligante, são métodos computacionais usados para predizer o modo de ligação de moléculas candidatas a fármaco em seu receptor. O docking permite o teste de centenas de compostos em um curto espaço de tempo, auxiliando na descoberta de novos candidatos a fármacos. A grande complexidade que envolve a ligação do complexo ligante-proteína, torna o problema de docking difícil de ser resolvido computacionalmente. Neste trabalho, são usados os Algoritmos Genéticos, que são uma técnica de otimização baseada na teoria da evolução biológica de Darwin. O algoritmo proposto foi implementado e testado inicialmente por Camila S. de Magalhães em sua tese de doutorado, junto ao Grupo de Modelagem Molecular de Sistemas Biológicos do LNCC, com um conjunto de 5 ligantes de HIV-1 protease. Foi construido um novo conjunto utilizado para teste, agora com 49 estruturas com propriedades físico-químicas diversas, distribuidos em 22 famílias distintas de proteínas, permitindo um teste mais amplo do algoritmo. Foi realizado um estudo aprofundado sobre a dependência do Algoritmo Genético em relação à distribuição da sua população inicial e investigou-se formas mais eficientes e robustas de gerar a mesma. Dentre estas, a proposta de distribuir a população inicial baseada nas coordenadas dos indivíduos de menor energia na população (proposta 5), é muito promissora. Esta distribuição permitiu o algoritmo obter bons resultados, encontrando soluções de menor energia na população muito próximas a estrutura experimental otimizada, sem possuir informações específicas sobre a estrutura experimental. Este fato é muito importante, pois torna o algoritmo mais realista, tendo em vista que no desenho racional de fármacos real não se dispoe da estrutura experimental.
99

Computational analyses of the origin of subtype C of HIV-1 in South America / Análise computacional da origem do subtipo C do HIV-1 na América do Sul

Rachel Fontella da Silva 30 May 2008 (has links)
O principal subtipo do HIV-1 na América do Sul é o B, mas o C e o F também são importantes. Tem sido relatados um aumento de prevalência do subtipo C no sul do Brasil e a sua ocorrência em outros países da América Latina. O objetivo desse trabalho foi analisar filogeneticamente amostras de HIV-1C para testar a hipótese de que a sua entrada na América do Sul foi um episódio único, e tentar estimar a sua origem. Analisamos 97 seqüências virais com 975pb (protease e dois terços da transcriptase reversa), de amostras de regiões geográficas onde o subtipo C é importante epidemiologicamente (América do Sul, Ásia e África). Análises filogenéticas foram realizadas com os métodos de Máxima Verossimilhança e Inferência Bayesiana usando PAUP, PHYML e MrBayes. Amostras da América do Sul formaram um grupo monofilético em todas as árvores geradas com diferentes metodologias, com altos valores de bootstrap e de probabilidade posterior. Em todas as árvores uma amostra do Quênia foi a mais proximamente relacionada a esse grupo. Análises de bootscanning de seqüências do subtipo C puras e recombinantes da Argentina e do Uruguai demonstraram que elas são similares às seqüências brasileiras. Nossos resultados indicam que a entrada do HIV-1C na América do Sul ocorreu em um único episódio ou em múltiplos episódios de vírus geneticamente próximos, possivelmente provenientes de países do Leste da África. O HIV-1C se espalhou do Brasil para os outros países da América do Sul / The main circulating HIV-1 subtype in South America is B, but C and F also are important and an increasing prevalence of subtype C in southern Brazil and its occurrence in other countries of Latin American has being described. The goal of this study was to analyze phylogenetically HIV-1C samples from South American countries to test the hypothesis that its entry in the region was a unique episode, and try to estimate its origin. We have analyzed 97 viral sequences spanning 975bp (protease and two-thirds of reverse transcriptase), from samples of geographic locations where the subtype C is epidemiologically important (South America, Asia and Africa). Phylogenetic analyses were conducted using ML and Bayesian inference methods using PAUP, PHYML and MrBayes. Samples from South America formed a monophyletic group when compared with the worldwide samples in all trees generated with different methodologies, with high bootstrap and posterior probability values. In all trees a sample from Kenya was the most closely related to that group. Bootscanning analyses of subtype C and C-containing recombinant sequences from Argentina and Uruguay showed that they are more similar to the Brazilian sequences. Our results indicate that the entry of HIV-1C in South America occurred in a single episode or in multiples episodes of genetically close viruses, possibly from a country of the Eastern Africa. HIV-1C spread out from Brazil to other South American countries.
100

Algoritmos genéticos para predição ab initio de estrutura de proteínas / Genetic algorithms for AB INITIO protein structure prediction

Fábio Lima Custódio 30 April 2008 (has links)
Métodos de predição ab initio de estrutura de proteínas (PSP) buscam prever, baseando-se em primeiros princípios, a estrutura tridimensional que uma dada seqüência de aminoácidos irá adotar no espaço. Os métodos de predição ab initio atualmente possuem aplicações biotecnológicas que envolvem desde a criação de novas proteínas, o auxílio no desenho racional de fármacos (estrutura do receptor), o refinamento de modelos teóricos e a obtenção de estruturas a partir de dados experimentais incompletos. Entretanto, a predição envolve um problema de otimização que lida com milhares de graus de liberdade e está associado à hipersuperfícies de energia extremamente complexas o que torna o problema difícil de ser tratado computacionalmente. Neste trabalho utilizamos um modelo tridimensional de proteínas simplificado (modelo hidrofóbico-polar, HP) para reduzir os custos computacionais associados ao problema de PSP de modo que uma metodologia de otimização, robusta e eficiente, baseada em algoritmos genéticos, fosse desenvolvida mais rapidamente. Em seguida a metodologia foi adaptada para um modelo com descrição atômica que utiliza um campo de forças clássico como função de energia. Durante o desenvolvimento foram implementadas e analisadas várias estratégias para o problema. Foi descrita uma nova abordagem, baseada em crowding, para a manutenção da diversidade na população que resulta na obtenção simultânea de múltiplas soluções. A metodologia para o modelo HP foi aplicada a 35 seqüências disponíveis na literatura e os resultados comparativos mostraram que o algoritmo genético desenvolvido é superior a outros algoritmos evolutivos publicados, e comparável a métodos especializados. A metodologia para o modelo atômico foi inicialmente testada em poli-alaninas e em seguida em cinco outras proteínas de maior complexidade. Foram encontradas estruturas apresentando RMSDs entre 2,0 e 6,7 Å, em relação à estrutura determinada experimentalmente. O algoritmo genético se mostrou superior a outros métodos semelhantes, em termos de custo computacional. Os resultados obtidos mostram que as estratégias de otimização envolvendo a busca por múltiplos mínimos possuem duas grandes vantagens. A primeira delas está em uma investigação mais efetiva de uma hipersuperfície complexa aumentando a probabilidade de se encontrar soluções ótimas (de mais baixa energia); a segunda delas está no aumento da probabilidade de se obter estruturas próximas daquelas determinadas experimentalmente mesmo quando estas não são o mínimo global da hipersuperfície de energia investigada.

Page generated in 0.1021 seconds