• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 143
  • 8
  • 8
  • 8
  • 7
  • 7
  • 7
  • 7
  • 7
  • 3
  • 1
  • Tagged with
  • 150
  • 150
  • 54
  • 52
  • 34
  • 31
  • 31
  • 24
  • 22
  • 21
  • 20
  • 20
  • 19
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Um workflow científico para a modelagem do processo de desenvolvimento de fármacos assistido por computador utilizando receptor flexível

Machado, Karina dos Santos January 2007 (has links)
Made available in DSpace on 2013-08-07T18:42:43Z (GMT). No. of bitstreams: 1 000391202-Texto+Completo-0.pdf: 2565991 bytes, checksum: a1f131e3f03bd916c91d19ddca5c04ff (MD5) Previous issue date: 2007 / Computer assisted drug design (CADD) is a process involving the sequential execution of many computer programs, where the output of one program is the input for the next, ensuring that the ligand, a small molecule, optimally binds to its receptor, often a protein or enzyme. This process is usually executed using shell scripts whose input parameters modification and result analysis are complex and time consuming. Moreover, in order to explicitly consider the receptor flexibility during docking experiments, it is necessary to use thousands of receptor snapshots. These snapshots are obtained from a molecular dynamics simulation trajectory of the receptor. Due to the challenges in handling a large number of receptor snapshots and the need of a better execution control of a number of different computer programs, this work presents an integrated scientific workflow solution aiming at the automation of a flexible and efficient CADD process, with explicit inclusion of receptor flexibility. The JAWE and Shark software were used to model and execute the workflow, respectively. Even with automation, there still are problems with the number of receptor snapshots. The time spend during the execution of one process considering about three thousands receptor’s snapshots is about 500 hours. To overcome this problem, was developed a procedure for snapshot selection based on the free binding energy (FEB). Thus, during selective docking experiments, a smaller number of snapshots are used: those that had the best results of FEB during an exhaustive experiment with a reference ligand. To validate its implementation and selection we performed docking experiments with the M. tuberculosis enzyme InhA as the receptor and five different ligands. Some of theses experiments were extensively performed, considering all receptor snapshots, and some were selectively performed. The results illustrate the efficiency of the proposed workflow and implementation of the CADD process as well as the method for the receptor snapshots selection. / O desenho de drogas assistido por computador (CADD) é um processo que envolve a execução seqüencial de diferentes programas, no qual é testado se um determinado ligante (pequena molécula) interage bem com um receptor (geralmente uma proteína ou enzima). Esse processo geralmente é executando com o auxílio de shell scripts. Porém a modificação dos parâmetros de entrada e análise dos resultados nesse tipo de abordagem é uma tarefa complexa e que consome muito tempo. Além disso, para considerar a flexibilidade do receptor durante experimentos de docking, é necessário que se utilize milhares de snapshots do receptor. Neste trabalho, esses snapshots são obtidos da trajetória de simulações por dinâmica molecular do receptor. Devido aos desafios associados à manipulação desse grande número de snapshots do receptor e à necessidade de um melhor controle sobre os diferentes programas associados a esse processo, esse trabalho apresenta um workflow científico para automação do processo de desenvolvimento de drogas assistido por computador, incluindo de forma explícita a flexibilidade do receptor. Os softwares JAWE e Shark foram utilizados para modelar e executar respectivamente o workflow. Mesmo com essa automação no processo, ainda há problemas relacionados ao número de snapshots do receptor que deve ser utilizado. O tempo necessário para a execução de experimentos de docking, considerando aproximadamente três mil snapshots do receptor, é em torno de 500 horas. Para simplificar e agilizar esse processo, foi desenvolvida uma forma de seleção de snapshots baseado na energia livre de ligação (FEB). Assim, durante os experimentos de docking, chamados de docking seletivo, somente uma parte dos snapshots são utilizados: aqueles que obtiveram os melhores resultados de interação em termos de FEB durante um experimento exaustivo com um determinado ligante. Para validar essa implementação e seleção, foram executados experimentos de docking com a enzima InhA de M. tuberculosis como receptor e cinco ligantes diferentes. Os resultados desses experimentos ilustram a eficiência do workflow implementado e da forma de seleção de snapshots do receptor que está sendo realizada.
22

Uma proposta para a predição computacional da estrutura 3D aproximada de polipeptídeos com redução do espaço conformacional utilizando análise de intervalos

Dorn, Márcio January 2008 (has links)
Made available in DSpace on 2013-08-07T18:42:43Z (GMT). No. of bitstreams: 1 000399881-Texto+Completo-0.pdf: 3533066 bytes, checksum: e2d1ae8a7aab3f836474380e9a96e7c0 (MD5) Previous issue date: 2008 / Proteins are polypeptides formed by a long chain of amino acids residues which, in physiological conditions (native environment), adopt a unique three-dimensional (3-D) structure. These macromolecules are involved in most of the molecular transformations in the living cells. The native structure of a protein dictates its biochemical function. Hence, knowledge of a protein structure allows one to interfere with it, either by enhancing or inhibiting its function, such as in diseases in which the drug targets are proteins. Experimentally, the 3-D structure of a protein is obtained by techniques such as X-ray diffraction crystallography or nuclear magnetic resonance. However, due to the high cost and time demanded by these techniques, determination of the 3-D structure of a protein is a problem that still challenges the scientists. Many computational protein structure prediction methods have been proposed along the last years in order to address this problem. These methods are organized into two major groups. The first group comprehends comparative homology modelling and knowledge-based methods such as fold recognition via threading. The second group is made up by ab initio and de novo methods. However, these methods also have limitations: comparative homology modelling can only predict structures of proteins with amino acid sequences nearly identical or similar to other protein sequences of known structure in the protein Data Bank (PDB). Ab initio and de novo methods can predict new folds, but the complexity and high dimensionality of the search space, even for a small protein molecule, makes the problem computationally intractable. Despite the relative success of these prediction methods for small proteins and polypeptides, efforts are still needed to develop novel strategies for extracting and manipulating experimental data and to develop methods that use these data for correctly predicting a protein 3-D structure from its amino acid sequence only. In this dissertation we present a new computational method to predict approximate 3-D structure of polypeptides and proteins. A new algorithm was developed, based on information analysis obtained from PDB templates. Data mining techniques, intervals representation and treatment of experimental structural information are used in this algorithm. The polypeptide main chain torsion angles intervals, for each amino acid residue, are reduced with the objective to find a closed interval that contains the conformation with the lowest potential energy. Six case studies illustrate applications of the proposed method. / As proteínas são polipeptídeos formados por uma longa cadeia covalente de resíduos de aminoácidos que, em condições fisiológicas (ambiente nativo), adota uma topologia 3D única. Estas macromoléculas estão envolvidas na maior parte das transformações moleculares nas células vivas. A estrutura nativa dita a função bioquímica específica da proteína. Conhecer a estrutura 3D da proteína implica em também conhecer a sua função. Assim, conhecendo a sua estrutura é possível interferir ativando ou inibindo a sua função, como nas doenças onde os alvos dos fármacos são as proteínas. Experimentalmente, a estrutura 3D de uma proteína pode ser obtida através de técnicas de cristalografia por difração de raios X ou por ressonância magnética nuclear. Porém, devido às diversas dificuldades, incluindo o alto custo e o elevado tempo demandado por estas técnicas, a determinação da estrutura 3D de proteínas ainda é um problema que desafia os cientistas. Diversos métodos de predição in sílico foram criados durante os últimos anos buscando a solução deste problema. Estes métodos estão organizados em dois grandes grupos. Ao primeiro, pertencem os métodos de modelagem comparativa por homologia e métodos baseados em conhecimento como os de alinhavamento (threading). Ao segundo, pertencem os métodos ab initio e os métodos de novo. No entanto, estes métodos de predição possuem limitações: métodos baseados em modelagem comparativa por homologia e alinhavamento somente podem realizar a predição de estruturas que possuem seqüências idênticas ou similares à outras proteínas armazenadas no Protein Data Bank (PDB). Métodos de novo e ab initio, por sua vez, tornam possível a obtenção de novas formas de enovelamento. Entretanto, a complexidade e a grande dimensão do espaço de busca conformacional, mesmo para uma pequena molécula de proteína, torna o problema da predição intratável computacionalmente (Paradoxo de Levinthal). Apesar do relativo sucesso obtido por estes métodos para proteínas de pequeno tamanho, muitos esforços ainda são necessários para o desenvolvimento de estratégias para extração e manipulação de dados experimentais, bem como o desenvolvimento de metodologias que façam utilização destas informações com o propósito de predizer corretamente, a partir apenas da seqüência de aminoácidos de uma proteína, a sua estrutura 3D. Nesta dissertação é apresentada uma nova proposta para a predição in sílico da estrutura 3D aproximada de polipeptídeos e proteínas. Um novo algoritmo foi desenvolvido, baseando-se na análise de informações obtidas de moldes do PDB. Técnicas de mineração de dados, representação de intervalos e de manipulação das informações estruturais são utilizadas neste algoritmo. Os intervalos de variação angular de cada resíduo de aminoácido da cadeia polipeptídica são reduzidos como o objetivo de encontrar um intervalo fechado que contém a conformação com a menor energia potencial. Seis estudos de caso demonstram a aplicação do método desenvolvido.
23

Smart execution of molecular docking simulations of a fully-flexible receptor model

Frantz, Fábio André January 2012 (has links)
Made available in DSpace on 2013-08-07T18:42:49Z (GMT). No. of bitstreams: 1 000439095-Texto+Completo-0.pdf: 3289381 bytes, checksum: eb6fc534e5a9d631dbafb97aa0a9c407 (MD5) Previous issue date: 2012 / Molecular docking simulations of Fully-Flexible Receptor (FFR) models are coming of age. However, they demand parallelization of computing activities for their executions and generate huge amounts of data that needs to be analyzed. Many Task Computing (MTC) is an attractive paradigm routinely applied to execute intensive tasks. In this work we propose an environment to execute molecular docking simulations of FFR models to small molecules integrated with an MTC middleware. This environment is based on a new pattern called Self-adapting Multiple Instances (P-SaMI) that provide rules to reduce the number of experiments, providing a Reduced Fully-Flexible Receptor (RFFR) model. The main contribution of this research is to prove that P-SaMI rules can be used on Molecular Docking Simulations through a web environment integrated with an MTC middleware. / Simulações de docagem molecular com modelos de Receptores Totalmente Flexíveis (FFR) estão adquirindo maturidade. No entanto, isto demanda atividades computacionais de paralelização para geração e execução de grande volume de dados que precisam ser analizados. Computação multi-tarefa é um paradigma atrativo e que vem sendo aplicado frequentemente para executar tarefas intensivas. Neste trabalho propomos um ambiente para executar simulações de docagem molecular no modelo FFR com pequenas moléculas integradas a um componente MTC. Este ambiente é baseado no padrão Múltiplas Instâncias Autoadaptáveis (P-SaMI) que possui regras para redução do número de experimentos, provendo um modelo de Receptores Totalmente Flexíveis Reduzido (RFFR). A principal contribuição desta pesquisa está na comprovação de que as regras do P-SaMI podem ser usadas em Simulações de Docagem Molecular através de um ambiente web integrado com um componente MTC.
24

Um estudo sobre a predição da estrutura 3D aproximada de proteínas utilizando o método CReF com refinamento

Dall'Agno, Karina Cristina da Motta January 2012 (has links)
Made available in DSpace on 2013-08-07T18:43:36Z (GMT). No. of bitstreams: 1 000438289-Texto+Completo-0.pdf: 4232980 bytes, checksum: 881bd64c55df7a95a458dac98379df88 (MD5) Previous issue date: 2012 / One of the most important problems in Structural Bioinformatics is to understand how the information coded in linear sequence amino acids, or primary structure, is translated into the three-dimensional structure of a protein. Many algorithms proposed solutions to this complex problem of NP-complete class. One of them is the CReF method (Central Residue Fragment-based) which makes prediction of approximate 3-D structure of proteins and polypeptides. The method uses data mining techniques to group data structures, showing good secondary structure prediction, good performance at low machine cost, but has problems in the prediction of turns and loops regions and usability. Valuing the different characteristics of CReF and seeking to evolve it, this work proposes improvements to CReF. After the initial stage of understanding the tool and making changes to turn it executable on the current state of data banks and support tools, two categories of improvements to make were identified. The technical improvements aimed to automate CReF, adapting it to the environment and emphasizing usability. In the method‟s improvements variations on the amount of groups were tested for data mining with the Expectation Maximization algorithm in Weka. Tests indicated that the best results for the initial conformation were for four and six groups, hence we decided to allow the user to select the amount of groups.A new mapping of the data in the Ramachandran plot indicated some problems that had to be fixed. In the analysis of data mining results, we decided that groups in regions not allowed would be discarded. The new version of CReF generated by the implementation of these improvements standardized the method of secondary structure prediction to use Porter. As a consequence, the rules of selection of data mining groups to represent each amino acids have been changed and extended. The new version has the same initial performance of CReF in prediction and execution, however, the problem of correct predictions of turns and loops remained. This problem was addressed through a refinement protocol, based on simulations by the molecular dynamics method, which presented a significant result for the target protein 1ZDD. / Um dos principais desafios da Bioinformática Estrutural é entender como a informação decodificada em uma sequência linear de aminoácidos, ou estrutura primária de uma proteína, possibilita a formação de sua estrutura tridimensional. Muitos algoritmos buscam propor soluções para o problema complexo da classe NP-completo. Dentre eles, está o método CReF (Central Residue Fragment-based method) que realiza a predição da estrutura 3D aproximada de proteínas ou polipeptídios. O método usa técnicas de mineração de dados para agrupar dados de estruturas, apresentando boa predição de estruturas secundárias, bom desempenho em máquina de baixo custo, mas enfrenta problemas na predição das regiões de voltas e alças e na usabilidade. Valorizando as características diferenciadas do método e buscando sua evolução, este trabalho propôs-se a realizar melhorias no CReF. Após uma etapa inicial de entendimento e adaptações para tornar a ferramenta executável na situação atual dos bancos de dados e ferramentas de apoio, foram identificadas duas categorias de melhorias. As melhorias técnicas tiveram por objetivo automatizar a ferramenta, adaptá-la ao ambiente e ao usuário enfatizando usabilidade. Para melhorias no método realizaram-se testes com variação na quantidade de grupos identificados na etapa de mineração de dados com o algoritmo Expectation Maximization (EM) no Weka. Os testes indicaram que as melhores conformações iniciais eram obtidas com quatro e seis grupos, assim, optou-se por permitir ao usuário a escolha dos grupos a considerar. Um novo mapeamento do mapa de Ramachandran indicou ajustes que foram corrigidos e decidiu-se descartar grupos identificados nas regiões não permitidas na análise do resultado da mineração de dados.A nova versão do CReF, gerada pela implementação dessas melhorias, também padronizou o método de predição de estrutura secundária, passando a utilizar o método Porter. Como consequência, as regras para escolha do grupo resultante da mineração a representar cada aminoácido foram adaptadas e ampliadas para atender novas situações. A nova versão manteve o desempenho de predição e execução iniciais do CReF, entretanto, manteve o problema das voltas e alças. Este problema de otimização das regiões de voltas e alças foi endereçado por meio do desenho e aplicação de um protocolo de refinamento, baseado em simulações pelo método da dinâmica molecular, o qual apresentou um resultado expressivo para a proteína alvo de código PDB 1ZDD.
25

Estudo dos modos de atividade de células de lugar no hipocampo de ratos com livre movimentação

Silva, Jader Peres da January 2016 (has links)
As células de lugar são neurônios hipocampais que apresentam atividade correlacionada com a posição no espaço, só disparam quando o animal cruza uma determinada região no ambiente. Acredita-se que as células de lugar sejam responsáveis por formar mapas neurais do espaço físico, e que estão intimamente envolvidas com o processamento da memória espacial. Além disso, estudos mostram que as células de lugar podem ser fundamentais para a projeção mental, o planejamento de trajetória, e imaginação. Alguns trabalhos identificaram que a atividade das células de lugar pode ocorrer em modos de atividade distintos, os quais representam funcionalidades distintas na rede. Em geral esses trabalhos utilizam experimentos em plataformas lineares que restringem as análises dos perfis de atividade das células de lugar. Nesse trabalho construímos um laboratório de análises computacionais para avaliar o perfil de atividade de neurônios hipocampais caracterizados como células de lugar e utilizamos dados de eletrofisiologia disponíveis em um repositório digital (crcns.org) para realizar análises dos modos de atividade das células de lugar. Como resultados, obtivemos sucesso em demonstrar a ocorrência de modos de atividade distintos, que se assemelham ao disposto na literatura, bem como avaliar diversas características da atividade das células de lugar que servem de suporte para as teorias de memória espacial, planejamento de rota e projeção mental. / Place cells are hippocampal neurons whose activity is correlated with position in space, they only fire when the animal crosses a specific region in the environment. It is believed that place cells are responsible for forming neural maps of the physical space and that they are intimately related with the processing of spatial memories. Besides, studies have shown that place cells can play a central role in mind traveling, route planning, and imagination. Some works found that place cells may have distinct modes of activity, which represents distinct functionalities in the network. Generally these works use experiments in linear platforms that difficult the analysis of the activity profile of place cells. In this work we build a laboratory of computational analysis to evaluate the activity profile of hippocampal neurons described as place cells, and we use electrophysiological data from a digital repository (crcns.org) to perform analysis of activity modes of place cells. As results, we have successfully shown the occurrence of distinct activity modes, which are in accordance with literature, as well as evaluate a series of activity features of place cells which serve to support theories like route planning, mind traveling and spatial memory.
26

Genômica comparativa de protozoários

Tschoeke, Diogo Antônio January 2013 (has links)
Made available in DSpace on 2016-04-12T12:41:56Z (GMT). No. of bitstreams: 2 diogo_tschoeke_ioc_dout_2013.pdf: 6504204 bytes, checksum: 8ee03e5b054b7754e81ce9d1e278efee (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2013 / Fundação Oswaldo Cruz. Instituto Oswaldo Cruz. Rio de Janeiro, RJ, Brasil / Os protozoários são definidos como organismos eucariotos unicelulares, e apresentam grande diversidade e variedade. Cerca de 200 mil espécies são descritas e quase 10.000 são parasitas. As espécies patogênicas causam doenças como a malária, doença do sono, doença de Chagas, leishmaniose, amebíase e giardíase. Portanto, estudos comparativos entre os protozoários são importantes porque estes podem mostrar semelhanças e diferenças entre essas espécies. A identificação de ortólogos é importante para a categorização funcional de genomas, porque ortólogos tipicamente ocupam o mesmo nicho funcional nos diferentes organismos, enquanto a identificação de parálogos é importante porque eles são submetidos a uma diversificação funcional via duplicação, através dos processos de neofuncionalização e subfuncionalização. A fim de realizar uma análise comparativa de 22 protozoários, 204.624 proteínas não redundantes de Plasmodium, Entamoeba, Trypanosoma, Leishmania, Giardia, Theileria, Toxoplasma, Trichomonas e Cryptosporidium, foram submetidos ao programa OrthoMCL, resultando em 26.101 grupos homólogos. Entre eles, 21.119 grupos são ortólogos, incluindo 7.679 co-ortólogos (grupos que contêm parálogos recentes), e 4982 são parálogos internos. Entre os ortólogos, 348 são compartilhados por todas as 22 espécies e representam o núcleo proteômico de Protozoa Com este núcleo realizamos uma análise filogenômica, usando os 348 ortólogos concatenados, resultando em uma supermatriz de 328.228 posições, que geraram uma árvore de espécies para os 22 protozoários. Quando inferimos os diferentes Núcleos Proteômicos, Kinetoplastida tem 5.000 grupos ortólogos e 67,92 % (3396/5000) são Kinetoplastida específicos, além disso, 46,29% (1592/3396) destes ortólogos são anotados como "hipotéticos". O núcleo proteômico de Apicomplexa tem 986 grupos ortólogos e 27,82% (224/986) são específicos, enquanto que 40,63% (92 /224) destes são classificados como hipotéticos. O núcleo proteômico de Entamoeba tem 5.915 grupos ortólogos e 75,08% (4441/5915) destes grupos são específicos, sendo que 65,41% (2905/4441) são anotados como hipotéticos. Analisando os parálogos, Trichomonas vaginalis foi a espécie que apresentou o maior número de grupos parálogos internos, 2933, e também mostrou 948 co-ortólogos totalizando 3.881 parálogos. Um aprofundamento da análise na ordem Kinetoplastida mostrou que Trypanosoma cruzi apresenta o número mais elevado de duplicações, totalizando 5.777 parálogos, sendo 4963 co-ortólogos e 814 parálogos internos Os resultados da montagem e análise de L. amazonensis resultaram 29.670.588 bases e 8802 CDS identificadas. A análise comparativa do gênero Leishmania mostrou que as seis espécies estudadas compartilham 7016 ortólogos, enquanto L. amazonensis e L. mexicana têm o maior número de ortólogos-específicos e L. braziliensis o maior número de paralogos internos. A análise filogenômica mostrou a posição taxonômica esperada de L. amazonensis e juntamente com L. mexicana formando o "complexo Mexicana", além da separação esperada do subgênero Leishmania. Encontramos potenciais proteínas análogas entre L. amazonensis e Homo sapiens e dentro do genoma de L. amazonensis, denominados análogos intragenômicos. Finalmente, a mineração por genes de RNAi mostrou que L. amazonensis , provavelmente não apresenta esta via funcional / Protozoa are defined as single celled eukaryotic organisms showing an extremely diversity and variety. Approximately 200,000 species are described and nearly 10,000 are parasitic. The pathogenic species cause diseases such as malaria, sleeping sickness, Ch agas disease, leishmaniasis, amoebiasis and giardiasis. Therefore, comparative studies among Protozoa are important because they may identify similarities and differences in these species. Orthologs identification is central to functional characterization of genomes because orthologs typically occupy the same functional niche in different organisms, while paralogs identification is important because they undergo a functional diversification by duplication, via the processes of neofunctionalization and subfu nctionalization. In order to perform comparative protozoa analysis, 204,624 non - redundant proteins from Plasmodium , Entamoeba , Trypanosoma , Leishmania , Giardia , Theileria , Toxoplasma , Trichomonas and Cryptosporidium , totalizing 22 species, were submitted t o OrthoMCL resulting in 26,101 homologs groups. Among them, 21,119 groups are orthologs including 7,679 co - orthologs (groups that contain recent paralogs) and 4,982 are inparalogs. Among the orthologs, 348 are shared by all 22 species, representing the Pro tozoa core proteome, with this core we perform ed a phylogenomic analysis with the 348 concatenated orthologs, resulting in a global supermatrix of 328,228 positions that generate a species tree for the 22 protozoa. When we inferred Core Proteome, the Kinet oplastida core has 5,000 orthologous groups and 67.92% (3,396/5000) are Kinetoplastida Specific, besides 46.29% (1,592/3,396) of these orthologs are annotated as “hypothetical”. Apicomplexa Core Proteome has 986 orthologous groups and 27.82% (224/986) are Apicomplexa Specific whereas 40.63% (92/224) were classified as hypothetical proteins. Entamoeba Core Proteome has 5,915 orthologous groups and 75.08% (4,441/5,915) of these groups are Entamoeba Specific and 65.41% (2,905/4441) were annotated as hypothetic al. Analyzing the paralogs, Trichomonas vaginalis was the specie s that presented the highest number of inparalogs groups, 2,933 and also showed 948 co - orthologs totalizing 3881 paralogs. A deep look into the Kinetoplastida order showed that Trypanosoma cruzi has the highest duplication number, totalizing 5777 paralogs, 4963 co - orthologs and 814 inparalogs groups . The L. amazonensis analysis resulted in 29,670,588 bases assembled, and 8802 CDS identified. Comparative analysis into the Leishman ia genus showed that these 6 species share 7016 ortologs, whilst L. amazonensis and L. mexicana has the biggest number of specific orthologs and L. braziliensis biggest number of inparalogs. Phylogenomic analysis showed the expected L. amazonensis taxonomi c position together with L. mexicana forming the “Mexicana complex” and the New and Old Leishmania (L . ). spp. separation. Potential analagous proteins were found between L. amazonensis and H omo sapiens , and also into the L. amazonensis proteome. Finally, R NAi analysis showed that L. amazonensis , probably, do not have functional RNAi pathway
27

RedIBio - Uma ferramenta para visualização de Redes de Interações Biológicas

Langowski, Rodrigo January 2017 (has links)
Orientador : Prof. Dr. Alessandro Brawerman / Coorientadora : Profa. Dra. Maria Berenice R. Steffens / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Educação Profissional e Tecnológica, Programa de Pós-Graduação em Bioinformática. Defesa: Curitiba, 15/12/2016 / Inclui referências : f. 70-73 / Resumo: A representação gráfica de dados biológicos é considerada uma problemática crescente no âmbito da pesquisa, pois a quantidade de informações a se interpretar aumenta em um ritmo acelerado. Neste cenário, o desenvolvimento de ferramentas que auxiliem na interpretação de grande quantidade de dados é uma necessidade. A visualização da informação oferece recursos para análise de dados e geração de conhecimentos. Um dos métodos para representação de dados na forma gráfica é a rede, que possibilita a visualização do todo e a detecção de padrões de interação. A entrega do formato visual, no tipo rede, simplificado para a compreensão de informações biológicas complexas e aliado à conexão com uma fonte externa de informação, é o objetivo proposto pelo projeto. A ferramenta desenvolvida e denominada RedIBio - Redes de Interação Biológicas, oferece também o recurso de interação que possibilita a navegabilidade através dos objetos que compõem a estrutura da rede. A rede gerada pela ferramenta é visualizada em três dimensões garantindo que os componentes da rede sejam representados sem sobreposição em uma área maior. Sua disponibilidade e funcionamento ocorre totalmente pela Internet, dispensando, assim, a necessidade de instalação local e preocupações com compatibilidade e atualizações recorrentes. Como resultado final, a RedIBio não se limita apenas em apresentar os dados contidos no arquivo de entrada, pois sua integração com banco de dados biológico permite o acesso a informações detalhadas a respeito do objeto que são úteis ao usuário. Palavras-chave: Visualização da informação. Rede biológica. Ferramenta biológica. / Abstract: The graphical representation of biological data is considered a growing problem in research, because the amount of information to be interpreted increases at an accelerated pace. In this scenario, the development of tools that aid in the interpretation of large amounts of data is a necessity. Visualization of information provides resources for data analysis and knowledge generation. One of the methods for representing data in graphic form is the network, which enables the visualization of the whole and the detection of patterns of interaction. The delivery of the visual format, in the network type, simplified for the understanding of complex biological information and allied to the connection with an external source of information, is the objective on this project. The tool developed and called RedIBio - Redes de Interação Biológicas, also offers the interaction feature that enables navigability through the objects that make up the network structure. The network generated by the tool is visualized in three dimensions ensuring that the network components are represented without overlapping over a larger area. Its availability and operation occurs entirely over the Internet, thus dispensing with the need for local installation and concerns with compatibility and recurring updates. As a final result, RedIBio is not only limited to presenting the data contained in the input file, since its integration with a biological database allows access to detailed information about the object that is useful to the user. Key-words: Visualization of information. Biological network. Biological tool.
28

Pro-smart: predição de estruturas terciárias de proteínas utilizando sistemas multiagente

Paes, Thiago Lipinski January 2013 (has links)
Made available in DSpace on 2013-10-29T16:24:51Z (GMT). No. of bitstreams: 1 000451616-Texto+Completo-0.pdf: 18264447 bytes, checksum: 02e74b31d71030af5f9b0355ff4fef90 (MD5) Previous issue date: 2013 / There currently are approximately 16 million of unique (non-redundant) protein sequences in the GenBank. In the PDB, we can only find about 89,000 three-dimensional (3-D) protein structures and only 1,393 different SCOP protein folds. Thus, there is a huge gap between our ability to generate protein sequences and that of solving 3-D structures of proteins with unique, novel folds. This gap has been reduced with the aid from structural bioinformatics by addressing the problem of how a protein reaches its 3-D structure starting only from its amino acid sequence. This is called the protein structure prediction (PSP) problem. Thermodynamics considerations presented by Christian Anfinsen and co-workers in 1973 have it that a protein native structure is the one that minimizes its global free energy. Hence, we can treat the PSP problem as a minimization one within an NP-complete class of computation complexity. Several techniques have been used to predict the 3-D structure of proteins. In this work we supplement these techniques by adding artificial intelligence concepts still not much exploited in bioinformatics. More specifically, we propose a framework, based on an ab initio approach, of a cooperative hierarquical multi-agent system guided by a Simulated Annealing and a Monte Carlo scheme to address the PSP problem. Our multi-agent system has as input the protein amino acid sequence. Amino acids are represented by two agents: The C-Alpha agent (in lieu of the C alpha carbon atom) and the CBeta agent (in lieu of the side chain centroid). These Amino Acid agents can interact with each other. There are two other agents: one coordinates the Amino Acid agents; the other coordinates the protein system. The multi-agent system was created using the NetLogo platform. A clustering protocol was implemented for obtaining each simulation representant model. The results were compared with published papers regarding similar methodology and the use of Multi-Agent Systems to address the Protein Structure Prediction Problem. We present partial results which are encouraging for mini proteins. / Atualmente existem aproximadamente 16 milhões de sequências únicas de proteínas (não redundantes) no GenBank. Entretanto, no PDB, podemos encontrar apenas cerca de 85. 000 estruturas tridimensionais (3D) de proteínas das quais apenas 1. 393 possuem dobramento SCOP diferentes. Existe então uma grande lacuna entre nossas atuais habilidades no que se trata de gerar sequências de proteínas e nossas habilidades em resolver estruturas 3D de proteínas com novos dobramentos. Essa lacuna vem sendo reduzida com a ajuda da bioinformática estrutural por meio do endereçamento do problema de como uma proteína alcança sua estrutura 3D partindo-se apenas de sua sequencia de aminoácidos. Esse é conhecido como o Problema PSP, do inglês Protein Structure Prediction Problem. Considerações termodinâmicas apresentadas por Christian Anfinsen e colaboradores em 1973 deram inicio a uma forma de abordar o problema que hoje é conhecida como a hipótese de Anfinsen, a qual afirma que a estrutura nativa de uma proteína é aquela que minimiza sua energia global livre. Podemos então, tratar o problema PSP como um problema de minimização, tendo em mente ser um problema de complexidade NP-Completo. Neste são utilizados conceitos adventos da inteligência artificial até hoje não muito explorados na bioinformática. Mais especificamente, propomos um arcabouço baseado em uma abordagem ab initio, envolvendo um sistema multi-agente hierarquicamente cooperativo e guiado por um esquema baseado no método de Monte Carlo e de Arrefecimento Simulado, a fim de obter-se a otimização de uma função de energia. O sistema multi-agente tem como entrada apenas a sequencia de aminoácidos das proteínas. Cada aminoácido é representado por dois agentes: O agente C-Alfa (correspondendo o átomo C alfa) e um agente C-Beta (correspondendo ao centroide da cadeia lateral do aminoácido). Esses agentes aminoácidos interagem entre si. Existem dois outros tipos de agentes: um coordena os agentes Aminoácidos (C-Alfa e CBeta) e outro coordena o sistema por inteiro. O sistema multi-agente foi criado utilizando a plataforma NetLogo. Um protocolo de clusterização foi desenvolvido para a obtenção da estrutura modelo de cada simulação e os resultados foram comparados com a literatura no que se trata de PSP e multi-agentes e se mostraram promissores.
29

Estudo dos modos de atividade de células de lugar no hipocampo de ratos com livre movimentação

Silva, Jader Peres da January 2016 (has links)
As células de lugar são neurônios hipocampais que apresentam atividade correlacionada com a posição no espaço, só disparam quando o animal cruza uma determinada região no ambiente. Acredita-se que as células de lugar sejam responsáveis por formar mapas neurais do espaço físico, e que estão intimamente envolvidas com o processamento da memória espacial. Além disso, estudos mostram que as células de lugar podem ser fundamentais para a projeção mental, o planejamento de trajetória, e imaginação. Alguns trabalhos identificaram que a atividade das células de lugar pode ocorrer em modos de atividade distintos, os quais representam funcionalidades distintas na rede. Em geral esses trabalhos utilizam experimentos em plataformas lineares que restringem as análises dos perfis de atividade das células de lugar. Nesse trabalho construímos um laboratório de análises computacionais para avaliar o perfil de atividade de neurônios hipocampais caracterizados como células de lugar e utilizamos dados de eletrofisiologia disponíveis em um repositório digital (crcns.org) para realizar análises dos modos de atividade das células de lugar. Como resultados, obtivemos sucesso em demonstrar a ocorrência de modos de atividade distintos, que se assemelham ao disposto na literatura, bem como avaliar diversas características da atividade das células de lugar que servem de suporte para as teorias de memória espacial, planejamento de rota e projeção mental. / Place cells are hippocampal neurons whose activity is correlated with position in space, they only fire when the animal crosses a specific region in the environment. It is believed that place cells are responsible for forming neural maps of the physical space and that they are intimately related with the processing of spatial memories. Besides, studies have shown that place cells can play a central role in mind traveling, route planning, and imagination. Some works found that place cells may have distinct modes of activity, which represents distinct functionalities in the network. Generally these works use experiments in linear platforms that difficult the analysis of the activity profile of place cells. In this work we build a laboratory of computational analysis to evaluate the activity profile of hippocampal neurons described as place cells, and we use electrophysiological data from a digital repository (crcns.org) to perform analysis of activity modes of place cells. As results, we have successfully shown the occurrence of distinct activity modes, which are in accordance with literature, as well as evaluate a series of activity features of place cells which serve to support theories like route planning, mind traveling and spatial memory.
30

Identificação de RNA não codificador utilizando redes neurais artificiais de treinamento não supervisionado

Silva, Tulio Conrado Campos da 09 March 2012 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas Departamento de Ciência da Computação, 2012. / Submitted by Elna Araújo (elna@bce.unb.br) on 2012-06-21T21:31:21Z No. of bitstreams: 1 2012_TulioConradoCamposdaSilva.pdf: 4592113 bytes, checksum: aec465e9c017ed15dd0f0c16eef5d9de (MD5) / Approved for entry into archive by Jaqueline Ferreira de Souza(jaquefs.braz@gmail.com) on 2012-06-22T11:53:59Z (GMT) No. of bitstreams: 1 2012_TulioConradoCamposdaSilva.pdf: 4592113 bytes, checksum: aec465e9c017ed15dd0f0c16eef5d9de (MD5) / Made available in DSpace on 2012-06-22T11:53:59Z (GMT). No. of bitstreams: 1 2012_TulioConradoCamposdaSilva.pdf: 4592113 bytes, checksum: aec465e9c017ed15dd0f0c16eef5d9de (MD5) / Experimentos diversos no campo da Biologia Molecular revelaram que alguns tipos de ácido ribonucléico (RNA) podem estar diretamente envolvidos na expressão gênica e do fenótipo, alem de sua já conhecida função na síntese de proteínas. De modo geral, RNAs podem ser divididos em duas classes: RNA mensageiro (mRNA), que são traduzidos para proteínas, e RNA não codificador (ncRNA), que exerce papéis celulares importantes além de codificação de proteínas. Nos últimos anos, vários métodos computacionais baseados em diferentes teorias e modelos foram propostas para distinguir mRNA de ncRNA. Dentre os métodos mais atuais, destacam-se o uso de gramáticas estocásticas livres de contexto, informações termodinâmicas, teorias probabilíticas e algoritmos de aprendizado de máquina, sendo esses últimos abordagens muitos maleáveis e de menor complexidade. Particularmente, os métodos por aprendizado de máquina que utilizam redes neurais artificiais de treinamento não supervisionado constituem uma promissora linha de pesquisa, por sua grande plasticidade e capacidade de classificação do conjunto de dados de ncRNAs por critérios bem estabelecidos. Essa ultima técnica e extensivamente abordada no presente trabalho, mais precisamente utilizando Mapa Auto Organiz avel (SOM), Learning Vector Quantization (LVQ) e as redes Teoria da Ressonância Adaptativa (ART), para o problema de distinguir ncRNAs de mRNAs em um dado transcriptoma. As acuracias obtidas para as duas abordagens, em teste, ou estudo de caso, realizado com pequenos ncRNAs de 4 organismos logeneticamente distantes atingiram 98%. Os critérios para classificação de ncRNA foram otimizados através da Análise de Componentes Principais (PCA), reduzindo o numero de suas variáveis em 32% sem reduzir a acurácia obtida no estudo de caso. _________________________________________________________________________________ ABSTRACT / Several experiments conducted in the Molecular Biology eld have shown that some types of RNA may control gene expression and phenotype by themselves, besides their traditional role of allowing protein synthesis. Roughly speaking, RNA can be divided into two classes: messenger RNA (mRNA), that are translated into proteins, and non-coding RNA (ncRNA), which play several important cellular roles besides protein coding. In recent years, many computational methods based on deferent theories and models have been proposed to distinguish mRNA from ncRNA. Among the newest methods, it is noteworthy the use of stochastic context free grammars, thermodynamical information, probabilistic theories and machine learning algorithms, which are very adaptive and lowcomplexity approaches. Particularly, machine learning methods that uses non-supervised learning articial neural networks are a promising research eld, for they are highly plastic and are able to classify ncRNA data using well established criteria. The present work extensively approaches the latter technique, particularly Self-Organizing Maps (SOM), Learning Vector Quantization (LVQ) and Adaptive Resonance Theory (ART) algorithms for distinguishing ncRNA from coding RNA in a given transcriptome. A test case was developed using biological data from 4 phylogenetically distant organisms. Using this test case, the trained networks achieved 98% accuracy. The classication criteria used by the developed methods have been further optimized using Principal Components Analysis (PCA), reducing 32% of the number of extracted numerical variables without reducing the assessed accuracy.

Page generated in 0.4871 seconds