• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3158
  • 289
  • 267
  • 27
  • 25
  • 17
  • 17
  • 17
  • 11
  • 9
  • 9
  • 9
  • 7
  • 6
  • 4
  • Tagged with
  • 3822
  • 1178
  • 1012
  • 579
  • 546
  • 534
  • 478
  • 456
  • 442
  • 389
  • 332
  • 330
  • 317
  • 304
  • 303
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

FReMI: a middleware to handle molecular docking simulations of fully-flexible receptor models in HPC environments

De Paris, Renata January 2012 (has links)
Made available in DSpace on 2013-08-07T18:42:40Z (GMT). No. of bitstreams: 1 000438211-Texto+Completo-0.pdf: 1765612 bytes, checksum: c7adb8a9601c78a38e044070d6b5568e (MD5) Previous issue date: 2012 / Molecular docking simulations of Fully-Flexible Protein Receptor (FFR) models are coming of age. However, they are computer intensive and their sequential execution can became an unfeasible task. This study presents a middleware, called Flexible Receptor Middleware (FReMI), to assist in faster docking simulations of flexible receptors. FReMI handles intensive tasks and data of totally fully-flexible receptor models in virtual screening and, provides the interoperability between a Web Fully-flexible Docking Workflow (W-FReDoW) and two different High Performance Computing (HPC) environments. FReMI uses internet protocols to communicate with W-FReDoW which helps to reduce the FFR model dimension with a data pattern. Also it sends tasks of docking simulations to execute in a HPC of dedicated cluster and; an alternative model of virtual cluster built on Amazon’s Elastic Compute Cloud (EC2). The results are the FReMI conceptual architecture and two sets of experiments from execution of the FReMI. The first set reports the experiments performed with FReMI using a sample of snapshots from a FFR model on both HPC environments. The second one describes the experiments, on the complete data set, performed with FReMI and W-FReDoW shared execution in a MPI cluster environment on Amazon EC2 instances only. The last set of experiments results shows a reduction of the FFR model dimensionality, transforming it into a Reduced Fully-Flexible Receptor (RFFR) model, by discarding the non-promising conformations generated by W-FReDoW. It also reduces the total execution time to between 10-30% of that of FReMI’s only execution, which, in turn, decreased near 94% with respect to the serial execution. / Simulações de docagem molecular de modelos de receptores totalmente flexíveis (Fully-Flexible Receptor - FFR) estão se tornando cada vez mais frequentes. Entretanto, tais simulações exigem alto nível de processamento e sua execução sequencial pode se tornar uma tarefa impraticável. Este trabalho apresenta um middleware, chamado Middleware de Receptores Flexível (Flexible Receptor Middleware – FReMI), que auxilia a reduzir o tempo total de execução nas simulações de docagem molecular de receptores totalmente flexíveis. FReMI manipula uma quantidade intensiva de dados e tarefas para executar a triagem virtual de modelos de receptores totalmente flexíveis, e provê interoperabilidade entre o web workflow de docagem de receptores flexíveis (Web Fully-flexible Docking Workflow - W-FReDoW) e dois diferentes ambientes de alto desempenho (High Performance Computing – HPC). FReMI utiliza protocolos de internet para comunicar com o W-FReDoW, o qual auxilia na redução da dimensão do modelo FFR por meio de um padrão de dados. Além disso, FReMI envia tarefas de simulações de docagem para serem executadas em um cluster dedicado e também em um alternativo modelo de cluster virtual construído por meio de nuvens de computadores elásticos da Amazon (Amazon’s Elastic Compute Cloud – EC2). Os resultados apresentam uma arquitetura conceitual do FReMI e dois conjuntos de experimentos a partir da execução do FReMI.O primeiro conjunto relatou os experimentos realizados com FReMI, usando uma amostra de snapshots a partir de um modelo FFR e os dois ambientes HPC. O segundo conjunto descreveu os experimentos, com um conjunto de dados completo, executando FReMI e W-FReDoW apenas em um ambiente de cluster MPI construído com as instâncias da Amazon EC2. Os resultados do último conjunto de experimentos apresentaram uma redução na dimensionalidade do modelo FFR, transformando ele um modelo de receptor flexível totalmente reduzido (Reduced Fully-Flexible Receptor Model – RFFR), por meio do descarte de conformações não promissoras identificadas pelo W-FReDoW. Além disso, a redução do tempo total de execução do FReMI com o W-FReDoW foi entre 10 a 30% a partir da execução separada do FReMI, e de aproximadamente 94% do FReMI a partir da sua respectiva execução sequencial.
222

Um workflow científico para a modelagem do processo de desenvolvimento de fármacos assistido por computador utilizando receptor flexível

Machado, Karina dos Santos January 2007 (has links)
Made available in DSpace on 2013-08-07T18:42:43Z (GMT). No. of bitstreams: 1 000391202-Texto+Completo-0.pdf: 2565991 bytes, checksum: a1f131e3f03bd916c91d19ddca5c04ff (MD5) Previous issue date: 2007 / Computer assisted drug design (CADD) is a process involving the sequential execution of many computer programs, where the output of one program is the input for the next, ensuring that the ligand, a small molecule, optimally binds to its receptor, often a protein or enzyme. This process is usually executed using shell scripts whose input parameters modification and result analysis are complex and time consuming. Moreover, in order to explicitly consider the receptor flexibility during docking experiments, it is necessary to use thousands of receptor snapshots. These snapshots are obtained from a molecular dynamics simulation trajectory of the receptor. Due to the challenges in handling a large number of receptor snapshots and the need of a better execution control of a number of different computer programs, this work presents an integrated scientific workflow solution aiming at the automation of a flexible and efficient CADD process, with explicit inclusion of receptor flexibility. The JAWE and Shark software were used to model and execute the workflow, respectively. Even with automation, there still are problems with the number of receptor snapshots. The time spend during the execution of one process considering about three thousands receptor’s snapshots is about 500 hours. To overcome this problem, was developed a procedure for snapshot selection based on the free binding energy (FEB). Thus, during selective docking experiments, a smaller number of snapshots are used: those that had the best results of FEB during an exhaustive experiment with a reference ligand. To validate its implementation and selection we performed docking experiments with the M. tuberculosis enzyme InhA as the receptor and five different ligands. Some of theses experiments were extensively performed, considering all receptor snapshots, and some were selectively performed. The results illustrate the efficiency of the proposed workflow and implementation of the CADD process as well as the method for the receptor snapshots selection. / O desenho de drogas assistido por computador (CADD) é um processo que envolve a execução seqüencial de diferentes programas, no qual é testado se um determinado ligante (pequena molécula) interage bem com um receptor (geralmente uma proteína ou enzima). Esse processo geralmente é executando com o auxílio de shell scripts. Porém a modificação dos parâmetros de entrada e análise dos resultados nesse tipo de abordagem é uma tarefa complexa e que consome muito tempo. Além disso, para considerar a flexibilidade do receptor durante experimentos de docking, é necessário que se utilize milhares de snapshots do receptor. Neste trabalho, esses snapshots são obtidos da trajetória de simulações por dinâmica molecular do receptor. Devido aos desafios associados à manipulação desse grande número de snapshots do receptor e à necessidade de um melhor controle sobre os diferentes programas associados a esse processo, esse trabalho apresenta um workflow científico para automação do processo de desenvolvimento de drogas assistido por computador, incluindo de forma explícita a flexibilidade do receptor. Os softwares JAWE e Shark foram utilizados para modelar e executar respectivamente o workflow. Mesmo com essa automação no processo, ainda há problemas relacionados ao número de snapshots do receptor que deve ser utilizado. O tempo necessário para a execução de experimentos de docking, considerando aproximadamente três mil snapshots do receptor, é em torno de 500 horas. Para simplificar e agilizar esse processo, foi desenvolvida uma forma de seleção de snapshots baseado na energia livre de ligação (FEB). Assim, durante os experimentos de docking, chamados de docking seletivo, somente uma parte dos snapshots são utilizados: aqueles que obtiveram os melhores resultados de interação em termos de FEB durante um experimento exaustivo com um determinado ligante. Para validar essa implementação e seleção, foram executados experimentos de docking com a enzima InhA de M. tuberculosis como receptor e cinco ligantes diferentes. Os resultados desses experimentos ilustram a eficiência do workflow implementado e da forma de seleção de snapshots do receptor que está sendo realizada.
223

Uma proposta para a predição computacional da estrutura 3D aproximada de polipeptídeos com redução do espaço conformacional utilizando análise de intervalos

Dorn, Márcio January 2008 (has links)
Made available in DSpace on 2013-08-07T18:42:43Z (GMT). No. of bitstreams: 1 000399881-Texto+Completo-0.pdf: 3533066 bytes, checksum: e2d1ae8a7aab3f836474380e9a96e7c0 (MD5) Previous issue date: 2008 / Proteins are polypeptides formed by a long chain of amino acids residues which, in physiological conditions (native environment), adopt a unique three-dimensional (3-D) structure. These macromolecules are involved in most of the molecular transformations in the living cells. The native structure of a protein dictates its biochemical function. Hence, knowledge of a protein structure allows one to interfere with it, either by enhancing or inhibiting its function, such as in diseases in which the drug targets are proteins. Experimentally, the 3-D structure of a protein is obtained by techniques such as X-ray diffraction crystallography or nuclear magnetic resonance. However, due to the high cost and time demanded by these techniques, determination of the 3-D structure of a protein is a problem that still challenges the scientists. Many computational protein structure prediction methods have been proposed along the last years in order to address this problem. These methods are organized into two major groups. The first group comprehends comparative homology modelling and knowledge-based methods such as fold recognition via threading. The second group is made up by ab initio and de novo methods. However, these methods also have limitations: comparative homology modelling can only predict structures of proteins with amino acid sequences nearly identical or similar to other protein sequences of known structure in the protein Data Bank (PDB). Ab initio and de novo methods can predict new folds, but the complexity and high dimensionality of the search space, even for a small protein molecule, makes the problem computationally intractable. Despite the relative success of these prediction methods for small proteins and polypeptides, efforts are still needed to develop novel strategies for extracting and manipulating experimental data and to develop methods that use these data for correctly predicting a protein 3-D structure from its amino acid sequence only. In this dissertation we present a new computational method to predict approximate 3-D structure of polypeptides and proteins. A new algorithm was developed, based on information analysis obtained from PDB templates. Data mining techniques, intervals representation and treatment of experimental structural information are used in this algorithm. The polypeptide main chain torsion angles intervals, for each amino acid residue, are reduced with the objective to find a closed interval that contains the conformation with the lowest potential energy. Six case studies illustrate applications of the proposed method. / As proteínas são polipeptídeos formados por uma longa cadeia covalente de resíduos de aminoácidos que, em condições fisiológicas (ambiente nativo), adota uma topologia 3D única. Estas macromoléculas estão envolvidas na maior parte das transformações moleculares nas células vivas. A estrutura nativa dita a função bioquímica específica da proteína. Conhecer a estrutura 3D da proteína implica em também conhecer a sua função. Assim, conhecendo a sua estrutura é possível interferir ativando ou inibindo a sua função, como nas doenças onde os alvos dos fármacos são as proteínas. Experimentalmente, a estrutura 3D de uma proteína pode ser obtida através de técnicas de cristalografia por difração de raios X ou por ressonância magnética nuclear. Porém, devido às diversas dificuldades, incluindo o alto custo e o elevado tempo demandado por estas técnicas, a determinação da estrutura 3D de proteínas ainda é um problema que desafia os cientistas. Diversos métodos de predição in sílico foram criados durante os últimos anos buscando a solução deste problema. Estes métodos estão organizados em dois grandes grupos. Ao primeiro, pertencem os métodos de modelagem comparativa por homologia e métodos baseados em conhecimento como os de alinhavamento (threading). Ao segundo, pertencem os métodos ab initio e os métodos de novo. No entanto, estes métodos de predição possuem limitações: métodos baseados em modelagem comparativa por homologia e alinhavamento somente podem realizar a predição de estruturas que possuem seqüências idênticas ou similares à outras proteínas armazenadas no Protein Data Bank (PDB). Métodos de novo e ab initio, por sua vez, tornam possível a obtenção de novas formas de enovelamento. Entretanto, a complexidade e a grande dimensão do espaço de busca conformacional, mesmo para uma pequena molécula de proteína, torna o problema da predição intratável computacionalmente (Paradoxo de Levinthal). Apesar do relativo sucesso obtido por estes métodos para proteínas de pequeno tamanho, muitos esforços ainda são necessários para o desenvolvimento de estratégias para extração e manipulação de dados experimentais, bem como o desenvolvimento de metodologias que façam utilização destas informações com o propósito de predizer corretamente, a partir apenas da seqüência de aminoácidos de uma proteína, a sua estrutura 3D. Nesta dissertação é apresentada uma nova proposta para a predição in sílico da estrutura 3D aproximada de polipeptídeos e proteínas. Um novo algoritmo foi desenvolvido, baseando-se na análise de informações obtidas de moldes do PDB. Técnicas de mineração de dados, representação de intervalos e de manipulação das informações estruturais são utilizadas neste algoritmo. Os intervalos de variação angular de cada resíduo de aminoácido da cadeia polipeptídica são reduzidos como o objetivo de encontrar um intervalo fechado que contém a conformação com a menor energia potencial. Seis estudos de caso demonstram a aplicação do método desenvolvido.
224

Smart execution of molecular docking simulations of a fully-flexible receptor model

Frantz, Fábio André January 2012 (has links)
Made available in DSpace on 2013-08-07T18:42:49Z (GMT). No. of bitstreams: 1 000439095-Texto+Completo-0.pdf: 3289381 bytes, checksum: eb6fc534e5a9d631dbafb97aa0a9c407 (MD5) Previous issue date: 2012 / Molecular docking simulations of Fully-Flexible Receptor (FFR) models are coming of age. However, they demand parallelization of computing activities for their executions and generate huge amounts of data that needs to be analyzed. Many Task Computing (MTC) is an attractive paradigm routinely applied to execute intensive tasks. In this work we propose an environment to execute molecular docking simulations of FFR models to small molecules integrated with an MTC middleware. This environment is based on a new pattern called Self-adapting Multiple Instances (P-SaMI) that provide rules to reduce the number of experiments, providing a Reduced Fully-Flexible Receptor (RFFR) model. The main contribution of this research is to prove that P-SaMI rules can be used on Molecular Docking Simulations through a web environment integrated with an MTC middleware. / Simulações de docagem molecular com modelos de Receptores Totalmente Flexíveis (FFR) estão adquirindo maturidade. No entanto, isto demanda atividades computacionais de paralelização para geração e execução de grande volume de dados que precisam ser analizados. Computação multi-tarefa é um paradigma atrativo e que vem sendo aplicado frequentemente para executar tarefas intensivas. Neste trabalho propomos um ambiente para executar simulações de docagem molecular no modelo FFR com pequenas moléculas integradas a um componente MTC. Este ambiente é baseado no padrão Múltiplas Instâncias Autoadaptáveis (P-SaMI) que possui regras para redução do número de experimentos, provendo um modelo de Receptores Totalmente Flexíveis Reduzido (RFFR). A principal contribuição desta pesquisa está na comprovação de que as regras do P-SaMI podem ser usadas em Simulações de Docagem Molecular através de um ambiente web integrado com um componente MTC.
225

Parallel self-verified solver for dense linear systems

Kolberg, Mariana Luderitz January 2009 (has links)
Made available in DSpace on 2013-08-07T18:43:07Z (GMT). No. of bitstreams: 1 000415011-Texto+Completo-0.pdf: 9818822 bytes, checksum: 000259a328a840b445d92337ab6707ce (MD5) Previous issue date: 2009 / This thesis presents a free, fast, reliable and accurate solver for point and interval dense linear systems. The idea was to implement a solver for dense linear systems using a verified method, interval arithmetic and directed roundings based on MPI communication primitives associated to optimized libraries, aiming to provide both self-verification and speed-up at the same time. A first parallel implementation was developed using the C-XSC library. However, the CXSC parallel method did not achieve the expected overall performance since the solver was not 100% parallelized due to its implementation properties (special variables and optimal scalar product). C-XSC did not seem to be the most efficient tool for time critical applications, consequently we proposed and implemented a new sequential verified solver for dense linear systems for point and interval input data using both infimum-supremum and midpoint-radius arithmetic based on highly optimized libraries (BLAS/ LAPACK). Performance tests showed that the midpointradius algorithm needs approximately the same time to solve a linear system with point or interval input data, while the infimum-supremum algorithm needs much more time for interval data. Considering that, midpoint-radius arithmetic was the natural choice for the next step of this work: the parallel implementation. We then developed a new parallel verified solver for point and interval dense linear systems using midpoint-radius arithmetic, directed roundings and optimized libraries (PBLAS/ ScaLAPACK). The performance results showed that it was possible to achieve very good speed-ups in a wide range of processor numbers for large matrix dimensions for both point and interval input data. In order to overcome the memory limitation imposed by the generation of the whole matrix in one processor, we decided to generate sub-matrices of the input matrix individually on each available node, allowing a better use of the global memory. These modifications made it possible to solve dense systems with up to 100 000 dimension. In addition to that, in order to investigate the portability of the proposed solution, during this thesis, tests were performed using 3 different clusters in Germany (ALiCEnext, XC1 and IC1) with distinct configurations presenting significant results, indicating that the parallel solver scales well even for very large dense systems over many processors. Further investigations were done in two directions: study of the use of dedicated threads to speed up the solver of dense linear systems on shared memory, specially dual-core processors and the use of the ideas presented in this thesis to speed-up the C-XSC library. / Esta tese apresenta uma ferramenta de resolução de sistemas lineares densos pontuais e intervalares. As principais características desta ferramenta são rapidez, confiabilidade e precisão. Esta ferramenta é baseada em um método de resolução de sistemas densos verificado usando arredondamentos direcionados e aritmética intervalar associados a bibliotecas otimizadas e primitivas MPI para prover resultados confiáveis e alto desempenho. A primeira versão paralela foi desenvolvida usando a biblioteca C-XSC. Esta versão não alcançou o desempenho global esperado uma vez que não foi paralelizada totalmente devido a particularidades do C-XSC (variáveis especiais e produto escalar ótimo). Como o C-XSC não se mostrou eficiente para aplicações de grande porte, foi proposta e implementada uma nova versão seqüencial para sistemas lineares densos usando tanto a aritmética de ínfimo e supremo como a aritmética de ponto médio e raio, baseada nas bibliotecas BLAS e LAPACK. Testes de desempenho mostraram que o algoritmo que implementa a aritmética de ponto médio e raio possui um desempenho melhor do que o algoritmo que implementa a aritmética de ínfimo e supremo. Considerando este resultado, a aritmética de ponto médio e raio foi escolhida para a próxima etapa: a implementação paralela. Uma versão paralela para solução de sistemas lineares pontuais e intervalares densos foi então desenvolvida utilizando a aritmética de ponto médio e raio, arredondamentos direcionados e as bibliotecas otimizadas PBLAS e ScaLAPACK. Os resultados mostraram que foi possível alcançar um bom desempenho utilizando um número de processadores variado e proporcionando considerável aceleração na obtenção dos resultados para diferentes tamanhos de matrizes (pontuais e intervalares).A fim de superar as limitações impostas pelo uso da memória na geração de toda a matriz em um só processador, uma nova versão foi implementada. Esta versão gera as sub-matrizes da matriz principal em cada processador, permitindo uma melhor utilização da memória global disponibilizada pelo Cluster. Estas alterações tornaram possível resolver sistemas densos de dimensão 100 000. Para investigar a portabilidade da solução proposta, os testes foram realizados em 3 Clusters diferentes na Alemanha (ALiCEnext, XC1 e IC1). Cada um destes Clusters possui configurações distintas e apresentaram resultados significativos, indicando que a versão paralela possui uma boa escalabilidade para sistemas lineares muito grandes usando um número variado de processadores. Outros estudos foram realizados em duas direções. O primeiro diz respeito ao uso de threads dedicadas para aumentar o desempenho da solução de sistemas lineares usando memória compartilhada (em especial para processadores dual-core). Também foi estudada a utilização dessas idéias para aumentar o desempenho da solução usando C-XSC.
226

Um estudo sobre a predição da estrutura 3D aproximada de proteínas utilizando o método CReF com refinamento

Dall'Agno, Karina Cristina da Motta January 2012 (has links)
Made available in DSpace on 2013-08-07T18:43:36Z (GMT). No. of bitstreams: 1 000438289-Texto+Completo-0.pdf: 4232980 bytes, checksum: 881bd64c55df7a95a458dac98379df88 (MD5) Previous issue date: 2012 / One of the most important problems in Structural Bioinformatics is to understand how the information coded in linear sequence amino acids, or primary structure, is translated into the three-dimensional structure of a protein. Many algorithms proposed solutions to this complex problem of NP-complete class. One of them is the CReF method (Central Residue Fragment-based) which makes prediction of approximate 3-D structure of proteins and polypeptides. The method uses data mining techniques to group data structures, showing good secondary structure prediction, good performance at low machine cost, but has problems in the prediction of turns and loops regions and usability. Valuing the different characteristics of CReF and seeking to evolve it, this work proposes improvements to CReF. After the initial stage of understanding the tool and making changes to turn it executable on the current state of data banks and support tools, two categories of improvements to make were identified. The technical improvements aimed to automate CReF, adapting it to the environment and emphasizing usability. In the method‟s improvements variations on the amount of groups were tested for data mining with the Expectation Maximization algorithm in Weka. Tests indicated that the best results for the initial conformation were for four and six groups, hence we decided to allow the user to select the amount of groups.A new mapping of the data in the Ramachandran plot indicated some problems that had to be fixed. In the analysis of data mining results, we decided that groups in regions not allowed would be discarded. The new version of CReF generated by the implementation of these improvements standardized the method of secondary structure prediction to use Porter. As a consequence, the rules of selection of data mining groups to represent each amino acids have been changed and extended. The new version has the same initial performance of CReF in prediction and execution, however, the problem of correct predictions of turns and loops remained. This problem was addressed through a refinement protocol, based on simulations by the molecular dynamics method, which presented a significant result for the target protein 1ZDD. / Um dos principais desafios da Bioinformática Estrutural é entender como a informação decodificada em uma sequência linear de aminoácidos, ou estrutura primária de uma proteína, possibilita a formação de sua estrutura tridimensional. Muitos algoritmos buscam propor soluções para o problema complexo da classe NP-completo. Dentre eles, está o método CReF (Central Residue Fragment-based method) que realiza a predição da estrutura 3D aproximada de proteínas ou polipeptídios. O método usa técnicas de mineração de dados para agrupar dados de estruturas, apresentando boa predição de estruturas secundárias, bom desempenho em máquina de baixo custo, mas enfrenta problemas na predição das regiões de voltas e alças e na usabilidade. Valorizando as características diferenciadas do método e buscando sua evolução, este trabalho propôs-se a realizar melhorias no CReF. Após uma etapa inicial de entendimento e adaptações para tornar a ferramenta executável na situação atual dos bancos de dados e ferramentas de apoio, foram identificadas duas categorias de melhorias. As melhorias técnicas tiveram por objetivo automatizar a ferramenta, adaptá-la ao ambiente e ao usuário enfatizando usabilidade. Para melhorias no método realizaram-se testes com variação na quantidade de grupos identificados na etapa de mineração de dados com o algoritmo Expectation Maximization (EM) no Weka. Os testes indicaram que as melhores conformações iniciais eram obtidas com quatro e seis grupos, assim, optou-se por permitir ao usuário a escolha dos grupos a considerar. Um novo mapeamento do mapa de Ramachandran indicou ajustes que foram corrigidos e decidiu-se descartar grupos identificados nas regiões não permitidas na análise do resultado da mineração de dados.A nova versão do CReF, gerada pela implementação dessas melhorias, também padronizou o método de predição de estrutura secundária, passando a utilizar o método Porter. Como consequência, as regras para escolha do grupo resultante da mineração a representar cada aminoácido foram adaptadas e ampliadas para atender novas situações. A nova versão manteve o desempenho de predição e execução iniciais do CReF, entretanto, manteve o problema das voltas e alças. Este problema de otimização das regiões de voltas e alças foi endereçado por meio do desenho e aplicação de um protocolo de refinamento, baseado em simulações pelo método da dinâmica molecular, o qual apresentou um resultado expressivo para a proteína alvo de código PDB 1ZDD.
227

Um modelo híbrido para o WSD em biomedicina

Goulart, Rodrigo Rafael Vilarreal January 2013 (has links)
Made available in DSpace on 2013-08-07T18:43:20Z (GMT). No. of bitstreams: 1 000448850-Texto+Completo-0.pdf: 2763654 bytes, checksum: 430bc12ce50b74821fe6a8aa37994260 (MD5) Previous issue date: 2013 / This work studies Word Sense Disambiguation (WSD) in the Biomedicine domain for English language, using external knowledge sources. Among the existing proposals for the selection of a sense for an ambiguous word, there is the graph-based approach. This approach uses a metric in the evaluation of graphs containing candidates to the correct sense for the ambiguous word. In this research, a set of metrics is analyzed individually, and, based on this evaluation, we propose a hybrid model for the selection of the metrics in order to determine the most adequate metric to be employed. The model makes use of a set of features and heuristics that determine a semi-supervised solution for WSD. The results obtained with experiments show an improvement in performance and reveal new perspectives of research. The proposed model raises the hit rate to 68,48%, increasing significantly in 3,52% the rate reported in literature. / Este trabalho estuda o Word Sense Disambiguation no domínio da Biomedicina, para a língua inglesa, com uso de fontes externas de conhecimento. Dentre as propostas existentes para a seleção de um sentido para uma palavra ambígua, está a abordagem baseadas em grafos. Essa abordagem emprega uma métrica na avaliação de grafos que contêm candidatos ao sentido correto da palavra ambígua. Nesta pesquisa um conjunto de métricas é analisado individualmente e, com base nas avaliações, propõe-se um modelo híbrido de seleção de métricas com o objetivo de determinar a métrica mais adequada a ser empregada. O modelo faz uso de um conjunto de features e heurísticas que determinam uma solução semi-supervisionada para o WSD. Os resultados obtidos com experimentos apontam melhoria na performance e revelam novas perspectivas de pesquisa. O modelo proposto eleva a taxa de acerto a 68,48%, aumentando significativamente em 3,52% a taxa reportada na literatura.
228

Moedor de Pixels : interfaces, interações e audiovisual

Vieira, Jackson Marinho 08 April 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Artes, Programa de Pós-Graduação em Arte, 2016. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2016-06-02T13:11:00Z No. of bitstreams: 1 2016_JacksonMarinhoVieira.pdf: 19381366 bytes, checksum: 7e3907c4fdfa466c262c96b67b49ccc9 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2016-06-17T21:58:00Z (GMT) No. of bitstreams: 1 2016_JacksonMarinhoVieira.pdf: 19381366 bytes, checksum: 7e3907c4fdfa466c262c96b67b49ccc9 (MD5) / Made available in DSpace on 2016-06-17T21:58:00Z (GMT). No. of bitstreams: 1 2016_JacksonMarinhoVieira.pdf: 19381366 bytes, checksum: 7e3907c4fdfa466c262c96b67b49ccc9 (MD5) / Moedor de Pixels: interfaces, interações e audiovisual é uma pesquisa teórica e prática sobre obras de arte que empregam meios audiovisuais e computacionais em contextos onde a participação e a interação do público tornam-se o centro da experiência estética. O estudo sugere que a videoarte envolve novos procedimentos na tecnologia do vídeo que deram impulso para explorações mais extensas no campo da arte mídia interativa. A pesquisa também destaca como a inclusão dos meios digitais fornece experiências de interação audiovisual mais híbridas e iversificadas. E com o reconhecimento de diferentes estratégias para a construção de interfaces interativas, a pesquisa conta com a construção dos projetos Tv Descarga e Moedor de Pixels. Baseados em tecnologias livres (Linux, Arduíno e Pure Data) os projetos se dedicam à exploração de relações inusitadas entre meios digitais e objetos de uso cotidiano. Tv Descarga é um televisor adaptado que propõe a intervenção do público na construção de poesias aleatórias geradas por computador. Moedor de Pixels é um controlador audiovisual que combina em uma mesma interface moedor de carne, oscilador gráfico sonoro e efeito de retroalimentação de vídeo. Ambas são capazes de conceber dinâmicas audiovisuais diretamente ligadas a processos interativos mediados por computador. ________________________________________________________________________________________________ ABSTRACT / Pixels Grinder: interfaces, interactions, audiovisual is a theoretical and practical research investigating works of art that use audiovisual and computer media in contexts where participation and interaction of the public become the aesthetic experience center. The study suggests that video art involves new procedures in video technology that drove for more extensive explorations in the field of interactive media art. The research also highlights the inclusion of digital media provides audiovisual interaction experiences more hybrid and diverse. With the recognition of different strategies for the construction of interactive interfaces, this work includes the production of two projects, Flush TV and Pixels Grinder. Based on free technologies (Linux, Arduino and Pure Data) projects experience unusual relationship between digital media and everyday objects. Flush TV is an adapted television set proposing the intervention of the public in the construction of random computer-generated poetry. Pixels Grinder is an audiovisual controller that combines in a single interface: meat grinder, sound graphic oscillator and the effect of video feedback. Both of them provide dynamic audiovisual directly linked to interactive processes mediated by computer.
229

Influência da densidade ambiental na estrutura de discos de galáxias edge-on

Vale, Tibério Borges January 2010 (has links)
Neste trabalho buscamos estudar a influencia da densidade ambiental sobre a estrutura de discos galácticos (fino e espesso). Estamos interessados em obter os parâmetros estruturais, como escalas de altura e de comprimento (radial) dos discos fino e espesso de galáxias em ambientes de alta densidade, como grupos compactos de Hickson e aglomerados Abell, e depois compará-los aos parâmetros de galáxias de campo. Para isto, apresentamos um modelo computacional bidimensional de discos galácticos, com diferentes frações relativas de brilho, para a obtenção dos parâmetros estruturais. O modelo foi testado com simulações e também comparado com resultados de ajuste de perfil feitos anteriormente. Este modelo é aplicado sobre nove galáxias, sendo uma de campo e oito em regiões de alta densidade. Através da analise de catálogos da literatura, obtemos contrastes de densidade ambientais para estas galáxias e assim, traçamos as relações entre estrutura e densidade ambiental. Estudamos também as mesmas relações para uma amostra disponível na literatura. Constatamos que não ha uma correlação visível entre as escalas horizontal e vertical dos discos galácticos e a densidade ambiental. Discutimos brevemente as conseqüências desses resultados para os modelos de efeitos ambientais. / In this thesis we investigate the influence of environment density over the structure of galactic discs, both thin and thick. We are interested in extracting structural parameters, such as scalelengths and scaleheights, of discs in galaxies located in high density environments, such as Hickson Compact Groups and Abell clusters, in order to compare them to their counterparts in the field. For that purpose we developed a computational bidimensional model of galactic discs, of different brightnesses. The model was tested with simulations and also confronted to the results of previously done profile fitting. The model was applied to nine galaxies, one of them in the field and the remaining in high density regions. We used galaxy catalogs from the literature in order to estimate density contrasts around these galaxies. We then correlated these densities with disc structure parameters. We also studied the same relation for a sample available in the literature. We concluded that there is no clear correlation between scalelengths and scaleheights and environmental densities. Finally, we briefly discuss the consequences of these results for models that describe environmental effects.
230

Mudanças conformacionais envolvidas na ativação interfacial de fosfolipases A2 - uma análise computacional

Oliveira, Tiago Charão de January 2006 (has links)
Fosfolipases A2 constituem uma família de enzimas interfaciais que catalisam a hidrólise de fosfolipídios de membrana na posição sn-2. Nas fosfolipases cataliticamente ativas (FLA2 D49), o resíduo Asp49 possui um importante papel na coordenação do íon cálcio divalente que auxilia na estabilização do intermediário tetraédrico. Nesse trabalho, foram realizadas simulações por dinâmica molecular (DM) de uma fosfolipase secretada de veneno de Agkistrodon halys pallas utilizando como solventes: água, metanol e octanol. Devido à baixa afinidade do íon cálcio em ambientes aquosos, diferentes forças de restrição foram aplicadas nesse íon e mediu-se o comportamento desse, através da variação da sua distância em relação ao resíduo Asp49. Todas as simulações foram realizadas por um período de tempo de 5 ns, somando um total de 45 ns de simulação, utilizando o pacote GROMACS implementado com o campo de força GROMOS96 43a2. Os resultados mostraram uma série de mudanças conformacionais importantes na fosfolipase durante a sua aproximação à superfície da membrana, como o aumento da área acessível ao solvente e a reorientação de cadeias laterais de resíduos com importância catalítica. Os dados obtidos com as simulações foram utilizados para propor um modelo interfacial de ativação para FLA2sv. Desta forma, os principais eventos associados com a ativação de FLA2sv envolvem: a) a reorganização da alça de coordenação de cálcio na proximidade da membrana, seguida pela captura do íon Ca2+; b) a reorientação da cadeia lateral de Trp31, que irá definir um novo sítio de especificidade para a cadeia fosfolipídica; c) a redução da distância entre os resíduos His48 e Asp49, para aumentar a nucleofilicidade da His48; d) a reorientação da cadeia lateral do resíduo Lys69 concomitante com a projeção da alça-69 para o solvente, resultando no aumento da acessibilidade ao sítio ativo. Assim, esses resultados, em adição ao conhecimento bioquímico e a dados cristalográficos, abrem acesso a uma compreensão mais detalhada dos mecanismos moleculares associados com a ação de fosfolipases A2. / Phospholipases A2 (PLA2) are interfacial active enzymes that catalyze hydrolysis at the sn-2 position of membrane phospholipids. In the catalytic active PLA2 (D49 PLA2), the Asp49 residue plays a key role in the coordination of the calcium ion that assists in the stabilization of the transition state intermediary. Despite the catalytic importance of Ca2+, it has low affinity for the sPLA2 active site. Molecular dynamics simulations of a D49 svPLA2 from Agkistrodon halys pallas were performed in aqueous environment, methanol and octanol. Because of the svPLA2 low affinity for the calcium ion in aqueous systems, different restrain forces were applied on Ca2 + and evaluated with respect to ion coordination with key residues. All simulations were performed for a time period of 5 ns using the GROMACS package with GROMOS96 43a2 force field. The results have showed a series of important conformation changes of sPLA2v during its approaches to membrane surface, as the increase of the solvent accessible surface area and the reorientation of side chains of residues of catalytic importance. Analyses of the simulations data were utilized to propose an interfacial activation model for svPLA2. According, the principal events associated with svPLA2 activation involve: a) the reorganization of calcium binding loop at membrane proximity followed by the Ca2+ up take; b) side chain reorientation of Trp31, which will define a new specificity pocket for the phospholipid chain; c) reduction of the distance between His48 and Asp49, in order to increase the nucleophilicity of His48; d) side chain reorientation of Lys69 concomitant with the projection of the 69-loop to solvent resulting in an increase of the active site accessibility. These results, in addition with biochemical and crystallographic data knowledge, open access to a more detailed understanding for the molecular mechanism associated with the interfacial activation of phospholipases A2.

Page generated in 0.0652 seconds