• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 538
  • 36
  • 5
  • 2
  • Tagged with
  • 584
  • 161
  • 129
  • 99
  • 99
  • 82
  • 80
  • 73
  • 71
  • 57
  • 57
  • 55
  • 51
  • 47
  • 45
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Sistema integrado para geração, análise e dimensionamento de estruturas de aço

Carvalho, Paulo Roberto Marcondes de January 1999 (has links)
O presente trabalho apresenta um sistema computacional, denominado ST_SuperFrame, desenvolvido para assistir ao projeto de estruturas de aço. Esse sistema contempla a geração de dados, análise e dimensionamento de estruturas reticuladas de aço, utilizando as formas estruturais e os perfis mais empregados na construção metálica brasileira. O exigente mercado de Engenharia Estrutural sempre apontou para a necessidade de se buscar soluções integradas para o Cálculo - Análise e Dimensionamento – procurando deixar de lado procedimentos realizados por programas isolados, só de análise ou só de dimensionamento. Esse sistema supre, então, essa carência histórica do mercado: a ausência de softwares integrados cálculo-projeto, adequados à realidade das estruturas de aço que se faz no País. Dirigido especialmente para Engenheiros Projetistas e Empresas Construtoras metálicas, esse sistema mostra-se uma útil ferramenta no pré-dimensionamento/orçamentação de estruturas e, principalmente, na confecção do projeto estrutural final. Além de dispor de recursos ímpares, como uma biblioteca de treliças padrão, para a geração automática de dados, o sistema possui um módulo interativo de dimensionamento onde estão disponíveis os perfis de chapa dobrada e perfis laminados mais empregados no dia a dia de um escritório de projetos. Como tema central desse trabalho foram criados e implementados os procedimentos para verificação do Perfil Qualquer: perfil com forma genérica, aberto, de chapa dobrada. Essa providência soluciona uma antiga dificuldade sentida pelos projetistas de estruturas metálicas: se já é necessário muito trabalho de cálculo para determinarem-se as características geométricas de perfis com forma diferenciada, mais difícil se torna a determinação da resistência à compressão desse perfil.
52

Modelo híbrido de rede de associação proteica

Ferreira, Ricardo Melo January 2011 (has links)
Dado o grande número de proteínas presentes em um organismo, as associações funcionais entre elas são estudadas através da teoria de redes, com intuito de verificar suas propriedades estatísticas. Diversos modelos de crescimento têm sido propostos para representar as redes de associação proteica. Estes buscam principalmente reproduzir uma distribuição de grau na forma de lei de potência. Entretando, a distribuição de grau das redes de associação proteica não é uma lei de potência pura e outras medidas da rede, como alta clusterização e assortatividade, também não são adequadamente reproduzidas por estes modelos. Neste trabalho procuramos reproduzir as propriedades topológicas das redes de associação proteica. Propomos um modelo baseado em premissas biológicas que considera como fundamental a topologia local da rede para determinar a regra de crescimento. Este modelo reproduz as principais medidas das redes de associação proteica, e a investigação da proposta topológica local pode contribuir para a compreensão biológica dos mecanismos de crescimento do genoma. / Given the large number of proteins in a living being, the functional associations between them are studied as networks, in order to verify its statistical properties. Many models of growing networks have been proposed to represent the protein association networks. These models try to reproduce a power law degree distribution. However, the degree distribution of the protein association networks are not a pure power law, and other measures, such as high clustering coefficient and assortativity, are not correctly reproduced by these models. In this work we try to reproduce the topological properties of protein association networks. We propose a biologicaly based model which considers the local network topology as a fundamental ingredient in determining the network growth rule. This model reproduces the essential measures of the protein association networks and the investigation of the local topology proposition may contribute to the biological understanding of the genome growth mechanisms.
53

Comparação entre resultados experimentais e computacionais do comportamento térmico de um ambiente

Grings, Edi Terezinha de Oliveira January 2003 (has links)
O presente trabalho apresenta uma comparação entre resultados computacionais, obtidos através do "software" EnergyPlus e experimentais do comportamento térmico de um ambiente condicionado e não condicionado. Para tanto, monitoraram-se os dados climáticos de radiação, velocidade do vento e temperatura, no período de 11 a 20 de janeiro de 2002 e produziu-se um arquivo climático. Simultaneamente, fez-se a aquisição das temperaturas de uma sala-teste, localizada no terceiro pavimento de um prédio na cidade de Porto Alegre, bem como das salas adjacentes. As temperaturas do ar de insuflamento e de retorno dos condicionadores de ar, localizados na sala-teste, foram medidas durante o dia, em seis dias do período de monitoramento. Mediu-se também a velocidade do ar de retorno e determinou-se a potência sensível de refrigeração. Os ganhos de calor interno da sala também foram medidos e utilizaramse as formulações apresentadas pela ASHRAE, 2001, para determiná-los em relação às pessoas e à infiltração. Tais dados foram declarados ao programa como variáveis de entrada. As simulações do comportamento térmico da sala-teste foram implementadas informando-se ao programa a temperatura das salas ou os coeficientes de uma equação representativa das mesmas. Por considerar que a primeira representava melhor as condições térmicas das salas contíguas, utilizou-se esta modalidade para análise As simulações foram conduzidas, alterando-se opções fornecidas pelo programa: modelo de céu isotrópico e anisotrópico, coeficiente de convecção simples e detalhado. Os resultados da carga térmica e temperatura ambiente da sala-teste obtidos nas simulações foram comparados com os dados experimentais do período de monitoramento. A melhor concordância foi obtida para o modelo anisotrópico, coeficiente de convecção detalhado. Constatou-se uma grande discrepância entre as cargas térmicas, para o modelo de convecção simples. Assim, conclui-se que o "software" EnergyPlus representa bem o comportamento térmico de uma edificação "termicamente pesada" para coeficiente de convecção detalhado, necessitando pesquisa para as demais edificações.
54

Estudo da dinâmica de íons em canais iônicos

Camargo, Franco Valduga de Almeida January 2012 (has links)
Canais iônicos são nanoporos aquosos formados por proteínas imersas na membrana celular. Sua função biológica básica é permitir o transporte de íons no sentido de seu gradiente eletroquímico. Dada a enorme quantidade de processos biológicos relacionados ao movimento iônico, a importância dos canais iônicos em biologia e medicina dificilmente pode ser exagerada. Neste trabalho, apresentamos uma introdução à vasta área do conhecimento de canais iônicos, discutimos suas perspectivas em pesquisa básica e aplicada e, em especial, a importância do estudo computacional da permeação iônica por canais. Seguimos analisando o estado da arte em relação a modelos computacionais de canais iônicos e discutindo criticamente as vantagens e desvantagens das abordagens existentes, fazendo considerações sobre suas perspectivas. Concluindo que a técnica de Dinâmica Browniana apresenta potencial para o estudo de propriedades básicas da condução iônica por nanoporos, propomos um modelo simples de canal iônico unidimensional através desta técnica para uma geometria que permite solução analítica da equação de Poisson, a qual é apresentada. A simplicidade do modelo proposto lhe confere grande eficiência computacional, a qual é ampliada com a proposta de um critério de “tempo de injeção” dos íons no canal, cuja expressão é demonstrada e que poupa o simulador de considerar explicitamente dois reservatórios eletrolíticos junto ao canal. O simulador desenvolvido baseado neste modelo é estudado e comparado com a literatura, mostrando bons resultados em sua região esperada de validade. Dado o estágio atual do estudo computacional de canais iônicos, é importante dispormos de modelos conceitualmente simples e computacionalmente eficientes. A sua existência possibilita, por exemplo, estudos de Dinâmica Molecular muito eficientes considerando a água explicitamente, algo importante para a análise de novos modelos da água adequados a nanoporos. / Ion channels are nanopores formed through the cell membrane by proteins. Their basic biological function is allowing ionic transport down the electrochemical gradient. Given the huge amount of biological processes that are related to ionic fluxes, the biological and medical importance of ion channels hardly can be overstated. In this work we present a brief introduction to the vast field of ion channels and discuss its perspectives in basic and applied research, emphasizing the importance of computational approaches to study ion permeation through channels. Next, we analyze the state of the art regarding computational models of ion channels, critically discussing the advantages and disadvantages of the current approaches and considering the perspectives of each. We conclude that the Brownian Dynamics approach has potential to be used to study ionic conductance through nanopores and we propose a simple Brownian Dynamics unidimensional channel model for a geometry that allows analytical solution of the Poisson equation, which is presented. The simplicity of the proposed model grants it great computational efficiency, which is further amplified with the proposal of an “injection time” criterion to allow ions to enter the channel. The formula for the “injection time” is demonstrated and its implementation lifts the requirement to simulate two reservoirs next to the channel. The simulator developed based on this model is studied and its results are compared with the literature, showing good agreement in its expected region of validity. Given the current state of computational study of ion channels, it is important to have simple and efficient models, such as ours, available. For instance, their existence allows the realization of very fast Molecular Dynamics studies that consider water explicitly, something very important for the analysis of new explicitly polarizable water models that are required for nanopores.
55

Detecção e rastreamento da mão utilizando dados de profundidade

Santos, Thalisson Nobre 16 December 2015 (has links)
Submitted by Marcos Samuel (msamjunior@gmail.com) on 2017-02-06T14:27:48Z No. of bitstreams: 1 Dissertação_Thalisson Nobre Santos.pdf: 11550499 bytes, checksum: 61a92c44ea5ebd2cbb3f843e1d6d4092 (MD5) / Approved for entry into archive by Vanessa Reis (vanessa.jamile@ufba.br) on 2017-02-06T15:01:35Z (GMT) No. of bitstreams: 1 Dissertação_Thalisson Nobre Santos.pdf: 11550499 bytes, checksum: 61a92c44ea5ebd2cbb3f843e1d6d4092 (MD5) / Made available in DSpace on 2017-02-06T15:01:35Z (GMT). No. of bitstreams: 1 Dissertação_Thalisson Nobre Santos.pdf: 11550499 bytes, checksum: 61a92c44ea5ebd2cbb3f843e1d6d4092 (MD5) / As interfaces naturais têm demonstrado uma grande importância na interação entre o homem e a máquina, viabilizando desde jogos eletrônicos até a reabilitação de pacientes submetidos a fisioterapia. O rastreamento da mão por câmeras permite implementar tais interfaces, explorando os gestos humanos para controlar algum sistema computadorizado sem a necessidade de contato físico. O método proposto neste trabalho visa detectar e rastrear as mãos utilizando dados de profundidade. Uma vez que tais dados não produzem quantidade suficiente de pontos de interesse (pontos chaves) para a detecção da mão, foi proposto um algoritmo denominado Volume da Normal para exceder a descrição das características presentes nestas imagens, sendo baseado no cálculo do volume do vetor normal de cada pixel atribuindo valores arbitrários para o tamanho deste vetor. O rastreamento da mão é baseado na análise de descritores locais da imagem de profundidade (processada pela Transformada da Distância Euclidiana) e de um conjunto de imagens da mão após aplicação do Volume da Normal, utilizando para isto o algoritmo Oriented FAST and Rotated BRIEF. Um procedimento para a criação de um modelo cinemático da mão foi proposto como estágio inicial para um possível rastreamento contínuo dos dedos numa pesquisa posterior. Ao final, a detecção da mão foi executada a uma velocidade de 7,9 quadros por segundo, alcançando uma taxa de detecção média para detecção de poses do conjunto de treinamento igual a 36,4% e 38,15% para poses variadas. Para detecção de gestos realizados a partir do conjunto de treinamento foi alcançada uma taxa média de 21,94%. Para cenários onde há presença de objetos semelhantes à mão, o detector apresentou uma taxa de precisão igual a 14,72% com um desvio padrão de 3,82%.
56

Roteamento Multirrestrivo em Redes Óptica Translúcidas

Durães, Gilvan Martins 21 January 2014 (has links)
Submitted by Kleber Silva (kleberbs@ufba.br) on 2017-05-31T19:32:11Z No. of bitstreams: 1 Tese - Gilvan Durães.pdf: 4300512 bytes, checksum: 50f96ae437dbb54d3c59fa128e727c3b (MD5) / Approved for entry into archive by Vanessa Reis (vanessa.jamile@ufba.br) on 2017-06-06T14:43:26Z (GMT) No. of bitstreams: 1 Tese - Gilvan Durães.pdf: 4300512 bytes, checksum: 50f96ae437dbb54d3c59fa128e727c3b (MD5) / Made available in DSpace on 2017-06-06T14:43:26Z (GMT). No. of bitstreams: 1 Tese - Gilvan Durães.pdf: 4300512 bytes, checksum: 50f96ae437dbb54d3c59fa128e727c3b (MD5) / Nas redes ópticas translúcidas é possível regenerar o sinal óptico ao longo de uma rota visando restaurar a sua qualidade inicial. Atualmente, considerando-se as limitações de alcance da tecnologia de transmissão por fibra óptica, apenas esse tipo de rede óptica pode compor os backbones de longa distância da Internet. Nos últimos anos, o problema de roteamento e a alocação de comprimento de onda em redes ópticas, conhecido como Routing and Wavelength Assignment tem sido estudado levando em consideração as degradações da camada física óptica, especialmente em redes ópticas translúcidas. No entanto, a literatura é escassa no que diz respeito a algoritmos de roteamento com múltiplas restrições. O objetivo deste trabalho é propor uma nova estratégia de roteamento multirrestritivo para as redes ópticas translúcidas. A evolução da proposta é formada por estratégias pioneiras de roteamento em redes ópticas translúcidas. Este trabalho estende o problema da escolha da menor rota para o caso das redes ópticas translúcidas. Considerando este problema, são propostas novas estratégia de roteamento óptico. Uma dessas estratégias é chamada Best Translucent Shortest Lightpath (BSTL), a qual considera uma restrição por enlace óptico. Além de resolver uma deficiência típica dos atuais algoritmos de roteamento de menor caminho propostos para as redes ópticas translúcidas, a estratégia BSTL caracteriza-se por ser adaptativa e ciente das limitações da camada física óptica. O algoritmo BSTL é comparado com outros algoritmos propostos na literatura, em termos de utilização da rede, probabilidade de bloqueio e justiça no atendimento das requisições. Em todos os cenários avaliados, o algoritmo BSTL apresentou um melhor desempenho. Esta tese apresenta uma nova abordagem de roteamento multirrestritivo para as redes ópticas translúcidas, ciente tanto das restrições relacionadas ao enlace óptico, como das restrições relacionadas ao comprimento de onda e ao nó óptico ao mesmo tempo. Considerando esta abordagem são propostos dois novos algoritmos de roteamento multirrestritivo, chamados Offline Multi-Restricted Routing (Off-MRR) e Multi-Restricted Routing (MRR). Os algoritmos propostos são comparados entre si, em termos de probabilidade de bloqueio, utilização da rede e tempo de execução. O Off-MRR apresentou um melhor desempenho em termos de tempo de execução, enquanto que o MRR alcançou um melhor desempenho em termos de probabilidade de bloqueio, em todos cenários avaliados
57

Métodos de contornos ativos Crisp adaptativo 2D e 3D aplicados na segmentação dos pulmões em imagens de tomografia computadorizada do tórax / Methods active contours Crisp adaptive 2D and 3D segmentation applied in the lungs in CT images of the thorax

Rebouças Filho, Pedro Pedrosa 03 March 2013 (has links)
REBOUÇAS FILHO, P. P. Métodos de contornos ativos Crisp adaptativo 2D e 3D aplicados na segmentação dos pulmões em imagens de tomografia computadorizada do tórax. 2013. 157 f. Tese (Doutorado em Engenharia de Teleinformática) - Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2013. / Submitted by Marlene Sousa (mmarlene@ufc.br) on 2013-06-17T14:32:11Z No. of bitstreams: 1 2013_tese_pprebouçasfilho.pdf: 6036840 bytes, checksum: 85def16e610e2114ec240e3abdded7e8 (MD5) / Approved for entry into archive by Marlene Sousa(mmarlene@ufc.br) on 2013-06-17T16:39:57Z (GMT) No. of bitstreams: 1 2013_tese_pprebouçasfilho.pdf: 6036840 bytes, checksum: 85def16e610e2114ec240e3abdded7e8 (MD5) / Made available in DSpace on 2013-06-17T16:39:57Z (GMT). No. of bitstreams: 1 2013_tese_pprebouçasfilho.pdf: 6036840 bytes, checksum: 85def16e610e2114ec240e3abdded7e8 (MD5) Previous issue date: 2013-03-03 / Computer systems have been playing a very important role in many areas of medicine, particularly, on medical diagnosis through image processing. Therefore, studies on the field of Computer Vision are made to develop techniques and systems to perform automatic detection of several diseases. Among the existing tests that enable the diagnosis and the application of computational system together, there is the Computed Tomography (CT), which allows the visualization of internal organs, such as the lung and its structures. Image analysis techniques applied to CT scans are able to extract important information to segment and recognize details on regions of interest on these images. This work focuses its e↵orts on the stage of lungs segmentation through CT images, using techniques based on Active Contour Method (ACM), also known as snake. This method consists in tracing an initial curve, around or inside the object of interest, wich deform itself according to forces that act over the same, shifting to the object edge. This process is performed by successive iterations of minimization of a given energy, associated to the curve. In this context, this work proposes a new aproach for lung segmentation of chest CT images, which is called Adaptative Crisp Active Contour Method. This ACM is an improvement the previous developed Crisp ACM. The purpose of this new ACM is to increase accuracy, decrease analysis time and reduce segmentation subjectivity in the manual analysis of specialized doctors. This method is proposed to isolated images segmentation or the complete exam, being first in 2D, then expanding to 3D. The 2D Adaptative Crisp ACM is compared to ACMs THRMulti, THRMod, GVF, VFC, Crisp and also with the system SISDEP, being this evaluation performed by using a set of 36 manually segmented images by one pulmonologist. The 3D Adaptative Crisp ACM is applied on lung segmentation in CT exams and compared with the 3D Region Growing method, which segmentation results were evaluated by two pulmonologists. The obtained results shows that the proposed methods are superior to the other methods on lung segmentation in chest CT images, both as in one image by 2D Adaptative Crisp ACM as in full exam by the 3D Adaptative Crisp ACM. Thus, it is possible to conclude that these method can integrate systems to aid medical diagnosis in the field of pulmonology. / Sistemas computacionais vêm desempenhando papel importante em várias áreas da medicina, notadamente no auxílio ao diagnóstico médico por imagem. Neste sentido, estudos na área de Visão Computacional são realizados para desenvolver técnicas e sistemas capazes de detectar automaticamente diversas doenças. Dentre os exames existentes que permitem o auxílio ao diagnóstico e a aplicação de sistemas computacionais em conjunto, destaca-se a Tomografia Computadorizada (TC) que possibilita a visualização de órgãos internos, como por exemplo, o pulmão e suas estruturas. Sistemas de Vis~ao Computacional utilizam estas imagens obtidas por exames de TC para extrair informação por meio de técnicas com a finalidade de segmentar, reconhecer e identificar detalhes da região de interesse nestas imagens. Este trabalho centraliza seus esforços na etapa de segmentação dos pulmões a partir de imagens de TC, empregando-se, para tanto, técnicas baseadas em Método de Contorno Ativo (MCA), também conhecido como emph{snake}. Este método consiste em traçar uma curva inicial, em torno ou dentro de um objeto de interesse, deformando-a conforme algumas forças que atuam sobre a mesma, deslocando-a até as bordas do objeto. Este processo é realizado por iterações sucessivas de minimização de uma dada função energia, associada à curva. Neste contexto, esta tese propõe um novo método para a segmentação dos pulmões em imagens de TC do tórax denominado Método de Contorno Ativo Crisp Adaptativo. Este MCA é o aperfeiçoamento do MCA Crisp desenvolvido em um estudo anterior, que visa aumentar a precisão, diminuir o tempo de análise e reduzir a subjetividade na segmentação e análise dos pulmões dessas imagens pelos médicos especialistas. Este método é proposto para a segmentação de uma imagem isolada ou do exame completo, sendo primeiramente em 2D e expandido para 3D. O MCA Crisp Adaptativo 2D é comparado com os MCAs THRMulti, THRMod, GVF, VFC, Crisp e também com o sistema SISDEP, sendo esta avaliação realizada utilizando como referência 36 imagens segmentadas manualmente por um pneumologista. Já o MCA Crisp Adaptativo 3D é aplicado na segmentação dos pulmões em exames de TC e comparado com o método Crescimento de Regiões 3D, cujos resultados das segmentações são avaliados por 2 médicos pneumologistas. Os resultados obtidos demonstram que os métodos propostos são superiores aos demais na segmentação dos pulmões em imagens de TC do tórax, tanto em uma imagem pelo MCA Crisp Adaptativo 2D, como em exames completos pelo MCA Crisp Adaptativo 3D. Deste modo, pode-se concluir que estes métodos podem integrar sistemas de auxílio ao diagnóstico médico na área de Pneumologia.
58

Estimação de razão de azares por meio de regressão quantílica para dados com censura à direita : uma abordagem computacional

Bessel, Marina January 2017 (has links)
O modelo de riscos proporcionais de Cox é um dos métodos mais utilizados na pesquisa clínica e epidemiológica para a análise de dados censurados, em grande parte por não exigir o conhecimento da distribuição de probabilidades do tempo. A principal suposição do modelo é a proporcionalidade de riscos ao longo do tempo, que pode ser restritiva em algumas situações práticas, como relações não lineares nas covariáveis ou efeitos de tratamentos que declinam no tempo. O modelo impõe uma estrutura global na função de sobrevivência e estima um único “efeito” médio, impossibilitando assim a estimação de “efeitos” das covariáveis localmente. A análise de dados censurados pode ser ainda mais complexa nos casos em que as censuras ocorrem somente em determinados períodos do tempo. Uma abordagem recente é o uso de modelos de regressão quantílica para dados de sobrevivência. São métodos robustos e flexíveis, no sentido em que permitem descrever a relação dos preditores em diferentes quantis da distribuição do tempo de sobrevivência. Pode ser vantajosa particularmente quando não estão atendidas as suposições de proporcionalidade de riscos e de linearidade. A grande maioria dos trabalhos sobre regressão de sobrevivência quantílica aborda aspectos da estimação dos parâmetros do modelo. No contexto epidemiológico, no entanto, frequentemente o objetivo é estimar o efeito (ou associação) de uma determinada exposição sobre o tempo até a ocorrência do evento. Este trabalho apresenta uma revisão das abordagens para estimação dos coeficientes do modelo de regressão quantílica para dados com censura à direita e uma abordagem computacional para estimar a função de risco (hazard rate) e razões de azares (hazard ratio) utilizando regressão quantílica. Os resultados das simulações mostraram que as estimativas de razão de azares diminuem na direção do valor de referência ao logo do tempo de acompanhamento. / The Cox proportional hazards model is one of the most widely used methods in clinical and epidemiological research for the analysis of censored data, largely because it does not require knowledge of survival time density. The main assumption of the model is proportionality of risks over time, which may be restrictive in some practical situations, such as nonlinear relationships in covariates or effects of treatments that decline over time. The model imposes a global structure on the survival function and estimates a single mean "effect", making it impossible to estimate the "effects" of the covariates locally. Analysis of censored data may be even more complex in cases where censoring occurs only in certain periods of time. A recent approach is the use of quantile regression models for survival data. They are methods robust and flexible, in the sense they allows to describe the relationship of the predictors in different quantiles of the distribution of survival time. It may be advantageous particularly where the proportionality assumptions of risk and linearity are not met. The vast majority of the work on quantile survival regression addresses aspects of estimation of parameters. In the epidemiological context, however, the objective is often to estimate the effect (or association) of a given exposure to the occurrence of the event over time. This work presents a review of the approaches to estimate the coefficients of the quantile regression model for right censored data as well as a computational approach to estimate the hazard rate and hazard ratio using quantile regression. The results of the simulation study show that the hazard ratio estimates decreases towards the reference value as the follow-up time increase.
59

Investigação computacional dos mecanismos de interação entre bases de tröger e o DNA

Ricci, Clarisse Gravina January 2010 (has links)
Neste trabalho, a docagem e a dinâmica molecular foram utilizadas para investigar a interação entre oligonucleotídeos e duas bases de Tröger: uma base simétrica - contendo duas proflavinas – e uma base assimétrica – contendo uma proflavina e uma fenantrolina. Nas docagens que utilizaram DNA canônico com gap como receptor, os resultados reproduziram corretamente a estereosseletividade da interação, que favorece os isômeros levorrotatórios em relação aos dextrorrotatórios, e apontou para os modos de interação sugeridos pela literatura: ligação ao sulco menor para a Tröger simétrica e intercalação com ligação ao sulco menor (modo misto) para a Tröger assimétrica. Para as simulações, foram escolhidos quatro complexos contendo os enantiômeros levorrotatórios das bases de Tröger e oligonucleotídeos com e sem gap. Embora os complexos representassem pontos de partida diferentes, houve convergência entre aqueles que continham o mesmo oligonucleotídeo como receptor. Os complexos com DNA com gap (complexos de intercalação) convergiram para um modo misto de interação, com intercalação de uma proflavina, enquanto os complexos com DNA sem gap (complexos de ligação ao sulco menor) convergiram para um modo de interação novo, em que as bases de Tröger se ligam ao sulco menor unicamente através da ponte diazocina, com os substituintes projetados para fora. Os complexos de intercalação apresentaram tempos de residência altos (20 ns) e diminuíram o ângulo de torção da dupla hélice na região do gap, levando os ângulos x e y da cadeia principal para uma região não-canônica, associada à forma A do DNA. Já nos complexos de ligação ao sulco menor, houve mudança tanto do modo como do sítio de interação e, embora tenham ocorrido eventuais curvaturas no DNA, não houve alterações significativas nos ângulos da cadeia principal, de modo que a estrutura global do DNA se manteve dentro da região considerada B-canônica. Dessa forma, os resultados sugerem que a intercalação (com adicionais contatos no sulco menor) seja o modo preferencial de interação dessas bases de Tröger com o DNA. O modo de ligação ao sulco menor, por depender quase que exclusivamente da ponte diazocina, seria independente da quiralidade e, portanto, não seria capaz de explicar enantiosselevidade das bases de Tröger. / In this work, molecular docking and molecular dynamics simulations were applied to investigate the interaction between DNA oligomers and two Tröger bases: a symmetric Tröger base derived from proflavine and a mixed Tröger base containing proflavine and phenanthroline. The dockings that used canonical DNA with an artificial intercalation gap as receptor correctly reproduced the stronger DNA binding affinity of the levorotatory isomers when compared to the dextrorotatory ones. Moreover, the results pointed out to the binding modes suggested, yet not established, by experimental data: minor groove binding for symmetric Tröger base and intercalation with additional minor groove binding for the asymmetric one. For the simulations, four complexes were selected, containing the (-)-isomers of the Tröger bases and DNA oligomers with or without intercalation gap. Interestingly, the systems containing the same DNA as receptor converged to similar binding modes: those containing DNA with gap (intercalation complexes) resulted in a mixed binding – with one proflavine intercalated and the other moiety occupying the minor groove – while those containing DNA without gap (minor groove complexes) lead to a new binding mode, in which the Tröger bases interact with the minor groove mainly through the diazocin bridge. In the intercalation complexes, the ligands presented long residence times (20 ns) and also unwound the double helix in the region of the intercalation gap, leading some backbone angles (x and y) to assume non-canonical values typical of the A form of DNA. In minor groove complexes, the ligands displayed enhanced mobility – changing both the binding mode and the binding site – and, although they promoted some bending of the double helix, the main chain torsion angles of DNA remained in the B-canonical region. Altogether, these results suggest that intercalation of proflavine (with additional contacts in the minor groove) might be the stronger DNA binding mode for these Tröger bases. Since the minor groove binding depends almost exclusively of the diazocin bridge, it appears to perform independently of the ligand chirality and, therefore, could not explain the enantioselectivity of the interaction.
60

Análise estatística bayesiana em processos com longa dependência

Dias Junior, Avelino Viana January 2010 (has links)
A abordagem Bayesiana na inferência estatística tem sido muito utilizada como uma alternativa aos métodos clássicos. Neste trabalho, apresentamos uma abordagem Bayesiana para a estimação dos parâmetros dos modelos autoregressivos de médias móveis de ordens p e g, denotados por ARMA(p, q) e do modelo autoregressivo fracionariamente integrado de médias móveis, denotado por ARFIMA(p, d, q). Para o último modelo, a abordagem Bayesiana é realizada assumindo p = g = 0. Considerando o modelo AR(p), que é um caso particular do modelo ARMA(p, g) onde g = O, um estimador é proposto através da abordagem Bayesiana. A eficiência do estimador é verificada através de simulações de Monte Cario e os resultados são comparados com o método clássico da máxima verossimilhança. No caso do modelo ARFIMA(0, d, 0), um estudo teórico é realizado através de uma abordagem Bayesiana. Para estimar os parâmetros desse modelo, é utilizada a sua representação autoregressiva. Alguns algoritmos computacionais Bayesianos são apresentados nesse trabalho já que desempenham um papel importante na inferência Bayesiana. Alguns desses algoritmos, como o amostrador de Gibbs e o Metropolis-Hastings, foram utilizados na construção dos estimadores para os parâmetros dos modelos ARMA e ARFIMA. / The Bayesian approach in statistical inference has been widely used as an alternative to traditional methods. In this work, we present a Bayesian approach for estimating the parameters of the autoregressive moving average processes of orderp and q, denoted by ARMA(p, g) and of the autoregressive fractionally integrated moving average process, denoted by ARFIMA(p, d, g). For the later model, the Bayesian approach is performed assuming p = g = 0. Whereas AR(p), which is a particular case of the ARMA(p, g) model when g = O, an estimator is proposed via the Bayesian approach. The efficiency of the estimator is verified by Monte Cario simulations and the results are compared with the classical maximum likelihood estimator. In the case of ARFIMA(0, d, 0) process, a theoretical study is performed by the Bayesian approach. For estimating the parameters of that process we consider its infiriite autoregressive representation. Some Bayesian computational algorithms are presented in this work since they play an important role in Bayesian inferences. Some of these algorithms, such as Gibbs sampler and Metropolis-Hastings algorithm, were used in building the estimators for the parameters of ARMA and ARFIMA models.

Page generated in 0.2191 seconds