• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 475
  • 44
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 533
  • 340
  • 88
  • 85
  • 75
  • 72
  • 71
  • 71
  • 71
  • 69
  • 64
  • 54
  • 53
  • 49
  • 47
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
261

Busca da forma aplicada a sistemas de cabos de aço retesados / Form finding techniques for steel cable structures

Haydamus, Alfredo Henrique 12 April 2019 (has links)
Esta dissertação trata das metodologias de busca da forma (form finding) aplicadas a sistemas estruturais de cabos de aço retesados, destacando aquelas que foram amplamente utilizadas pelo arquiteto alemão Frei Otto: modelos físicos de correntes e molas e o método numérico das Densidades de Forças. O método de Relaxação Dinâmica, as soluções gráficas, modelos de correntes e pesos, assim como os de películas de sabão, também foram analisados de modo breve. O trabalho objetivou examinar as singularidades de tais metodologias de concepção estrutural. Tarefa que foi realizada, em primeiro lugar, por meio da revisão da literatura crítica acerca do emprego e do desenvolvimento das tecnologias de sistemas de cabos de aço retesados. Em seguida, partindo das obras examinadas, simulou-se quatro situações de projetos de estruturas retesadas, que foram executadas através da construção de modelos físicos e numéricos. As maquetes físicas foram construídas por meio de modelos de correntes e molas, e tiveram o intuito de fornecer dados de ordem qualitativa acerca do comportamento estrutural. As representações digitais, por sua vez, foram desenvolvidas com o método das Densidades de Forças, por intermédio do software Rhinoceros e do seu plug-in Grasshopper. Elas permitiram avaliar critérios quantitativos, como precisão, conformidade e eficiência. Por fim, os resultados obtidos através dos modelos físicos foram comparados aos experimentos digitais, com o intuito de analisar as especificidades de cada alternativa, buscando compreender as vantagens e limites de suas aplicações práticas. / This work presents two form finding methodologies applied to steel cable structures, physical model with springs and Force Density Method, both widely used by Frei Otto and his team. Other techniques are also studied; e.g. chains models, soap film models, graphic solutions and Dynamic Relaxation Method. Firstly, the historical developments of form-active structures were listed, together with a series of projects that became technical and conceptual milestones in the Brazilian and international scenario. Secondly, the process of manufacturing two form finding models is reported, one physical spring model and one numerical Force Density Method performed with computer-aided design (CAD) application Rhinoceros and its plug-in Grasshopper. Both models were carried out aiming to investigate their advantages and limits. Lastly, four experimental case studies were selected, based on projects studied in the first phase of this work. Diverse typologies and boundary conditions were chosen for comparative evaluation of the qualitative physical model and the numerical one. The appraisal of the modeling techniques\' efficiency and robustness levels was done through analysis of the differences between nodes\' coordinates and bars\' lengths obtained through each method.
262

A data structure for spanning tree optimization problems / Uma estrutura de dados para problemas de otimização de árvores geradoras

Barbosa, Marco Aurélio Lopes 17 June 2019 (has links)
Spanning tree optimization problems are related to many practical applications. Several of these problems are NP-Hard, which limits the utility of exact methods and can require alternative approaches, like metaheuristics. A common issue for many metaheuristics is the data structure used to represent and manipulate the solutions. A data structure with efficient operations can expand the usefulness of a method by allowing larger instances to be solved in a reasonable amount of time. We propose the 2LETT data structure and uses it to represent spanning trees in two metaheuristics: mutation-based evolutionary algorithms and local search algorithms. The main operation of 2LETT is the exchange of one edge in the represented tree by another one, and it has O(√n) time, where n is the number of vertices in the tree. We conducent qualitative and quantitative evaluations for 2LETT and other structures in the literature. For the main operation of edge exchange in evolutionary algorithms, the computational experiments show that 2LETT has the best performance for trees with more than 10,000 vertices. For local search algorithms, 2LETT is the best option to deal with large trees with large diameters. / Os problemas de otimização de árvores geradoras estão relacionados a muitas aplicações práticas. Vários desses problemas são NP-difícies, o que limita a utilidade de métodos exatos e pode exigir abordagens alternativas, como metaheurísticas. Um questão relevante para muitas metaheurísticas é a estrutura de dados usada para representar e manipular as soluções. Uma estrutura de dados com operações eficientes pode aumentar a utilidade de um método, permitindo que instâncias maiores sejam resolvidas em um período de tempo razoável. Propomos a estrutura de dados 2LETT e a usamos para representar árvores geradoras em duas metaheurísticas: algoritmos evolutivos baseados em mutações e algoritmos de busca local. A operação principal da 2LETT é a troca de uma aresta na árvore representada por outra aresta. Esta operação tem tempo de O(√n), onde n é o número de vértices na árvore. Conduzimos avaliações qualitativas e quantitativas para 2LETT e outras estruturas na literatura. Para a principal operação de troca de arestas em algoritmos evolutivos, os experimentos computacionais mostram que a 2LETT possui o melhor desempenho para árvores com mais de 10.000 vértices. Para algoritmos de busca local, o 2LETT é a melhor opção para lidar com árvores grandes com grandes diâmetros.
263

Sovereign finance in emerging markets / Finanças soberanas em mercados emergentes

Sabbadini, Ricardo 17 May 2019 (has links)
Each essay in this doctoral dissertation relates to a recent feature of sovereign finance in emerging market economies. In each article, I extend a quantitative macroeconomic model of sovereign debt and default to answer a particular question. In the first chapter, I investigate whether it is better for emerging countries to issue external debt denominated in local or foreign currency using a model with real exchange rates and inflation. I show how the welfare comparisons between the two options of debt denomination depend on the credibility of the monetary policy. In the next essay, I analyze the joint accumulation of sovereign debt and international reserves by emerging countries\' governments. In this theoretical framework, international reserves are a form of precautionary savings that can be used to smooth consumption even after a sovereign default. Statistics calculated with simulated data from a model with partial sovereign default indicate that the combined acquisition of assets and liabilities is an optimal policy in this type of model. In the last chapter, I examine whether low international risk-free interest rates, as observed in developed countries since the most recent global financial crisis, lead to a search for yield - identified via lower spreads even under higher default risk - in emerging markets sovereign bonds. I find that the inclusion of loss averse foreign lenders, a trait highlighted by the behavioral finance literature, in a standard model of sovereign default generates this result. / Cada ensaio desta tese trata de uma característica recente das finanças soberanas em economias de mercado emergentes. Em cada artigo, amplia-se um modelo macroeconômico quantitativo de dívida e default soberanos para responder a uma questão específica. No primeiro capítulo, investiga-se se é melhor para os países emergentes emitir dívida externa denominada em moeda local ou estrangeira usando um modelo com taxa de câmbio real e inflação. Mostra-se como as comparações de bem-estar entre as duas opções de denominação da dívida dependem da credibilidade da política monetária. No segundo ensaio, analisa-se a acumulação conjunta de dívida soberana e reservas internacionais pelos governos dos países emergentes. Nesse arcabouço teórico, as reservas internacionais são uma forma preventiva de poupança que pode ser usada para suavizar o consumo mesmo depois de um default soberano. As estatísticas calculadas com dados simulados de um modelo com default soberano parcial indicam que a aquisição simultânea de ativos e passivos é uma política ótima nesse tipo de modelo. No último capítulo, examina-se se as baixas taxas de juros livres de risco internacionais, observadas em países desenvolvidos desde a mais recente crise financeira global, levaram a uma busca por rentabilidade - identificada por meio de spreads menores mesmo sob maior risco de default - nos títulos soberanos de mercados emergentes. Verifica-se que a inclusão de investidores estrangeiros avessos a perdas, característica destacada pela literatura de finanças comportamentais, em um modelo padrão de default soberano gera esse resultado.
264

Busca tabu reformulada aplicada ao problema de operação de sistemas de distribuição de energia elétrica radiais /

Alves, Bruna Pardim January 2019 (has links)
Orientador: Ruben Augusto Romero Lazaro / Resumo: Este trabalho apresenta uma proposta baseada na meta-heurística Busca Tabu, chamada de Busca Tabu Reformulada para resolver o problema de operação ótima dos sistemas de distribuição, utilizando uma estratégia integrada de reconfiguração e alocação de bancos de capacitores fixos e chaveados para obter a topologia radial que apresente o menor custo de operação. Para encontrar a topologia radial inicial foi aplicado o algoritmo de Prim, em que foi obtida uma solução reconfigurada, e essa solução encontrada foi submetida à uma heurística para alocação de capacitores fixos e chaveados. A proposta de solução inicial é submetida ao algoritmo de Busca Tabu Reformulada que utiliza uma vizinhança que considera como solução vizinha uma topologia vizinha da topologia radial corrente e com a proposta de alocação de bancos de capacitores modificada. Como proposta da metodologia Busca Tabu Reformulada o procedimento é repetido até um critério de parada definido. Todos os programas foram escritos em linguagem FORTRAN 77. Os algoritmos propostos foram testados com os sistemas de 33, 70, 84 e 136 barras. / Abstract: This paper presents a proposal based on the Tabu Search metaheuristic called Tabu Search Reformulated to solve the problem of optimal operation of the distribution systems, using an integrated strategy of reconfiguration and allocation of fixed and switched capacitor banks to obtain the radial topology which presents the lowest operating cost. To find the initial radial topology the Prim algorithm was applied, in which a reconfigured solution was obtained, and this solution was submitted to a heuristic for the allocation of fixed and switched capacitors. The initial solution proposal is submitted to the Reformulated Tabu Search algorithm that uses a neighborhood that considers as neighbor solution a neighboring topology of the current radial topology and with the proposed allocation of modified capacitor banks. As a proposal of the Tabu Search Reformulated methodology, the procedure is repeated up to a defined stop criterion. All the programs were written in FORTRAN 77 language. The proposed algorithms were tested with the 33, 70, 84 and 136-node systems. / Mestre
265

Análise geoestatística multi-pontos / Analysis of multiple-point geostatistics

Cruz Rodriguez, Joan Neylo da 12 June 2013 (has links)
Estimativa e simulação baseados na estatística de dois pontos têm sido usadas desde a década de 1960 na análise geoestatístico. Esses métodos dependem do modelo de correlação espacial derivado da bem conhecida função semivariograma. Entretanto, a função semivariograma não pode descrever a heterogeneidade geológica encontrada em depósitos minerais e reservatórios de petróleo. Assim, ao invés de usar a estatística de dois pontos, a geoestatística multi-pontos, baseada em distribuições de probabilidade de múltiplo pontos, tem sido considerada uma alternativa confiável para descrição da heterogeneidade geológica. Nessa tese, o algoritmo multi-ponto é revisado e uma nova solução é proposta. Essa solução é muito melhor que a original, pois evita usar as probabilidades marginais quando um evento que nunca ocorre é encontrado no template. Além disso, para cada realização a zona de incerteza é ressaltada. Uma base de dados sintética foi gerada e usada como imagem de treinamento. A partir dessa base de dados completa, uma amostra com 25 pontos foi extraída. Os resultados mostram que a aproximação proposta proporciona realizações mais confiáveis com zonas de incerteza menores. / Estimation and simulation based on two-point statistics have been used since 1960\'s in geostatistical analysis. These methods depend on the spatial correlation model derived from the well known semivariogram function. However, the semivariogram function cannot describe the geological heterogeneity found in mineral deposits and oil reservoirs. Thus, instead of using two-point statistics, multiple-point geostatistics based on probability distributions of multiple-points has been considered as a reliable alternative for describing the geological heterogeneity. In this thesis, the multiple-point algorithm is revisited and a new solution is proposed. This solution is much better than the former one because it avoids using marginal probabilities when a never occurring event is found in a template. Moreover, for each realization the uncertainty zone is highlighted. A synthetic data base was generated and used as training image. From this exhaustive data set, a sample with 25 points was drawn. Results show that the proposed approach provides more reliable realizations with smaller uncertainty zones.
266

Árvores de Ukkonen: caracterização combinatória e aplicações / Ukkonen\'s tree: combinatorial characterization and applications

Sacomoto, Gustavo Akio Tominaga 08 February 2011 (has links)
A árvore de sufixos é uma estrutura dados, que representa em espaço linear todos os fatores de uma palavra, com diversos exemplos de aplicações práticas. Neste trabalho, definimos uma estrutura mais geral: a árvore de Ukkonen. Provamos para ela diversas propriedades combinatórias, dentre quais, a minimalidade em um sentido preciso. Acreditamos que a apresentação aqui oferecida, além de mais geral que as árvores de sufixo, tem a vantagem de oferecer uma descrição explícita da topologia da árvore, de seus vértices, arestas e rótulos, o que não vimos em nenhum outro trabalho. Como aplicações, apresentamos também a árvore esparsa de sufixos (que armazena apenas um subconjunto dos sufixos) e a árvore de k-fatores (que armazena apenas os segmentos de comprimento k, ao invés dos sufixos) definidas como casos particulares das árvores de Ukkonen. Propomos para as árvores esparsas um novo algoritmo de construção com tempo O(n) e espaço O(m), onde n é tamanho da palavra e m é número de sufixos. Para as árvores de k-fatores, propomos um novo algoritmo online com tempo e espaço O(n), onde n é o tamanho da palavra. / The suffix tree is a data structure that represents, in linear space, all factors of a given word, with several examples of practical applications. In this work, we define a more general structure: the Ukkonen\'s tree. We prove many properties for it, among them, its minimality in a precise sense. We believe that this presentation, besides being more general than the suffix trees, has the advantage of offering an explicit description of the tree topology, its vertices, edges and labels, which was not seen in any other work. As applications, we also presents the sparse suffix tree (which stores only a subset of the suffixes) and the k-factor tree (which stores only the substrings of length k, instead of the suffixes), both defined as Ukkonen\'s tree special cases. We propose a new construction algorithm for the sparse suffix trees with time O(n) and space O(m), where n is the size of the word and m is the number of suffixes. For the k-factor trees, we propose a new online algorithm with time and space O(n), where n is the size of the word.
267

Conexidade fuzzy relativa em grafos dirigidos e sua aplicação em um método híbrido para segmentação interativa de imagens / Relative fuzzy connectedness on directed graphs and its appication in a hybrid method for interactive image segmentation

Ccacyahuillca Bejar, Hans Harley 08 December 2015 (has links)
A segmentação de imagens consiste em dividir uma imagem em regiões ou objetos que a compõem, como, por exemplo, para isolar os pixels de um objeto alvo de uma dada aplicação. Em segmentação de imagens médicas, o objeto de interesse comumente apresenta transições em suas bordas predominantemente do tipo claro para escuro ou escuro para claro. Métodos tradicionais por região, como a conexidade fuzzy relativa (RFC - Relative Fuzzy Connectedness), não distinguem bem entre essas bordas similares com orientações opostas. A especificação da polaridade de contorno pode ajudar a amenizar esse problema, o que requer uma formulação matemática em grafos dirigidos. Uma discussão sobre como incorporar essa propriedade no arcabouço do RFC é apresentada neste trabalho. Uma prova teórica da otimalidade do novo algoritmo, chamado conexidade fuzzy relativa com orientação (ORFC - Oriented Relative Fuzzy Connectedness), em termos de uma função de energia em grafos dirigidos sujeita as restrições de sementes é apresentada, bem como a sua apli- cação em poderosos métodos híbridos de segmentação. O método híbrido proposto ORFC &Graph Cut preserva a robustez do ORFC em relação à escolha de sementes, evitando o problema do viés de encolhimento do método de Corte em Grafo (GC - Graph Cut), e mantém o forte controle do GC no delineamento de contornos de bordas irregulares da imagem. Os métodos propostos são avaliados usando imagens médicas de ressonáncia magnética (RM) e tomografia computadorizada (TC) do cérebro humano e de estudos torácicos. / Image segmentation consists of dividing an image into its composing regions or objects, for example, to isolate the pixels of a target object of a given application. In segmentation of medical images, the object of interest commonly presents transitions at its border predominantly from bright to dark or dark to bright. Traditional region-based methods of image segmentation, such as Relative Fuzzy Connectedness (RFC), do not distinguish well between similar boundaries with opposite orientations. The specification of the boundary polarity can help to alleviate this problem but this requires a mathematical formulation on directed graphs. A discussion on how to incorporate this property in the RFC framework is presented in this work. A theoretical proof of the optimality of the new algorithm, called Oriented Relative Fuzzy Connectedness (ORFC), in terms of an energy function on directed graphs subject to seed constraints is presented, and its application in powerful hybrid segmentation methods. The hybrid method proposed ORFC&Graph Cut preserves the robustness of ORFC respect to the seed choice, avoiding the shrinking problem of Graph Cut (GC), and keeps the strong control of the GC in the contour delination of irregular image boundaries. The proposed methods are evaluated using magnetic resonance medical imaging (MR) and computed tomography (CT) of the human brain and thoracic studies.
268

Uma abordagem para geração de dados de teste para o teste de mutação utilizando técnicas baseadas em busca / An approach for test data generation in mutation testing using seacrh-based techniques

Souza, Francisco Carlos Monteiro 24 May 2017 (has links)
O teste de mutação é um critério de teste poderoso para detectar falhas e medir a eficácia de um conjunto de dados de teste. No entanto, é uma técnica de teste computacionalmente cara. O alto custo provém principalmente do esforço para gerar dados de teste adequados para matar os mutantes e pela existência de mutantes equivalentes. Nesse contexto, o objetivo desta tese é apresentar uma abordagem chamada de Reach, Infect and Propagation to Mutation Testing (RIPMuT) que visa gerar dados de teste e sugerir mutantes equivalentes. A abordagem é composta por dois módulos: (i) uma geração automatizada de dados de teste usando subida da encosta e um esquema de fitness de acordo com as condições de alcançabilidade, infeção e propagação (RIP); e (ii) um método para sugerir mutantes equivalentes com base na análise das condições RIP durante o processo de geração de dados de teste. Os experimentos foram conduzidos para avaliar a eficácia da abordagem RIP-MuT e um estudo comparativo com o algoritmo genético e testes aleatórios foi realizado. A abordagem RIP-MuT obteve um escore médio de mutação de 18,25 % maior que o AG e 35,93 % maior que o teste aleatório. O método proposto para detecção de mutantes equivalentes se mostrou viável para redução de custos relacionado a essa atividade, uma vez que obteve uma precisão de 75,05% na sugestão dos mutantes equivalentes. Portanto, os resultados indicam que a abordagem gera dados de teste adequados capazes de matar a maioria dos mutantes em programas C e, também auxilia a identificar mutantes equivalentes corretamente. / Mutation Testing is a powerful test criterion to detect faults and measure the effectiveness of a test data set. However, it is a computationally expensive testing technique. The high cost comes mainly from the effort to generate adequate test data to kill the mutants and by the existence of equivalent mutants. In this thesis, an approach called Reach, Infect and Propagation to Mutation Testing (RIP-MuT) is presented to generate test data and to suggest equivalent mutants. The approach is composed of two modules: (i) an automated test data generation using hill climbing and a fitness scheme according to Reach, Infect, and Propagate (RIP) conditions; and (ii) a method to suggest equivalent mutants based on the analyses of RIP conditions during the process of test data generation. The experiments were conducted to evaluate the effectiveness of the RIP-MuT approach and a comparative study with a genetic algorithm and random testing. The RIP-MuT approach achieved a mean mutation score of 18.25% higher than the GA and 35.93% higher than random testing. The proposed method for detection of equivalent mutants demonstrate to be feasible for cost reduction in this activity since it obtained a precision of 75.05% on suggesting equivalent mutants. Therefore, the results indicate that the approach produces effective test data able to strongly kill the majority of mutants on C programs, and also it can assist in suggesting equivalent mutants correctly.
269

Busca virtual de inibidores de proteases dos vírus da dengue e da febre aftosa: construção de bancos de dados, simulações de dinâmica molecular e validação experimental / Virtual screening for protease inhibitors of dengue and foot-and-mouth disease virus: database building, molecular dynamics simulations and experimental validation

Piccirillo, Erika 06 September 2017 (has links)
A Dengue e a Febre Aftosa são infecções virais que ocorrem tanto no Brasil como no mundo, apresentando enorme impacto socioeconômico. As proteases virais são reconhecidas como alvos de grande interesse para o planejamento de antivirais, devido ao seu papel fundamental no ciclo de vida de muitos vírus, incluindo-se os flavivirus (vírus da Dengue DENV) e os picornavirus (vírus da Febre Aftosa FA). Com o objetivo de buscar e identificar novos inibidores de proteases virais (da NS2B/NS3pro do DENV ou da Lbpro do vírus da FA) propusemos modelos de busca virtual, incluindo diferentes filtros de seleção (ex. farmacofórico, drug-like, similaridade e ancoramento) aplicados, sequencialmente, a bancos de dados de compostos comerciais (280x103 a 23x106 compostos). A seleção final dos compostos foi sempre feita por inspeção visual. Para NS2B/NS3pro do DENV, construíram-se quatro modelos de busca virtual (Modelo I-DENV a Modelo IV-DENV). O primeiro foi construído, baseando-se na estrutura cristalográfica ligada a um inibidor peptidomimético, e aplicado ao banco ZINC. Ao final, dez compostos foram comprados e submetidos a testes de inibição enzimática, frente à NS2B/NS3pro, para validação experimental deste modelo. Dois compostos mostraram alguma atividade inibitória (IC50 150 - 300 µM). Visando-se melhorar estes resultados, a flexibilidade da NS2B/NS3pro foi incluída, usando simulações de dinâmica molecular (DM), e um novo banco de dados construído (ZINC-Curated). Através de uma análise extensiva do banco ZINC-Curated, usando ferramentas estatísticas/quimiométricas, confirmou-se que este foi enriquecido com compostos com características de fármacos. Outros três modelos de busca virtual foram construídos incluindo-se diferentes informações obtidas nas simulações de DM. O modelo II-DENV foi feito usando ancoramento e aplicado ao banco ZINC-Curated, selecionando dezesseis compostos. Nenhum deles apresentou atividade inibitória significativa frente à NS2B/NS3pro do DENV. Os modelos III-DENV e IV-DENV utilizaram modelos farmacofóricos, que tiveram seus desempenhos previamente avaliados usando dados de literatura, e foram aplicados aos bancos NCI e ZINC-Curated, respectivamente. O modelo III-DENV selecionou quinze compostos, tendo quatro deles apresentado atividade inibitória (IC50 30 - 100 µM). O modelo IV-DENV selecionou dezoito compostos, sendo quatro ativos frente a esta protease (IC50 4 - 90 µM), representando uma taxa de acerto de ~22 %. Ainda, uma série de treze análogos estruturais do composto mais ativo foi construída, sendo três deles também ativos. Portanto, as modificações incluídas na busca virtual permitiram melhorar, significativamente, os resultados obtidos. Para Lbpro do vírus da FA, construíram-se dois modelos de busca virtual (Modelos I-FA e II-FA). O primeiro foi construído usando sua estrutura cristalográfica, sem ligantes, e uma série in house de potenciais inibidores covalentes. Seis compostos foram selecionados e testados frente à Lbpro, tendo dois deles baixa atividade inibitória (IC50 300 - 600 µM). A partir da disponibilidade da estrutura da Lbpro com ligante, o modelo IIFA foi construído e aplicado ao banco ZINC-Curated, selecionando quinze compostos. Estes foram adquiridos e testados frente à Lbpro, não apresentando atividade inibitória significativa. Assim, as modificações incluídas ainda não foram suficientes para selecionar inibidores mais potentes. No entanto, estes modelos/resultados contribuíram para o entendimento da(s) interação(ões) no sítio ativo da Lbpro. / Dengue and Food-and-mouth disease are viral infections that occur in Brazil and in the world, causing a huge socioeconomic impact. Viral proteases are recognized as targets for antiviral design, because they are crucial for the life cycle of many viruses, such as flavivirus (Dengue virus DENV) and picornavirus (Food-and-mouth disease virus FMDV). In order to discovery novel inhibitors of viral proteases (of NS2B/NS3pro of DENV or of Lbpro of FMDV) virtual screening models were proposed comprising a sequence of different filters (e.g. pharmacophore, drug-like, similarity and docking) applied to databases of commercial compounds (280x103 to 23x106 compounds). In all models, the final selection of compounds was always done by visual inspection. For DENV NS2B/NS3pro, four virtual screening models were proposed (Model I-DENV to Model IV-DENV). Model I-DENV was built, based on the crystal structure bound to a peptidemimetic inhibitor, and applied to ZINC database. Finally, ten compounds were purchased and submitted to enzymatic assays against this protease to the experimental validation of this model. Two compounds showed some inhibitory activity (IC50 150 - 300 µM). In order to improve these results, NS2B/NS3pro flexibility was included, using molecular dynamics (MD) simulations, and a novel database was built (ZINC-Curated). Throughout an exhaustively analysis of ZINC-Curated, using statistical/chemometrics tools, we confirmed that this new database was enriched with drug like compounds. Other three virtual screening models were built including different information from MD simulations. Model II-DENV was built using docking and applied to the ZINC-Curated database, selecting sixteen compounds. None of them showed a significant inhibitory activity against DENV NS2B/NS3pro. Models III-DENV and IV-DENV were built using pharmacophore models, which have their performance previously evaluated using literature data, and applied to NCI and ZINC-Curated databases, respectively. Model III-DENV selected fifteen compounds, showing four of them inhibitory activity (IC50 30 - 100 µM). Model IV-DENV selected eighteen compounds. Four of them were active against this protease (IC50 4 - 90 µM), representing a hit rate of ~22 %. Moreover, a set of thirteen structural analogues of the most active compound were built, being three of them also active. Thus, the modifications done in the virtual screening procedure really improved our results. For FMDV Lbpro, two virtual screening models were built (Models I-FMDV and II-FMDV). The first one was based on the crystal structure, without ligands, and used a set of in house potential covalent inhibitors. Six of the in house compounds were selected and tested against this protease. Two of them showed a weak inhibitory activity (IC50 300 - 600 µM). Later on, the Lbpro bound with ligands was available being therefore used to build another model. Model II FMDV was applied to the ZINC-Curated database, selecting fifteen compounds that were purchased and also tested against the target protease. But none of them showed a significant inhibition. Thus, the incorporated changes were not enough to retrieve active compounds. However, these models/results contributed to better understand Lbpro binding site interactions
270

Técnicas de projeção para identificação de grupos e comparação de dados multidimensionais usando diferentes medidas de similaridade / Projection techniques for group identification and multidimensional data comparison by using different similarity measures

Joia Filho, Paulo 14 October 2015 (has links)
Técnicas de projeção desempenham papel importante na análise e exploração de dados multidimensionais, já que permitem visualizar informações muitas vezes ocultas na alta dimensão. Esta tese explora o potencial destas técnicas para resolver problemas relacionados à: 1) identificação de agrupamentos e 2) busca por similaridade em dados multidimensionais. Para identificação de agrupamentos foi desenvolvida uma técnica de projeção local e interativa que, além de projetar dados com ótima preservação de distâncias, permite que o usuário modifique o layout da projeção, agrupando um número reduzido de amostras representativas no espaço visual, de acordo com suas características. Os mapeamentos produzidos tendem a seguir o layout das amostras organizadas pelo usuário, facilitando a organização dos dados e identificação de agrupamentos. Contudo, nem sempre é possível selecionar ou agrupar amostras com base em suas características visuais de forma confiável, principalmente quando os dados não são rotulados. Para estas situações, um novo método para identificação de agrupamentos baseado em projeção foi proposto, o qual opera no espaço visual, garantindo que os grupos obtidos não fiquem fragmentados durante a visualização. Além disso, é orientado por um mecanismo de amostragem determinístico, apto a identificar instâncias que representam bem o conjunto de dados como um todo e capaz de operar mesmo em conjuntos de dados desbalanceados. Para o segundo problema: busca por similaridade em dados multidimensionais, uma família de métricas baseada em classes foi construída para projetar os dados, com o objetivo de minimizar a dissimilaridade entre pares de objetos pertencentes à mesma classe e, ao mesmo tempo, maximizá-la para objetos pertencentes a classes distintas. As métricas classes-específicas são avaliadas no contexto de recuperação de imagens com base em conteúdo. Com o intuito de aumentar a precisão da família de métricas classes-específicas, outra técnica foi desenvolvida, a qual emprega a teoria dos conjuntos fuzzy para estimar um valor de incerteza que é transferido para a métrica, aumentando sua precisão. Os resultados confirmam a efetividade das técnicas desenvolvidas, as quais representam significativa contribuição na tarefa de identificação de grupos e busca por similaridade em dados multidimensionais. / Projection techniques play an important role in multidimensional data analysis and exploration, since they allow to visualize information frequently hidden in high-dimensional spaces. This thesis explores the potential of those techniques to solve problems related to: 1) clustering and 2) similarity search in multidimensional data. For clustering data, a local and interactive projection technique capable of projecting data with effective preservation of distances was developed. This one allows the user to manipulate a reduced number of representative samples in the visual space so as to better organize them. The final mappings tend to follow the layout of the samples organized by the user, therefore, the user can interactively steer the projection. This makes it easy to organize and group large data sets. However, it is not always possible to select or group samples visually, in a reliable manner, mainly when handling unlabeled data. For these cases, a new clustering method based on multidimensional projection was proposed, which operates in the visual space, ensuring that clusters are not fragmented during the visualization. Moreover, it is driven by a deterministic sampling mechanism, able to identify instances that are good representatives for the whole data set. The proposed method is versatile and robust when dealing with unbalanced data sets. For the second problem: similarity search in multidimensional data, we build a family of class-specific metrics to project data. Such metrics were tailored to minimize the dissimilarity measure among objects from the same class and, simultaneously to maximize the dissimilarity among objects in distinct classes. The class-specific metrics are assessed in the context of content-based image retrieval. With the aim of increasing the precision of the class-specific metrics, another technique was developed. This one, uses the fuzzy set theory to estimate a degree of uncertainty, which is embedded in the metric, increasing its precision. The results confirm the effectiveness of the developed techniques, which represent significant contributions for clustering and similarity search in multidimensional data.

Page generated in 0.0372 seconds