• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 163
  • 6
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • Tagged with
  • 172
  • 113
  • 31
  • 28
  • 28
  • 22
  • 21
  • 20
  • 16
  • 15
  • 15
  • 15
  • 15
  • 13
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

A aplicação conjunta de método de projeção das alterações no uso e ocupação do solo e de instrumentos de gestão ambiental: o caso de São Carlos (SP) / The joint application of projection methods of the alteration on land use and the environmental policy tools: the São Carlos (SP) case

Marcelo Montaño 08 August 2005 (has links)
A integração do ferramental técnico-científico disponível com os diferentes instrumentos de política e gestão ambiental é essencial para a compatibilização das exigências impostas pelo desenvolvimento com a manutenção ou melhoria da qualidade ambiental e social e, também, para o equacionamento das demandas e dos interesses de cada setor envolvido no processo decisório. Assim, os modelos para a projeção das alterações no uso e ocupação do solo de um determinado território têm sido freqüentemente utilizados. A modelagem propicia a geração e a avaliação das informações para montagem de um panorama das possíveis alterações no uso do solo, considerando que as tendências identificadas para aquele território, num certo instante, sejam mantidas de modo a se desenvolverem de acordo com um determinado cenário projetado. O presente trabalho analisa a possibilidade de aplicação conjunta do método de projeção das alterações no uso e ocupação do solo e instrumentos de política ambiental, levando em conta os aspectos preventivos. Aplicado a uma porção do município de São Carlos (SP), o trabalho apresenta uma projeção para a expansão urbana para os anos de 2012 e 2019, considerando três cenários alternativos de ocupação territorial. Confrontando os resultados obtidos pela modelagem com a capacidade de suporte do meio para a implantação de empreendimentos urbanos - determinada a partir da elaboração de um zoneamento ambiental, verifica-se que, mantidas as tendências atuais, e para os três cenários de ocupação avaliados, a expansão urbana continuará avançando sobre áreas de baixa aptidão para a urbanização, permanecerá exercendo intensa pressão sobre os recursos hídricos e os fragmentos de vegetação nativa, caso não sejam adotadas medidas que modifiquem o atual padrão de ocupação do território. / To compatibilize the demands raised by development with the maintenance or improvement of the social and environmental quality, the integration among technical scientific tools and environmental management instruments is essential to solve the interests of each sector involved at the decision process. On this context are inserted land use and cover change models. The modelling permit the decision-making process to be done evaluating the consequences of possible alterations on land use, which can be identified considering the scenarios projected for the territory under certain circunstances. The presente work analyses the possibility of joint application of this technique and environmental policy tools considering preventive aspects. Allocated to a portion of the São Carlos (SP) municipality, the work projects urban growth for the years 2012 and 2019, considering three alternative scenarios of occupation. Confronting the results obtained by the model with the carrying capacity for the implementation of urban activities - determined from the elaboration of environmental zoning, is showed that, maintained the present tendencies, and for the scenarios evaluated, the urban growth will continue forward and towards the areas with low suitability. In the same way, the pressure over water resources and fragments of native vegetation will remains intense unless measures to modify the standards in occupation can be adopted.
142

Projeção de inflação no Brasil utilizando dados agregados e desagregados: um teste de poder preditivo por horizonte de tempo

Carlos, Thiago Carlomagno 14 August 2012 (has links)
Submitted by Thiago Carlomagno Carlos (thicarlomagno@gmail.com) on 2012-09-05T22:05:12Z No. of bitstreams: 1 THIAGO_CARLOS_Dissertação_v_final.pdf: 511805 bytes, checksum: f2276883bb78515a6e00fd2b8f2f5b2f (MD5) / Approved for entry into archive by Suzinei Teles Garcia Garcia (suzinei.garcia@fgv.br) on 2012-09-06T12:44:28Z (GMT) No. of bitstreams: 1 THIAGO_CARLOS_Dissertação_v_final.pdf: 511805 bytes, checksum: f2276883bb78515a6e00fd2b8f2f5b2f (MD5) / Made available in DSpace on 2012-09-06T12:51:00Z (GMT). No. of bitstreams: 1 THIAGO_CARLOS_Dissertação_v_final.pdf: 511805 bytes, checksum: f2276883bb78515a6e00fd2b8f2f5b2f (MD5) Previous issue date: 2012-08-14 / This work has aim to compare the forecast efficiency of different types of methodologies applied to Brazilian consumer inflation. We will compare forecasting models using disaggregated and aggregated data from IPCA over twelve months ahead. We used IPCA in a monthly basis, over the period between January 1996 to March 2012. Out-ofsample analysis will be made through the period of January 2008 to March 2012. The disaggregated models were estimated by SARIMA using X-12 ARIMA software provided by US Census Bureau, and will have different levels of disaggregation from IPCA as groups (9) and items (52), as well as disaggregation with more economic sense used by Brazilian Central Bank as: services, monitored prices, food and industrials; durables, non-durables, semi durables, services and monitored prices. Aggregated models will be estimated by time series techniques as SARIMA, space-estate structural models (Kalman Filter) and Markovswitching. The forecasting accuracy among models will be made by the selection model procedure known as Model Confidence Set, introduced by Hansen, Lunde and Nason (2010), and by Dielbod Mariano (1995), in which we founded evidences of gain in accuracy in models with more disaggregation than aggregates models. / O trabalho tem como objetivo comparar a eficácia das diferentes metodologias de projeção de inflação aplicadas ao Brasil. Serão comparados modelos de projeção que utilizam os dados agregados e desagregados do IPCA em um horizonte de até doze meses à frente. Foi utilizado o IPCA na base mensal, com início em janeiro de 1996 e fim em março de 2012. A análise fora da amostra foi feita para o período entre janeiro de 2008 e março de 2012. Os modelos desagregados serão estimados por SARIMA, pelo software X-12 ARIMA disponibilizado pelo US Census Bureau, e terão as aberturas do IPCA de grupos (9) e itens (52), assim como aberturas com sentido mais econômico utilizadas pelo Banco Central do Brasil como: serviços, administrados, alimentos e industrializados; duráveis, não duráveis, semiduráveis, serviços e administrados. Os modelos agregados serão estimados por técnicas como SARIMA, modelos estruturais em espaço-estado (Filtro de Kalman) e Markov-switching. Os modelos serão comparados pela técnica de seleção de modelo Model Confidence Set, introduzida por Hansen, Lunde e Nason (2010), e Dielbod e Mariano (1995), no qual encontramos evidências de ganhos de desempenho nas projeções dos modelos mais desagregados em relação aos modelos agregados.
143

Análise e implementação de métodos implícitos e de projeção para escoamentos com superfície livre. / Analysis and implementation of implicit and projection methods for free surface flows

Cássio Machiaveli Oishi 05 August 2008 (has links)
No contexto do método MAC e baseado em esquemas de diferenças finitas, este trabalho apresenta três estudos: i) uma análise de estabilidade, ii) o desenvolvimento de técnicas implícitas e, iii) a construção de métodos de projeção para escoamentos com superfície livre. Na análise de estabilidade, o principal resultado mostra que o método de Crank-Nicolson torna-se condicionalmente estável quando aplicado para uma malha deslocada com a discretiza ção explícita das condições de contorno do tipo Dirichlet. Entretanto, o mesmo método com condições de contorno implícitas é incondicionalmente estável. Para obter métodos mais estáveis, formulações implícitas são desenvolvidas para a equação da pressão na superfície livre, derivada da condição de tensão normal. Esta estratégia resulta no acoplamento dos campos de velocidade e pressão, o que exige a introdução de novos métodos de projeção. Os métodos de projeção assim desenvolvidos resultam em novas metodologias para escoamentos com superfície livre que são apropriados para o tratamento de problemas com baixo número de Reynolds. Além disso, mostra-se que os métodos propostos podem ser aplicados para fluidos viscoelásticos. Novas estratégias são derivadas para obter métodos de projeção de segunda ordem de precisão para escoamentos com superfícies livres. Além dos resultados teóricos sobre a estabilidade de esquemas numéricos, técnicas implícitas e métodos de projeção, testes computacionais são realizados e comparados para consolidação da teoria apresentada. Os resultados numéricos são obtidos no sistema FREEFLOW. A eficiência e robustez das técnicas desenvolvidas neste trabalho são demonstradas na solução de problemas tridimensionais complexos com superfície livre e baixo número de Reynolds, incluindo os problemas do jato oscilante e do inchamento do extrudado / In the context of the MAC method and based on finite difference schemes, this work presents three studies: i) a stability analysis, ii) the development of implicit techniques, and iii) the construction of projection methods for free surface flows. In the stability analysis, the main result shows a precise stability restriction on the Crank-Nicolson method when one uses a staggered grid with Dirichlet explicit boundary conditions. However, the same method with implicit boundary conditions becomes unconditionally stable. In order to obtain more stable methods, implicit formulations are applied for the pressure equation at the free surface, which is derived from the normal stress condition. This approach results in a coupling of the velocity and pressure fields; hence new projection methods for free surface flows need to be developed. The developed projection methods result in new methodologies for low Reynolds number free surface flows. It is also shown that the proposed methods can be applied for viscoelastic fluids. New strategies are derived for obtaining second-order accurate projection methods for free surface flows. In addition to the theoretical results on the stability of numerical schemes, implicit techniques and projection methods, computational tests are carried out and the results compared to consolidate the theory. The numerical results are obtained by the FREEFLOW system. The eficiency and robustness of the techniques in this work are demonstrated by solving complex tridimensional problems involving free surface and low Reynolds numbers, including the jet buckling and the extrudate swell problems
144

Espaço incremental para a mineração visual de conjuntos dinâmicos de documentos / An incremental space for visual mining of dynamic document collections

Roberto Dantas de Pinho 05 June 2009 (has links)
Representações visuais têm sido adotadas na exploração de conjuntos de documentos, auxiliando a extração de conhecimento sem que seja necessária a análise individual de milhares de textos. Mapas de documentos, em particular, apresentam documentos individualmente representados espalhados em um espaço visual, refletindo suas relações de similaridade ou conexões. A construção destes mapas de documentos inclui, entre outras tarefas, o posicionamento dos textos e a identificação automática de áreas temáticas. Um desafio é a visualização de conjuntos dinâmicos de documentos. Na visualização de informação, é comum que alterações no conjunto de dados tenham um forte impacto na organização do espaço visual, dificultando a manutenção, por parte do usuário, de um mapa mental que o auxilie na interpretação dos dados apresentados e no acompanhamento das mudanças sofridas pelo conjunto de dados. Esta tese introduz um algoritmo para a construção dinâmica de mapas de documentos, capaz de manter uma disposição coerente à medida que elementos são adicionados ou removidos. O processo, inerentemente incremental e de baixa complexidade, utiliza um espaço bidimensional dividido em células, análogo a um tabuleiro de xadrez. Resultados consistentes foram alcançados em comparação com técnicas não incrementais de projeção de dados multidimensionais, tendo sido a técnica aplicada também em outros domínios, além de conjuntos de documentos. A visualização resultante não está sujeita a problemas de oclusão. A identificação de áreas temáticas é alcançada com técnicas de extração de regras de associação representativas para a identificação automática de tópicos. A combinação da extração de tópicos com a projeção incremental de dados em um processo integrado de mineração visual de textos compõe um espaço visual em que tópicos e áreas de interesse são destacados e atualizados à medida que o conjunto de dados é modificado / Visual representations are often adopted to explore document collections, assisting in knowledge extraction, and avoiding the thorough analysis of thousands of documents. Document maps present individual documents in visual spaces in such a way that their placement reflects similarity relations or connections between them. Building these maps requires, among other tasks, placing each document and identifying interesting areas or subsets. A current challenge is to visualize dynamic data sets. In Information Visualization, adding and removing data elements can strongly impact the underlying visual space. That can prevent a user from preserving a mental map that could assist her/him on understanding the content of a growing collection of documents or tracking changes on the underlying data set. This thesis presents a novel algorithm to create dynamic document maps, capable of maintaining a coherent disposition of elements, even for completely renewed sets. The process is inherently incremental, has low complexity and places elements on a 2D grid, analogous to a chess board. Consistent results were obtained as compared to (non-incremental) multidimensional scaling solutions, even when applied to visualizing domains other than document collections. Moreover, the corresponding visualization is not susceptible to occlusion. To assist users in indentifying interesting subsets, a topic extraction technique based on association rule mining was also developed. Together, they create a visual space where topics and interesting subsets are highlighted and constantly updated as the data set changes
145

Produção e emissão de CH4 e CO2 associadas aos reservatórios da UHE Belo Monte, Rio Xingu (PA) / not available

Alem, Victor Amadeus Tropiano 26 April 2019 (has links)
Reservatórios de usinas hidrelétricas instalados em regiões tropicais podem representar contribuição significativa para as emissões de gases efeito estufa (GEEs) para a atmosfera. Neste contexto, é relevante desenvolver métodos para avaliação da emissão de CH4 e CO2 causada pela instalação desses empreendimentos hidrelétricos. A UHE Belo Monte no Rio Xingu (leste da Amazônia) é a terceira maior usina hidrelétrica em potencial de geração de energia do mundo. A estimativa das emissões de GEEs associadas à UHE Belo Monte é exemplo de alta relevância que pode servir de base para futuros empreendimentos previstos para serem construídos na região amazônica. Neste estudo, foram realizados experimentos de incubação de solos e de inundação de testemunho de solos das áreas dos reservatórios da UHE Belo Monte. Estes experimentos auxiliaram na compreensão da resposta do fluxo de CH4 e CO2 tanto na resolução vertical (e.g. profundidade), quanto na resolução horizontal (e.g. contexto fisiográfico). Os resultados demonstraram alta produção de CH4 e CO2 na camada superior (10 cm), a qual apresenta conteúdo orgânico mais elevado. O solo de floresta de igapó apresentou a maior taxa potencial de produção de CH4 (15,59 nmol CH4 g-1 h-1), enquanto que o solo de pasto apresentou a maior taxa de produção de CO2 (34,96 nmol CO2 g-1 h-1). As emissões médias de CH4 e CO2 para os reservatórios da UHE Belo Monte foram, respectivamente, iguais a 54 ± 60 mmol CH4 m-2d-1 e 330 ± 149 mmol CO2 m-2 d-1. Esses resultados indicam incremento no fluxo de CH4 e CO2 em relação ao fluxo natural destes gases no Rio Xingu medido antes da instalação da UHE Belo Monte. Isto permite computar as emissões de CH4 e CO2 na energia gerada para a avaliação do custo-benefício do empreendimento hidrelétrico, em termos de emissões de CH4 e CO2 para a atmosfera. Além disso, foram realizadas projeções de emissões de carbono ao longo de 100 anos de operação da UHE Belo Monte e a elaboração de modelo do balanço de massa de carbono (\"C budget\") para os reservatórios da UHE Belo Monte. Estimou-se que o impacto em emissões líquidas do empreendimento ocasionaria emissões entre 2,3 e 15,1 Tg C para o período de 100 anos. Dessa forma, espera-se que este estudo sirva de base para avaliar casos análogos, já que o plano de expansão da matriz energética brasileira considera a instalação de outras usinas hidrelétricas em rios do leste amazônico / Hydroelectric reservoirs installed in tropical regions can represent a significant contribution to greenhouse gas emissions (GHGs) to the atmosphere. In this context, it is relevant to develop methods to evaluate CH4 and CO2 emissions caused by the installation of hydroelectric reservoirs. The Belo Monte hydroelectric plant in Xingu River (eastern Amazon) is the third largest hydroelectric plant in the world in terms of installed capacity and is an example of high relevance that can serve as a study case to evaluate future hydroelectric projects planned to be built in the Amazon region. In this study, soil incubation and soil flooding experiments using samples from the Belo Monte reservoir areas were performed to understand the response of the CH4 and CO2 fluxes under impounding of the Xingu River, considering both vertical (e.g. depth) and horizontal resolution (e.g. physiographic context). The results showed a high production of CH4 and CO2 in the top layer (10 cm) of soils, due to higher organic content. The igapó forest soil presented the highest potential production rate of CH4 (15.59 nmol CH4 g -1 h -1), while pasture soil presented the highest CO2 production rate (34.96 nmol CO2 g -1 h-1). The mean fluxes of CH4 and CO2 from Belo Monte reservoirs were respectively 54.05 ± 60.73 mmol CH4 m-2 d-1 and 330.76 ± 149.83 mmol CO2 m-2 d-1. These results indicate significant increase in the CH4 and CO2 fluxes compared to the natural fluxes of CH4 and CO2 from the Xingu River before damming for construction of the Belo Monte reservoirs. This allows to calculate GHGs emissions associated with the energy generated by the Belo Monte hydroelectric plant in the first years of operation and its cost-benefit evaluation in terms of carbon emissions. In addition, carbon emission projections for the next 100 years were carried out and a model for carbon mass balance (CH4 and CO2 budget) was elaborated for the Belo Monte reservoirs. It was estimated that the net emissions of the Belo Monte reservoirs would vary from 2.3 to 15.1 Tg C for a period of 100 years. Thus, this study is expected to serve as a basis to evaluate similar cases, as the plan of expansion of Brazilian energy plans matrix considers the installation of other hydroelectric plants in rivers of eastern Amazon.
146

Sobre coleções e aspectos de centralidade em dados multidimensionais / On collections and centrality aspects of multidimensional data

Oliveira, Douglas Cedrim 14 June 2016 (has links)
A análise de dados multidimensionais tem sido por muitos anos tópico de contínua investigação e uma das razões se deve ao fato desse tipo de dados ser encontrado em diversas áreas da ciência. Uma tarefa comum ao se analisar esse tipo de dados é a investigação de padrões pela interação em projeções multidimensionais dos dados para o espaço visual. O entendimento da relação entre as características do conjunto de dados (dataset) e a técnica utilizada para se obter uma representação visual desse dataset é de fundamental importância uma vez que esse entendimento pode fornecer uma melhor intuição a respeito do que se esperar da projeção. Por isso motivado, no presente trabalho investiga-se alguns aspectos de centralidade dos dados em dois cenários distintos: coleções de documentos com grafos de coautoria; dados multidimensionais mais gerais. No primeiro cenário, o dado multidimensional que representa os documentos possui informações mais específicas, o que possibilita a combinação de diferentes aspectos para analisá-los de forma sumarizada, bem como a noção de centralidade e relevância dentro da coleção. Isso é levado em consideração para propor uma metáfora visual combinada que possibilite a exploração de toda a coleção, bem como de documentos individuais. No segundo cenário, de dados multidimensionais gerais, assume-se que tais informações não estão disponíveis. Ainda assim, utilizando um conceito de estatística não-paramétrica, deno- minado funções de profundidade de dados (data-depth functions), é feita a avaliação da ação de técnicas de projeção multidimensionais sobre os dados, possibilitando entender como suas medidas de profundidade (centralidade) foram alteradas ao longo do processo, definindo uma também medida de qualidade para projeções. / Analysis of multidimensional data has been for many years a topic of continuous research and one of the reasons is such kind of data can be found on several different areas of science. A common task analyzing such data is to investigate patterns by interacting with spatializations of the data onto the visual space. Understanding the relation between underlying dataset characteristics and the technique used to provide a visual representation of such dataset is of fundamental importance since it can provide a better intuition on what to expect from the spatialization. Motivated by this, in this work we investigate some aspects of centrality on the data in two different scenarios: document collection with co-authorship graphs; general multidimensional data. In the first scenario, the multidimensional data which encodes the documents is much more information specific, meaning it makes possible to combine different aspects such as a summarized analysis, as well as the centrality and relevance notions among the documents in the collection. In order to propose a combined visual metaphor, this is taken into account make possible the visual exploration of the whole document collection as well as individual document analysis. In the second case, of general multidimensional data, there is an assumption that such additional information is not available. Nevertheless, using the concept of data-depth functions from non-parametric statistics it is analyzed the action of multidimensional projection techniques on the data, during the projection process, in order to make possible to understand how depth measures computed in the data have been modified along the process, which also defines a quality measure for multidimensional projections.
147

Análise de componentes independentes aplicada à separação de sinais de áudio. / Independent component analysis applied to separation of audio signals.

Moreto, Fernando Alves de Lima 19 March 2008 (has links)
Este trabalho estuda o modelo de análise em componentes independentes (ICA) para misturas instantâneas, aplicado na separação de sinais de áudio. Três algoritmos de separação de misturas instantâneas são avaliados: FastICA, PP (Projection Pursuit) e PearsonICA; possuindo dois princípios básicos em comum: as fontes devem ser independentes estatisticamente e não-Gaussianas. Para analisar a capacidade de separação dos algoritmos foram realizados dois grupos de experimentos. No primeiro grupo foram geradas misturas instantâneas, sinteticamente, a partir de sinais de áudio pré-definidos. Além disso, foram geradas misturas instantâneas a partir de sinais com características específicas, também geradas sinteticamente, para avaliar o comportamento dos algoritmos em situações específicas. Para o segundo grupo foram geradas misturas convolutivas no laboratório de acústica do LPS. Foi proposto o algoritmo PP, baseado no método de Busca de Projeções comumente usado em sistemas de exploração e classificação, para separação de múltiplas fontes como alternativa ao modelo ICA. Embora o método PP proposto possa ser utilizado para separação de fontes, ele não pode ser considerado um método ICA e não é garantida a extração das fontes. Finalmente, os experimentos validam os algoritmos estudados. / This work studies Independent Component Analysis (ICA) for instantaneous mixtures, applied to audio signal (source) separation. Three instantaneous mixture separation algorithms are considered: FastICA, PP (Projection Pursuit) and PearsonICA, presenting two common basic principles: sources must be statistically independent and non-Gaussian. In order to analyze each algorithm separation capability, two groups of experiments were carried out. In the first group, instantaneous mixtures were generated synthetically from predefined audio signals. Moreover, instantaneous mixtures were generated from specific signal generated with special features, synthetically, enabling the behavior analysis of the algorithms. In the second group, convolutive mixtures were probed in the acoustics laboratory of LPS at EPUSP. The PP algorithm is proposed, based on the Projection Pursuit technique usually applied in exploratory and clustering environments, for separation of multiple sources as an alternative to conventional ICA. Although the PP algorithm proposed could be applied to separate sources, it couldnt be considered an ICA method, and source extraction is not guaranteed. Finally, experiments validate the studied algorithms.
148

Estudo de métodos de interface imersa para as equações de Navier-Stokes / Study of immersed interface methods for the Navier-Stokes equations

Reis, Gabriela Aparecida dos 24 June 2016 (has links)
Uma grande limitação dos métodos de diferenças finitas é que eles estão restritos a malhas e domínios retangulares. Para descrever escoamentos em domínios complexos, como, por exemplo, problemas com superfícies livres, faz-se necessário o uso de técnicas acessórias. O método de interfaces imersas é uma dessas técnicas. Nesse trabalho, primeiramente foi desenvolvido um método de projeção, totalmente livre de pressão, para as equações de Navier-Stokes com variáveis primitivas em malha deslocada. Esse método é baseado em diferenças finitas compactas, possuindo segunda ordem temporal e quarta ordem espacial. Esse método foi combinado com o método de interface imersa de Linnick e Fasel [2] para resolver numericamente as equações de Stokes com quarta ordem de precisão. A verificação do código foi feita por meio do método das soluções manufaturadas e da comparação com resultados de outros autores em problemas clássicos da literatura. / A great limitation of finite differences methods is that they are restricted to retangular meshes and domains. In order to describe flows in complex domains, e.g. free surface problems, it is necessary to use accessory techniques. The immersed interface method is one of such techniques. In the present work, firstly, a projection method was developed, which is completely pressure-free, for the Navier-Stokes equations with primitive variables in a staggered mesh. This method is based on compact finite differences, with temporal second-order precision and spatial foruth-order precision. This method was combined with the immersed interface method from Linnick e Fasel [2] in order to numerically solve the Stokes equations with fourth-order precision. The verification of the code was performed with the manufactured solutions method and by comparing results with other authors for some classical problems in the literature.
149

Soluções aproximadas para algoritmos escaláveis de mineração de dados em domínios de dados complexos usando GPGPU / On approximate solutions to scalable data mining algorithms for complex data problems using GPGPU

Mamani, Alexander Victor Ocsa 22 September 2011 (has links)
A crescente disponibilidade de dados em diferentes domínios tem motivado o desenvolvimento de técnicas para descoberta de conhecimento em grandes volumes de dados complexos. Trabalhos recentes mostram que a busca em dados complexos é um campo de pesquisa importante, já que muitas tarefas de mineração de dados, como classificação, detecção de agrupamentos e descoberta de motifs, dependem de algoritmos de busca ao vizinho mais próximo. Para resolver o problema da busca dos vizinhos mais próximos em domínios complexos muitas abordagens determinísticas têm sido propostas com o objetivo de reduzir os efeitos da maldição da alta dimensionalidade. Por outro lado, algoritmos probabilísticos têm sido pouco explorados. Técnicas recentes relaxam a precisão dos resultados a fim de reduzir o custo computacional da busca. Além disso, em problemas de grande escala, uma solução aproximada com uma análise teórica sólida mostra-se mais adequada que uma solução exata com um modelo teórico fraco. Por outro lado, apesar de muitas soluções exatas e aproximadas de busca e mineração terem sido propostas, o modelo de programação em CPU impõe restrições de desempenho para esses tipos de solução. Uma abordagem para melhorar o tempo de execução de técnicas de recuperação e mineração de dados em várias ordens de magnitude é empregar arquiteturas emergentes de programação paralela, como a arquitetura CUDA. Neste contexto, este trabalho apresenta uma proposta para buscas kNN de alto desempenho baseada numa técnica de hashing e implementações paralelas em CUDA. A técnica proposta é baseada no esquema LSH, ou seja, usa-se projeções em subespac¸os. O LSH é uma solução aproximada e tem a vantagem de permitir consultas de custo sublinear para dados em altas dimensões. Usando implementações massivamente paralelas melhora-se tarefas de mineração de dados. Especificamente, foram desenvolvidos soluções de alto desempenho para algoritmos de descoberta de motifs baseados em implementações paralelas de consultas kNN. As implementações massivamente paralelas em CUDA permitem executar estudos experimentais sobre grandes conjuntos de dados reais e sintéticos. A avaliação de desempenho realizada neste trabalho usando GeForce GTX470 GPU resultou em um aumento de desempenho de até 7 vezes, em média sobre o estado da arte em buscas por similaridade e descoberta de motifs / The increasing availability of data in diverse domains has created a necessity to develop techniques and methods to discover knowledge from huge volumes of complex data, motivating many research works in databases, data mining and information retrieval communities. Recent studies have suggested that searching in complex data is an interesting research field because many data mining tasks such as classification, clustering and motif discovery depend on nearest neighbor search algorithms. Thus, many deterministic approaches have been proposed to solve the nearest neighbor search problem in complex domains, aiming to reduce the effects of the well-known curse of dimensionality. On the other hand, probabilistic algorithms have been slightly explored. Recently, new techniques aim to reduce the computational cost relaxing the quality of the query results. Moreover, in large-scale problems, an approximate solution with a solid theoretical analysis seems to be more appropriate than an exact solution with a weak theoretical model. On the other hand, even though several exact and approximate solutions have been proposed, single CPU architectures impose limits on performance to deliver these kinds of solution. An approach to improve the runtime of data mining and information retrieval techniques by an order-of-magnitude is to employ emerging many-core architectures such as CUDA-enabled GPUs. In this work we present a massively parallel kNN query algorithm based on hashing and CUDA implementation. Our method, based on the LSH scheme, is an approximate method which queries high-dimensional datasets with sub-linear computational time. By using the massively parallel implementation we improve data mining tasks, specifically we create solutions for (soft) realtime time series motif discovery. Experimental studies on large real and synthetic datasets were carried out thanks to the highly CUDA parallel implementation. Our performance evaluation on GeForce GTX 470 GPU resulted in average runtime speedups of up to 7x on the state-of-art of similarity search and motif discovery solutions
150

Simulação computacional adaptativa de escoamentos bifásicos viscoelásticos / Adaptive computational simulation of two-phase viscoelastic flows

Catalina Maria Rua Alvarez 28 May 2013 (has links)
A simulação computacional de escoamentos incompressíveis multifásicos tem avançado continuamente e é uma área extremamente importante em Dinâmica de Fluidos Computacional (DFC) por suas várias aplicações na indústria, em medicina e em biologia, apenas para citar alguns exemplos. Apresentamos modelos matemáticos e métodos numéricos tendo em vista simulações computacionais de fluidos bifásicos newtonianos e viscoelásticos (não newtonianos), em seus regimes transiente e estacionário de escoamento. Os ingredientes principais requeridos são o Modelo de Um Fluido e o Método da Fronteira Imersa em malhas adaptativas, usados em conjunto com os métodos da Projeção de Chorin-Temam e de Uzawa. Tais metodologias são obtidas a partir de equações a derivadas parciais simples as quais, naturalmente, são resolvidas em malhas adaptativas empregando métodos multinível-multigrid. Em certas ocasiões, entretanto, para escoamentos modelados pelas equações de Navier-Stokes (e.g. em problemas onde temos altos saltos de massa específica), tem-se problemas de convergência no escopo destes métodos. Além disso, no caso de escoamentos estacionários, resolver as equações de Stokes em sua forma discreta por tais métodos não é uma tarefa fácil. Verificamos que zeros na diagonal do sistema linear resultante impedem que métodos de relaxação usuais sejam empregados. As dificuldades mencionadas acima motivaram-nos a pesquisar por, a propor e a desenvolver alternativas à metodologia multinível-multigrid. No presente trabalho, propomos métodos para obter explicitamente as matrizes que representam os sistemas lineares oriundos da discretização daquelas equações a derivadas parciais simples que são a base dos métodos de Projeção e de Uzawa. Ter em mãos estas representações matriciais é vantajoso pois com elas podemos caracterizar tais sistemas lineares em termos das propriedades de seus raios espectrais, suas definições e simetria. Muito pouco (ou nada) se sabe efetivamente sobre estes sistemas lineares associados a discretizações em malhas compostas bloco-estruturadas. É importante salientarmos que, além disso, ganhamos acesso ao uso de bibliotecas numéricas externas, como o PETSc, com seus pré-condicionadores e métodos numéricos, seriais e paralelos, para resolver sistemas lineares. Infraestrutura para nossos desenvolvimentos foi propiciada pelo código denominado ``AMR2D\'\', um código doméstico para problemas em DFC que vem sendo cuidado ao longo dos anos pelos grupos de pesquisa em DFC do IME-USP e da FEMEC-UFU. Estendemos este código, adicionando módulos para escoamentos viscoelásticos e para escoamentos estacionários modelados pelas equações de Stokes. Além disso, melhoramos de maneira notável as rotinas de cálculo de valores fantasmas. Tais melhorias permitiram a implementação do Método dos Gradientes Bi-Conjugados, baseada em visitas retalho-a-retalho e varreduras da estrutura hierárquica nível-a-nível, essencial à implementação do Método de Uzawa. / Numerical simulation of incompressible multiphase flows has continuously of advanced and is an extremely important area in Computational Fluid Dynamics (CFD) because its several applications in industry, in medicine, and in biology, just to mention a few of them. We present mathematical models and numerical methods having in sight the computational simulation of two-phase Newtonian and viscoelastic fluids (non-Newtonian fluids), in the transient and stationary flow regimes. The main ingredients required are the One-fluid Model and the Immersed Boundary Method on dynamic, adaptive meshes, in concert with Chorin-Temam Projection and the Uzawa methods. These methodologies are built from simple linear partial differential equations which, most naturally, are solved on adaptive grids employing mutilevel-multigrid methods. On certain occasions, however, for transient flows modeled by the Navier-Stokes equations (e.g. in problems where we have high density jumps), one has convergence problems within the scope of these methods. Also, in the case of stationary flows, solving the discrete Stokes equations by those methods represents no straight forward task. It turns out that zeros in the diagonal of the resulting linear systems coming from the discrete equations prevent the usual relaxation methods from being used. Those difficulties, mentioned above, motivated us to search for, to propose, and to develop alternatives to the multilevel-multigrid methodology. In the present work, we propose methods to explicitly obtain the matrices that represent the linear systems arising from the discretization of those simple linear partial differential equations which form the basis of the Projection and Uzawa methods. Possessing these matrix representations is on our advantage to perform a characterization of those linear systems in terms of their spectral, definition, and symmetry properties. Very little is known about those for adaptive mesh discretizations. We highlight also that we gain access to the use of external numerical libraries, such as PETSc, with their preconditioners and numerical methods, both in serial and parallel versions, to solve linear systems. Infrastructure for our developments was offered by the code named ``AMR2D\'\' - an in-house CFD code, nurtured through the years by IME-USP and FEMEC-UFU CFD research groups. We were able to extend that code by adding a viscoelastic and a stationary Stokes solver modules, and improving remarkably the patchwise-based algorithm for computing ghost values. Those improvements proved to be essential to allow for the implementation of a patchwise Bi-Conjugate Gradient Method which ``powers\'\' Uzawa Method.

Page generated in 0.1014 seconds