• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 3
  • Tagged with
  • 21
  • 21
  • 14
  • 10
  • 8
  • 7
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

O Ciclo diário de precipitações pluviais no município de Fortaleza, em intervalos de cinco minutos / The Daily cycle of rainfall in the city of Fortaleza, in five-minute intervals

Pessoa, Francisco Edson Pinheiro 23 April 2015 (has links)
PESSOA, F. E. P. O Ciclo diário de precipitações pluviais no município de Fortaleza, em intervalos de cinco minutos. 2015. 82 f. Tese (Doutorado em Engenharia Civil: Recursos Hídricos) – Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2015. / Submitted by Marlene Sousa (mmarlene@ufc.br) on 2015-09-03T12:13:29Z No. of bitstreams: 1 2015_tese_feppessoa.pdf: 4655697 bytes, checksum: 2200253759a0304f82f44987c2a835c6 (MD5) / Approved for entry into archive by Marlene Sousa(mmarlene@ufc.br) on 2015-10-09T17:23:12Z (GMT) No. of bitstreams: 1 2015_tese_feppessoa.pdf: 4655697 bytes, checksum: 2200253759a0304f82f44987c2a835c6 (MD5) / Made available in DSpace on 2015-10-09T17:23:12Z (GMT). No. of bitstreams: 1 2015_tese_feppessoa.pdf: 4655697 bytes, checksum: 2200253759a0304f82f44987c2a835c6 (MD5) Previous issue date: 2015-04-23 / The research deals with the daily distribution of intense rainfall in the city of Fortaleza, Ceará. Were used 30 years of pluvi ograph observations of the climatological station of the Federal University of Ceará, in Campus do Pici. The studies were conducted with a single series, with all the values to determine an annual basis. Later, were used 12 monthly series, covering the p eriod from 30 years, to study the seasonality. Annual data were adjusted to sinusoidal curves and polynomials of the third degree, forced to maintain continuity, called cyclic polynomials. It was observed that the maximum rainfall occurs in the early hours of the day and the minimum rainfall occurs in the early evening. It was also studied in the monthly series the time interval size between the maximum and the minimum rainfall. This time interval was correlated with the duration of insolation. It concludes that there is a strong correlation between duration of insolation and the time interval between the maximum and the minimum rainfall / A pesquisa trata da distribuição infradiária de precipitações intensas no Município de Fortaleza, Estado do Ceará. Foram utilizados 30 anos de observações pluviográficas, digitalizadas, da estação climatológica da Universidade Federal do Ceará no Campus do Pici. Os estudos foram realizados com uma única série, com todos os valores para determinar o regime anual. Posteriormente, foram utilizadas as 12 séries mensais, cobrindo o período de 30 anos, para estudar a sazonalidade. Os dados anuais foram ajustados a curvas senoidais e a polinômios do terceiro grau, forçados para manter a continuidade, denominados polinômios cíclicos. Observou-se que o horário de máxima pluviosidade ocorre no início do dia e o mínimo ocorre no início da noite, Estudou-se também, nas séries mensais, o tamanho do intervalo de tempo entre o máximo e o mínimo de pluviosidade. Esse intervalo de tempo foi correlacionado com a duração do dia de insolação. Conclui-se que há uma forte correlação entre a duração do dia de insolação e o intervalo de tempo entre o pico de máxima e de mínima pluviosidade
2

Desenvolvimento de algoritmos paralelos baseados em GPU para solução de problemas na área nuclear

ALMEIDA, Adino Americo Heimlich 08 1900 (has links)
Submitted by Almir Azevedo (barbio1313@gmail.com) on 2013-12-09T15:22:53Z No. of bitstreams: 1 dissertacao_mestrado_ien_2009_07.pdf: 3736266 bytes, checksum: 31232ff6b5e978d5f499d794279bbc47 (MD5) / Made available in DSpace on 2013-12-09T15:22:53Z (GMT). No. of bitstreams: 1 dissertacao_mestrado_ien_2009_07.pdf: 3736266 bytes, checksum: 31232ff6b5e978d5f499d794279bbc47 (MD5) Previous issue date: 2009 / Unidades de processamento gráfico ou GPUs, são co-processadores de alto desempenho destinados inicialmente a melhorar ou prover de capacidade gráfica um computador. Desde que pesquisadores e profissionais perceberam o potencial da utilização de GPU para fins gerais, a sua aplicação tem sido expandida a outras áreas fora do âmbito da computação gráfica. O principal objetivo deste trabalho é avaliar o impacto de utilização de GPU em dois problemas típicos da área nuclear. O transporte de nêutros utilizando simulação Monte Carlo e a resolução da equação do calor em um domínio bi-dimensional pelo método de diferenças finitas foram os problemas escolhidos. Para conseguir isso, desenvolvemos algorítmos paralelos para GPU e CPU nos dois problemas descritos anteriormente. A comparação demonstrou que a abordagem baseada em GPU é mais rápida do que a CPU em um computador com dois processadores quad core, sem perda de precisão nos resultados encontrados / Graphics Processing Units (GPU) are high performance co-processors intended, originally, to improve the use and quality of computer graphics applications. Since researchers and practitioners realized the potential of using GPU in two tipical problems of Nuclear area. The neutron transport simulation using Monte Carlo method and solve heat equation in a bi-dimensional domain by finite differences method. To achieve this, we develop parallel algorithms for GPU and CPU in the two problems described above. The comparison showed that the GPU-based approach is faster than CPU in a computer with two quad core processors, without precision loss.
3

Métodos para redução de modelos

Edvaldo Assunção 01 December 1991 (has links)
Este trabalho aborda, inicialmente, alguns métodos clássicos de redução de modelos, em particular os métodos de Davison [3] e o de Marshall [4]. Para esses dois métodos, foram propostos, por Gopal e Mehta [5], dois critérios de seleção dos auto-valores que levam em consideração os resíduos associados aos auto-valores e não apenas a dominância dos auto-valores. Porém, eses critérios apresentaram resultados deficientes para muitos sistemas dinâmicos, como mostrado em [10]. Para corrigir essas deficiências, no capítulo 3 propõe-se dois critérios de seleção dos auto-valroes, um para o método de Davison e o outro para o método de Marshall. Adicionalmente, apresenta -se alguns exemplos de aplicação que ilustram as vantagens alcançadas com essas novas propostas. No capítulo 4, aborda se um método moderno de redução de modelos propostos por Moore [7], que utiliza a realização balanceada. Esse método possui um critério para escolha da ordem do modelo reduzido que não é bem definido, ou seja, a ordem do modelo reduzido, r, deve ser tal que O-r ]]Or+1, onde O é o r-ésimo valor singular do sistema dinâmico. Porém, não se estabelece regras para quantificar essa relação. Para sanar esta deficiência, no capitulo 4 é proposto um índice de desempenho que relaciona o desempenho dinâmico do modelo reduzido com a sua ordem, sem a necessidade de se calcular todos os modelos reduzidos possíveis. Com isso consegue se um diagrama de barras que orienta na escolha da ordem do modelo reduzido. Utilizando a realização balanceada de [7], Guth e Rake [12] propuseram, recentemente, um método de redução de modelos que preserva o ganho em regime do modelo original. No capítulo 4 apresenta se algumas comparações desse método com outro utilizando a redução de Marshall que garante o mesmo ganho, com menor carga computacional. No que se refere ao problema de redução do controlador, analisa-se o método LQG balanceado que possui boas propriedades de robustez. Adicionalmente, apresenta-se algumas considerações quanto ao seu critério de seleção da ordem do controlador reduzido que garante a estabilidade do sistemacompensado com esse controlador. Finalmente, apresenta-se no capítulo 6 algumas conclusões e sugestões para trabalhos futuros.
4

Computer algebra in modern functional languages.

José Romildo Malaquias 00 December 2001 (has links)
Many computer algebra systems have already been proposed and implemented. Most of them are implemented in or even implement languages without the referential transparency property, making it difficult, if not impractical, to reason about algebra programs. This dissertation presents a computer algebra system implemented as a library in the Haskell programming language, a modern functional language with the desired referential transparency property. The author presents the foundations and basic algorithms for manipulation of algebraic expressions in a declarative context, compatible with Mathematics. He examines the adequacy of the constructs provided by the Haskell programming language for implementing such a library in a modular way, so that it can be easily extended with the inclusion of new algebraic formulas and manipulations. Such extensions should keep compatibility with prior versions of the library. This work also contributes for showing that modern functional languages like Haskell are viable for day to day programming, even beating conventional languages in some aspects, like level of abstraction.
5

Computação verificada aplicada à resolução de sistemas lineares intervalares densos em arquiteturas multicore

Milani, Cleber Roberto January 2010 (has links)
Made available in DSpace on 2013-08-07T18:42:24Z (GMT). No. of bitstreams: 1 000426166-Texto+Completo-0.pdf: 1112842 bytes, checksum: 272980ccb156c75a298ac99c2e9c1b46 (MD5) Previous issue date: 2010 / Bounding the solution set of Systems of Linear Equations is a major problem in Computer Science. However, traditional methods offer no guarantee of correct solutions and not even of the existence of a solution. Hence, automatic result verification is an important additional tool in these algorithms. However, Verified Computing increases the computational cost and, in some cases, the required resolution time becomes unacceptable. The use of High Performance Computing (HPC) techniques appears as a solution. Several works have focused on optimizing Verified Computing performance for computer clusters. However, many changes have been occurring in High Performance Computing. Given the number of cores on multicore chips expected to reach tens in a few years, efficient implementations of numerical solutions using shared memory programming models is of urgent interest. In this context, this work presents a self-verified solver for Dense Interval Linear Systems optimized for parallel execution on multicores processors. The adopted strategies have resulted in a scalable solver that obtained up to 85% of reduction at execution time and a speedup of 6. 70 when solving a 15,000x15,000 Interval Linear System on a eight core computer. / A resolução de Sistemas de Equações Lineares é um problema de grande importância em Ciência da Computação. Entretanto, os métodos tradicionais não oferecem garantia de soluções corretas e nem mesmo da existência de uma solução. Por isso, cada vez mais tem-se aplicado a Computação Verificada em tais algoritmos. Por outro lado, a Computação Verificada aumenta o custo computacional e, em alguns casos, impossibilita a resolução dos sistemas em um tempo aceitável. Uma alternativa encontrada para minimizar o custo é a utilização de Computação Paralela. Diversos trabalhos têm focado em otimizar a Computação Verificada para execução em agregados de computadores. Entretanto, dado o grande avanço dos processadores com múltiplos núcleos de processamento (cores), é uma necessidade premente que sejam também propostas soluções baseadas em modelos de paralelismo para memória compartilhada buscando, assim, explorar eficientemente as novas arquiteturas. Nesse contexto, o presente trabalho apresenta uma ferramenta para resolução verificada de Sistemas Lineares Densos Intervalares de Grande Porte. Além de prover verificação automática dos resultados, a ferramenta é otimizada para execução em arquiteturas multicore. As estratégias adotadas permitiram desenvolver uma solução escalável que, ao resolver Sistemas Intervalares de ordem 15. 000x15. 000 em um computador com 8 cores, obteve redução de 85% no tempo de execução e speedup de 6,70 em comparação com a solução inicial.
6

Uma abordagem heurística construtiva para o problema de minimização de pilhas abertas.

Marco Antonio Moreira de Carvalho 22 December 2008 (has links)
Aborda-se neste trabalho um problema de seqüenciamento de padrões denominado Problema de Minimização de Pilhas Abertas, o qual visa aprimorar o processo de produção de corte de objetos e que possui grande aplicação industrial. Além da aplicação direta, o tratamento do problema é interessante devido ao alto nível de dificuldade para determinação sua solução por métodos computacionais e à sua versatilidade, pois pode-se utilizá-lo para modelar vários outros problemas tanto práticos quanto mais teóricos. Propõe-se uma heurística construtiva que usa um procedimento de geração de permutações de partes de uma solução e uma regra de melhoria baseada na antecipação do fechamento de pilhas. Além disso, são propostas e discutidas a utilização de pré-processamento dos dados de entrada do problema e a simplificação de um dos métodos de solução da literatura baseado em teoria dos grafos para geração de uma solução inicial. Os resultados dos experimentos computacionais extensivos realizados demonstram a eficiência das idéias propostas tanto isoladamente quanto em conjunto, frente aos métodos da literatura para lhe servir de comparação. A heurística proposta é uma alternativa competitiva para a solução do problema abordado.
7

Partição espacial utilizando triangulação de Delaunay e Hiperplanos de SVM para classificação de padrões multiclasse

Luciana Babberg Abiuzi 14 July 2010 (has links)
As Máquinas de Vetores de Suporte (SVMs) são consideradas ferramentas com grande capacidade de generalização e são utilizadas em tarefas de classificação, clusterização e regressão. Foram originalmente criadas para trabalhar com problemas contendo duas classes, entretanto, muitas aplicações reais necessitam de um método para discriminação em múltiplas classes, como são os casos da identificação biométrica, categorização de textos, reconhecimento de caracteres, entre outros. Além das SVMs existem métodos de classificação puramente geométricos que são interessantes por sua rapidez, seu baixo custo em memória e sua capacidade de classificar dados linearmente separáveis. Um desses métodos é o Diagrama de Voronoi, que em conjunto com seu grafo dual conhecido por Triangulação de Delaunay, são aplicados em áreas como Arqueologia, Astronomia, Cartografia, Geometria Computacional, entre outras. Neste trabalho é proposto um mecanismo para utilizar a estrutura geométrica da Triangulação de Delaunay para definir o esquema de treinamento dos hiperplanos obtidos através das SVMs. A partir deste ponto, é proposta uma função para tratamento das regiões consideradas como não-classificáveis encontradas com a ocorrência das interseções entre os hiperplanos gerados. Com a aplicação dos métodos, as partições obtidas no plano permitem uma classificação multiclasse eficiente e com bons resultados de generalização mesmo com o uso de quantidade significativa de classes contendo poucas amostras.
8

Detecção de outliers usando regras de associação na descrição do padrão de comportamento.

Roberto Sávio de Oliveira Júnior 23 October 2009 (has links)
A mineração de dados se divide em algumas categorias, dentre elas a mineração de outliers. Outliers são registros que não seguem padrões esperados. Eles podem ser interpretados como ruídos ou falhas de medição, sendo assim descartados, mas também podem ser considerados casos especiais que trazem relatos úteis que podem ser usados para encontrar novas oportunidades de negócio, falhas ou indícios de fraudes. Em alguns setores, é importante que a detecção de outliers ocorra com a maior antecedência possível, de modo que ações possam ser tomadas o quanto antes. Nesta dissertação, propomos uma abordagem denominada Comprass para mineração de outliers. Utilizamos a técnica de mineração denominada Regras de Associação, mais especificamente o algoritmo Apriori, para definirmos os padrões comportamentais a serem utilizados em nossa abordagem. A abordagem Comprass permite atribuir pesos a variáveis e o valor máximo aceitável para discordância do padrão. Em nosso estudo, os pesos e o valor máximo aceitável é atribuído manualmente pelo especialista da área. O uso da abordagem Comprass permite que a mineração de outliers possa ser feita em tempo real, ou seja, à medida que os dados são coletados pelos sistemas de aquisição de dados. A abordagem Comprass utiliza as regras de associação geradas para comparar o novo registro mensurando, por meio dos pesos atribuídos às variáveis, qual a variação do novo registro em relação ao padrão estabelecido pelas regras. Na abordagem Comprass, uma possível mudança no padrão analisado não é refletida de forma incremental e precisa de nova geração das regras considerando os novos registros. A abordagem Comprass foi testada em bases de dados reais e sintéticos dos setores de telefonia e meteorologia.
9

Estimação de ruído de motores turbofan instalados em aeronaves de transporte

Daniel Amado Muraro 22 June 2009 (has links)
A importância de se desenvolver aeronaves com baixos níveis de ruído interno e externo já é uma cultura generalizada na comunidade aeronáutica e de aviação. Aeronaves ruidosas podem ser simplesmente banidas de operar em determinados aeroportos ou pagar taxas maiores para poder operar em vários outros. Neste contexto, para auxiliar o projeto de aeronaves menos ruidosas, o presente trabalho ocupa-se com o desenvolvimento de uma ferramenta numérica para estimação de ruído externo gerado por motores turbofan instalados em aeronaves. Um código computacional foi desenvolvido seguindo a metodologia de alguns relatórios NASA TM-X para fornecer uma estimativa de ruído em volta da aeronave em distâncias desejadas pelo usuário. Cada relatório aborda um componente específico do motor, a saber, entrada de ar, câmara de combustão, turbina e bocal de exaustão. O código foi implantado na plataforma MATLAB visando à integração com rotinas de projeto e otimização já existentes, escritas nesta linguagem. O código foi validado com uma comparação com a metodologia ESDU e com um trabalho semelhante desenvolvido na Universidade de Berlin, e suas aplicações em projeto de aeronave são exemplificadas e discutidas no presente trabalho.
10

Geração das K-melhores soluções para o problema da mochila unidimensional em ambiente distribuído

Rodrigo de Castro Penna Franca 01 November 1996 (has links)
Este trabalho sugere um algoritmo para ambiente distribuído que determina as K-melhores soluções para o problema da mochila unidimensional. O algoritmo baseia-se no trabalho de Yanasse, Soma e Maculan (1995), que trata da mesma questão para ambiente serial. Entretanto, convém ressaltar que a versão distribuída do algoritmo possui profundas modificações em relação à versão serial. Primeiramente, o algoritmo serial foi estudado e totalmente implementado. A segunda etapa do trabalho foi o desenvolvimento do algoritmo distribuído. Parte desta tarefa tratou da escolha de uma abordagem de implementação no ambiente distribuído. Duas abordagens foram levadas em consideração e os respectivos algoritmos foram implementados e testados. O paradigma divide and conquer para algoritmos paralelos foi o que prevaleceu. Quanto ao ambiente operacional, o algoritmo serial foi desenvolvido, na sua fase inicial, sobre a plataforma 486/Windows e linguagem de programação C++. Posteriormente, portou-se a aplicação para o ambiente RISC/UNIX. O algoritmo distribuído foi desenvolvido em linguagem de programação C++ aliada às funções da biblioteca PVM, Parallel Virtual Machine (Máquina Paralela Virtual), em uma rede de estações UNIX. Resutaldos computacionais são apresentados.

Page generated in 0.1119 seconds