• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2841
  • 574
  • 242
  • 101
  • 90
  • 90
  • 88
  • 47
  • 45
  • 45
  • 45
  • 43
  • 14
  • 2
  • 1
  • Tagged with
  • 3720
  • 1131
  • 945
  • 592
  • 587
  • 577
  • 525
  • 495
  • 466
  • 348
  • 308
  • 286
  • 279
  • 259
  • 249
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Um algoritmo para o cálculo da confiabilidade de sistemas com falhas duais

Ramos, Edla Maria Faust January 1985 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Produção. / Made available in DSpace on 2012-10-15T23:22:40Z (GMT). No. of bitstreams: 0Bitstream added on 2013-07-16T17:04:08Z : No. of bitstreams: 1 261480.pdf: 2265436 bytes, checksum: 9f7b022a74eb95fbc57029bc1a0ba2c6 (MD5)
272

Análise comparativa de alguns algoritmos na soluçao do problema da mochila

Ivanqui, Ivan Ludgero January 1986 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Produção. / Made available in DSpace on 2012-10-16T00:00:43Z (GMT). No. of bitstreams: 0Bitstream added on 2013-07-16T17:07:16Z : No. of bitstreams: 1 260955.pdf: 1609404 bytes, checksum: 5d1d336c21bb0c9e0839be7e955c5c72 (MD5)
273

Análise de um algoritmo de fluxo em redes com remoção de arcos

Araújo, Nelcy Dabrowski de January 1981 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Produção. / Made available in DSpace on 2012-10-16T21:50:35Z (GMT). No. of bitstreams: 0Bitstream added on 2013-07-16T16:54:33Z : No. of bitstreams: 1 261345.pdf: 1226019 bytes, checksum: b60cd4c3c536744cec299e87c56bc970 (MD5)
274

Análise estatística do algoritmo £LMS no domínio transformado em ambientes estacionários e não-estacionários

Lobato, Elen Macedo January 2006 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica. / Made available in DSpace on 2012-10-22T15:01:10Z (GMT). No. of bitstreams: 1 227977.pdf: 1664466 bytes, checksum: 7905a80589fd1f94d37b096fda731c5d (MD5) / Este trabalho apresenta uma análise estatística do algoritmo LMS (least mean square) no domínio transformado (LMS DT) tanto para ambientes estacionários quanto não estacionários, resultando em um modelo mais preciso do que aqueles apresentados na literatura atual. A motivação para analisar tal algoritmo vem do fato de que este apresenta uma taxa de convergência mais alta para sinais correlacionados quando comparado com outros algoritmos adaptativos tendo complexidade computacional similar. Tal fato o torna bastante competitivo devido ao grande número de aplicações que consideram sinais de entrada coloridos. O algoritmo LMS DT apresenta uma etapa de transformação ortogonal, que promove uma separação do sinal de entrada em sinais ocupando bandas de freqüência distintas. As amostras intrabandas são correlacionadas, sendo esta correlação mais alta à medida que o número de bandas aumenta. Em nosso conhecimento, não existe um modelo estatístico que forneça uma solução geral e precisa levando em conta tal correlação. Assim, este trabalho propõe um modelo estatístico para o algoritmo LMS DT considerando as correlações existentes intrabandas. A partir deste modelo, são obtidos parâmetros de projeto, tais como passos de adaptação máximo e ótimo, como também o desajuste do algoritmo. Por meio de simulações numéricas, constata se uma boa concordância entre os resultados obtidos através do método de Monte Carlo e aqueles fornecidos pelo modelo estatístico proposto, tanto para sinais de entrada Gaussianos brancos quanto coloridos. This work presents a statistical analysis of the transform domain least mean square (TDLMS) algorithm for both stationary and nonstationary environment, resulting in a more accurate model than those discussed in the current open literature. The motivation to analyze such an algorithm comes from the fact that this presents, for correlated signals, a higher convergence speed as compared with other adaptive algorithms that possess a similar computational complexity. Such a fact makes it a highly competitive alternative to applications considering colored input signals. The TDLMS algorithm has an orthogonal transformation stage, providing a separation of the input signal into different frequency bands. The intra band samples are correlated, being the larger the number of bands, the higher is the correlation. Up to our knowledge, there is no other statistical model of this adaptive algorithm, providing a general and accurate solution, taking into account such correlations. In this way, this work proposes an accurate model allowing for these existing intra band correlations. Project parameters are obtained from the statistical model, such as upper bound for the step size, optimum step size value, and algorithm misadjustment. Through numerical simulations, a good agreement between the Monte Carlo method and the predictions from the proposed statistical model is verified for both white and colored Gaussian input signals.
275

Análise estatística dos momentos de primeira e segunda ordens dos algoritmos DLMS e LMS de erro filtrado modificados

López, Juan Rodrigo Velásquez January 2006 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica. / Made available in DSpace on 2012-10-22T21:50:55Z (GMT). No. of bitstreams: 1 238305.pdf: 1067592 bytes, checksum: cf5c8979ea952049e3e3fc10b14d86cd (MD5) / Neste trabalho, são propostos modelos analíticos para os algoritmos delayed least-mean-square (DLMS) e least-mean-square (LMS) de erro filtrado modificados. Para cada um desses algoritmos, são obtidas as expressões que descrevem o comportamento dos momentos de primeira e segunda ordens e da curva de aprendizagem. Os modelos são obtidos sem invocar a suposição clássica da Teoria da Independência (TI), levando-se em conta a hipótese de adaptação lenta e considerando-se sinais de entrada Gaussianos. Os modelos aqui propostos não dependem do tipo de sinal de referência, podendo ser utilizados tanto para sinais de entrada brancos quanto para sinais coloridos. Para fins de comparação em cada caso, são também derivados modelos considerando-se a TI. A partir dos resultados obtidos, observa-se que os modelos propostos descrevem adequadamente o comportamento dos algoritmos em questão; em contraste, os modelos que consideram a TI não predizem tais algoritmos satisfatoriamente.
276

Implementação em EPGA de técnicas de equalização adaptativa utilizando o algoritmo Cordic

Chang, Bruno Sens January 2008 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica. / Made available in DSpace on 2012-10-24T06:13:39Z (GMT). No. of bitstreams: 1 265980.pdf: 20761492 bytes, checksum: d54be5e851c3339ebef15f6605543a4e (MD5) / Esta dissertação apresenta uma implementação em uma FPGA (Arranjo de Portas Programáveis em Campo - em inglês, Field Programmable Gate Array de um equalizador adaptativo que utiliza o algoritmo LMS trigonométrico. Este algoritmo utiliza variáveis trigonométricas, que são relacionadas monotonicamente aos coeficientes do equalizador. O algoritmo LMS trigonométrico é especialmente apropriado para uma realização utilizando processadores CORDIC (Computador Digital de Rotação de Coordenadas - em inglês, Coordinate Rotation Digital Computer, já que estes calculam simultaneamente as funções trigonométricas necessárias às operações de filtragem e adaptação dos coeficientes. A utilização deste algoritmo impõe a necessidade da definição de um hipercubo, no qual deve estar contido o ponto de mínimo da função objetivo (potência do erro entre o sinal desejado e a saída do equalizador). A literatura disponível não é clara quanto à definição deste hipercubo. Esta dissertação propõe a adoção do procedimento multisplit para facilitar a definição desse hipercubo. Simulações realizadas indicam que a utilização do procedimento multisplit permite que o algoritmo LMS trigonométrico alcance a convergência em uma variedade de canais sem a necessidade de uma busca exaustiva dos valores das coordenadas do hipercubo.
277

Polinômios multivariados : fatoração e MDC

Allem, Luiz Emílio January 2010 (has links)
Nesta tese de doutorado estudamos polinômios multivariados. Começamos fazendo uma revisão bibliográfica sobre o teorema da irredutibilidade de Hilbert. Abordamos com detalhes as demonstrações da versão clássica feita pelo próprio Hilbert e das versões efetivas feitas por Erich Kaltofen e Shuhong Gao. Desenvolvemos um novo algoritmo para fatoração de polinômios multivariados inteiros usando logaritmo discreto. Nosso método é baseado em novos tipos de reduções de polinômios multivariados para polinômios bivariados, as quais têm como principal característica manter a esparsidade do polinômio. Nosso método mostrou-se eficiente quando usado para fatorar polinômios multivariados que possuem apenas fatores esparsos e quando usado para extrair fatores esparsos de polinômios multivariados que têm fatores esparsos e densos. Terminamos essa tese trabalhando com o máximo divisor comum (mdc) de polinômios. Estudamos critérios geométricos de politopos para determinar coprimalidade entre polinômios multivariados. Desenvolvemos um novo algoritmo que trabalha em tempo polinomial (sobre o número de monômios) para detectar coprimalidade entre polinômios multivariados usando seus politopos de Newton associados. Esse método geométrico tem a vantagem de determinar a coprimalidade entre famílias de polinômios, pois podemos mudar arbitrariamente os coeficientes dos polinômios desde que certos coeficientes permaneçam não nulos. Além disso, os polinômios permanecerão coprimos sobre qualquer corpo. Terminamos mostrando como construir o mdc entre dois polinômios bivariados usando seus polígonos de Newton associados. / In this dissertation we study multivariate polynomials. We begin with a bibliographical review on the Hilbert irreducibility theorem. We cover in detail the demonstrations of the classic version due to Hilbert himself and effective versions due to Erich Kaltofen and Shuhong Gao. We developed a new algorithm for factoring multivariate integral polynomials using discrete logarithm. Our method is based on new types of reductions, from multivariate polynomias to bivariate polynomials, whose main feature is to maintain the sparsity of the polynomial. Our method has proved to be eficient when used for factoring multivariate polynomials that have only sparse factors and when used to extract sparse factors of multivariate polynomials that have sparse and dense factors. We finish this dissertation studying the greatest common divisor (gcd) of polynomials. We study geometric criteria of polytopes to determine coprimality between multivariate polynomials. We developed a new algorithm that works in polynomial time (on the number of monomials) to detect coprimality between multivariate polynomials using their associated Newton polytopes. This geometric method has the advantage of determining the coprimality between families of polynomials, since we can arbitrarily change the polynomial coeficients as long as some coeficients remain nonzero. Moreover, the coprime polynomials shall remain coprime on anyfield. We ended up showing how to build the gcd between two bivariate polynomials using their associated Newton polygons.
278

ANAC : uma ferramenta para a automatização da análise da complexidade de algoritmos

Barbosa, Marco Antonio de Castro January 2001 (has links)
A análise de um algoritmo tem por finalidade melhorar, quando possível, seu desempenho e dar condições de poder optar pelo melhor, dentre os algoritmos existentes, para resolver o mesmo problema. O cálculo da complexidade de algoritmos é muito dependente da classe dos algoritmos analisados. O cálculo depende da função tamanho e das operações fundamentais. Alguns aspectos do cálculo da complexidade, entretanto, não dependem do tipo de problema que o algoritmo resolve, mas somente das estruturas que o compõem, podendo, desta maneira, ser generalizados. Com base neste princípio, surgiu um método para o cálculo da complexidade de algoritmos no pior caso. Neste método foi definido que cada estrutura algorítmica possui uma equação de complexidade associada. Esse método propiciou a análise automática da complexidade de algoritmos. A análise automática de algoritmos tem como principal objetivo tornar o processo de cálculo da complexidade mais acessível. A união da metodologia para o pior caso, associada com a idéia da análise automática de programas, serviu de motivação para o desenvolvimento do protótipo de sistema ANAC, que é uma ferramenta para análise automática da complexidade de algoritmos não recursivos. O objetivo deste trabalho é implementar esta metodologia de cálculo de complexidade de algoritmos no pior caso, com a utilização de técnicas de construção de compiladores para que este sistema possa analisar algoritmos gerando como resultado final a complexidade do algoritmo dada em ordens assintóticas.
279

Impacto de diferentes algoritmos e geometria de depósitos minerais no planejamento de longo prazo

Candido, Mateus Toniolo January 2012 (has links)
O principal objetivo do planejamento mineiro é determinar a distribuição de quantidade e qualidade do minério ao longo de uma sequencia de tempo, ou seja, determinar o minério necessário para tornar o projeto técnica e economicamente viável. Esse sequenciamento é fundamental para o sucesso financeiro de uma atividade de mineração e, atualmente, este sequenciamento ideal pode ser obtido por meio de vários aplicativos computacionais de mineração. Cada um deles têm suas particularidades que geralmente não são levadas em conta. As alterações resultantes de modelos diferentes de cava final podem ter impacto significativo sobre o sucesso da empresa tanto financeira quanto operacionalmente. A maioria dos estudos de planejamento de lavra apresenta a cava final calculada por um único algoritmo escolhido pelo engenheiro de projeto, devido à disponibilidade ou conhecimento em determinado aplicativo computacional. É importante que se tenha em mente que o objetivo do planejamento de lavra a longo prazo é definir os limites de cava final e o projeto de exaustão para um depósito mineral com base em uma função benefício, considerando fundamentalmente as receitas e os custos envolvidos desde a lavra até o processo e comercialização do produto. Além disso, restringe aspectos técnicos e geométricos do projeto, como ângulos de inclinação dos taludes, alturas de bancada, quantidades e teor de minério, bem como sua distribuição espacial, além da procura pelo máximo valor presente líquido, é necessário na tarefa de otimização de cava. Existem muitos algoritmos implementados em diversos programas comerciais para o cálculo da cava final e sequenciamento de longo prazo e, neste sentido, um dos objetivos deste trabalho é verificar a eficácia dos algoritmos que obtiveram maior reconhecimento dentro da indústria mineral, além de verificar se existem diferenças relacionadas com o tipo de mineralização e depósito onde eles são aplicados. A comparação é realizada usando dois programas comerciais e dois algoritmos diferentes para determinar se as diferenças podem ser observadas para tipos de mineralização distintos foi feita a implementação de dois algoritmos em modelos de blocos tridimensionais estimados e analisados para três tipos de depósito, um corpo de minério de cobre, um grande depósito de fosfato ígneo e uma mineralização aurífera, de espessura pequena relativamente à extensão em profundidade, apresentando um mergulho subvertical. / The main objective of mine planning is to determine ore quantity and quality distribution along a time sequence, i.e., scheduling the ore necessary to make the project technically and economic viable. These temporal sequences are fundamental for the financial success of a mine activity and presently this optimal sequence can be obtained through various mining software. Each of them has its particularities which generally are not taken into account. Changes resulting from different final pit models can have significant impact on the success of enterprise both financial and operational. Most studies in mine planning present the final pit calculated by only one algorithm chosen by the author, due to software availability or knowledge. The goal of the long-term mine planning is to define the boundaries of final pit for mine based on a profit function considering selling price discounted from mining and processing costs. Besides, technical constrains and geometrical aspects of the project, such as slope angles, bench heights, ore grade quantities and spatial distribution, looking for maximum net value are also necessary for the pit optimization task. There are many algorithms implemented in various commercial softwares for the ultimate pit calculation and one of the purposes of this work is to check the effectiveness of the algorithms that obtained greater recognition within the mineral industry and if there are differences related to the type of mineralization and deposit where they are applied. The comparison is performed using the two commercial softwares, and two different algorithms to determine if differences can be observed to different mineralization types. The implementation of the two algorithms in three-dimensional block models estimated and analyzed for three types of deposits: a massive copper orebody, a large igneous phosphate and a subvertical gold vein type.
280

Uma abordagem numérico-experimental para a identificação de dano estrutural utilizando o método Simulated Annealing

Ferreira, Franklin de Souza January 2008 (has links)
A detecção de dano estrutural é um assunto muito estudado em virtude do grau de responsabilidade envolvido na manutenção de certas estruturas por diversas décadas, tais como pontes, torres de transmissão de energia, ou mesmo em falhas mecânicas de componentes automotivos, navais, de aviação, etc. A identificação do dano em estruturas por meio de ensaios dinâmicos não destrutivos tem se tornado uma técnica atrativa, devido principalmente a redução de incertezas e queda nos preços dos equipamentos utilizados, tais como acelerômetros, placas de aquisição de sinais, computadores, etc. Simulated Annealing (Recozimento Simulado) é uma técnica baseada em algoritmos heurísticos utilizada para otimização (minimização ou maximização) de problemas de larga escala, sem necessidade de cálculos de gradientes, que contenham diversos ótimos locais, onde é necessário encontrar um ótimo global. No caso de detecção de danos, esta otimização pode ser usada para sintonizar o comportamento dinâmico de um modelo paramétrico com resultados experimentais modais, como por exemplo: freqüências naturais, amortecimento modal, modos, etc. Neste trabalho é avaliado o desempenho do emprego deste método na localização e quantificação de danos em estruturas simples. Alguns dos resultados foram comparados com uma outra técnica heurística de Algoritmos Genéticos. A avaliação das incertezas envolvidas na determinação dos parâmetros experimentais foi realizada de modo a se ter idéia da ordem de exatidão do sistema assim como limitações das previsões feitas por esta metodologia. Esta abordagem é de extrema importância, pois o sistema pode indicar falsos danos em virtude de falta de exatidão nas medições das freqüências naturais da estrutura estudada. Uma abordagem teórica nos casos da viga bi apoiada e engastada livre foi feita através da equação diferencial da viga. Esta abordagem demonstrou regiões onde certas freqüências não são alteradas independentemente da condição de dano. Esta é uma das maiores contribuições deste trabalho. O mesmo estudo foi feito de forma experimental, onde se verificou a confirmação dos lugares sugeridos pelos dois estudos anteriores, ou seja, determinadas freqüências não se alteram quando determinadas regiões da estrutura são danificadas. Concluiu-se que o método de simulated annealing tem eficiência equivalente aos algoritmos genéticos, pois em termos da eficiência em detectar corretamente danos, ele apresentou desempenho semelhante, o que foi comprovado pelas simulações numéricas e ensaios experimentais. As dificuldades de identificação de danos, como danos próximos as condições de contorno e danos menores de 10%, foram sentidos de forma parecida, sendo que para estes casos, o algoritmo não convergiu completamente. Os tempos de processamento em ambos os métodos de otimização foram similares, para todos os casos estudados. / The detection of structural damage has received an increasing interest on both academic research and industry application for several decades, including structures such as bridges, transmission lines towers, or even in automotive mechanical fault detection and naval and aviation components. The damage identification in structures by means of dynamic non-destructive tests became an attractive technique, since there was and increase in the measurement accuracy and cost decrease of devices used to perform this task, like accelerometers, data acquisition boards, computers, etc. Simulated Annealing is a technique that belongs to a class of the so called Heuristic Algorithms used in optimizations (maximizations or minimizations) of large scale problems. This technique does not use gradient evaluations and can be used with functions with several local optima, where it is desired to reach the global optimum. In damage detection, this technique can be used to tune the dynamic behavior of a parametric model with experimental modal results, such as: natural frequencies, modal damping, mode shapes, etc. In this work, the performance of this method in finding and quantificating damage in simple structures is evaluated. Some of the results were compared with another Heuristic technique: the Genetic Algorithm. The importance of uncertainties in the involved experimental parameters was investigated in order to estimate the system accuracy and limitations of the methodology. This approach is important, since the methodology could indicate false damages by virtue of lack of accuracy in the measurements. A theoretical approach for simple beams was accomplished by the differential equation of motion and a simple model for the crack. This study shows points where damage will not affect some frequencies, regardless of their extent. This is one of the main contributions of this work. The same study was carried experimentally, where there was a perfect agreement with the predicted sites for null interference suggested by the two previous studies, i.e., certain frequencies did not change when those sites where damaged. Finally it is concluded that the Simulated Annealing Technique has equivalent efficiency as the genetic algorithm, since the performance in detecting damage was similar, checked by the numerical simulations and experimental tests. The difficulties on damage identification lied in damage close to support conditions and damage about 10%, and for these cases, the algorithms did not converge completely. The processing times on both techniques used were similar, for all the studied cases.

Page generated in 0.0307 seconds