• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2841
  • 574
  • 242
  • 101
  • 90
  • 90
  • 88
  • 47
  • 45
  • 45
  • 45
  • 43
  • 14
  • 2
  • 1
  • Tagged with
  • 3720
  • 1131
  • 945
  • 592
  • 587
  • 577
  • 525
  • 495
  • 466
  • 348
  • 308
  • 286
  • 279
  • 259
  • 249
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
481

Síntesis de Algoritmos para Locomoción de Robots Modulares Reconfigurables

Torres Faúndez, Fernando Francisco January 2012 (has links)
Los Robots Modulares Reconfigurables son sistemas que han despertado un gran interés científico durante los últimos años. Ellos corresponden a un caso especial de Materia Programable, donde es posible cambiar la forma y función del sistema modular mediante, por ejemplo, la reconfiguración de sus partes. Los sistemas robóticos modulares están constituidos por diversas unidades capaces de obtener información autónomamente, procesándola de forma distribuida o centralizada. Algunas de las interrogantes fundamentales de esta área de investigación son cómo distribuir la información y toma de decisiones entre los distintos módulos o cómo contribuir, mediante procesamiento y actuación local, al comportamiento global del sistema robótico; entre otras. Si bien otros investigadores han desarrollado estrategias de control para generar comportamientos simples (locomoción unidireccional, formación de geometrías simples, auto reparación), no existen en la literatura métodos que permitan la generación automática de dichas reglas. Para esto, se desarrolló un simulador acoplado a distintos métodos de aprendizaje evolutivo para la síntesis de algoritmos de locomoción para robots modulares reconfigurables genéricos. Los métodos de aprendizaje empleados fueron Algoritmos Genéticos y NEAT (Neuro Evolution of Augmenting Topologies). De esta forma, con algoritmos genéticos se desarrollaron reglas de locomoción explícitas (similares a las disponibles en la literatura), mientras que con NEAT se desarrolló una novedosa propuesta, donde las reglas de locomoción están contenidas implícitamente en redes neuronales. Finalmente, se estudió el proceso de obtención de los algoritmos de locomoción y, posteriormente, se caracterizaron las distintas soluciones obtenidas ante la variación de distintos parámetros y escenarios de ensayo. El error asociado al aprendizaje con NEAT fue de 1.93%, mientras que con Algoritmos Genéticos se tuvo un error de 17.87%, de donde se tiene que el entrenamiento con NEAT es más repetible que con Algoritmos Genéticos. Sin embargo, los resultados finales obtenidos con Algoritmos Genéticos superaron a los obtenidos con NEAT en un 17.88%. Para mejorar el proceso de entrenamiento fue necesario acondicionar el simulador de forma tal que cada algoritmo de locomoción obtuviese siempre el mismo resultado, reduciendo la aleatoridad.
482

Uma Proposta de especificação formal e fundamentação teórica para simulated annealing

Izquierdo, Vaneci Brusch January 2000 (has links)
Os algoritmos baseados no paradigma Simulated Annealing e suas variações são atualmente usados de forma ampla na resolução de problemas de otimização de larga escala. Esta popularidade é resultado da estrutura extremamente simples e aparentemente universal dos algoritmos, da aplicabilidade geral e da habilidade de fornecer soluções bastante próximas da ótima. No início da década de 80, Kirkpatrick e outros apresentaram uma proposta de utilização dos conceitos de annealing (resfriamento lento e controlado de sólidos) em otimização combinatória. Esta proposta considera a forte analogia entre o processo físico de annealing e a resolução de problemas grandes de otimização combinatória. Simulated Annealing (SA) é um denominação genérica para os algoritmos desenvolvidos com base nesta proposta. Estes algoritmos combinam técnicas de busca local e de randomização. O objetivo do presente trabalho é proporcionar um entendimento das características do Simulated Annealing e facilitar o desenvolvimento de algoritmos com estas características. Assim, é apresentado como Simulated Annealing e suas variações estão sendo utilizados na resolução de problemas de otimização combinatória, proposta uma formalização através de um método de desenvolvimento de algoritmos e analisados aspectos de complexidade. O método de desenvolvimento especifica um programa abstrato para um algoritmo Simulated Annealing seqüencial, identifica funções e predicados que constituem os procedimentos deste programa abstrato e estabelece axiomas que permitem a visualização das propriedades que estes procedimentos devem satisfazer. A complexidade do Simulated Annealing é analisada a partir do programa abstrato desenvolvido e de seus principais procedimentos, permitindo o estabelecimento de uma equação genérica para a complexidade. Esta equação genérica é aplicável aos algoritmos desenvolvidos com base no método proposto. Uma prova de correção é apresentada para o programa abstrato e um código exemplo é analisado com relação aos axiomas estabelecidos. O estabelecimento de axiomas tem como propósito definir uma semântica para o algoritmo, o que permite a um desenvolvedor analisar a correção do código especificado para um algoritmo levando em consideração estes axiomas. O trabalho foi realizado a partir de um estudo introdutório de otimização combinatória, de técnicas de resolução de problemas, de um levantamento histórico do uso do Simulated Annealing, das variações em torno do modelo e de embasamentos matemáticos documentados. Isto permitiu identificar as características essenciais dos algoritmos baseados no paradigma, analisar os aspectos relacionados com estas características, como as diferentes formas de realizar uma prescrição de resfriamento e percorrer um espaço de soluções, e construir a fundamentação teórica genérica proposta.
483

Algoritmos para o posicionamento de células em circuitos VLSI

Hentschke, Renato Fernandes January 2002 (has links)
Este trabalho faz uma análise ampla sobre os algoritmos de posicionamento. Diversos são extraídos da literatura e de publicações recentes de posicionamento. Eles foram implementados para uma comparação mais precisa. Novos métodos são propostos, com resultados promissores. A maior parte dos algoritmos, ao contrário do que costuma encontrar-se na literatura, é explicada com detalhes de implementação, de forma que não fiquem questões em aberto. Isto só possível pela forte base de implementação por trás deste texto. O algorítmo de Fidduccia Mateyeses, por exemplo, é um algorítmo complexo e por isto foi explicado com detalhes de implementação. Assim como uma revisão de técnicas conhecidas e publicadas, este trabalho oferece algumas inovações no fluxo de posicionamento. Propõe-se um novo algorítimo para posicionamento inicial, bem como uma variação inédita do Cluster Growth que mostrta ótimos resultados. É apresentada uma série de evoluções ao algorítmo de Simulated Annealling: cálculo automático de temperatura inicial, funções de perturbação gulosas (direcionadas a força), combinação de funções de perturbação atingindo melhores resultados (em torno de 20%), otimização no cálculo de tamanho dos fios (avaliação das redes modificadas e aproveitamento de cálculos anteriores, com ganhos em torno de 45%). Todas estas modificações propiciam uma maior velocidade e convergência do método de Simulated Annealling. É mostrado que os algorítmos construtivos (incluindo o posicionador do Tropic, baseado em quadratura com Terminal Propagation) apresentam um resultado pior que o Simulated Annealling em termos de qualidade de posicionamento às custas de um longo tempo de CPD. Porém, o uso de técnicas propostas neste trabalho, em conjunto com outras técnicas propostas em outros trabalhos (como o trabalho de Lixin Su) podem acelerar o SA, de forma que a relação qualidade/tempo aumente.
484

Desenvolvimento e caracterização de um modelador óptico programável

Vebber, Guilherme Cañete January 2007 (has links)
Neste trabalho, a princípio relatamos aspectos teóricos da modelagem óptica, apresentando suas aplicações mais importantes, fundamentação teórica e principais tipos de modeladores. Em seguida abordamos nossos objetivos centrais: desenvolvimento, caracterização e testes de performance em um procedimento adaptativo de um modelador óptico programável. O componente principal desse modelador, denominado aqui Espelho Piezoatuado de Alta Resolução, é baseado em um espelho deformável de baixo custo. Ele é formado por uma fileira com 32 atuadores piezoelétricos, distribuídos de maneira uniforme e unidos a uma lamínula de vidro recoberta por um filme-fino de alumínio de alta refletividade (o espelho deformável). Os atuadores são operados, via interface gráfica programada, independentemente por um controlador de 32 canais de tensão de 0 a 100V especialmente fabricado. Além de medirmos as características dinâmicas do sistema, avaliamos seu desempenho a partir de um método de perfilometria óptica. Por fim demonstramos sua funcionalidade com um experimento simples de modelagem de frente de onda. Implementando uma rotina de controle adaptativo (através de um algoritmo evolutivo), mostramos que, mesmo com apenas 15 dos 32 atuadores em operação, o dispositivo é capaz de corrigir significativamente a focalização de uma frente de onda sobre uma fenda estreita. / In this work, initially we report theoretical aspects of optical shaping, presenting also the most remarkable applications. Later on, we introduce our goals: development and characterization of a programmable optical shaper, and performance tests within an adaptive procedure. The main part of this shaper, named here High Resolution Piezoactuated Deformable Mirror, is based on a low-cost deformable mirror. It is formed by 32 piezoelectric actuators in a row distributed uniformly side by side joined to a thin glass substrate covered with a highly reflective aluminum film. The actuators are driven independently, via programmed graphical interface, by a specially made 32-channel controller of voltages from 0 to 100V. Besides measuring dynamical features of the system, we evaluate its performance within an optical method of topography. Finally, we demonstrate its functionality with a simple wave-front shaping experiment. Carrying out an adaptive control routine (through an evolutionary algorithm), it is showed that, even with just 15 of the 32 actuators in operation, the device is able to correct remarkably the wavefront focalization on a narrow slit.
485

Algoritmo de otimização combinatorial

Bona, Anderson Andrei de January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2013-07-16T01:31:20Z (GMT). No. of bitstreams: 1 223154.pdf: 452480 bytes, checksum: 32034bdd69509f5e45a87f49f8215540 (MD5) / A busca por soluções de problemas envolvendo otimização combinatorial tem sido motivo de estudos e pesquisas há muito tempo. Grande parte dos métodos propostos para a resolução de problemas desse tipo, que buscam soluções ótimas, está baseada em técnicas conhecidas como branch-and-bounds. Entretanto, o principal problema desse tipo de abordagem consiste no esforço computacional exigido. O tempo de computação necessário para a determinação de uma solução pode atingir níveis impraticáveis, tornando-os muitas vezes inviáveis em aplicações práticas. Como alternativa, atualmente, diversos métodos de aproximação estão sendo propostos. São abordagens que buscam soluções aceitáveis, próximas às soluções ótimas, porém, com tempos de processamento viáveis. Como exemplos típicos dessa abordagem podem ser citados os algoritmos das Formigas, Genéticos, Simulated Anneling, etc. Nesta dissertação é apresentado um novo algoritmo de aproximação que poderá ser empregado em problemas dessa natureza. Basicamente, o que está sendo proposto é a utilização do algoritmo Simulated Annealing em sua forma original, combinado com os operadores crossovers dos Algoritmos Genéticos. Além da hibridização dos algoritmos aludidos, também é explorada neste trabalho a potencialidade da paralelização dos mesmos em um ambiente multiprocessado. Na implementação e nos testes do modelo proposto foi utilizado o clássico Problema do Caixeiro Viajante que é um dos representantes desta classe de problema de otimização combinatorial, mais utilizados como benchmark.
486

Projeto e otimização de um gerador síncrono de polos lisos

Carvalho, Elissa Soares de 26 October 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Elétrica, Florianópolis, 2011 / Made available in DSpace on 2012-10-26T06:07:18Z (GMT). No. of bitstreams: 1 296897.pdf: 1709038 bytes, checksum: 759468a446e7265c214a62887d4ebf12 (MD5) / É apresentado, nesta dissertação, o projeto de um gerador síncrono de polos lisos, quatro polos, de 17,5 MVA, seguido de sua otimização por algoritmo genético com o objetivo de alcançar a máxima razão de curto-circuito (RCC) sem modificar as dimensões externas de uma máquina WEG padrão, com o mínimo de comprometimento das demais características. A escolha do RCC como função objetivo é motivada por uma presente necessidade de um segmento específico do mercado de energia brasileiro que tem crescido significativamente na última década: a geração e venda de energia elétrica proveniente da indústria sucroalcoleira. A razão de curto-circuito (RCC) define a capacidade de recuperação rápida de um gerador diante de flutuações da rede o que a torna uma característica altamente desejável para um gerador operando nestas condições. Por outro lado, altos valores de RCC significam o aumento das perdas Joule no rotor, o que leva a um aumento de seu volume e consequentemente ao aumento dos custos de fabricação da máquina. O equilíbrio entre preservar as principais dimensões e alcançar o requisito técnico desejado é o objetivo deste trabalho. / This dissertation presents the design of a 17.5MVA four poles round rotor synchronous generator, following by a genetic algorithm optimization in order to meet the maximum short circuit ratio (SCR) maintaining the main external dimensions of a standard WEG machine, without compromising the other performance requirements. The choice of SCR as an objective function is motivated by a present need of a specific segment of Brazilian energy market that has been growth significantly for the last decade: generation and selling of electric energy from sugarcane industry. SCR defines the generator capacity of fast recovering facing grid fluctuations, becoming highly desirable if the generator is connected to the grid. In counterpart larger SCR also means larger air gap, which implies in an increase of Joule losses of rotor, leading to an increase of rotor volume and to higher costs. The balance between preserving cost through keeping the generator main dimensions and achieving technical requirements is the purpose of this work.
487

Contribuições para o projeto de manipuladores paralelos através da síntese do tipo

Santos, João Victor Borges dos January 2011 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Mecânica, Florianópolis, 2011 / Made available in DSpace on 2012-10-26T08:19:41Z (GMT). No. of bitstreams: 1 295147.pdf: 2850259 bytes, checksum: 52ed09f219064164fc9becbf09a09185 (MD5) / A Síntese do Tipo é uma fase fundamental para o projeto de manipuladores paralelos. Esse processo de síntese consiste em uma abordagem sistemática, na qual um método é utilizado para gerar todas as possíveis estruturas mecânicas que sejam capazes de realizar um tipo de movimento. A Síntese do Tipo apresenta duas etapas principais: (1) Geração de pernas e (2) Montagem de manipuladores paralelos. A geração de pernas consiste em gerar cadeias cinemáticas que possuam tipos de movimentos de saída específicos. Essas cadeias cinemáticas são compostas por elos e juntas que apresentam configurações geométricas determinadas. Para a montagem dos manipuladores paralelos, as pernas geradas na primeira etapa são utilizadas. O movimento de saída que cada manipulador apresentará, ao final de sua montagem, dependerá do tipo de perna utilizado e do posicionamento de fixação das pernas. Neste trabalho será apresentada uma revisão dos principais métodos de síntese do tipo existentes, e as soluções de pernas geradas por cada método serão classificadas e organizadas utilizando uma única notação. Será apresentado também um novo método de síntese do tipo para a fase de geração de pernas. O algoritmo implementado para esse novo método combina características de algoritmos genéticos e teoria de helicoides. As soluções geradas pelo algoritmo foram comparadas com os resultados encontrados na literatura e, com isso, o método proposto foi validado.
488

Algoritmo para identificação de características para amostragem estratificada

Ratke, Cláudio January 2006 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-22T11:20:47Z (GMT). No. of bitstreams: 1 232779.pdf: 456462 bytes, checksum: fb2b05ec39562530ec43de8e3a4077d6 (MD5) / Este trabalho apresenta um algoritmo para identificar características que possam ser utilizadas num processo de amostragem estratificada. O algoritmo localiza as características e os seus respectivos valores que dividem o conjunto de dados em estratos, de tal forma que a variância do estimador, de uma média ou proporção, seja inferior à variância do estimador baseado em uma amostra aleatória simples. O algoritmo implementa o cálculo da variância do estimador baseado nos três métodos de alocação: uniforme, proporcional e alocação ótima de Neyman com custo fixo. Foi também implementado um novo método denominado GRD, baseado no princípio do ganho de informação, que exige menos recursos de processamento. O algoritmo foi aplicado em um conjunto de dados simulados para produzir estratos pré-definidos, e também, em um conjunto de dados real. Além disso, o algoritmo foi implementado parcialmente em um Gerenciador de Banco de Dados. This work presents an algorithm developed to identify characteristics that can be used to define strata in a stratified sampling process. The algorithm finds the characteristics, and its respective values, that split the data set into strata, in such a way that the variance of the estimator, of the mean or proportion, is smaller than the variance of the estimator based on a simple random sampling process. The algorithm implements the calculation of the variance of the estimator based on the three methods of allocation: uniform, proportional and Neyman optimum allocation with fixed cost. It has also implemented a new method called GRD, based on the principle of the information gain, that demands less am simulated data, built to produce well defined strata, and in a real data set. Moreover, the algorithm was partially implemented in a Data Base Management System (DBMS).
489

Contribuição ao estudo de métodos de estimação do rendimento de motores de indução trifásicos

Lima, Sandro Carlos January 2016 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Elétrica, Florianópolis, 2016. / Made available in DSpace on 2017-04-25T04:02:12Z (GMT). No. of bitstreams: 1 340778.pdf: 1717696 bytes, checksum: 56555ac182aae6a7f6738a46adf6ffc1 (MD5) Previous issue date: 2016 / Nesta tese, foi desenvolvida uma metodologia para a determinação do rendimento de motores de indução trifásicos em operação sem a necessidade de interromper o processo em que o mesmo está inserido ou alterar o seu ponto de funcionamento. São consideradas apenas medidas de grandezas elétricas, magnéticas e da velocidade de rotação do motor.A metodologia se baseia no método do circuito equivalente, sendo utilizada a técnica de algoritmos genéticos para o encontro dos valores dos seus parâmetros. Inicialmente, são determinados os valores dos parâmetros do modelo clássico do motor de indução a partir de dados de catálogo fornecidos por fabricantes. Relações heurísticas são utilizada sem conjunto com as equações do circuito do modelo do motor para diminuir o número de soluções possíveis do sistema. Para a etapa decampo, os valores dos parâmetros do modelo são ajustados utilizando as medidas realizados com o motor em operação, e o rendimento é calculado. Um modelo alternativo é utilizado para considerar variações das perdas rotacionais e suplementares. A metodologia foi testada em motores de diferentes potências sendo os resultados comparados com métodos normatizados de determinação de rendimento de motores através de ensaios em laboratório.<br> / Abstract: In this work, a methodology was developed to allow the determination of efficiency of three-phase induction motors without interrupting the process run by the machine or changing its working condition. Only electrical, magnetic and speed measurements are required. The methodology is based on the equivalent circuit method, whose parameter values are determined through the use of genetic algorithms. Initially, thevalues of the classical equivalent circuit of the induction motor are determined based on catalog data provided by the manufacturer. Heuristic relationships are applied along with the circuit equations in order to limit the search space to feasible solutions. Later, the parameter values are adjusted using measurements obtained during normal operation in the field, and the efficiency is calculated with the new values. An alternative model is employed in order to consider the variation of mechanical and stray-load losses. The methodology was tested on motors of different power ratings, and the results were compared with standard methods of motor efficiency determination through bench tests.
490

A new adaptive algorithm for video super-resolution with improved outlier handling capability

Borsoi, Ricardo Augusto January 2016 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Elétrica, Florianópolis, 2016. / Made available in DSpace on 2017-05-02T04:11:04Z (GMT). No. of bitstreams: 1 345229.pdf: 8370755 bytes, checksum: 43bc9ba1a882d921528fd1f71fccec7d (MD5) Previous issue date: 2016 / Abstract : Super resolution reconstruction (SRR) is a technique that consists basically in combining multiple low resolution images from a single scene in order to create an image with higher resolution. The main characteristics considered in the evaluation of SRR algorithms performance are the resulting image quality, its robustness to outliers and its computational cost. Among the super resolution algorithms present in the literature, the R-LMS has a very small computational cost, making it suitable for real-time operation. However, like many SRR techniques the R-LMS algorithm is also highly susceptible to outliers, which can lead the reconstructed image quality to be of lower quality than the low resolution observations. Although robust techniques have been proposed to mitigate this problem, the computational cost associated with even the simpler algorithms is not comparable to that of the R-LMS, making real-time operation impractical. It is therefore desirable to devise new algorithms that offer a better compromise between quality, robustness and computational cost. In this work, a new SRR technique based on the R-LMS algorithm is proposed. Based on the proximal-point cost function representation of the gradient descent iterative equation, an intuitive interpretation of the R-LMS algorithm behavior is obtained, both in ideal conditions and in the presence of outliers. Using a statistical model for the innovation outliers, a new regularization is then proposed to increase the algorithm robustness by allowing faster convergence on the subspace corresponding to the innovations while at the same time preserving the estimated image details. Two new algorithms are then derived. Computer simulations have shown that the new algorithms deliver a performance comparable to that of the R-LMS in the absence of outliers, and a significantly better performance in the presence of outliers, both quantitatively and visually. The computational cost of the proposed solution remained comparable to that of the R-LMS.<br> / Reconstrução com super resolução (SRR - Super resolution reconstruction) é uma técnica que consiste basicamente em combinar múltiplas imagens de baixa resolução a fim de formar uma única imagem com resolução superior. As principais características consideradas na avaliação de algoritmos de SRR são a qualidade da imagem reconstruída, sua robustez a outliers e o custo computacional associado. Uma maior qualidade nas imagens reconstruídas implica em um maior aumento efetivo na resolução das mesmas. Uma maior robustez, por outro lado, implica que um resultado de boa qualidade é obtido mesmo quando as imagens processadas não seguem fielmente o modelo matemático adotado. O custo computacional, por sua vez, é extremamente relevante em aplicações de SRR, dado que a dimensão do problema é extremamente grande. Uma das principais aplicações da SRR consiste na reconstrução de sequências de vídeo. De modo a facilitar o processamento em tempo real, o qual é um requisito frequente para aplicações de SRR de vídeo, algorítmos iterativos foram propostos, os quais processam apenas uma imagem a cada instante de tempo, utilizando informações presentes nas estimativas obtidas em instantes de tempo anteriores. Dentre os algoritmos de super resolução iterativos presentes na literatura, o R-LMS possui um custo computacional extremamente baixo, além de fornecer uma reconstrução com qualidade competitiva. Apesar disso, assim como grande parte das técnicas de SRR existentes o R-LMS é bastante suscetível a presença de outliers, os quais podem tornar a qualidade das imagens reconstruídas inferior àquela das observações de baixa resolução. A fim de mitigar esse problema, técnicas de SRR robusta foram propostas na literatura. Não obstante, mesmo o custo computacional dos algoritmos robustos mais simples não é comparável àquele do R-LMS, tornando o processamento em tempo real infactível. Deseja-se portanto desenvolver novos algoritmos que ofereçam um melhor compromisso entre qualidade, robustez e custo computacional. Neste trabalho uma nova técnica de SRR baseada no algoritmo R-LMS é proposta. Com base na representação da função custo do ponto proximal para a equação iterativa do método do gradiente, uma interpretação intuitiva para o comportamento do algoritmo R-LMS é obtida tanto para sua operação em condições ideais quanto na presença de outliers do tipo inovação, os quais representam variações significativas na cena entre frames adjacentes de uma sequência de vídeo. É demonstrado que o problema apresentado pelo R-LMS quanto a robustez à outliers de inovação se deve, principalmente, a sua baixa taxa de convergência. Além disso, um balanço direto pôde ser observado entre a rapidez da taxa de convergência e a preservação das informações estimadas em instantes de tempo anteriores. Desse modo, torna-se inviável obter, simultaneamente, uma boa qualidade no processamento de sequências bem comportadas e uma boa robustez na presença de inovações de grande porte. Desse modo, tem-se como objetivo projetar um algoritmo voltado à reconstrução de sequências de vídeo em tempo real que apresente uma maior robustez à outliers de grande porte, sem comprometer a preservação da informação estimada a partir da sequência de baixa resolução. Utilizando um modelo estatístico para os outliers provindos de inovações, uma nova regularização é proposta a fim de aumentar a robustez do algoritmo, permitindo simultaneamente uma convergência mais rápida no subespaço da imagem correspondente às inovações e a preservação dos detalhes previamente estimados. A partir disso dois novos algoritmos são então derivados. A nova regularização proposta penaliza variações entre estimativas adjacentes na sequência de vídeo em um subespaço aproximadamente ortogonal ao conteúdo das inovações. Verificou-se que o subespaço da imagem no qual a inovação contém menos energia é precisamente onde estão contidos os detalhes da imagem. Isso mostra que a regularização proposta, além de levar a uma maior robustez, também implica na preservação dos detalhes estimados na sequência de vídeo em instantes de tempo anteriores. Simulações computacionais mostram que apesar da solução proposta não levar a melhorias significativas no desempenho do algoritmo sob condições próximas às ideais, quando outliers estão presentes na sequência de imagens o método proposto superou consideravelmente o desempenho apresentado pelo R-LMS, tanto quantitativamente quanto visualmente. O custo computacional da solução proposta manteve-se comparável àquele do algoritmo R-LMS.

Page generated in 0.0483 seconds