• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 285
  • 22
  • 4
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 316
  • 152
  • 89
  • 87
  • 63
  • 57
  • 51
  • 36
  • 33
  • 33
  • 33
  • 32
  • 31
  • 31
  • 30
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
261

Localização híbrida para um veículo autônomo em escala usando fusão de sensores : Hybrid localization for an scale R/C car using sensor fusion / Hybrid localization for an scale R/C car using sensor fusion

Cárdenas Rueda, Miguel Ángel 24 August 2018 (has links)
Orientador: Janito Vaqueiro Ferreira / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica / Made available in DSpace on 2018-08-24T20:24:36Z (GMT). No. of bitstreams: 1 CardenasRueda_MiguelAngel_M.pdf: 13764912 bytes, checksum: 61cf12c0dfb532f0a7b4ccb7bd50bcae (MD5) Previous issue date: 2013 / Resumo: A localização tem sido definido como um dos problemas-chave da navegação autônoma. Este problema levanta a questão em relação ao fato de determinar a posição e orientação em qualquer instante durante uma trajetoria. Um dos métodos mais usados para determinar a localização de um robô movel é a odometria; embora não garanta informação precisa da posição e orientação, esse método é a base dos métodos de localização relativa. Também existem métodos de localização absoluta, que em relação a um referencial fixo provêm informação mais precisa sobre o estado de um robô, como, por exemplo, o GPS. Mas, quando erros de diferentes naturezas ocorrem, e como consequência introduzem ruído em qualquer sistema de localização, é necessário ter informação redundante para estabelecer uma informação mais precisa. Esta dissertação de mestrado propõe um sistema de localização para um veículo em escala baseado em sistemas de odometria visual e odometria clássica a fim de fornecer uma estimativa robusta de posição e orientação através de um sistema de posicionamento global simulado / Abstract: Localization has been defined as one of the key problems of autonomous navigation. This issue rises the question about the fact of determining the position and orientation at any time while tracking a trajectory. One of the most used methods to determine the localization of a mobile robot is odometry; however, despite the fact that can't provide accurate results for getting the position and orientation, this method is the basis of the relative localization methods. Also, there are methods for absolute localization which provide information more accurately about the state of the robot, such as the commonly used GPS. But when errors of different nature occur, and as a consequence, introduce noise at any localization system, it is necessary to have redundant information to establish a more accurate information. This master thesis proposes a tracking system for a scale indoor vehicle based on classic and visual odometry in order to provide a robust estimation of position and orientation relative through a simulated global positioning system / Mestrado / Mecanica dos Sólidos e Projeto Mecanico / Mestre em Engenharia Mecânica
262

Filtragem de Kalman aplicada à computação digital com abordagem de espaço de estado variante no tempo / Kalman filtering applied to a digital computing process with a time-varying state space approach

Battaglin, Paulo David, 1951- 26 August 2018 (has links)
Orientador: Gilmar Barreto / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-26T06:42:54Z (GMT). No. of bitstreams: 1 Battaglin_PauloDavid_D.pdf: 3180685 bytes, checksum: 5e1e9893bb97a4df42116a4c0d8b10d6 (MD5) Previous issue date: 2014 / Resumo: Este trabalho mostrará a aplicação do filtro de Kalman a um processo computacional discreto, o qual será representado por um modelo matemático que é um sistema de equações lineares, multivariáveis, discretas, estocásticas e variantes no tempo. As contribuições desta pesquisa evidenciam a construção de um modelo matemático apropriado de observabilidade instantânea para representar sistemas que variam rapidamente no tempo; a construção dos fundamentos teóricos do filtro de Kalman a ser aplicado em sistemas lineares, multivariáveis, discretos, estocásticos e variantes no tempo; bem como a construção deste filtro neste contexto e sua aplicação a um processo computacional discreto. Neste trabalho propomos um método para determinar: a matriz de observabilidade instantânea, o vetor de estimação de estado interno, a matriz de covariâncias de erros de estimação de estado interno e a latência de um processo computacional discreto, quando as medidas na saída do computador são conhecidas. Aqui mostramos que quando a propriedade observabilidade instantânea do sistema é verificada, a latência de um processo computacional pode ser estimada. Esta é uma vantagem comparada com os métodos de observabilidade usual, os quais são baseados em cenários estáticos. A aplicação potencial dos resultados deste trabalho é na predição de congestionamentos em processos que variam no tempo e acontecem em computadores digitais. Em uma perspectiva mais ampla, o método da observabilidade instantânea pode ser aplicado na identificação de patologias, na previsão de tempo, em navegação e rastreamento no solo, na água e no ar; no mercado de ações e em muitas outras áreas / Abstract: This work will show the application of the Kalman filter to a discrete computational process, which will be represented by a mathematical model: a system of linear, multivariable, discrete, stochastic and time-varying equations. The contributions of this research show the construction of an appropriate mathematical model of instantaneous observability to represent systems that vary quickly in time; the construction of the theoretical foundations of the Kalman filter to be applied to a linear, multivariable, discrete, stochastic and time-varying system; the construction of this filter in this context and its application to a discrete computational process. In this research we propose a method to determine: the instantaneous observability matrix, the internal state vector estimation, Covariance matrix of internal state estimation error and the latency of a digital computational process, when the measures on the computer output are known. Here we show that when the instantaneous observability property of the system comes true, a computing process latency can be estimated. This is an advantage compared to usual observability methods, which are based on static scenarios. The potential application of the results of this work is to predict bottlenecks in time-varying processes which happen inside the discrete computers. In a broader perspective, the instantaneous observability method can be applied on identification of a pathology, weather forecast, navigation and tracking on ground, in the water and in the air; in stock market prediction and many other areas / Doutorado / Automação / Doutor em Engenharia Elétrica
263

Projeção de inflação no Brasil utilizando dados agregados e desagregados: um teste de poder preditivo por horizonte de tempo

Carlos, Thiago Carlomagno 14 August 2012 (has links)
Submitted by Thiago Carlomagno Carlos (thicarlomagno@gmail.com) on 2012-09-05T22:05:12Z No. of bitstreams: 1 THIAGO_CARLOS_Dissertação_v_final.pdf: 511805 bytes, checksum: f2276883bb78515a6e00fd2b8f2f5b2f (MD5) / Approved for entry into archive by Suzinei Teles Garcia Garcia (suzinei.garcia@fgv.br) on 2012-09-06T12:44:28Z (GMT) No. of bitstreams: 1 THIAGO_CARLOS_Dissertação_v_final.pdf: 511805 bytes, checksum: f2276883bb78515a6e00fd2b8f2f5b2f (MD5) / Made available in DSpace on 2012-09-06T12:51:00Z (GMT). No. of bitstreams: 1 THIAGO_CARLOS_Dissertação_v_final.pdf: 511805 bytes, checksum: f2276883bb78515a6e00fd2b8f2f5b2f (MD5) Previous issue date: 2012-08-14 / This work has aim to compare the forecast efficiency of different types of methodologies applied to Brazilian consumer inflation. We will compare forecasting models using disaggregated and aggregated data from IPCA over twelve months ahead. We used IPCA in a monthly basis, over the period between January 1996 to March 2012. Out-ofsample analysis will be made through the period of January 2008 to March 2012. The disaggregated models were estimated by SARIMA using X-12 ARIMA software provided by US Census Bureau, and will have different levels of disaggregation from IPCA as groups (9) and items (52), as well as disaggregation with more economic sense used by Brazilian Central Bank as: services, monitored prices, food and industrials; durables, non-durables, semi durables, services and monitored prices. Aggregated models will be estimated by time series techniques as SARIMA, space-estate structural models (Kalman Filter) and Markovswitching. The forecasting accuracy among models will be made by the selection model procedure known as Model Confidence Set, introduced by Hansen, Lunde and Nason (2010), and by Dielbod Mariano (1995), in which we founded evidences of gain in accuracy in models with more disaggregation than aggregates models. / O trabalho tem como objetivo comparar a eficácia das diferentes metodologias de projeção de inflação aplicadas ao Brasil. Serão comparados modelos de projeção que utilizam os dados agregados e desagregados do IPCA em um horizonte de até doze meses à frente. Foi utilizado o IPCA na base mensal, com início em janeiro de 1996 e fim em março de 2012. A análise fora da amostra foi feita para o período entre janeiro de 2008 e março de 2012. Os modelos desagregados serão estimados por SARIMA, pelo software X-12 ARIMA disponibilizado pelo US Census Bureau, e terão as aberturas do IPCA de grupos (9) e itens (52), assim como aberturas com sentido mais econômico utilizadas pelo Banco Central do Brasil como: serviços, administrados, alimentos e industrializados; duráveis, não duráveis, semiduráveis, serviços e administrados. Os modelos agregados serão estimados por técnicas como SARIMA, modelos estruturais em espaço-estado (Filtro de Kalman) e Markov-switching. Os modelos serão comparados pela técnica de seleção de modelo Model Confidence Set, introduzida por Hansen, Lunde e Nason (2010), e Dielbod e Mariano (1995), no qual encontramos evidências de ganhos de desempenho nas projeções dos modelos mais desagregados em relação aos modelos agregados.
264

Tecnicas digitais para sincronização com a rede eletrica, com aplicação em geração distribuida / Digital techniques for power grid synchronization, with applications in distributed generation

Padua, Marcelo Suzart de 21 November 2006 (has links)
Orientadores: Sigmar Maurer Deckmann, Fernando Pinhabel Marafão / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-07T20:09:32Z (GMT). No. of bitstreams: 1 Padua_MarceloSuzartde_M.pdf: 2971342 bytes, checksum: f838d91f23e156c63fa9582c9c5c582e (MD5) Previous issue date: 2006 / Resumo: Este trabalho visa contribuir para os estudos sobre sincronismo em um Sistema Elétrico de Potência (SEP), com enfoque em Geração Distribuída (GD). Buscar-se-á analisar as condições para operação de um gerador distribuído em paralelo com a rede elétrica, bem como desenvolver metodologias de sincronismo para tal. Muitos algoritmos propostos para aplicações em Eletrônica de Potência e Qualidade da Energia Elétrica podem ser utilizados para este propósito. Inicialmente, será apresentadas uma síntese dos tipos de geração alternativa existentes e suas características. Considerando que o Brasil, até o momento, não possui legislação específica referente à GD, serão expostas as principais normas internacionais aplicáveis ao sincronismo e à conexão do gerador, além de aspectos de segurança, como condições de ilhamento. Cada um dos algoritmos escolhidos (PLL, TDFR e FK) será estudado com o objetivo de observar sua resposta dinâmica, precisão em regime e robustez na presença de distorções harmônicas e/ou transitórios nas tensões da rede, de acordo com o ajuste dos seus parâmetros. Finalmente, serão apresentados resultados de simulação de um sistema de GD característico. Uma carga, alimentada pela rede elétrica de distribuição, passará a receber energia também de um gerador local, que será conectado em paralelo com esta rede com auxílio dos algoritmos de sincronismo estudados. Resultados experimentais confirmarão a possibilidade de implementação dessas técnicas / Abstract: This dissertation presents a contribution to the study of synchronization in Electric Power Systems, focusing Distributed Generation. The conditions for operation of a distributed generator in parallel with the grid will be analyzed and applicable methodologies of synchronism will be presented. Different algorithms proposed for Power Electronics Applications and Power Quality Analysis can be used for this intention. Initially, this work presents a synthesis of the existing types of alternative generation and their characteristics. Considering that in Brazil, up to this moment, does not exist a specific legislation for distributed generation, the international main applicable norms about synchronization and connection of the generator will be exposed, including security aspects, such as islanding conditions. Each of the chosen algorithms will be studied to observe its dynamic response, accuracy and robustness in presence of harmonic distortions or transients in the utility voltage, according to the adjusted parameters. Finally, simulation results of a characteristic industrial plant will be presented. The utility system supplies a load, which will draw power also from a local generator, connected to this grid, with the aid of the studied synchronism algorithms. Experimental results will confirm the possibility of implementation of these techniques / Mestrado / Energia Eletrica / Mestre em Engenharia Elétrica
265

Recomendação de conteúdo baseada em informações semânticas extraídas de bases de conhecimento / Content recommendation based on semantic information extracted from knowledge bases

Salmo Marques da Silva Junior 10 May 2017 (has links)
A fim de auxiliar usuários durante o consumo de produtos, sistemas Web passaram a incorporar módulos de recomendação de itens. As abordagens mais populares são a baseada em conteúdo, que recomenda itens a partir de características que são do seu interesse, e a filtragem colaborativa, que recomenda itens bem avaliados por usuários com perfis semelhantes ao do usuário alvo, ou que são semelhantes aos que foram bem avaliados pelo usuário alvo. Enquanto que a primeira abordagem apresenta limitações como a sobre-especialização e a análise limitada de conteúdo, a segunda enfrenta problemas como o novo usuário e/ou novo item, também conhecido como partida fria. Apesar da variedade de técnicas disponíveis, um problema comum existente na maioria das abordagens é a falta de informações semânticas para representar os itens do acervo. Trabalhos recentes na área de Sistemas de Recomendação têm estudado a possibilidade de usar bases de conhecimento da Web como fonte de informações semânticas. Contudo, ainda é necessário investigar como usufruir de tais informações e integrá-las de modo eficiente em sistemas de recomendação. Dessa maneira, este trabalho tem o objetivo de investigar como informações semânticas provenientes de bases de conhecimento podem beneficiar sistemas de recomendação por meio da descrição semântica de itens, e como o cálculo da similaridade semântica pode amenizar o desafio enfrentado no cenário de partida fria. Como resultado, obtém-se uma técnica que pode gerar recomendações adequadas ao perfil dos usuários, incluindo itens novos do acervo que sejam relevantes. Pode-se observar uma melhora de até 10% no RMSE, no cenário de partida fria, quando se compara o sistema proposto com o sistema cuja predição de notas é baseada na correlação de notas. / In order to support users during the consumption of products,Web systems have incorporated recommendation techniques. The most popular approaches are content-based, which recommends items based on interesting features to the user, and collaborative filtering, which recommends items that were well evaluated by users with similar preferences to the target user, or that have similar features to items which were positively evaluated. While the first approach has limitations such as overspecialization and limited content analysis, the second technique has problems such as the new user and the new item, limitation also known as cold start. In spite of the variety of techniques available, a common problem is the lack of semantic information to represent items features. Recent works in the field of recommender systems have been studying the possibility to use knowledge databases from the Web as a source of semantic information. However, it is still necessary to investigate how to use and integrate such semantic information in recommender systems. In this way, this work has the proposal to investigate how semantic information gathered from knowledge databases can help recommender systems by semantically describing items, and how semantic similarity can overcome the challenge confronted in the cold-start scenario. As a result, we obtained a technique that can produce recommendations suited to users profiles, including relevant new items available in the database. It can be observed an improvement of up to 10% in the RMSE in the cold start scenario when comparing the proposed system with the system whose rating prediction is based on the correlation of rates.
266

Indução de filtros lingüisticamente motivados na recuperação de informação / Linguistically motivated filter induction in information retrieval

João Marcelo Azevedo Arcoverde 17 April 2007 (has links)
Apesar dos processos de recuperação e filtragem de informação sempre terem usado técnicas básicas de Processamento de Linguagem Natural (PLN) no suporte à estruturação de documentos, ainda são poucas as indicações sobre os avanços relacionados à utilização de técnicas mais sofisticadas de PLN que justifiquem o custo de sua utilização nestes processos, em comparação com as abordagens tradicionais. Este trabalho investiga algumas evidências que fundamentam a hipótese de que a aplicação de métodos que utilizam conhecimento linguístico é viável, demarcando importantes contribuições para o aumento de sua eficiência em adição aos métodos estatásticos tradicionais. É proposto um modelo de representação de texto fundamentado em sintagmas nominais, cuja representatividade de seus descritores é calculada utilizando-se o conceito de evidência, apoiado em métodos estatísticos. Filtros induzidos a partir desse modelo são utilizados para classificar os documentos recuperados analisando-se a relevância implícita no perfil do usuário. O aumento da precisão (e, portanto, da eficácia) em sistemas de Recuperação de Informação, conseqüência da pós-filtragem seletiva de informações, demonstra uma clara evidência de como o uso de técnicas de PLN pode auxiliar a categorização de textos, abrindo reais possibilidades para o aprimoramento do modelo apresentado / Although Information Retrieval and Filtering tasks have always used basic Natural Language Processing (NLP) techniques for supporting document structuring, there is still space for more sophisticated NLP techniques which justify their cost when compared to the traditional approaches. This research aims to investigate some evidences that justify the hypothesis on which the use of linguistic-based methods is feasible and can bring on relevant contributions to this area. In this work noun phrases of a text are used as descriptors whose evidence is calculated by statistical methods. Filters are then induced to classify the retrieved documents by measuring their implicit relevance presupposed by an user profile. The increase of precision (efficacy) in IR systems as a consequence of the use of NLP techniques for text classification in the filtering task is an evidence of how this approach can be further explored
267

AppRecommender: um recomendador de aplicativos GNU/Linux / AppRecommender: a recommender system for GNU/Linux applications

Tássia Camões Araujo 30 September 2011 (has links)
A crescente oferta de programas de código aberto na rede mundial de computadores expõe potenciais usuários a muitas possibilidades de escolha. Em face da pluralidade de interesses desses indivíduos, mecanismos eficientes que os aproximem daquilo que buscam trazem benefícios para eles próprios, assim como para os desenvolvedores dos programas. Este trabalho apresenta o AppRecommender, um recomendador de aplicativos GNU/Linux que realiza uma filtragem no conjunto de programas disponíveis e oferece sugestões individualizadas para os usuários. Tal feito é alcançado por meio da análise de perfis e descoberta de padrões de comportamento na população estudada, de sorte que apenas os aplicativos considerados mais suscetíveis a aceitação sejam oferecidos aos usuários. / The increasing availability of open source software on the World Wide Web exposes potential users to a wide range of choices. Given the individuals plurality of interests, mechanisms that get them close to what they are looking for would benefit users and software developers. This work presents AppRecommender, a recommender system for GNU/Linux applications which performs a filtering on the set of available software and individually offers suggestions to users. This is achieved by analyzing profiles and discovering patterns of behavior of the studied population, in a way that only those applications considered most prone to acceptance are presented to users.
268

[en] A CLOUD BASED REAL-TIME COLLABORATIVE FILTERING ARCHITECTURE FOR SHORT-LIVED VIDEO RECOMMENDATIONS / [pt] UMA ARQUITETURA DE FILTRAGEM COLABORATIVA EM TEMPO REAL BASEADA EM NUVEM PARA RECOMENDAÇÃO DE VÍDEOS EFÊMEROS

16 January 2017 (has links)
[pt] Esta tese propõe que a combinação de técnicas de filtragem colaborativa, em particular para recomendações item-item, com novas tecnologias de computação em nuvem, pode melhorar drasticamente a eficiência dos sistemas de recomendação, particularmente em situações em que o número de itens e usuários supera milhões de objetos. Nela apresentamos uma arquitetura de recomendação item-item em tempo real, que racionaliza o uso dos recursos computacionais através da computação sob demanda. A arquitetura proposta oferece uma solução para o cálculo de similaridade entre itens em tempo real, sem ter que recorrer à simplificação do modelo de recomendação ou o uso de amostragem de dados de entrada. Esta tese também apresenta um novo modelo de feedback implícito para vídeos de curta duração, que se adapta ao comportamento dos usuários, e descreve como essa arquitetura foi usada na implementação de um sistema de recomendação de vídeo em uso pelo maior grupo de mídia da América Latina, apresentando resultados de um estudo de caso real para mostrar que é possível reduzir drasticamente o tempo de cálculo das recomendações (e os custos financeiros globais) usando o provisionamento dinâmico de recursos na nuvem. Ela discute ainda a implementação em detalhes, em particular o projeto da arquitetura baseada em nuvem. Finalmente, ela também apresenta oportunidades de pesquisa em potencial que surgem a partir desta mudança de paradigma. / [en] This dissertation argues that the combination of collaborative filtering techniques, particularly for item-item recommendations, with emergent cloud computing technology can drastically improve algorithm efficiency, particularly in situations where the number of items and users scales up to several million objects. It introduces a real-time item-item recommendation architecture, which rationalizes the use of resources by exploring on-demand computing. The proposed architecture provides a real-time solution for computing online item similarity, without having to resort to either model simplification or the use of input data sampling. This dissertation also presents a new adaptive model for implicit user feedback for short videos, and describes how this architecture was used in a large scale implementation of a video recommendation system in use by the largest media group in Latin America, presenting results from a real life case study to show that it is possible to greatly reduce recommendation times (and overall financial costs) by using dynamic resource provisioning in the Cloud. It discusses the implementation in detail, in particular the design of cloud based features. Finally, it also presents potential research opportunities that arise from this paradigm shift.
269

[pt] MODELOS ESTATÍSTICOS COM PARÂMETROS VARIANDO SEGUNDO UM MECANISMO ADAPTATIVO / [en] STATISTICAL MODELS WITH PARAMETERS CHANGING THROUGH AN ADAPTIVE MECHANISM

HENRIQUE HELFER HOELTGEBAUM 23 October 2019 (has links)
[pt] Esta tese é composta de três artigos em que a ligação entre eles são modelos estatísticos com parametros variantes no tempo. Todos os artigos adotam um arcabouço que utiliza um mecanismo guiado pelos dados para a atualização dos parâmetros dos modelos. O primeiro explora a aplicação de uma nova classe de modelos de séries temporais não Gaussianas denominada modelos Generalized Autegressive Scores (GAS). Nessa classe de modelos, os parâmetros são atualizados utilizando o score da densidade preditiva. Motivamos o uso de modelos GAS simulando cenários conjuntos de fator de capacidade eólico. Nos últimos dois artigos, o gradiente descentente estocástico (SGD) é adotado para atualizar os parâmetros que variam no tempo. Tal metodologia utiliza a derivada de uma função custo especificada pelo usuário para guiar a otimização. A estrutura desenvolvida foi projetada para ser aplicada em um contexto de fluxo de dados contínuo, portanto, técnicas de filtragem adaptativa são exploradas para levar em consideração o concept-drift. Exploramos esse arcabouço com aplicações em segurança cibernética e infra-estrutura instrumentada. / [en] This thesis is composed of three papers in which the common ground among them is statistical models with time-varying parameters. All of them adopt a framework that uses a data-driven mechanism to update its coefficients. The first paper explores the application of a new class of non-Gaussian time series framework named Generalized Autoregressive Scores (GAS) models. In this class of models the parameters are updated using the score of the predictive density. We motivate the use of GAS models by simulating joint scenarios of wind power generation. In the last two papers, Stochastic Gradient Descent (SGD) is adopted to update time-varying parameters. This methodology uses the derivative of a user specified cost function to drive the optimization. The developed framework is designed to be applied in a streaming data context, therefore adaptive filtering techniques are explored to account for concept-drift.We explore this framework on cyber-security and instrumented infrastructure applications.
270

Restauração cega de imagens: soluções baseadas em algoritmos adaptativos. / Blind image restoration: solutions based on adaptive algorithms.

Silva, Daniela Brasil 24 May 2018 (has links)
O objetivo da desconvolução cega de imagens é restaurar uma imagem degradada sem usar informação da imagem real ou da função de degradação. O mapeamento dos níveis de cinza de uma imagem em um sinal de comunicação possibilita o uso de técnicas de equalização cega de canais para a restauração de imagens. Neste trabalho, propõe-se o uso de um esquema para desconvolução cega de imagens baseado na combinação convexa de um equalizador cego com um equalizador no modo de decisão direta. A combinação também é adaptada de forma cega, o que possibilita o chaveamento automático entre os filtros componentes. Dessa forma, o esquema proposto é capaz de atingir o desempenho de um algoritmo de filtragem adaptativa supervisionada sem o conhecimento prévio da imagem original. O desempenho da combinação é ilustrado por meio de simulações, que comprovam a eficiência desse esquema quando comparado a outras soluções da literatura. / The goal of blind image deconvolution is to restore a degraded image without using information from the actual image or from the point spread function. The mapping of the gray levels of an image into a communication signal enables the use of blind equalization techniques for image restoration. In this work, we use a blind image deconvolution scheme based on the convex combination of a blind equalizer with an equalizer in the decision-directed mode. The combination is also blindly adapted, which enables automatic switching between the component filters. Thus, the proposed scheme is able to achieve the performance of a supervised adaptive filtering algorithm without prior knowledge of the original image. The performance of the combination is illustrated by simulations, which show the efficiency of this scheme when compared to other solutions in the literature.

Page generated in 0.0532 seconds