1 |
[pt] CONSTRUÇÃO ECONÔMICA E DECODIFICAÇÃO DE CÓDIGOS POLARES / [en] COST-EFFECTIVE CONSTRUCTION AND DECODING OF POLAR CODESROBERT MOTA OLIVEIRA 26 October 2022 (has links)
[pt] Erdal Arıkan introduziu os códigos polares em 2009. Trata-se de uma
nova classe de códigos de correção de erros capaz de atingir o limite de Shannon.
Usando decodificação de cancelamento sucessivo em lista, concatenada
por verificação de redundância cíclica e a construções rápida de código, os códigos polares tornaram-se um código de correção de erros atraente e de alto
desempenho para uso prático. Recentemente, códigos polares foram adotados
para o padrão de geração 5th para sistemas celulares, mais especificamente para
as informações de controle dos canais reverso e direto para os serviços de comunicação eMBB. No entanto, os códigos polares são limitados a comprimentos
de bloco a potências de dois, devido a um produto Kronecker recursivo do kernel
polarizador 2x2. Para aplicações práticas, é necessário fornecer técnicas de
construção de código polar de comprimento flexível. Outro aspecto a ser analisado
é o obtenção de uma técnica de construção de códigos polares de baixa
complexidade e que tenha um ótimo desempenho em canal de ruído aditivo
gaussiano branco, principalmente para blocos longos, inspirada na otimização
da construção da aproximação gaussiana. Outro aspecto relevante é o poder de
decodificação paralela do decodificador de propagação de crenças. Esta é uma
alternativa para atender aos novos critérios de velocidade e latência previstos
para o padrão de próxima geração para sistemas celulares. No entanto, ele precisa
de melhorias de desempenho para tornar-se operacionalmente viável, tanto
para 5G quanto para as gerações futuras. Nesta tese, três aspectos dos códigos
polares são abordados: a construção de códigos com comprimentos arbitrários
que visam maximizar a flexibilidade e eficiência dos códigos polares, o aprimoramento do método de construção por métodos gaussianos aproximação e
a decodificação de códigos usando um algoritmo adaptativo de propagação de
crenças reponderadas, bem como analisar quaisquer compromissos que afetem
o desempenho da correção de erros. / [en] Erdal Arikan introduced the polar codes in 2009. This is a new class
of error correction codes capable of reaching the Shannon limit. Using cyclic
redundancy check concatenated list successive cancellation decoding and fast
code constructs, polar codes have become an attractive, high-performance error
correction code for practical use. Recently, polar codes have been adopted for
the 5th generation standard for cellular systems, more specifically for the uplink
and downlink control information for the extended Mobile Broadband (eMBB)
communication services. However, polar codes are limited to block lengths to
powers of two, due to a recursive Kronecker product of the 2x2 polarizing
kernel. For practical applications, it is necessary to provide flexible length polar code construction techniques. Another aspect analyzed is the development of
a technique of construction of polar codes of low complexity and that has
an optimum performance on additive white Gaussian noise channels, mainly
for long blocks, inspired by the optimization of the Gaussian approximation
construction. Another relevant aspect is the parallel decoding power of the
belief propagation decoder. This is an alternative to achieve the new speed and
latency criteria foreseen for the next generation standard for cellular systems.
However, it needs performance improvements to become operationally viable,
both for 5G and for future generations. In this thesis, three aspects of polar
codes are addressed: the construction of codes with arbitrary lengths that
are intended for maximizing the flexibility and efficiency of polar codes, the
improvement of the construction method by Gaussian approximation and the
decoding of codes using an adaptive reweighted belief propagation algorithm,
as well as the analysis of trade-offs affecting error correction performance.
|
2 |
[en] COMBINING STRATEGIES FOR ESTIMATION OF TREATMENT EFFECTS / [pt] COMBINANDO ESTRATÉGIAS PARA ESTIMAÇÃO DE EFEITOS DE TRATAMENTORAFAEL DE CARVALHO CAYRES PINTO 19 January 2018 (has links)
[pt] Uma ferramenta importante na avaliação de políticas econômicas é a estimação do efeito médio de um programa ou tratamento sobre uma variável de interesse. A principal dificuldade desse cálculo deve-se µa atribuição do tratamento aos potenciais participantes geralmente não ser aleatória, causando viés de seleção quando desconsiderada. Uma maneira de resolver esse problema é supor que o econometrista observa um conjunto de características determinantes, a menos de um componente estritamente aleatório,
da participação. Sob esta hipótese, conhecida como Ignorabilidade, métodos semiparamétricos de estimação foram desenvolvidos, entre os quais a imputação de valores contrafactuais e a reponderação da amostra. Ambos são consistentes e capazes de atingir, assintoticamente, o limite de eficiência
semiparamétrico. Entretanto, nas amostras frequentemente disponíveis, o desempenho desses métodos nem sempre é satisfatório. O objetivo deste trabalho é estudar como a combinação das duas estratégias pode produzir estimadores com melhores propriedades em amostras pequenas. Para isto, consideramos duas formas de integrar essas abordagens, tendo como referencial teórico a literatura de estimação duplamente robusta desenvolvida por James Robins e co-autores. Analisamos suas propriedades e discutimos por que podem superar o uso isolado de cada uma das técnicas que os compõem. Finalmente, comparamos, num exercício de Monte Carlo, o desempenho desses estimadores com os de imputação e reponderação. Os resultados mostram que a combinação de estratégias pode reduzir o viés e a variância, mas isso depende da forma como é implementada. Concluímos que a escolha dos parâmetros de suavização é decisiva para o desempenho da estimação em amostras de tamanho moderado. / [en] Estimation of mean treatment effect is an important tool for evaluating economic policy. The main difficulty in this calculation is caused by nonrandom assignment of potential participants to treatment, which leads to
selection bias when ignored. A solution to this problem is to suppose the econometrician observes a set of covariates that determine participation, except for a strictly random component. Under this assumption, known as Ignorability, semiparametric methods were developed, including imputation of counterfactual outcomes and sample reweighing. Both are consistent and can asymptotically achieve the semiparametric efficiency bound. However, in sample sizes commonly available, their performance is not always satisfactory. The goal of this dissertation is to study how combining these strategies can lead to better estimation in small samples. We consider two different ways of merging these methods, based on Doubly Robust inference literature developed by James Robins and his co-authors, analyze their properties and discuss why they would overcome each of their components. Finally, we compare the proposed estimators to imputation and reweighing in a Monte Carlo exercise. Results show that while combined strategies may reduce bias and variance, it depends on the way it is implemented. We conclude that the choice of smoothness parameters is critical to obtain good estimates in moderate size samples.
|
Page generated in 0.0291 seconds