Spelling suggestions: "subject:"codificação""
1 |
Arquitetura dedicada para decodificação CABAC H.264/AVC em sistema em silícioCarvalho, José Porfírio Albuquerque de 11 September 2009 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação / Submitted by Patrícia Nunes da Silva (patricia@bce.unb.br) on 2011-05-26T21:20:14Z
No. of bitstreams: 1
2009_JosePorfirioAlbuquerquedeCarvalho.pdf: 2196292 bytes, checksum: d282aee99e117842ea1774dd178ec16e (MD5) / Approved for entry into archive by Patrícia Nunes da Silva(patricia@bce.unb.br) on 2011-05-26T21:20:37Z (GMT) No. of bitstreams: 1
2009_JosePorfirioAlbuquerquedeCarvalho.pdf: 2196292 bytes, checksum: d282aee99e117842ea1774dd178ec16e (MD5) / Made available in DSpace on 2011-05-26T21:20:37Z (GMT). No. of bitstreams: 1
2009_JosePorfirioAlbuquerquedeCarvalho.pdf: 2196292 bytes, checksum: d282aee99e117842ea1774dd178ec16e (MD5) / O padrão de codificação de vídeo ITU-T H.264/MPEG-4 Part 10 (Advanced Video Coding), publicado originalmente em 2003 pela equipe de especialistas do Joint Video Team (JVT), está presente em tecnologias como a Blu-Ray, HD-DVD e o Sistema de Televisão Digital Brasileira. Este padrão trouxe algumas melhorias quando comparada aos seus antecessores (MPEG-1, MPEG-2, MPEG-4, H.261 e H.263), entre elas, um inovador codificador entrópico baseado em codificação aritmética, chamado Contextbased Adaptive Binary Arithmetic Coding (CABAC). Tais melhorias trouxeram uma grande eficiência para o padrão, reduzindo em até 50% a taxa de bits (bit-rate) necessária para a transmissão de um mesmo vídeo codificado quando comparada com o padrão MPEG-4, com a penalização de ser mais complexo computacionalmente. A complexidade do processo CABAC é exemplificada por estudos prévios que relatam a necessidade de freqüência de clock superior a 100MHz para que um Processador Digital de Sinais (DSP) típico suporte, de forma dedicada, a implementação do decodificador CABAC para a decodificação em tempo-real de um vídeo com resolução D1 (720x480) a taxa de 30 frames/ segundo. O processo do (de)codificador CABAC é primordialmente seqüencial e para acelerar sua execução, opta-se por desenvolver soluções otimizadas, inclusive em hardware dedicado. Este trabalho realizou um estudo sobre o processo de decodificação CABAC, propondo uma arquitetura dedicada que utiliza otimizações para obter paralelismo na decodificação. A solução permite a decodificação de vídeos codificados pelo padrão H.264 em resolução 1080p a taxa de 30 frames/ segundo. O decodificador poderá ser integrado em um projeto de SoC (System-on-a-Chip) para ser utilizado em dispositivos de decodificação de vídeos H.264/AVC.
______________________________________________________________________________ ABSTRACT / The ITU-T H.264/MPEG-4 Part 10 (Advanced Video Coding) video coding standard, originally published in 2003 by the specialists of Joint Video Team (JVT), is used in technologies like Blu-Ray, defunct HD-DVD standard and the Brazilian Digital Television System. This Standard brings some improvements when compared with previous video standards (MPEG- 1, MPEG-2, MPEG-4, H.261 e H.263), among them, an innovative entropy coder based on a binary arithmetic coding, called Context-based Adaptive Binary Arithmetic Coding (CABAC). These new improved features are responsible for the great efficiency of the standard, reducing up to 50% the bit-rate needed for transmission of a coded video stream when compared with the MPEG-4 video standard, at the price of greater computational complexity. The complexity of CABAC process is exemplified by previous works that reports the need of a clock frequency above 100 MHz for a typical Digital Signal Processor (DSP) to support a CABAC decoder implementation for real-time decoding of a video with a D1 resolution (720x480) at framerate of 30 frames per second. The CABAC decoder process is primordially sequential and the acceleration of the execution is normally reached by optimized solutions including dedicated hardware. In this work it is presented a study about the CABAC decoding process and propose a dedicated hardware architecture based on optimized modules to produce parallel decoding. The solution supports decoding of H.264/AVC videos with 1080p resolution (1920x1080) at frame-rate of 30 frames per second. The decoder may be integrated with a complete H.264/AVC video decoder as a component of a System-on-a-Chip (SoC).
|
2 |
Decodificação híbrida para códigos LDPCGuimarães, Walter Prado de Souza 22 February 2013 (has links)
Submitted by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-04-17T14:27:28Z
No. of bitstreams: 2
Tese Walter Guimaraes.pdf: 1074140 bytes, checksum: 9576e862fa9714c03f55d10649568935 (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-04-17T14:27:28Z (GMT). No. of bitstreams: 2
Tese Walter Guimaraes.pdf: 1074140 bytes, checksum: 9576e862fa9714c03f55d10649568935 (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Previous issue date: 2013-02-22 / CAPES / Os códigos Low-Density Parity-Check (LDPC) constituem uma família definida a partir de matrizes
esparsas de verificação de paridade e que apresentam excelente desempenho no canal com ruído
aditivo Gaussiano branco (RAGB). Devido às suas boas características, têm sido largamente empregados
na codificação de canais em sistemas de transmissão via satélite, sistemas de telefonia móvel
e sistemas de radiodifusão de TV digital. O sucesso desses códigos é devido à sua representação na
forma de grafos, ao uso de métodos de construção mais simplificados e ao processo de decodificação
iterativa. Esta tese introduz um método de decodificação iterativa híbrida que, diferentemente da
maioria dos modelos existentes, associa a correção de erros à correção de apagamentos em canais
com RAGB, como uma forma de melhorar o desempenho do código LDPC nestes canais. O alvo
dessa abordagem é a região de patamar de erros dos códigos LDPC, em que os padrões de erros, em
sua maioria, são de pequena cardinalidade e resultantes do que se conhece por conjunto de armadilhas.
Alguns aspectos do funcionamento e da operação otimizada da decodificação iterativa híbrida
são explorados e discutidos. Para confirmar a eficácia da técnica de decodificação introduzida, são
apresentados resultados de simulação em computador para códigos LDPC empregados no padrão
IEEE802.11n, acompanhados da respectiva análise.
|
3 |
Projeto de entrelaçadores para códigos turboJar e Silva, Marcel January 2006 (has links)
Made available in DSpace on 2014-06-12T17:42:14Z (GMT). No. of bitstreams: 2
arquivo6945_1.pdf: 934856 bytes, checksum: 6dde6929102773555ee9224146f061b8 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2006 / Os entrelaçadores possuem um papel crucial para que os códigos turbo atinjam desempenho próximo
da capacidade do canal. Apesar de terem sido introduzidos primeiramente como simples permutações
aleatórias, atualmente existem várias classes de entrelaçadores, tais como, S-aleatórios,
DRP, polinomiais e quasi-cíclicos, que produzem melhor desempenho para códigos turbo em um
canal AWGN e/ou são mais simples de serem armazenados. Este trabalho tem dois objetivos principais.
O primeiro é fazer estudos comparativos entre classes de entrelaçadores que apresentam a
propriedade da economia de memória em relação aos entrelaçadores aleatórios. Este estudo visa
suprir uma lacuna na literatura, que normalmente compara novas classes de entrelaçadores com a
classe dos entrelaçadores S-aleatórios. O segundo objetivo é o desenvolvimento de uma nova classe
de entrelaçadores que também apresenta a característica da economia de memória, além de garantir
altos fatores de espalhamento. Os entrelaçadores pertencentes a esta classe são batizados como
entrelaçadores quasi-retangulares
|
4 |
Armazenamento e reconstrução de imagens comprimidas via codificação e decodificação / Storage and reconstruction of images by coding and decodingTravassos, Natalia Caroline Lopes [UNESP] 19 December 2016 (has links)
Submitted by NATALIA CAROLINE LOPES TRAVASSOS null (nataliacaroline2006@yahoo.com.br) on 2017-02-15T14:56:05Z
No. of bitstreams: 1
natalia_dissertação.pdf: 3422187 bytes, checksum: 73f8b94c641709f43b16401694318651 (MD5) / Approved for entry into archive by Juliano Benedito Ferreira (julianoferreira@reitoria.unesp.br) on 2017-02-21T17:52:48Z (GMT) No. of bitstreams: 1
travassos_ncl_me_ilha.pdf: 3422187 bytes, checksum: 73f8b94c641709f43b16401694318651 (MD5) / Made available in DSpace on 2017-02-21T17:52:48Z (GMT). No. of bitstreams: 1
travassos_ncl_me_ilha.pdf: 3422187 bytes, checksum: 73f8b94c641709f43b16401694318651 (MD5)
Previous issue date: 2016-12-19 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Este trabalho apresenta um algoritmo de codificação para imagens comprimidas que representa
cada pixel de uma imagem e suas coordenadas por um único valor. Para cada
pixel e suas coordenadas, esse valor único é armazenado em um vetor que é usado na
reconstrução da imagem sem que sua qualidade seja comprometida. O método proposto
apresenta melhorias em relação a dois outros algoritmos propostos anteriormente, sendo
que um deles já é uma melhoria do primeiro. O algoritmo apresentado neste trabalho difere
dos outros dois algoritmos estudados na diminuição significativa do espaço necessário
para armazenamento das imagens, na determinação de uma taxa de compressão exata e
na redução do tempo de processamento de decodificação. Um outro avanço apresentado
foi a compressão de imagens coloridas utilizando a ferramenta wavemenu em conjunto
com o algoritmo que determina a taxa de compressão. / This work presents an encoding algorithm for compressed images that represents each pixel
of an image and its coordinates by a single value. For each pixel and its coordinates, this
unique value is stored in a vector that is used in the reconstruction of the image without
its quality being compromised. The proposed method presents improvements in relation
to two other algorithms previously proposed, one of which is already an improvement
for the first one. The algorithm presented in this work differs from the other ones in
the foollowing characteristcs: by the significant reduction of the space required for image
storage, the determination of an exact compression rate and the reduction of the decoding
processing time. Another advancement was the compression of colored images using the
tool wavemenu in improvement with the algorithm that determines the compression ratio.
|
5 |
Consciência Morfossintática Versus Habilidades de Compreensão e Decodificação em Crianças DisléxicasMelo, Lays Santana de Bastos 09 September 2016 (has links)
Submitted by Glauber Assunção Moreira (glauber.a.moreira@gmail.com) on 2018-08-21T12:53:50Z
No. of bitstreams: 1
Tese - Lays Santana de Bastos Melo.pdf: 5885281 bytes, checksum: 686f5e6f6645f01a710c812f4b99d83b (MD5) / Approved for entry into archive by Setor de Periódicos (per_macedocosta@ufba.br) on 2018-08-21T17:20:25Z (GMT) No. of bitstreams: 1
Tese - Lays Santana de Bastos Melo.pdf: 5885281 bytes, checksum: 686f5e6f6645f01a710c812f4b99d83b (MD5) / Made available in DSpace on 2018-08-21T17:20:25Z (GMT). No. of bitstreams: 1
Tese - Lays Santana de Bastos Melo.pdf: 5885281 bytes, checksum: 686f5e6f6645f01a710c812f4b99d83b (MD5) / RESUMO
O objetivo central desta pesquisa foi descrever o desempenho de leitura dos disléxicos, especificamente quanto às habilidades de decodificação e compreensão, investigando as relações com seus respectivos níveis de consciência morfossintática. A pesquisa seguiu o aporte teórico da Psicologia Cognitiva, concordando com a definição oferecida pela Associação Brasileira de Dislexia (2014) segundo a qual este transtorno pode ser definido como uma desordem específica de linguagem de origem constitucional, caracterizada por um problema na decodificação de palavras isoladas, ocasionada pela dificuldade de relacionar fonemas aos grafemas – hipótese do déficit fonológico. Considerando que tal déficit é modular, ou seja, outros processamentos linguísticos podem permanecer funcionalmente intactos, perguntou-se como se caracteriza o desempenho de disléxicos quanto às habilidades morfossintáticas e se elas podem influenciar os escores de leitura. Integram a amostra 14 sujeitos disléxicos, na faixa etária entre 08 e 15 anos, tratados no Centro de Referência em Distúrbios de Aprendizagem e Dislexia da Universidade Federal do Rio de Janeiro. A metodologia englobou a aplicação da Prova de Consciência Sintática - PCS (CAPOVILLA; CAPOVILLA, 2009), do Teste de Competência de Leitura Silenciosa de Palavras e Pseudopalavras - TCLPP (CAPOVILLA; CAPOVILLA, 2010), de uma tarefa de facilitação contextual na leitura (teste de Cloze) (SANTOS, 2005) e de uma tarefa de memória verbal (REGO, 1995), que atuou como medida de controle. Os resultados demonstraram que tanto em relação à faixa etária quanto em relação à série, os sujeitos da pesquisa, em sua maioria, situaram-se acima da média esperada da PCS. Verificou-se também que quanto maiores seus valores, maiores os escores no TCLPP e no Cloze. Observou-se ainda que os escores totais da PCS estão mais relacionados com as habilidades de leitura em contexto (Teste de Cloze) do que com as palavras isoladas (TCLPP) e o desempenho dos sujeitos em memória verbal não influenciou nos resultados obtidos, visto que, de forma geral, se encontraram nos padrões de normalidade. Concluiu-se que, a despeito do déficit de consciência fonológica, as crianças disléxicas possuem um desempenho relativamente adequado em consciência morfossintática, o que implica que os programas de remediação deste grupo não devem incluir unicamente estratégias envolvendo habilidades fonológicas, mas também de consciência morfossintática, visando constituir meio compensatório das suas dificuldades. / ABSTRACT
The main objective of this research was to describe the reading performance of dyslexics, specifically regarding the decoding and comprehension skills by investigating the relations with their respective levels of morphosyntactic awareness. The research followed the theory of Cognitive Psychology, according to the definition offered by the Brazilian Association of Dyslexia (2009) that this is a language disorder and it has a constitutional origin, characterized by a problem in decoding single words, caused by the difficulty of linking phonemes to graphemes - hypothesis of phonological deficit. Considering that this is a modular deficit, i.e. other language processing may remain functionally intact, the problem focused on how the performance of dyslexics was in terms of morphosyntactic skills and whether this could influence reading scores. The sample included 14 dyslexic subjects, aged from 08 to 15 years, treated at the Centro de Referência em Distúrbios de Aprendizagem e Dislexia da Universidade Federal do Rio de Janeiro. The methodology involved the application of Prova de Consciência Sintática (Syntactic Awareness Task) - PCS (CAPOVILLA, CAPOVILLA, 2009), Teste de Competência de Leitura Silenciosa de Palavras e Pseudopalavras (Silent Words and Pseudowords Reading Competence) - TCLPP (CAPOVILLA, CAPOVILLA, 2010), a contextual facilitation reading test (Cloze Test) (SANTOS, 2005) and a verbal memory test (REGO, 1995), which served as a control measure. Results showed that both in terms of age as well as of school level subjects, generally, were above the expected PCS average. It was also found that the higher these scores reached, the higher scores were attained in the TCLPP and the Cloze Test. Another important outcome was that the overall PCS scores were mostly related to reading in context abilities (Cloze Test) rather than in isolated word (TCLPP), and subjects performance in verbal memory was not influencial, as results were within normal range. We may conclude, then, that in spite of the phonological deficit, dyslexics children display relatively adequate performance in terms of morphosyntactic awareness, which implies that reabilitation programs should not only include phonologically based strategies, but also focus on morphosyntactic awareness abilities in order to create a compensatory means to deal with their limitations.
|
6 |
Aplicação de transformação conforme em codificação e decodificação de imagens / Conformal mapping applied to images encoding and decodingSilva, Alan Henrique Ferreira 31 March 2016 (has links)
Submitted by JÚLIO HEBER SILVA (julioheber@yahoo.com.br) on 2017-03-24T17:48:37Z
No. of bitstreams: 2
Dissertação - Alan Henrique Ferreira Silva - 2016.pdf: 10881029 bytes, checksum: 1c411277f8b103cc8a55709053ed7f9b (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2017-03-27T15:13:01Z (GMT) No. of bitstreams: 2
Dissertação - Alan Henrique Ferreira Silva - 2016.pdf: 10881029 bytes, checksum: 1c411277f8b103cc8a55709053ed7f9b (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-03-27T15:13:01Z (GMT). No. of bitstreams: 2
Dissertação - Alan Henrique Ferreira Silva - 2016.pdf: 10881029 bytes, checksum: 1c411277f8b103cc8a55709053ed7f9b (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Previous issue date: 2016-03-31 / This work proposes method to encode and decode imas using conformal mapping. Conformal mapping modifies domains without modifyung physical characteristics between them. Real images are processed between these domains using encoding keys, also called transforming functions. The advantage of this methodology is the ability to carry the message as an encoded image in printed media for posterior-decoding. / Este trabalho propõe método que utiliza transformações conformes para codificar e decodificar imagens. As transformações conformes modificam os domínios em estudos sem modificar as características físicas entre eles. As imagens reais são transformadas entre estes domínios utilizando chaves, que são funções transformadoras. o diferencial desta metodologia é a capacidade de transportar a mensagem contida na imagem em meio impresso codificado e depois, decodificá-la.
|
7 |
POLIMORFISMOS DO GENE DGAT1 (REGIÃO 5’UTR) EM BOVINOS NELORES (PO) E MESTIÇOS (SRD), E SUA RELAÇÃO COM A CIRCUNFERÊNCIA ESCROTAL E ABERTURA BI ISQUIÁTICA.Freire, Kelia Margarida Barros 15 March 2017 (has links)
Submitted by admin tede (tede@pucgoias.edu.br) on 2017-06-28T13:20:09Z
No. of bitstreams: 1
KÉLIA MARGARIDA BARROS FREIRE.pdf: 2376286 bytes, checksum: 59c7ba5d89ca07d45590e5f866950733 (MD5) / Made available in DSpace on 2017-06-28T13:20:09Z (GMT). No. of bitstreams: 1
KÉLIA MARGARIDA BARROS FREIRE.pdf: 2376286 bytes, checksum: 59c7ba5d89ca07d45590e5f866950733 (MD5)
Previous issue date: 2017-03-15 / After the opening of diverse branches of Genetics Science, and the decoding of human
and animal (bovine) genome, our production animals are being evaluated by molecular
markers, which read the genome and translate it in four letters: AT-CG. The variations are
analyzed as monomorphic and polymorphic regions. The aim of this research was to evaluate
the “polymorphisms of the gene DGAT1 and its relation to the external sciatic bi opening and
the scrotal circumference”. 109 animals have been analyzed, n= 73 Nelores bovines and n=
36 with no determined breed (NDB), with the age adjusted to 550 days, owned by breeders
from the state of Goiás. In the morphometric data analysis through the test T of Student,
comparing the groups Nelores PO and Bovine NDB, The analysis of morphometric data
through the test T of Student comparing the groups Nelore PO and Bovine NDB does not
indicate that the identified differences are substantially important to the variables ABi and CE
(p ≤ 0,0001). In the genomic analysis, the test Chi-square was not relevant (p ≥ 0,05),
revealing, this, that the groups of Nelore PO and of animals of NDB do not differ when it
comes to the obtained genotypic and allelic frequencies. In this situation, we have observed so
far variations in the allelic and genotypic frequencies for the sampled animals and the three
SNP used in the study: rs471462296, rs456245081 and rs438495570. The genotype of the
sampled bovines did not affect the evaluated characteristics, revealing there are, this, other
genetic and non-genetic effects which affect the characteristics studied in Nelore, which deserve to be investigated. / Com o desenvolvimento dos vários ramos da Ciência Genética e a decodificação do
genoma humano e animal (bovinos), nossos animais de produção estão sendo avaliados por
marcadores moleculares, que fazem a leitura do genoma e o traduz em quatro letras: AT-CG.
As variações são analisadas como regiões monomórficas e polimórficas. O objetivo desta
pesquisa foi avaliar os “Polimorfismos do Gene DGAT1 e sua relação com a abertura bi
isquiática externa (ABI) e o circunferência escrotal (CE)”. Foram analisados 109 bovinos,
sendo73 bovinos daraça Nelore (PO) e36 bovinos sem raça definida (SRD), com idade
ajustada para 550 dias, pertencentes a diferentes criadores do Estado de Goiás. A análise dos
dados morfométricos pelo teste T de Student, comparando os grupos Nelore PO e bovinos
SRD, não indica que as diferenças encontradas são substantivamente importantes para as
variáveis ABI e CE (p ≤ 0,0001).Na análise genômica, o teste do Qui-quadrado não foi
significativo (p ≥ 0,05), revelando, portanto, que os grupos de Nelore PO e de animais SRD
não diferem quanto às frequências genotípicas e alélicas encontradas. Nessa situação, não
foram observados até o momento variações na frequência alélica e genotípica para os animais
amostrados e para os três SNPs usados no estudo: rs471462296, rs456245081 e
rs438495570. O genótipo dos bovinos amostrados não apresentou influência sobre as
características avaliadas, existindo, portanto, outros efeitos genéticos e não genéticos que afetam as características estudadas em Nelore, as quais merecem ser investigadas.
|
8 |
Decodificação Iterativa de Códigos LDPC em Canais Discretos com Quantização UniformeCORDEIRO, Moisés Alves 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T17:36:02Z (GMT). No. of bitstreams: 2
arquivo2523_1.pdf: 1662188 bytes, checksum: ca366b30d35fcf4e22eb4ea7ea20d578 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2010 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A decodificação de códigos baseados em matrizes de verificação de paridade esparsas (LDPC,
do inglês low-density parity-check) é realizada através do algoritmo soma-produto (ASP).
Este trabalho apresenta um estudo do funcionamento do ASP e do seu desempenho em um
canal com ruído aditivo Gaussiano branco (AWGN, do inglês additive white Gaussian noise)
através de simulações computacionais. Em seguida, esta análise é estendida quando um
quantizador uniforme com 2q níveis de quantização é incorporado ao sistema de comunicações.
O passo de quantização ótimo é identificado para vários parâmetros do código e do canal.
Este estudo indica que para q = 1 (quantização abrupta) ocorre uma perda de desempenho
de aproximadamente 1,8 dB em relação ao canal AWGN enquanto que para q = 4 essa perda
é reduzida para aproximadamente 0,12 dB
|
9 |
Decodificação iterativa de códigos baseados em matrizes de verificação de paridade esparsasVASCONCELOS, Marcos Müller January 2007 (has links)
Made available in DSpace on 2014-06-12T17:39:33Z (GMT). No. of bitstreams: 2
arquivo6919_1.pdf: 4119217 bytes, checksum: 3f1efa22858eeae0d86c8392becd8174 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2007 / Códigos baseados em matrizes esparsas têm desempenhado um importante papel em teoria
da codificação. Os códigos low-density parity-check (LDPC) constituem uma famosa família
de códigos definidos a partir de matrizes de verificação de paridade esparsas que apresentam
desempenhos excelentes no canal com ruído aditivo Gaussiano branco (RAGB). O sucesso
desses códigos se deve a sua representação através de grafos, que permite a operação de um
algoritmo de decodificação iterativo cuja complexidade cresce linearmente com o comprimento
dos blocos. Esta dissertação apresenta um estudo sobre códigos LDPC e sua principal ferramenta
de análise, a density evolution. Para isso, a representação gráfica de códigos de bloco
lineares e o funcionamento do algoritmo de decodificação Soma-Produto são apresentados.
Algumas técnicas de projeto de códigos LDPC são discutidas e seu desempenho no canal
RAGB é avaliado por meio de simulações. Baseando-se nestas ferramentas, a density evolution
para os canal RAGB é derivada em forma integral e em forma aproximada. Por fim, uma
modificação no algoritmo Soma-Produto é proposta para decodificação de códigos LDPC no
canal Gilbert-Elliott
|
10 |
Decodificação de códigos sobre anéis de GaloisVillafranca, Rogério January 2014 (has links)
Orientador: Prof. Dr. Francisco César Polcino Milies / Dissertação (mestrado) - Universidade Federal do ABC, Programa de Pós-Graduação em Matemática , 2014. / Códigos sobre anéis vem sendo estudados desde a década de 70 e hoje sabe-se que alguns
códigos não-lineares sobre corpos são imagens de códigos lineares sobre anéis Zpm.
Neste trabalho, lidamos com códigos sobre Anéis de Galois, que são uma generalização
tanto para corpos finitos quanto para anéis Zpm.
Em uma primeira parte dedicada a anéis, definimos anéis de Galois como um caso
particular de anéis locais, mostramos a equivalência entre essa definição e a construção
clássica desses anéis como extensões de Zpm e apresentamos propriedades importantes.
Em seguida, na parte referente à Teoria de Códigos, descrevemos as bases necessárias
desse assunto e apresentamos um método permitindo a obtenção de um algoritmo
de decodificação para um código sobre um anel de Galois a partir de algoritmos de
decodificação para códigos lineares sobre o corpo de resíduos desse anel. / Codes over rings are a research subject since the 70¿s and today is well known that some
non-linear codes over fields are images of linear codes over Zpm rings. In this work we
deal with codes over Galois rings, which generalize both finite fields and Zpm rings.
In a first part concerning ring theory, we define Galois rings as a particular case of
local rings, show the equivalence of this definition to the classical construction of such
rings as extensions of Zpm and present important properties of these structures.
Next, concerning Coding Theory, we describe the basic facts of this subject and
present a method that alows us to obtain decoding alogrithms for a linear code over a
Galois ring from decoding algorithms for linear codes over the residue field of that ring.
|
Page generated in 0.0707 seconds