• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 3
  • 1
  • Tagged with
  • 22
  • 12
  • 11
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Arquitetura dedicada para decodificação CABAC H.264/AVC em sistema em silício

Carvalho, José Porfírio Albuquerque de 11 September 2009 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação / Submitted by Patrícia Nunes da Silva (patricia@bce.unb.br) on 2011-05-26T21:20:14Z No. of bitstreams: 1 2009_JosePorfirioAlbuquerquedeCarvalho.pdf: 2196292 bytes, checksum: d282aee99e117842ea1774dd178ec16e (MD5) / Approved for entry into archive by Patrícia Nunes da Silva(patricia@bce.unb.br) on 2011-05-26T21:20:37Z (GMT) No. of bitstreams: 1 2009_JosePorfirioAlbuquerquedeCarvalho.pdf: 2196292 bytes, checksum: d282aee99e117842ea1774dd178ec16e (MD5) / Made available in DSpace on 2011-05-26T21:20:37Z (GMT). No. of bitstreams: 1 2009_JosePorfirioAlbuquerquedeCarvalho.pdf: 2196292 bytes, checksum: d282aee99e117842ea1774dd178ec16e (MD5) / O padrão de codificação de vídeo ITU-T H.264/MPEG-4 Part 10 (Advanced Video Coding), publicado originalmente em 2003 pela equipe de especialistas do Joint Video Team (JVT), está presente em tecnologias como a Blu-Ray, HD-DVD e o Sistema de Televisão Digital Brasileira. Este padrão trouxe algumas melhorias quando comparada aos seus antecessores (MPEG-1, MPEG-2, MPEG-4, H.261 e H.263), entre elas, um inovador codificador entrópico baseado em codificação aritmética, chamado Contextbased Adaptive Binary Arithmetic Coding (CABAC). Tais melhorias trouxeram uma grande eficiência para o padrão, reduzindo em até 50% a taxa de bits (bit-rate) necessária para a transmissão de um mesmo vídeo codificado quando comparada com o padrão MPEG-4, com a penalização de ser mais complexo computacionalmente. A complexidade do processo CABAC é exemplificada por estudos prévios que relatam a necessidade de freqüência de clock superior a 100MHz para que um Processador Digital de Sinais (DSP) típico suporte, de forma dedicada, a implementação do decodificador CABAC para a decodificação em tempo-real de um vídeo com resolução D1 (720x480) a taxa de 30 frames/ segundo. O processo do (de)codificador CABAC é primordialmente seqüencial e para acelerar sua execução, opta-se por desenvolver soluções otimizadas, inclusive em hardware dedicado. Este trabalho realizou um estudo sobre o processo de decodificação CABAC, propondo uma arquitetura dedicada que utiliza otimizações para obter paralelismo na decodificação. A solução permite a decodificação de vídeos codificados pelo padrão H.264 em resolução 1080p a taxa de 30 frames/ segundo. O decodificador poderá ser integrado em um projeto de SoC (System-on-a-Chip) para ser utilizado em dispositivos de decodificação de vídeos H.264/AVC. ______________________________________________________________________________ ABSTRACT / The ITU-T H.264/MPEG-4 Part 10 (Advanced Video Coding) video coding standard, originally published in 2003 by the specialists of Joint Video Team (JVT), is used in technologies like Blu-Ray, defunct HD-DVD standard and the Brazilian Digital Television System. This Standard brings some improvements when compared with previous video standards (MPEG- 1, MPEG-2, MPEG-4, H.261 e H.263), among them, an innovative entropy coder based on a binary arithmetic coding, called Context-based Adaptive Binary Arithmetic Coding (CABAC). These new improved features are responsible for the great efficiency of the standard, reducing up to 50% the bit-rate needed for transmission of a coded video stream when compared with the MPEG-4 video standard, at the price of greater computational complexity. The complexity of CABAC process is exemplified by previous works that reports the need of a clock frequency above 100 MHz for a typical Digital Signal Processor (DSP) to support a CABAC decoder implementation for real-time decoding of a video with a D1 resolution (720x480) at framerate of 30 frames per second. The CABAC decoder process is primordially sequential and the acceleration of the execution is normally reached by optimized solutions including dedicated hardware. In this work it is presented a study about the CABAC decoding process and propose a dedicated hardware architecture based on optimized modules to produce parallel decoding. The solution supports decoding of H.264/AVC videos with 1080p resolution (1920x1080) at frame-rate of 30 frames per second. The decoder may be integrated with a complete H.264/AVC video decoder as a component of a System-on-a-Chip (SoC).
2

Decodificação híbrida para códigos LDPC

Guimarães, Walter Prado de Souza 22 February 2013 (has links)
Submitted by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-04-17T14:27:28Z No. of bitstreams: 2 Tese Walter Guimaraes.pdf: 1074140 bytes, checksum: 9576e862fa9714c03f55d10649568935 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-04-17T14:27:28Z (GMT). No. of bitstreams: 2 Tese Walter Guimaraes.pdf: 1074140 bytes, checksum: 9576e862fa9714c03f55d10649568935 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013-02-22 / CAPES / Os códigos Low-Density Parity-Check (LDPC) constituem uma família definida a partir de matrizes esparsas de verificação de paridade e que apresentam excelente desempenho no canal com ruído aditivo Gaussiano branco (RAGB). Devido às suas boas características, têm sido largamente empregados na codificação de canais em sistemas de transmissão via satélite, sistemas de telefonia móvel e sistemas de radiodifusão de TV digital. O sucesso desses códigos é devido à sua representação na forma de grafos, ao uso de métodos de construção mais simplificados e ao processo de decodificação iterativa. Esta tese introduz um método de decodificação iterativa híbrida que, diferentemente da maioria dos modelos existentes, associa a correção de erros à correção de apagamentos em canais com RAGB, como uma forma de melhorar o desempenho do código LDPC nestes canais. O alvo dessa abordagem é a região de patamar de erros dos códigos LDPC, em que os padrões de erros, em sua maioria, são de pequena cardinalidade e resultantes do que se conhece por conjunto de armadilhas. Alguns aspectos do funcionamento e da operação otimizada da decodificação iterativa híbrida são explorados e discutidos. Para confirmar a eficácia da técnica de decodificação introduzida, são apresentados resultados de simulação em computador para códigos LDPC empregados no padrão IEEE802.11n, acompanhados da respectiva análise.
3

Projeto de entrelaçadores para códigos turbo

Jar e Silva, Marcel January 2006 (has links)
Made available in DSpace on 2014-06-12T17:42:14Z (GMT). No. of bitstreams: 2 arquivo6945_1.pdf: 934856 bytes, checksum: 6dde6929102773555ee9224146f061b8 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2006 / Os entrelaçadores possuem um papel crucial para que os códigos turbo atinjam desempenho próximo da capacidade do canal. Apesar de terem sido introduzidos primeiramente como simples permutações aleatórias, atualmente existem várias classes de entrelaçadores, tais como, S-aleatórios, DRP, polinomiais e quasi-cíclicos, que produzem melhor desempenho para códigos turbo em um canal AWGN e/ou são mais simples de serem armazenados. Este trabalho tem dois objetivos principais. O primeiro é fazer estudos comparativos entre classes de entrelaçadores que apresentam a propriedade da economia de memória em relação aos entrelaçadores aleatórios. Este estudo visa suprir uma lacuna na literatura, que normalmente compara novas classes de entrelaçadores com a classe dos entrelaçadores S-aleatórios. O segundo objetivo é o desenvolvimento de uma nova classe de entrelaçadores que também apresenta a característica da economia de memória, além de garantir altos fatores de espalhamento. Os entrelaçadores pertencentes a esta classe são batizados como entrelaçadores quasi-retangulares
4

Armazenamento e reconstrução de imagens comprimidas via codificação e decodificação / Storage and reconstruction of images by coding and decoding

Travassos, Natalia Caroline Lopes [UNESP] 19 December 2016 (has links)
Submitted by NATALIA CAROLINE LOPES TRAVASSOS null (nataliacaroline2006@yahoo.com.br) on 2017-02-15T14:56:05Z No. of bitstreams: 1 natalia_dissertação.pdf: 3422187 bytes, checksum: 73f8b94c641709f43b16401694318651 (MD5) / Approved for entry into archive by Juliano Benedito Ferreira (julianoferreira@reitoria.unesp.br) on 2017-02-21T17:52:48Z (GMT) No. of bitstreams: 1 travassos_ncl_me_ilha.pdf: 3422187 bytes, checksum: 73f8b94c641709f43b16401694318651 (MD5) / Made available in DSpace on 2017-02-21T17:52:48Z (GMT). No. of bitstreams: 1 travassos_ncl_me_ilha.pdf: 3422187 bytes, checksum: 73f8b94c641709f43b16401694318651 (MD5) Previous issue date: 2016-12-19 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Este trabalho apresenta um algoritmo de codificação para imagens comprimidas que representa cada pixel de uma imagem e suas coordenadas por um único valor. Para cada pixel e suas coordenadas, esse valor único é armazenado em um vetor que é usado na reconstrução da imagem sem que sua qualidade seja comprometida. O método proposto apresenta melhorias em relação a dois outros algoritmos propostos anteriormente, sendo que um deles já é uma melhoria do primeiro. O algoritmo apresentado neste trabalho difere dos outros dois algoritmos estudados na diminuição significativa do espaço necessário para armazenamento das imagens, na determinação de uma taxa de compressão exata e na redução do tempo de processamento de decodificação. Um outro avanço apresentado foi a compressão de imagens coloridas utilizando a ferramenta wavemenu em conjunto com o algoritmo que determina a taxa de compressão. / This work presents an encoding algorithm for compressed images that represents each pixel of an image and its coordinates by a single value. For each pixel and its coordinates, this unique value is stored in a vector that is used in the reconstruction of the image without its quality being compromised. The proposed method presents improvements in relation to two other algorithms previously proposed, one of which is already an improvement for the first one. The algorithm presented in this work differs from the other ones in the foollowing characteristcs: by the significant reduction of the space required for image storage, the determination of an exact compression rate and the reduction of the decoding processing time. Another advancement was the compression of colored images using the tool wavemenu in improvement with the algorithm that determines the compression ratio.
5

Consciência Morfossintática Versus Habilidades de Compreensão e Decodificação em Crianças Disléxicas

Melo, Lays Santana de Bastos 09 September 2016 (has links)
Submitted by Glauber Assunção Moreira (glauber.a.moreira@gmail.com) on 2018-08-21T12:53:50Z No. of bitstreams: 1 Tese - Lays Santana de Bastos Melo.pdf: 5885281 bytes, checksum: 686f5e6f6645f01a710c812f4b99d83b (MD5) / Approved for entry into archive by Setor de Periódicos (per_macedocosta@ufba.br) on 2018-08-21T17:20:25Z (GMT) No. of bitstreams: 1 Tese - Lays Santana de Bastos Melo.pdf: 5885281 bytes, checksum: 686f5e6f6645f01a710c812f4b99d83b (MD5) / Made available in DSpace on 2018-08-21T17:20:25Z (GMT). No. of bitstreams: 1 Tese - Lays Santana de Bastos Melo.pdf: 5885281 bytes, checksum: 686f5e6f6645f01a710c812f4b99d83b (MD5) / RESUMO O objetivo central desta pesquisa foi descrever o desempenho de leitura dos disléxicos, especificamente quanto às habilidades de decodificação e compreensão, investigando as relações com seus respectivos níveis de consciência morfossintática. A pesquisa seguiu o aporte teórico da Psicologia Cognitiva, concordando com a definição oferecida pela Associação Brasileira de Dislexia (2014) segundo a qual este transtorno pode ser definido como uma desordem específica de linguagem de origem constitucional, caracterizada por um problema na decodificação de palavras isoladas, ocasionada pela dificuldade de relacionar fonemas aos grafemas – hipótese do déficit fonológico. Considerando que tal déficit é modular, ou seja, outros processamentos linguísticos podem permanecer funcionalmente intactos, perguntou-se como se caracteriza o desempenho de disléxicos quanto às habilidades morfossintáticas e se elas podem influenciar os escores de leitura. Integram a amostra 14 sujeitos disléxicos, na faixa etária entre 08 e 15 anos, tratados no Centro de Referência em Distúrbios de Aprendizagem e Dislexia da Universidade Federal do Rio de Janeiro. A metodologia englobou a aplicação da Prova de Consciência Sintática - PCS (CAPOVILLA; CAPOVILLA, 2009), do Teste de Competência de Leitura Silenciosa de Palavras e Pseudopalavras - TCLPP (CAPOVILLA; CAPOVILLA, 2010), de uma tarefa de facilitação contextual na leitura (teste de Cloze) (SANTOS, 2005) e de uma tarefa de memória verbal (REGO, 1995), que atuou como medida de controle. Os resultados demonstraram que tanto em relação à faixa etária quanto em relação à série, os sujeitos da pesquisa, em sua maioria, situaram-se acima da média esperada da PCS. Verificou-se também que quanto maiores seus valores, maiores os escores no TCLPP e no Cloze. Observou-se ainda que os escores totais da PCS estão mais relacionados com as habilidades de leitura em contexto (Teste de Cloze) do que com as palavras isoladas (TCLPP) e o desempenho dos sujeitos em memória verbal não influenciou nos resultados obtidos, visto que, de forma geral, se encontraram nos padrões de normalidade. Concluiu-se que, a despeito do déficit de consciência fonológica, as crianças disléxicas possuem um desempenho relativamente adequado em consciência morfossintática, o que implica que os programas de remediação deste grupo não devem incluir unicamente estratégias envolvendo habilidades fonológicas, mas também de consciência morfossintática, visando constituir meio compensatório das suas dificuldades. / ABSTRACT The main objective of this research was to describe the reading performance of dyslexics, specifically regarding the decoding and comprehension skills by investigating the relations with their respective levels of morphosyntactic awareness. The research followed the theory of Cognitive Psychology, according to the definition offered by the Brazilian Association of Dyslexia (2009) that this is a language disorder and it has a constitutional origin, characterized by a problem in decoding single words, caused by the difficulty of linking phonemes to graphemes - hypothesis of phonological deficit. Considering that this is a modular deficit, i.e. other language processing may remain functionally intact, the problem focused on how the performance of dyslexics was in terms of morphosyntactic skills and whether this could influence reading scores. The sample included 14 dyslexic subjects, aged from 08 to 15 years, treated at the Centro de Referência em Distúrbios de Aprendizagem e Dislexia da Universidade Federal do Rio de Janeiro. The methodology involved the application of Prova de Consciência Sintática (Syntactic Awareness Task) - PCS (CAPOVILLA, CAPOVILLA, 2009), Teste de Competência de Leitura Silenciosa de Palavras e Pseudopalavras (Silent Words and Pseudowords Reading Competence) - TCLPP (CAPOVILLA, CAPOVILLA, 2010), a contextual facilitation reading test (Cloze Test) (SANTOS, 2005) and a verbal memory test (REGO, 1995), which served as a control measure. Results showed that both in terms of age as well as of school level subjects, generally, were above the expected PCS average. It was also found that the higher these scores reached, the higher scores were attained in the TCLPP and the Cloze Test. Another important outcome was that the overall PCS scores were mostly related to reading in context abilities (Cloze Test) rather than in isolated word (TCLPP), and subjects performance in verbal memory was not influencial, as results were within normal range. We may conclude, then, that in spite of the phonological deficit, dyslexics children display relatively adequate performance in terms of morphosyntactic awareness, which implies that reabilitation programs should not only include phonologically based strategies, but also focus on morphosyntactic awareness abilities in order to create a compensatory means to deal with their limitations.
6

Aplicação de transformação conforme em codificação e decodificação de imagens / Conformal mapping applied to images encoding and decoding

Silva, Alan Henrique Ferreira 31 March 2016 (has links)
Submitted by JÚLIO HEBER SILVA (julioheber@yahoo.com.br) on 2017-03-24T17:48:37Z No. of bitstreams: 2 Dissertação - Alan Henrique Ferreira Silva - 2016.pdf: 10881029 bytes, checksum: 1c411277f8b103cc8a55709053ed7f9b (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2017-03-27T15:13:01Z (GMT) No. of bitstreams: 2 Dissertação - Alan Henrique Ferreira Silva - 2016.pdf: 10881029 bytes, checksum: 1c411277f8b103cc8a55709053ed7f9b (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-03-27T15:13:01Z (GMT). No. of bitstreams: 2 Dissertação - Alan Henrique Ferreira Silva - 2016.pdf: 10881029 bytes, checksum: 1c411277f8b103cc8a55709053ed7f9b (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2016-03-31 / This work proposes method to encode and decode imas using conformal mapping. Conformal mapping modifies domains without modifyung physical characteristics between them. Real images are processed between these domains using encoding keys, also called transforming functions. The advantage of this methodology is the ability to carry the message as an encoded image in printed media for posterior-decoding. / Este trabalho propõe método que utiliza transformações conformes para codificar e decodificar imagens. As transformações conformes modificam os domínios em estudos sem modificar as características físicas entre eles. As imagens reais são transformadas entre estes domínios utilizando chaves, que são funções transformadoras. o diferencial desta metodologia é a capacidade de transportar a mensagem contida na imagem em meio impresso codificado e depois, decodificá-la.
7

POLIMORFISMOS DO GENE DGAT1 (REGIÃO 5’UTR) EM BOVINOS NELORES (PO) E MESTIÇOS (SRD), E SUA RELAÇÃO COM A CIRCUNFERÊNCIA ESCROTAL E ABERTURA BI ISQUIÁTICA.

Freire, Kelia Margarida Barros 15 March 2017 (has links)
Submitted by admin tede (tede@pucgoias.edu.br) on 2017-06-28T13:20:09Z No. of bitstreams: 1 KÉLIA MARGARIDA BARROS FREIRE.pdf: 2376286 bytes, checksum: 59c7ba5d89ca07d45590e5f866950733 (MD5) / Made available in DSpace on 2017-06-28T13:20:09Z (GMT). No. of bitstreams: 1 KÉLIA MARGARIDA BARROS FREIRE.pdf: 2376286 bytes, checksum: 59c7ba5d89ca07d45590e5f866950733 (MD5) Previous issue date: 2017-03-15 / After the opening of diverse branches of Genetics Science, and the decoding of human and animal (bovine) genome, our production animals are being evaluated by molecular markers, which read the genome and translate it in four letters: AT-CG. The variations are analyzed as monomorphic and polymorphic regions. The aim of this research was to evaluate the “polymorphisms of the gene DGAT1 and its relation to the external sciatic bi opening and the scrotal circumference”. 109 animals have been analyzed, n= 73 Nelores bovines and n= 36 with no determined breed (NDB), with the age adjusted to 550 days, owned by breeders from the state of Goiás. In the morphometric data analysis through the test T of Student, comparing the groups Nelores PO and Bovine NDB, The analysis of morphometric data through the test T of Student comparing the groups Nelore PO and Bovine NDB does not indicate that the identified differences are substantially important to the variables ABi and CE (p ≤ 0,0001). In the genomic analysis, the test Chi-square was not relevant (p ≥ 0,05), revealing, this, that the groups of Nelore PO and of animals of NDB do not differ when it comes to the obtained genotypic and allelic frequencies. In this situation, we have observed so far variations in the allelic and genotypic frequencies for the sampled animals and the three SNP used in the study: rs471462296, rs456245081 and rs438495570. The genotype of the sampled bovines did not affect the evaluated characteristics, revealing there are, this, other genetic and non-genetic effects which affect the characteristics studied in Nelore, which deserve to be investigated. / Com o desenvolvimento dos vários ramos da Ciência Genética e a decodificação do genoma humano e animal (bovinos), nossos animais de produção estão sendo avaliados por marcadores moleculares, que fazem a leitura do genoma e o traduz em quatro letras: AT-CG. As variações são analisadas como regiões monomórficas e polimórficas. O objetivo desta pesquisa foi avaliar os “Polimorfismos do Gene DGAT1 e sua relação com a abertura bi isquiática externa (ABI) e o circunferência escrotal (CE)”. Foram analisados 109 bovinos, sendo73 bovinos daraça Nelore (PO) e36 bovinos sem raça definida (SRD), com idade ajustada para 550 dias, pertencentes a diferentes criadores do Estado de Goiás. A análise dos dados morfométricos pelo teste T de Student, comparando os grupos Nelore PO e bovinos SRD, não indica que as diferenças encontradas são substantivamente importantes para as variáveis ABI e CE (p ≤ 0,0001).Na análise genômica, o teste do Qui-quadrado não foi significativo (p ≥ 0,05), revelando, portanto, que os grupos de Nelore PO e de animais SRD não diferem quanto às frequências genotípicas e alélicas encontradas. Nessa situação, não foram observados até o momento variações na frequência alélica e genotípica para os animais amostrados e para os três SNPs usados no estudo: rs471462296, rs456245081 e rs438495570. O genótipo dos bovinos amostrados não apresentou influência sobre as características avaliadas, existindo, portanto, outros efeitos genéticos e não genéticos que afetam as características estudadas em Nelore, as quais merecem ser investigadas.
8

Decodificação Iterativa de Códigos LDPC em Canais Discretos com Quantização Uniforme

CORDEIRO, Moisés Alves 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T17:36:02Z (GMT). No. of bitstreams: 2 arquivo2523_1.pdf: 1662188 bytes, checksum: ca366b30d35fcf4e22eb4ea7ea20d578 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2010 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A decodificação de códigos baseados em matrizes de verificação de paridade esparsas (LDPC, do inglês low-density parity-check) é realizada através do algoritmo soma-produto (ASP). Este trabalho apresenta um estudo do funcionamento do ASP e do seu desempenho em um canal com ruído aditivo Gaussiano branco (AWGN, do inglês additive white Gaussian noise) através de simulações computacionais. Em seguida, esta análise é estendida quando um quantizador uniforme com 2q níveis de quantização é incorporado ao sistema de comunicações. O passo de quantização ótimo é identificado para vários parâmetros do código e do canal. Este estudo indica que para q = 1 (quantização abrupta) ocorre uma perda de desempenho de aproximadamente 1,8 dB em relação ao canal AWGN enquanto que para q = 4 essa perda é reduzida para aproximadamente 0,12 dB
9

Decodificação iterativa de códigos baseados em matrizes de verificação de paridade esparsas

VASCONCELOS, Marcos Müller January 2007 (has links)
Made available in DSpace on 2014-06-12T17:39:33Z (GMT). No. of bitstreams: 2 arquivo6919_1.pdf: 4119217 bytes, checksum: 3f1efa22858eeae0d86c8392becd8174 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2007 / Códigos baseados em matrizes esparsas têm desempenhado um importante papel em teoria da codificação. Os códigos low-density parity-check (LDPC) constituem uma famosa família de códigos definidos a partir de matrizes de verificação de paridade esparsas que apresentam desempenhos excelentes no canal com ruído aditivo Gaussiano branco (RAGB). O sucesso desses códigos se deve a sua representação através de grafos, que permite a operação de um algoritmo de decodificação iterativo cuja complexidade cresce linearmente com o comprimento dos blocos. Esta dissertação apresenta um estudo sobre códigos LDPC e sua principal ferramenta de análise, a density evolution. Para isso, a representação gráfica de códigos de bloco lineares e o funcionamento do algoritmo de decodificação Soma-Produto são apresentados. Algumas técnicas de projeto de códigos LDPC são discutidas e seu desempenho no canal RAGB é avaliado por meio de simulações. Baseando-se nestas ferramentas, a density evolution para os canal RAGB é derivada em forma integral e em forma aproximada. Por fim, uma modificação no algoritmo Soma-Produto é proposta para decodificação de códigos LDPC no canal Gilbert-Elliott
10

Decodificação de códigos sobre anéis de Galois

Villafranca, Rogério January 2014 (has links)
Orientador: Prof. Dr. Francisco César Polcino Milies / Dissertação (mestrado) - Universidade Federal do ABC, Programa de Pós-Graduação em Matemática , 2014. / Códigos sobre anéis vem sendo estudados desde a década de 70 e hoje sabe-se que alguns códigos não-lineares sobre corpos são imagens de códigos lineares sobre anéis Zpm. Neste trabalho, lidamos com códigos sobre Anéis de Galois, que são uma generalização tanto para corpos finitos quanto para anéis Zpm. Em uma primeira parte dedicada a anéis, definimos anéis de Galois como um caso particular de anéis locais, mostramos a equivalência entre essa definição e a construção clássica desses anéis como extensões de Zpm e apresentamos propriedades importantes. Em seguida, na parte referente à Teoria de Códigos, descrevemos as bases necessárias desse assunto e apresentamos um método permitindo a obtenção de um algoritmo de decodificação para um código sobre um anel de Galois a partir de algoritmos de decodificação para códigos lineares sobre o corpo de resíduos desse anel. / Codes over rings are a research subject since the 70¿s and today is well known that some non-linear codes over fields are images of linear codes over Zpm rings. In this work we deal with codes over Galois rings, which generalize both finite fields and Zpm rings. In a first part concerning ring theory, we define Galois rings as a particular case of local rings, show the equivalence of this definition to the classical construction of such rings as extensions of Zpm and present important properties of these structures. Next, concerning Coding Theory, we describe the basic facts of this subject and present a method that alows us to obtain decoding alogrithms for a linear code over a Galois ring from decoding algorithms for linear codes over the residue field of that ring.

Page generated in 0.0538 seconds