• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 236
  • 7
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 253
  • 117
  • 89
  • 72
  • 57
  • 53
  • 51
  • 50
  • 48
  • 43
  • 37
  • 35
  • 34
  • 34
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Contribuições em codificação de imagens e vídeo = Contributions in image and video coding / Contributions in image and video coding

Testoni, Vanessa 19 August 2018 (has links)
Orientador: Max Henrique Machado Costa / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-19T09:28:05Z (GMT). No. of bitstreams: 1 Testoni_Vanessa_D.pdf: 8106484 bytes, checksum: 21b33811983b7a26e8c1bab2e56ac0aa (MD5) Previous issue date: 2011 / Resumo: A comunidade de codificação de imagens e vídeo vem também trabalhando em inovações que vão além das tradicionais técnicas de codificação de imagens e vídeo. Este trabalho é um conjunto de contribuições a vários tópicos que têm recebido crescente interesse de pesquisadores na comunidade, nominalmente, codificação escalável, codificação de baixa complexidade para dispositivos móveis, codificação de vídeo de múltiplas vistas e codificação adaptativa em tempo real. A primeira contribuição estuda o desempenho de três transformadas 3-D rápidas por blocos em um codificador de vídeo de baixa complexidade. O codificador recebeu o nome de Fast Embedded Video Codec (FEVC). Novos métodos de implementação e ordens de varredura são propostos para as transformadas. Os coeficiente 3-D são codificados por planos de bits pelos codificadores de entropia, produzindo um fluxo de bits (bitstream) de saída totalmente embutida. Todas as implementações são feitas usando arquitetura com aritmética inteira de 16 bits. Somente adições e deslocamentos de bits são necessários, o que reduz a complexidade computacional. Mesmo com essas restrições, um bom desempenho em termos de taxa de bits versus distorção pôde ser obtido e os tempos de codificação são significativamente menores (em torno de 160 vezes) quando comparados ao padrão H.264/AVC. A segunda contribuição é a otimização de uma recente abordagem proposta para codificação de vídeo de múltiplas vistas em aplicações de video-conferência e outras aplicações do tipo "unicast" similares. O cenário alvo nessa abordagem é fornecer vídeo com percepção real em 3-D e ponto de vista livre a boas taxas de compressão. Para atingir tal objetivo, pesos são atribuídos a cada vista e mapeados em parâmetros de quantização. Neste trabalho, o mapeamento ad-hoc anteriormente proposto entre pesos e parâmetros de quantização é mostrado ser quase-ótimo para uma fonte Gaussiana e um mapeamento ótimo é derivado para fonte típicas de vídeo. A terceira contribuição explora várias estratégias para varredura adaptativa dos coeficientes da transformada no padrão JPEG XR. A ordem de varredura original, global e adaptativa do JPEG XR é comparada com os métodos de varredura localizados e híbridos propostos neste trabalho. Essas novas ordens não requerem mudanças nem nos outros estágios de codificação e decodificação, nem na definição da bitstream A quarta e última contribuição propõe uma transformada por blocos dependente do sinal. As transformadas hierárquicas usualmente exploram a informação residual entre os níveis no estágio da codificação de entropia, mas não no estágio da transformada. A transformada proposta neste trabalho é uma técnica de compactação de energia que também explora as similaridades estruturais entre os níveis de resolução. A idéia central da técnica é incluir na transformada hierárquica um número de funções de base adaptativas derivadas da resolução menor do sinal. Um codificador de imagens completo foi desenvolvido para medir o desempenho da nova transformada e os resultados obtidos são discutidos neste trabalho / Abstract: The image and video coding community has often been working on new advances that go beyond traditional image and video architectures. This work is a set of contributions to various topics that have received increasing attention from researchers in the community, namely, scalable coding, low-complexity coding for portable devices, multiview video coding and run-time adaptive coding. The first contribution studies the performance of three fast block-based 3-D transforms in a low complexity video codec. The codec has received the name Fast Embedded Video Codec (FEVC). New implementation methods and scanning orders are proposed for the transforms. The 3-D coefficients are encoded bit-plane by bit-plane by entropy coders, producing a fully embedded output bitstream. All implementation is performed using 16-bit integer arithmetic. Only additions and bit shifts are necessary, thus lowering computational complexity. Even with these constraints, reasonable rate versus distortion performance can be achieved and the encoding time is significantly smaller (around 160 times) when compared to the H.264/AVC standard. The second contribution is the optimization of a recent approach proposed for multiview video coding in videoconferencing applications or other similar unicast-like applications. The target scenario in this approach is providing realistic 3-D video with free viewpoint video at good compression rates. To achieve such an objective, weights are computed for each view and mapped into quantization parameters. In this work, the previously proposed ad-hoc mapping between weights and quantization parameters is shown to be quasi-optimum for a Gaussian source and an optimum mapping is derived for a typical video source. The third contribution exploits several strategies for adaptive scanning of transform coefficients in the JPEG XR standard. The original global adaptive scanning order applied in JPEG XR is compared with the localized and hybrid scanning methods proposed in this work. These new orders do not require changes in either the other coding and decoding stages or in the bitstream definition. The fourth and last contribution proposes an hierarchical signal dependent block-based transform. Hierarchical transforms usually exploit the residual cross-level information at the entropy coding step, but not at the transform step. The transform proposed in this work is an energy compaction technique that can also exploit these cross-resolution-level structural similarities. The core idea of the technique is to include in the hierarchical transform a number of adaptive basis functions derived from the lower resolution of the signal. A full image codec is developed in order to measure the performance of the new transform and the obtained results are discussed in this work / Doutorado / Telecomunicações e Telemática / Doutor em Engenharia Elétrica
22

Esquema de codificação turbo quaternário aplicado em comunicação cooperativa / Quaternary turbo coding scheme applied in cooperative communication

Penze, Zelmann Strobe, 1975- 09 May 2014 (has links)
Orientador: Renato Baldini Filho / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-26T06:28:30Z (GMT). No. of bitstreams: 1 Penze_ZelmannStrobe_D.pdf: 1452146 bytes, checksum: 44deab3ba8e13389a1bb2398482e35d5 (MD5) Previous issue date: 2014 / Resumo: Este trabalho apresenta uma proposta de simplificação do esquema de codificação turbo convencional com a utilização de um esquema de transmissão cooperativo. Os códigos turbos multiníveis convencionais consistem de dois códigos componentes M-ários, gerados a partir de dois codificadores sistemáticos recursivos, concatenados via um entrelaçador aleatório de N símbolos. No esquema proposto, apenas um codificador sistemático recursivo de taxa ½ é utilizado na fonte. A sequência de símbolos codificada é radiodifundida para o relay (retransmissor) e o destino. No relay esta sequência é detectada e decodificada utilizando um decodificador de Viterbi. Após a obtenção da sequência de informação transmitida pela fonte ao relay, esta informação depois de entrelaçada é novamente codificada por um codificador sistemático recursivo, idêntico ao da fonte. Contudo, apenas a porção da paridade gerada pelo codificador é enviada pelo relay ao destino. No destino, os dados recebidos da fonte e do relay são reordenados de forma que o decodificador considere que os dados foram transmitidos utilizando um esquema de codificação turbo multinível tradicional. Desta forma o esquema proposto utiliza das características peculiares dos códigos turbo definidos sobre anel de inteiros módulo-M em sistemas que utilizam a codificação cooperativa com o objetivo de obter ganhos de desempenho mesmo quando o canal direto encontra-se comprometido pelo desvanecimento. Além disso, avaliar esquemas de codificação que permitem a possibilidade de fracionar o processo de codificação no percurso cooperativo de modo a economizar banda no dispositivo retransmissor que colabora com a transmissão entre a fonte e o destino / Abstract: This work presents a proposal to simplify the conventional turbo coding scheme with the use of a cooperative transmission scheme. The conventional multilevel turbo codes consist of two M-ary RSC component codes concatenated via a random N-symbol interleaver. In the proposed scheme only one recursive systematic encoder with rate ½ is used. The sequence of coded symbols is broadcasted to the relay and the destination. At the relay, this sequence is detected and decoded using a Viterbi decoder. After obtaining the sequence information transmitted from the source to the relay, the information is again encoded by a recursive systematic encoder identical to the one in the source. However, only a portion of the parity generated by the encoder is sent from the relay to the destination. Data received at the destination from the source and the relay are reordered so that the decoder considers that the data were transmitted using a conventional multilevel turbo scheme. The aim of this work is to exploit some characteristics of turbo codes defined over ring of integers modulo-M in coded cooperation schemes. Moreover, it is intended to evaluate fractionary coding processes applied to the cooperative path in order to save band at the relay / Doutorado / Telecomunicações e Telemática / Doutor em Engenharia Elétrica
23

Motion compensation with minimal residue dispersion matching criteria

Oliveira, Gabriel Lemes Silva Luciano de 16 February 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnoloigia, 2016. / Com a crescente demanda por serviços de vídeo, técnicas de compressão de vídeo tornaram-se uma tecnologia de importância central para os sistemas de comunicação modernos. Padrões para codificação de vídeo foram criados pela indústria, permitindo a integração entre esses serviços e os mais diversos dispositivos para acessá-los. A quase totalidade desses padrões adota um modelo de codificação híbrida, que combina métodos de codificação diferencial e de codificação por transformadas, utilizando a compensação de movimento por blocos (CMB) como técnica central na etapa de predição. O método CMB tornou-se a mais importante técnica para explorar a forte redundância temporal típica da maioria das sequências de vídeo. De fato, muito do aprimoramento em termos de e ciência na codificação de vídeo observado nas últimas duas décadas pode ser atribuído a refinamentos incrementais na técnica de CMB. Neste trabalho, apresentamos um novo refinamento a essa técnica. Uma questão central à abordagem de CMB é a estimação de movimento (EM), ou seja, a seleção de vetores de movimento (VM) apropriados. Padrões de codificação tendem a regular estritamente a sintaxe de codificação e os processos de decodificação para VM's e informação de resíduo, mas o algoritmo de EM em si é deixado a critério dos projetistas do codec. No entanto, embora praticamente qualquer critério de seleção permita uma decodi cação correta, uma seleção de VM criteriosa é vital para a e ciência global do codec, garantindo ao codi cador uma vantagem competitiva no mercado. A maioria do algoritmos de EM baseia-se na minimização de uma função de custo para os blocos candidatos a predição para um dado bloco alvo, geralmente a soma das diferenças absolutas (SDA) ou a soma das diferenças quadradas (SDQ). A minimização de qualquer uma dessas funções de custo selecionará a predição que resulta no menor resíduo, cada uma em um sentido diferente porém bem de nido. Neste trabalho, mostramos que a predição de mínima dispersão de resíduo é frequentemente mais e ciente que a tradicional predição com resíduo de mínimo tamanho. Como prova de conceito, propomos o algoritmo de duplo critério de correspondência (ADCC), um algoritmo simples em dois estágios para explorar ambos esses critérios de seleção em turnos. Estágios de minimização de dispersão e de minimização de tamanho são executadas independentemente. O codificador então compara o desempenho dessas predições em termos da relação taxa-distorção e efetivamente codifica somente a mais eficiente. Para o estágio de minimização de dispersão do ADCC, propomos ainda o desvio absoluto total com relação à média (DATM) como a medida de dispersão a ser minimizada no processo de EM. A tradicional SDA é utilizada como a função de custo para EM no estágio de minimização de tamanho. O ADCC com SDA/DATM foi implementado em uma versão modificada do software de referência JM para o amplamente difundido padrão H.264/AVC de codificação. Absoluta compatibilidade a esse padrão foi mantida, de forma que nenhuma modificação foi necessária no lado do decodificador. Os resultados mostram aprimoramentos significativos com relação ao codificador H.264/AVC não modificado. / With the ever growing demand for video services, video compression techniques have become a technology of central importance for communication systems. Industry standards for video coding have emerged, allowing the integration between these services and the most diverse devices. The almost entirety of these standards adopt a hybrid coding model combining di erential and transform coding methods, with block-based motion compensation (BMC) at the core of its prediction step. The BMC method have become the single most important technique to exploit the strong temporal redundancy typical of most video sequences. In fact, much of the improvements in video coding e ciency over the past two decades can be attributed to incremental re nements to the BMC technique. In this work, we propose another such re nement. A key issue to the BMC framework is motion estimation (ME), i.e., the selection of appropriate motion vectors (MV). Coding standards tend to strictly regulate the coding syntax and decoding processes for MV's and residual information, but the ME algorithm itself is left at the discretion of the codec designers. However, though virtually any MV selection criterion will allow for correct decoding, judicious MV selection is critical to the overall codec performance, providing the encoder with a competitive edge in the market. Most ME algorithms rely on the minimization of a cost function for the candidate prediction blocks given a target block, usually the sum of absolute di erences (SAD) or the sum of squared di erences (SSD). The minimization of any of these cost functions will select the prediction that results in the smallest residual, each in a di erent but well de ned sense. In this work, we show that the prediction of minimal residue dispersion is frequently more e cient than the usual prediction of minimal residue size. As proof of concept, we propose the double matching criterion algorithm (DMCA), a simple two-pass algorithm to exploit both of these MV selection criteria in turns. Dispersion minimizing and size minimizing predictions are carried out independently. The encoder then compares these predictions in terms of rate-distortion performance and outputs only the most e cient one. For the dispersion minimizing pass of the DMCA, we also propose the total absolute deviation from the mean (TADM) as the measure of residue dispersion to be minimized in ME. The usual SAD is used as the ME cost function in the size minimizing pass. The DMCA with SAD/TADM was implemented in a modi ed version of the JM reference software encoder for the widely popular H.264/AVC coding standard. Absolute compliance to the standard was maintained, so that no modi cations on the decoder side were necessary. Results show signi cant improvements over the unmodi ed H.264/AVC encoder.
24

Representing in order to interact: an interactionist approach to ontology

Teixeira, Márlon Henrique dos Santos January 2015 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro de Filosofia e Ciências Humanas, Programa de Pós-Graduação em Filosofia, Florianópolis, 2015. / Made available in DSpace on 2016-10-19T12:57:41Z (GMT). No. of bitstreams: 1 338226.pdf: 1683928 bytes, checksum: ac389aa1577c6b5201544555cf28937b (MD5) Previous issue date: 2015 / A presente tese consiste em um ensaio de ontologia, o qual chamo de Interacionista. A Ontologia Interacionista afirma que a realidade consiste nessas restrições que limitam o campo de interações possíveis para aquele das interações com sucesso com o entorno. Contudo, como qualquer sentido de realidade que venhamos a ter advém de nossa experiência interna, meu primeiro esforço será o de relacionar nossa noção intuitiva e interna de realidade com essa de interação. Desse modo, no segundo capítulo, interpreto o Sistema Nervoso Central (SNC) como um sistema de controle que produz motricidade a fim preservar a vida do organismo. Nossas representações internas são entendidas como uma estratégia para melhorar o desempenho de controle. A eficiência do controle depende da capacidade de processamento de informação, que por sua vez reflete na qualidade de nossas representações. Nesse contexto, qualquer conteúdo representacional, quer sejam nossas representações biológicas ou qualquer representação formal, é interpretado como cumprindo um papel de produção de ação. No terceiro capítulo, questiono sobre se o processamento de informação do SNC teria alguma perda de informação ? isto é, se nós seríamos capazes de ?ver? toda a realidade. Defino uma medida do desempenho do SNC em termos de ações com sucesso: nenhuma perda implica nenhum acidente e alguma perda implica em algum acidente. No quarto capítulo, assumo que nossa percepção é um caso de processamento com perda de informação e investigo sobre como o SNC escolhe os bits adequados para a sobrevivência do organismo. Minha explicação reserva um lugar tanto para a contribuição evolucionária quanto para a cultural. A contribuição evolucionária a nossa percepção ocorre ao nível do sistema de processamento periférico a qual define um amplo conjunto de categorias ? os aspectos mais gerais de nossa percepção. A contribuição cultural ocorre ao longo do desenvolvimento do organismo e define um conjunto mais específico de características da percepção. Defendo que fatores culturais, desde interações entre grupos sociais até o manuseio de linguagens formais, formam um espectro contínuo moldando nossa percepção. No quinto capítulo, questiono sobre como o SNC poderia aumentar seu processamento de informação. Interpreto o advento do surgimento das linguagens simbólicas como uma estratégia que reduz o custo de processamento de informação, desse modo, aumentando nosso controle sobre o entorno. No último capítulo, desenvolvo a tese ontológica interacionista em detalhes e comento outras consequências filosóficas.<br> / Abstract : This thesis is an endeavor to construct an ontology which I call Interactionist. The Ontological Interactionist thesis claims that reality consists of those constraints which limit the range of all possible interactions to those that are successful with environment. As any sense of reality comes from one?s internal experience, my first endeavor is to relate one?s internal and intuitive notion of reality with that of interaction. Therefore, in the second chapter, I interpret the Central Nervous System (CNS) as a control system which produces motricity in order to keep the organism alive while one?s internal representations are understood as a strategy to improve the control performance. The control efficiency depends on the information processing systems capacity, which reflects the quality of our representations. In this setup, any representational content, whether the biological internal representations or any formal representation, is interpreted as playing a role in the production of action. In the third chapter, I will question whether or not the CNS?s processing has any loss of information ? i.e. whether or not one is able to ?see? everything in the outside world. I will define a measure of the CNS?s performance in terms of successful actions; no losses imply no accidents and any loss implies some accident. As accidents are widespread in one?s life, I conclude that we are treating a lossy case. In the forth chapter I will assume that one?s perception is a lossy processing case and I will question how the CNS chooses the right bits in order to survive. My explanation reserves a place for the evolutionary as well as cultural contribution. The evolutionary contribution occurs at the peripheral processing system which defines a broad set of categories ? the broad aspects of one?s perception. The cultural contribution occurs along the organism?s development and defines a more specific set of perception?s features ? like specific patterns. I will defend that cultural factors, from motor group interactions to the mastering of mathematical language, form a continuous spectrum shaping one?s perception. In the fifth chapter I will question how the CNS can improve its information processing. I will interpret the devising of the symbolic language as a strategy that reduces the processing costs, thereby, increasing one?s control over the environment. In the last chapter I will unfold the Ontological Interactionist thesis previously stated and will comment on some philosophical implications.
25

Um novo modelo para geração de tráfego MPEG

Klein Junior, Valter 07 March 2013 (has links)
Resumo: O estabelecimento de modelos para geração de tráfego tem grande importância para o estudo de desempenho de sistemas de transmissão de vídeo, como, por exemplo, o sistema IPTV (transmissão de televisão sobre IP). Modelos para geração sintética de tráfego são fundamentais para o teste e para simulação de sistemas de transmissão, permitindo a avaliação e previsão de desempenho. Esta dissertação apresenta um modelo para geração de fluxos de vídeo codificados com o codec MPEG, utilizando o tempo de duração da cena e o tipo de quadro codificado. Os filmes em estudo foram separados em cenas e foi verificado que tempo de duração das cenas não apresenta dependência temporal significativa. Como o tempo de duração das cenas não tem dependência temporal significativa esta grandeza foi relacionada a uma variável aleatória que respeita uma distribuição estatística Lognormal. As cenas foram separadas por tipos de quadro e foi verificado que o primeiro quadro de cada cena não apresenta dependência temporal, o que possibilitou a caracterização desta variável com distribuições de probabilidade. Para gerar os demais quadros tipo P e B que formam o filme codificado em MPEG foi utilizado a relação linear observada entre os quadros I, P e B. A caracterização das variáveis foi realizada através da análise de 16 vídeos com traces disponíveis publicamente. A verificação do modelo foi realizada através de simulações computacionais. Os resultados foram comparados com os traces reais e com outros modelos disponíveis na literatura para geração de tráfego sintético. Os resultados indicam que o modelo proposto imita corretamente as características do tráfego real, com baixa complexidade computacional, e melhor ou igual desempenho se comparado com os outros modelos disponíveis. Além disso, o modelo proposto fornece uma explicação sobre as causas da auto similaridade do tráfego de vídeo e pode ser aplicado para prever o tráfego de rede após uma adaptação de conteúdo de vídeo.
26

Simulação para codificação de imagens paradas usando o padrão JPEG basico

Chung Joo, Fernando 03 October 1995 (has links)
Orientador: Yuzo Iano / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-21T03:31:49Z (GMT). No. of bitstreams: 1 ChungJoo_Fernando_M.pdf: 7900937 bytes, checksum: feb9ffd81b61934dd52360209c5f8ef6 (MD5) Previous issue date: 1995 / Resumo: Este trabalho apresenta um estudo da compressão de imagens usando o padrão JPEG (Joint Photagraphic Experts Group), cujo comportamento é analisado através de simulações em computador com programas desenvolvidos em linguagem C. A simulação foi implementada com o objetivo de se estabelecer uma base eficiente para futuras adaptações e otimizações na codificação de imagens paradas, e também visando sua utilização na codificação de imagens em movimento segundo o padrão MPEG (Motion Picture Experts Group). O sistema foi avaliado através de análises objetivas e subjetivas, principalmente em termos de entropia, relação sinal/ruído e comparação entre os sinais originais e recuperados Os resultados são de fato promissores para transmissão de imagens paradas e confirmam um bom compromisso entre a qualidade de imagem processada e a compressão de dados / Abstract:This work is a study on image compression using JPEG standard (Joint Photographics Experts Group), whose performance is evaluated through a computer simulation developed in C Language. The aim of the simulation was to establish an efficient baseline for future adaptations and optimizations to the encoding of images, and also to enable its utilization in the encoding of moving images according to MPEG standard (Motion Picture Experts Group). The system was evaluated through objective and subjective analysis, in terms of entropy, signal to noise ratio and by comparing the original to the recovered signals. Theresults are promising for the transmission of images taking into account the trade off between the quality of image and the data compression / Mestrado / Mestre em Engenharia Elétrica
27

Decodificação multiestagio de esquemas de modulação multidimensional codificada

Lopez Guerrero, Naylam 19 June 1998 (has links)
Orientador: Jaime Portugheis / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-07-23T18:55:04Z (GMT). No. of bitstreams: 1 LopezGuerrero_Naylam_M.pdf: 6005476 bytes, checksum: 6c92d5bbb7692423e65043a84d5a5d2b (MD5) Previous issue date: 1998 / Resumo: Neste trabalho discutimos a decodificação multiestágio de esquemas de modulação codificada para o canal aditivo Gaussiano. Utilizaremos constelações de sinais multidimensionais o invés dos esquemas tradicionais que usam constelações de sinais bidimensionais. Restringiremos o estudo a esquemas que usam somente símbolos PSK, dado que tais esquemas são os mais adequados para determinados tipos de canais, como por exemplo o canal de satélite. Os esquemas de modulação codificada a serem estudados serão caraterizados por dois elementos: o código a ser enviado pelo transmissor e o decodificador/demodulador usado no receptor. O código é o resultado dos diferentes tipos de codificação aplicados nos bits de informação, enquanto o decodificador/demodulador serve para recuperar a palavra enviada do sinal afetado pelo canal. Nosso maior interesse será no uso de decodificadores do tipo multiestágio para os diferentes códigos projetados. Com o objetivo de poder comparar os esquemas aqui construídos com esquemas codificados já existentes, iremos usar dois parâmetros próprios de qualquer esquema de transmissão: a probabilidade de erro de bloco do sistema para diferentes valores da relação sinal- ruído, e a complexidade envolvida no processo de decodificação do sinal recebido / Abstract: In this dissertation, the decoding of block coded modulation schemes is considered. Multidimensional signal constellations are studied instead of traditional schemes that use two-dimensional signal constellations. This investigation is restricted to the use of PSK based schemes, because this kind of schemes are more appropriate for certain communication channels, e.g. the satellite channel. The block coded modulation schemes investigated are defined by the transmitter' s code and by the decoder/demodulator of the receiver. The transmitter' s code is the result of different error-protection codes applied to the information bits. The decoder/demodulator recovers the information of the affected signal received. Our main focus was on the use of multistage decoders for the different codes constructed. In order to compare the schemes constructed with other schemes that already exist, two usual parameters are used: the block error probability for different signal-to-noise-ratio values and the decoding complexity / Mestrado / Mestre em Engenharia Elétrica
28

Modulação codificada para sistemas moveis TDMA

Aquino, Luiz Carlos Faray de 27 July 2018 (has links)
Orientador: Renato Baldini Filho / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-07-27T14:41:52Z (GMT). No. of bitstreams: 1 Aquino_LuizCarlosFarayde_M.pdf: 5717363 bytes, checksum: 9c9f6cdd9519edd1a10fbde8f914cc2f (MD5) Previous issue date: 2001 / Mestrado
29

Estudo da viabilidade da utilização de codigo de Reed Solomon na codificação de canal movel TDMA

Penze, Rivael Strobel, 1973- 01 August 2018 (has links)
Orientador : Renato Baldini Filho / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-01T21:17:57Z (GMT). No. of bitstreams: 1 Penze_RivaelStrobel_M.pdf: 655271 bytes, checksum: aa865a188295e069674bd5dcaee5d193 (MD5) Previous issue date: 2002 / Mestrado
30

Codigos restritos para se reduzir o numero de fotons por bit em transmissão optica : Rony Mark da Silva

Silva, Rony Mark da 03 September 1999 (has links)
Orientador: Helio Waldman / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-07-25T15:08:31Z (GMT). No. of bitstreams: 1 Silva_RonyMarkda_M.pdf: 4446208 bytes, checksum: 7bd3e97e3e0309cbd788a2951f0917a4 (MD5) Previous issue date: 1999 / Resumo: Este trabalho objetiva o estudo de códigos de linha aplicados à transmissão óptica visando uma economia do número de fótons por bit necessários a este tipo de comunicação. Os códigos escolhidos são aqueles com restrições (d,k) e RLL ( Runlengthlimited). É definido genericamente um Ganho de Eficiência Fotônica, obtido quando uma codificação de linha é empregada. A seguir, são obtidas expressões para o cálculo deste ganho e para a determinação das curvas de entropia versus esparsidade, visando encontrar-se o ponto de operação de Máxima Eficiência Fotônica. A análise das curvas conseguidas é apresentada, bem como os métodos numéricos usados na sua confecção. Um exemplo de aplicação é desenvolvido, mostrando-se o estudo e análise do projeto completo de um código com restrição d =2. Como conclusão, os resultados conseguidos demonstraram que a codificação de linha na transmissão óptica é uma alternativa interessante para se reduzir a potência óptica inserida na fibra, com conseqüente diminuição dos efeitos não-lineares da mesma, tendo uma potencial aplicação em Sistemas WDM (Wavelength Division Multiplexing ) / Abstract: The present work aims at the study of line codes for Optical Transmission leading to an economy in the number of photons per bit required by this kind of communication. The codes chosen are those with (d,k) and RLL (Runlength-limited) constraints. A Photonic Efficiency Gain is generically defined, which takes place when a line coding is used. Next, the mathematical expressions to calculate that gain and to allow the construction of graphics of Entropy versus sparseness are obtained, so that a Maximum Photonic Efficiency operating point can be determined. Then, a graphical analysis is presented, as well as the numerical methods used to obtain those graphics. An application example is developed, showing the study and analysis of a complete project of acode with the d =2 constraint. As a conclusion, the results obtained throughout the work showed that line coding in optical transmission is an interesting alternative to reduce the optical power inside the fiber, decreasing its non-linear effects, with a potential practical application in WDM Systems / Mestrado / Mestre em Engenharia Elétrica

Page generated in 0.0712 seconds