• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2440
  • 95
  • 89
  • 78
  • 78
  • 77
  • 57
  • 32
  • 21
  • 16
  • 15
  • 15
  • 9
  • 3
  • 3
  • Tagged with
  • 2612
  • 1390
  • 672
  • 644
  • 476
  • 433
  • 402
  • 313
  • 305
  • 300
  • 257
  • 238
  • 236
  • 231
  • 229
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Inovação e percepção de novidade em jogos mobile: uma análise de jogos bem sucedidos no mercado iOS

SOUZA, Felipe Matheus Calado Oliveira de 30 January 2017 (has links)
Submitted by Fernanda Rodrigues de Lima (fernanda.rlima@ufpe.br) on 2018-08-06T21:26:31Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Felipe Matheus Calado Oliveira de Souza.pdf: 5053815 bytes, checksum: 4d3366663582086a23a8a062ab61b643 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-15T17:36:10Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Felipe Matheus Calado Oliveira de Souza.pdf: 5053815 bytes, checksum: 4d3366663582086a23a8a062ab61b643 (MD5) / Made available in DSpace on 2018-08-15T17:36:10Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Felipe Matheus Calado Oliveira de Souza.pdf: 5053815 bytes, checksum: 4d3366663582086a23a8a062ab61b643 (MD5) Previous issue date: 2017-01-30 / CAPES / Este é um trabalho sobre inovação e percepção da novidade, aplicado ao mercado de jogos mobile. Por apresentar crescimento tanto nas receitas como em número de usuários, este mercado conta com diversas empresas desenvolvedoras que buscam ser bem sucedidas através do lançamento de novos jogos. No entanto, as receitas e os usuários não são divididos igualmente entre todos os jogos disponíveis, com 70% do uso oriundo dos que estão melhores classificados nas 200 primeiras posições dos rankings de downloads e de faturamento das lojas de aplicativos. Logo, se diferenciar neste mercado e/ou se manter com bons resultados é um desafio enfrentado por estas empresas. Nosso trabalho aborda este problema sob o ponto de vista da inovação, pela sua capacidade que produtos inovadores tem para se diferenciar no mercado e obter bons resultados. Em nossa pesquisa, vimos que o que define um produto como inovador é, dentre outros fatores, o seu sucesso de mercado aliado à presença de algum tipo de novidade. Então, realizamos uma pesquisa no mercado iOS e identificamos 24 jogos que se destacaram nos rankings de faturamento e/ou de downloads em um período de 2 anos, caracterizando que são jogos bem sucedidos no mercado, conduzimos um experimento para verificar a presença de novidade neles, e assim caracterizá-los como inovadores ou não. No experimento, 20 avaliadores realizaram um total de 60 avaliações, das quais 47 identificaram novidade. Vimos também que na maioria das vezes a novidade não aparece em apenas um elemento do jogo, sendo percebida em média a 3,42 vezes por jogo inovador, porém com uma alta variação de acordo com o jogo. Na avaliação, os avaliadores também apontaram a importância de diferentes fatores para o sucesso do jogo, com destaque para a mecânica de jogo e para a escolha de dispositivos mobile como plataformas de jogo, e com uma baixa importância percebida para o fator história / narrativa. Assim, vimos que a maioria dos jogos de sucesso da iOS Store são inovadores, e este pode ser um caminho a ser seguido por desenvolvedores de jogos para obter sucesso de mercado. / This research is about innovation and the perception of novelty, applied to the mobile gaming market. Since it shows growth both in the revenues and the number of users, this market attracts a big number of companies whose aim is to publish new gamesand be successful. However, the number of users and revenue isn‟t spread equally among all the companies, with 70% of the total use coming from the games ranked in the top 200 charts, both grossing and download. Then, to differentiate itself to maintain the good results among the competition is a challenge faced by companies. Our project face this problem from the point of view of innovation, by the capacity of innovative products to differentiate itself and obtain good results. On our research, we saw that what defines a product as innovative is its market success and the presence of novelty, among other factors. We performed a research on the iOS mobile gaming market and identified 24 games that were successful on the grossing and/or download rankings, during a period of two years. We conducted a experiment to verify the presence of novelty on them, to verify if they are innovative or not. On the experiment, 20 raters performed 60 evaluations, of which 47 identified novelty on the evaluates game. We also verified that most of the time, novelty appear in more than one game element, being perceived on a average of 3,42 times per game, but with a high variance according to the game. The raters also judged the importance of different factors to the game‟s success. The results showed that they perceived the game‟s mechanics and the choosing of mobile as the game‟s platform as the two most important factors, and the story / narrative of the game as the less important one. Finally, we concluded that most of the games that were successful on the iOS gaming market are innovative, and this may be a strategy to be followed by other mobile game development companies.
22

Projeto de um conversor analogico/digital ultra-rapido bipolar tipo folding com uma nova tecnica de interpolação

Martins, Evandro Mazina 25 November 1999 (has links)
Orientador: Elnatan Chagas Ferreira / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-07-21T10:30:54Z (GMT). No. of bitstreams: 1 Martins_EvandroMazina_M.pdf: 9075625 bytes, checksum: 83e7f70868e0eac7053882918109502e (MD5) Previous issue date: 1996 / Resumo: Na arquitetura duplo "folding" com interpolação, os bits mais significativos são determinados pela quantização do sinal de entrada usando um circuito "folding" e os bits menos significativos são obtidos pela técnica de interpolação. A maioria das soluções empregadas para implementar uma técnica de interpolação utiliza a interpolação resistiva ou uma técnica de interpolação por divisão de corrente (com transistores NMOS). Estas técnicas de interpolação têm alguns aspectos indesejáveis. Alternativamente, este trabalho propõe fazer a interpolação no circuito de "folding encoder" e nos "latches" mestre do conversor A/D. Os resultados mostraram que a nova técnica de interpolação permite construir conversores A/D de 8 bits, porém é necessário cuidados especiais na determinação das áreas dos transistores que fazem a interpolação dupla. Nos conversores A/D tipo duplo "folding", um conjunto de alguns "latches" mestre-escravo transforma a informação analógica interpolada em um código circular. Um erro de decisão em um "latch" mestre-escravo pode causar erro no código circular (denominado erro de bolha). Técnicas de correção de erro detectam e corrigem os erros de bolha, melhorando a razão de erro do conversor A/D. Este trabalho também propõe e descreve um novo método para a técnica digital de correção de erro que detecta e corrige erros de bolha durante a detecção da transição de zero para um do código circular. Além disso, este trabalho propõe uma nova topologia para o conversor A/D que permite diminuir a complexidade do circuito e o consumo de potência, com a conseqüente redução da área do "chi / Abstract: In a double folding architecture with interpolation, the most significant bits are detennined by the quantization of input signal using a folding circuit and the least significant bits are obtained by interpolation technique. Most of the solutions employed to implement an interpolation technique use a resistive interpolation or a current division interpolation technique (with NMOS transistor). Theseinterpolation techniques have some undesirable features. Alternatively, this work proposes to make the interpolation in the folding encoder circuit and in the master latches of the A/D converter. The results showed that the new interpolation technique allows to build A/D converters of 8 bits, even so it is necessary special care in the determination of the areas of the transistors that make the double interpolation. In double folding A/D converters, a set of some master-slave latches transfonns the interpolated analog infonnation into circular code. A decision error in a master-slave latch may cause error in the circular code (the so-called bubble error). Error correction techniques detect and correct bubble errors improving the error rate of the A/D converter. This work also proposes and describes a new method for digital error correction technique that detects and corrects bubble errors during the transition detection from zero to one for circular code. Furthermore, this work proposes a new topology for the A/D converter that allows the decrease of circuit complexity and of the potency consumption, with the consequent reduction of the area of the " chip " / Mestrado / Doutor em Engenharia Elétrica
23

Remoção do jitter, introduzido pelo recheio, em sistemas MCP de 2a. ordem

Aquino, Luiz Augusto Castrillon de 21 July 2018 (has links)
Orientador: Helio Waldman / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-21T22:06:52Z (GMT). No. of bitstreams: 1 Aquino_LuizAugustoCastrillonde_M.pdf: 2151926 bytes, checksum: 2a87ec738ff72cea1a049eb38835ee84 (MD5) Previous issue date: 1977 / Resumo: Um sistema de MCP de 2a. ordem, consiste na multiplexação de 4 sistemas MCP de 1a. ordem, como esses 4 sistemas são assincronos, plesiocronos e necessário coloca-los numa frequência comum. Uma tecnica utilizada para esse fim e a chamada tecnica - de justificação, ou recheio (stuffing) que consiste em adicionar ou retirar pulsos, no trem de pulsos de cada sistema de 1a. ordem. Esse processo gera um jitter característico, denominado, jitter de tempo de espera, que ocorre pelo fato da adição, ou retirada, de pulsos não acontecerem nos momentos necessarios, porem nos momentos adequados. Esse tipo de jitter possue uma componente de baixa e outra de alta frequência. A componente de alta frequência pode ser perfeitamente filtrada por um oscilador de fase controlada, conhecido na literatura como "PHASE LOCKED LOOP" do qual denominaremos a partir de então como P.L.L.Esse P.L.L., irá atuar na demultiplexagem tambem para gerar um relógio de leitura de da dos no demultiplex. Esse trabalho consiste no projeto desse P.L.L., que deverá ser usado no sistema MCP de 120 canais ora em desenvolvimento no Departamento de Engenharia Eletrica e Eletrônica da UNICAMP / Abstract: Not informed. / Mestrado / Mestre em Ciências
24

Algoritmos de afinamento de imagens 3-d : uma analise teorica e pratica

Bezerra, Francisco Nivando 11 April 1997 (has links)
Orientador: Neucimar Jeronimo Leite / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-07-22T06:43:38Z (GMT). No. of bitstreams: 1 Bezerra_FranciscoNivando_M.pdf: 1868137 bytes, checksum: 850c4ef8f5e74ba6aa091bb37de3ae03 (MD5) Previous issue date: 1997 / Resumo: O afinamento de imagens tem sido bastante estudado em Processamento Digital de Imagens. O caso de imagens bidimensionais, extensivamente considerado na literatura, apresenta um conjunto significativo de algoritmos com diferentes métodos e caracterizações. O mesmo não ocorre com imagens em três dimensões em que as limitações tecnológicas de alguns anos atrás refletem, ainda, a pouca abordagem neste sentido. Esta dissertação apresenta uma análise comparativa dos algoritmos de afinamento de imagens tridimensionais. São discutidos problemas tais como performance, características geométricas das imagens resultantes, e apresentadas algumas equivalências entre os principais métodos. Algumas extensões de técnicas de processamento de imagens bidimensionais ao caso tridimensional são consideradas. Estas técnicas incluem eliminação de ruídos nas imagens afinadas, e definição de divisores de água de uma função. São apresentadas, ainda, técnicas de otimização para os algoritmos estudados. / Abstract: The problem of thinning binary images has been extensively studied in the digital image processing field. Particularly to the bidimensional images, there is a large number of methods leading to different results. In the three-dimensional case, due to the technological limitations, the number of such algorithms is rather limited. This work discusses some problems concerned with the definition of thinning algorithms to three-dimensional images. It describes the main algorithms presented in the literature and analyses them in a comparative way. We consider different aspects of the thinning problem such as execution time, geometric characteristics, and define formally some equivalences between the methods. We also consider some extensions from the bidimensional image processing algorithms to the three-dimensional case. These extensions include noise reduction of thinned images and the watersheds of a function. Finally, some general optimization techniques are defined for the implementation of the algorithms. / Mestrado / Mestre em Ciência da Computação
25

Avaliação de sistemas de redução de taxa de bits de video com enfoque na percepção do usuario

Faria e Silva, Ana Eliza 06 February 1998 (has links)
Orientador: Max Henrique Machado Costa / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-07-23T14:27:41Z (GMT). No. of bitstreams: 1 FariaeSilva_AnaEliza_M.pdf: 10774401 bytes, checksum: 9d888794b76ac34973e0f519e2ce8651 (MD5) Previous issue date: 1998 / Resumo: Este trabalho trata de uma questão fundamental em compressão de vídeo, a avaliação da eficiência dos algoritmos empregados em 'esconder' as distorções de imagens, explorando características do sistema visual humano. As degradações no vídeo digital são dificilmente mensuráveis objetivamente, embora sejam quase sempre óbvias para observadores humanos. Esta constatação aliada a alta relevância da opinião do usuário final sobre a qualidade da imagem, norteiam, nesta tese, o desenvolvimento de novas ferramentas de avaliação de qualidade de vídeo baseadas na percepção humana. Inicialmente, as ferramentas tradicionais de avaliação subjetiva de qualidade de vídeo, e em particular, os diversos aspectos em que o projeto de um experimento pode ser otimizado são descritos. Um procedimento típico de avaliação consiste em apresentar, a um conjunto de avaliadores, geralmente não especialistas e com acuidade visual normal, uma série de seqüências de vídeo em ambiente controlado e por cerca de 20 minutos. Com base nestas cenas de teste a qualidade da imagem é questionada de uma série de formas. Para a obtenção de resultados repetitíveis e confiáveis faz-se uma análise sistemática de vários aspectos relacionados ao teste como seleção criteriosa de cenas, avaliadores, método de avaliação e o intervalo de confiança adequado. Consideram-se ainda as influenciados fatores psicológicos e aspectos lingüísticos dos termos utilizados nos testes... Observação: O resumo, na íntegra, poderá ser visualizado no texto completo da tese digital / Abstract: This thesis addresses a fundamental question in video compression, namely the evaluation of efficiency of the compression algorithms in hiding distortions by exploiting characteristics of the human visual system. Digital video degradations are usually difficult to measure objectively, even though they are often obvious for human observers. This realization, added to the relevance of final user opinion about the image quality guided, in this work, the development of new evaluation tools based on human perception. lnitially, traditional evaluation tools and various aspects in which experiment design can be improved are described. A typical evaluation procedure consists of presenting a group of observers of normal visual acuity, usually non-specialists, a selected series of test scenes under a controlled environment, for about 20 minutes. Based on these sequences, the quality of the images is questioned in different ways. Reliable and repeatable results can only be obtained after a systematic analysis is made of various aspects related to the experiment, such as careful selection of the test scenes, observers, evaluation method and adequate confidence intervals. Also considered are the influence of psychological factors and linguistic aspects. The result of a real-case experiment is presented, where a number of codecs for television applications are evaluated. Also presented is a comparison of these results with the quality obtained in NTSC and PAL-M systems... Note: The complete abstract is available with the full electronic digital thesis or dissertations / Mestrado / Mestre em Engenharia Elétrica
26

Analise de imagens obtidas por placas de fosforo digitais submetidas a diferentes tempos e condições de armazenamento

Martins, Mauro Guilherme de Barros Quirino 25 February 2003 (has links)
Orientador : Francisco Haiter Neto / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Odontologia de Piracicaba / Made available in DSpace on 2018-08-03T08:14:33Z (GMT). No. of bitstreams: 1 Martins_MauroGuilhermedeBarrosQuirino_M.pdf: 3724655 bytes, checksum: 453605572e7f2d236c24b301a78fb0d4 (MD5) Previous issue date: 2003 / Resumo: O alto custo dos sistemas digitais de placas de fósforo pode ser compensado pelo fato de um único scanner ser dividido por vários profissionais. No entanto, isto pode trazer como conseqüência, a necessidade do armazenamento destas placas por um determinado período de tempo, para posterior escaneamento. Desconhecendo-se as implicações deste armazenamento na imagem final, realizaram-se estudos objetivo e subjetivo da qualidade de imagens obtidas pelos sistemas Digora e DenOptix, em função de diferentes tempos e condições de armazenamento. Para a realização das análises objetiva e subjetiva, foram radiografadas uma escala de densidade e uma mandíbula macerada, respectivamente. Imediatamente após as exposições, placas foram escaneadas, caracterizando assim o grupo zero hora. As placas dos demais grupos foram escaneadas após 6, 12, 18,24,48 e 72 horas de armazenamento, em três diferentes condições: temperatura ambiente, refrigeração e isolamento da umidade. A análise objetiva foi realizada pelo valor do pixel e os dados analisados estatisticamente pelos testes de Tukey e Dunnet . A análise subjetiva foi realizada por 3 radiologistas e submetida ao teste de Mann Whitney. Concluiu-se que não houve influência do tempo e da condição de armazenamento nas imagens radiográficas digitais obtidas pelo sistema DenOptix, havendo concordância entre as análises objetiva e subjetiva. No entanto, as imagens obtidas na análise objetiva do sistema Digora, apresentaram perdas de densidade a partir de 6 horas em todas as condições estudadas. Ainda para este sistema, na análise subjetiva, a perda na qualidade da imagem foi observada a partir de 6 horas de armazenamento na condição refrigeração e 24 horas para as demais condições estudadas / Abstract: The high cost of the digital systems of phosphor storage plates can be compensated by the fact of only one scanner to be divided by some professionals. However, this can bring as consequence, the necessity of the storage of these plates for a determined period of time, for posterior scanning. Being unware of the implacatios of this storage in the final image, it was assessed, both objectively and subjectively, the effects on digital images captured using Digora and DenOptix's phosphor storage plates subjected to different storage conditions and varying delays in reading. For the acomplishment of the analysis, standardised images were obtained of test objects consisting of an aluminium step wedge and dry mandible. 12 plates were exposed and immediately scanned to produce the baseline gold standard. The plates were re-exposed, stored under three different conditions - ambient temperature, low humidity and refrigeration and then scanned after 6, 12,18,24,48 or 72 hours after initial exposure. The objective analysis was carried out by pixel density measurements and the data analysed statistically using Tukey and Dunnet tests. The subjective analysis was carried by 3 radiologists and their results subjected to Mann Whitney test. For the DenOptix system there were no differences either objectively or subjectively in all the obtained images. For the Digora, objective analysis showed loss of pixel density after 6 hours in all the different storage conditions. Subjectively this loss of density was also evident after 6 hours on plates stored in the refrigerator conditions, but only after 24 hours for plates stored under the other conditions / Mestrado / Mestre em Radiologia Odontológica
27

Filtragem de imagens a partir da sua decomposição em residuos morfologicos

Guimarães, Silvio Jamil Ferzoli 08 June 1999 (has links)
Orientador: Neucimar Jeronimo Leite / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-07-25T01:15:35Z (GMT). No. of bitstreams: 1 Guimaraes_SilvioJamilFerzoli_M.pdf: 2533570 bytes, checksum: 88162df87ffc46a86dfe51b98b980b25 (MD5) Previous issue date: 1999 / Resumo: Resíduos morfológicos representam de forma hierarquizada uma imagem, em que a mesma é decomposta morfologicamente de acordo com um parâmetro de tamanho X. Desta decomposição, obtemos uma relação entre os diferentes níveis residuais que representa a complexidade das estruturas. Desta forma, tentamos extrair estruturas da imagem que estejam associadas àquele parâmetro e a complexidade da estrutura desejada. Neste trabalho, utilizando conceitos de Morfologia Matemática, analisamos o processo de extração de estruturas em imagens digitais numérica (níveis de cinza) a partir da decomposição por resíduos morfológicos / Abstract: Morphological residues represent an image hierarchically by a decomposition of its structures and according to a size parameter X. From this decomposition, we can obtain a relation between the different residual levels associated with the complexity of the image structures. In this work, we introduce a method for filtering components of gray-scale images based on the morphological residue decomposition, and taking into account a size parameter and a certain level of complexity of the different structures we want to be filtered / Mestrado / Mestre em Ciência da Computação
28

Desenvolvimento de um sistema para colorização de imagens digitais

Fonseca, Luciano Emidio Neves da 18 December 1990 (has links)
Orientador : Clesio Tozzi / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-13T23:29:00Z (GMT). No. of bitstreams: 1 Fonseca_LucianoEmidioNevesda_M.pdf: 9156473 bytes, checksum: 15093db7194f92af3a06bad8ae7ab295 (MD5) Previous issue date: 1990 / Resumo: Não informado / Abstract: Not informed. / Mestrado / Automação / Mestre em Engenharia Elétrica
29

Sistema de aquisição de dados controladopor microprocessador para sinais na faixa de frequencia de 0 a 50 KHZ

Vieira Filho, Jozue 14 February 1991 (has links)
Orientador : Jose Geraldo Chiquito / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-13T23:31:25Z (GMT). No. of bitstreams: 1 VieiraFilho_Jozue_M.pdf: 8301450 bytes, checksum: 0fae7684481bccfcf54822efd4b80e97 (MD5) Previous issue date: 1991 / Resumo: Este trabalho descreve o projeto e implementação de um Sistema de Aquisição de Dados para sinais na faixa de freqüência de 0 a 50 kHz, que possui como características principais flexibilidade e versatilidade. As unidades de processamento do sinal analógico permitem diferentes opções, configuráveis através de "software". Isto inclui filtros anti-aliasing, amplificadores, acoplamento, resolução das unidades de conversão A/D e DIA, taxa de amostragem, etc. Para armazenar os dados digitalizados existe uma unidade de memória dinâmica de 2 Mbytes, expansível a 16 Mbytes. O sistema foi construído de forma auto-suficiente, ou seja, sua capacidade de operação independe de microcomputadores. Este objetivo foi alcançado graças à incorporação de uma unidade para controle de aquisição de dados baseada no microprocessador 8088. As operações de conversões e a configuração das diferentes funções podem ser feitas através de uma unidade de teclado/display, no modo local, ou por meio de um computador externo acoplado aos "ports" de comunicação, no modo remoto. O protótipo resultante, em funcionamento no Laboratório de Processamento de Sinais do DECOM/FEE/UNICAMP, está sendo de grande estudos na área de processamento digital de sinais de voz e áudio / Abstract: Not informed. / Mestrado / Mestre em Engenharia Elétrica
30

Determinação e analise de estruturas reticulares para modulação por codificação em treliça em 2 e 4 dimensões

Gonçalves, Orlando Georges Cunha 14 May 1990 (has links)
Orientador: Reginaldo Palazzo Junior / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-14T00:11:33Z (GMT). No. of bitstreams: 1 Goncalves_OrlandoGeorgesCunha_M.pdf: 12396762 bytes, checksum: a23472727f6402bc73b0fddb13ffb639 (MD5) Previous issue date: 1990 / Resumo: Os códigos convolucionais assim como os códigos de treIiça empregados no sistema. TCM (Modulação por Codificação em Treliça) ainda não apresentam uma. estrutura matemática bem definida. apesar do continuo esforço neste sentido. Este trabalho procura. através do posicionamento dos sinais no espaço de sinais. caracterizar determinadas estruturas reticulares. que pelas propriedades que apresentam nos permitem inferir sobre os conjuntos de sinais mais indicados a. serem utilizados no sistema TCM e da mesma forma quantificar o desempenho alcançado quando da utilização dos mesmos. Em primeiro lugar, tratamos de apresentar o estudo do processo de codificação de canal, utilizando a técnica TCM (forma combinada de codificação e modulação) para transmissão digital sobre canais de faixa limitada ... Observação: O resumo, na íntegra, poderá ser visualizado no texto completo da tese digital / Abstract: As il happens wilh Convolulional Codes. Treliss Codes Modulalion (TCM) slill lacks an algebraic structure in spite of lhe efforts made by many researchers. This work, aims al characterizing lattices structures with lhe purpose of specifying proper locations of lhe signal poinls in a constellation such that the best performance may be achieved by a communications system using this TCM scheme. First of alI, it is presented as an introductory materiaI, the channel coding process when using TCM schemes in digital transmission over band limited channels. Second of alI, it is presented an analisys of lhe signal sets taken from bi-dimensional lattices structures (lattices 'Z POT. 2¿ and 'A IND. 2) for use in TCM schemes ... Note: The complete abstract is available with the full electronic digital thesis or dissertations / Mestrado / Mestre em Engenharia Elétrica

Page generated in 0.0475 seconds