• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 119
  • 14
  • Tagged with
  • 133
  • 86
  • 58
  • 53
  • 51
  • 29
  • 27
  • 27
  • 26
  • 24
  • 22
  • 18
  • 17
  • 17
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

[en] STARTING WITH PLAY: UNDERSTANDING AND LANGUAGE IN GADAMER / [pt] COMEÇANDO PELO JOGO: COMPREENSÃO E LINGUAGEM EM GADAMER

FLAVIA DIAS DE OLIVEIRA FERRARI 03 August 2010 (has links)
[pt] O presente trabalho consiste em um estudo em torno de Verdade e Método, principal obra do filósofo alemão Hans-Georg Gadamer. Ao tomar o fenômeno da compreensão (Verstehen) como objeto de sua reflexão, Gadamer nos esclarece de antemão que a hermenêutica que ele pretende desenvolver constitui uma tentativa de entender a verdade que é própria das ciências humanas, para além de sua autoconsciência metodológica, bem como o que liga tais ciências ao conjunto de nossa experiência de mundo. Um dos temas centrais desenvolvidos nesta obra, e que se encontra diretamente articulado com a questão da compreensão, é o conceito de jogo (Spiel), entendido como um acontecimento que se dá para além das subjetividades que nele se encontram envolvidas. Para Gadamer o alcance universal e a dimensão ontológica do jogo não devem ser ignorados. Portanto, tentaremos mostrar neste estudo, que jogar e compreender são elementos intercambiáveis em seu pensamento, na medida em que pensar o entrelaçamento jogo-compreensão é realizar que a estrutura da compreensão exige um certo entregar-se à situação em que a subjetividade não é tida mais como instância determinadora em relação ao momento da compreensão. / [en] The present paper is a study on Truth and Method, the main work of the German philosopher Hans-Georg Gadamer. When it comes to the phenomenom of understanding (Verstehen) as the object of his thought, Gadamer explains us that the hermeneutics he intends to develop constitutes an attempt to understand the truth of human sciences, beyond their methodological self-consciousness, as well as, what links such sciences to the whole of our world experience. One of the central themes developed in this work, straightly linked to the question of understanding, is the concept of play (Spiel), known as an event that happens beyond the subjectivities involved in it. According to Gadamer, the universal scope and the ontological dimension of play should not be ignored. Therefore, we will try to show in this work that to play and to understand are interchangeable elements in Gadamer´s thought, inasmuch as to think about the connectedness of play-understanding is to realize that the structure of understanding demands one to surrender oneself to the situation in which the subjectivity is no longer the determinant instance regarding the moment of understanding.
32

[en] DISCRETE WAVELET TRANFORM IN CONNECTION WITH THE LOSSY LEMPEL-ZIV CODE / [pt] COMPRESSÃO DE IMAGENS USANDO A TRANSFORMADA WAVELET DISCRETA ASSOCIADA AO CÓDIGO DE LEMPEL-ZIG COM PERDAS

SERGIO MARCONDES KNUST 19 July 2006 (has links)
[pt] Neste trabalho é investigada uma técnica de compressão de imagens empregando a Transformada Wavelet Discreta em conexão com o código de compressão mLLZ/d, que é baseado no algoritmo de Lempel-zig com perdas. Primeiramente é apresentada a teoria das wavelets e são discutidos diversos códigos para compactação e compressão baseados no algoritmo de Lempel-Ziv. Em seguida, são apresentados os resultados de diversas simulações realizadas com quatro imagens comumente empregadas neste tipo de análise, de forma a avaliar o desempenho do método em termos de qualidade objetiva e subjetiva. Finalmente, os resultados foram analisados e comparados aos obtidos com outras técnicas de compressão, publicadas em dissertações de mestrado anteriores. / [en] In this work an image compression method employing the Discrete Wavelet Tranform in connection with the Lossy Lempel-Ziv code mLLZ/d is investigated. At first, the wavelet theory as well as several lossy and lossless codes based on the Lempel-ziv algorithm are discussed. Afterwards, simulations are implemented using four images, which are commonly used as a standard for this type of analysis, in order to evaluate the performance of the method in terms of both objective and subjective quality. Finally, the results are analyzed and compared to the ones obtained with other compression techniques, already published in former thesis.
33

Avaliação da compressão de dados e da qualidade de imagem em modelos de animação gráfica para web : uma nova abordagem baseada em complexidade de Kolmogorov

Campani, Carlos Antonio Pereira January 2005 (has links)
Este trabalho versa sobre a avaliação da compressão de dados e da qualidade de imagens e animações usando-se complexidade de Kolmogorov, simulação de máquinas e distância de informação. Complexidade de Kolmogorov é uma teoria da informação e da aleatoriedade baseada na máquina de Turing. No trabalho é proposto um método para avaliar a compressão de dados de modelos de animação gráfica usando-se simulação de máquinas. Também definimos formalmente compressão de dados com perdas e propomos a aplicação da distância de informação como uma métrica de qualidade de imagem. O desenvolvimento de uma metodologia para avaliar a compressão de dados de modelos de animação gráfica para web é útil, a medida que as páginas na web estão sendo cada vez mais enriquecidas com animações, som e vídeo, e a economia de banda de canal tornase importante, pois os arquivos envolvidos são geralmente grandes. Boa parte do apelo e das vantagens da web em aplicações como, por exemplo, educação à distância ou publicidade, reside exatamente na existência de elementos multimídia, que apoiam a idéia que está sendo apresentada na página. Como estudo de caso, o método de comparação e avaliação de modelos de animação gráfica foi aplicado na comparação de dois modelos: GIF (Graphics Interchange Format) e AGA (Animação Gráfica baseada em Autômatos finitos), provando formalmente que AGA é melhor que GIF (“melhor” significa que AGA comprime mais as animações que GIF). Foi desenvolvida também uma definição formal de compressão de dados com perdas com o objetivo de estender a metodologia de avalição apresentada Distância de informação é proposta como uma nova métrica de qualidade de imagem, e tem como grande vantagem ser uma medida universal, ou seja, capaz de incorporar toda e qualquer medida computável concebível. A métrica proposta foi testada em uma série de experimentos e comparada com a distância euclidiana (medida tradicionalmente usada nestes casos). Os resultados dos testes são uma evidência prática que a distância proposta é efetiva neste novo contexto de aplicação, e que apresenta, em alguns casos, resultados superiores ao da distância euclidiana. Isto também é uma evidência que a distância de informação é uma métrica mais fina que a distância euclidiana. Também mostramos que há casos em que podemos aplicar a distância de informação, mas não podemos aplicar a distância euclidiana. A métrica proposta foi aplicada também na avaliação de animações gráficas baseadas em frames, onde apresentou resultados melhores que os obtidos com imagens puras. Este tipo de avaliação de animações é inédita na literatura, segundo revisão bibliográfica feita. Finalmente, neste trabalho é apresentado um refinamento à medida proposta que apresentou resultados melhores que a aplicação simples e direta da distância de informação.
34

Arquitetura para o algoritmo CAVLC de codificação de entropia segundo o padrão H.264/AVC / Architecture for the CAVLC entropy encoding algorithm according the h.264/avc standard

Ramos, Fabio Luis Livi January 2010 (has links)
A codificação de vídeo digital depende de uma série de etapas para ser alcançada a compressão de dados necessária para, então, o vídeo ser enviado ou armazenado em um meio. Existe uma série de padrões que se propõe a isso e dentre eles, o que apresenta o melhor desempenho em termos de compressão de dados e qualidade de vídeo até o presente momento é o H.264/AVC. Considerando então o padrão H.264/AVC, uma das etapas do seu processamento é a codificação de entropia, sendo que um dos algoritmos usados para esse fim é o CAVLC (Context-Based Adaptive Variable Length Coding). Esta técnica faz uso de uma série de características onde o código gerado pela seqüência de vídeo processada tende a assumir, para, então, gerar códigos menores para padrões do vídeo que tendem a aparecer mais freqüentemente em detrimento a padrões que são mais raros, fazendo para isso uso de código de comprimento variável que depende do contexto atual em que cada porção do código está sendo processada. Baseado nisso, este trabalho apresenta uma arquitetura para o algoritmo CAVLC segundo o padrão H.264/AVC, onde foi inserida uma nova técnica para diminuir o gargalo na etapa inicial do algoritmo, além de usar técnicas já conhecidas na literatura para diminuir os ciclos necessários para o processamento do componente, fazendo com que a arquitetura aqui apresentada tenha um ganho em relação aos demais trabalhos da literatura encontrados e comparados. Esse trabalho está inserido no esforço do grupo de TV Digital da UFRGS e pretende-se que, no futuro, esse módulo seja integrado aos demais módulos desenvolvidos no grupo para formar um codificador H.264/AVC completo. / The digital video encoding depends on different phases to reach the necessary data compression, so the video can be transmitted through or stored in the medium. There are a variety of compression standards that are designed to that purpose and, among them, the one that has the best performance currently is the H.264/AVC. Considering the H.264/AVC standard, one of the processing stages is the entropy encoding. CAVLC (Context-Based Adaptive Variable Length Coding) is one of the algorithms that can be used for that end. It can use many of the code particularities, generated by the video sequence being processed. This way, CAVLC can generate codes with less bits for portions of the video sequence that occur more often, and codes with more bits for rarer patterns of the video sequence, using variable code lengths that depend on the current context for each portion of the code being processed. Based on this, the present work presents a VLSI hardware architecture for the CAVLC algorithm, according to the H.264/AVC standard. The architecture introduces a new technique to decrease the bottleneck at the initial stage of the algorithm and, furthermore, well-known techniques already tested in works found in the literature, were also implemented, to save processing cycles at the other stages of the component. The present architecture is then able to achieve gains compared to the other works found in the literature. This work is inserted into the effort of the Digital TV Group at UFRGS and it is intended to be integrated with the others developed by the group to make a complete H.264/AVC encoder.
35

Desenvolvimento algorítmico e arquitetural para a estimação de movimento na compressão de vídeo de alta definição / Algorithmic and architectural development for motion estimation on high definition video compression

Porto, Marcelo Schiavon January 2012 (has links)
A compressão de vídeo é um tema extremamente relevante no cenário atual, principalmente devido ao crescimento significativo da utilização de vídeos digitais. Sem a compressão, é praticamente impossível enviar ou armazenar vídeos digitais devido à sua grande quantidade de informações, inviabilizando aplicações como televisão digital de alta definição, vídeo conferência, vídeo chamada para celulares etc. O problema vem se tornando maior com o crescimento de aplicações de vídeos de alta definição, onde a quantidade de informação é consideravelmente maior. Diversos padrões de compressão de vídeo foram desenvolvidos nos últimos anos, todos eles podem gerar grandes taxas de compressão. Os padrões de compressão de vídeo atuais obtêm a maior parte dos seus ganhos de compressão explorando a redundância temporal, através da estimação de movimento. No entanto, os algoritmos de estimação de movimento utilizados atualmente não consideram as variações nas características dos vídeos de alta definição. Neste trabalho uma avaliação da estimação de movimento em vídeos de alta definição é apresentada, demonstrando que algoritmos rápidos conhecidos, e largamente utilizados pela comunidade científica, não apresentam os mesmos resultados de qualidade com o aumento da resolução dos vídeos. Isto demonstra a importância do desenvolvimento de novos algoritmos focados em vídeos de altíssima definição, superiores à HD 1080p. Esta tese apresenta o desenvolvimento de novos algoritmos rápidos de estimação de movimento, focados na codificação de vídeos de alta definição. Os algoritmos desenvolvidos nesta tese apresentam características que os tornam menos suscetíveis à escolha de mínimos locais, resultando em ganhos significativos de qualidade em relação aos algoritmos rápidos convencionais, quando aplicados a vídeos de alta definição. Além disso, este trabalho também visa o desenvolvimento de arquiteturas de hardware dedicadas para estes novos algoritmos, igualmente dedicadas a vídeos de alta definição. O desenvolvimento arquitetural é extremamente relevante, principalmente para aplicações de tempo real a 30 quadros por segundo, e também para a utilização em dispositivos móveis, onde requisitos de desempenho e potência são críticos. Todos os algoritmos desenvolvidos foram avaliados para um conjunto de 10 sequências de teste HD 1080p, e seus resultados de qualidade e custo computacional foram avaliados e comparados com algoritmos conhecidos da literatura. As arquiteturas de hardware dedicadas, desenvolvidas para os novos algoritmos, foram descritas em VHDL e sintetizadas para FPGAs e ASIC, em standard cells nas tecnologias 0,18μm e 90nm. Os algoritmos desenvolvidos apresentam ganhos de qualidade para vídeos de alta definição em relação a algoritmos rápidos convencionais, e as arquiteturas desenvolvidas possuem altas taxas de processamento com baixo consumo de recursos de hardware e de potência. / Video compression is an extremely relevant theme in today’s scenario, mainly due to the significant growth in digital video applications. Without compression, it is almost impossible to send or store digital videos, due to the large amount of data that they require, making applications such as high definition digital television, video conferences, mobiles video calls, and others unviable. This demand is increasing since there is a strong growth in high definition video applications, where the amount of information is considerably larger. Many video coding standards were developed in the last few years, all of them can achieve excellent compression rates. A significant part of the compression gains in the current video coding standards are obtained through the exploration of the temporal redundancies by means of the motion estimation process. However, the current motion estimation algorithms do not consider the inherent variations that appear in high and ultra-high definition videos. In this work an evaluation of the motion estimation in high definition videos is presented. This evaluation shows that some well know fast algorithms, that are widely used by the scientific community, do not keep the same quality results when applied to high resolution videos. It demonstrates the relevance of new fast algorithms that are focused on high definition videos. This thesis presents the development of new fast motion estimation algorithms focused in high definition video encoding. The algorithms developed in this thesis show some characteristics that make them more resilient to avoid local minima, when applied to high definition videos. Moreover, this work also aims at the development of dedicated hardware architectures for these new algorithms, focused on high definition videos. The architectural development is extremely relevant, mainly for real time applications at 30 frames per second, and also for mobile applications, where performance and power are critical issues. All developed algorithms were assessed using 10 HD 1080p test video sequences, and the results for quality and computational cost were evaluated and compared against known algorithms from the literature. The dedicated hardware architectures, developed for the new algorithms, were described in VHDL and synthesized for FPGA and ASIC. The ASIC implementation used 0.18μm and 90nm CMOS standard cells technology. The developed algorithms present quality gains in comparison to regular fast algorithms for high definition videos, and the developed architectures presents high processing rate with low hardware resources cost and power consumption.
36

Implementação e análise de algoritmos para estimação de movimento em processadores paralelos tipo GPU (Graphics Processing Units) / Implementation and analysis of algorithms for motion estimation onto parallels processors type GPU

Monteiro, Eduarda Rodrigues January 2012 (has links)
A demanda por aplicações que processam vídeos digitais têm obtido atenção na indústria e na academia. Considerando a manipulação de um elevado volume de dados em vídeos de alta resolução, a compressão de vídeo é uma ferramenta fundamental para reduzir a quantidade de informações de modo a manter a qualidade viabilizando a respectiva transmissão e armazenamento. Diferentes padrões de codificação de vídeo foram desenvolvidos para impulsionar o desenvolvimento de técnicas avançadas para este fim, como por exemplo, o padrão H.264/AVC. Este padrão é considerado o estado-da-arte, pois proporciona maior eficiência em codificação em relação a padrões existentes (MPEG-4). Entre todas as ferramentas inovadoras apresentadas pelas mais recentes normas de codificação, a Estimação de Movimento (ME) é a técnica que provê a maior parcela dos ganhos. A ME busca obter a relação de similaridade entre quadros vizinhos de uma cena, porém estes ganhos são obtidos ao custo de um elevado custo computacional representando a maior parte da complexidade total dos codificadores atuais. O objetivo do trabalho é acelerar o processo de ME, principalmente quando vídeos de alta resolução são codificados. Esta aceleração concentra-se no uso de uma plataforma massivamente paralela, denominada GPU (Graphics Processing Unit). Os algoritmos da ME apresentam um elevado potencial de paralelização e são adequados para implementação em arquiteturas paralelas. Assim, diferentes algoritmos têm sido propostos a fim de diminuir o custo computacional deste módulo. Este trabalho apresenta a implementação e a exploração do paralelismo de dois algoritmos da ME em GPU, focados na codificação de vídeo de alta definição e no processamento em tempo real. O algoritmo Full Search (FS) é conhecido como algoritmo ótimo, pois encontra os melhores resultados a partir de uma busca exaustiva entre os quadros. O algoritmo rápido Diamond Search (DS) reduz significativamente a complexidade da ME mantendo a qualidade de vídeo próxima ao desempenho apresentado pelo FS. A partir da exploração máxima do paralelismo dos algoritmos FS e DS e do processamento paralelo disponível nas GPUs, este trabalho apresenta um método para mapear estes algoritmos em GPU, considerando a arquitetura CUDA (Compute Unified Device Architecture). Para avaliação de desempenho, as soluções CUDA são comparadas com as respectivas versões multi-core (utilizando biblioteca OpenMP) e distribuídas (utilizando MPI como infraestrutura de suporte). Todas as versões foram avaliadas em diferentes resoluções e os resultados foram comparados com algoritmos da literatura. As implementações propostas em GPU apresentam aumentos significativos, em termos de desempenho, em relação ao software de referência do codificador H.264/AVC e, além disso, apresentam ganhos expressivos em relação às respectivas versões multi-core, distribuída e trabalhos GPGPU propostos na literatura. / The demand for applications processing digital videos has become the focus of attention in industry and academy. Considering the manipulation of the high volume of data contained in high resolution digital videos, video compression is a fundamental tool for reduction in the amount of information in order to maintain the quality and, thus enabling its respective transfer and storage. As to obtain the development of advanced video coding techniques, different standards of video encoding were developed, for example, the H.264/AVC. This standard is considered the state-of-art for proving high coding efficiency compared to previous standards (MPEG-4). Among all innovative tools featured by the latest video coding standards, the Motion Estimation is the technique that provides the most important coding gains. ME searches obtain the similarity relation between neighboring frames of the one scene. However, these gains were obtained by the elevated computational cost, representing the greater part of the total complexity of the current encoders. The goal of this project is to accelerate the Motion Estimation process, mainly when high resolution digital videos were encoded. This acceleration focuses on the use of a massively parallel platform called GPU (Graphics Processing Unit). The Motion Estimation block matching algorithms present a high potential for parallelization and are suitable for implementation in parallel architectures. Therefore, different algorithms have been proposed to decrease the computational complexity of this module. This work presents the implementation and parallelism exploitation of two motion estimation algorithms in GPU focused in encoding high definition video and the real time processing. Full Search algorithm (FS) is known as optimal since it finds the best match by exhaustively searching between frames. The fast Diamond Search algorithm reduces significantly the ME complexity while keeping the video quality near FS performance. By exploring the maximum inherent parallelism of FS and DS and the available parallel processing capability of GPUs, this work presents an efficient method to map out these algorithms onto GPU considering the CUDA architecture (Compute Unified Device Architecture). For performance evaluation, the CUDA solutions are compared with respective multi-core (using OpenMP library) and distributed (using MPI as supporting infrastructure) versions. All versions were evaluated in different video resolutions and the results were compared with algorithms found in the literature. The proposed implementations onto GPU present significant increase, in terms of performance, in relation with the H.264/AVC encoder reference software and, moreover, present expressive gains in relation with multi-core, distributed versions and GPGPU alternatives proposed in literature.
37

Desenvolvimento arquitetural para estimação de movimento de blocos de tamanhos variáveis segundo padrão H.264/AVC de compressão de vídeo digital / Architectural design for variable block-size motion estimation of the H.264/AVC digital video compression standard

Porto, Roger Endrigo Carvalho January 2008 (has links)
Apesar de as capacidades de transmissão e de armazenamento dos dispositivos continuarem crescendo, a compressão ainda é essencial em aplicações que trabalham com vídeo. Com a compressão reduz-se significativamente a quantidade de bits necessários para se representar uma seqüência de vídeo. Dentre os padrões de compressão de vídeo digital, o mais novo é o H.264/AVC. Este padrão alcança as mais elevadas taxas de compressão se comparado com os padrões anteriores mas, por outro lado, possui uma elevada complexidade computacional. A complexidade computacional elevada dificulta o desenvolvimento em software de aplicações voltadas a definições elevadas de imagem, considerando a tecnologia atual. Assim, tornam-se indispensáveis implementações em hardware. Neste escopo, este trabalho aborda o desenvolvimento de uma arquitetura para estimação de movimento de blocos de tamanhos variáveis segundo o padrão H.264/AVC de compressão de vídeo digital. Esta arquitetura utiliza o algoritmo full search e SAD como critério de similaridade. Além disso, a arquitetura é capaz de gerar os 41 diferentes vetores de movimento referentes a um macrobloco e definidos pelo padrão. A solução arquitetural proposta neste trabalho foi descrita em VHDL e mapeada para FPGAs da Xilinx. Também foi desenvolvida uma versão standard cell da arquitetura. Considerando-se as versões da arquitetura com síntese direcionada para FPGA, os resultados mostraram que a arquitetura pode ser utilizada em aplicações voltadas para alta definição como SDTV ou HDTV. Para a versão standard cells da arquitetura os resultados indicam que ela pode ser utilizada para aplicações SDTV. / The transmission and storage capabilities of the digital communications and processing continue to grow. However, compression is still necessary in video applications. With compression, the amount of bits necessary to represent a video sequence is dramatically reduced. Amongst the video compression standards, the latest one is the H.264/AVC. This standard reaches the highest compression rates when compared to the previous standards. On the other hand, it has a high computational complexity. This high computational complexity makes it difficult the development of applications targeting high definitions when a software implementation running in a current technology is considered. Thus, hardware implementations become essential. Addressing the hardware architectures, this work presents the architectural design for the variable block-size motion estimation defined in the H.264/AVC standard. This architecture is based on full search motion estimation algorithm and SAD calculation. This architecture is able to produce the 41 motion vectors within a macroblock that are specified in the standard. The architecture designed in this work was described in VHDL and it was mapped to Xilinx FPGAs. Extensive simulations of the hardware architecture and comparisons to the software implementation of the same variable-size algorithm were used to validate the architecture. It was also synthesized to standard cells. Considering the synthesis results, the architecture reaches real time for high resolution videos, as HDTV when mapped to FPGAs. The standard cells version of this architecture is able to reach real time for SDTV resolution, considering a physical synthesis to 0.18µm CMOS.
38

Proposta e avaliação de técnicas para compressão de transitórios rápidos e análise tempo-frequência de distúrbios em redes elétricas AC / Proposal and evaluation of techniques for fast transient data compression and time-frequency analysis of AC power line disturbances

Soares, Leonardo Bandeira January 2013 (has links)
Este trabalho trata de conceitos relacionados à qualidade da Energia Elétrica (EE) e, neste contexto, apresenta a proposta de técnicas para a compressão da representação de transitórios rápidos e da análise tempo-frequência de distúrbios elétricos em geral. A qualidade da Energia Elétrica é medida pelo coeficiente de desvios que os sinais de tensão e corrente apresentam em relação ao sinal senoidal ideal. Tais desvios são denominados de distúrbios, podendo ser classificados como quase estacionários (e.g. distorção de harmônicas) e eventos (e.g. transitórios rápidos). No contexto de EE, os transitórios rápidos possuem pequena duração (i.e. na ordem dos microssegundos), são detectados por altas taxas de amostragem (i.e. na ordem dos MHz) e possuem difícil parametrização. Portanto, as representações das formas de onda geralmente são armazenadas para auxiliar a avaliação subjetiva dos transitórios e dos parâmetros de interesse. Consequentemente, a compressão destas formas de onda torna-se de extrema importância para armazenar dados adquiridos por longos períodos de tempo, e estes modos de compressão são tratados nesta dissertação. Em virtude das altas taxas de amostragem utilizadas, uma técnica baseada em Análise de Componentes Principais (PCA – Principal Component Analysis) é proposta para esta representação mais compacta de transitórios. Resultados mostram que o desempenho em compressão versus qualidade de reconstrução é semelhante ao de trabalhos relacionados com a vantagem de atender aos requisitos de altas taxas de amostragem. A análise tempo-frequência é um mecanismo que auxilia na classificação e caracterização dos distúrbios elétricos. Neste trabalho, a Transformada de Hilbert-Huang é estudada e uma proposta de melhoria na Decomposição Empírica de Modos (EMD – Empirical Mode Decomposition) é apresentada. Nossos resultados mostram que a técnica proposta economiza o custo computacional se comparada com o estado da arte. Em virtude disso, a técnica proposta apresenta uma taxa de redução no tempo médio de execução de 99,76 % em relação à técnica do estado da arte. Além disso, uma verificação acerca do desempenho em eficiência de compressão versus qualidade de reconstrução de trabalhos anteriores é também desenvolvida nesta dissertação. Foi utilizada uma sistemática de avaliação experimental com base em amostras de sinais AC, de forma a avaliar as taxas de compressão atingidas pelas técnicas estudadas, como a Transformada Wavelet Discreta. Resultados mostram que a Transformada Wavelet falha para compressão de todo e qualquer tipo de distúrbio elétrico quando analisado o compromisso entre acuidade de reconstrução versus eficiência de compressão. / This work deals with concepts related to the AC Power Quality theoretical framework and, in this scope, proposes techniques for the representation of fast transient data compression and for the power line disturbances time-frequency analysis. The AC power quality is measured by the differences between actual and ideal sinusoidal voltage/current signals. These differences are known as electrical disturbances, which can be classified as quasi-stationary (e.g. harmonic distortion) or events (e.g. surge or fast transients) disturbances. In the AC Power Quality scope, the fast transients have short duration (i.e. typically on the order of microseconds), are detected by high sampling rates (i.e. typically on the order of MHz), and are hard to characterize and parameterize. Hence, the resultant representation of the waveforms is in general stored to help in the subjective evaluation of these fast transients and their parameters of interest. As a consequence the compression turns out to be of main concern, in order to store this information acquired over long periods of time (like weeks or months). In this work, a compression technique is proposed taking into account the high sampling rates. The proposed technique makes use of the Principal Component Analysis (PCA) for such compact representation of fast transients. The Compression efficiency versus reconstruction accuracy results show a similar performance for the proposed technique when compared to the related works. On the other hand, the proposed technique can handle the large amount of data provided by the high sampling rates. The time-frequency analysis helps in the classification and characterization of AC power quality disturbances. In this work, the Hilbert-Huang Transform is studied and a modification is proposed in order to improve the Empirical Mode Decomposition (EMD) performance. Our results show that the proposed modification can save computational cost when compared to the state-of-the-art. Therefore, the average execution time is reduced to 99.76 % in comparison with the state-of-the-art technique. Besides that, this work also revisits previous techniques based on the Discrete Wavelet Transform (DWT) in order to verify the trade-off between reconstruction accuracy versus compression efficiency under a more systematic experimental evaluation setup, considering samples of real AC signals. Results show that DWT fails as a general-purpose technique in AC Power Quality scope.
39

Desenvolvimento da arquitetura dos codificadores de entropia adaptativos CAVLC e CABAC do padrão H.264/AVC / Integrated architecture development of CAVLC and CABAC context-adaptive entropy encoders for H.264/AVC

Thiele, Cristiano January 2012 (has links)
Um codificador de entropia é responsável pela representação simbólica de dados de forma a representá-los com um menor número de bits. O H.264/AVC possui três codificadores de entropia: o Exponencial Golomb, o CAVLC que é o codificador de menor complexidade porém com um throughput maior de dados e o CABAC, com maior complexidade e com uma maior capacidade de compressão. A complexidade do codificador de entropia e a dependência dos dados sequenciais no bitstream original são os principais desafios para atender os requisitos de desempenho para compressão em tempo real. Por isso o desenvolvimento destas arquiteturas em hardware dedicado se faz necessário. Neste contexto, esta dissertação descreve os algoritmos que fazem parte da entropia do padrão H.264/AVC e as arquiteturas para estes codificadores entrópicos (Exponential Golomb, CAVLC e CABAC), além de uma arquitetura de hardware dedicada que integra todos estes a um montador final que atende às especificações da norma H.264/AVC. As arquiteturas foram escritas em VHDL e sintetizadas para dispositivos integrados FPGA. Em um dispositivo Virtex-5, este codificador de entropia completo suporta codificação de vídeos no nível 4.2 do padrão H.264/AVC (Full HD a 60 quadros por segundo). Esta arquitetura é a que apresenta o melhor desempenho de processamento dentre os melhores trabalhos relacionados, além de ser um codificador com todas as alternativas de codificação de entropia requeridas pela norma implementadas em um mesmo módulo. / An entropy encoder is responsible for the symbolic representation of a data stream so that the final representation contains less bits than the original. The H.264/AVC has three entropy coding schemes: the Exponential Golomb, the CAVLC encoder, that is less complex but with a higher data throughput, and the CABAC that is more complex while allowing for higher compression capability. The complexity of the entropy encoding and data dependencies on the original bitstream are the main challenges to meet the performance requirements for real-time compression. The development of these architectures in dedicated hardware is therefore necessary for high performance encoders. In this context, this work describes the algorithms that are part of the entropy encoders of the H.264/AVC standard, and the corresponding entropy coding architectures (Exponential Golomb, CAVLC and CABAC), plus a dedicated hardware architecture that integrates all of these encoders to a final bitstream assembler that is compliant to the aforementioned standard. The architectures were written in VHDL and synthesized into FPGA devices. In a Virtex-5 device, this full entropy encoder supports video encoding at level 4.2 of the H.264/AVC standard (Full HD at 60 frames per second). The developed architecture performs best among the most recent related architectures published, and has the unique feature of an encoder that implements in the same module all the alternative entropy encoders present in this standard for video compression.
40

Desenvolvimento de comprimidos de clozapina obtidos pelo método de compressão direta / Development of clozapine tablets by direct compression

Sausen, Tiago Rafael January 2007 (has links)
O presente trabalho teve como objetivo o desenvolvimento de formulação para produção de comprimidos contendo 25 mg de clozapina através do método de compressão direta. A clozapina é utilizada no tratamento da psicose e consta na lista do Programa de Medicamentos Distribuídos em Caráter Excepcional do Ministério da Saúde. Para o desenvolvimento proposto, foi utilizado um desenho experimental do tipo desenho composto central a fim de avaliar a influência dos adjuvantes estearato de magnésio e croscarmelose sódica nas características dos comprimidos obtidos a partir de formulações que continham, além destes dois adjuvantes, dióxido de silício coloidal, celulose microcristalina e lactose spray-dried. Os complexos farmacêuticos formados apresentaram boa capacidade de escoamento e compactação e geraram comprimidos com parâmetros de qualidade dentro dos limites estabelecidos pelos códigos oficiais. A dureza e a friabilidade dos comprimidos foram mais suscetíveis à concentração de estearato de magnésio, enquanto que o tempo de desintegração sofreu maior influência da concentração de croscarmelose sódica. A eficiência de dissolução dos comprimidos também foi influenciada pela croscarmelose sódica, sendo que os comprimidos apresentaram perfis de dissolução característicos de formas farmacêuticas de liberação imediata. Dessa forma, através da comprovação da rápida dissolução dos comprimidos e da comparação das curvas de dissolução do medicamento de referência e do teste, verificou-se que a formulação contendo 4,41 % de croscarmelose, 1,59 % de estearato de magnésio, além de 0,5 % de dióxido de silício coloidal e uma mistura de celulose microcristalina e lactose (70:30 m/m), apresentou equivalência farmacêutica em relação ao medicamento de referência. / It was the aim of this work to develop tablets containing 25 mg of clozapine by direct compression. Clozapine is used in psychoses treatment and is included on Brazilian Healthy Ministry Program of drugs exceptionally distributed. To this purpose, a composite central design was used to estimate the influence of the excipients magnesium stearate and sodium croscarmelose on the characteristics of tablets containing additionally, colloidal silicon dioxide, microcrystalline cellulose and spraydried lactose. The pharmaceutical mixtures obtained demonstrated good flowing and compaction capacity. Additionally, the tablets produced quality parameters within the limits established by official codex. Hardness and friability were more susceptible to magnesium stearate concentration, while disintegration time was influenced by sodium croscarmelose concentration. The dissolution efficiency was also influenced by sodium croscarmelose. Additionally, the dissolution profiles of the tablets suggest an immediate release mechanism of clozapine. Our results demonstrated that the formulation containing 4,41 % of sodium croscarmelose, 1,59 % of magnesium stearate, 0,5 % of colloidal silicon dioxide and a mixture of microcrystalline cellulose and spray-dried lactose (70:30 w/w) is pharmaceutically equivalent to the reference product.

Page generated in 0.0873 seconds