• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 242
  • 55
  • 28
  • 26
  • 13
  • 12
  • 12
  • 4
  • 4
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 451
  • 82
  • 54
  • 50
  • 48
  • 45
  • 44
  • 44
  • 41
  • 40
  • 36
  • 35
  • 34
  • 33
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Mistura de cores: uma nova abordagem para processamento de cores e sua aplicação na segmentação de imagens / Colors mixture: a new approach for color processing and its application in image segmentation

Osvaldo Severino Junior 28 May 2009 (has links)
Inspirado nas técnicas utilizadas por pintores que sobrepõem camadas de tintas de diversos matizes na geração de uma tela artística e também observando-se a distribuição da quantidade dos cones na retina do olho humano na interpretação destas cores, este trabalho propõe uma técnica de processamento de imagens baseada na mistura de cores. Trata-se de um método de quantização de cores estático que expressa a proporção das cores preto, azul, verde, ciano, vermelho, magenta, amarelo e branco obtida pela representação binária da cor que compõe os pixels de uma imagem RGB com 8 bits por canal. O histograma da mistura é denominado de misturograma e gera planos que interceptam o espaço RGB, definindo o espaço de cor HSM (Hue, Saturation and Mixture). A posição destes planos dentro do cubo RGB é modelada por meio da distribuição dos cones sensíveis aos comprimentos de onda curta (Short), média (Middle) e longa (Long) consideradas para a retina humana. Para demonstrar a aplicabilidade do espaço de cor HSM, é proposta, neste trabalho, a segmentação dos pixels de uma imagem digital em pele humana ou não pele com o uso dessa nova abordagem. Para análise de desempenho da mistura de cores foi implementado um método tradicional no espaço de cor RGB e também usando uma distribuição Gaussiana nos espaços de cores HSV e HSM. Os resultados obtidos demonstram o potencial da técnica que emprega a mistura de cores para a segmentação de imagens digitais coloridas. Verificou-se também que, baseando-se apenas na camada mais significativa da mistura de cores, gera-se a imagem esboço de uma imagem facial denominada esboço da face. Os resultados obtidos comprovam o bom desempenho do esboço da face em aplicações CBIR. / Inspired on the techniques used by painters to overlap layers of various hues of paint to create oil paintings, and also on observations of the distribution of cones in human retina for the interpretation of these colors, this thesis proposes an image processing technique based on color mixing. This is a static color quantization method that expresses the mixture of black, blue, green, cyan, red, magenta, yellow and white colors quantified by the binary weight of the color that makes up the pixels of an RGB image with 8 bits per channel. The mixture histogram, called a mixturegram, generates planes that intersect the RGB color space, defining the HSM (Hue, Saturation and Mixture) color space. The position of these planes inside the RGB cube is modeled by the distribution of cones sensitive to the short (S), middle (M) and long (L) wave lengths of the human retina. To demonstrate the applicability of the HSM color space, this thesis proposes the segmentation of the pixels of a digital image of human skin or non-skin using this new approach. The performance of the color mixture is analyzed by implementing a traditional method in the RGB color space and by a Gaussian distribution in the HSV and HSM color spaces. The results demonstrate the potential of the proposed technique for color image segmentation. It was also noted that, based only on the most significant layer of the colors mixture, it is possible generates the face sketch image. The results show the performance of the face sketch image in CBIR applications.
302

Efeitos da quantização em sistemas de controle em rede

Campos, Gustavo Cruz January 2017 (has links)
Este trabalho investiga a influência da quantização em sistemas de controle em rede. São tratados problemas de estabilidade e estabilização de sistemas lineares de tempo discreto envolvendo quantização finita nas entradas da planta controlada, considerando dois tipos de quantizadores: os uniformes e os logarítmicos. Como consequência da quantização finita, ocorrem também efeitos de saturação e zonamorta dos sinais de entrada. Tais comportamentos não-lineares são considerados explicitamente na análise. Para plantas instáveis, o objetivo é estimar a região onde os estados estarão confinados em regime permanente. Esta região, denominada atrator dos estados, é estimada por meio de um conjunto elipsoidal. Ao mesmo tempo, determina-se um conjunto elipsoidal de condições iniciais admissíveis, para o qual se garante a convergência das trajetórias para o atrator em tempo finito. Primeiramente, esses conjuntos são determinados para o caso de um controlador dado e, posteriormente, sintetiza-se um controlador que minimiza o atrator. Em se tratando de plantas estáveis, investiga-se como o desempenho dinâmico é afetado pela quantização. Para tanto, utiliza-se como critério o coeficiente de decaimento exponencial que é garantido para o sistema. Nesta parte, excluem-se os comportamentos na região de saturação e na região da zona-morta. Primeiramente, o coeficiente de decaimento garantido é estimado para um sistema com controlador dado. Neste caso, faz-se uma análise de degradação de desempenho induzida pela quantização com relação ao comportamento do sistema em malha fechada sem quantização. Posteriormente, sintetiza-se um controlador que minimiza este coeficiente na presença da quantização. Na obtenção dos resultados, utilizam-se condições de setor respeitadas pelas não linearidades e formulam-se os problemas na forma de inequações matriciais que podem ser resolvidas a partir de problemas de otimização baseados em LMIs. / This work investigates the in uence of quantization over networked control systems. At rst, we tackle stability and stabilization problems of discrete-time linear systems involving nite quantization on the input of the controlled plant, considering two kinds of quantizers: uniform and logarithmic. As a consequence of the nite quantization, saturation and dead-zone e ects on the input signals are also present. These non-linear behaviors are explictly considered in the analysis. For unstable plants, the objective is to estimate the region where the states will be ultimately bounded. This region, which we call the attractor of the states, is estimated through an ellipsoidal set. Simultaneously, we determine an ellipsoidal set of admissible initial conditions, for which the trajectories will converge to the attractor in nite time. At rst, the sets are determined for the case where the controller is given and, in the sequel, a controller that minimizes the attractor is designed. When dealing with stable plants, we investigate how the dynamic performance is a ected by the quantization. To do that, we use as criterion the exponential decay rate which is guaranteed for the system. At this point, we exclude the behaviour in the saturation and deadzone regions. At rst, the guaranteed decay rate is estimated for a system where the controller is given. In this case, we analyze the deterioration of the performance in uenced by the quantization, compared to the behavior of the closed-loop system without quantization. In the sequel, a controller that minimizes that rate in the presence of quantization is designed. To obtain the results, we use sector conditions which are respected by the nonlinearities and we state the problems as matrix inequalities which can be solved using LMI-based optimization problems.
303

Mistura de cores: uma nova abordagem para processamento de cores e sua aplicação na segmentação de imagens / Colors mixture: a new approach for color processing and its application in image segmentation

Severino Junior, Osvaldo 28 May 2009 (has links)
Inspirado nas técnicas utilizadas por pintores que sobrepõem camadas de tintas de diversos matizes na geração de uma tela artística e também observando-se a distribuição da quantidade dos cones na retina do olho humano na interpretação destas cores, este trabalho propõe uma técnica de processamento de imagens baseada na mistura de cores. Trata-se de um método de quantização de cores estático que expressa a proporção das cores preto, azul, verde, ciano, vermelho, magenta, amarelo e branco obtida pela representação binária da cor que compõe os pixels de uma imagem RGB com 8 bits por canal. O histograma da mistura é denominado de misturograma e gera planos que interceptam o espaço RGB, definindo o espaço de cor HSM (Hue, Saturation and Mixture). A posição destes planos dentro do cubo RGB é modelada por meio da distribuição dos cones sensíveis aos comprimentos de onda curta (Short), média (Middle) e longa (Long) consideradas para a retina humana. Para demonstrar a aplicabilidade do espaço de cor HSM, é proposta, neste trabalho, a segmentação dos pixels de uma imagem digital em pele humana ou não pele com o uso dessa nova abordagem. Para análise de desempenho da mistura de cores foi implementado um método tradicional no espaço de cor RGB e também usando uma distribuição Gaussiana nos espaços de cores HSV e HSM. Os resultados obtidos demonstram o potencial da técnica que emprega a mistura de cores para a segmentação de imagens digitais coloridas. Verificou-se também que, baseando-se apenas na camada mais significativa da mistura de cores, gera-se a imagem esboço de uma imagem facial denominada esboço da face. Os resultados obtidos comprovam o bom desempenho do esboço da face em aplicações CBIR. / Inspired on the techniques used by painters to overlap layers of various hues of paint to create oil paintings, and also on observations of the distribution of cones in human retina for the interpretation of these colors, this thesis proposes an image processing technique based on color mixing. This is a static color quantization method that expresses the mixture of black, blue, green, cyan, red, magenta, yellow and white colors quantified by the binary weight of the color that makes up the pixels of an RGB image with 8 bits per channel. The mixture histogram, called a mixturegram, generates planes that intersect the RGB color space, defining the HSM (Hue, Saturation and Mixture) color space. The position of these planes inside the RGB cube is modeled by the distribution of cones sensitive to the short (S), middle (M) and long (L) wave lengths of the human retina. To demonstrate the applicability of the HSM color space, this thesis proposes the segmentation of the pixels of a digital image of human skin or non-skin using this new approach. The performance of the color mixture is analyzed by implementing a traditional method in the RGB color space and by a Gaussian distribution in the HSV and HSM color spaces. The results demonstrate the potential of the proposed technique for color image segmentation. It was also noted that, based only on the most significant layer of the colors mixture, it is possible generates the face sketch image. The results show the performance of the face sketch image in CBIR applications.
304

Reconhecimento automático de locutor em modo independente de texto por Self-Organizing Maps. / Text independent automatic speaker recognition using Self-Organizing Maps.

Alexandre Teixeira Mafra 18 December 2002 (has links)
Projetar máquinas capazes identificar pessoas é um problema cuja solução encontra uma grande quantidade de aplicações. Implementações em software de sistemas baseados em medições de características físicas pessoais (biométricos), estão começando a ser produzidos em escala comercial. Nesta categoria estão os sistemas de Reconhecimento Automático de Locutor, que se usam da voz como característica identificadora. No presente momento, os métodos mais populares são baseados na extração de coeficientes mel-cepstrais (MFCCs) das locuções, seguidos da identificação do locutor através de Hidden Markov Models (HMMs), Gaussian Mixture Models (GMMs) ou quantização vetorial. Esta preferência se justifica pela qualidade dos resultados obtidos. Fazer com que estes sistemas sejam robustos, mantendo sua eficiência em ambientes ruidosos, é uma das grandes questões atuais. Igualmente relevantes são os problemas relativos à degradação de performance em aplicações envolvendo um grande número de locutores, e a possibilidade de fraude baseada em vozes gravadas. Outro ponto importante é embarcar estes sistemas como sub-sistemas de equipamentos já existentes, tornando-os capazes de funcionar de acordo com o seu operador. Este trabalho expõe os conceitos e algoritmos envolvidos na implementação de um software de Reconhecimento Automático de Locutor independente de texto. Inicialmente é tratado o processamento dos sinais de voz e a extração dos atributos essenciais deste sinal para o reconhecimento. Após isto, é descrita a forma pela qual a voz de cada locutor é modelada através de uma rede neural de arquitetura Self-Organizing Map (SOM) e o método de comparação entre as respostas dos modelos quando apresentada uma locução de um locutor desconhecido. Por fim, são apresentados o processo de construção do corpus de vozes usado para o treinamento e teste dos modelos, as arquiteturas de redes testadas e os resultados experimentais obtidos numa tarefa de identificação de locutor. / The design of machines that can identify people is a problem whose solution has a wide range of applications. Software systems, based on personal phisical attributes measurements (biometrics), are in the beginning of commercial scale production. Automatic Speaker Recognition systems fall into this cathegory, using voice as the identifying attribute. At present, the most popular methods are based on the extraction of mel-frequency cepstral coefficients (MFCCs), followed by speaker identification by Hidden Markov Models (HMMs), Gaussian Mixture Models (GMMs) or vector quantization. This preference is motivated by the quality of the results obtained by the use of these methods. Making these systems robust, able to keep themselves efficient in noisy environments, is now a major concern. Just as relevant are the problems related to performance degradation in applications with a large number of speakers involved, and the issues related to the possibility of fraud by the use of recorded voices. Another important subject is to embed these systems as sub-systems of existing devices, enabling them to work according to the operator. This work presents the relevant concepts and algorithms concerning the implementation of a text-independent Automatic Speaker Recognition software system. First, the voice signal processing and the extraction of its essential features for recognition are treated. After this, it is described the way each speaker\'s voice is represented by a Self-Organizing Map (SOM) neural network, and the comparison method of the models responses when a new utterance from an unknown speaker is presented. At last, it is described the construction of the speech corpus used for training and testing the models, the neural network architectures tested, and the experimental results obtained in a speaker identification task.
305

AvaliaÃÃo de redes neurais competitivas em tarefas de quantizaÃÃo vetorial:um estudo comparativo / Evaluation of competitive neural networks in tasks of vector quantization (VQ): a comparative study

Magnus Alencar da cruz 06 October 2007 (has links)
nÃo hà / Esta dissertaÃÃo tem como principal meta realizar um estudo comparativo do desempenho de algoritmos de redes neurais competitivas nÃo-supervisionadas em problemas de quantizaÃÃo vetorial (QV) e aplicaÃÃes correlatas, tais como anÃlise de agrupamentos (clustering) e compressÃo de imagens. A motivaÃÃo para tanto parte da percepÃÃo de que hà uma relativa escassez de estudos comparativos sistemÃticos entre algoritmos neurais e nÃo-neurais de anÃlise de agrupamentos na literatura especializada. Um total de sete algoritmos sÃo avaliados, a saber: algoritmo K -mÃdias e as redes WTA, FSCL, SOM, Neural-Gas, FuzzyCL e RPCL. De particular interesse à a seleÃÃo do nÃmero Ãtimo de neurÃnios. NÃo hà um mÃtodo que funcione para todas as situaÃÃes, restando portanto avaliar a influÃncia que cada tipo de mÃtrica exerce sobre algoritmo em estudo. Por exemplo, os algoritmos de QV supracitados sÃo bastante usados em tarefas de clustering. Neste tipo de aplicaÃÃo, a validaÃÃo dos agrupamentos à feita com base em Ãndices que quantificam os graus de compacidade e separabilidade dos agrupamentos encontrados, tais como Ãndice Dunn e Ãndice Davies-Bouldin (DB). Jà em tarefas de compressÃo de imagens, determinado algoritmo de QV à avaliado em funÃÃo da qualidade da informaÃÃo reconstruÃda, daà as mÃtricas mais usadas serem o erro quadrÃtico mÃdio de quantizaÃÃo (EQMQ) ou a relaÃÃo sinal-ruÃdo de pico (PSNR). Empiricamente verificou-se que, enquanto o Ãndice DB favorece arquiteturas com poucos protÃtipos e o Dunn com muitos, as mÃtricas EQMQ e PSNR sempre favorecem nÃmeros ainda maiores. Nenhuma das mÃtricas supracitadas leva em consideraÃÃo o nÃmero de parÃmetros do modelo. Em funÃÃo disso, esta dissertaÃÃo propÃe o uso do critÃrio de informaÃÃo de Akaike (AIC) e o critÃrio do comprimento descritivo mÃnimo (MDL) de Rissanen para selecionar o nÃmero Ãtimo de protÃtipos. Este tipo de mÃtrica mostra-se Ãtil na busca do nÃmero de protÃtipos que satisfaÃa simultaneamente critÃrios opostos, ou seja, critÃrios que buscam o menor erro de reconstruÃÃo a todo custo (MSE e PSNR) e critÃrios que buscam clusters mais compactos e coesos (Ãndices Dunn e DB). Como conseqÃÃncia, o nÃmero de protÃtipos obtidos pelas mÃtricas AIC e MDL à geralmente um valor intermediÃrio, i.e. nem tÃo baixo quanto o sugerido pelos Ãndices Dunn e DB, nem tÃo altos quanto o sugerido pelas mÃtricas MSE e PSNR. Outra conclusÃo importante à que nÃo necessariamente os algoritmos mais sofisticados do ponto de vista da modelagem, tais como as redes SOM e Neural-Gas, sÃo os que apresentam melhores desempenhos em tarefas de clustering e quantizaÃÃo vetorial. Os algoritmos FSCL e FuzzyCL sÃo os que apresentam melhores resultados em tarefas de quantizaÃÃo vetorial, com a rede FSCL apresentando melhor relaÃÃo custo-benefÃcio, em funÃÃo do seu menor custo computacional. Para finalizar, vale ressaltar que qualquer que seja o algoritmo escolhido, se o mesmo tiver seus parÃmetros devidamente ajustados e seus desempenhos devidamente avaliados, as diferenÃas de performance entre os mesmos sÃo desprezÃveis, ficando como critÃrio de desempate o custo computacional. / The main goal of this master thesis was to carry out a comparative study of the performance of algorithms of unsupervised competitive neural networks in problems of vector quantization (VQ) tasks and related applications, such as cluster analysis and image compression. This study is mainly motivated by the relative scarcity of systematic comparisons between neural and nonneural algorithms for VQ in specialized literature. A total of seven algorithms are evaluated, namely: K-means, WTA, FSCL, SOM, Neural-Gas, FuzzyCL and RPCL. Of particular interest is the problem of selecting an adequate number of neurons given a particular vector quantization problem. Since there is no widespread method that works satisfactorily for all applications, the remaining alternative is to evaluate the influence that each type of evaluation metric has on a specific algorithm. For example, the aforementioned vector quantization algorithms are widely used in clustering-related tasks. For this type of application, cluster validation is based on indexes that quantify the degrees of compactness and separability among clusters, such as the Dunn Index and the Davies- Bouldin (DB) Index. In image compression tasks, however, a given vector quantization algorithm is evaluated in terms of the quality of the reconstructed information, so that the most used evaluation metrics are the mean squared quantization error (MSQE) and the peak signal-to-noise ratio (PSNR). This work verifies empirically that, while the indices Dunn and DB or favors architectures with many prototypes (Dunn) or with few prototypes (DB), metrics MSE and PSNR always favor architectures with well bigger amounts. None of the evaluation metrics cited previously takes into account the number of parameters of the model. Thus, this thesis evaluates the feasibility of the use of the Akaikeâs information criterion (AIC) and Rissanenâs minimum description length (MDL) criterion to select the optimal number of prototypes. This type of evaluation metric indeed reveals itself useful in the search of the number of prototypes that simultaneously satisfies conflicting criteria, i.e. those favoring more compact and cohesive clusters (Dunn and DB indices) versus those searching for very low reconstruction errors (MSE and PSNR). Thus, the number of prototypes suggested by AIC and MDL is generally an intermediate value, i.e nor so low as much suggested for the indexes Dunn and DB, nor so high as much suggested one for metric MSE and PSNR. Another important conclusion is that sophisticated models, such as the SOM and Neural- Gas networks, not necessarily have the best performances in clustering and VQ tasks. For example, the algorithms FSCL and FuzzyCL present better results in terms of the the of the reconstructed information, with the FSCL presenting better cost-benefit ratio due to its lower computational cost. As a final remark, it is worth emphasizing that if a given algorithm has its parameters suitably tuned and its performance fairly evaluated, the differences in performance compared to others prototype-based algorithms is minimum, with the coputational cost being used to break ties.
306

ProposiÃÃo e avaliaÃÃo de algoritmos de filtragem adaptativa baseados na rede de kohonen / Proposition and evaluation of the adaptive filtering algorithms basad on the kohonen

Luis Gustavo Mota Souza 02 June 2007 (has links)
nÃo hà / A Rede Auto-OrganizÃvel de Kohonen (Self-Organizing Map - SOM), por empregar um algoritmo de aprendizado nÃo supervisionado, vem sendo tradicionalmente aplicada na Ãrea de processamento de sinais em tarefas de quantizaÃÃo vetorial, enquanto que redes MLP (Multi-layer Perceptron) e RBF (Radial Basis Function) dominam as aplicaÃÃes que exigem a aproximaÃÃo de mapeamentos entrada-saÃda. Este tipo de aplicaÃÃo à comumente encontrada em tarefas de filtragem adaptativa que podem ser formatadas segundo a Ãtica da modelagem direta e inversa de sistemas, tais como identificaÃÃo equalizaÃÃo de canais de comunicaÃÃo. Nesta dissertaÃÃo, a gama de aplicaÃÃes da rede SOM à estendida atravÃs da proposiÃÃo de filtros adaptativos neurais baseados nesta rede, mostrando que os mesmos sÃo alternativas viÃveis aos filtros nÃo-lineares baseados nas redes MLP e RBF. Isto torna-se possÃvel graÃas ao uso de uma tÃcnica recentemente proposta, Quantized Temporal Associative Memory - VQTAM), que basicamente usa a filosofia de chamada MemÃria Associativa Temporal por QuantizaÃÃo Vetorial (Vector )treinamento da rede SOM para realizar a quantizaÃÃo vetorial simultÃnea dos espaÃos de entrada e de saÃda relativos ao problema de filtragem analisado. A partir da tÃcnica VQTAM, sÃo propostos trÃs arquiteturas de filtros adaptativos baseadas na rede SOM, cujos desempenhos foram avaliados em tarefas de identificaÃÃo e equalizaÃÃo de canais nÃolineares. O canal usado nas simulaÃÃes foi modelado como um processo auto-regressivo de Gauss-Markov de primeira ordem, contaminado com ruÃdo branco gaussiano e dotado de nÃo-linearidade do tipo saturaÃÃo (sigmoidal). Os resultados obtidos mostram que filtros adaptativos baseados na rede SOM tÃm desempenho equivalente ou superior aos tradicionais filtros transversais lineares e aos filtros nÃo-lineares baseados na rede MLP.
307

Classical Foundations for a Quantum Theory of Time in a Two-Dimensional Spacetime

Carruth, Nathan Thomas 01 May 2010 (has links)
We consider the set of all spacelike embeddings of the circle S1 into a spacetime R1 × S1 with a metric globally conformal to the Minkowski metric. We identify this set and the group of conformal isometries of this spacetime as quotients of semidirect products involving diffeomorphism groups and give a transitive action of the conformal group on the set of spacelike embeddings. We provide results showing that the group of conformal isometries is a topological group and that its action on the set of spacelike embeddings is continuous. Finally, we point out some directions for future research.
308

An investigation into some signal processing techniques for the development of a low-cost acoustic correlator to detect and locate leaks in buried water pipes /

Ayala Castillo, Pedro Christian. January 2019 (has links)
Orientador: Michael John Brennan / Resumo: O principal problema em companhias de água são os vazamentos em tubulações subterrâneas, devido a sua limitada fonte de recursos hídricos. Correlacionadores de ruídos de vazamentos são usados frequentemente para localizar vazamentos. A detecção de sinais de ruídos de vazamentos ocorre por meio da coleta de dados por sensores, aos quais estão inseridos em lugares extremos ao da localização de um suposto vazamento. Estes dados são correlacionados, obtendo o atraso do tempo entre estes sinais de vazamento. Para converter o atraso do tempo em distância, a velocidade de onda do ruído de vazamento necessita ser conhecida, frequentemente, este tempo é estimado por meio de dados históricos de velocidade ou por tabelas. Usualmente a velocidade não é medida diretamente pelo tempo, sendo uma potencial fonte de erro. Esta tese estuda os fatores que afetam a velocidade de propagação do ruído de vazamento em tubulações de água subterrâneas. Eles envolvem as caraterísticas do filtrado do sistema sensor-tubulação e a potencial faixa de frequência onde o ruído de vazamento possa estar presente, e o efeito da banda de frequência na estimação do atraso do tempo. Os efeitos de distorção na precisão da estimativa do atraso do tempo, são também estudados com foco na quantização e corte dos sinais de vazamento. O efeito de quantização é devido a um convertedor analógico digital. O corte dos sinais de vazamento acontece quando a amplitude do sinal excede os limites do intervalo dinâmico da instrumen... (Resumo completo, clicar acesso eletrônico abaixo) / Doutor
309

Optimal source coding with signal transfer function constraints

Derpich, Milan January 2009 (has links)
Research Doctorate - Doctor of Philosophy (PhD) / This thesis presents results on optimal coding and decoding of discrete-time stochastic signals, in the sense of minimizing a distortion metric subject to a constraint on the bit-rate and on the signal transfer function from source to reconstruction. The first (preliminary) contribution of this thesis is the introduction of new distortion metric that extends the mean squared error (MSE) criterion. We give this extension the name Weighted-Correlation MSE (WCMSE), and use it as the distortion metric throughout the thesis. The WCMSE is a weighted sum of two components of the MSE: the variance of the error component uncorrelated to the source, on the one hand, and the remainder of the MSE, on the other. The WCMSE can take account of signal transfer function constraints by assigning a larger weight to deviations from a target signal transfer function than to source-uncorrelated distortion. Within this framework, the second contribution is the solution of a family of feedback quantizer design problems for wide sense stationary sources using an additive noise model for quantization errors. These associated problems consist of finding the frequency response of the filters deployed around a scalar quantizer that minimize the WCMSE for a fixed quantizer signal-to-(granular)-noise ratio (SNR). This general structure, which incorporates pre-, post-, and feedback filters, includes as special cases well known source coding schemes such as pulse coded modulation (PCM), Differential Pulse-Coded Modulation (DPCM), Sigma Delta converters, and noise-shaping coders. The optimal frequency response of each of the filters in this architecture is found for each possible subset of the remaining filters being given and fixed. These results are then applied to oversampled feedback quantization. In particular, it is shown that, within the linear model used, and for a fixed quantizer SNR, the MSE decays exponentially with oversampling ratio, provided optimal filters are used at each oversampling ratio. If a subtractively dithered quantizer is utilized, then the noise model is exact, and the SNR constraint can be directly related to the bit-rate if entropy coding is used, regardless of the number of quantization levels. On the other hand, in the case of fixed-rate quantization, the SNR is related to the number of quantization levels, and hence to the bit-rate, when overload errors are negligible. It is shown that, for sources with unbounded support, the latter condition is violated for sufficiently large oversampling ratios. By deriving an upper bound on the contribution of overload errors to the total WCMSE, a lower bound for the decay rate of the WCMSE as a function of the oversampling ratio is found for fixed-rate quantization of sources with finite or infinite support. The third main contribution of the thesis is the introduction of the rate-distortion function (RDF) when WCMSE is the distortion metric, denoted by WCMSE-RDF. We provide a complete characterization for Gaussian sources. The resulting WCMSE-RDF yields, as special cases, Shannon's RDF, as well as the recently introduced RDF for source-uncorrelated distortions (RDF-SUD). For cases where only source-uncorrelated distortion is allowed, the RDF-SUD is extended to include the possibility of linear-time invariant feedback between reconstructed signal and coder input. It is also shown that feedback quantization schemes can achieve a bit-rate only 0.254 bits/sample above this RDF by using the same filters that minimize the reconstruction MSE for a quantizer-SNR constraint. The fourth main contribution of this thesis is to provide a set of conditions under which knowledge of a realization of the RDF can be used directly to solve encoder-decoder design optimization problems. This result has direct implications in the design of subband coders with feedback, as well as in the design of encoder-decoder pairs for applications such as networked control. As the fifth main contribution of this thesis, the RDF-SUD is utilized to show that, for Gaussian sta-tionary sources with memory and MSE distortion criterion, an upper bound on the information-theoretic causal RDF can be obtained by means of an iterative numerical procedure, at all rates. This bound is tighter than 0:5 bits/sample. Moreover, if there exists a realization of the causal RDF in which the re-construction error is jointly stationary with the source, then the bound obtained coincides with the causal RDF. The iterative procedure proposed here to obtain Ritc(D) also yields a characterization of the filters in a scalar feedback quantizer having an operational rate that exceeds the bound by less than 0:254 bits/sample. This constitutes an upper bound on the optimal performance theoretically attainable by any causal source coder for stationary Gaussian sources under the MSE distortion criterion.
310

Analysis of Fix‐point Aspects for Wireless Infrastructure Systems

Grill, Andreas, Englund, Robin January 2009 (has links)
<p>A large amount of today’s telecommunication consists of mobile and short distance wireless applications, where the effect of the channel is unknown and changing over time, and thus needs to be described statistically. Therefore the received signal can not be accurately predicted and has to be estimated. Since telecom systems are implemented in real-time, the hardware in the receiver for estimating the sent signal can for example be based on a DSP where the statistic calculations are performed. A fixed-point DSP with a limited number of bits and a fixed binary point causes larger quantization errors compared to floating point operations with higher accuracy.</p><p>The focus on this thesis has been to build a library of functions for handling fixed-point data. A class that can handle the most common arithmetic operations and a least squares solver for fixed-point have been implemented in MATLAB code.</p><p>The MATLAB Fixed-Point Toolbox could have been used to solve this task, but in order to have full control of the algorithms and the fixed-point handling an independent library was created.</p><p>The conclusion of the simulation made in this thesis is that the least squares result are depending more on the number of integer bits then the number of fractional bits.</p> / <p>En stor del av dagens telekommunikation består av mobila trådlösa kortdistanstillämpningar där kanalens påverkan är okänd och förändras över tid. Signalen måste därför beskrivas statistiskt, vilket gör att den inte kan bestämmas exakt, utan måste estimeras. Eftersom telekomsystem arbetar i realtid består hårdvaran i mottagaren av t.ex. en DSP där de statistiska beräkningarna görs. En fixtals DSP har ett bestämt antal bitar och fast binärpunkt, vilket introducerar ett större kvantiseringsbrus jämfört med flyttalsoperationer som har en större noggrannhet.</p><p>Tyngdpunkten på det här arbetet har varit att skapa ett bibliotek av funktioner för att hantera fixtal. En klass har skapats i MATLAB-kod som kan hantera de vanligaste aritmetiska operationerna och lösa minsta-kvadrat-problem.</p><p>MATLAB:s Fixed-Point Toolbox skulle kunna användas för att lösa den här uppgiften men för att ha full kontroll över algoritmerna och fixtalshanteringen behövs ett eget bibliotek av funktioner som är oberoende av MATLAB:s Fixed-Point Toolbox.</p><p>Slutsatsen av simuleringen gjord i detta examensarbete är att resultatet av minsta-kvadrat-metoden är mer beroende av antalet heltalsbitar än antalet binaler.</p> / fixtal, telekommunikation, DSP, MATLAB, Fixed-Point Toolbox, minsta-kvadrat-lösning, flyttal, Householder QR faktorisering, saturering, kvantiseringsbrus

Page generated in 0.0192 seconds