• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 1
  • Tagged with
  • 7
  • 7
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

[en] NEW REDUCED-RANK RECEIVERS WITH APLICATIONS IN DS-CDMA BASED SYSTEMS / [pt] NOVOS RECEPTORES COM POSTO REDUZIDO E SUAS APLICAÇÕES EM SISTEMAS BASEADOS EM DS-CDMA

FRANCISCO ALBERTO SANDOVAL NORENA 18 April 2013 (has links)
[pt] O número de coeficientes dos filtros de detecção adaptativos usados nos receptores em sistemas CDMA e igual ao ganho de processamento usado no sistema. Assim, quando o valor deste ganho e grande os filtros adaptativos apresentam problemas de convergência lenta além de grande complexidade computacional. Problema similar ocorre na estimação/detecção de sinais em sistemas UWB uma vez que o grande numero de percursos do canal, faz com que as quantidades a serem estimadas tenham um elevado número de elementos, requerendo com o uso de técnicas convencionais o processamento de conjuntos com um numero bastante elevado de amostras, com consequente aumento significativo de custo computacional total do receptor. Esta dissertação enfoca uma técnica de processamento com redução de posto promovida por meio de dois estágios iniciais, o estágio de interpolação e o estágio de decimação, na qual, dado o padrão de decimação escolhido, os coeficientes do filtro interpolador são otimizados de forma independente do filtro de detecção. Dois algoritmos foram desenvolvidos para o dimensionamento do filtro interpolador, o primeiro e baseado na maximização da razão sinal desejado-ruído na saída do estágio de redução de posto, e o segundo maximiza a razão sinal desejado-ruído mais interferência na saída do estágio de redução de posto. Os métodos de posto reduzido examinados reduzem a dimensão do vetor de observação de acordo com o fator de decimação escolhido, redução esta bastante relevante, por exemplo para esquemas de equalização/detecção que tem custo computacional quadrático com a dimensão do vetor de observação como os receptores MMSE-RLS implementados nas aplicações. / [en] The number of coefficients of the adaptive detection filters used in CDMA receivers is usually larger than the processing gain used in the system. Thus, when the value of this gain is high the adaptive filters suffer from slow convergence and high computational complexity. A similar problem occurs with the estimation/signal detection in UWB systems. The large number of channel paths common in such systems causes the quantities to be estimated to have a large number of elements, which requires, with conventional techniques, the processing of sets with large number of samples, thus resulting in a significant increase in the total computational cost of the receiver. This work focuses on a reduced-rank technique that is implemented through two phases, interpolation and decimation, in which given the decimation pattern chosen, the coefficients of the interpolator filter are optimized independently of the detection filter. Two algorithms are developed for the design of the interpolator filter. The first one is based on the maximization of the desired signal to noise ratio at the output of the reduced rank stage and the second considers the maximization of the desired signal to noise-plus-interference ratio at the output of the reduced rank stage. In general, the proposed reduced rank methods reduce the size of the observation vector according to the value set to the so called decimation factor. This reduction can have a significant impact on the complexity of equalization/detection algorithms that, for instance, have a quadratic increase of the computational cost with the size of the observation vector, as the RLS receivers implemented in the considered applications.
2

[en] A STUDY ABOUT THE ITERATED APPROXIMATED MOVING LEAST SQUARES METHOD / [pt] UM ESTUDO SOBRE O MÉTODO MÍNIMOS QUADRADOS MÓVEIS POR APROXIMAÇOES ITERADAS

CLEIDE MAYRA MENEZES LIMA 19 January 2010 (has links)
[pt] Esta dissertação tem por objetivo estudar um método para aproximação de dados esparços multivariados denominado o método Mínimos Quadrados Móveis por Aproximações Iteradas (Iterated Approximate Moving Least-Square Approximation – IAMLA). Este método é baseado no método de interpolação por funções de base radial (RBF) e no método de aproximação AMLS. Mas diferentemente do método RBF, ele não requer a solução de um sistema de equações lineares. O método IAMLS no limite converge para o interpolante RBF sob certas condições. / [en] The objective of this work is to study an approximation method for multivariate sparse data named Iterated Approximate Moving Least Square Approximation – IAMLS. This method is based on the Radial Basis Functions (RBF) interpolation method and on the AMLS approximation method. Differently from the RBF interpolation method, the IAMLS does not requires to solve a system of linear equations. The IAMLS method converges to the RBF interpolant under some conditions.
3

[en] DISTRIBUTED VIDEO CODING WITH CORRELATION CHANNEL MODELING IN THE TRANSFORM DOMAIN / [pt] CODIFICAÇÃO DISTRIBUÍDA DE VÍDEO COM MODELAGEM DO CANAL DE CORRELAÇÃO NO DOMÍNIO DA TRANSFORMADA

RODRIGO SILVA MELLO 27 May 2011 (has links)
[pt] A codificação distribuída de vídeo é um novo paradigma de codificação de vídeo que permite explorar a estatística da fonte apenas no decodificador. Nesse cenário, duas fontes correlatadas são independentemente codificadas usando codificadores distintos e os fluxos binários associados a cada uma são conjuntamente decodificados, explorando a correlação entre eles. A resiliência a erros é uma importante funcionalidade deste novo paradigma uma vez que a tradicional malha de predição no codificador e a propagação de erros associada a esta malha não existe ao não se explorar a correlação do sinal no codificador. Desta forma, esta tese tem como objetivo apresentar uma nova arquitetura de codificação distribuída de vídeo, desenvolvendo e analisando algoritmos mais eficientes para a mesma, reduzindo, desta forma, o gap de desempenho quando comparado aos sistemas tradicionais de codificação de vídeo [68]. Assim, o codec proposto nesta tese proporcionou: a otimização da arquitetura DVC (Distributed Vídeo Coding), o desenvolvimento de novas ferramentas para a geração da informação lateral, a inclusão de um módulo de medida de correlação entre quadros para auxiliar na decodificação, a utilização de um processo de quantização Wyner-Ziv variável, a opção de uma codificação parcial de bitplanes, uma modelagem do canal de correlação baseada na estimação de parâmetros em nível de banda e de coeficientes da transformada DCT (Discrete Cosine Transform), a inclusão de um módulo de normalização da informação lateral e o desenvolvimento de um código de canal mais adequado à arquitetura proposta. / [en] Distributed video coding is a new video coding paradigm that allows exploiting the source statistics at the decoder only. In this scenario, two correlated sources are independently encoded using separated encoders and the bit streams associated to each one are jointly decoded exploiting the correlation between them. Improved error resilience is another major functionality of this new video coding paradigm since the usual encoder prediction loop and the associated error propagation do not exist anymore, because the signal correlation is not explored in the encoder. Therefore, this thesis aims to present a new architecture for distributed video coding, analyzing and developing more efficient algorithms for it, thus reducing the gap in performance when it is compared to traditional video coding [68]. Therefore, the codec proposed in this thesis provided: a DVC architecture optimization; the development of new tools for side information generation process; inclusion of a module for measuring correlation between frames in order to assist in the Wyner-Ziv frame reconstruction; the use of a Wyner-Ziv variable quantization process; the option of partial coding of bitplanes; a correlation channel model based on the estimation of parameters in band and DCT coefficient levels; an inclusion of a normalization stage to the side information; and the development of a channel code more appropriate to the proposed architecture.
4

[pt] REVISITANDO O MARCHING CUBES 33: GARANTIAS TOPOLÓGICAS E QUALIDADE DA MALHA / [en] REVISITING MARCHING CUBES 33: TOPOLOGICAL GUARANTEES AND MESH QUALITY

16 December 2021 (has links)
[pt] O Marching Cubes 33 proposto por Chernyaev é um dos primeiros algoritmos de extração de isosuperfície destinados a preservar a topologia do interpolante trilinear. Neste trabalho, abordamos três problemas no algoritmo do Marching Cubes 33, dois dos quais estão relacionados com a sua descrição original. Em particular, resolvemos um problema no procedimento para resolver ambiguidades interiores do Marching Cubes 33, que impede que a isosuperfície seja extraída corretamente para o caso ambíguo 13.5. O algoritmo Marching Cubes é considerado simples, robusto e com baixo custo computacional, características que contribuíram para torná-lo popular entre os algoritmo de extração de isosuperfícies. Porém no que se refere a qualidade da triangulação da malha resultante, não raramente observamos um grande número de triângulos finos (triângulos com ângulos pequenos) e até mesmo degenerados (triângulos com área zero). Buscando unir à coerência topológica uma melhor qualidade na triangulação gerada, propomos uma extensão da tabela de triangulação proposta por Chernyaev, de modo que os vértices da grade passem a fazer parte da triangulação, eliminando assim a possibilidade de geração de triângulos degenerados. Esta nova tabela é utilizada para evitar a criação de triângulos finos, através de pequenas alterações do campo escalar nos vértices da grade. / [en] Chernyaev s Marching Cubes 33 is one of the first isosurface extraction algorithms intended to preserve the topology of the trilinear interpolant. In this work, we address three issues in the Marching Cubes 33 algorithm, two of which are related to its original description. In particular, we solve a problem with the core disambiguation procedure of Marching Cubes 33 that prevents the extraction of topologically correct isosurfaces for the ambiguous configuration 13.5 thus fixing the original formulation of the algorithm. The Marching Cubes algorithm is considered simple, robust and with low computational cost, characteristics that contributed to make it the most popular algorithm for isosurfaces extraction. However, regarding the quality of the resulting mesh, frequently it is possible to observe a large number of badly-shaped triangles (triangles with small angles) and even degenerate (triangles with zero area) ones. Seeking to unite a better triangulation quality of the resulting mesh to the topological consistency, we propose an extension of the triangulation table proposed by Chernyaev, so that the vertices of the grid become part of the triangulation generated, thus eliminating the possibility of generation of degenerate triangles. This new table is used to avoid the creation of badly-shaped triangles via small changes of the scalar field on the vertices of the grid.
5

[pt] OTIMIZAÇÃO TOPOLÓGICA DE ESTRUTURAS HIPERELÁSTICAS BASEADA EM MÉTODOS DE INTERPOLAÇÃO / [en] TOPOLOGY OPTIMIZATION OF HYPERELASTIC STRUCTURES BASED ON INTERPOLATION METHODS

VINICIUS OLIVEIRA FONTES 21 May 2021 (has links)
[pt] O design otimizado de estruturas considerando não-linearidades tem sido amplamente pesquisado nas décadas recentes. A análise de elementos finitos aplicada à otimização topológica é prejudicada pela deformação excessiva de elementos de baixa densidade sob alta compressão, o que impede o processo de encontrar uma solução ótima. Dois métodos, o esquema Interpolação de Energia e a técnica de Hiperelasticidade Aditiva, são implementados para superar essa dificuldade no problema de minimização da flexibilidade, e modelos de materiais hiperelásticos são usados para investigar suas influências na topologia otimizada. O Método das Assíntotas Móveis é usado para atualizar as variáves de projeto cujas sensibilidades foram calculadas pelo método adjunto. A equação de estado é resolvida através do método de Newton-Raphson com um incremento de carga ajustável para reduzir o custo computacional. Resultados de dois problemas de referência são comparado com aqueles já estabelecidos na literatura. O uso de diferentes modelos hiperelásticos apresentou pouca influência no design final da estrutura. O método de Interpolação de Energia foi capaz de convergir para cargas muito maiores que o método padrão, enquanto a Hiperelasticidade Aditiva apresentou dificuldades de convergência em estado plano de deformação. / [en] The optimized design of structures considering nonlinearities has been widely researched in the recent decades. The finite element analysis applied to topology optimization is jeopardized by the excessive deformation of low-density elements under high compression, which hinders the process of finding an optimal solution. Two methods, the Energy Interpolation scheme and the Additive Hyperelasticity technique, are implemented to overcome this difficulty in the minimum compliance problem, and hyperelastic material models are used to investigate their influence on the optimized topology. The Method of Moving Asymptotes is used to update the design variables whose sensitivities were calculated from the adjoint method. The state equation is solved through the Newton-Raphson method with an adjusting load step to reduce computational cost. Results for two benchmark problems are compared with those already established in the literature. The use of different hyperelastic models presented little influence on the final design of the structure. The Energy Interpolation method was able to converge for much higher loads than the default method, while the Additive Hyperelasticity presented convergence difficulties in plane strain.
6

[en] FORECASTING GEOPHYSICAL MEASUREMENTS: PSEUDO-WELLS / [pt] PREVISÃO DE MEDIÇÕES GEOFÍSICAS: PSEUDO-POÇOS

SAMUEL GUSTAVO HUAMAN BUSTAMANTE 11 April 2014 (has links)
[pt] No presente trabalho de tese é apresentado, analisado e avaliado um método inédito para prever perfis de poço (para um pseudo-poço), a partir de informações dos poços verticais vizinhos e dados de sísmica 3D. Este método é formado por quatro partes principais. Na primeira parte são processados os perfis de raio gama dos poços para produzir um conjunto de sinais estratificados. Estes resultados são utilizados na segunda parte para realizar a correlação lateral de poços, com um método baseado em Algoritmos Genéticos, cujos resultados são intervalos de estratos semelhantes que indicariam a existência de estruturas rochosas contínuas na subsuperfície. Na terceira parte são estimados os deslocamentos, em profundidade, entre alguns estratos do pseudo-poço e dos poços reais. Isto é realizado com um método, baseado em Algoritmos Genéticos, para correlacionar eventos entre traços sísmicos 3D nas posições próximas aos poços reais e ao pseudo-poço. Na quarta parte são utilizados os resultados das outras três partes para interpolar vários tipos de perfis do pseudo-poço, primeiramente, dos estratos semelhantes e, em seguida, dos estratos não semelhantes, ajustados em profundidade. Os resultados desta parte constituem as medições previstas. Os pesos para a interpolação, pelo método de Shepard, são calculados através de uma função que depende da distância entre o pseudo-poço e cada um dos poços utilizados. Um estudo de sete casos é apresentado para avaliar a eficácia do método de previsão. Esses casos utilizam arranjos de dois e três poços do Campo de Namorado na Bacia de Campos (RJ) e, adicionalmente, um poço próximo a cada arranjo serve de padrão para avaliar as medições previstas através do coeficiente de correlação e da média dos erros percentuais absolutos. Em termos globais os resultados das previsões apresentam correlação linear forte e os erros percentuais absolutos estão entre 5 por cento e 30 por centoem relação aos padrões. / [en] In this thesis is presented, analyzed and evaluated a new method to forecast well logs (for a pseudo-well), based on information of the neighboring vertical wells and the 3D seismic data. This method consists of four main parts. In the first part, the gamma ray logs from wellbores are processed to produce a stratified set of signals. In the second part, the stratified signals are used to perform a method of lateral correlation of wells with Genetic Algorithms; whose results are similar intervals strata that would indicate the existence of continuous rock structures in the subsurface. In the third part, a method, based on Genetic Algorithms, are used to estimate displacements in depth between some strata of the pseudo-well and real wells. That method correlates events between 3D seismic traces at positions near the real wells and the pseudo-well. In the fourth part, results from the other three parts are used to interpolate several types of logs of the pseudo-well, first of the similar strata and then of the not similar strata, adjusted in depth. The results of this part are the forecasted measurements. The weights for interpolation, by the method of Shepard, are calculated using a function that depends on the distance between the pseudo-well and each real well. A study of seven cases is presented to evaluate the effectiveness of the forecasting method. These cases use arrangements of two and three wells of the Namorado Field in the Campos Basin (RJ) and additionally a real well near each array serves as a standard for evaluating the forecasted measurements by the correlation coefficient and the mean absolute percentage error. Overall the results showed a strong linear correlation and the mean absolute percentage errors are between 5 per cent and 30 per cent in relation of standard data.
7

[en] ESTIMATION OF THE FAMILY CONSUMPTION FOR NATIONAL ACCOUNTS - THE PROPOSITION OF A METHODOLOGY / [es] ESTIMACIÓN DEL CONSUMO PERSONAL PARA LAS CUENTAS NACIONALES DE BRASIL: UNA METODOLOGÍA PROPUESTA / [pt] ESTIMAÇÃO DO CONSUMO PESSOAL PARA AS CONTAS NACIONAIS DO BRASIL: PROPOSIÇÃO DE UMA METODOLOGIA

JULIO MARCO ALVES DA SILVA 16 July 2001 (has links)
[pt] Tendo como objetivo a construção de uma metodologia para a estimação do agregado do Consumo Pessoal para as Contas Nacionais do Brasil, o presente trabalho contém a definição de uma modificação sobre o Estimador de Regressão de Nadaraya-Watson (NWRE), que objetiva o uso de uma rede neural tipo RBF sobre dados provenientes de duas pesquisas dotadas de planos amostrais amplamente diferenciados, quais sejam: POF e PNAD. A partir da aplicação de tal modelo, são obtidos dados e calculados erros estimados, além de outras estatísticas que se mostram úteis na validação das estimativas. / [en] It is the objective of this dissertation to produce a methodological framework to the estimation of the Family Comsumption agregate in the brasilian National Accounts. In order to perform this task, a modification in the Nadaraya-Watson Regression Estimator (NWRE) has been developed, intended to allow the use of an RBF neural network in the context of data originated in two surveys which significantly differ in sample design, which are POF and PNAD. From the application of the developed methodology, groups of data are presented, providing results, estimated errors and other statistics useful for the comprehension and validation of the model. / [es] El objetivo de este trabajo es establecer una metodologia para la estimación del agregado del Consumo familiar para las Cuentas Nacionales del Brasil. Para ello, se define una modificación sobre el Estimador de Regresión de Nadaraya- Watson (NWRE), que tiene como objetivo el uso de una red neural tipo RBF sobre datos provenientes de dos investigaciones dotadas de planos muestrales ampliamente diferenciados: POF y PNAD. A partir de la aplicación de tal modelo, se obtienen los datos y se calculan los erros estimados, además de otras estadísticas útiles en la evaluación de las estimativas.

Page generated in 0.0399 seconds