• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • Tagged with
  • 4
  • 4
  • 4
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

[en] ADAPTIVE QUANTIZATION IN DPCM SYSTEMS / [pt] QUANTIZAÇÃO ADAPTIVA EM SISTEMAS DPCM

ABRAHAM ALCAIM 07 May 2007 (has links)
[pt] Em algumas aplicações, como por exemplo sinais de dados, a variância do sinal pode ser desconhecida, porém constante. Nesses casos, quantizadores adaptivos que utilizam algoritmos de estimação local da variância não são apropriados para a discretização do sinal. Algoritmos mais adequados para essa situação são aqueles que se preocupam em aprender a variância do sinal de entrada. Neste trabalho são examinados quatro algoritmos de aprendizagem de variância, com vistas ao seu emprego em quatização adaptiva. Um destes algoritmos, proposto por A. Gersho e D. J. Goodman, é um algoritmo de aproximação estocástica que converge com probabilidade 1. É mostrado que um outro algoritmo, também de aproximação estocástica, converge com probabilidade 1 para a aplicação em um quantizador adaptivo com entradas independentes. Os outros dois algoritmos consistem de modificações introduzidas sobre dois primeiros, com a finalidade de obter uma maior velocidade de convergência. Finalmente, é analisado, através de simulações em computador, o desempenho desses quatro quantizadores adaptivos quando usados em sistemas DPCM. / [en] In some applications, such as data transmission, signal variance is unknown but constant. In such cases, adaptive quantizers using local variance estimation algorithms are not appropriate for the signal quantizations. The most suitable algorithms for this situation are those which learn the input signal variance. This work examines four variance learning algorithms for application in adaptive quantization. One of them, proposed by A. Gersho and D. J. Goodman, is a stochastic approximation algorithm which converges with probability one, when applied to adaptive quantization. The remaining two algorithms are modified versions of the first two, in order to obtain greater convergence speed. Finally, performance of these four adaptive quantizers, when used in DPCM systems, is analyzed through computer simulations.
2

[en] AUTOCALIBRATION OF FREQUENCY STANDARDS USING THE INTERNET / [es] CALIBRACIÓN AUTOMÁTICA DE PADRONES DE TIEMPO Y FRECUENCIA VÍA INTERNET / [pt] CALIBRAÇÃO AUTOMÁTICA DE PADRÕES ATÔMICOS DE TEMPO E FREQÜÊNCIA VIA INTERNET

DALTON VILELA CAMILHER 10 October 2001 (has links)
[pt] A calibração de padrões atômicos de tempo e freqüência, na forma atualmente realizada, apresenta o inconveniente de ter que se fazer o transporte do Padrão de Transferência até os laboratórios onde se encontram os padrões a serem calibrados. Isto se dá pelo fato destes laboratórios não possuírem uma maneira adequada para enviarem seus padrões ao Departamento do Serviço da Hora do Observatório Nacional (DSH/ON), órgão responsável perante o INMETRO na calibração em tempo e freqüência e detentor do Padrão Nacional. Propõe- se aqui a substituição do procedimento atual por um sistema de calibração automática via Internet, o que elimina a necessidade do deslocamento do Padrão de Transferência. Neste novo sistema de calibração, a referência passa a ser um receptor de GPS (Global Position Sistem), que assume o papel de Padrão de Transferência, ao qual o padrão a ser calibrado é ininterruptamente comparado. O acesso e armazenamento dos dados pelo DSH/ON é feito por meio de um programa que controla remotamente a calibração no laboratório via conexão pela Internet. O presente trabalho envolve uma comparação entre o sistema atual e o proposto aqui, todo o desenvolvimento e apresentação do programa computacional, a montagem de um sistema completo de simulação prática, inclusive com acesso remoto via Internet, a coleta e tratamento dos dados e a apresentação do procedimento utilizado para se chegar à incerteza de medição do sistema. Procura-se ressaltar a vantagem de um sistema de calibração automático, quanto à coleta dos dados, assim como a não dependência do transporte do Padrão de Transferência para a realização da calibração, evitando- se com isto a sua deterioração . Na conclusão deste trabalho a incerteza obtida é comparada com a do procedimento atualmente em prática e a partir desta comparação são feitas considerações quanto à implementação do novo sistema e ao uso do r eceptor de GPS como Padrão de Transferência. / [en] The time and frequency calibration of atomic standards presents the inconvenience of the need of transportation of the Transfer Standard to the laboratories in which stay the standards to be calibrate. This happens because the laboratories do not possess a way to send its standards to the Departamento do Serviço da Hora do Observatório Nacional (DSH/ON), organ representative of INMETRO in Time and Frequency calibrations and detainer of the National Standard. This work intends the substitution of the procedure adopted today by a system of automatic calibration using Internet, eliminating the need of the displacement of the Transfer Standard. In this new procedure, the reference is t he Global Position Sistem (GPS) receiver, assuming the role of the Transfer Standard, to which the standard to be calibrate is compared continuosly. The access and storage of the data for the DSH/ON are made by means of a computer code that remotely controls the calibration through an Internet connection. The present work involves a comparison among both systems, the whole development and presentation of the computer code, the assembling of a complete system of practical simulation, the acquisition and data treatment and the presentation of the procedure used to obtain the measurement of the uncertainty. The advantage of an automatic calibration system, as well as of the collection of the data, is the fact that it not depending of the transportation of the Reference Standard for the accomplishment of the calibratio. As a conclusion of this work the obtained uncertainty is compared with the one in use today and based in this comparison we made considerations about the implementation of the new system and the use of the GPS receiver as Transfer Standard. / [es] La calibración de padrones atómicos de tiempo y frecuencia, en la forma actualmente realizada, tiene el inconveniente de tener que realizar el transporte del Padrón de Transferencia hasta los laboratorios donde se encuentran los padrones que serán calibrados. Esto se debe al hecho de que estos laboratorios no poseen una manera adecuada para enviar sus padrones al Departamento de Servicio de la Hora del Observatorio Nacional (DSH/ON), óprgano responsable frente al INMETRO en la calibración en tiempo y frecuencia y detentor del Padrón Nacional. Se propone aqui la substituición del procedimiento actual por un sistema de calibración automática vía Internet, que elimina la necesidad del desplazamiento del Padrón de transferencia. En este nuevo sistema de calibración, la referencia pasa a ser un receptor de GPS (Global Position Sistem), que asume el papel de Padrón de Transferencia, al cual el padrón a ser calibrado es ininterruptamente comparado. El acceso y almacenamiento de los datos por el DSH/ON se realiza a través de un programa que controla remotamente la calibración en el laboratorio vía conexión por Internet. El presente trabajo compara el sistema actual con el aqui propuesto, todo el desarrollo y presenta el programa computacional, el montaje de un sistema completo de simulación práctica, incluso con acceso remoto víaa Internet, la recolección y tratamiento de datos y la presentación del procedimiento utilizado para llegar a los erros de medición del sistema. Se resalta la ventaja de un sistema de calibración automático, así como la no dependencia del transporte del Padrón de Transferencia para la realización de la calibración, evitando con esto su deterioración. En la conclusión de este trabajo se compara el error obtenido con el del procedimiento actualmente en práctica y a partir de esta comparación se realizan consideraciones respecto a la implementación del nuevo sistema y al uso del receptor de GPS como Padrón de Transferencia.
3

[en] STATISTICAL CONTROL OF MULTIPLE STREAM PROCESS / [pt] CONTROLE ESTATÍSTICO DE PROCESSOS MULTICANAL

BRUNO FRANCISCO TEIXEIRA SIMOES 30 August 2010 (has links)
[pt] Processos Multicanal (PMC) estão presentes nas linhas de produção de muitos segmentos industriais, tais como na indústria alimentícia, farmacêutica, de fabricação de aço e de papel. No entanto, há poucos trabalhos na literatura dedicados ao controle estatístico de processos dessa natureza. O trabalho de Boyd (1950) é o primeiro deles. Neste trabalho são descritos os gráficos de controle de grupos (GCG). Este é o procedimento tradicional, recomendado em textos didáticos de CEP como Pyzdek (1992) e Montgomery (até a 3a edição, de 1997). Posteriormente, Mortell e Runger (1995) elaboram um modelo matemático mais realista para PMC, decompondo a fonte de variação do processo em duas componentes distintas: uma, comum a todos os canais e outra, correspondendo à variação individual de cada canal do processo. Tal modelo foi tão bem aceito na literatura que, desde a sua publicação, tem sido utilizado para o desenvolvimento de esquemas de controle mais eficientes para PMC. Dos esquemas desenvolvidos na versão Shewhart, para o controle estatístico das médias das componentes individuais de variação, devem ser destacados os gráficos de controle de Mortell e Runger (1995), de Runger, Alt e Montgomery (1996) e o GCG de Barbosa (2008). Dentre os esquemas mencionados, somente os dois primeiros foram desenvolvidos tanto em uma versão de Shewhart como em uma versão EWMA (Exponentially Weighted Moving Average), visando obter maior sensibilidade a pequenas alterações na média. Esta tese traz novas propostas para PMC bem representados pelo modelo de Mortell e Runger (1995). Propõe-se a análise da eficiência dos gráficos de controle existentes na detecção de aumentos na dispersão de um canal, bem como o desenvolvimento, na versão Shewhart e EWMA, de novos GCG especificamente destinados à sinalização de tais aumentos. Quando não é viável obter mais de uma observação por canal do processo, propõem-se os gráficos: GCG de MR das diferenças em relação ao nível-base (DNB) e GCG EWMA MR DNB. Já para as situações em que é possível obter mais de uma observação por canal, propõem-se: GCG de S(2) e GCG EWMA de ln[S(2)]. É importante ressaltar que todos os trabalhos desenvolvidos na literatura (seguindo o modelo de Mortell e Runger, 1995) foram dedicados exclusivamente ao controle estatístico da média das componentes individuais de variação, portanto, esta tese tem caráter inédito. Além das contribuições mencionadas, visando obter maior sensibilidade a alterações de pequena magnitude na média das componentes individuais, propõe-se e analisa-se uma versão EWMA do GCG de Barbosa (2008), o mais eficiente na versão Shewhart. Adicionalmente, para obter esquemas EWMA mais eficientes, são obtidos os projetos ótimos de todos os esquemas EWMA apresentados nesta tese, incluindo os gráficos de controle de EWMA de R(t) de Mortell e Runger (1995) e de MEWMA de S(2) de Runger, Alt e Montgomery (1996). São analisadas as curvas de desempenho de todos os esquemas de controle para uma variedade de situações. Nas análises de desempenho, pode-se observar que os esquemas propostos nesta tese são os mais eficientes. / [en] In a multiple stream process (MSP), a same quality variable is measured in several streams in parallel. The first tool proposed for monitoring MSPs was the Group Control Chart (GCC) by Boyd (1950). These schemes are recommended in textbooks and guides as Pyzdek (1992) and Montgomery (until 3rd edition, 1997). Its efficiency is impaired by the presence of cross correlation between streams. A useful model for MSPs (Mortell and Runger, 1995) represents the value of the quality variable in each stream at any time t as the sum of a random variable (or stochastic process) but that is common to all streams, which can be called base level, plus the individual variation of each stream relative to the base level. In the literature, three different Shewhart schemes were developed to control the individual variation of each stream: Mortell e Runger (1995), Runger, Alt and Montgomery (1996) and Barbosa (2008). Only the two first ones were developed both in a Shewhart-type and a EWMA (Exponentially Weighted Moving Average) version. All these schemes were devoted to monitoring the mean of the individual components of the streams; to the best of our knowledge, no previous work considered the case of increases in the variance of a stream. In this thesis four different GCCs for monitoring the inner variability of the individual streams are developed: a GCC of S(2), the sample variance of each stream (which is not the same as Runger, Alt and Montgomery’s statistics); a GCC of EWMA[lnS(2)]; a GCC of the Moving Ranges of the residuals of each stream to the estimated base level, and an EWMA version of it. The last two GCCs cater for the case where, at every sampling time, only individual observations per stream are feasible, which is frequent with a large number of streams. Beyond the mentioned contributions, aiming at more sensitivity to the small shifts in the mean of the individual components, this work proposes a EWMA version of the GCC by Barbosa (2008), the most efficient in the Shewhart version. The ARL performance of every one of these schemes is analyzed, in a variety of situations, including the case of increases in the variance of one stream when the schemes are designed for monitoring the means of individual streams. The results show that the proposed schemes are the fastest in detecting special causes that affect one individual stream.
4

[en] A COMPARATIVE STUDY OF THE FORECAST CAPABILITY OF VOLATILITY MODELS / [pt] ESTUDO COMPARATIVO DA CAPACIDADE PREDITIVA DE MODELOS DE ESTIMAÇÃO DE VOLATILIDADE

LUIS ANTONIO GUIMARAES BENEGAS 15 January 2002 (has links)
[pt] O conceito de risco é definido como a distribuição de resultados inesperados devido a alterações nos valores das variáveis que descrevem o mercado. Entretanto, o risco não é uma variável observável e sua quantificação depende do modelo empregado para avaliá-lo. Portanto, o uso de diferentes modelos pode levar a previsões de risco significativamente diferentes.O objetivo principal desta dissertação é realizar um estudo comparativo dos modelos mais amplamente utilizados (medição de variância amostral nos últimos k períodos, modelos de amortecimento exponencial e o GARCH(1,1) de Bollerslev) quanto à capacidade preditiva da volatilidade.Esta dissertação compara os modelos de estimação de volatilidade citados acima quanto à sua capacidade preditiva para carteiras compostas por um conjunto de ações negociadas no mercado brasileiro. As previsões de volatilidade desses modelos serão comparadas com a volatilidade real fora da amostra. Como a volatilidade real não é uma variável observável, usou-se o mesmo procedimento adotado pelo RiskMetrics para o cálculo do fator de decaimento ótimo: assumiu-se a premissa que o retorno médio de cada uma das carteiras de ações estudadas é igual a zero e,como conseqüência disso, a previsão um passo à frente da variância do retorno realizada na data t é igual ao valor esperado do quadrado do retorno na data t.O objetivo final é concluir, por meio de técnicas de backtesting, qual dos modelos de previsão de volatilidade apresentou melhor performance quanto aos critérios de comparação vis-à-vis ao esforço computacional necessário. Dessa forma, pretende-se avaliar qual desses modelos oferece a melhor relação custo-benefício para o mercado acionário brasileiro. / [en] The risk concept is defined as the distribution of the unexpected results from variations in the values of the variables that describe the market. However, the variable risk is not observable and its measurement depends on which model is used in its evaluation. Thus, the application of different models could result in significant different risk forecasts.The goal of this study is to carry out a comparison within the largest used models (sample variance in the last k observations, exponentially smoothing models and the Bollerslev s model GARCH(1,1)). The study compares the models mentioned above regarding its forecast capability of the volatility for portfolios of selected brazilian stocks. The volatility forecasts will be compared to the actual out of sample volatility. As long as the actual volatility is not an observable variable, the same procedure adopted by RiskMetrics in the calculation of the optimum decay factor will be used: it assumes the premise that the average return of which one of the stock portfolios is equal zero and, as the consequence of this fact, the one step variance forecast of the portfolio return carried out on date t is equal to expected value of the squared return of date t.The final objective is to conclude, using backtesting techniques, which of the forecasting volatility models show the best performance regarding the comparison criterions vis-a-vis the demanding computer efforts. By this way, it was aimed to evaluate which of them offer the best cost-benefit relation for the brazilian equity market.

Page generated in 0.0396 seconds