1 |
[en] ADAPTIVE QUANTIZATION IN DPCM SYSTEMS / [pt] QUANTIZAÇÃO ADAPTIVA EM SISTEMAS DPCMABRAHAM ALCAIM 07 May 2007 (has links)
[pt] Em algumas aplicações, como por exemplo sinais de dados,
a
variância do sinal pode ser desconhecida, porém
constante.
Nesses casos, quantizadores adaptivos que utilizam
algoritmos de estimação local da variância não são
apropriados para a discretização do sinal. Algoritmos
mais
adequados para essa situação são aqueles que se
preocupam
em aprender a variância do sinal de entrada.
Neste trabalho são examinados quatro algoritmos de
aprendizagem de variância, com vistas ao seu emprego em
quatização adaptiva. Um destes algoritmos, proposto por
A.
Gersho e D. J. Goodman, é um algoritmo de aproximação
estocástica que converge com probabilidade 1. É mostrado
que um outro algoritmo, também de aproximação
estocástica,
converge com probabilidade 1 para a aplicação em um
quantizador adaptivo com entradas independentes. Os
outros
dois algoritmos consistem de modificações introduzidas
sobre dois primeiros, com a finalidade de obter uma
maior
velocidade de convergência. Finalmente, é analisado,
através de simulações em computador, o desempenho desses
quatro quantizadores adaptivos quando usados em sistemas
DPCM. / [en]
In some applications, such as data transmission, signal
variance is unknown but constant. In such cases, adaptive
quantizers using local variance estimation algorithms are
not appropriate for the signal quantizations. The most
suitable algorithms for this situation are those which
learn the input signal variance.
This work examines four variance learning algorithms for
application in adaptive quantization. One of them,
proposed by A. Gersho and D. J. Goodman, is a stochastic
approximation algorithm which converges with probability
one, when applied to adaptive quantization. The remaining
two algorithms are modified versions of the first two, in
order to obtain greater convergence speed. Finally,
performance of these four adaptive quantizers, when used
in DPCM systems, is analyzed through computer simulations.
|
2 |
[en] AUTOCALIBRATION OF FREQUENCY STANDARDS USING THE INTERNET / [es] CALIBRACIÓN AUTOMÁTICA DE PADRONES DE TIEMPO Y FRECUENCIA VÍA INTERNET / [pt] CALIBRAÇÃO AUTOMÁTICA DE PADRÕES ATÔMICOS DE TEMPO E FREQÜÊNCIA VIA INTERNETDALTON VILELA CAMILHER 10 October 2001 (has links)
[pt] A calibração de padrões atômicos de tempo e freqüência, na
forma atualmente realizada, apresenta o inconveniente de
ter que se fazer o transporte do Padrão de Transferência
até os laboratórios onde se encontram os padrões a serem
calibrados. Isto se dá pelo fato destes laboratórios não
possuírem uma maneira adequada para enviarem seus padrões
ao Departamento do Serviço da Hora do Observatório Nacional
(DSH/ON), órgão responsável perante o INMETRO na calibração
em tempo e freqüência e detentor do Padrão Nacional. Propõe-
se aqui a substituição do procedimento atual por um sistema
de calibração automática via Internet, o que elimina a
necessidade do deslocamento do Padrão de Transferência.
Neste novo sistema de calibração, a referência passa a ser
um receptor de GPS (Global Position Sistem), que assume o
papel de Padrão de Transferência, ao qual o padrão a ser
calibrado é ininterruptamente comparado. O acesso e
armazenamento dos dados pelo DSH/ON é feito por meio de um
programa que controla remotamente a calibração no
laboratório via conexão pela Internet. O presente trabalho
envolve uma comparação entre o sistema atual e o proposto
aqui, todo o desenvolvimento e apresentação do programa
computacional, a montagem de um sistema completo de
simulação prática, inclusive com acesso remoto via
Internet, a coleta e tratamento dos dados e a apresentação
do procedimento utilizado para se chegar à incerteza de
medição do sistema. Procura-se ressaltar a vantagem de
um sistema de calibração automático, quanto à coleta dos
dados, assim como a não dependência do transporte do Padrão
de Transferência para a realização da calibração, evitando-
se com isto a sua deterioração . Na conclusão deste
trabalho a incerteza obtida é comparada com a do
procedimento atualmente em prática e a partir desta
comparação são feitas considerações quanto à implementação
do novo sistema e ao uso do r eceptor de GPS como Padrão de
Transferência. / [en] The time and frequency calibration of atomic standards
presents the inconvenience of the need of transportation of
the Transfer Standard to the laboratories in which stay the
standards to be calibrate. This happens because the
laboratories do not possess a way to send its standards to
the Departamento do Serviço da Hora do Observatório
Nacional (DSH/ON), organ representative of INMETRO in Time
and Frequency calibrations and detainer of the National
Standard. This work intends the substitution of the
procedure adopted today by a system of automatic
calibration using Internet, eliminating the need of the
displacement of the Transfer Standard. In this new
procedure, the reference is t he Global Position Sistem
(GPS) receiver, assuming the role of the Transfer Standard,
to which the standard to be calibrate is compared
continuosly. The access and storage of the data for the
DSH/ON are made by means of a computer code that remotely
controls the calibration through an Internet connection.
The present work involves a comparison among both systems,
the whole development and presentation of the computer
code, the assembling of a complete system of practical
simulation, the acquisition and data treatment and the
presentation of the procedure used to obtain the
measurement of the uncertainty. The advantage of an
automatic calibration system, as well as of the collection
of the data, is the fact that it not depending of the
transportation of the Reference Standard for the
accomplishment of the calibratio. As a conclusion of this
work the obtained uncertainty is compared with the one in
use today and based in this comparison we made
considerations about the implementation of the new system
and the use of the GPS receiver as Transfer Standard. / [es] La calibración de padrones atómicos de tiempo y frecuencia,
en la forma actualmente realizada, tiene el inconveniente
de tener que realizar el transporte del Padrón de
Transferencia hasta los laboratorios donde se encuentran
los padrones que serán calibrados. Esto se debe al hecho de
que estos laboratorios no poseen una manera adecuada para
enviar sus padrones al Departamento de Servicio de la Hora
del Observatorio Nacional (DSH/ON), óprgano responsable
frente al INMETRO en la calibración en tiempo y frecuencia
y detentor del Padrón Nacional. Se propone aqui la
substituición del procedimiento actual por un sistema de
calibración automática vía Internet, que elimina la
necesidad del desplazamiento del Padrón de transferencia.
En este nuevo sistema de calibración, la referencia pasa a
ser un receptor de GPS (Global Position Sistem), que asume
el papel de Padrón de Transferencia, al cual el padrón a
ser calibrado es ininterruptamente comparado. El acceso y
almacenamiento de los datos por el DSH/ON se realiza a
través de un programa que controla remotamente la
calibración en el laboratorio vía conexión por Internet. El
presente trabajo compara el sistema actual con el aqui
propuesto, todo el desarrollo y presenta el programa
computacional, el montaje de un sistema completo de
simulación práctica, incluso con acceso remoto víaa
Internet, la recolección y tratamiento de datos y la
presentación del procedimiento utilizado para llegar a los
erros de medición del sistema. Se resalta la ventaja de un
sistema de calibración automático, así como la no
dependencia del transporte del Padrón de Transferencia para
la realización de la calibración, evitando con esto su
deterioración. En la conclusión de este trabajo se compara
el error obtenido con el del procedimiento actualmente en
práctica y a partir de esta comparación se realizan
consideraciones respecto a la implementación del nuevo
sistema y al uso del receptor de GPS como Padrón de
Transferencia.
|
3 |
[en] STATISTICAL CONTROL OF MULTIPLE STREAM PROCESS / [pt] CONTROLE ESTATÍSTICO DE PROCESSOS MULTICANALBRUNO FRANCISCO TEIXEIRA SIMOES 30 August 2010 (has links)
[pt] Processos Multicanal (PMC) estão presentes nas linhas de produção de muitos
segmentos industriais, tais como na indústria alimentícia, farmacêutica, de fabricação de
aço e de papel. No entanto, há poucos trabalhos na literatura dedicados ao controle
estatístico de processos dessa natureza. O trabalho de Boyd (1950) é o primeiro deles.
Neste trabalho são descritos os gráficos de controle de grupos (GCG). Este é o
procedimento tradicional, recomendado em textos didáticos de CEP como Pyzdek (1992)
e Montgomery (até a 3a edição, de 1997). Posteriormente, Mortell e Runger (1995)
elaboram um modelo matemático mais realista para PMC, decompondo a fonte de
variação do processo em duas componentes distintas: uma, comum a todos os canais e
outra, correspondendo à variação individual de cada canal do processo. Tal modelo foi
tão bem aceito na literatura que, desde a sua publicação, tem sido utilizado para o
desenvolvimento de esquemas de controle mais eficientes para PMC. Dos esquemas
desenvolvidos na versão Shewhart, para o controle estatístico das médias das
componentes individuais de variação, devem ser destacados os gráficos de controle de
Mortell e Runger (1995), de Runger, Alt e Montgomery (1996) e o GCG de Barbosa
(2008). Dentre os esquemas mencionados, somente os dois primeiros foram
desenvolvidos tanto em uma versão de Shewhart como em uma versão EWMA
(Exponentially Weighted Moving Average), visando obter maior sensibilidade a pequenas
alterações na média. Esta tese traz novas propostas para PMC bem representados pelo
modelo de Mortell e Runger (1995). Propõe-se a análise da eficiência dos gráficos de
controle existentes na detecção de aumentos na dispersão de um canal, bem como o
desenvolvimento, na versão Shewhart e EWMA, de novos GCG especificamente
destinados à sinalização de tais aumentos. Quando não é viável obter mais de uma
observação por canal do processo, propõem-se os gráficos: GCG de MR das diferenças
em relação ao nível-base (DNB) e GCG EWMA MR DNB. Já para as situações em que é
possível obter mais de uma observação por canal, propõem-se: GCG de S(2) e GCG
EWMA de ln[S(2)]. É importante ressaltar que todos os trabalhos desenvolvidos na
literatura (seguindo o modelo de Mortell e Runger, 1995) foram dedicados
exclusivamente ao controle estatístico da média das componentes individuais de variação,
portanto, esta tese tem caráter inédito. Além das contribuições mencionadas, visando
obter maior sensibilidade a alterações de pequena magnitude na média das componentes
individuais, propõe-se e analisa-se uma versão EWMA do GCG de Barbosa (2008), o
mais eficiente na versão Shewhart. Adicionalmente, para obter esquemas EWMA mais
eficientes, são obtidos os projetos ótimos de todos os esquemas EWMA apresentados
nesta tese, incluindo os gráficos de controle de EWMA de R(t) de Mortell e Runger (1995)
e de MEWMA de S(2) de Runger, Alt e Montgomery (1996). São analisadas as curvas de
desempenho de todos os esquemas de controle para uma variedade de situações. Nas
análises de desempenho, pode-se observar que os esquemas propostos nesta tese são os
mais eficientes. / [en] In a multiple stream process (MSP), a same quality variable is measured in
several streams in parallel. The first tool proposed for monitoring MSPs was the Group
Control Chart (GCC) by Boyd (1950). These schemes are recommended in textbooks and
guides as Pyzdek (1992) and Montgomery (until 3rd edition, 1997). Its efficiency is
impaired by the presence of cross correlation between streams. A useful model for MSPs
(Mortell and Runger, 1995) represents the value of the quality variable in each stream at
any time t as the sum of a random variable (or stochastic process) but that is common to
all streams, which can be called base level, plus the individual variation of each stream
relative to the base level. In the literature, three different Shewhart schemes were
developed to control the individual variation of each stream: Mortell e Runger (1995),
Runger, Alt and Montgomery (1996) and Barbosa (2008). Only the two first ones were
developed both in a Shewhart-type and a EWMA (Exponentially Weighted Moving
Average) version. All these schemes were devoted to monitoring the mean of the
individual components of the streams; to the best of our knowledge, no previous work
considered the case of increases in the variance of a stream. In this thesis four different
GCCs for monitoring the inner variability of the individual streams are developed: a GCC
of S(2), the sample variance of each stream (which is not the same as Runger, Alt and
Montgomery’s statistics); a GCC of EWMA[lnS(2)]; a GCC of the Moving Ranges of the
residuals of each stream to the estimated base level, and an EWMA version of it. The last
two GCCs cater for the case where, at every sampling time, only individual observations
per stream are feasible, which is frequent with a large number of streams. Beyond the
mentioned contributions, aiming at more sensitivity to the small shifts in the mean of the
individual components, this work proposes a EWMA version of the GCC by Barbosa
(2008), the most efficient in the Shewhart version. The ARL performance of every one of
these schemes is analyzed, in a variety of situations, including the case of increases in the
variance of one stream when the schemes are designed for monitoring the means of
individual streams. The results show that the proposed schemes are the fastest in
detecting special causes that affect one individual stream.
|
4 |
[en] A COMPARATIVE STUDY OF THE FORECAST CAPABILITY OF VOLATILITY MODELS / [pt] ESTUDO COMPARATIVO DA CAPACIDADE PREDITIVA DE MODELOS DE ESTIMAÇÃO DE VOLATILIDADELUIS ANTONIO GUIMARAES BENEGAS 15 January 2002 (has links)
[pt] O conceito de risco é definido como a distribuição de
resultados inesperados devido a alterações nos valores das
variáveis que descrevem o mercado. Entretanto, o risco não
é uma variável observável e sua quantificação depende do
modelo empregado para avaliá-lo. Portanto, o uso de
diferentes modelos pode levar a previsões de risco
significativamente diferentes.O objetivo principal desta
dissertação é realizar um estudo comparativo dos modelos
mais amplamente utilizados (medição de variância amostral
nos últimos k períodos, modelos de amortecimento
exponencial e o GARCH(1,1) de Bollerslev) quanto à
capacidade preditiva da volatilidade.Esta dissertação
compara os modelos de estimação de volatilidade citados
acima quanto à sua capacidade preditiva para carteiras
compostas por um conjunto de ações negociadas no mercado
brasileiro. As previsões de volatilidade desses modelos
serão comparadas com a volatilidade real fora da amostra.
Como a volatilidade real não é uma variável observável,
usou-se o mesmo procedimento adotado pelo RiskMetrics para
o cálculo do fator de decaimento ótimo: assumiu-se a
premissa que o retorno médio de cada uma das carteiras de
ações estudadas é igual a zero e,como conseqüência disso, a
previsão um passo à frente da variância do retorno
realizada na data t é igual ao valor esperado do quadrado
do retorno na data t.O objetivo final é concluir, por meio
de técnicas de backtesting, qual dos modelos de previsão de
volatilidade apresentou melhor performance quanto aos
critérios de comparação vis-à-vis ao esforço computacional
necessário. Dessa forma, pretende-se avaliar qual desses
modelos oferece a melhor relação custo-benefício para o
mercado acionário brasileiro. / [en] The risk concept is defined as the distribution of the
unexpected results from variations in the values of the
variables that describe the market. However, the variable
risk is not observable and its measurement depends on which
model is used in its evaluation. Thus, the application of
different models could result in significant different risk
forecasts.The goal of this study is to carry out a
comparison within the largest used models (sample
variance in the last k observations, exponentially
smoothing models and the Bollerslev s model GARCH(1,1)).
The study compares the models mentioned above regarding its
forecast capability of the volatility for portfolios of
selected brazilian stocks. The volatility forecasts will be
compared to the actual out of sample volatility. As long as
the actual volatility is not an observable variable, the
same procedure adopted by RiskMetrics in the calculation
of the optimum decay factor will be used: it assumes the
premise that the average return of which one of the stock
portfolios is equal zero and, as the consequence of this
fact, the one step variance forecast of the portfolio
return carried out on date t is equal to expected value of
the squared return of date t.The final objective is to
conclude, using backtesting techniques, which of the
forecasting volatility models show the best performance
regarding the comparison criterions vis-a-vis the
demanding computer efforts. By this way, it was aimed to
evaluate which of them offer the best cost-benefit relation
for the brazilian equity market.
|
Page generated in 0.0349 seconds