41 |
[en] CONTRIBUITIONS TO IMPROVING CELP CODING AT LOW BIT RATS / [pt] CONTRIBUIÇÕES PARA A MELHORIA DA CODIFICAÇÃO CELP A BAIXAS TAXAS DE BITSLUCIO MARTINS DA SILVA 24 May 2006 (has links)
[pt] Esta tese propõe novas melhorias para a codificação CELP a
baixas taxas de bits. Primeiro, é proposto um algoritmo
CELP em que a complexidade do procedimento de busca no
dicionário adaptativo é grandemente reduzida, graças a uma
modificação introduzida no modelo de síntese CELP.
Resultados de simulação mostram que a qualidade da voz
codificada com o algoritmo CELP proposto tem qualidade
comparável àquela obtida com o algoritmo CELP convencional.
As demais contribuições têm o propósito de melhorar a
qualidade da voz codificada com o algoritmo CELP a baixas
taxas de bits. Uma delas propicia uma codificação mais
eficiente da envoltória espectral LPC da voz: é,
especificamente, um esquema que combina quantização
vetorial e interpolação interbloco dos parâmetros LSF. Com
este esquema a envoltória espectral LPC codificada tem boa
qualidade a uma taxa de bits tão baixa quanto 1 kb/s.
A voz codificada com os algoritmos CELP apresenta
freqüentemente distorções em sua envoltória espectral que
são causadas por deficiências do sinal de excitação. Esta
tese propõe um novo pós-filtro que reduz estas distorções
e, com isso, melhora significativamente a qualidade
subjetiva da voz codificada.
A baixas taxas de bits a estrutura CELP convencional é
incapaz de reproduzir com boa qualidade os ataques dos
sons sonoros, que são cruciais para uma boa percepção da
voz. Nesta tese é descrito um algoritmo CELP que dá
prioridade a estes segmentos críticos. Cada bloco da voz é
classificado em um dentre dezesseis padrões de sonoridade
e cada padrão tem uma configuração de codificação e
alocação de bits distintas. Resultados de simulação
mostram que a qualidade da voz codificada a 4 kb/s com o
algoritmo CELP proposto é significativamente melhor do que
aquela conseguida com um codificador CELP convencional,
também operando a 4 kb/s. / [en] This work presents new improvements to CELP speech coding
at low bit rates. First, a CELP algorithm is proposed in
wich the complexity of the adaptive codebook search is
gratly decreased. This is achieved by means of a modified
model of the CELP synthesizer. Simulation results show
that the proposed algorithm can provide speech quality
comparable to one obtained with the conventional CELP
codec.
The rest of contributions aim to improve the quality of
speech codec at low bit rates with CELP algorithm. One of
them is an efficient scheme for coding the LPC spectral
envelope of speech for coding the LPC spectral envelope of
speech. The proposed scheme combines vector quantization
and interpolation of LSF parameters, and it provides a
coded spectral envelope with very good quality at 1 kb/s.
Speech coded with CELP codecs frequently displays
distortions in its spectral envelope that are produced by
deficient excitation. This thesis proposes a new
postfilter that enhances the perceptual quality of codec
speech by decreasin these distortions.
This work presents new improvements to CELP speech coding
at low bit rates. First, a CELP algorithm is proposed in
wich the complexity of the adaptive codebook search is
gratly decreased. This is achieved by means of a modified
model of the CELP synthesizer. Simulation results show
that the proposed algorithm can provide speech quality
comparable to one obtained with the conventional CELP
codec.
The rest of contributions aim to improve the quality of
speech codec at low bit rates with CELP algorithm. One of
them is an efficient scheme for coding the LPC spectral
envelope of speech for coding the LPC spectral envelope of
speech. The proposed scheme combines vector quantization
and interpolation of LSF parameters, and it provides a
coded spectral envelope with very good quality at 1 kb/s.
Speech coded with CELP codecs frequently displays
distortions in its spectral envelope that are produced by
deficient excitation. This thesis proposes a new
postfilter that enhances the perceptual quality of codec
speech by decreasin these distortions.
Voiced onsets are crucial for a good perception of speech
but, at low bit rates, the conventional CELP is unable to
reproduce them with good quality. This work presents a
CELP algorithm into one of a set of sixteen voicing
patterns. A distinct coding configuration and bit
allocation are applied to each pattern. Simulation results
show that the quality of speech codec with the proposed 4
kb/s CELP codec is significantly bette than the one
obtained with conventional 4 kb/s CELP codec.
|
42 |
[en] CONTINUOUS SPEECH RECOGNITION FOR THE PORTUGUESE USING HIDDEN MARKOV MODELS / [pt] RECONHECIMENTO DE VOZ CONTÍNUA PARA O PORTUGUÊS UTILIZANDO MODELOS DE MARKOV ESCONDIDOSSIDNEY CERQUEIRA BISPO DOS SANTOS 24 May 2006 (has links)
[pt] Esta tese apresenta contribuições par a melhoria de
sistemas de reconhecimento de voz contínua, utilizando
Modelos de Markov Escondidos. A maioria dessas
contribuições são específicas para aplicações que envolvem
a língua portuguesa. Inicialmente, são propostos dois
inventários reduzidos de unidades fonéticas a partir de
características do português brasileiro. São analisadas
algumas formas de inicialização e propõe-se um método
rápido e eficaz de inicialização dos modelos dessas
unidades. Escolhe-se um método de segmentação, a forma de
concatenação dos modelos para a formação de modelos de
palavras e sentenças e propõe-se um algoritmo eficiente
para o treinamento. Resultado de simulações mostram que o
desempenho dos dois inventários são comparáveis, qundo
utilizados com gramática bigrama. O número de unidades
desses inventários é bastante reduzido quando comparado ao
inventário das unidades dependentes do contexto mais
utilizadas tais como dofones e trifones, entre outras.
Como o desempenho de recinhecimento de voz contínua
dependem fortemente dos atributos de voz utilizados.
examina-se diversos conjuntos de atributos e seu
comportamento relativo em reconhecedores baseados na
língua portuguesa, no modo independente do locutor. O
conjunto de coeficiente PLP com suas primeiras e segundas
derivadas apresentam o melhor desempenho. Em seguida é
proposto um sistema de reconhecimento de pedidos de
ligações telefônicas automáticas que utiliza conhecimentos
sintáticos da língua portuguesa e conhecimento dependentes
da tarefa. Esse sistema permite a decodificação nõa só de
dígitos mas também de números naturais o que o torna
bastante amigável ao usuário, permitindo ampla liberdade
aos locutores na forma de pedir uma ligação telefônica.Com
base em máquinas de estados finitos propostas para a
implementação do reconhecimento, ão analisados dois
algoritmos de decodificação, o Level Building e o One
Pass, e propõe-se um novo algoritm, a partir de
modificações no One Pass, mais eficiente na utilização das
fontes de conhecimento sitática e dependente da tarefa. O
sitems de RVC, em português, também é analisado utilizando-
se as sílabas como unidade fonéticas. Testes são
realizados no modo dependente e independente do locutor.
Conclui-se sobre a viabilidade do seu emprego em
reconhecimento de voz contínua baseados na língua
portuguesa, em contraste com seu desempenho insatisfatório
para a língua inglesa. Finalmente, é analisada a
influência das palavras-função (word-functions), no
desempenho de reconhecedores para o português. Embora para
a língua inglesa, as palavras-unção tenham um papel de
fundamental importância no desempenho do sistema de
reconhecimento, conclui-se que isso não é verdade para a
língua portuguesa. / [en] This work presents several contributions for the
improvement of CDHMM-based Continuous Speech Recognition
(CSR) Systems. Most of these contributions are specific
for Portuguese language.
Two reduced sets of phonetic units, based on the
characteristics of the Portuguese language, are proposed.
Several initialization procedures are analized and an
efficient and fast method of model initialization is
proposed. Methods are described for segmentation of
sentences and for concatenation of unit to form word and
sentence models. An efficient training algorithm for the
reduced sets of units is then proposed. Simulation results
show that the performance of the two sets are comparable
when bigrams are used. The number of units of these sets
are significantly reduced when compared to diphones and
triphones, which are widely used sets of context-dependent
units.
The performance of Continuous Speech Recognizers is
strongly dependent on the speech features. For this
reason, a comparative performance of several sets of
features for the Portuguese language is carried out. The
PLP coefficients with their first and second derivatives
yielded the best results.
A Continuous Speech Recognition System that uses syntactic
knowledge of the Portuguese language is proposed. This
system makes use of task dependent knowledges for
automatic dial-up telephone calls. The recognition system
can allows parsing of digits as well as natural numbers.
This is a user friendly feature feature that permits, for
the caller, a large degree of freedom in placing a call.
Based on the finite state machine proposed for the
implementation of the speech recognizer described in this
thesis, two parsing algorithms are analized - the Level
Building and the One pass. Then, a new algorithm is
proposed, which is more efficient than the other two
techniques. The proposed scheme is more suitable for the
use of synthatic and task-dependent knowledge sources.
The contribution of this thesis is concerned with the use
of the syllables as phonetic units in Portuguese-based CSR
systems. Dependent and Independent speaker tasks are
examined. It is shown that syllables provide good results
when used as phonetic units in Portuguese-based CSR
systemsm, in contrast with their poor performance in
English-based recognition schemes.
Finally, the influence of word-functions is analized in
Portuguese-based speech recognition systems. Although word-
functions play a critical role in the English-basec CSR,
it was found that this is not true for the Portuguese
language.
|
43 |
[en] EXTENSION OPERATOR AND NEURON NETWORK / [pt] O OPERADOR DE EXTENSÃO E REDES NEURAISLUIZ CARLOS C PEDROZA 07 June 2006 (has links)
[pt] Na tese se desenvolve a teoria do Operador de extensão
(OPEX) e utiliza-se desta para compreender melhor algumas
questões relativas a teoria de Redes Neurais(RN). A
abordagem de Redes Neurais pela ótica do Operador de
Extensão possibilita também um melhoramento no algoritmo
de retropropagação de erro usado no treinamento
supervisionado das Redes Neurais. / [en] In this thesis, theory of Extension Operator is developed
and used to understand some questions related to Neuron
Networks Theory. The approach of Neuron Networs through
the point of view of Extension Operator also enables a
improvement in the Backpropagation algorithm used in
Neuron Networks training.
|
44 |
[en] ARTIFICIAL NEURAL NETWORKS IN TIME SERIES FORECASTING / [pt] REDES NEURAIS ARTIFICIAIS NA PREVISÃO DE SÉRIES TEMPORAISANTONIO JORGE GOMES ABELEM 12 June 2006 (has links)
[pt] Esta dissertação investiga a utilização de Redes Neurais
Artificiais (RNAs) na previsão de séries temporais, em
particular de séries financeiras, consideradas uma classe
especial de séries temporais, caracteristicamente ruídos e
sem periodicidade aparente. O trabalho envolve quatro
partes principais: um estudo sobre redes neurais
artificiais e séries temporais; a modelagem das RNAs para
previsão de séries temporais; o desenvolvimento de um
ambiente de simulação; e o estudo de caso.
No estudo sobre Redes Neurais Artificiais e séries
temporais fez-se um levantamento preliminar das aplicações
de RNAs na previsão de séries. Constatou-se a
predominância do uso do algoritmos de retropropagação do
erro para o treinamento das redes, bem como dos modelos
estatísticos de regressão, de médias móveis e de
alisamento exponencial nas comparações com os resultados
da rede.
Na modelagem das RNAs de retropropagação do erro
considerou-se três fatores determinantes no desempenho da
rede: convergência, generalização e escalabilidade. Para o
controle destes fatores usou-se mecanismos como; escolha
da função de ativação dos neurônios - sigmóide ou tangente
hiperbólica; escolha da função erro - MSE (Mean Square
Error) ou MAD (Mean Absolutd Deviation); e escolha dos
parâmetros de controle do gradiente descendente e do
temapo de treinamento - taxa de aprendizado e termo de
momento. Por fim, definiu-se a arquitetura da rede em
função da técnica utilizada para a identificação de
regularidades na série (windowing) e da otimização dos
fatores indicadores de desempenho da rede.
O ambiente de simulação foi desenvolvido em linguagem C e
contém 3.600 linhas de códigos divididas em três módulos
principais: interface com o usuário, simulação e funções
secundárias. O módulo de interface com o usuário é
responsável pela configuração e parametrização da rede,
como também pela visualização gráfica dos resultados;
módulo de simulação executa as fases de treinamento e
testes das RNAs; o módulo de funções secundárias cuida do
pré/pós-processamento dos dados, da manipulação de
arquivos e dos cálculos dos métodos de avaliação
empregados.
No estudo de caso, as RNAs foram modeladas para fazer
previsões da série do preço do ouro no mercado
internacional. Foram feitas previsões univariadas single e
multi-step e previsões multivariadas utilizando taxas de
câmbio de moedas estrangeiras. Os métodos utilizandos para
a avaliação do desempenho da rede foram: coeficiente U de
Theil, MSE (Mean Square Error), NRMSE (Normalized Root
Mean Square Error), POCID (Percentage Of Change In
Direction), scattergram e comparação gráfica. Os
resultados obtidos, além de avaliados com os métodos
acima, foram comparados com o modelo de Box-Jenkins e
comprovaram a superioridade das RNAs no tratamento de
dados não-lineares e altamente ruidosos. / [en] This dissertation investigates the use of Artificial
Neural Nerworks (ANNs) in time series forecastig,
especially financial time series, which are typically
noisy and with no apparent periodicity. The dissertation
covers four major parts: the study of Artificial Neural
Networks and time series; the desing of ANNs applied to
time series forecasting; the development of a simulation
enironment; and a case study.
The first part of this dissertation involved the study of
Artficial Neural Netwrks and time series theory, resulting
in an overview of ANNs utilization in time series
forecasting. This overview confirmed the predominance of
Backpropagations as the training algorithm, as well as the
employment of statistical models, such as regression and
moving average, for the Neural Network evaluation.
In the design of ANNS, three performance measures were
considered: covergence, generalization and scalability. To
control these parameters, the following methods were
applied: choice of activation function - sigmoid or
hiperbolic tangent; choice of cost function - MSE (Mean
Square Error) or MAD (Mean Absolute Deviation); choise of
parameteres for controlling the gradiente descendent and
learning times - the learning rate and momentum term; and
network architecture.
The simulation environment was developed in C language,
with 3,600 lines of code distributed in three main
modules: the user interface, the simulaton and the support
functions modules. The user interface module is
responsaible for the network configuration and for the
graphical visualization. The simulation module performs
the training and testing of ANNs. The support functions
module takes care of the pre and pos processin, the files
management and the metrics calculation.
The case study concerned with the designing of an ANN to
forescast the gold price in the international market. Two
kinds of prediction were used: univariate - single and
multi-step, and multivariate. The metrics used to evaluate
the ANN performance were: U of Theil`s coeficient, MSE
(Mean Square Error), NRMSE (Normalized Mean Saquare
Error), POCID (Percentage Of Cnage In Direction),
scattergram and graphical comparison. The results were
also comapred with the Box-Jenkins model, confirming the
superiority of ANN in handling non-linear and noisy data.
|
45 |
[en] STABILIZATION OF ADAPTIVE IIR FILTERS / [pt] ESTABILIZAÇÃO DE FILTROS IIR ADAPTATIVOSSILVANA TEREZINHA FACEROLI 05 July 2006 (has links)
[pt] De modo geral, as análises de estabilidade em filtragem
digital adaptativa referem-se a possíveis instabilidades
nos algoritmos de adaptação. Entretanto, a estabilização
do algoritmo é apenas parte do problema, visto que também
deve ser considerada a estabilização das estruturas
recursivas onde operam estes algoritmos. Este trabalho
discute a estabilização das estruturas recursivas de
filtragem digital utilizadas em filtros IIR adaptativos,
apresentando soluções para seu emprego em tempo real. A
estabilização da estrutura, somada a do algoritmo, tem o
objetivo de estabilizar a operação do filtro como um todo.
O estudo inicia pela análise dos principais algoritmos
para filtros IIR adaptativos, enfatizando o aspecto
estabilidade. Desta forma, pode-se atribuir eventuais
instabilidades ocorridas na seqüência do trabalho apenas à
estrutura, evitando confundi-las com problemas do
algoritmo.
Na seqüência, é proposto um novo algoritmo que pretende
estabilizar as estruturas recursivas dos filtros IIR
digitais através de um modelo com estrutura adaptável. O
método é baseado na variação percentual da energia do
erro, calculada em tempo real.
Finalmente, são apresentados alguns exemplos, indicando a
viabilidade do método proposto. Eles ainda mostram
benefícios adicionais no seu uso no aspecto velocidade de
convergência e redução de eventuais polarizações de
parâmetros do processo. / [en] The stability analysis in adaptative digital filters is
generally referred to possible instabilities in the
adaptation algorthms. However, the algorithm stabilization
is only part of the problem, because the stabilization of
the recursive structures, where this algorithms operate,
should be also considered. This work discusses the
stabilization of digital filtering recursive structures
that are used in adaptative IIR filters, presenting
solutions to its use real time. The stabilization of the
structure, added to the stabilization of the algorithm,
has the objective of stabilizing the whole filter
operation.
The study begins with the analysis of the main algorithms
for adaptive IIR filters, emphasizing the stability
aspect. In this way, instabilities wventually occurred in
the sequence of the work could be atributed only to the
structure, avoiding any confusion with algorithm´s errors.
After that, a new algorithm, that intend to stabilize the
recursive structures of the digital IIR filters with a
adaptable structure model, is proposed. The method is
based on the error energy percentage variation, with real
time calculation.
Finally, some examples are presented, indicating the
viability of the proposed method, showing additional
benefits in the convergence speed and reduction of the
polarization of the process parameters.
|
46 |
[en] IMAGE COMPRESSION TECHNIQUES BASEC ON SUBBAND CODING / [pt] TÉCNICAS DE COMPRESSÃO DE IMAGENS POR SUB-BANDASJAIME GORNSZTEJN 31 July 2006 (has links)
[pt] Neste trabalho são examinadas técnicas de compressão de
imagens por sub-bandas. O algoritmo de análise/síntese
utilizado emprega filtros recursivos passa-tudo de 1º
ordem, o que reduz a complexidade computacional sem
introduzir aliasing ou distorção de fase. Técnicas de
processamento específicas para o caso destes filtros foram
discutidas.
As limitações da codificação direta das sub-bandas
mostraram a conveniência de, inicialmente, separar
componentes de baixa e alta freqüências. A imagem de baixa
freqüência representa o brilho e a textura e é codificada
por blocos no domínio da Transformada Cossenoidal Discreta.
A imagem de erro, com aspecto essencialmente passa-alta,
destacando as transições, é dividida em sub-bandas que são
quantizadas vetorialmente. A exploração das
características e correlação das sub-bandas permite
aperfeiçoar esta técnica.
A qualidade objetiva de cada técnica é medida pela razão
sinal/ruído de pico e a subjetiva resulta da análise
visual das imagens. Ambas são comparáveis ou superiores às
de codificadores existentes com complexidade semelhante,
para taxas entre 0.6 e 0.7 bits/pixel. / [en] Image compression techniques based on subband coding are
studied in this work. The analysis/synthesis algorithm is
implemented using first-order all-pass recursive filters,
which significantly reduces the computational complexity
and reconstructs the input with neither aliasing nor phase
distortion. Specific processing techniques for these
filters were discussed.
Limitations in direct subband coding show the convenience
of initially splitting the image to be compressed into its
low-pass and high-pass components, representing sharp
edges, is divided into subbands which are vector
quantized. Further improvement of this technique results
from the study of subband characteristics and correlacion.
Objective quality of each technique is measured by the
peak signal-to-noise ratio and subjective quality results
from visual inspection of reconstructed images. Both are
superior or comparable to existing coders of similar
complexity, for rates between 0.6 and 0.7 bits/pixel.
|
47 |
[en] REAL-TIME SIGNAL PROCESSOR / [pt] PROCESSADOR DE SINAIS EM TEMPO REALNELSON LUIZ RIET CORREA 15 January 2008 (has links)
[pt] Este trabalho descreve um processador de sinais em tempo real e o algoritmo de Bruun para o processamento da transformada rápida de Fourier. O hardware utiliza bancos de memória comutáveis entre si e processador do tipo bit-slide para atender ao requisito de tempo real. Embora projetado especificamente para executar o algoritmo de Bruun, permite qualquer tipo de processamento de sinais, sendo necessário apenas o desenvolvimento de software. / [en] This work describes a real time signal processor and Bruun s algorithm for the Fast Fourier Transform. Hardware employs switching banks of memories and a bit-slice processor to achieve real time processing. The sistem was designed specifically for the Bruun s algorithm, but it allows any type of signal processing, only software development being required.
|
48 |
[en] PREFIX CODES: ALGORITHMS AND BOUNDS / [pt] CÓDIGOS DE PREFIXO: ALGORITMOS E COTASEDUARDO SANY LABER 26 June 2009 (has links)
[pt] Os códigos de prefixo têm importância fundamental na comprenssão e transmissão de dados. Estes códigos também apresentam relações com problemas de busca. Neste tese, apresentamos novos resultados estruturais e algorítimos sobre a classe dos códigos de prefixo. Explicamos teoricamente as boas taxas de compressão observadas para alguns métodos utilizados na prática. Propomos também algoritmos eficientes para construção de códigos de prefixo ótimos e variantes. Os principais resultados aqui descritos são os seguintes:
- um novo algoritmo paralelo para construção de códigos de prefixos ótimos:
- uma cota superior para a perda de compressão introduzida pela restrição de comprimento nos códigos de prefixo:
- uma cota superior para a perda de compressão introduzida pela restrição de comprimento nos códigos de prefixo alfabéticos:
- um algoritmo aproximativo e linear para construção de códigos de prefixo com restrição de comprimento:
- um algoritmo aproximativo com complexidade 0(n log n) para construção de códigos de prefixo alfabéticos com restrição de comprimento:
- uma nova versão de algoritmo WARM-UP com complexidade fortemente polinomial:
- um algoritmo linear para reconhecer códigos de prefixo ótimos com restrição de comprimento:
- uma prova afirmativa da conjectura de Vitter sobre o desempenho dos códigos de Huffmann dinâmicos construídos pelo algoritmo FGK (Faller, Gallanger e Knuth) / [en] The prefix codes play an important role in data compression and data communication. These codes also present relation with search problems. In this thesis, we present new structural and algorithmic results concerning the prefix code class. We theoretically explain results related to the high compression rates of some methods that have been used for pratical purposes. We also propose efficient algorthims for constructing optimal prefix codes and some variants. The major results are listed below:
-a new parallel algorithm for constructing optimal prefix codes:
-a sharp upper bound for the compression loss introduced due usage of length restricted prefix codes:
-an upper bound for the compression loss introduced due the usage of length restricted alphabetic prefix codes:
-an 0(n log n) time approximative algorithm for constructing lenght restricted prefix code:
-a 0(n log n) time approximative algorithm for constructing lenght restricted alphabetic prefix code:
-a strongly polinomial version for the WARM-UP algorithm:
-a linear time algorithm for recognizing optimal length restricted prefix codes:
-a proof for Vitter´s conjecture about the perfomance of the Dynamic Huffman Codes constructed by FGK (Faller, Gallager and Knuth) algorithm.
|
49 |
[en] FAST ESTIMATION ALGORITHMS FOR VIDEO COMPRESSION: ISOLATED ANALYSIS AND IN MPEG ENVIRONMENT / [pt] ALGORITMOS RÁPIDOS DE ESTIMAÇÃO DE MOVIMENTO PARA COMPRESSÃO DE VÍDEO: ANÁLISE ISOLADA E EM AMBIENTE MPEGGERALDO CESAR DE OLIVEIRA 27 August 2009 (has links)
[pt] Este trabalho apresenta uma análise comparativa de algoritmos rápidos de estimação de movimento para codificações de vídeo, os quais visam reduzir a complexidade computacional do algoritmo Força Bruta. Os dois primeiros ( LOGD e 3 PASSOS) reduzem extremamente a complexidade, contudo, apresentam os mais baixos desempenhos. Dois deles Eliminação Sucessiva (ES I) e Adaptativo da Força Bruta (AFB) são técnicas recentes apresentadas na literatura. O dois últimos algoritmos (ES II e ES III) são modificações propostas nesta tese, com base nas técnicas ES I e AFB. Todos os algoritmos implementados neste trabalho são analisados isoladamente e em ambiente MPEG. / [en] This work presents a comparative analysis of fast motion compensation algorithms for vídeo compression, whitch aim at reducing the computacional complexity of the Full Search block matching tchnique. The first two ( LOG 2D and 3 Step) extremely reduce the complexity. However, they present the lowest performace. Two of them - Sucessive Elimination I ( ES I) and Adaptative Block Matching (AFB) - are schemes recently proposed in the literature. The last two algorithms (ES II and ES III) are modifications proposed in this thesis and are based on the ES I and AFB techniques. The algorithms are examined isolatedly an when operating in the MPEG environment.
|
50 |
[en] LOGLINEAR MODEL ESTIMATION WITH MISSING DATA: AN APPLICATION TO SAEB/99. / [pt] ESTIMAÇÃO DE MODELOS LOGLINEARES COM DADOS FALTANTES: UMA APLICAÇÃO AO SAEB 99DENIS PAULO DOS SANTOS 27 March 2002 (has links)
[pt] Geralmente, em análises estatísticas, dados faltantes em ao menos uma variável resulta da completa eliminação da unidade respondente. Esta estratégia, padrão na maioria dos pacotes estatísticos, não produz resultados livres de viés, a não ser que os dados faltantes sejam Missing Completly At
Random (MCAR). A tese mostra a classificação usada para o mecanismo gerador de dados faltantes e a modelagem de dados categóricos levando em conta os dados faltantes. Para isto, utiliza-se o modelo loglinear em combinação com o algoritmo EM (Expectation-Maximization). Esta combinação produz
o algoritmo conhecido como ECM (Expectation-Conditional Maximization). A aplicação do método é feita com os dados do SAEB (Sistema Nacional de Avaliação da Educação Básica) para o ano de 1999, investigando a relação entre o responsável pelo desenvolvimento do projeto pedagógico na escola e o impacto na proficiência média da escola. / [en] Generally, in statiscal analysis, missing value in one variable at least, implies the elimination of the
respondent unit. That strategy, default in the most of statistical softwares, don´t produce results free from
bias, unless the missing data are Missing Completly At Random (MCAR). This dissertation shows the classification about the mechanisms that lead to missing data and the modeling of categorical data dealing with missing data. To do that we combine loglinear model and the EM (Expectation-Maximization)algorithm. This combination produce the agorithm called ECM (Expectation-Conditional Maximization)
algorithm. The method is applied to SAEB educational data. The objective is to investigate the relationship between responsable for developing the pedagogic project and the impact on the mean proficiency of school.
|
Page generated in 0.0509 seconds