• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 136
  • 22
  • Tagged with
  • 158
  • 158
  • 148
  • 83
  • 82
  • 34
  • 33
  • 20
  • 20
  • 16
  • 11
  • 11
  • 11
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

[en] CONTRIBUITIONS TO IMPROVING CELP CODING AT LOW BIT RATS / [pt] CONTRIBUIÇÕES PARA A MELHORIA DA CODIFICAÇÃO CELP A BAIXAS TAXAS DE BITS

LUCIO MARTINS DA SILVA 24 May 2006 (has links)
[pt] Esta tese propõe novas melhorias para a codificação CELP a baixas taxas de bits. Primeiro, é proposto um algoritmo CELP em que a complexidade do procedimento de busca no dicionário adaptativo é grandemente reduzida, graças a uma modificação introduzida no modelo de síntese CELP. Resultados de simulação mostram que a qualidade da voz codificada com o algoritmo CELP proposto tem qualidade comparável àquela obtida com o algoritmo CELP convencional. As demais contribuições têm o propósito de melhorar a qualidade da voz codificada com o algoritmo CELP a baixas taxas de bits. Uma delas propicia uma codificação mais eficiente da envoltória espectral LPC da voz: é, especificamente, um esquema que combina quantização vetorial e interpolação interbloco dos parâmetros LSF. Com este esquema a envoltória espectral LPC codificada tem boa qualidade a uma taxa de bits tão baixa quanto 1 kb/s. A voz codificada com os algoritmos CELP apresenta freqüentemente distorções em sua envoltória espectral que são causadas por deficiências do sinal de excitação. Esta tese propõe um novo pós-filtro que reduz estas distorções e, com isso, melhora significativamente a qualidade subjetiva da voz codificada. A baixas taxas de bits a estrutura CELP convencional é incapaz de reproduzir com boa qualidade os ataques dos sons sonoros, que são cruciais para uma boa percepção da voz. Nesta tese é descrito um algoritmo CELP que dá prioridade a estes segmentos críticos. Cada bloco da voz é classificado em um dentre dezesseis padrões de sonoridade e cada padrão tem uma configuração de codificação e alocação de bits distintas. Resultados de simulação mostram que a qualidade da voz codificada a 4 kb/s com o algoritmo CELP proposto é significativamente melhor do que aquela conseguida com um codificador CELP convencional, também operando a 4 kb/s. / [en] This work presents new improvements to CELP speech coding at low bit rates. First, a CELP algorithm is proposed in wich the complexity of the adaptive codebook search is gratly decreased. This is achieved by means of a modified model of the CELP synthesizer. Simulation results show that the proposed algorithm can provide speech quality comparable to one obtained with the conventional CELP codec. The rest of contributions aim to improve the quality of speech codec at low bit rates with CELP algorithm. One of them is an efficient scheme for coding the LPC spectral envelope of speech for coding the LPC spectral envelope of speech. The proposed scheme combines vector quantization and interpolation of LSF parameters, and it provides a coded spectral envelope with very good quality at 1 kb/s. Speech coded with CELP codecs frequently displays distortions in its spectral envelope that are produced by deficient excitation. This thesis proposes a new postfilter that enhances the perceptual quality of codec speech by decreasin these distortions. This work presents new improvements to CELP speech coding at low bit rates. First, a CELP algorithm is proposed in wich the complexity of the adaptive codebook search is gratly decreased. This is achieved by means of a modified model of the CELP synthesizer. Simulation results show that the proposed algorithm can provide speech quality comparable to one obtained with the conventional CELP codec. The rest of contributions aim to improve the quality of speech codec at low bit rates with CELP algorithm. One of them is an efficient scheme for coding the LPC spectral envelope of speech for coding the LPC spectral envelope of speech. The proposed scheme combines vector quantization and interpolation of LSF parameters, and it provides a coded spectral envelope with very good quality at 1 kb/s. Speech coded with CELP codecs frequently displays distortions in its spectral envelope that are produced by deficient excitation. This thesis proposes a new postfilter that enhances the perceptual quality of codec speech by decreasin these distortions. Voiced onsets are crucial for a good perception of speech but, at low bit rates, the conventional CELP is unable to reproduce them with good quality. This work presents a CELP algorithm into one of a set of sixteen voicing patterns. A distinct coding configuration and bit allocation are applied to each pattern. Simulation results show that the quality of speech codec with the proposed 4 kb/s CELP codec is significantly bette than the one obtained with conventional 4 kb/s CELP codec.
42

[en] CONTINUOUS SPEECH RECOGNITION FOR THE PORTUGUESE USING HIDDEN MARKOV MODELS / [pt] RECONHECIMENTO DE VOZ CONTÍNUA PARA O PORTUGUÊS UTILIZANDO MODELOS DE MARKOV ESCONDIDOS

SIDNEY CERQUEIRA BISPO DOS SANTOS 24 May 2006 (has links)
[pt] Esta tese apresenta contribuições par a melhoria de sistemas de reconhecimento de voz contínua, utilizando Modelos de Markov Escondidos. A maioria dessas contribuições são específicas para aplicações que envolvem a língua portuguesa. Inicialmente, são propostos dois inventários reduzidos de unidades fonéticas a partir de características do português brasileiro. São analisadas algumas formas de inicialização e propõe-se um método rápido e eficaz de inicialização dos modelos dessas unidades. Escolhe-se um método de segmentação, a forma de concatenação dos modelos para a formação de modelos de palavras e sentenças e propõe-se um algoritmo eficiente para o treinamento. Resultado de simulações mostram que o desempenho dos dois inventários são comparáveis, qundo utilizados com gramática bigrama. O número de unidades desses inventários é bastante reduzido quando comparado ao inventário das unidades dependentes do contexto mais utilizadas tais como dofones e trifones, entre outras. Como o desempenho de recinhecimento de voz contínua dependem fortemente dos atributos de voz utilizados. examina-se diversos conjuntos de atributos e seu comportamento relativo em reconhecedores baseados na língua portuguesa, no modo independente do locutor. O conjunto de coeficiente PLP com suas primeiras e segundas derivadas apresentam o melhor desempenho. Em seguida é proposto um sistema de reconhecimento de pedidos de ligações telefônicas automáticas que utiliza conhecimentos sintáticos da língua portuguesa e conhecimento dependentes da tarefa. Esse sistema permite a decodificação nõa só de dígitos mas também de números naturais o que o torna bastante amigável ao usuário, permitindo ampla liberdade aos locutores na forma de pedir uma ligação telefônica.Com base em máquinas de estados finitos propostas para a implementação do reconhecimento, ão analisados dois algoritmos de decodificação, o Level Building e o One Pass, e propõe-se um novo algoritm, a partir de modificações no One Pass, mais eficiente na utilização das fontes de conhecimento sitática e dependente da tarefa. O sitems de RVC, em português, também é analisado utilizando- se as sílabas como unidade fonéticas. Testes são realizados no modo dependente e independente do locutor. Conclui-se sobre a viabilidade do seu emprego em reconhecimento de voz contínua baseados na língua portuguesa, em contraste com seu desempenho insatisfatório para a língua inglesa. Finalmente, é analisada a influência das palavras-função (word-functions), no desempenho de reconhecedores para o português. Embora para a língua inglesa, as palavras-unção tenham um papel de fundamental importância no desempenho do sistema de reconhecimento, conclui-se que isso não é verdade para a língua portuguesa. / [en] This work presents several contributions for the improvement of CDHMM-based Continuous Speech Recognition (CSR) Systems. Most of these contributions are specific for Portuguese language. Two reduced sets of phonetic units, based on the characteristics of the Portuguese language, are proposed. Several initialization procedures are analized and an efficient and fast method of model initialization is proposed. Methods are described for segmentation of sentences and for concatenation of unit to form word and sentence models. An efficient training algorithm for the reduced sets of units is then proposed. Simulation results show that the performance of the two sets are comparable when bigrams are used. The number of units of these sets are significantly reduced when compared to diphones and triphones, which are widely used sets of context-dependent units. The performance of Continuous Speech Recognizers is strongly dependent on the speech features. For this reason, a comparative performance of several sets of features for the Portuguese language is carried out. The PLP coefficients with their first and second derivatives yielded the best results. A Continuous Speech Recognition System that uses syntactic knowledge of the Portuguese language is proposed. This system makes use of task dependent knowledges for automatic dial-up telephone calls. The recognition system can allows parsing of digits as well as natural numbers. This is a user friendly feature feature that permits, for the caller, a large degree of freedom in placing a call. Based on the finite state machine proposed for the implementation of the speech recognizer described in this thesis, two parsing algorithms are analized - the Level Building and the One pass. Then, a new algorithm is proposed, which is more efficient than the other two techniques. The proposed scheme is more suitable for the use of synthatic and task-dependent knowledge sources. The contribution of this thesis is concerned with the use of the syllables as phonetic units in Portuguese-based CSR systems. Dependent and Independent speaker tasks are examined. It is shown that syllables provide good results when used as phonetic units in Portuguese-based CSR systemsm, in contrast with their poor performance in English-based recognition schemes. Finally, the influence of word-functions is analized in Portuguese-based speech recognition systems. Although word- functions play a critical role in the English-basec CSR, it was found that this is not true for the Portuguese language.
43

[en] EXTENSION OPERATOR AND NEURON NETWORK / [pt] O OPERADOR DE EXTENSÃO E REDES NEURAIS

LUIZ CARLOS C PEDROZA 07 June 2006 (has links)
[pt] Na tese se desenvolve a teoria do Operador de extensão (OPEX) e utiliza-se desta para compreender melhor algumas questões relativas a teoria de Redes Neurais(RN). A abordagem de Redes Neurais pela ótica do Operador de Extensão possibilita também um melhoramento no algoritmo de retropropagação de erro usado no treinamento supervisionado das Redes Neurais. / [en] In this thesis, theory of Extension Operator is developed and used to understand some questions related to Neuron Networks Theory. The approach of Neuron Networs through the point of view of Extension Operator also enables a improvement in the Backpropagation algorithm used in Neuron Networks training.
44

[en] ARTIFICIAL NEURAL NETWORKS IN TIME SERIES FORECASTING / [pt] REDES NEURAIS ARTIFICIAIS NA PREVISÃO DE SÉRIES TEMPORAIS

ANTONIO JORGE GOMES ABELEM 12 June 2006 (has links)
[pt] Esta dissertação investiga a utilização de Redes Neurais Artificiais (RNAs) na previsão de séries temporais, em particular de séries financeiras, consideradas uma classe especial de séries temporais, caracteristicamente ruídos e sem periodicidade aparente. O trabalho envolve quatro partes principais: um estudo sobre redes neurais artificiais e séries temporais; a modelagem das RNAs para previsão de séries temporais; o desenvolvimento de um ambiente de simulação; e o estudo de caso. No estudo sobre Redes Neurais Artificiais e séries temporais fez-se um levantamento preliminar das aplicações de RNAs na previsão de séries. Constatou-se a predominância do uso do algoritmos de retropropagação do erro para o treinamento das redes, bem como dos modelos estatísticos de regressão, de médias móveis e de alisamento exponencial nas comparações com os resultados da rede. Na modelagem das RNAs de retropropagação do erro considerou-se três fatores determinantes no desempenho da rede: convergência, generalização e escalabilidade. Para o controle destes fatores usou-se mecanismos como; escolha da função de ativação dos neurônios - sigmóide ou tangente hiperbólica; escolha da função erro - MSE (Mean Square Error) ou MAD (Mean Absolutd Deviation); e escolha dos parâmetros de controle do gradiente descendente e do temapo de treinamento - taxa de aprendizado e termo de momento. Por fim, definiu-se a arquitetura da rede em função da técnica utilizada para a identificação de regularidades na série (windowing) e da otimização dos fatores indicadores de desempenho da rede. O ambiente de simulação foi desenvolvido em linguagem C e contém 3.600 linhas de códigos divididas em três módulos principais: interface com o usuário, simulação e funções secundárias. O módulo de interface com o usuário é responsável pela configuração e parametrização da rede, como também pela visualização gráfica dos resultados; módulo de simulação executa as fases de treinamento e testes das RNAs; o módulo de funções secundárias cuida do pré/pós-processamento dos dados, da manipulação de arquivos e dos cálculos dos métodos de avaliação empregados. No estudo de caso, as RNAs foram modeladas para fazer previsões da série do preço do ouro no mercado internacional. Foram feitas previsões univariadas single e multi-step e previsões multivariadas utilizando taxas de câmbio de moedas estrangeiras. Os métodos utilizandos para a avaliação do desempenho da rede foram: coeficiente U de Theil, MSE (Mean Square Error), NRMSE (Normalized Root Mean Square Error), POCID (Percentage Of Change In Direction), scattergram e comparação gráfica. Os resultados obtidos, além de avaliados com os métodos acima, foram comparados com o modelo de Box-Jenkins e comprovaram a superioridade das RNAs no tratamento de dados não-lineares e altamente ruidosos. / [en] This dissertation investigates the use of Artificial Neural Nerworks (ANNs) in time series forecastig, especially financial time series, which are typically noisy and with no apparent periodicity. The dissertation covers four major parts: the study of Artificial Neural Networks and time series; the desing of ANNs applied to time series forecasting; the development of a simulation enironment; and a case study. The first part of this dissertation involved the study of Artficial Neural Netwrks and time series theory, resulting in an overview of ANNs utilization in time series forecasting. This overview confirmed the predominance of Backpropagations as the training algorithm, as well as the employment of statistical models, such as regression and moving average, for the Neural Network evaluation. In the design of ANNS, three performance measures were considered: covergence, generalization and scalability. To control these parameters, the following methods were applied: choice of activation function - sigmoid or hiperbolic tangent; choice of cost function - MSE (Mean Square Error) or MAD (Mean Absolute Deviation); choise of parameteres for controlling the gradiente descendent and learning times - the learning rate and momentum term; and network architecture. The simulation environment was developed in C language, with 3,600 lines of code distributed in three main modules: the user interface, the simulaton and the support functions modules. The user interface module is responsaible for the network configuration and for the graphical visualization. The simulation module performs the training and testing of ANNs. The support functions module takes care of the pre and pos processin, the files management and the metrics calculation. The case study concerned with the designing of an ANN to forescast the gold price in the international market. Two kinds of prediction were used: univariate - single and multi-step, and multivariate. The metrics used to evaluate the ANN performance were: U of Theil`s coeficient, MSE (Mean Square Error), NRMSE (Normalized Mean Saquare Error), POCID (Percentage Of Cnage In Direction), scattergram and graphical comparison. The results were also comapred with the Box-Jenkins model, confirming the superiority of ANN in handling non-linear and noisy data.
45

[en] STABILIZATION OF ADAPTIVE IIR FILTERS / [pt] ESTABILIZAÇÃO DE FILTROS IIR ADAPTATIVOS

SILVANA TEREZINHA FACEROLI 05 July 2006 (has links)
[pt] De modo geral, as análises de estabilidade em filtragem digital adaptativa referem-se a possíveis instabilidades nos algoritmos de adaptação. Entretanto, a estabilização do algoritmo é apenas parte do problema, visto que também deve ser considerada a estabilização das estruturas recursivas onde operam estes algoritmos. Este trabalho discute a estabilização das estruturas recursivas de filtragem digital utilizadas em filtros IIR adaptativos, apresentando soluções para seu emprego em tempo real. A estabilização da estrutura, somada a do algoritmo, tem o objetivo de estabilizar a operação do filtro como um todo. O estudo inicia pela análise dos principais algoritmos para filtros IIR adaptativos, enfatizando o aspecto estabilidade. Desta forma, pode-se atribuir eventuais instabilidades ocorridas na seqüência do trabalho apenas à estrutura, evitando confundi-las com problemas do algoritmo. Na seqüência, é proposto um novo algoritmo que pretende estabilizar as estruturas recursivas dos filtros IIR digitais através de um modelo com estrutura adaptável. O método é baseado na variação percentual da energia do erro, calculada em tempo real. Finalmente, são apresentados alguns exemplos, indicando a viabilidade do método proposto. Eles ainda mostram benefícios adicionais no seu uso no aspecto velocidade de convergência e redução de eventuais polarizações de parâmetros do processo. / [en] The stability analysis in adaptative digital filters is generally referred to possible instabilities in the adaptation algorthms. However, the algorithm stabilization is only part of the problem, because the stabilization of the recursive structures, where this algorithms operate, should be also considered. This work discusses the stabilization of digital filtering recursive structures that are used in adaptative IIR filters, presenting solutions to its use real time. The stabilization of the structure, added to the stabilization of the algorithm, has the objective of stabilizing the whole filter operation. The study begins with the analysis of the main algorithms for adaptive IIR filters, emphasizing the stability aspect. In this way, instabilities wventually occurred in the sequence of the work could be atributed only to the structure, avoiding any confusion with algorithm´s errors. After that, a new algorithm, that intend to stabilize the recursive structures of the digital IIR filters with a adaptable structure model, is proposed. The method is based on the error energy percentage variation, with real time calculation. Finally, some examples are presented, indicating the viability of the proposed method, showing additional benefits in the convergence speed and reduction of the polarization of the process parameters.
46

[en] IMAGE COMPRESSION TECHNIQUES BASEC ON SUBBAND CODING / [pt] TÉCNICAS DE COMPRESSÃO DE IMAGENS POR SUB-BANDAS

JAIME GORNSZTEJN 31 July 2006 (has links)
[pt] Neste trabalho são examinadas técnicas de compressão de imagens por sub-bandas. O algoritmo de análise/síntese utilizado emprega filtros recursivos passa-tudo de 1º ordem, o que reduz a complexidade computacional sem introduzir aliasing ou distorção de fase. Técnicas de processamento específicas para o caso destes filtros foram discutidas. As limitações da codificação direta das sub-bandas mostraram a conveniência de, inicialmente, separar componentes de baixa e alta freqüências. A imagem de baixa freqüência representa o brilho e a textura e é codificada por blocos no domínio da Transformada Cossenoidal Discreta. A imagem de erro, com aspecto essencialmente passa-alta, destacando as transições, é dividida em sub-bandas que são quantizadas vetorialmente. A exploração das características e correlação das sub-bandas permite aperfeiçoar esta técnica. A qualidade objetiva de cada técnica é medida pela razão sinal/ruído de pico e a subjetiva resulta da análise visual das imagens. Ambas são comparáveis ou superiores às de codificadores existentes com complexidade semelhante, para taxas entre 0.6 e 0.7 bits/pixel. / [en] Image compression techniques based on subband coding are studied in this work. The analysis/synthesis algorithm is implemented using first-order all-pass recursive filters, which significantly reduces the computational complexity and reconstructs the input with neither aliasing nor phase distortion. Specific processing techniques for these filters were discussed. Limitations in direct subband coding show the convenience of initially splitting the image to be compressed into its low-pass and high-pass components, representing sharp edges, is divided into subbands which are vector quantized. Further improvement of this technique results from the study of subband characteristics and correlacion. Objective quality of each technique is measured by the peak signal-to-noise ratio and subjective quality results from visual inspection of reconstructed images. Both are superior or comparable to existing coders of similar complexity, for rates between 0.6 and 0.7 bits/pixel.
47

[en] REAL-TIME SIGNAL PROCESSOR / [pt] PROCESSADOR DE SINAIS EM TEMPO REAL

NELSON LUIZ RIET CORREA 15 January 2008 (has links)
[pt] Este trabalho descreve um processador de sinais em tempo real e o algoritmo de Bruun para o processamento da transformada rápida de Fourier. O hardware utiliza bancos de memória comutáveis entre si e processador do tipo bit-slide para atender ao requisito de tempo real. Embora projetado especificamente para executar o algoritmo de Bruun, permite qualquer tipo de processamento de sinais, sendo necessário apenas o desenvolvimento de software. / [en] This work describes a real time signal processor and Bruun s algorithm for the Fast Fourier Transform. Hardware employs switching banks of memories and a bit-slice processor to achieve real time processing. The sistem was designed specifically for the Bruun s algorithm, but it allows any type of signal processing, only software development being required.
48

[en] PREFIX CODES: ALGORITHMS AND BOUNDS / [pt] CÓDIGOS DE PREFIXO: ALGORITMOS E COTAS

EDUARDO SANY LABER 26 June 2009 (has links)
[pt] Os códigos de prefixo têm importância fundamental na comprenssão e transmissão de dados. Estes códigos também apresentam relações com problemas de busca. Neste tese, apresentamos novos resultados estruturais e algorítimos sobre a classe dos códigos de prefixo. Explicamos teoricamente as boas taxas de compressão observadas para alguns métodos utilizados na prática. Propomos também algoritmos eficientes para construção de códigos de prefixo ótimos e variantes. Os principais resultados aqui descritos são os seguintes: - um novo algoritmo paralelo para construção de códigos de prefixos ótimos: - uma cota superior para a perda de compressão introduzida pela restrição de comprimento nos códigos de prefixo: - uma cota superior para a perda de compressão introduzida pela restrição de comprimento nos códigos de prefixo alfabéticos: - um algoritmo aproximativo e linear para construção de códigos de prefixo com restrição de comprimento: - um algoritmo aproximativo com complexidade 0(n log n) para construção de códigos de prefixo alfabéticos com restrição de comprimento: - uma nova versão de algoritmo WARM-UP com complexidade fortemente polinomial: - um algoritmo linear para reconhecer códigos de prefixo ótimos com restrição de comprimento: - uma prova afirmativa da conjectura de Vitter sobre o desempenho dos códigos de Huffmann dinâmicos construídos pelo algoritmo FGK (Faller, Gallanger e Knuth) / [en] The prefix codes play an important role in data compression and data communication. These codes also present relation with search problems. In this thesis, we present new structural and algorithmic results concerning the prefix code class. We theoretically explain results related to the high compression rates of some methods that have been used for pratical purposes. We also propose efficient algorthims for constructing optimal prefix codes and some variants. The major results are listed below: -a new parallel algorithm for constructing optimal prefix codes: -a sharp upper bound for the compression loss introduced due usage of length restricted prefix codes: -an upper bound for the compression loss introduced due the usage of length restricted alphabetic prefix codes: -an 0(n log n) time approximative algorithm for constructing lenght restricted prefix code: -a 0(n log n) time approximative algorithm for constructing lenght restricted alphabetic prefix code: -a strongly polinomial version for the WARM-UP algorithm: -a linear time algorithm for recognizing optimal length restricted prefix codes: -a proof for Vitter´s conjecture about the perfomance of the Dynamic Huffman Codes constructed by FGK (Faller, Gallager and Knuth) algorithm.
49

[en] FAST ESTIMATION ALGORITHMS FOR VIDEO COMPRESSION: ISOLATED ANALYSIS AND IN MPEG ENVIRONMENT / [pt] ALGORITMOS RÁPIDOS DE ESTIMAÇÃO DE MOVIMENTO PARA COMPRESSÃO DE VÍDEO: ANÁLISE ISOLADA E EM AMBIENTE MPEG

GERALDO CESAR DE OLIVEIRA 27 August 2009 (has links)
[pt] Este trabalho apresenta uma análise comparativa de algoritmos rápidos de estimação de movimento para codificações de vídeo, os quais visam reduzir a complexidade computacional do algoritmo Força Bruta. Os dois primeiros ( LOGD e 3 PASSOS) reduzem extremamente a complexidade, contudo, apresentam os mais baixos desempenhos. Dois deles Eliminação Sucessiva (ES I) e Adaptativo da Força Bruta (AFB) são técnicas recentes apresentadas na literatura. O dois últimos algoritmos (ES II e ES III) são modificações propostas nesta tese, com base nas técnicas ES I e AFB. Todos os algoritmos implementados neste trabalho são analisados isoladamente e em ambiente MPEG. / [en] This work presents a comparative analysis of fast motion compensation algorithms for vídeo compression, whitch aim at reducing the computacional complexity of the Full Search block matching tchnique. The first two ( LOG 2D and 3 Step) extremely reduce the complexity. However, they present the lowest performace. Two of them - Sucessive Elimination I ( ES I) and Adaptative Block Matching (AFB) - are schemes recently proposed in the literature. The last two algorithms (ES II and ES III) are modifications proposed in this thesis and are based on the ES I and AFB techniques. The algorithms are examined isolatedly an when operating in the MPEG environment.
50

[en] LOGLINEAR MODEL ESTIMATION WITH MISSING DATA: AN APPLICATION TO SAEB/99. / [pt] ESTIMAÇÃO DE MODELOS LOGLINEARES COM DADOS FALTANTES: UMA APLICAÇÃO AO SAEB 99

DENIS PAULO DOS SANTOS 27 March 2002 (has links)
[pt] Geralmente, em análises estatísticas, dados faltantes em ao menos uma variável resulta da completa eliminação da unidade respondente. Esta estratégia, padrão na maioria dos pacotes estatísticos, não produz resultados livres de viés, a não ser que os dados faltantes sejam Missing Completly At Random (MCAR). A tese mostra a classificação usada para o mecanismo gerador de dados faltantes e a modelagem de dados categóricos levando em conta os dados faltantes. Para isto, utiliza-se o modelo loglinear em combinação com o algoritmo EM (Expectation-Maximization). Esta combinação produz o algoritmo conhecido como ECM (Expectation-Conditional Maximization). A aplicação do método é feita com os dados do SAEB (Sistema Nacional de Avaliação da Educação Básica) para o ano de 1999, investigando a relação entre o responsável pelo desenvolvimento do projeto pedagógico na escola e o impacto na proficiência média da escola. / [en] Generally, in statiscal analysis, missing value in one variable at least, implies the elimination of the respondent unit. That strategy, default in the most of statistical softwares, don´t produce results free from bias, unless the missing data are Missing Completly At Random (MCAR). This dissertation shows the classification about the mechanisms that lead to missing data and the modeling of categorical data dealing with missing data. To do that we combine loglinear model and the EM (Expectation-Maximization)algorithm. This combination produce the agorithm called ECM (Expectation-Conditional Maximization) algorithm. The method is applied to SAEB educational data. The objective is to investigate the relationship between responsable for developing the pedagogic project and the impact on the mean proficiency of school.

Page generated in 0.0509 seconds