• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 41
  • 17
  • Tagged with
  • 58
  • 58
  • 51
  • 9
  • 9
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

[en] PRECODING AND RESOURCE ALLOCATION FOR CELL-FREE MASSIVE MIMO SYSTEMS / [pt] PRÉ-CODIFICAÇÃO E ALOCAÇÃO DE RECURSOS EM SISTEMAS DE MÚLTIPLAS ANTENAS MASSIVOS LIVRES DE CÉLULAS

03 December 2020 (has links)
[pt] Sistemas de múltiplas antenas livres de células surgiram recentemente como uma combinação de MIMO massivo, sistemas de antenas distribuídas (DAS) e network MIMO. Esta dissertação explora o downlink deste cenário com pontos de acesso (PAs) de uma ou múltiplas antenas e considerando conhecimento perfeito e imperfeito do canal. São desenvolvidos esquemas que combinam pré-codificação, alocação de potência e seleção de PAs (SPA). Para começar, duas estratégias de SPA foram investigadas, uma baseada em busca exaustiva (BE-SPA) e a outra em coeficientes de desvanecimento de larga escala (LE-SPA), com o intuito de reduzir a complexidade das redes livres de células. Subsequentemente, apresentamos duas técnicas iterativas de pré-codificação, todas seguindo o critério Minimum Mean-Square Error (MMSE), combinadas à restrição de potência total. A primeira nós chamamos de MMSE, com restrição de potência total. Nós também incorporamos robustez ao método desenvolvido chamado RMMSE, um pré-codificador robusto com restrição de potência total. Como terceiro elemento da configuração proposta, esquemas de alocação de potência foram desenvolvidos, com abordagens ótimas, adaptativas e uniformes. Um algoritmo de alocação de potência ótima (APO) é apresentado, baseado na maximização da mínima Signal-to-Interference-plus-Noise Ratio (SINR). A solução adaptativa (APA) é caracterizada pelo gradiente estocástico (GE) do mean-square error (MSE) e a alternativa uniforme (UPA) propõe a equalização de todos os coeficientes de potência. Todas as configurações devem respeitar a restrição de potência por antena, imposta pelo sistema. Uma análise de soma das taxas é feita, para todas as técnicas estudadas e o custo computacional de cada uma delas é calculado. Resultados numéricos provam que as técnicas propostas têm performance superior à pré-codificadores Conjugate Beamforming (CB) e Zero-Forcing (ZF), ambos com alocação de potência uniforme e ótima, na forma de taxa de erro de bit (BER), soma das taxas e mínima SINR. Além disso, os resultados atestam que o desempenho pode ser mantido e até melhorado com a aplicação de SPA. / [en] Cell-Free Massive multiple-input multiple-output (MIMO) systems have emerged in recent years as a combination of massive MIMO, distributed antenna systems (DAS) and network MIMO. This thesis explores the downlink channel of such scenario with single and multiple-antenna access points (APs) and takes into account both perfect and imperfect channel state information (CSI). We propose transmit processing schemes that combine precoding, power allocation and AP selection (APS). To begin with, two APS strategies have been investigated, one based on exhaustive search (ES-APS) and the other on the large-scale fading coefficients (LSAPS), in order to reduce the complexity of cell-free networks. Subsequently, we present two iterative precoding techniques following the minimum meansquare error (MMSE) criterion with total power constraint. The first we call MMSE, with total power constraint. We also incorporate robustness in the developed method, called RMMSE, a robust precoder with total power constraint. As the third element of the proposed schemes, power allocation techniques are developed, with optimal, adaptive and uniform approaches. An optimal power allocation (OPA) algorithm is presented based on the maximization of the minimum signal-to-interference-plus-noise ratio (SINR). The adaptive solution (APA) is characterized by the stochastic gradient of the mean-square error (MSE) and the uniform alternative (UPA) proposes to equalize all power coefficients. All configurations must fulfil an antenna power constraint, imposed by the system. A sum-rate analysis is carried out for all studied techniques and the computational cost of each one is calculated. Numerical results prove that the proposed techniques outperform existing conjugate beamforming (CB) and zero-forcing (ZF) precoders, both with uniform and optimal power allocation, in terms of bit error rate (BER), sum-rate and minimum SINR. Furthermore, we also attest that performance can be maintained or even improved in the presence of APS.
52

[en] HEURISTICS FOR DATA POINT SELECTION FOR LABELING IN SEMI-SUPERVISED AND ACTIVE LEARNING CONTEXTS / [pt] HEURÍSTICAS PARA SELEÇÃO DE PONTOS PARA SEREM ANOTADOS NO CONTEXTO DEAPRENDIZADO SEMI- SUPERVISIONADO E ATIVO

SONIA FIOL GONZALEZ 16 September 2021 (has links)
[pt] O aprendizado supervisionado é, hoje, o ramo do aprendizado de máquina central para a maioria das inovações nos negócios. A abordagem depende de ter grandes quantidades de dados rotulados, suficiente para ajustar funções com a precisão necessária. No entanto, pode ser caro obter dados rotulados ou criar os rótulos através de um processo de anotação. O aprendizado semisupervisionado (SSL) é usado para rotular com precisão os dados a partir de pequenas quantidades de dados rotulados utilizando técnicas de aprendizado não supervisionado. Uma técnica de rotulagem é a propagação de rótulos. Neste trabalho, usamos especificamente o algoritmo Consensus rate-based label propagation (CRLP). Este algoritmo depende do uma função de consenso para a propagação. Uma possível função de consenso é a matriz de co-associação que estima a probabilidade dos pontos i e j pertencem ao mesmo grupo. Neste trabalho, observamos que a matriz de co-associação contém informações valiosas para tratar esse tipo de problema. Quando nenhum dado está rotulado, é comum escolher aleatoriamente, com probabilidade uniforme, os dados a serem rotulados manualmente, a partir dos quais a propagação procede. Este trabalho aborda o problema de seleção de um conjunto de tamanho fixo de dados para serem rotulados manualmente que propiciem uma melhor precisão no algoritmo de propagação de rótulos. Três técnicas de seleção, baseadas em princípios de amostragem estocástica, são propostas: Stratified Sampling (SS), Probability (P), and Stratified Sampling - Probability (SSP). Eles são todos baseados nas informações embutidas na matriz de co-associação. Os experimentos foram realizados em 15 conjuntos de benchmarks e mostraram resultados muito interessantes. Não só, porque eles fornecem uma seleção mais equilibrada quando comparados a uma seleção aleatória, mas também melhoram os resultados de precisão na propagação de rótulos. Em outro contexto, essas estratégias também foram testadas dentro de um processo de aprendizagem ativa, obtendo também bons resultados. / [en] Supervised learning is, today, the branch of Machine Learning central to most business disruption. The approach relies on having amounts of labeled data large enough to learn functions with the required approximation. However, labeled data may be expensive, to obtain or to construct through a labeling process. Semi-supervised learning (SSL) strives to label accurately data from small amounts of labeled data and the use of unsupervised learning techniques. One labeling technique is label propagation. We use specifically the Consensus rate-based label propagation (CRLP) in this work. A consensus function is central to the propagation. A possible consensus function is a coassociation matrix that estimates the probability of data points i and j belong to the same group. In this work, we observe that the co-association matrix has valuable information embedded in it. When no data is labeled, it is common to choose with a uniform probability randomly, the data to manually label, from which the propagation proceeds. This work addresses the problem of selecting a fixed-size set of data points to label (manually), to improve the label propagation algorithm s accuracy. Three selection techniques, based on stochastic sampling principles, are proposed: Stratified Sampling (SP), Probability (P), and Stratified Sampling - Probability (SSP). They are all based on the information embedded in the co-association matrix. Experiments were carried out on 15 benchmark sets and showed exciting results. Not only because they provide a more balanced selection when compared to a uniform random selection, but also improved the accuracy results of a label propagation method. These strategies were also tested inside an active learning process in a different context, also achieving good results.
53

[pt] APRENDIZADO DE MÁQUINA PARA DETECÇÃO DE FALHAS NO TRATAMENTO DE EFLUENTES INDUSTRIAIS DA INDÚSTRIA DE PANIFICAÇÃO POR ELETROCOAGULAÇÃO / [en] MACHINE LEARNING FOR FAILURE DETECTION IN BAKERY INDUSTRIAL EFFLUENTS TREATMENT BY ELECTROCOAGULATION

THIAGO DA SILVA RIBEIRO 19 October 2023 (has links)
[pt] A eletrocoagulação é um método emergente de tratamento de efluentes que combina os benefícios da coagulação, flotação e eletroquímica. Devido à complexidade inerente às operações de uma estação de tratamento de efluentes, é um desafio reagir com rapidez e precisão às condições dinâmicas necessárias para manter a qualidade do efluente. Portanto, esta tese tem como objetivo identificar a condição operacional de uma estação de tratamento de efluentes que adotou a eletrocoagulação para o tratamento de efluentes de panificação. Três condições operacionais baseadas em clarificação do efluente e lodo da reação foram as variáveis-alvo. A tese está dividida em dois ensaios. O primeiro usou sete métodos de seleção de atributos para selecionar as variáveis mais importantes em um determinado conjunto de dados. O desempenho dos modelos de classificação de redes neurais treinados no conjunto de atributos original foi comparado ao desempenho daqueles que foram treinados em um subconjunto curado usando técnicas de seleção de atributos. O modelo que utilizou a seleção de atributos apresentou o melhor desempenho (F1-score = 0,92) e uma melhoria de mais de 30 por cento na prevenção de falsos positivos. A segunda contribuição trouxe um modelo que poderia detectar o comportamento anômalo do processo usando apenas imagens coloridas da superfície do efluente obtidas através de dois módulos de câmera de tamanho pequeno. O desempenho de vários métodos, incluindo MLP, LSTM, SVM e XGBoost foi avaliado. O modelo LSTM superou os outros em termos de Precisão (84,620 por cento), Recall (84,531 por cento) e F1-score (84,499 por cento), mas o modelo XGBoost vem em segundo lugar com Precisão (83,922 por cento), Recall (82,272 por cento) e F1-score (83,005 por cento). / [en] Electrocoagulation is an emerging wastewater treatment method that combines the benefits of coagulation, flotation, and electrochemistry. As a result of the inherent complexity of processes associated with wastewater treatment plants, it is difficult to respond swiftly and correctly to the dynamic circumstances that are necessary to ensure effluent quality. Therefore, this thesis aims to identify the operational condition of a wastewater treatment plant that has adopted electrocoagulation for treating bakery wastewater. Three operational conditions based on effluent clarification and reaction sludge were the target variables. The thesis is divided into two essays. The first endeavor used seven feature selection methods to select the most important features in a given dataset. The performance of neural network classification models trained on the original feature set was compared to the performance of those that were trained on a subset of features that had been curated using feature selection techniques. The model that utilised feature selection was found to have the best performance (F1-score = 0.92) and an improvement of more than 30 percent in preventing false positives. The second contribution brought a model that could detect anomalous process behavior using only wastewater surface color images from two small-size camera modules. The performance of various methods, including MLP, LSTM, SVM, and XGBoost was assessed. The LSTM model outperformed the others in terms of macro average Precision (84.620 percent), Recall (84.531 percent), and F1-score (84.499 percent), but the XGBoost model comes closely in second with Precision (83.922 percent), Recall (82.272 percent), and F1-score (83.005 percent).
54

[en] CONTINGENCIES, INTERVENTIONS AND RESULTS FROM THE REVIEW PHASE OF THE SUPPLIER PERFORMANCE MEASUREMENT SYSTEM: AN ACTION RESEARCH AT A PUBLIC SECTOR COMPANY / [pt] CONTINGÊNCIAS, INTERVENÇÕES E RESULTADOS DA FASE DE REVISÃO DO SISTEMA DE MEDIÇÃO DE DESEMPENHO DE FORNECEDORES: UMA PESQUISA-AÇÃO EM UMA EMPRESA DO SETOR PÚBLICO

MATHEUS ALLGAIER 27 March 2023 (has links)
[pt] O Sistema de Medição de Desempenho de Fornecedores (SMDF) é uma ferramenta para avaliar, medir e monitorar o desempenho dos fornecedores. O interesse em SMDF é grande na academia, tornando-se um tema frequente na literatura. Contudo, ainda existem lacunas pouco exploradas por pesquisadores no tema, como a fase de revisão de um SMDF e a sua aplicação no setor público. Neste contexto, a presente pesquisa de mestrado avalia a eficácia da fase de revisão de um SMDF de uma empresa estatal brasileira de grande porte, que precisou se adequar às alterações legislativas e aos feedbacks de suas equipes de gestão contratual, compradores e fornecedores, buscando aumentar a confiança do sistema junto a estas partes interessadas. Com o suporte da literatura e o trabalho colaborativo de diversos departamentos da empresa, esta pesquisa-ação acompanhou cinco intervenções realizadas no SMDF corrente da empresa, sendo elas o aumento da transparência, a melhoria na tempestividade das avaliações, a implementação da funcionalidade de revisão de avaliações, a implementação da funcionalidade de justificativas de avaliações, e a revisão dos questionários e métricas de avaliações. Como resultado das intervenções, observou-se melhoria no relacionamento com os fornecedores, o aumento significativo no uso do Índice de Desempenho de Fornecedores (IDF) como critério seleção e habilitação de fornecedores, e o aumento no desempenho de contratos novos e em andamento. O trabalho oferece um framework, inspirado na teoria organizacional das contingências, apresentando o contexto inicial, as intervenções realizadas através da ótica das dimensões Humana, Tecnológica e Organizacional, e os resultados identificados, propiciando orientações e implicações diretas para praticantes da indústria e pesquisadores acadêmicos e reduzindo a lacuna entre teoria e prática. / [en] The Supplier Performance Measurement System (SPMS) is a tool for assessing, measuring, and monitoring supplier performance. There is great interest in SPMS in the academia, becoming a frequent theme in the literature. However, there are still gaps little explored by researchers in the subject, such as the review phase of an SPMS and its application in the public sector. In this context, this master s research evaluates the effectiveness of the review phase of an SPMS of a large Brazilian state-owned company, which had to adapt to legislative changes and feedback from its contract management teams, buyers and suppliers, seeking to increase the confidence of the system with these stakeholders. With the support of the literature and the collaborative work of several departments, the company carried out five interventions in the SPMS, including raising its transparency, improving the timing of assessments, implementation of the assessment review functionality, implementation of the assessment justifications functionality, and review of questionnaires and evaluation metrics. As a result of the interventions, there was an improvement in the relationship with suppliers, the significant increase in the use of the Supplier Performance Index (SPI) as a criterion for selecting and enabling suppliers and increasing the performance of new and ongoing contracts. This research offers a framework, inspired by the organizational contingency theory, presenting the initial context, interventions performed through the perspective of Human, Technological and Organizational dimensions (HTO), and the identified results, which provides guidance and direct implications for industry practitioners and academic researchers, reducing the gap between theory and practice.
55

[en] RECIRCULATION AND REMIXING OF NEWS IN LGBT ACTIVISM: AN ANALYSIS OF THE NEWSPAPER GAVE IN THE WEEK / [pt] RECIRCULAÇÃO E REMIXAGEM DE NOTÍCIA NO ATIVISMO LGBT: UMA ANÁLISE DO JORNAL DEU NA SEMANA

CARLYLE SANTOS JUNIOR 14 November 2019 (has links)
[pt] Os debates acerca de questões relativas à orientação sexual e identidade de gênero têm sido colocados na arena pública para compreender comportamentos, a relação com o corpo, os anseios e as dificuldades enfrentados por gays, lésbicas, travestis, transexuais e transgêneros (LGBT) na sociedade brasileira. São indivíduos que desafiam e desestabilizam a ordem vigente assentada na heteronormatividade e no binômio masculino e feminino e, a partir disso, buscam reconhecimento para garantir direitos e o fim de inúmeras violações. Em decorrência disso, as narrativas jornalísticas buscam captar com mais amplitude e empatia o caráter político e público de temas ligados à diversidade sexual e de gênero. Esta dissertação se debruça sobre a seção Deu na semana, abrigada no canal do YouTube Põe na Roda, que trata-se de um noticiário na plataforma de vídeos que reúne notícias sobre a população LGBT. Nesse sentido, busca-se compreender como a internet e as redes sociais reconfiguraram os modos de produção, circulação e recirculação de notícias trazendo novos atores em um contexto de jornalismo participativo e ativista. E, sob a luz de teorias do jornalismo, como a do Gatekeeping (WHITE, 1950) e do Newsmaking (TUCHMAN, 1978), investiga-se como a seleção de notícias, articulada à apreensão de critérios de noticiabilidade da grande imprensa, ajuda a construir uma nova realidade da população LGBT a partir de novos enquadramentos e recortes de temas ligados à conquista de direitos, representatividade, luta contra homofobia e apoio à causa LGBT. / [en] Discussions on issues of sexual orientation and gender identity have been put in the public arena to understand behaviors, the relationship with the body, the yearnings and the difficulties faced by gays, lesbians, transvestites, transsexuals and transgender (LGBT) people in society Brazilian. They are individuals who challenge and destabilize the prevailing order based on heteronormativity and the male and female binomial, and, from this, seek recognition to guarantee rights and the end of numerous violations. As a result, the journalistic narratives seek to capture with greater amplitude and empathy the human, political and public character of themes related to sexual and gender diversity. This dissertation looks at the Deu na Semana section, housed in the YouTube channel Põe na Roda. This is a news video on the video platform that gathers news about the LGBT population. In this sense, we seek to understand how the internet and social networks have reconfigured the ways of production, circulation and recirculation of news bringing new actors in a context of participatory and activist journalism. And, under the light of journalism theories, such as Gatekeeping (WHITE, 1950) and Newsmaking (TUCHMAN, 1978), one investigates how news selection, articulated to the seizure of noticiability criteria of the major press, helps to build a new reality of the LGBT population from the frameworks and cuts of themes related to the conquest of rights, representativeness, fight against homophobia and support for the LGBT cause.
56

[pt] MODELOS DE PROGRAMAÇÃO ESTOCÁSTICA COM AVERSÃO A RISCO: CONSEQUÊNCIAS PRÁTICAS DA APLICAÇÃO DE CONCEITOS TEÓRICOS / [en] RISK AVERSE STOCHASTIC PROGRAMMING MODELS: PRACTICAL CONSEQUENCES OF THEORETICAL CONCEPTS

DAVI MICHEL VALLADAO 17 November 2021 (has links)
[pt] Esta tese é composta por quatro artigos que descrevem diferentes formas de inclusão de aversão a risco em problemas dinâmicos, ressaltando seus aspectos teóricos e consequências práticas envolvidas em técnicas de otimização sob incerteza aplicadas a problemas financeiros. O primeiro artigo propões uma interpretação econômica e analisa as consequencias práticas da consistência temporal, em que particular para o problema de seleção de portfólio. No segunfo artigo, também aplicado à seleção de portfólio, é proposto um modelo que considera empréstimo como variável de decisão e uma função convexa e linear por partes que representa a existência de diversos credores com diferentes limites de crédito e taxas de juros. A performance do modelo proposto é melhor que as aproximações existentes e garante otimalidade para a situação de vários credores. No terceiro artigo, desenvolve-se um modelo de emissão de títulos de dívida de uma empresa que seja financiar um conjunto pré-determinado de projetos. Trata-se de um modelo de otimização dinâmico sob incerteza que considera títulos pré e pós-fixados com diferentes maturidades e formas de amortização. As principais contribuições são o tratammento de um horizonte longuíssimo prazo através de uma estrutura híbrida dos cenários; a modelagem detalhada do pagamento de cupons e amortizações; o desenvolvimento de uma função objetivo multi-critério que reflete o trade-off entre risco-retorno além de outras medidas de performance financeiras como a taxa de alavancagem (razão passivos sobre ativos). No quarto artigo é desenvolvido um modelo de programação estocástica multi-estágio para obter a política ótima de caixa de uma empresa cujo custo de investimento e o custo da dívida são incertos e modelados em diferentes regimes. As contribuições são a extensão de metodologia de equilíbrio dual para um modelo estocástico; a proposição de uma regra de decisão baseada na estrutura de regime dos fatores de risco que aproxima de forma satisfatória o modelo original. / [en] This PhD Thesis is composed of four working papers, each one with a respective chapter on this thesis, with contributions on risk averse stochastic programming models. In particular, it focuses on analyzing the practical consequences of certain theoretical concepts of decision theory, finance and optimization. The first working paper analyzes the practical consequences and the economic interpretation of time consistent optimal policies, in particular for well known portfolio selection problem. The second paper has also a contribution to the portfolio selection literature. Indeed, we develop leverage optimal strategy considering a single-period debt with a piecewise linear borrowing cost function, which represents the actual situation faced by investors, and show a significant gap in comparison to the suboptimal solutions obtained by the usual linear approximation. Moreover, we develop a multistage extension where our cost function indirectly penalizes the excess of leverage, which is closely related to the contribution of the next working paper. The contribution of the third working paper is to penalize excess of leverage in a debt issuance multistage model that optimizes over several types of bonds with fixed or floating rate, different maturities and amortization patterns. For the sake of dealing with the curse of dimensionality of a long term problem, we divide the planning horizon into a detailed part at the beginning followed by a policy rule approximation for the remainder. Indeed, our approximation mitigates the end effects of a truncated model which is closely related to the contributions of the forth working paper. The forth paper develops a multistage model that seeks to obtain the optimal cash holding policy of a firm. The main contributions are a methodology to end effect treatment for a multistage model with infinite horizon and the development of a policy rule as approximation of the optimal solution.
57

[en] AUTOMATIC COMBINATION AND SELECTION OF DATABASE TUNING ACTIONS / [pt] COMBINAÇÃO E SELEÇÃO AUTOMÁTICA DE AÇÕES DE SINTONIA FINA

RAFAEL PEREIRA DE OLIVEIRA 29 June 2020 (has links)
[pt] O processo de combinação de ações de sintonia fina não possui nem uma formulação precisa, nem uma abordagem formal para solucioná-lo. É necessário definir o que combinar dentre as múltiplas ações existentes e, uma vez escolhidas, como compor de maneira que as restrições sejam verificadas. Trata-se de um problema complexo e relevante na área de bancos de dados, tanto para soluções manuais pelo DBA como automáticas, por meio de softwares especializados. Isto ocorre pois os diferentes tipos de ações de sintonia possuem estratégias distintas para alcançar o objetivo em comum. Esta tese propõe um método automático para geração e seleção de soluções combinadas de sintonia fina para bancos de dados relacionais. Discute-se como combinar soluções e respeitar as restrições tecnológicas e recursos computacionais disponíveis. Por fim, apresenta-se uma implementação e avaliação utilizando três SGBDs de mercado relevantes, em que mostramos tanto a eficácia como a eficiência do método proposto. Os resultados mostraram que o método é capaz de produzir soluções combinadas válidas mais eficientes que soluções locais independentes. / [en] The process of combining database tuning actions has neither a precise formulation nor a formal approach to solving it. It is necessary to define what to combine among multiple existing operations and, once chosen, how to compose so that constraints can be verified. It is a complex and relevant problem in the database research area, both for the DBA manual solutions, and automatic ones using specialized software. It is important because the different types of tuning actions have different strategies to achieve a common goal. This thesis proposes an automated method for generating and selecting combined tuning solutions for relational databases. It discusses how to mix solutions and still respect both the technological constraints and available computational resources. Finally, we present an implementation and evaluation using three relevant market DBMSs, where we show both the effectiveness and the efficiency of the proposed method. The results showed that the technique is capable of producing combined solutions that are more efficient than independent local solutions.
58

[en] NON-PARAMETRIC ESTIMATIONS OF INTEREST RATE CURVES : MODEL SELECTION CRITERION: MODEL SELECTION CRITERIONPERFORMANCE DETERMINANT FACTORS AND BID-ASK S / [pt] ESTIMAÇÕES NÃO PARAMÉTRICAS DE CURVAS DE JUROS: CRITÉRIO DE SELEÇÃO DE MODELO, FATORES DETERMINANTES DEDESEMPENHO E BID-ASK SPREAD

ANDRE MONTEIRO DALMEIDA MONTEIRO 11 June 2002 (has links)
[pt] Esta tese investiga a estimação de curvas de juros sob o ponto de vista de métodos não-paramétricos. O texto está dividido em dois blocos. O primeiro investiga a questão do critério utilizado para selecionar o método de melhor desempenho na tarefa de interpolar a curva de juros brasileira em uma dada amostra. Foi proposto um critério de seleção de método baseado em estratégias de re-amostragem do tipo leave-k-out cross validation, onde K k £ £ 1 e K é função do número de contratos observados a cada curva da amostra. Especificidades do problema reduzem o esforço computacional requerido, tornando o critério factível. A amostra tem freqüência diária: janeiro de 1997 a fevereiro de 2001. O critério proposto apontou o spline cúbico natural -utilizado com método de ajuste perfeito aos dados - como o método de melhor desempenho. Considerando a precisão de negociação, este spline mostrou-se não viesado. A análise quantitativa de seu desempenho identificou, contudo, heterocedasticidades nos erros simulados. A partir da especificação da variância condicional destes erros e de algumas hipóteses, foi proposto um esquema de intervalo de segurança para a estimação de taxas de juros pelo spline cúbico natural, empregado como método de ajuste perfeito aos dados. O backtest sugere que o esquema proposto é consistente, acomodando bem as hipóteses e aproximações envolvidas. O segundo bloco investiga a estimação da curva de juros norte-americana construída a partir dos contratos de swaps de taxas de juros dólar-Libor pela Máquina de Vetores Suporte (MVS), parte do corpo da Teoria do Aprendizado Estatístico. A pesquisa em MVS tem obtido importantes avanços teóricos, embora ainda sejam escassas as implementações em problemas reais de regressão. A MVS possui características atrativas para a modelagem de curva de juros: é capaz de introduzir já na estimação informações a priori sobre o formato da curva e sobre aspectos da formação das taxas e liquidez de cada um dos contratos a partir dos quais ela é construída. Estas últimas são quantificadas pelo bid-ask spread (BAS) de cada contrato. A formulação básica da MVS é alterada para assimilar diferentes valores do BAS sem que as propriedades dela sejam perdidas. É dada especial atenção ao levantamento de informação a priori para seleção dos parâmetros da MVS a partir do formato típico da curva. A amostra tem freqüência diária: março de 1997 a abril de 2001. Os desempenhos fora da amostra de diversas especificações da MVS foram confrontados com aqueles de outros métodos de estimação. A MVS foi o método que melhor controlou o trade- off entre viés e variância dos erros. / [en] This thesis investigates interest rates curve estimation under non-parametric approach. The text is divided into two parts. The first one focus on which criterion to use to select the best performance method in the task of interpolating Brazilian interest rate curve. A selection criterion is proposed to measure out-of-sample performance by combining resample strategies leave-k-out cross validation applied upon the whole sample curves, where K k £ £ 1 and K is function of observed contract number in each curve. Some particularities reduce substantially the required computational effort, making the proposed criterion feasible. The data sample range is daily, from January 1997 to February 2001. The proposed criterion selected natural cubic spline, used as data perfect-fitting estimation method. Considering the trade rate precision, the spline is non-biased. However, quantitative analysis of performance determinant factors showed the existence of out-of-sample error heteroskedasticities. From a conditional variance specification of these errors, a security interval scheme is proposed for interest rate generated by perfect-fitting natural cubic spline. A backtest showed that the proposed security interval is consistent, accommodating the evolved assumptions and approximations. The second part estimate US free-for-floating interest rate swap contract curve by using Support Vector Machine (SVM), a method derived from Statistical Learning Theory. The SVM research has got important theoretical results, however the number of implementation on real regression problems is low. SVM has some attractive characteristics for interest rates curves modeling: it has the ability to introduce already in its estimation process a priori information about curve shape and about liquidity and price formation aspects of the contracts that generate the curve. The last information set is quantified by the bid-ask spread. The basic SVM formulation is changed in order to be able to incorporate the different values for bid-ask spreads, without losing its properties. Great attention is given to the question of how to extract a priori information from swap curve typical shape to be used in MVS parameter selection. The data sample range is daily, from March 1997 to April 2001. The out-of-sample performances of different SVM specifications are faced with others method performances. SVM got the better control of trade- off between bias and variance of out-of-sample errors.

Page generated in 0.0416 seconds