171 |
Estratégias incrementais em combinação de filtros adaptativos. / Incremental strategies in combination of adaptive filters.Wilder Bezerra Lopes 14 February 2012 (has links)
Neste trabalho uma nova estratégia de combinação de filtros adaptativos é apresentada e estudada. Inspirada por esquemas incrementais e filtragem adaptativa cooperativa, a combinação convexa usual de filtros em paralelo e independentes é reestruturada como uma configuração série-cooperativa, sem aumento da complexidade computacional. Dois novos algoritmos são projetados utilizando Recursive Least-Squares (RLS) e Least-Mean-Squares (LMS) como subfiltros que compõem a combinação. Para avaliar a performance da estrutura incremental, uma análise de média quadrática é realizada. Esta é feita assumindo que os combinadores têm valores fixos, de forma a permitir o estudo da universalidade da estrutura desacoplada da dinâmica do supervisor. As simulações realizadas mostram uma boa concordância com o modelo teórico obtido. / In this work a new strategy for combination of adaptive filters is introduced and studied. Inspired by incremental schemes and cooperative adaptive filtering, the standard convex combination of parallel-independent filters is rearranged into a series-cooperative configuration, while preserving computational complexity. Two new algorithms are derived employing Recursive Least-Squares (RLS) and Least-Mean-Squares (LMS) algorithms as the component filters. In order to assess the performance of the incremental structure, tracking and steady-state mean-square analysis is derived. The analysis is carried out assuming the combiners are fixed, so that the universality of the new structure may be studied decoupled from the supervisor\'s dynamics. The resulting analytical model shows good agreement with simulation results.
|
172 |
Algoritmo adaptativo tipo-LMS com soma do erro / LMS-like algorithm with adaptive sum of the errorNahuz, Charles Silva 11 March 2016 (has links)
Submitted by Rosivalda Pereira (mrs.pereira@ufma.br) on 2017-06-23T20:59:51Z
No. of bitstreams: 1
CharlesSilvaNahuz.pdf: 2149704 bytes, checksum: 650e374d99de26e3390d88bf0e7ac78a (MD5) / Made available in DSpace on 2017-06-23T20:59:51Z (GMT). No. of bitstreams: 1
CharlesSilvaNahuz.pdf: 2149704 bytes, checksum: 650e374d99de26e3390d88bf0e7ac78a (MD5)
Previous issue date: 2016-03-11 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / In this paper, implemented a new lter similar to the LMS, but, with a coast function based in the sum of the error. As a result, we obtain a very simple function, producing a rapid convergence and a small mismatch when compared with the LMS algorithm and other algorithms. The adaptive lter is based on non-linear functions such as estimation of the gradient of a surface performance. We use the gradient algorithm to update the weights. this update is based on high-order statistics to obtain information about the signs involved in the process, in order to improve the performace of the adaptive lter. Derive the equations based on Taylor series of non-linear functions, to achieve the criteria that ensures their convergence. We also do a weight vector covariance study in steady state and determine the equations that calculate the time constants in an adaptive process. Here the algorithm proposed, which uses a cost function and were made simulacoes Monte Carlo with real signals to validate the theory presented. In this role the α coefficients have been optimized to provide increased stability and better performance in its convergence speed. / Neste trabalho, implementamos um novo filtro semelhante ao LMS, porém, com uma função de custo baseada na soma do erro. Como resultado, obtemos uma função bastante simples, produzindo uma rápida convergência e um pequeno desajuste quando comparado com o algoritmo LMS e com outros algoritmos. O filtro adaptativo é baseado em funções não lineares como estimativa do gradiente de uma superfície de desempenho. Utilizamos o gradiente do algoritmo para atualização dos pesos. Essa atualização baseia-se nas estatísticas de alta ordem para obtenção de informações sobre os sinais envolvidos no processo, com o objetivo de melhorar a performance do filtro adaptativo. As equações foram derivadas e baseadas em séries de Taylor das funções não lineares, para obtenção dos critérios que garante a sua convergência. Também fazemos um estudo da covariância do vetor peso em regime estacionário e determinamos as equações que calculam as constantes de tempo em um processo adaptativo. Apresentamos o algoritmo proposto, que utiliza uma função de custo onde foram feitas simulações de Monte Carlo com sinais reais para validar a teoria apresentada. Nessa função os coe cientes αk foram otimizados para dar maior estabilidade e melhor desempenho na sua velocidade de convergência.
|
173 |
UM MODELO DE RECUPERAÇÃO DE INFORMAÇÃO PARA A WEB SEMÂNTICA. / AN INFORMATION RETRIEVAL MODEL FOR THE SEMANTIC WEB.SILVA, Fábio Augusto de Santana 18 May 2009 (has links)
Submitted by Maria Aparecida (cidazen@gmail.com) on 2017-08-29T14:17:25Z
No. of bitstreams: 1
Fabio Augusto.pdf: 2319314 bytes, checksum: 7dc99465ac724efe228c61bb9dfafa80 (MD5) / Made available in DSpace on 2017-08-29T14:17:25Z (GMT). No. of bitstreams: 1
Fabio Augusto.pdf: 2319314 bytes, checksum: 7dc99465ac724efe228c61bb9dfafa80 (MD5)
Previous issue date: 2009-05-18 / Several techniques for extracting meaning from text in order to construct more
accurate internal representations of both queries and information items in retrieval
systems have been already proposed. However, there is a lack of semantic retrieval
models to provide appropriate abstractions of these techniques. This work proposes
a knowledge--based information retrieval model that explores the semantic content of
information items . The internal representation of information items is based on user
interest groups, called “semantic cases”. The model also defines a criteria for retrieve
information items and a function for ordering the results that uses similarity measures
based on semantic distance between semantic cases items. The model was
instantiated by a sample system built upon the tributary legal domain using the
specialization of the ONTOJURIS, a generic legal ontology, called ONTOTRIB. Legal
normative instruments can be instantiated in a knowledge base by ONTOTRIB
classes. The results obtained for this specific domain showed an improvement in the
precision rates compared to a keyword-based system. / Várias técnicas para extrair significado de textos com o objetivo de construir
representações internas mais precisas, tanto para itens de informação quanto para
consultas em sistemas de recuperação já foram propostas. Contudo, faltam modelos
de recuperação baseados em semântica que especifiquem abstrações apropriadas
para essas técnicas. Este trabalho apresenta um modelo de recuperação baseado
no conhecimento que explora o conteúdo semântico dos itens de informação. A
representação interna dos itens de informação é baseada em grupos de interesse do
usuário chamados de “casos semânticos”. O modelo também define um critério para
a recuperação dos itens de informação e uma função para ordenar os resultados
obtidos que utiliza medidas de similaridade baseadas na distância semântica entre
os elementos das representações internas. O modelo foi instanciado em um sistema
construído para o domínio jurídico tributário usando a ontologia ONTOTRIB, uma
extensão da ontologia genérica ONTOJURIS, que permite a instanciação de
instrumentos jurídico-tributários. Os resultados obtidos nos testes realizados neste
domínio específico apontaram uma melhoria da precisão em relação a um sistema
baseado em palavras-chave.
|
174 |
Análise de requisitos de percepção em groupwares móveis síncronos / Analysis of awareness requirements for synchronous mobile groupwaresMantau, Márcio José 29 November 2013 (has links)
Made available in DSpace on 2016-12-12T20:22:51Z (GMT). No. of bitstreams: 1
Marcio Mantau.pdf: 4926287 bytes, checksum: 7ed3061ee2ade50b90a0645355adef96 (MD5)
Previous issue date: 2013-11-29 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / This work investigates techniques for visualization and filtering of awareness information in mobile groupwares. We are concerning about mobile devices limitations, especially its reduced screen dimension that complicates the presentation and manipulation of information. The research was based on a collaborative game of questions and answers entitled Warming Up The Brain. The research method used was the action-research. We performed two cycles of research. In the first cycle, we applied visualization techniques of awareness information in a collaborative game, such as peripheral view, telepointers, list of participants, representative icons/avatars, and colors. In the second cycle, were applied filtering techniques of awareness information, considering user context information, such as information about the group, screen size, device orientation, and individual preferences. Based on the filtering techniques it was possible to build an WYSIWIS context-aware interface (What You See Is What I See) interface. Thus, the collaborative game automatically adjusts the content displayed on the screen based on contextual information - automatic reconfiguration. The game was used by 41 students from three different groups. To evaluate visualization and filtering of awareness information, we defined a set of 24 requirements for mobile groupware development. Based on this set of requirements, it is possible to evaluate the usability of techniques for visualization and filtering of awareness information in four main aspects: the presentation of the awareness information, performance of collaborative tasks, users needs, and mobile devices features. / Este trabalho investiga técnicas de visualização e filtragem de informações de percepção em groupwares móveis. Considera-se que as limitações dos dispositivos móveis, em especial sua dimensão de tela reduzida, dificultam a apresentação e a manipulação das informações. A pesquisa foi fundamentada adaptando o jogo colaborativo de perguntas e respostas intitulado Warming Up The Brain. O método de pesquisa utilizado foi a pesquisa-ação. Foram realizados dois ciclos da pesquisa. No primeiro ciclo, foram empregadas técnicas de visualização de informações de percepção no jogo colaborativo, a saber, visão periférica, teleapontadores, lista de participantes, ícones representativos/avatares, e cores. No segundo ciclo, foram empregadas técnicas de filtragem de informação de percepção, considerando informações de contexto do usuário, a saber, informações sobre o grupo, dimensão e orientação da tela dos dispositivos, e preferências individuais. Com base na filtragem das informações de percepção foi possível construir uma interface WYSIWIS (o que você vê é o que eu vejo) sensível ao contexto. Desta forma, o jogo colaborativo ajusta automaticamente o conteúdo apresentado na interface com base nas informações contextuais reconfiguração automática. O jogo foi utilizado por 41 alunos de três grupos distintos. Para avaliar as técnicas de visualização e filtragem de informações de percepção foi definido um conjunto de 24 requisitos para o desenvolvimento de groupwares móveis. Com base neste conjunto de requisitos é possível avaliar a usabilidade das técnicas de visualização e filtragem em função de quatro aspectos principais: a apresentação das informações de percepção; o desempenho das tarefas colaborativas; as necessidades dos usuários; e as características dos dispositivos móveis.
|
175 |
Análise automática de registros digitais de perturbações em unidades geradorasMoreto, Miguel January 2011 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Elétrica, Florianópolis, 2011 / Made available in DSpace on 2012-10-26T01:16:36Z (GMT). No. of bitstreams: 1
294510.pdf: 5414994 bytes, checksum: 31259ab0746e67355092c0dc589b9de7 (MD5) / Nesta tese é apresentada uma nova metodologia para análise automática de perturbações em unidades de geração de energia. A proposta é baseada no uso de registros digitais de perturbação e de sequências de eventos, informações disponíveis nos centros de operação da das empresas do setor elétrico. Busca-se com esta proposta desenvolver uma metodologia capaz de arquivar automaticamente os registros das ocorrências que não necessitam de uma análise detalhada e fornecer uma estimativa da causa do registro nos demais casos. No âmbito dos sistemas de geração, as oscilografias são uma ferramenta fundamental para assegurar a correta operação dos geradores, principalmente de médio e grande porte. Elas constituem um registro das grandezas elétricas durante uma suposta perturbação, possibilitando que uma análise posterior possa ser feita. Com o intuito de determinar uma possível causa da perturbação e verificar a integridade dos equipamentos após a falta, o profissional analista deve fazer a conferência dos dados provenientes de todos os registradores de perturbação envolvidos, verificando além das oscilografias, a sequência de eventos dos sistemas de supervisão, visando avaliar a atuação dos dispositivos de proteção. Nesse processo, horas são despendidas na coleta e filtragem dos registros relevantes. Este problema é particularmente agravado nos casos em que a análise dos dados de várias usinas ou subestações é feita de forma centralizada. Como o tempo é crucial para a diminuição dos custos decorrentes da parada de um gerador, é evidente a necessidade de uma metodologia para dar prioridade aos casos mais importantes de forma automática. Nesta tese é proposto um sistema deste tipo dividido em duas etapas. A primeira faz uso de registros de oscilografia de longa duração, ou fasoriais, em conjunto com as sequências de eventos dos sistemas supervisórios para obter uma pré-análise da ocorrência, atuando como um filtro, arquivando as oscilografias irrelevantes e possibilitando que o analista concentre sua atenção aos casos considerados mais graves, como curtos-circuitos. São para estes casos que a segunda etapa da metodologia foi definida, utilizando os registros de forma de onda para obter uma classificação e origem da falta. Os resultados obtidos com registros reais de perturbação demonstram que tal metodologia atende aos objetivos propostos e tornam a pesquisa desenvolvida digna de contínuo aperfeiçoamento.
|
176 |
Desenvolvimento e análise de desempenho de um 'packet/session filter' / Development and performance analysis of a packet/session filterSpohn, Marco Aurelio January 1997 (has links)
A segurança em sistemas de computação é uma das áreas mais críticas nas ciências da informação. Freqüentemente se ouve falar em alguma "brecha" descoberta em algum sistema. Não importando quão grave seja o problema, já existe certa paranóia em relação a questões de segurança. Esses furos na segurança podem ser explorados de diversas maneiras: para obter benefícios financeiros indevidos, personificação maliciosa a custos de uma pretensa "brincadeira", perda de informações sigilosas, danos em arquivos do sistema, etc. Esses são alguns dos motivos porque se investe cada vez mais em segurança. Como se não bastasse, ainda existem os problemas relativos a legislação: por um lado, o governo pode vir a exigir que a segurança em sistemas de informação seja encarada como um problema federal e impor controle sobre tudo que seja utilizado nos mecanismos de proteção; por outro lado, outros podem reclamar a necessidade de privacidade e liberdade de escolha em problemas relativos a segurança. Os sistemas são, a medida que agregam mais recursos, muito complexos e extensos, propiciando um meio fértil para acúmulo de erros e conseqüentes problemas de segurança. A conectividade alterou a realidade da computação: as redes de computadores estão aí para provar. Entretanto, os sistemas em rede a medida que facilitam a realização de uma série de tarefas também apresentam vulnerabilidades. As redes públicas são um exemplo crítico, pois todas as informações passam por meios não confiáveis sujeitos a alteração ou utilização por terceiros. A Internet talvez represente um dos ambientes mais críticos a nível de segurança. Devido a sua abrangência e velocidade com que cresce, ela é um dos ambientes mais propícios a disseminação e exploração de "furos" de segurança. Existem, entretanto, um esforço constante em desenvolvimento de mecanismos para protegê-la. "Internet Firewalls", são um conjunto de mecanismos utilizados para formar uma barreira de segurança entre a rede interna e a Internet. isolando-a das principais ameaças. Os componentes básicos de um "firewall" são o "packet filter" e o "proxy server". Basicamente, o que esses componentes fazem é uma filtragem dos pacotes. 0 "packet filter", como o nome sugere, faz uma filtragem dos pacotes até o nível de transporte (UDP e TCP). 0 "proxy server" atua como um procurador entre o cliente e o servidor real realizando uma filtragem a nível de aplicação; portanto, é uma tarefa mais apurada. Cada um desses componentes básicos apresentam os seus benefícios à segurança da rede interna. Um dos problemas desses mecanismos, é que eles acarretam em um "overhead" ao sistema, degradando o desempenho. Um "packet filter" tem de ser suficientemente rápido para que não seja o gargalo do sistema. De fato, como é apresentado nesse trabalho, pode-se conseguir um filtro tão rápido quanto necessário. A filtragem dos pacotes é baseada nas regras de filtragem que são elaboradas segundo a política de segurança, a qual estabelece qual o tipo de tráfego que pode existir entre a rede interna e a Internet. Cada pacote que passa pelo filtro é comparado com as regras de filtragem na ordem em que elas foram especificadas pelo administrador. Dependendo do número de regras, e este é um fator relevante porque são em grande número os serviços utilizados na rede, o tempo médio de filtragem aumenta. Uma solução para melhorar o desempenho na filtragem, é realizar a filtragem dos pacotes por sessão ("session filter"). Nesse caso somente se consegue atender aos serviços baseados no TCP (que é orientado a conexão); entretanto, considerando que os serviços mais utilizados na rede são baseados no TCP esse é um mecanismo viável. Na filtragem por sessão apenas o pacote de solicitação de conexão é comparado com a lista de regras de filtragem. Os pacotes subsequentes são verificados junto a uma "cache" de sessões ativas. Caso o pacote pertença a alguma sessão válida ele é passado adiante; caso contrário, ele é descartado. O acesso a "cache" deve ser suficientemente rápido para justificar esse procedimento. Além do ganho em desempenho, o filtro de sessões apresenta a vantagem de monitoramento: todas as sessões ativas entre a rede interna e a Internet estão registradas na "cache". Esta dissertação apresenta o projeto e a implementação de um "Packet/session filter". O filtro foi implementado como um módulo do "kernel" do sistema operacional "FreeBSD". O filtro "ip_fw" disponível como "freeware" na referida plataforma, serviu como referência básica para o desenvolvimento do filtro proposto. O utilitário "ipfw", disponível para gerenciar o filtro de pacotes "ip_fw", foi adaptado para interagir com o filtro desenvolvido. Os testes de desempenho apresentam resultados esperados. Ou seja, o filtro de sessão melhora consideravelmente o processo de filtragem em relação a um filtro convencional. O recurso de monitoramento das sessões ativas também representa uma facilidade a mais no controle e obtenção de estatísticas para o "firewall". / Security in computer systems is one of the most critical areas in "information sciences". Often it is heard something about a new "hole" discovered in some system. No matter how important is such a problem, there is a "paranoia" regarding questions about security. These security holes could be explored in a diversity of ways: to obtain financial benefits, to impersonate somebody to spoofing, to obtain secret informations, to damage to file systems, etc. Those are some of the reasons because so much time and money are spent in security. There are also some problems concerning legislation: government can demand that security in information systems is a federal problem and it can lead to impose control over everything that is used in protection mechanisms; on the other hand, there is the question of privacy and freedom of choice concerning to security. By adding new resources to the systems, the complexity is increase and new bugs and security problems can arise. Connectivity has changed the computer reality: computer networks show that. However, network systems also present weak points. Public networks are a critical example because all information flow by untrusted medias subject to modification or misuse by outsiders. The Internet may be one of the most critical environments concerning security. Because the internet covers almost all the world and grows so fast, it's able to dissiminate "holes" in security. There is, however, a constant effort to develop new mechanisms to protect the Internet, Internet Firewalls are a set of mechanisms used to build a security barrier between the internal network and the internet, maintaining the internal network far away from the main threats. The basic components of a firewall are the packet filter and the proxy server. These two components basically do a packet screening. The "packet filter", as the name suggests, makes a packet filtering up to the transport layer (UDP and TCP). The Proxy Server acts like a proxy between the client and the real server, the proxy does a packet filtering at the application level; therefore, it's a refined task. Each one of these components present their own benefits to the internal network security. A problem of those mechanisms is that they bring an overhead to the system, slowing the performance. A packet filter must be fast enough, otherwise it'll be the bottleneck in the system. The present work slows that, it's possible to obtain a filter as fast as necessary. The packet filtering is based on the filter rules which are prepared following the security policy that establishes what kind of traffic can flow between the internal network and the Internet. Each packet that passes through the filter is compared with the filtering rules to check if it is in the sequence specified by the administrator. Depending on the number of rules, and this is an important issue because there is a great number of services available in the network, the filtering mean time increases. A solution to improve the filtering process is to make the packet filtering by session (session filter). In this case it's only possible to attend to TCP, based services (connection oriented); however, considering that the most used services in the internet are based on TCP this is a feasible mechanism. In the session filtering only the first packet is compared against the filtering rules. The next packets are verified against a session cache. If the packet refers to a valid session it's sent forward; otherwise, it's dropped. The access time to the cache must be fast enough in order to allow applying this procedure. Beyond the performance improvement the session filter presents the advantage of monitoring: all the active sessions are recorded in the "cache". This work presents the project and development of a "packet/session filter". The filter was developed as a kernel module of the operating system "FreeBSD". The filter "ip_fw" available as freeware served as a basic reference to the implementation of the filter here presented. The "ipfw" utility available to manage the "ipfw" packet filter was adapted to interact to the developed filter. The performance benchmark presents expected results. The session filter enhances the filtering process when compared to the conventional packet filter. The monitoring facility also represents an enhancement the control and statistics gathering.
|
177 |
Previsão de séries temporais utilizando rede neural treinada por filtro kalman e evolução diferencial / Rodrigo Clemente Thom de Souza ; orientador, Leandro dos Santos CoelhoSouza, Rodrigo Clemente Thom de January 2008 (has links)
Dissertação (mestrado) - Pontifícia Universidade Católica do Paraná, Curitiba, 2008 / Bibliografia: f. 71-82 / As Redes Neurais Função de Base Radial (RNs-RBF) são modelos não-lineares que podem ser treinados para implementar um mapeamento (interpolação) de entrada e saída desejado. Esta capacidade de generalização aliada ao baixo custo computacional inerente a RN / Radial Basis Function Neural Networks (RBF-NNs) are nonlinear models that can be trained to implements a desirable input and output mapping (interpolation). This generalization skill and the low computational cost of the RBF-NN enables efficiency when app
|
178 |
Modelo Nelson-Siegel dinâmico da estrutura a termo da taxa de juros com fatores exógenos macroeconômicos: uma aplicação ao mercado brasileiroBernz, Bruno Müller 11 August 2014 (has links)
Submitted by Bruno Bernz (brunobernz@hotmail.com) on 2014-09-11T14:01:11Z
No. of bitstreams: 1
BrunoMullerBernz.pdf: 1422340 bytes, checksum: 6168bf331115f083b6b0499c140f15ee (MD5) / Approved for entry into archive by JOANA MARTORINI (joana.martorini@fgv.br) on 2014-09-11T14:02:21Z (GMT) No. of bitstreams: 1
BrunoMullerBernz.pdf: 1422340 bytes, checksum: 6168bf331115f083b6b0499c140f15ee (MD5) / Made available in DSpace on 2014-09-11T14:10:50Z (GMT). No. of bitstreams: 1
BrunoMullerBernz.pdf: 1422340 bytes, checksum: 6168bf331115f083b6b0499c140f15ee (MD5)
Previous issue date: 2014-08-11 / The traditional representation of the term structure of interest rates in three latent factors (level, slope and curvature) had its original formulation developed by Charles R. Nelson and Andrew F. Siegel in 1987. Since then, several applications have been developed by academics and practitioners based on this class of models, mainly with the intention of anticipating movements in yield curves. At the same time, recently published papers as Diebold, Piazzesi and Rudebusch (2010), Diebold, Rudebusch and Aruoba (2006), Pooter, Ravazallo and van Dijk (2010) and Li, Niu and Zeng (2012) suggest that incorporating macroeconomic information to interest rates models can provide higher predictive power. In this study, the dynamic version of the Nelson-Siegel model, as proposed by Diebold and Li (2006), was compared to a similar model in which exogenous macroeconomic variables are included, for Brazilian data. In parallel, two different methods of parameter estimation were tested: the traditional two-step approach, and another, with the use of an Extended Kalman Filter, which allows parameters to be estimated recursively, every time a new information is added to the system. Regarding the models tested, the results were shown to be inconclusive, indicating only a marginal improvement in the estimates both in-sample and out-of-sample when exogenous variables are included. Nonetheless, the use of the Extended Kalman Filter showed more consistent results compared to the two-step method for almost all horizons studied. Keywords: Nelson-Siegel model, Term-Strucutre of Interest Rates, Macro-Finance, StateSpace Models, Brazil. / A tradicional representação da estrutura a termo das taxas de juros em três fatores latentes (nível, inclinação e curvatura) teve sua formulação original desenvolvida por Charles R. Nelson e Andrew F. Siegel em 1987. Desde então, diversas aplicações vêm sendo desenvolvidas por acadêmicos e profissionais de mercado tendo como base esta classe de modelos, sobretudo com a intenção de antecipar movimentos nas curvas de juros. Ao mesmo tempo, estudos recentes como os de Diebold, Piazzesi e Rudebusch (2010), Diebold, Rudebusch e Aruoba (2006), Pooter, Ravazallo e van Dijk (2010) e Li, Niu e Zeng (2012) sugerem que a incorporação de informação macroeconômica aos modelos da ETTJ pode proporcionar um maior poder preditivo. Neste trabalho, a versão dinâmica do modelo Nelson-Siegel, conforme proposta por Diebold e Li (2006), foi comparada a um modelo análogo, em que são incluídas variáveis exógenas macroeconômicas. Em paralelo, foram testados dois métodos diferentes para a estimação dos parâmetros: a tradicional abordagem em dois passos (Two-Step DNS), e a estimação com o Filtro de Kalman Estendido, que permite que os parâmetros sejam estimados recursivamente, a cada vez que uma nova informação é adicionada ao sistema. Em relação aos modelos testados, os resultados encontrados mostram-se pouco conclusivos, apontando uma melhora apenas marginal nas estimativas dentro e fora da amostra quando as variáveis exógenas são incluídas. Já a utilização do Filtro de Kalman Estendido mostrou resultados mais consistentes quando comparados ao método em dois passos para praticamente todos os horizontes de tempo estudados.
|
179 |
Vantagens e desvantagens do modelo dinâmico de Nelson-Siegel: aplicação ao mercado brasileiroFranciscangelo, João Gabriel Costa 24 August 2015 (has links)
Submitted by JOAO GABRIEL COSTA FRANCISCANGELO (joao_g_2@hotmail.com) on 2015-09-19T15:22:20Z
No. of bitstreams: 1
Dissertação João final.pdf: 1258276 bytes, checksum: 93011c99fa1370a6516c15a08e40a736 (MD5) / Approved for entry into archive by Renata de Souza Nascimento (renata.souza@fgv.br) on 2015-09-21T22:54:42Z (GMT) No. of bitstreams: 1
Dissertação João final.pdf: 1258276 bytes, checksum: 93011c99fa1370a6516c15a08e40a736 (MD5) / Made available in DSpace on 2015-09-22T13:51:58Z (GMT). No. of bitstreams: 1
Dissertação João final.pdf: 1258276 bytes, checksum: 93011c99fa1370a6516c15a08e40a736 (MD5)
Previous issue date: 2015-08-24 / Modeling the term structure of interest rates has high relevance to the financial market, due to the fact of its utilization for pricing bonds and derivatives, being a fundamental component in the economic policies and assisting in the development of trading strategies. The class of models created by Nelson-Siegel(1987), was extended by many authors and currently is largely used by several centel banks around the world. In this work the extension proposed by Diebold and Li (2006) was applied to the brazilian market, the parameters were calibrated using the Kalman Filter and the Kalman Filter Extended, the last method allowing the estimation with dinamism of all the four parameters used in the model. As mentioned by Durbin and Koopman (2012), the equations contained in the Kalman filter and its extended version do not enforce conditions of constant dimensions in the observations vector. Based on this concept, the filters implementation were made allowing its application independent on the number of observations on each time instant, avoiding the need of previous interporlation of data. It helps the model to reflect more faithfully the markets reality and relax the assumed hypotheses to obtain fixed vértices through interpolation. A new propose of adaptation will be tested in the Nelson-Siegel model, where the level parameter will be conditioned to the bond’s maturities happened before or after the next Copom’s meeting. The objective is to compare the prediction quality across the methods, pointing the benefits and drawbacks observed on each one of them. / A modelagem da estrutura a termo da taxa juros tem grande relevância para o mercado financeiro, isso se deve ao fato de ser utilizada na precificação de títulos de crédito e derivativos, ser componente fundamental nas políticas econômicas e auxiliar a criação de estratégias trading. A classe de modelos criada por Nelson-Siegel (1987), foi estendida por diversos autores e atualmente é largamente utilizada por diversos bancos centrais ao redor do mundo. Nesse trabalho utilizaremos a extensão proposta por Diebold e Li (2006) aplicada para o mercado brasileiro, os parâmetros serão calibrados através do Filtro de Kalman e do Filtro de Kalman Estendido, sendo que o último método permitirá estimar com dinamismo os quatros parâmetros do modelo. Como mencionado por Durbin e Koopman (2012), as fórmulas envolvidas no filtro de Kalman e em sua versão estendida não impõe condições de dimensão constante do vetor de observações. Partindo desse conceito, a implementação dos filtros foi feita de forma a possibilitar sua aplicação independentemente do número de observações da curva de juros em cada instante de tempo, dispensando a necessidade de interpolar os dados antes da calibração. Isso ajuda a refletir mais fielmente a realidade do mercado e relaxar as hipóteses assumidas ao interpolar previamente para obter vértices fixos. Também será testada uma nova proposta de adaptação do modelo de Nelson-Siegel, nela o parâmetro de nível será condicionado aos títulos terem vencimento antes ou depois da próxima reunião do Copom. O objetivo é comparar qualidade da predição entre os métodos, pontuando quais são as vantagens e desvantagens encontradas em cada um deles.
|
180 |
Desenvolvimento e análise de desempenho de um 'packet/session filter' / Development and performance analysis of a packet/session filterSpohn, Marco Aurelio January 1997 (has links)
A segurança em sistemas de computação é uma das áreas mais críticas nas ciências da informação. Freqüentemente se ouve falar em alguma "brecha" descoberta em algum sistema. Não importando quão grave seja o problema, já existe certa paranóia em relação a questões de segurança. Esses furos na segurança podem ser explorados de diversas maneiras: para obter benefícios financeiros indevidos, personificação maliciosa a custos de uma pretensa "brincadeira", perda de informações sigilosas, danos em arquivos do sistema, etc. Esses são alguns dos motivos porque se investe cada vez mais em segurança. Como se não bastasse, ainda existem os problemas relativos a legislação: por um lado, o governo pode vir a exigir que a segurança em sistemas de informação seja encarada como um problema federal e impor controle sobre tudo que seja utilizado nos mecanismos de proteção; por outro lado, outros podem reclamar a necessidade de privacidade e liberdade de escolha em problemas relativos a segurança. Os sistemas são, a medida que agregam mais recursos, muito complexos e extensos, propiciando um meio fértil para acúmulo de erros e conseqüentes problemas de segurança. A conectividade alterou a realidade da computação: as redes de computadores estão aí para provar. Entretanto, os sistemas em rede a medida que facilitam a realização de uma série de tarefas também apresentam vulnerabilidades. As redes públicas são um exemplo crítico, pois todas as informações passam por meios não confiáveis sujeitos a alteração ou utilização por terceiros. A Internet talvez represente um dos ambientes mais críticos a nível de segurança. Devido a sua abrangência e velocidade com que cresce, ela é um dos ambientes mais propícios a disseminação e exploração de "furos" de segurança. Existem, entretanto, um esforço constante em desenvolvimento de mecanismos para protegê-la. "Internet Firewalls", são um conjunto de mecanismos utilizados para formar uma barreira de segurança entre a rede interna e a Internet. isolando-a das principais ameaças. Os componentes básicos de um "firewall" são o "packet filter" e o "proxy server". Basicamente, o que esses componentes fazem é uma filtragem dos pacotes. 0 "packet filter", como o nome sugere, faz uma filtragem dos pacotes até o nível de transporte (UDP e TCP). 0 "proxy server" atua como um procurador entre o cliente e o servidor real realizando uma filtragem a nível de aplicação; portanto, é uma tarefa mais apurada. Cada um desses componentes básicos apresentam os seus benefícios à segurança da rede interna. Um dos problemas desses mecanismos, é que eles acarretam em um "overhead" ao sistema, degradando o desempenho. Um "packet filter" tem de ser suficientemente rápido para que não seja o gargalo do sistema. De fato, como é apresentado nesse trabalho, pode-se conseguir um filtro tão rápido quanto necessário. A filtragem dos pacotes é baseada nas regras de filtragem que são elaboradas segundo a política de segurança, a qual estabelece qual o tipo de tráfego que pode existir entre a rede interna e a Internet. Cada pacote que passa pelo filtro é comparado com as regras de filtragem na ordem em que elas foram especificadas pelo administrador. Dependendo do número de regras, e este é um fator relevante porque são em grande número os serviços utilizados na rede, o tempo médio de filtragem aumenta. Uma solução para melhorar o desempenho na filtragem, é realizar a filtragem dos pacotes por sessão ("session filter"). Nesse caso somente se consegue atender aos serviços baseados no TCP (que é orientado a conexão); entretanto, considerando que os serviços mais utilizados na rede são baseados no TCP esse é um mecanismo viável. Na filtragem por sessão apenas o pacote de solicitação de conexão é comparado com a lista de regras de filtragem. Os pacotes subsequentes são verificados junto a uma "cache" de sessões ativas. Caso o pacote pertença a alguma sessão válida ele é passado adiante; caso contrário, ele é descartado. O acesso a "cache" deve ser suficientemente rápido para justificar esse procedimento. Além do ganho em desempenho, o filtro de sessões apresenta a vantagem de monitoramento: todas as sessões ativas entre a rede interna e a Internet estão registradas na "cache". Esta dissertação apresenta o projeto e a implementação de um "Packet/session filter". O filtro foi implementado como um módulo do "kernel" do sistema operacional "FreeBSD". O filtro "ip_fw" disponível como "freeware" na referida plataforma, serviu como referência básica para o desenvolvimento do filtro proposto. O utilitário "ipfw", disponível para gerenciar o filtro de pacotes "ip_fw", foi adaptado para interagir com o filtro desenvolvido. Os testes de desempenho apresentam resultados esperados. Ou seja, o filtro de sessão melhora consideravelmente o processo de filtragem em relação a um filtro convencional. O recurso de monitoramento das sessões ativas também representa uma facilidade a mais no controle e obtenção de estatísticas para o "firewall". / Security in computer systems is one of the most critical areas in "information sciences". Often it is heard something about a new "hole" discovered in some system. No matter how important is such a problem, there is a "paranoia" regarding questions about security. These security holes could be explored in a diversity of ways: to obtain financial benefits, to impersonate somebody to spoofing, to obtain secret informations, to damage to file systems, etc. Those are some of the reasons because so much time and money are spent in security. There are also some problems concerning legislation: government can demand that security in information systems is a federal problem and it can lead to impose control over everything that is used in protection mechanisms; on the other hand, there is the question of privacy and freedom of choice concerning to security. By adding new resources to the systems, the complexity is increase and new bugs and security problems can arise. Connectivity has changed the computer reality: computer networks show that. However, network systems also present weak points. Public networks are a critical example because all information flow by untrusted medias subject to modification or misuse by outsiders. The Internet may be one of the most critical environments concerning security. Because the internet covers almost all the world and grows so fast, it's able to dissiminate "holes" in security. There is, however, a constant effort to develop new mechanisms to protect the Internet, Internet Firewalls are a set of mechanisms used to build a security barrier between the internal network and the internet, maintaining the internal network far away from the main threats. The basic components of a firewall are the packet filter and the proxy server. These two components basically do a packet screening. The "packet filter", as the name suggests, makes a packet filtering up to the transport layer (UDP and TCP). The Proxy Server acts like a proxy between the client and the real server, the proxy does a packet filtering at the application level; therefore, it's a refined task. Each one of these components present their own benefits to the internal network security. A problem of those mechanisms is that they bring an overhead to the system, slowing the performance. A packet filter must be fast enough, otherwise it'll be the bottleneck in the system. The present work slows that, it's possible to obtain a filter as fast as necessary. The packet filtering is based on the filter rules which are prepared following the security policy that establishes what kind of traffic can flow between the internal network and the Internet. Each packet that passes through the filter is compared with the filtering rules to check if it is in the sequence specified by the administrator. Depending on the number of rules, and this is an important issue because there is a great number of services available in the network, the filtering mean time increases. A solution to improve the filtering process is to make the packet filtering by session (session filter). In this case it's only possible to attend to TCP, based services (connection oriented); however, considering that the most used services in the internet are based on TCP this is a feasible mechanism. In the session filtering only the first packet is compared against the filtering rules. The next packets are verified against a session cache. If the packet refers to a valid session it's sent forward; otherwise, it's dropped. The access time to the cache must be fast enough in order to allow applying this procedure. Beyond the performance improvement the session filter presents the advantage of monitoring: all the active sessions are recorded in the "cache". This work presents the project and development of a "packet/session filter". The filter was developed as a kernel module of the operating system "FreeBSD". The filter "ip_fw" available as freeware served as a basic reference to the implementation of the filter here presented. The "ipfw" utility available to manage the "ipfw" packet filter was adapted to interact to the developed filter. The performance benchmark presents expected results. The session filter enhances the filtering process when compared to the conventional packet filter. The monitoring facility also represents an enhancement the control and statistics gathering.
|
Page generated in 0.0668 seconds