1 |
[en] ADAPTIVE HEURISTIC CONTROLLERS / [pt] CONTROLADORES HEURÍSTICOS ADAPTATIVOSRICARDO GUTIERRES 27 December 2006 (has links)
[pt] Um controlador Heurístico Adaptativo baseia-se num
conjunto de regras lingüísticas para conduzir um processo
com modelo impreciso ou complexo ao estado desejado. O
comportamento do processo deve respeitar os requisitos de
performance predefinidos. Para satisfazer estes objetivos,
a estrutura interna do controle sofre mudanças para adequá-
la as condições vigentes no processo.
Os métodos de adaptação abordados consideram a modificação
de uma estrutura matricial interpretada como as correções
incrementais, compatíveis com os ajustes a serem efetuados
sobre o processo, ou como regras, constituídas por
variáveis nebulosas, que requerem manipulações adicionais
para produzir a saída do controlador. Em qualquer dos
casos, a adaptação é realizada a partir de uma Tabela de
Índices de Performance. Para facilitar a sua obtenção é
implementado um procedimento, que fornece a representação
matricial das regras lingüísticas, concatenadas na forma
de um Algoritmo Lingüístico de Controle.
O comportamento dinâmico do Sistema, composto pelos
Controladores Heurísticos e por processos com modelos
distintos, é considerado para Tabelas de índices de
Performance com várias dimensões. As regras lingüísticas,
correlacionadas com estas tabelas, foram elaboradas com
diversas classes de atributos.
As simulações realizadas concentram-se sobre os parâmetros
dos controladores, que influenciam significativa-
Os estudos abordam também o comportamento da estrutura
interna destes controladores e o seu desempenho em termos
da velocidade de atuação sobre o processo. / [en] A heuristic Controller uses a set of linguistic rules,
which are derived from expertise or human operators´
skills, in order to achieve control of processes that have
inaccurate or complex models.
An adaptative Heuristic Controller adjusts the set of
rules in an automatic and continuous way, aiming to
achieve prescribed objectives indicated by a performance
measure.
The adaptative procedures modify a matrix, the elements of
which are either incremental corrections or numeric rules
associated with fuzzy variables. In both cases a
Performance Index Table and a learning method are employed
to correct that matrix. The Performance Table is a matrix
calculated from a set of linguistic rules.
The controllers are implemented with different Performance
Tables, considering various sets of linguistic values and
quantization levels.
The dynamic behaviour of overdamped and underdamped
processes is investigated. The performance of simulated
systems is analyzed with respect to relevant parameters
that affect their behaviour.
|
2 |
[en] RETHINKING SANCTIONS: AN INTERDISCIPLINARY ANALYSIS OF PUNISHMENT / [pt] REPENSANDO AS SANÇÕES: UMA ANÁLISE INTERDISCIPLINAR DO FENÔMENO PUNITIVOPEDRO HENRIQUE VEIGA CHRISMANN 31 October 2013 (has links)
[pt] Embora as sanções estejam bastante presentes nas experiências jurídicas
ao redor do mundo, durante muito tempo o tema foi negligenciado pelos teóricos
analíticos do direito. O motivo é o entendimento corrente de que a sanção não é
um elemento necessário para a normatividade jurídica e que, portanto, não é
objeto da jusfilosofia. O direito, no entanto,é melhor explicado não apenas pelo
estudo das características necessárias e suficientes, mas pela observação de seus
aspectos considerados importantes.Se o trabalho do jusfilósofo é conceituar ou
descrever o fenômeno jurídico, ou fornecer material normativo para aqueles que
vivem a experiência jurídica, ele deve compreender essas características que se
mantêm presentes em vários ordenamentos.Com esse foco, este trabalho utiliza
uma abordagem interdisciplinar para estudar as sanções. As sanções geralmente
são usadas como estímulo para o cumprimento de regras. Experimentos com
jogos econômicos têm confirmado a eficiência dessa prática. Há, contudo, casos
em que a introdução de sanções produz o resultado contrário ao pretendido. Como
o uso de regras tem um valor positivo para a coletividade, o estudo sobre a forma
como as pessoas compreendem o emprego de sanções pode ajudar a melhorar a
produção legislativa. A despeito da discussão normativa, estudos psicológicos
apontam para uma tendência punitiva retributivista no julgamento das pessoas
comuns. Além disso, a psicologia tem indicado algumas assimetrias no
comportamento punitivo.O filósofo do direito deveria fazer um esforço para
integrar as diferentes informações para fornecer explicações mais adequadas do
fenômeno jurídico e para construir teorias normativas mais factíveis. / [en] Although sanctions are a constant presence on law systems around the
world, the analytic philosophers of law neglected this subject for a long time. The
reason is that sanctions were though as an unnecessary element to explain legal
normativity. However, law is better explained by the observation of what is
understood as its important features and not by its necessary and sufficient ones.
If the work of those philosophers its to conceptualize or to describe the legal
phenomenon, or to provide normative material, they must comprehend features
that are presents in almost every legal system. Following this line of thought, this
study is an interdisciplinary approach to sanctions. The sanctions are usually used
as incentives for rules observance. Experiments made of economic games have
confirmed the efficiency of this method. There are, nevertheless, cases in which
sanctions make the opposite result that is expected. As much as rules have a
positive value for society, the study about the way people understand the use of
sanctions can help improve legal production. Despite the normative debate,
psychological studies are pointing to a retributivist tendency in folk people
punitive judgments. Besides that, psychology has showed some asymmetries in
punitive behavior. The philosopher of law should make an effort to integrate
different information in order to provide more accurate explanations to the legal
phenomenon and create more feasible normative theories.
|
3 |
[en] CLASSIFICATION OF DATABASE REGISTERS THROUGH EVOLUTION OF ASSOCIATION RULES USING GENETIC ALGORITHMS / [pt] CLASSIFICAÇÃO DE REGISTROS EM BANCO DE DADOS POR EVOLUÇÃO DE REGRAS DE ASSOCIAÇÃO UTILIZANDO ALGORITMOS GENÉTICOSCARLOS HENRIQUE PEREIRA LOPES 19 October 2005 (has links)
[pt] Esta dissertação investiga a utilização de Algoritmos
Genéticos (AG) no processo de descoberta de conhecimento
implícito em Banco de Dados (KDD - Knowledge Discovery
Database). O objetivo do trabalho foi avaliar o desempenho
de Algoritmos Genéticos no processo de classificação de
registros em Bancos de Dados (BD). O processo de
classificação no contexto de Algoritmos Genéticos consiste
na evolução de regras de associação que melhor
caracterizem, através de sua acurácia e abrangência, um
determinado grupo de registros do BD. O trabalho consistiu
de 4 etapas principais: um estudo sobre a área de
Knowledge Discovery Database (KDD); a definição de um
modelo de AG aplicado à Mineração de Dados (Data Mining);
a implementação de uma ferramenta (Rule-Evolver) de
Mineração de Dados; e o estudo de casos.
O estudo sobre a área de KDD envolveu todo o processo de
descoberta de conhecimento útil em banco de dados:
definição do problema; seleção dos dados; limpeza dos
dados; pré-processamento dos dados; codificação dos dados;
enriquecimento dos dados; mineração dos dados e a
interpretação dos resultados. Em particular, o estudo
destacou a fase de Mineração de Dados e os algoritmos e
técnicas empregadas (Redes Neurais, Indução de regras,
Modelos Estatísticos e Algoritmos Genéticos). Deste estudo
resultou um survey sobre os principais projetos de
pesquisa na área.
A modelagem do Algoritmo Genético consistiu
fundamentalmente na definição de uma representação dos
cromossomas, da função de avaliação e dos operadores
genéticos. Em mineração de dados por regras de associação
é necessário considerar-se atributos quantitativos e
categóricos. Atributos quantitativos representam variáveis
contínuas (faixa de valores) e atributos categóricos
variáveis discretas. Na representação definida, cada
cromossoma representa uma regra e cada gene corresponde a
um atributo do BD, que pode ser quantitativo ou categórico
conforme a aplicação. A função de avaliação associa um
valor numérico à regra encontrada, refletindo assim uma
medida da qualidade desta solução. A Mineração de Dados
por AG é um problema de otimização onde a função de
avaliação deve apontar para as melhores regras de
associação. A acurácia e a abrangência são medidas de
desempenho e, em alguns casos, se mantém nulas durante
parte da evolução. Assim, a função de avaliação deve ser
uma medida que destaca cromossomas contendo regras
promissoras em apresentar acurácia e abrangência
diferentes de zero. Foram implementadas 10 funções de
avaliação. Os operadores genéticos utilizados (crossover e
mutação) buscam recombinar as cláusulas das regras, de
modo a procurar obter novas regras com maior acurácia e
abrangência dentre as já encontradas. Foram implementados
e testados 4 operadores de cruzamento e 2 de mutação.
A implementação de uma ferramenta de modelagem de AG
aplicada à Mineração de Dados, denominada Rule-Evolver,
avaliou o modelo proposto para o problema de classificação
de registros. O Rule-Evolver analisa um Banco de Dados e
extrai as regras de associação que melhor diferenciem um
grupo de registros em relação a todos os registros do
Banco de Dados. Suas características principais são:
seleção de atributos do BD; informações estatísticas dos
atributos; escolha de uma função de avaliação entre as 10
implementadas; escolha dos operadores genéticos;
visualização gráfica de desempenho do sistema; e
interpretação de regras. Um operador genético é escolhido
a cada reprodução em função de uma taxa preestabelecida
pelo usuário. Esta taxa pode permanecer fixa ou variar
durante o processo evolutivo. As funções de avaliação
também podem ser alteradas (acrescidas de uma recompensa)
em função da abrangência e da acurácia da regra. O Rule-
Evolver possui uma interface entre o BD e o AG, necessária
para tor / [en] This dissertation investigates the application of Genetic
Algorithms (GAs) to the process of implicit knowledge
discovery over databases (KDD - Knowledge Discovery
Database). The objective of the work has been the
assessment of the Genetic Algorithms (GA) performance in
the classification process of database registers. In the
context of Genetic Algorithms, this classification process
consists in the evolution of association rules that
characterise, through its accuracy and range, a particular
group of database registers. This work has encompassed
four main steps: a study over the area of Knowledge
Discovery Databases; the GA model definition applied to
Data Mining; the implementation of the Data Mining Rule
Evolver; and the case studies.
The study over the KDD area included the overall process
of useful knowledge discovery; the problem definition;
data organisation; data pre-processing; data encoding;
data improvement; data mining; and results´
interpretation. Particularly, the investigation emphasied
the data mining procedure, techniques and algorithms
(neural Networks, rule Induction, Statistics Models and
Genetic Algorithms). A survey over the mais research
projects in this area was developed from this work.
The Genetic Algorithm modelling encompassed fundamentally,
the definition of the chromosome representation, the
fitness evaluation function and the genetic operators.
Quantitative and categorical attributes must be taken into
account within data mining through association rules.
Quantitative attribites represent continuous variables
(range of values), whereas categorical attributes are
discrete variable. In the representation employed in this
work, each chromosome represents a rule and each gene
corresponds to a database attribute, which can be
quantitative or categorical, depending on the application.
The evaluation function associates a numerical value to
the discovered rule, reflecting, therefore, the fitness
evaluation function should drive the process towards the
best association rules. The accuracy and range are
performance statistics and, in some cases, their values
stay nil during part of the evolutionary process.
Therefore, the fitness evaluation function should reward
chromosomes containing promising rules, which present
accuracy and range different of zero. Ten fitness
evaluation functions have been implemented. The genetic
operators used in this work, crossover and mutation, seek
to recombine rules´clauses in such a way to achieve rules
of more accuracy and broader range when comparing the ones
already sampled. Four splicing operators and two mutation
operators have been experimented.
The GA modeling tool implementation applied to Data Mining
called Rule Evolever, evaluated the proposed model to the
problem of register classification. The Rule Evolver
analyses the database and extracts association rules that
can better differentiate a group of registers comparing to
the overall database registers. Its main features are:
database attributes selection; attributes statistical
information; evaluation function selection among ten
implemented ones; genetic operators selection; graphical
visualization of the system performance; and rules
interpretation. A particular genetic operator is selected
at each reproduction step, according to a previously
defined rate set by the user. This rate may be kept fix or
may very along the evolutionary process. The evolutionary
process. The evaluation functions may also be changed (a
rewarding may be included) according to the rule´s range
and accuracy. The Rule Evolver implements as interface
between the database and the GA, endowing the KDD process
and the Data Mining phase with flexibility. In order to
optimise the rules´ search process and to achieve better
quality rules, some evolutionary techniques have been
implemented (linear rank and elitism), and different
random initialisation methods have been used as well;
global averag
|
4 |
[en] TRAFFIC CONTROL THROUGH FUZZY LOGIC AND NEURAL NETWORKS / [pt] CONTROLE DE SEMÁFOROS POR LÓGICA FUZZY E REDES NEURAISALEXANDRE ROBERTO RENTERIA 17 June 2002 (has links)
[pt] Este trabalho apresenta a utilização de lógica fuzzy e de
redes neurais no desenvolvimento de um controlador de
semáforos - o FUNNCON. O trabalho realizado consiste em
quatro etapas principais: estudo dos fundamentos de
engenharia de tráfego; definição de uma metodologia para a
avaliação de cruzamentos sinalizados; definição do
modelo do controlador proposto; e implementação com dados
reais em um estudo de caso.O estudo sobre os fundamentos de
engenharia de tráfego aborda a definição de termos,os
parâmetros utilizados na descrição dos fluxos de tráfego,
os tipos de cruzamentos e seus semáforos, os sistemas de
controle de tráfego mais utilizados e as diversas medidas de
desempenho.Para se efetuar a análise dos resultados do
FUNNCON, é definida uma metodologia para a avaliação de
controladores. Apresenta-se, também, uma investigação sobre
simuladores de tráfego existentes, de modo a permitir a
escolha do mais adequado para o presente estudo. A
definição do modelo do FUNNCON compreende uma descrição
geral dos diversos módulos que o compõem. Em seguida, cada
um destes módulos é estudado separadamente: o uso de redes
neurais para a predição de tráfego futuro; a elaboração de
um banco de cenários ótimos através de um otimizador; e a
criação de regras fuzzy a partir deste banco.No estudo de
caso, o FUNNCON é implementado com dados reais fornecidos
pela CET-Rio em um cruzamento do Rio de Janeiro e comparado
com o controlador existente.É constatado que redes neurais
são capazes de fornecer bons resultados na predição do
tráfego futuro. Também pode ser observado que as regras
fuzzy criadas a partir do banco de cenários ótimos
proporcionam um controle efetivo do tráfego no cruzamento
estudado. Uma comparação entre o desempenho do FUNNCON e o
do sistema atualmente em operação é amplamente favorável ao
primeiro. / [en] This work presents the use of fuzzy logic and neural
networks in the development of a traffic signal controller -
FUNNCON. The work consists of four main sections: study of
traffic engineering fundamentals; definition of a
methodology for evaluation of traffic controls; definition
of the proposed controller model; and implementation on a
case study using real data.The study of traffic engineering
fundamentals considers definitions of terms,parameters used
for traffic flow description, types of intersections and
their traffic signals,commonly used traffic control systems
and performance measures.In order to analyse the results
provided by FUNNCON, a methodology for the evaluation of
controllers is defined. The existing traffic simulators are
investigated, in order to select the best one for the
present study.The definition of the FUNNCON model includes
a brief description of its modules.Thereafter each module
is studied separately: the use of neural networks for
future traffic prediction; the setup of a best scenario
database using an optimizer; and the extraction of
fuzzy rules from this database.In the case study, FUNNCON
is implemented with real data supplied by CET-Rio
from an intersection in Rio de Janeiro; its performance is
compared with that of the existing controller.It can be
observed that neural networks can present good results in
the prediction of future traffic and that the fuzzy rules
created from the best scenario database lead to an
effective traffic control at the considered intersection.
When compared with the system in operation, FUNNCON reveals
itself much superior.
|
5 |
[en] INFLATION TARGETING WITH A FISCAL TAYLOR RULE / [pt] METAS DE INFLAÇÃO COM UMA REGRA DE TAYLOR FISCALEDUARDO HENRIQUE LEITNER 17 September 2020 (has links)
[pt] Este estudo propõe e testa um regime de metas de inflação alternativoque nós chamamos de Regra de Taylor Fiscal (FTR). Nesse regime, o governo, mantém a taxa de juros nominal constante e usa a alíquota de imposto sobre o consumo como instrumento para estabilizar a inflação e o hiato do produto. Nós estimamos um modelo padrão de ciclo de negócios a partir de dados dos EUA do período da Grande Moderação (1985-2007) e comparamos os resultados observados aos resultados de uma simulação contrafactual em que aplicamos
os choques estimados ao mesmo modelo substituindo a regra de Taylor padrão pela FTR. Nós verificamos que, comparada a uma regra de Taylor padrão, a FTR pode ser capaz de prover uma performance similar em termos de estabilização econômica e portanto constitui uma opção teoricamente viável de política de estabilização econômica. / [en] This study proposes and tests an alternative inflation targeting regime which we call the fiscal Taylor rule (FTR). In this regime, the government keeps the nominal interest rate constant and uses the consumption tax rate as an instrument to stabilize inflation and the output gap. We estimate a standard business cycle model on US data from the Great Moderation period (1985-2007) and compare the observed outcomes to those of a counterfactual simulation where we apply the estimated shocks to the same business cycle model replacing the standard Taylor rule by the FTR. We find that compared to the standard Taylor rule, the FTR may be capable of providing similar performance in terms of economic stabilization and thus constitutes a theoretically viable option of policy framework.
|
6 |
[en] USE OF EYE-TRACKING DATA TO MODEL VISUAL BEHAVIOR IN EXPERT SYSTEMS / [pt] USO DE DADOS DE EYE-TRACKING PARA MODELAGEM DE COMPORTAMENTO VISUAL EM SISTEMAS ESPECIALISTASABNER CARDOSO DA SILVA 22 September 2022 (has links)
[pt] O rastreamento ocular (eye-tracking) possibilita rastrear a posição e a
direção do olhar de uma pessoa sobre algum tipo de estímulo (e.g., imagens
ou vídeos). O uso desta tecnologia permite identificar eventos inerentes à visão
humana, que contém informações implícitas capazes de revelar aspectos importantes sobre o comportamento de um indivíduo durante uma determinada
tarefa. Porém, identificar essas informações requer um conjunto de habilidades
para interpretar os dados de rastreamento ocular e relacioná-los com conhecimentos de domínios específicos. Nesse contexto, pode-se fazer grande proveito
de sistemas inteligentes para agregar os conhecimentos e experiências de especialistas junto às respostas do dispositivo de rastreamento ocular. Dessa forma,
o objetivo principal deste trabalho é propor uma metodologia para criar sistemas baseados em eye-tracking, para enriquecer o processo de avaliação de
um indivíduo frente a uma determinada tarefa, resultando em um modelo para
representar o conhecimento dos especialistas sobre aspectos subjetivos, visando
automatizar esse processo avaliativo. Portanto, o presente trabalho toma como
caso de uso a avaliação da relação entre comportamento visual e eficácia de indivíduos na resolução de testes inspirados em Matrizes Progressivas de Raven.
Esses testes são comumente usados na psicologia para medir inteligência e a capacidade de raciocínio abstrato a partir da visualização de imagens. Optamos
por utilizar uma abordagem baseada em regras fuzzy, por permitir armazenar
conhecimento de forma mais transparente e legível aos usuários finais. As regras
do modelo foram desenvolvidas e validadas com o auxílio de um especialista
da área da psicologia. O sistema foi testado com dados extraídos de um grupo
de usuários e apresentou resultados promissores. Os achados e modelos obtidos
nessa pesquisa poderão ser utilizados como alicerce para o desenvolvimento de
sistemas mais robustos. / [en] Eye-tracking makes it possible to track the position and direction of
a person s gaze on some stimulus (e.g., images or videos). This technology
allows us to identify events inherent to human vision, containing implicit
information capable of revealing essential aspects of one s behavior during a
given task. However, identifying these pieces of information is a complex task
that requires a set of skills to interpret the eye-tracking data and relate it to
domain-specific knowledge. In this context, one can use intelligent systems to
couple the knowledge and experience of specialists with the responses from
the eye-tracking device. Thus, the main objective of this work is to propose a
methodology to create eye-tracking-based systems to improve the assessment
of subjects during specific tasks, resulting in a model that can represent
the specialist s knowledge over subjective aspects to automate this process.
Therefore, the present work s use case is the evaluation of the relationship
between visual behavior and efficiency in solving tests inspired by Raven s
Progressive Matrices. Those tests are commonly used in psychology to measure
intelligence and abstract reasoning through image visualization. We chose an
approach based on fuzzy rules, as it allows us to represent knowledge in a more
readable way to end-users. The model s rules were developed and validated
alongside a specialist in psychology. The system was tested with data extracted
from users and showed promising results. The findings and models obtained in
this research may be used as a foundation for the development of more robust
systems.
|
7 |
[en] ESSAYS ON MONETARY POLICY AND BUSINESS CYCLES UNDER MARKET IMPERFECTIONS / [pt] ENSAIOS SOBRE POLÍTICA MONETÁRIA E FLUTUAÇÕES ECONÔMICAS NA PRESENÇA DE IMPERFEIÇÕES DE MERCADOMARCO ANTONIO FREITAS DE HOLLANDA CAVALCANTI 11 July 2007 (has links)
[pt] Os ensaios que compõem a presente tese investigam, no
contexto
de modelos monetários de equilíbrio geral nos moldes
novo-
keynesianos,
algumas questões de interesse relativas condução da
política monetária e às
características das flutuações macroeconômicas. O
primeiro
ensaio analisa
as propriedades das políticas ótimas de desinflação,
buscando determinar
as condições sob as quais: (i) a trajetória ótima de
desinflação envolve
perdas substanciais de produto; (ii) uma estratégia de
desinflação rápida é
preferível a uma desinflação gradual. De acordo com os
resultados obtidos,
a existência de diferentes graus de fricções monetárias
e
de inércia no
produto e na inflação permite justificar diferentes
trajetórias ótimas de
desinflação, algumas envolvendo queda rápida e indolor
da
inflação, outras
associadas a lenta redução das taxas inflacionárias
acompanhada de forte
recessão. No segundo ensaio, investiga-se a relação
entre
as imperfeições
no mercado de crédito e o grau de amplificação de
choques
na economia
associado ao chamado acelerador financeiro. A partir de
simulações de
um modelo teórico que incorpora dois tipos de fricções
no
mercado de
crédito, conclui-se que a potência do acelerador
financeiro na amplificação de
choques monetários pode aumentar ou diminuir com as
fricções do mercado
de crédito, dependendo do nível inicial e do tipo de
imperfeição considerada.
O último ensaio investiga empiricamente a relação entre
imperfeições no
mercado de crédito, amplificação de choques e
volatilidade
macroeconômica
a partir de um painel de dados sócio-econômicos para 62
países. De acordo
com os resultados obtidos, que são consistentes com o
modelo desenvolvido
no segundo ensaio, a volatilidade macroeconômica varia
de
forma não-
monotonica com o viés anticredor do sistema jírídico-
legal, mas parece
aumentar com os custos de cumprimento de contratos / [en] This thesis consists of three essays on economic
fluctuations and
monetary policy issues, which are investigated within New-
Keynesian
monetary general equilibrium models. The first essay
analyzes the properties
of optimal disinflation policies, seeking to identify
conditions under which:
(i) the optimal disinflationary path involves significant
output losses; (ii) a
rapid disinflation is preferable to a gradual one.
According to our results,
different degrees of monetary frictions and inertia in
output or inflation
may lead to different optimal disinflationary policies -
some of which will
be quick and painless, while others will proceed slowly
and generate deep
recessions. The second essay investigates the relationship
between credit
market imperfections and the degree of shock amplification
arising from the
so-called financial accelerator, by simulating a
macroeconomic model with
two types of financial frictions. According to our
results, the power of the
financial accelerator may either increase or decrease with
financial frictions,
depending on the source and initial level of such
frictions. The third essay
provides an empirical investigation of the relationship
between credit market
imperfections, shock amplification and macroeconomic
volatility, based on
socioeconomic data from a panel of 62 countries. According
to our results,
which are consistent with the theoretical model developed
in the second
essay, macroeconomic volatility seems to increase with
contract enforcement
costs, but varies non-monotonically with the degree of
anti-creditor bias
in the judicial and legal system
|
8 |
[en] FUZZY RULES EXTRACTION FROM SUPPORT VECTOR MACHINES (SVM) FOR MULTI-CLASS CLASSIFICATION / [pt] EXTRAÇÃO DE REGRAS FUZZY PARA MÁQUINAS DE VETOR SUPORTE (SVM) PARA CLASSIFICAÇÃO EM MÚLTIPLAS CLASSESADRIANA DA COSTA FERREIRA CHAVES 25 October 2006 (has links)
[pt] Este trabalho apresenta a proposta de um novo método para
a extração de
regras fuzzy de máquinas de vetor suporte (SVMs) treinadas
para problemas de
classificação. SVMs são sistemas de aprendizado baseados
na teoria estatística
do aprendizado e apresentam boa habilidade de
generalização em conjuntos de
dados reais. Estes sistemas obtiveram sucesso em vários
tipos de problemas.
Entretanto, as SVMs, da mesma forma que redes neurais
(RN), geram um
modelo caixa preta, isto é, um modelo que não explica o
processo pelo qual
sua saída é obtida. Alguns métodos propostos para reduzir
ou eliminar essa
limitação já foram desenvolvidos para o caso de
classificação binária, embora
sejam restritos à extração de regras simbólicas, isto é,
contêm funções ou
intervalos nos antecedentes das regras. No entanto, a
interpretabilidade de
regras simbólicas ainda é reduzida. Deste modo, propõe-se,
neste trabalho, uma
técnica para a extração de regras fuzzy de SVMs treinadas,
com o objetivo de
aumentar a interpretabilidade do conhecimento gerado. Além
disso, o modelo
proposto foi desenvolvido para classificação em múltiplas
classes, o que ainda
não havia sido abordado até agora. As regras fuzzy obtidas
são do tipo se x1
pertence ao conjunto fuzzy C1, x2 pertence ao conjunto
fuzzy C2,..., xn pertence
ao conjunto fuzzy Cn, então o ponto x = (x1,...,xn) é da
classe A. Para testar o
modelo foram realizados estudos de caso detalhados com
quatro bancos de
dados: Íris, Wine, Bupa Liver Disorders e Winconsin Breast
Cancer. A cobertura
das regras resultantes da aplicação desse modelo nos
testes realizados
mostrou-se muito boa, atingindo 100% no caso da Íris. Após
a geração das
regras, foi feita uma avaliação das mesmas, usando dois
critérios, a abrangência
e a acurácia fuzzy. Além dos testes acima mencionados foi
comparado o
desempenho dos métodos de classificação em múltiplas
classes usados no
trabalho. / [en] This text proposes a new method for fuzzy rule extraction from support
vector machines (SVMs) trained to solve classification problems. SVMs are
learning systems based on statistical learning theory and present good ability of
generalization in real data base sets. These systems have been successfully
applied to a wide variety of application. However SVMs, as well as neural
networks, generates a black box model, i.e., a model which does not explain the
process used in order to obtain its result. Some considered methods to reduce
this limitation already has been proposed for the binary classification case,
although they are restricted to symbolic rules extraction, and they have, in their
antecedents, functions or intervals. However, the interpretability of the symbolic
generated rules is small. Hence, to increase the linguistic interpretability of the
generating rules, we propose a new technique for extracting fuzzy rules of a
trained SVM. Moreover, the proposed model was developed for classification in
multiple classes, which was not introduced till now. Fuzzy rules obtained are
presented in the format if x1 belongs to the fuzzy set C1, x2 belongs to the fuzzy
set C2 , … , xn belongs to the fuzzy set Cn , then the point x=(x1, x2, …xn) belongs
to class A. For testing this new model, we performed detailed researches on four
data bases: Iris, Wine, Bupa Liver Disorders and Wisconsin Breast Cancer. The
rules´ coverage resultant of the application of this method was quite good,
reaching 100% in Iris case. After the rules generation, its evaluation was
performed using two criteria: coverage and accuracy. Besides the testing above,
the performance of the methods for multi-class SVM described in this work was
evaluated.
|
9 |
[en] ESSAYS ON MONETARY AND FISCAL POLICY / [pt] ENSAIOS SOBRE POLÍTICAS MONETÁRIAS E FISCAISARTHUR GALEGO MENDES 21 January 2019 (has links)
[pt] Esta tese é composta por 3 capítulos. No primeiro capítulo mostro que quando um banco central não é totalmente apoiado financeiramente pelo tesouro e enfrenta uma restrição de solvência, um aumento no tamanho ou uma mudança na composição de seu balanço pode servir como um mecanismo de compromisso em um cenário de armadilha de liquidez. Em particular, quando a taxa de juros de curto prazo está em zero, operações de mercado aberto do banco central que envolvam compras de títulos de longo prazo podem ajudar a mitigar a deflação e recessão sob um equilíbrio de política discricionária. Usando um modelo simples com produto exógeno, mostramos que uma mudança no balanço do banco central, que aumenta seu tamanho e duração, incentiva o banco central a manter as taxas de juros baixas no futuro, a fim de evitar perdas e satisfazer a restrição de solvência, aproximando-se de sua política ótima de commitment. No segundo capítulo da tese, eu testo a validade do novo mecanismo desenvolvido no capítulo 1, incorporando um banco central financeiramente independente em um modelo DSGE de média escala baseado em Smets e Wouters (2007), e calibrando-o para replicar principais características da expansão do tamanho e composição do balanço do Federal Reserve no período pós-2008. Eu observo que os programas QE 2 e 3 geraram efeitos positivos na dinâmica da inflação, mas impacto modesto no hiato
do produto. O terceiro capítulo da tese avalia as consequências em termos de bem-estar de regras fiscais simples em um modelo de um pequeno país exportador de commodities com uma parcela da população sem acesso ao mercado financeiro, onde a política fiscal assume a forma de transferências. Uma constatação principal é que as regras orçamentárias equilibradas para as receitas de commodities geralmente superam as regras fiscais mais sofisticadas, em que as receitas de commodities são salvas em um Fundo de Riqueza Soberana. Como os choques nos preços das commodities são tipicamente altamente persistentes, a renda atual das famílias está próxima de sua renda permanente, tornando as regras orçamentárias equilibradas próximas do ideal. / [en] This thesis is composed of 3 chapters. In the first chapter, It s shown that when a central bank is not fully financially backed by the treasury and faces a solvency constraint, an increase in the size or a change in the composition of its balance sheet (quantitative easing - QE) can serve as a commitment device in a liquidity trap scenario. In particular, when the short-term interest rate is at the zero lower bound, open market operations by the central bank that involve purchases of long-term bonds can help mitigate deflation and recession under a discretionary policy equilibrium. Using a simple endowment-economy model, it s shown that a change in the central bank balance sheet, which increases its size and duration,
provides an incentive to the central bank to keep interest rates low in the future to avoid losses and satisfy its solvency constraints, approximating its full commitment policy. In the second chapter, the validity of the novel mechanism developed in chapter 1 is tested by incorporating a financiallyindependent central bank into a medium-scale DSGE model based on Smets and Wouters (2007), and calibrating it to replicate key features of the expansion of size and composition of the Federal Reserve s balance sheet in the post-2008 period. I find that the programs QE 2 and 3 generated positive effects on the dynamics of inflation, but mild effects on the output gap. The third chapter of the thesis evaluates the welfare consequences of simple fiscal rules in a model of a small commodity-exporting country with a share of financially constrained households, where fiscal policy takes the form of transfers. The main finding is that balanced budget rules for commodity revenues often outperform more sophisticated fiscal rules where commodity
revenues are saved in a Sovereign Wealth Fund. Because commodity price shocks are typically highly persistent, the households current income is close to their permanent income, so commodity price shocks don t need smoothing, making simple balanced budget rules close to optimal.
|
10 |
[en] WELFERE ANALYSIS OF MONETARY POLICY UNDER FISCAL RESTRICTION / [pt] AVALIAÇÃO DE BEM-ESTAR DE POLÍTICA MONETÁRIA SOB RESTRIÇÃO FISCALNILTO CALIXTO SILVA 07 November 2003 (has links)
[pt] O trabalho consiste no desenvolvimento de um modelo para
avaliação de bem-estar de política monetária numa
economia
onde o governo enfrenta alguma restrição à liberdade de
financiamento da dívida pública. O governo, no modelo, é
capaz de se financiar através da emissão de títulos da
dívida e de duas formas de taxação: lump sum e
distorciva.
A hipótese adotada no trabalho é que o governo não poderá
estabelecer um nível constante de taxação distorciva ao
longo do tempo, e deixar que o estoque da dívida ou da
taxação não distorciva se ajustem em resposta aos
choques.
Ao contrário, o governo será forçado a alterar a taxação
distociva corrente em resposta às variações do serviço da
dívida. A partir do modelo, são feitas as considerações
sobre o comportamento ótimo da autoridade monetária, no
sentido do estabelecimento de uma regra ótima de política
monetária. / [en] The dissertation consists in the development of a model to
evaluate the welfare effects of monetary policy in an
economy where the government faces some restriction to debt
financing. The government, in the model, is able to
finance its expenditures by issuing public debt or levying
two kinds of taxation:
lump sum and distortionary taxes. The hypothesis adopted
here is that the government cannot set a constant rate of
distortionary taxation over time, and let either the debt
stock or the lump sum taxation to adjust in response to
shocks. Instead, the government will be forced to adjust
the current distortionary taxation in response to
variations of the debt service. The conclusion is that the
optimal monetary policy rule that results from this model
is quite different from the optimal rule in the absence of
restrictions to debt financing.
|
Page generated in 0.0505 seconds