Return to search

[en] ESSAYS IN ECONOMETRICS: ONLINE LEARNING IN HIGH-DIMENSIONAL CONTEXTS AND TREATMENT EFFECTS WITH COMPLEX AND UNKNOWN ASSIGNMENT RULES / [pt] ESTUDOS EM ECONOMETRIA: APRENDIZADO ONLINE EM AMBIENTES DE ALTA DIMENSÃO E EFEITOS DE TRATAMENTO COM REGRAS DE ALOCAÇÃO COMPLEXAS E DESCONHECIDAS

[pt] Essa tese é composta por dois capítulos. O primeiro deles refere-se ao
problema de aprendizado sequencial, útil em diversos campos de pesquisa e
aplicações práticas. Exemplos incluem problemas de apreçamento dinâmico,
desenhos de leilões e de incentivos, além de programas e tratamentos sequenciais.
Neste capítulo, propomos a extensão de uma das mais populares regras
de aprendizado, epsilon-greedy, para contextos de alta-dimensão, levando em consideração
uma diretriz conservadora. Em particular, nossa proposta consiste em
alocar parte do tempo que a regra original utiliza na adoção de ações completamente
novas em uma busca focada em um conjunto restrito de ações promissoras.
A regra resultante pode ser útil para aplicações práticas nas quais existem
restrições suaves à adoção de ações não-usuais, mas que eventualmente, valorize
surpresas positivas, ainda que a uma taxa decrescente. Como parte dos resultados,
encontramos limites plausíveis, com alta probabilidade, para o remorso
cumulativo para a regra epsilon-greedy conservadora em alta-dimensão. Também,
mostramos a existência de um limite inferior para a cardinalidade do conjunto
de ações viáveis que implica em um limite superior menor para o remorso da
regra conservadora, comparativamente a sua versão não-conservadora. Adicionalmente,
usuários finais possuem suficiente flexibilidade em estabelecer o nível
de segurança que desejam, uma vez que tal nível não impacta as propriedades
teóricas da regra de aprendizado proposta. Ilustramos nossa proposta tanto
por meio de simulação, quanto por meio de um exercício utilizando base de
dados de um problema real de sistemas de classificação. Por sua vez, no segundo
capítulo, investigamos efeitos de tratamento determinísticos quando a
regra de aloção é complexa e desconhecida, talvez por razões éticas, ou para
evitar manipulação ou competição desnecessária. Mais especificamente, com
foco na metodologia de regressão discontínua sharp, superamos a falta de conhecimento
de pontos de corte na alocação de unidades, pela implementação
de uma floresta de árvores de classificação, que também utiliza aprendizado
sequencial na sua construção, para garantir que, assintoticamente, as regras de
alocação desconhecidas sejam identificadas corretamente. A estrutura de árvore
também é útil nos casos em que a regra de alocação desconhecida é mais complexa que as tradicionais univariadas. Motivado por exemplos da vida prática,
nós mostramos nesse capítulo que, com alta probabilidade e baseado em
premissas razoáveis, é possível estimar consistentemente os efeitos de tratamento
sob esse cenário. Propomos ainda um algoritmo útil para usuários finais
que se mostrou robusto para diferentes especificações e que revela com relativa
confiança a regra de alocação anteriormente desconhecida. Ainda, exemplificamos
os benefícios da metodologia proposta pela sua aplicação em parte do
P900, um programa governamental Chileno de suporte para escolas, que se
mostrou adequado ao cenário aqui estudado. / [en] Sequential learning problems are common in several fields of research
and practical applications. Examples include dynamic pricing and assortment,
design of auctions and incentives and permeate a large number of sequential
treatment experiments. In this essay, we extend one of the most popular
learning solutions, the epsilon-greedy heuristics, to high-dimensional contexts considering
a conservative directive. We do this by allocating part of the time the
original rule uses to adopt completely new actions to a more focused search
in a restrictive set of promising actions. The resulting rule might be useful for
practical applications that still values surprises, although at a decreasing rate,
while also has restrictions on the adoption of unusual actions. With high probability,
we find reasonable bounds for the cumulative regret of a conservative
high-dimensional decaying epsilon-greedy rule. Also, we provide a lower bound for
the cardinality of the set of viable actions that implies in an improved regret
bound for the conservative version when compared to its non-conservative
counterpart. Additionally, we show that end-users have sufficient flexibility
when establishing how much safety they want, since it can be tuned without
impacting theoretical properties. We illustrate our proposal both in a simulation
exercise and using a real dataset. The second essay studies deterministic
treatment effects when the assignment rule is both more complex than traditional
ones and unknown to the public perhaps, among many possible causes,
due to ethical reasons, to avoid data manipulation or unnecessary competition.
More specifically, sticking to the well-known sharp RDD methodology,
we circumvent the lack of knowledge of true cutoffs by employing a forest of
classification trees which also uses sequential learning, as in the last essay, to
guarantee that, asymptotically, the true unknown assignment rule is correctly
identified. The tree structure also turns out to be suitable if the program s rule
is more sophisticated than traditional univariate ones. Motivated by real world
examples, we show in this essay that, with high probability and based on reasonable
assumptions, it is possible to consistently estimate treatment effects
under this setup. For practical implementation we propose an algorithm that
not only sheds light on the previously unknown assignment rule but also is capable
to robustly estimate treatment effects regarding different specifications
imputed by end-users. Moreover, we exemplify the benefits of our methodology
by employing it on part of the Chilean P900 school assistance program, which
proves to be suitable for our framework.

Identiferoai:union.ndltd.org:puc-rio.br/oai:MAXWELL.puc-rio.br:55194
Date04 October 2021
CreatorsCLAUDIO CARDOSO FLORES
ContributorsMARCELO CUNHA MEDEIROS, MARCELO CUNHA MEDEIROS, MARCELO CUNHA MEDEIROS
PublisherMAXWELL
Source SetsPUC Rio
LanguageEnglish
Detected LanguagePortuguese
TypeTEXTO

Page generated in 0.0034 seconds