1 |
[en] OCEANUI: INTERFACE FOR COUNTERFACTUAL EXPLANATIONS GENERATION / [pt] OCEANUI: INTERFACE PARA GERAÇÃO DE EXPLICAÇÕES CONTRAFACTUAISMOISES HENRIQUE PEREIRA 22 August 2022 (has links)
[pt] Atualmente algoritmos de aprendizado de máquina (ML) estão incrivelmente presentes no nosso cotidiano, desde sistemas de recomendação de filmes
e músicas até áreas de alto risco como saúde, justiça criminal, finanças e assim
por diante, auxiliando na tomada de decisões. Mas a complexidade de criação
desses algoritmos de ML também está aumentando, enquanto sua interpretabilidade está diminuindo. Muitos algoritmos e suas decisões não podem ser facilmente explicados por desenvolvedores ou usuários, e os algoritmos também não
são autoexplicáveis. Com isso, erros e vieses podem acabar ficando ocultos,
o que pode impactar profundamente a vida das pessoas. Devido a isso, iniciativas relacionadas a transparência, explicabilidade e interpretabilidade estão
se tornando cada vez mais relevantes, como podemos ver no novo regulamento
sobre proteção e tratamento de dados pessoais (GDPR, do inglês General Data
Protection Regulation), aprovado em 2016 para a União Europeia, e também
na Lei Geral de Proteção de Dados (LGPD) aprovada em 2020 no Brasil. Além
de leis e regulamentações tratando sobre o tema, diversos autores consideram
necessário o uso de algoritmos inerentemente interpretáveis; outros mostram
alternativas para se explicar algoritmos caixa-preta usando explicações locais,
tomando a vizinhança de um determinado ponto e então analisando a fronteira
de decisão dessa região; enquanto ainda outros estudam o uso de explicações
contrafactuais. Seguindo essa linha dos contrafactuais, nos propomos a desenvolver uma interface com usuário para o sistema Optimal Counterfactual
Explanations in Tree Ensembles (OCEAN), denominada OceanUI, através do
qual o usuário gera explicações contrafactuais plausíveis usando Programação
Inteira Mista e Isolation Forest. O propósito desta interface é facilitar a geração
de contrafactuais e permitir ao usuário obter um contrafactual personalizado e
mais aplicável individualmente, por meio da utilização de restrições e gráficos
interativos. / [en] Machine learning algorithms (ML) are becoming incredibly present in
our daily lives, from movie and song recommendation systems to high-risk areas like health care, criminal justice, finance, and so on, supporting decision
making. But the complexity of those algorithms is increasing while their interpretability is decreasing. Many algorithms and their decisions cannot be
easily explained by either developers or users, and the algorithms are also not
self-explanatory. As a result, mistakes and biases can end up being hidden,
which can profoundly impact people s lives. So, initiatives concerning transparency, explainability, and interpretability are becoming increasingly more
relevant, as we can see in the General Data Protection Regulation (GDPR),
approved in 2016 for the European Union, and in the General Data Protection
Law (LGPD) approved in 2020 in Brazil. In addition to laws and regulations,
several authors consider necessary the use of inherently interpretable algorithms; others show alternatives to explain black-box algorithms using local
explanations, taking the neighborhood of a given point and then analyzing
the decision boundary in that region; while yet others study the use of counterfactual explanations. Following the path of counterfactuals, we propose to
develop a user interface for the system Optimal Counterfactual Explanations
in Tree Ensembles (OCEAN), which we call OceanUI, through which the user
generates plausible counterfactual explanations using Mixed Integer Programming and Isolation Forest. The purpose of this user interface is to facilitate the
counterfactual generation and to allow the user to obtain a personal and more
individually applicable counterfactual, by means ofrestrictions and interactive
graphics.
|
Page generated in 0.0384 seconds