Return to search

Sobre la construcción de ensambles de clasificadores diversos en tanto que variación normalizada de información y su vínculo con su precisión / On diverse classifier's ensemble building by normalized variation of information and its link to its accuracy

La hipótesis en cuestión afirma que, dado el contexto teórico (i.e., definiciones matemáticas
consideradas apropiadas para describir los fenómenos que se pretende estudiar) descrito
en el artículo, existe una relación entre diversidad global y precisión de un ensamble
de clasificadores. Por lo tanto, el propósito de esta investigación es estudiar la relación entre
la precisión de ensambles y su diversidad dentro de un contexto geométrico y de
información. Para lograrlo, interpretamos el problema como uno geométrico
introduciendo un espacio métrico, donde los puntos son predicciones de clasificadores;
la función de distancia, la métrica Variación de Información Normalizada (NVI, por sus
siglas en inglés); y la construcción de un ensamble diverso es reducida a un problema de
criba y novedosamente transformado a uno de programación cuadrática. La significancia
estadística es asegurada haciendo uso de métodos Monte Carlo sobre 53 conjuntos de
datos apropiados. El resultado es un algoritmo basado en una métrica usada en el contexto
de teoría de la información, ideal para estudiar conjuntos de datos de alta dimensionalidad e
inherentemente ruidosos. Por tanto, es relevante cuando el costo de adquirir muestras es
muy alto; y la cantidad de variables, enorme. El marco teórico incluye las definiciones (e.g.,
definiciones relacionadas al concepto de diversidad o al espacio métrico utilizado), los
teoremas (e.g., propiedades de espacios métricos) y algoritmos base (i.e., programación
cuadrática) usados para conseguir los resultados. Los resultados muestran que, en
promedio, el exceso de precisión de un ensemble diverso respecto de su contraparte
aleatoria es función del valor de la diversidad global del mismo. Esto confirma la hipótesis
inicial. Además, la metodología introducida para modelar el algoritmo introduce un marco
que permite esclarecer la relación entre diversidad y precisión, ya que la representa en
términos geométricos. / Ensemble models for classification are a Machine Learning approach that have frequently proven useful in generating results with higher performance and robustness tan mono-classifier models. Common advantages include tolerance for input data noise, decreased variance, and bias in predictions. Many studies justify the fact that the diversity of an ensemble is related to accuracy insomeway. However, the correct definition of diversity and the conditions needed for those statements to hold true remain unclear. The present work addresses this issue from a geometrical perspective presenting a method to build diverse ensembles based on the Normalized Variation of Information and explore which conditions correlate to the variability in its accuracy. The knowledge generated from this analysis will make it possible to clarify and bring in sight into how ensemble diversity is related to en semble accuracy.

Identiferoai:union.ndltd.org:PUCP/oai:tesis.pucp.edu.pe:20.500.12404/20818
Date07 November 2021
CreatorsGuinea Ordóñez, Rodrigo José
ContributorsVillanueva Talavera, Edwin Rafael
PublisherPontificia Universidad Católica del Perú, PE
Source SetsPontificia Universidad Católica del Perú
LanguageEnglish
Detected LanguageSpanish
Typeinfo:eu-repo/semantics/masterThesis
Formatapplication/pdf
Rightsinfo:eu-repo/semantics/openAccess, Atribución 2.5 Perú, http://creativecommons.org/licenses/by/2.5/pe/

Page generated in 0.0016 seconds