• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 178
  • 15
  • 3
  • 1
  • 1
  • Tagged with
  • 198
  • 198
  • 38
  • 36
  • 31
  • 29
  • 28
  • 28
  • 28
  • 28
  • 28
  • 28
  • 27
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Detección de fuga de operarios en una empresa del sector minero utilizando minería de datos

Jara Díaz, Roberto Ignacio January 2015 (has links)
Autor no autoriza el acceso a texto completo de su documento hasta el 13/10/2020. / Ingeniero Civil Industrial / El sector minero en Chile actualmente vive un periodo complejo que se debe en gran parte a la tendencia a la baja del precio del cobre y el aumento de los costos de explotación, por lo que se hace necesario innovar en los procesos para mantenerse competitivo en la industria. Uno de los desafíos principales se encuentra en la gestión de Recursos Humanos. En particular, Chile presentará un creciente déficit de operarios especialistas en el rubro durante la próxima década, por lo que se hace relevante conocer bien su comportamiento para evitar los desajustes en la planificación de explotación de un yacimiento. Este estudio afronta el problema desde la minería de datos, aplicados a una faena de la mediana minería chilena. Siguiendo la metodología KDD se analizaron datos históricos de los operarios de la empresa correspondientes a datos demográficos, capacitaciones y licencias, además de fuentes gratuitas de datos externos como el valor del cobre, para poder conocer de mejor manera cómo ha sido el comportamiento de renuncia de los operarios durante los años de funcionamiento de esta faena minera. Para el desarrollo del proyecto, se utilizaron tanto modelos paramétricos como no paramétricos sobre una variable objetivo de tres clases: Permanencia en la empresa, Renuncia Voluntaria y Despido. Si bien, el objetivo del proyecto no es predecir los despidos dentro de la compañía, se hace necesario distinguir este comportamiento del resto para tener una mejor comprensión del problema global: La rotación del personal. El modelo seleccionado para este caso fue Incremento de Gradiente (Gradient Boosting), el cual basa su funcionamiento en modelos débiles para construir secuencialmente un modelo que minimice una función de pérdida. Con esto, se obtuvo una precisión general del modelo de un 86% sobre datos de prueba. Las principales conclusiones de este estudio apuntan hacia la actual gestión de capacitaciones de los empleados de la faena. Se observa que aquellas personas que presentan mejor índice de aprobación y asistencia a las capacitaciones financiadas por la empresa poseen una probabilidad mayor a renunciar a su cargo. Según estudios de psicología laboral, casos como estos se pueden encontrar en empresas que son vistas como semilleros de empleados donde los empleados saben que pueden encontrar un buen ambiente de aprendizaje y perfeccionamiento, pero que al mismo tiempo, no permiten mucha movilidad dentro de la organización. En consecuencia, estas personas que poseen ahora una mejor empleabilidad debido a los conocimientos y experiencia adquirida, comenzarán a buscar un nuevo empleo donde se les ofrezcan estas oportunidades de crecimiento.
22

Análisis de relaciones existentes entre datos de robos de vehículos e información extraída de Twitter aplicando KDD

Vásquez Cáceres, Alejandro Andrés January 2017 (has links)
Ingeniero Civil Industrial / Los delitos en cualquier sociedad son una problemática que se intenta disminuir lo mayor posible. En Chile el robo de vehículos presenta tasas bastante elevadas, redondeando los 30.000 al año, lo que significa que un vehículo es sustraído cada 17 minutos en Chile. Esta investigación se enmarca en el proyecto de análisis de robos de vehículos desarrollado por PROSE, consultora que ofrece servicios de análisis y desarrollo a las empresas de seguros de vehículos de Chile, en conjunto con la Universidad de Chile y con el apoyo del Fondo de Fomento al Desarrollo Científico y Tecnológico. El proyecto pretende ayudar a entender y desarrollar un modelo predictivo del robo de vehículos utilizando 3 fuentes de información, denuncias de vehículos, medios noticiosos y Twitter. Twitter es una red social donde se comparten opiniones o declaraciones en tiempo real, los cuales son llamados Tweets, sus características han captado la atención de distintos investigadores que deciden utilizar esta información para explicar fenómenos sociales. Se han presentado problemas de interpretación de patrones o rendimiento de modelamientos predictivos al utilizar Twitter debido a sesgos inmersos en la red social, producidos por las características de los usuarios, como de localización, edad, contenido compartido o intereses. Es por esto que el objetivo principal de esta tesis es identificar las relaciones existentes entre el robo de vehículos y denuncias realizadas a través de Twitter en el periodo 2012 al 2016 con el fin de establecer las diferencias y similitudes entre ambas fuentes de datos. Para el desarrollo de esta tesis se consideran dos fuentes de datos, las denuncias de robos de vehículos almacenados por PROSE y denuncias realizadas por Twitter en el periodo 2012 al 2016. Se analizó la correlación de las denuncias entre ambas fuentes de datos, identificando que tienen una correlación de 0,73. Se recreó el proceso por los cuales pasa un robo de vehículo, en donde se descubrió que el orden es 1° Robo del vehículo, 2°Envío del Tweet, 3°.Denuncia en Carabineros de Chile, 4°Validación PROSE, y finalmente el Hallazgo. Es decir el Tweet es el primer evento que se origina luego del robo. Además se descubrió que aquellos vehículos que son denunciados por twitter presentan tasas de hallazgo superiores, conocimiento valioso para futuros trabajos. Algunos de los sesgos encontrados fueron que en Twitter se denuncia en una mayor proporción los vehículos de menor valor, además de mostrar que los modelos denunciados tienen tasas de frecuencias similares en ambas fuentes de información.
23

Image Descriptions for Sketch Based Image Retrieval

Saavedra Rondo, José Manuel January 2013 (has links)
Doctor en Ciencias, Mención Computación / Debido al uso masivo de Internet y a la proliferación de dispositivos capaces de generar información multimedia, la búsqueda y recuperación de imágenes basada en contenido se han convertido en áreas de investigación activas en ciencias de la computación. Sin embargo, la aplicación de búsqueda por contenido requiere una imagen de ejemplo como consulta, lo cual muchas veces puede ser un problema serio, que imposibilite la usabilidad de la aplicación. En efecto, los usuarios comúnmente hacen uso de un buscador de imágenes porque no cuentan con la imagen deseada. En este sentido, un modo alternativo de expresar lo que el usuario intenta buscar es mediante un dibujo a mano compuesto, simplemente, de trazos, sketch, lo que onduce a la búsqueda por imágenes basada en sketches. Hacer este tipo de consultas es soportado, además, por el hecho de haberse incrementado la accesibilidad a dispositivos táctiles, facilitando realizar consultas de este tipo. En este trabajo, se proponen dos métodos aplicados a la recuperación de imágenes basada en sketches. El primero es un método global que calcula un histograma de orientaciones usando gradientes cuadrados. Esta propuesta exhibe un comportamiento sobresaliente con respecto a otros métodos globales. En la actualidad, no existen métodos que aprovechen la principal característica de los sketches, la información estructural. Los sketches carecen de color y textura y representan principalmente la estructura de los objetos que se quiere buscar. En este sentido, se propone un segundo método basado en la representación estructural de las imágenes mediante un conjunto de formas primitivas que se denominan keyshapes. Los resultados de nuestra propuesta han sido comparados con resultados de métodos actuales, mostrando un incremento significativo en la efectividad de la recuperación. Además, puesto que nuestra propuesta basada en keyshapes explota una característica novedosa, es posible combinarla con otras técnicas para incrementar la efectividad de los resultados. Así, en este trabajo se ha evaluado la combinación del método propuesto con el método propuesto por Eitz et al., basado en Bag of Words, logrando un aumento de la efectividad de casi 22%. Finalmente, con el objetivo de mostrar el potencial de nuestra propuesta, se muestran dos aplicaciones. La primera está orientada al contexto de recuperación de modelos 3D usando un dibujo a mano como consulta. En esta caso, nuestros resultados muestran competitividad con el estado del arte. La segunda aplicación explota la idea de buscar objetos basada en la estructura para mejorar el proceso de segmentación. En particular, mostramos una aplicación de segmentación de manos en ambientes semi-controlados.
24

Diseño y aplicación de una metodología para análisis de noticias policiales utilizando minería de textos

Torres Silva, Daniel Alejandro January 2013 (has links)
Ingeniero Civil Industrial / En esta memoria se presenta el diseño y la aplicación de una metodología, basada en técnicas de minería de textos, para el procesamiento de grandes volúmenes de noticias que permita descubrir interesantes patrones en los datos para desarrollar un acabado análisis de la cobertura de distintas temáticas policiales y estudiar su relación con las estadísticas de casos reales de delincuencia. Las noticias policiales han sido objeto de constante análisis, cuyo interés se debe a la probable distorsión que provocaría sobre los niveles de preocupación frente al delito en la población. Los artículos noticiosos poseen valiosa información que muchas veces no es explotada, dado que requiere de un proceso de análisis manual, intensivo en tiempo y recursos. Actualmente existen herramientas tecnológicas que permiten manejar crecientes volúmenes de datos, particularmente datos no estructurados como los textos, tomando cada vez más protagonismo la minería de textos en el descubrimiento de nuevo e interesante conocimiento. La metodología de investigación propuesta se basa en las etapas del modelo de procesos CRISP-DM, para lo cual se debe integrar la comprensión de la naturaleza del problema, la comprensión y preparación de los datos, la construcción y evaluación de los modelos y los posteriores desarrollos a partir del conocimiento generado. La aplicación de la metodología se realiza sobre un conjunto de noticias policiales en formato RSS recopiladas a partir de cuatro medios de prensa nacionales durante el segundo semestre del año 2011. Se logran identificar siete temáticas policiales dentro de las noticias, caracterizando cada una de ellas a partir de diferentes herramientas basadas en las palabras más relevantes. Se detecta que las distintas temáticas presentan diferentes niveles de cobertura entre sí, así como también según región y según medio de prensa. También se logra constatar una relativa proporcionalidad entre el número de noticias y el número de habitantes según región, mientras que la posible relación entre el número de casos reales y el número de noticias podría explicar una proporción importante de la variabilidad experimentada por los niveles de noticias para cada temática policial. La metodología implementada permite cumplir exitosamente con los objetivos propuestos, facilitando la comprensión y manejo de las distintas interacciones entre las etapas involucradas en el proceso. Como trabajo futuro se plantea un sistema de monitoreo continuo de los niveles de cobertura policial en medios de prensa escritos, apoyándose en la propuesta de este trabajo.
25

Metodología de búsqueda de sub-comunidades mediante análisis de redes sociales y minería de datos

Cuadra Lobos, Lautaro Bartolome January 2012 (has links)
Magíster en Gestión de Operaciones / Ingeniero Civil Industrial / Las redes sociales virtuales posibilitan que participantes de todo el mundo compartan experiencias, opiniones e ideas con otros usuarios de intereses comunes, formando así grandes comunidades. Uno de estos tipos de comunidad son las comunidades virtuales de práctica (VCoP), en donde sus miembros generan conocimiento en base al traspaso de experiencias sobre las mejores prácticas en relación a algún tema en particular. En general los miembros comparten sólo con algunos usuarios específicos de la red formando así sub-comunidades. Identificar y caracterizar adecuadamente estas sub-estructuras es de vital importancia, pues son en ellas donde se generan las interacciones necesarias para la creación y desarrollo del conocimiento de la comunidad. El objetivo principal de este trabajo es desarrollar e implementar una metodología para mejorar el proceso de búsqueda de sub-comunidades mediante el uso de Social Network Analysis (SNA) y Text Mining, con el fin de apoyar el proceso de administración en una VCoP. Para ello se propone una metodología que combina dos procesos Knowledge Discovery in Databases (KDD) y SNA y fue aplicada sobre una VCoP real llamada Plexilandia. En la etapa de KDD se efectuó la selección, limpieza, y transformación de los post de los usuarios, para luego aplicar estrategias de reducción de contenido basadas en Text Mining, en particular Latent Dirichlet Allocation (LDA) y Concept Based Text Mining (CB), que permiten describir cada post en términos de tópicos o conceptos. En la etapa de SNA se construyeron grafos o redes que son filtradas utilizando la información obtenida en la etapa anterior. A continuación se utilizaron algoritmos basados en la modularity y algunas mejoras desarrolladas en esta tesis de estos métodos para encontrar las sub-comunidades. Los resultados de los experimentos muestran que las redes filtradas, en general, poseen estructuras de comunidad más fuertes que las redes sin filtrar, un 5% más estables en términos de comunidades encontradas frente a diferentes algoritmos, de una composición, en promedio un 30% diferente a las comunidades encontradas en las redes sin filtrar, y que entre los miembros de las comunidades encontradas se comparte un mayor porcentaje de temas comunes, un 8% mayor para las redes sobre LDA y un 30% mayor para las redes sobre CB en comparación con los grupos encontrados sobre las redes sin filtrar, lo que permite obtener nueva y mejor información acerca de las sub-comunidades en la red. Adicionalmente el uso de estas herramientas basadas en el contenido permite caracterizar a las comunidades encontradas en función de un grupo reducido de tópicos o conceptos, tarea que con los métodos tradicionales no se puede lograr.
26

Construcción y validación de una metodología de seguimiento para modelos de regresión logística

Covarrubias Mondaca, Gabriela Esmeralda January 2012 (has links)
Este trabajo de título tiene por objetivo general construir, implementar y validar una metodología de seguimiento no supervisada, para detectar cambios significativos en la distribución de las variables, en modelos de regresión logística. El problema de seguimiento corresponde a detectar cambios en un modelo de minería de datos cuando éste es construido usando bases de datos no-estacionarias, es decir, conjuntos de información a los cuales constantemente se les están agregando nuevas observaciones. La consecuencia de estos cambios es que progresivamente el modelo perderá validez, por lo que deberá ser recalibrado en algún momento. El enfoque desarrollado para las metodologías propuestas es que cada parámetro de un modelo de regresión logística asociado a la variable x_i del modelo posee un intervalo de confianza donde se presume que se encuentra su valor real. El supuesto es que si la población cambia de tal manera que el nuevo parámetro estimado está fuera de este intervalo, entonces el modelo no es válido para esa nueva muestra. Se considera que el cuociente entre las medias es una buena medida del cambio entre dos muestras, solamente que no considera el efecto de la forma de la distribución. Es por ello que se corrige la media dividiéndola por la varianza muestral, obteniendo un coeficiente llamado ICV. Se plantean dos modelos a contrastar con el intervalo de cambio máximo: ICV-1 que corresponde al módulo de la diferencia del ICV de cada muestra e ICV-2 que corresponde al cuociente de dichos valores. Se construyó un modelo de regresión logística utilizando una base datos de comportamiento crediticio, cuyo error de predicción total fue de 23,3%. Con los parámetros de este modelo se construyeron los intervalos de cambio máximo para cada variable y se las perturbó de tres maneras distintas para proceder a la validación. Al aplicar los modelos propuestos, junto con otras metodologías de seguimiento, se concluye que ICV-1 presenta problemas debido a la forma en que se ha definido el intervalo de cambio máximo e ICV-2 tiene un buen rendimiento, comparable con el de Stability Index y la Distancia de Hellinger y considerablemente mejor que el test K-S y el test Chi-cuadrado.
27

Sistema de detección de tendencias en la Web 2.0 basado en algoritmos de calificación de relevancia y selección automática de fuentes de documentos

Dueñas Fernández, Rodrigo Alfonso January 2012 (has links)
Ingeniero Civil en Computación / El objetivo de esta memoria es solucionar las falencias de un sistema informático para la detección de tendencias en la Web de la consultora Duam S.A., a través del rediseño de su arquitectura de hardware y software, y la modificación de sus algoritmos de extracción de conocimiento. Haciendo uso de este sistema informático, Duam S.A. ofrece el servicio de inteligencia de mercado a variadas empresas, el cual consiste en la realización de un informe donde se analiza el mercado en el cual están inmersas estas instituciones, señalando sus principales competidores, posibles amenazas, oportunidades de inversión, nuevas tecnologías, etc. Este estudio es realizado a través del minado de documentos desde blogs y sitios de noticias, junto con el análisis de las opiniones vertidas en la Web por parte de los usuarios de las redes sociales. Debido a la alta cohesión del código utilizado por el sistema, replicar los procesos internos era una tarea ardua que involucraba altos costos para la empresa, por lo que no era factible dar abasto al minado de cientos de fuentes de documentos o al análisis de múltiples temáticas. Por otro lado, sus algoritmos de extracción de conocimiento no aprovechaban toda la información presente en los documentos recuperados. Además, el uso de una arquitectura física sin separación de capas, no permitía que el sistema escale eficientemente, por lo que la plataforma no era capaz de escalar acorde a la cantidad de fuentes. Por esta misma razón, el exponer la información recuperada para otras aplicaciones mermaba el rendimiento total de la aplicación. Como solución a esta problemática, se desarrollaron nuevos algoritmos de extracción de información y conocimiento desde la Web 2.0 basándose en dos hipótesis: la primera es que es posible obtener fuentes presentes en web que aporten a los resultados obtenidos a partir del análisis de la información existente en los documentos minados por el sistema. La segunda hipótesis es que es posible hacer uso de los emoticones que se encuentran en los documentos opinados para obtener mejores resultados en la extracción de opiniones a partir de estos. Para solucionar los problemas de escalabilidad del sistema se rediseñó la arquitectura considerando múltiples capas de procesamiento en donde todas las componentes están comunicadas y orientada a servicios. Para remediar las falencias del sistema desde el punto de vista de software se modularizó cada una de sus componentes y se planteó una arquitectura para aplicaciones orientadas a terceros con el fin de que estas no mermen su rendimiento. Además, se implementó un algoritmo de calificación de relevancia y selección automática para fuentes de documentos para que la información recuperada retroalimente al sistema. Finalmente, se modificó el algoritmo de extracción de opiniones para que hiciera uso de los emoticones presentes en los documentos opinados a la hora de clasificar éstos según su polaridad. El rediseño de la arquitectura del sistema resultó ser exitoso, reduciendo el uso de recursos, permitiendo la escalabilidad del sistema y además, la replicación de sus procesos internos para analizar múltiples temáticas a la vez. En cuanto al modelo de minado de opiniones, este obtuvo mejores resultados que el original. Al detectar opiniones positivas, el recall aumento de un 0.59 a un 0.62, y la precision de 0.6 a 0.67; mientras que al detectar opiniones negativas, el recall y la precision aumentaron en 0.02 y 0.03 respectivamente. Para el algoritmo de calificación de relevancia, se obtuvo un recall de 0.62 y una precision de 0.35, que están dentro de los rangos esperados debido a la gran cantidad de ruido inducida por nombres de dominio que aparecen pocas veces entre los documentos minados. Se concluye que realizar el rediseño de la plataforma fue beneficioso para la empresa, desde el punto de vista de negocio, debido a la reducción en costo humano que esta implica, y además, la mejora en los resultados entregados por el algoritmo de minado de opiniones permite una mejor apreciación del sistema por parte del usuario final. Así mismo, la posibilidad de incluir aplicaciones orientadas a terceros abre nuevas posibilidades de negocio para la empresa.
28

Diseño y optimización de una pauta de mantenimiento para equipos móviles en una operación minera subterránea

Domic Bouza, Juraj Nicolás January 2013 (has links)
Ingeniero Civil Industrial / La industria minera se caracteriza por requerir fuertes inversiones de capital para el desarrollo de proyectos, dentro de los cuales los servicios de construcción pueden concentrar cerca del 45% de los costos de un proyecto. En este contexto, una empresa proveedora especializada en servicios de construcción subterránea presenta un aumento de costos y horas de falla de sus equipos críticos. La disponibilidad física, si bien se mantiene por sobre el promedio requerido, presenta períodos en que se encuentra por debajo del límite de 85%. A partir de los registros operacionales y de mantenciones de equipos, se busca determinar las condiciones que favorecen la ocurrencia de fallas, como también obtener períodos de trabajo entre mantenciones preventivas que permitan maximizar el beneficio o disponibilidad esperada. El trabajo se realiza en tres etapas: Consolidación de registros operacionales y mantención, estimación de la probabilidad de falla de equipos a partir del ajuste de distribuciones de probabilidad o modelos de minería de datos, determinar una pauta de mantenimiento para cada tipo de equipo dependiendo del modelo escogido. De acuerdo a los modelos predictivos, la variable principal corresponde a las horas de mantenimiento correctivo recibido, aumentando la probabilidad de falla en la medida que el equipo recibe mayores horas de reparación. Dejando fuera esta variable, la utilización, productividad y horas de mantenimiento preventivo corresponden a las variables explicativas. Si bien se proponen distintas teorías, la información actual del modelo es insuficiente para determinar la causa principal de este fenómeno. Para el caso de los equipos scoop y jumbo se obtienen modelos de Regresión Logística y Árbol de Decisión que alcanzan precisiones en torno al 30%, mejorando la proporción inicial de fallas de 8%. La aplicación de modelos predictivos se traduce en un ahorro estimado de 4% sobre los costos de reparación anuales. A partir del análisis de funciones de probabilidad de falla se determinan intervalos de mantención eficientes para cada equipo: 25 horas efectivas de trabajo para los equipos dumper, 2970 metros perforados para equipos jumbo y 473 paladas para el caso de equipos scoop. Los dos primeros resultados suponen una reducción de los intervalos actuales de la constructora, mientras que para los equipos jumbo un leve aumento. Recomendaciones finales del trabajo incluyen mejorar el sistema de registros, consolidar la información de operador y mecánico, incorporar indicadores de mantenimiento preventivo y realizar un seguimiento de equipos reparados. Aplicar los modelos a nivel de equipos y componentes, como también incorporar nuevas variables explicativas, pueden ser alternativas interesantes de trabajo futuro.
29

El propósito del Data Value / Proyecto de ciencia de datos: Los retos de la implementación

Aguinaga, Jorge Alberto, Raza García, Mabel 25 November 2021 (has links)
Data Week UPC 2021 día 2 / Data WeeK UPC es un evento anual organizado por las Facultades de Negocios e Ingeniería, con el propósito de reunir a investigadores y expertos en la gestión empresarial para reflexionar acerca del papel de la Ciencia de Datos en la generación de valor en las organizaciones. Nueve expositores de distintas instituciones se unirán a las 4 fechas del Data Week 2021 este 23, 25, 26 y 27 de noviembre, para reflexionar acerca de los retos en el proceso de la transformación de datos para la toma de decisiones. No se pierdan la oportunidad de participar en este espacio en el que discutiremos las principales tendencias en cuanto a la aplicación de la ciencia de datos en la gestión empresarial. 7:00 PM EL PROPÓSITO DEL DATA VALUE Todos podríamos convenir en que la moneda más útil y poderosa en los negocios es la data. Pero esa afirmación es incompleta pues la data debe ser puesta en valor para que tenga importancia. La data per se no tiene valor. En esta charla se mostrará -desde la experiencia- cómo poner en valor la data hacia la organización, los diversos obstáculos que aparecen y la manera de superarlos. 8:00 PM PROYECTOS DE CIENCIA DE DATOS: LOS RETOS DE LA IMPLEMEMENTACIÓN En la actualidad, los retos de la ciencia de datos llegan en el momento de la implementación donde tenemos que definir en qué área de la organización nuestro modelos de analítica pueden agregar valor trabajando en colaboración con los stakeholders claves. En esta presentación compartiremos los retos y lecciones aprendidas en la implementación de proyectos en ciencias de datos.
30

Implementación de metodología para determinar dominios geometalúrgicos de estimación

Rosales Fernández, David Alonso January 2014 (has links)
Memoria para optar al título de Ingeniero Civil de Minas / En el negocio minero es un asunto de vital importancia la evaluación de la rentabilidad esperada, que permita lograr un desempeño operacional óptimo con la menor incertidumbre posible. Actualmente, los modelos de estimación no consideran en mayor medida las variables de respuesta metalúrgica asociadas a las características del yacimiento, lo que conlleva a una evaluación y planificación no óptima, tanto minera como en planta, afectando en cierta medida una correcta proyección de los retornos económicos esperados. Este trabajo de título tiene como objetivo principal proponer e implementar una metodología que permita definir, de forma no asistida o con poca intervención del usuario, dominios geometalúrgicos a partir de una base de datos real. Los datos utilizados en esta memoria fueron obtenidos de Mina Escondida, los cuales contienen información de geoquímica, asociaciones geológicas (litologías, alteraciones y mineralización) y recuperación de cobre por flotación rougher. Entre los objetivos específicos, se destaca realizar un modelo predictivo de recuperación de cobre por cada dominio definido, además de desarrollar un análisis de sensibilidad con respecto a la capacidad de los algoritmos de agrupamiento de clasificar los datos. La metodología consiste en primer lugar en la construcción de una base de datos unificada a partir de los datos disponibles. Luego se realiza un estudio exploratorio de datos para después iniciar la minería de datos, consistente en la selección de variables, análisis de componentes principales y clustering (k-Means y Ward), que definirán los dominios. Una vez realizada esta labor se determina un modelo predictivo multilineal de la recuperación de cobre por cada dominio obtenido, para finalmente efectuar un análisis de sensibilidad con respecto a la cantidad de clusters definidos y su capacidad de clasificar los datos. Una vez obtenidos y analizados los dominios geometalúrgicos, se pudo concluir que esta metodología es útil ya que permite determinar de forma no supervisada estos clusters. Sin embargo, igualmente se requiere de la interpretación del investigador a cargo, ya que dependiendo del número de clusters definidos, se pueden generar unidades geometalúrgicas redundantes entre sí que no mejoren la calidad de la clasificación. En cuanto a los modelos predictivos, si bien una regresión multilineal es de fácil aplicación e interpretación, ésta no ajusta de gran manera al presentar un coeficiente de determinación relativamente bajo, por lo que se recomienda ver alternativas tales como redes neuronales o árboles de decisión.

Page generated in 0.1933 seconds