• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 19
  • 5
  • Tagged with
  • 24
  • 24
  • 16
  • 16
  • 5
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Desarrollo de un lenguaje para la visualización de estructuras de datos

Urzúa Urzúa, Jonathan Alexis January 2018 (has links)
Ingeniero Civil en Computación / Las estructuras de datos son la piedra angular en el desarrollo de cualquier algoritmo o programa. El código fuente de un programa suele describir, en esencia, una serie de operaciones y transformaciones sobre distintas estructuras de datos. El código no sólo debe expresar correctamente estas operaciones para que la máquina pueda ejecutarlas, sino que debe ser legible y entendible por aquellos que trabajan con él, tanto añadiendo nuevas funcionalidades como corrigiendo errores. La motivación principal de esta memoria es mejorar el proceso de documentación de código fuente al incorporar descripciones de las estructuras de datos en juego. Estas descripciones se pueden utilizar posteriormente para la generación de visualizaciones que ayuden a entender de mejor forma el código. Esta memoria describe el desarrollo de un lenguaje para la visualización de estructuras de datos. Se exploran aspectos teóricos y técnicos detrás de la construcción tanto del intérprete del lenguaje como del motor encargado de generar las visualizaciones. Complementario al intéprete y motor del lenguaje, se desarrolló una aplicación web que permite utilizar el lenguaje para generar visualizaciones de forma interactiva, así como explorar las distintas estructuras soportadas por el lenguaje. Se concluye publicando la herramienta en Internet y realizando una evaluación con múltiples usuarios, en la que se validó exitosamente la utilidad y facilidad de uso del lenguaje.
2

Generative adversarial network based model for multi-domain fault diagnosis

Cabezas Rodríguez, Juan Pablo January 2019 (has links)
Memoria para optar al título de Ingeniero Civil Mecánico / Con el uso de las redes neuronal profundas ganando terreno en el área de PHM, los sensores disminuyendo progresivamente su precio y mejores algoritmos, la falta de datos se ha vuelto un problema principal para los modelos enfocados en datos. Los datos etiquetados y aplicables a escenarios específicos son, en el mejor de los casos, escasos. El objetivo de este trabajo es desarrollar un método para diagnosticas el estado de un rodamiento en situaciones con datos limitados. Hoy en día la mayoría de las técnicas se enfocan en mejorar la precisión del diagnóstico y en estimar la vida útil remanente en componentes bien documentados. En el presente, los métodos actuales son ineficiente en escenarios con datos limitados. Se desarrolló un método en el cual las señales vibratorias son usadas para crear escalogramas y espectrogramas, los cuales a su vez se usan para entrenar redes neuronales generativas y de clasificación, en función de diagnosticar un set de datos parcial o totalmente desconocido, en base a uno conocido. Los resultados se comparan con un método más sencillo en el cual la red para clasificación es entrenada con el set de datos conocidos y usada directamente para diagnosticar el set de datos desconocido. El Case Western Reserve University Bearing Dataset y el Machine Failure Prevention Technology Bearing Dataset fueron usados como datos de entrada. Ambos sets se usaron como conocidos tanto como desconocidos. Para la clasificación una red neuronal convolucional (CNN por sus siglas en inglés) fue diseñada. Una red adversaria generativa (GAN por sus siglas en inglés) fue usada como red generativa. Esta red fue basada en una introducida en el paper StarGAN: Unified Generative Adversarial Networks for Multi-Domain Image-to-Image Translation. Los resultados fueron favorables para la red CNN mientras que fueron -en general- desfavorables para la red GAN. El análisis de resultados sugiere que la función de costo es inapropiada para el problema propuesto. Las conclusiones dictaminan que la traducción imagen-a-imagen basada en la función ciclo no funciona correctamente en señal vibratorias para diagnóstico de rodamientos. With the use of deep neural networks gaining notoriety on the prognostics & health management field, sensors getting progressively cheaper and improved algorithms, the lack of data has become a major issue for data-driven models. Data which is labelled and applicable for specific scenarios is scarce at best. The purpose of this works is to develop a method to diagnose the health state of a bearing on limited data situations. Now a days most techniques focus on improving accuracy for diagnosis and estimating remaining useful life on well documented components. As it stands, current methods are ineffective on limited data scenarios. A method was developed were in vibration signals are used to create scalograms and spectrograms, which in turn are used to train generative and classification neural networks with the goal of diagnosing a partially or totally unknown dataset based on a fully labelled one. Results were compared to a simpler method in which a classification network is trained on the labelled dataset to diagnose the unknown dataset. As inputs the Case Western Reserve University Bearing Dataset (CWR) and the Society for Machine Failure Prevention Technology Bearing Dataset. Both datasets are used as labelled and unknown. For classification a Convolutional Neural Network (CNN) is designed. A Generative Adversarial Network (GAN) is used as generative model. The generative model is based of a previous paper called StarGAN: Unified Generative Adversarial Networks for Multi-Domain Image-to-Image Translation. Results were favourable for the CNN network whilst generally negative for the GAN network. Result analysis suggests that the cost function is unsuitable for the proposed problem. Conclusions state that cycle based image-to-image translation does not work correctly on vibration signals for bearing diagnosis.
3

Una aplicación de redes neuronales para la formulación de un modelo avanzado de predicción del tipo de cambio nominal en el corto plazo

Pichara Ferreira, Elias January 2008 (has links)
Ingeniería Comercial, mención en Economía / El tipo de cambio juega un rol fundamental dentro de una economía, pero es aun más trascendental en una economía pequeña y tan abierta al mundo como la chilena, donde una buena parte de su producción depende de sus exportaciones y en menor medida de sus importaciones (como una importante fuente de insumos). Dado lo anterior y frente a la fuerte expectativa que genera los movimientos del tipo de cambio, este trabajo tiene como objetivo encontrar un modelo que intente predecir los movimientos del tipo de cambio nominal en el corto plazo que incorpore variables fundamentales como diferencial de tasas con EE.UU. (medido por bonos a 5 años indexados en inflación), variación del precio del cobre y también variables que materialice cuantitativamente los movimientos de tasa de política monetaria y presiones para una posible intervención del Banco Central. Este trabajo desarrolla distintos modelos con datos semanales y mediante la técnica de redes Neuronales. Los resultados encontrados muestran que el mejor modelo encontrado es el que incorpora las variables que materializan cuantitativamente los movimientos de tasa de política monetaria y presiones de una posible intervención. Específicamente a nivel intra y extramuestrales hay un porcentaje de predicción del signo del tipo de cambio nominal cercano al 62%, reflejando la buena capacidad predictiva del modelo. Además la evaluación estadística del modelo, mediante el test de Pesaran y Timmerman, entrego capacidad predictiva a un nivel de significancia de un 10% o mas.
4

Modelo de fuga con minería de texto en diferentes canales para empresa de retail financiero

Aldunate Castillo, Juan Enrique January 2018 (has links)
Ingeniero Civil Industrial / El presente informe contiene el análisis realizado para una empresa de retail financiero, y considera variables obtenidas por medio de minería de texto para incluirlas dentro de dicho modelo. Dentro de la empresa estudiada, se tienen dos tipos de clientes. Uno de ellos suele realizar comentarios con la empresa, tanto positivos como negativos. Estos además suele gastar más en un periodo de tiempo (en promedio) que un cliente que no lo realiza. Por ejemplo, dentro de un determinado mes el cliente que realiza comentarios gasta aproximadamente entre dos y tres veces más que su contraparte que no realiza comentarios. Al mismo tiempo, los clientes que si realizan comentarios son tres veces menos propensos a la fuga que los que no los realizan. Ante esto surge la oportunidad de negocios de determinar si por medio de herramientas de minería de texto se puede extraer información útil de los comentarios para predecir la fuga de los clientes, y minimizarla con estas variables. El objetivo de esta memoria es construir un modelo predictivo de fuga utilizando textos para poder mejorar la retención de clientes. Para lograr cumplir con este objetivo, se realizaron 4 modelos de fuga. El primer modelo de fuga consistía en un modelo de fuga tradicional (accuracy:77,5% ,presicion:82% y AUC:85,1%), un modelo de fuga con variables de minería de texto solo para los clientes que tienen comentario (accuracy: 77,9% ,presicion:80,9% y AUC: 85,4%), un modelo de fuga con variable de minería de textos para toda la cartera sin imputar valores desconocidos (accuracy: 76,1% ,presicion:97,7% y AUC:83,7%) y un modelo de fuga con variable de minería de texto imputados para aquellos que no tenían comentario (accuracy: 75,7% ,presicion:82% y AUC:84,2%). Con respecto a los resultados del modelo de fuga, se concluye que dentro de todos los modelos estudiados, el mejor modelo es uno que considera variables de minería de texto sobre una base de clientes en que todos emiten comentarios. Dado que este no se puede generalizar para todos los clientes de la empresa, decide utilizar el modelo de fuga tradicional sin variables de minería de texto. Otra conclusión importante con respecto a la memoria es que la imputación de las variables de minería de textos no causa un aumento en el rendimiento con respecto a un modelo que no lo hace. Esto se debe a que al comparar los modelos con y sin imputación de datos, el modelo que incluye la imputación de los datos de la variable de minería de texto tiene menor accuracy (0,4% menos de accuracy), presenta un AUC levemente mayor (0,5% más de AUC). A pesar de esto, las variables de minería de texto apoyan dentro de la gestión de los clientes que si realizan comentarios.
5

Análisis de disponibilidad de equipo Dense plasma focus mediante redes neuronales

Zanelli Sanhueza, Daniel Esteban January 2017 (has links)
Ingeniero Civil Mecánico / La búsqueda por una energía renovable prácticamente ilimitada ha sido uno de los focos principales de la motivación en la investigación de energía nuclear por fusión atómica. Sin embargo, uno de los principales problemas con la energía por fusión es ser capaz de mantenerla estable con una energía suficiente para conservar la reacción en cadena. Esto se pensaba que solo se podría lograr energizando un gas a tal nivel que se convierte en plasma y lograr que se mantenga estable. Sin embargo, hay otras aproximaciones que dan por sentado que el plasma colapsa y se intenta explotar esta fragilidad. El Dense Plasma Focus permite generar un plasma ascendente que dura centenas de nanosegundos antes de colapsar. Es de sumo interés para estudiar el comportamiento de este plasma en los equipos DPF en diversos aspectos. Debido a esto es imprescindible el estudio del comportamiento del plasma, por lo que se deben realizar experimentos para determinar las restricciones, condiciones necesarias y emisiones de energía que son propias del cuarto estado de la materia. Dentro de la CCHEN existe un departamento dedicado al estudio de las propiedades físicas del plasma, en función de los parámetros de los equipos usados para generarlas. Además, es de interés comprender las aplicaciones que puede tener el plasma en la ciencia de materiales, biología y eliminación de deshechos, entre otros. Sin embargo fallas en estos equipos son comunes e impiden que se puedan realizar los experimentos en el momento esperado, causando problemas posteriores en varios sentidos. El análisis realizado por el memorista comprende un estudio integral del funcionamiento del sistema de los equipos de generación de plasma del tipo Dense Plasma Focus. Para lograr esto, en este análisis se determinan elementos críticos, se realizan diagramas de sistema y planos de equipo, además se obtienen parámetros que permiten evidenciar un avance en el deterioro del sistema, teniendo en cuenta las distribuciones de probabilidades correspondientes. Finalmente, se plantean propuestas de rediseño del sistema, con el objetivo de mejorar la confiabilidad y disponibilidad de este. Junto con esto, se proponen protocolos de mantenimiento y recomendaciones sobre monitoreo de variables clave en la detección de fallas del sistema. De la presente memoria se concluye que manteniendo un monitoreo del crecimiento porcentual de Kurtosis, Shape Indicator, Clearance Indicator, Crest Indicator y Amortiguamiento de las señales características del sistema se puede estimar la cantidad de disparos desde el inicio de un experimento. Por otro lado, se concluye que distinguir los datos que presenten instancia de Dip permite establecer la probabilidad de ocurrencia como una distribución de Weibull. Distinguir datos que posean Dip de los que no puede ser realizado mediante un pre-tratamiento de las señales y posterior entrenamiento de una red neuronal de clasificación. El clasificador permite identificar con una asertividad del 93.25% para datos del mismo tipo y 83.3% para datos diferentes. / Memoria realizada en conjunto con el Departamento de Plasmas TermoNucleares (DPTN) de la Comisión Chilena de Energía Nuclear (CCHEN)
6

Visualización para documentos en producción

Pérez Messina, Ignacio Baltazar January 2017 (has links)
Ingeniero Civil en Computación / Gracias a los avances tecnológicos, hoy es posible preservar los diferentes borradores y etapas por los que transita el proceso de escritura de un documento. Un buen ejemplo de ello es el servicio de almacenamiento web Google Drive y su procesador de texto Docs, que permite almacenar diferentes datos del proceso de escritura que están siendo generados masivamente por los mismos usuarios mientras escriben. Un documento en Docs es más que un texto versionado, es un fino registro de cada cambio ocurrido, al cual se ha llamado documento-en-producción para distinguirlo del primero. A pesar de que hoy contamos con ese material invaluable para la investigación del proceso de escritura, para los investigadores de la escritura eso no es suficiente pues exige avanzados conocimientos computacionales. Por ello aparece la necesidad de presentar esa valiosa información de manera más amigable para el usuario. En esta Memoria se diseña una visualización para documentos-en-producción y se implementa un prototipo funcional para los datos que se pueden obtener de Google Drive. Fue necesario desarrollar una nueva estructura de datos para su preprocesamiento. La efectividad de la visualización se muestra por medio de casos de estudio de documentos en un dataset que fue obtenido del proceso de escritura de tareas de estudiantes de la Facultad de Ciencias Físicas y Matemáticas. El análisis de estos casos sugiere que la visualización se muestra adecuada para estudiar el proceso de escritura de textos expositivos, permitiendo observar la estructura jerárquica y/o tópica del texto final, y diferentes características de su proceso de producción. La visualización sigue un paradigma de diseño orgánico, contiene elementos de interactividad y basa su efectividad principalmente en las microdecisiones del usuario a nivel de movimientos del puntero. Se generó un marco de evaluación teórico que arrojó luz sobre las funcionalidades faltantes y las tensiones en el diseño, que muestra, entre otras cosas, que aún no se ha explotado por completo la información disponible y señala el camino para nuevas visualizaciones y futuras exploraciones del documento-en-producción.
7

Robust speech recognition in noisy and reverberant environments using deep neural network-based systems

Novoa Ilic, José Eduardo January 2018 (has links)
Doctor en Ingeniería Eléctrica / In this thesis an uncertainty weighting scheme for deep neural network-hidden Markov model (DNN-HMM) based automatic speech recognition (ASR) is proposed to increase discriminability in the decoding process. To this end, the DNN pseudo-log-likelihoods are weighted according to the uncertainty variance assigned to the acoustic observation. The results presented here suggest that substantial reduction in word error rate (WER) is achieved with clean training. Moreover, modelling the uncertainty propagation through the DNN is not required and no approximations for non linear activation functions are made. The presented method can be applied to any network topology that delivers log likelihood-like scores. It can be combined with any noise removal technique and adds a minimal computational cost. This technique was exhaustively evaluated and combined with uncertainty-propagation-based schemes for computing the pseudo-log-likelihoods and uncertainty variance at the DNN output. Two proposed methods optimized the parameters of the weighting function by leveraging the grid search either on a development database representing the given task or on each utterance based on discrimination metrics. Experiments with Aurora-4 task showed that, with clean training, the proposed weighting scheme can reduce WER by a maximum of 21% compared with a baseline system with spectral subtraction and uncertainty propagation using the unscented transform. Additionally, it is proposed to replace the classical black box integration of automatic speech recognition technology in human-robot interaction (HRI) applications with the incorporation of the HRI environment representation and modeling, and the robot and user states and contexts. Accordingly, this thesis focuses on the environment representation and modeling by training a DNN-HMM based automatic speech recognition engine combining clean utterances with the acoustic channel responses and noise that were obtained from an HRI testbed built with a PR2 mobile manipulation robot. This method avoids recording a training database in all the possible acoustic environments given an HRI scenario. In the generated testbed, the resulting ASR engine provided a WER that is at least 26% and 38% lower than publicly available speech recognition application programming interfaces (APIs) with the loudspeaker and human speakers testing databases, respectively, with a limited amount of training data. This thesis demonstrates that even state-of-the-art DNN-HMM based speech recognizers can benefit by combining systems for which the acoustic models have been trained using different feature sets. In this context, the complementarity of DNN-HMM based ASR systems trained with the same data set but with different signal representations is discussed. DNN fusion methods based on flat-weight combination, the minimization of mutual information and the maximization of discrimination metrics were proposed and tested. Schemes that consider the combination of ASR systems with lattice combination and minimum Bayes risk decoding were also evaluated and combined with DNN fusion techniques. The experimental results were obtained using a publicly-available naturally-recorded highly reverberant speech data. Significant improvements in WER were observed by combining DNN-HMM based ASR systems with different feature sets, obtaining relative improvements of 10% with two classifiers and 18% with four classifiers, without any tuning or a priori information of the ASR accuracy.
8

Convolutional recurrent neural networks for remaining useful life prediction in mechanical systems

Oyharcabal Astorga, Nicolás January 2018 (has links)
Memoria para optar al título de Ingeniero Civil Mecánico / La determinación de la vida útil remanente (RUL del inglés "Remaining Useful Life") de una máquina, equipo, dispositivo o elemento mecánico, es algo en lo que se ha estado trabajando en los últimos años y que es crucial para el futuro de cualquier industria que así lo requiera. El continuo monitoreo de máquinas junto a una buena predicción de la RUL permite la minimización de costos de mantención y menor exposición a fallas. Sin embargo, los datos obtenidos del monitoreo son variados, tienen ruido, poseen un carácter secuencial y no siempre guardan estricta relación con la RUL, por lo que su estimación es un problema difícil. Es por ello que en la actualidad se utilizan distintas clases de Redes Neuronales y en particular, cuando se quiere modelar problemas de carácter secuencial, se utilizan las Redes Neuronales Recurrentes o RNN (del inglés "Recurrent Neural Network") como LSTM (del inglés "Long Short Term Memory") o JANET (del inglés "Just Another NETwork"), por su capacidad para identificar de forma autónoma patrones en secuencias temporales, pero también junto a estas últimas redes, también se utilizan alternativas que incorporan la Convolución como operación para cada célula de las RNN y que se conocen como ConvRNN (del inglés "Convolutional Recurrent Neural Network"). Estas últimas redes son mejores que sus pares convolucional y recurrentes en ciertos casos que requieren procesar secuencias de imágenes, y en el caso particular de este trabajo, series de tiempo de datos de monitoreo que son suavizados por la Convolución y procesados por la Recurrencia. El objetivo general de este trabajo es determinar la mejor opción de ConvRNN para la determinación de la RUL de un turbofan a partir de series de tiempo de la base de datos C-MAPSS. También se estudia cómo editar la base de datos para mejorar la precisión de una ConvRNN y la aplicación de la Convolución como una operación primaria en una serie de tiempo cuyos parámetros muestran el comportamiento de un turbofan. Para ello se programa una LSTM Convolucional, LSTM Convolucional Codificador-Decodificador, JANET Convolucional y JANET Convolucional Codificador-Decodificador. A partir de esto se encuentra que el modelo JANET Convolucional Codificador-Decodificador da los mejores resultados en cuanto a exactitud promedio y cantidad de parámetros necesarios (entre menos mejor pues se necesita menos memoria) para la red, siendo además capaz de asimilar la totalidad de las bases de datos C-MAPSS. Por otro lado, también se encuentra que la RUL de la base de datos puede ser modificada para datos antes de la falla. Para la programación y puesta en marcha de las diferentes redes, se utilizan los computadores del laboratorio de Integración de Confiabilidad y Mantenimiento Inteligente (ICMI) del Departamento de Ingeniería Mecánica de la Universidad de Chile.
9

Diseño de un modelo de negocios para un servicio de consultoría tecnológica en Web Intelligence Centre con el fin de capitalizar el conocimiento experto en Data Science

Maluenda Reyes, Varinia Eloíza January 2018 (has links)
Ingeniera Civil Industrial / El WIC es un centro de investigación de la Universidad de Chile que se dedica al desarrollo de proyectos tecnológicos financiados a través de fondos concursables. Lo anterior genera incertidumbre sobre el futuro de los proyectos una vez que se finalizan los fondos, lo que afecta directamente a la mantención de los trabajadores del centro. Sin embargo, el recurso humando está capacitado para ofrecer otros servicios al sector privado como desarrollo de software y consultoría tecnológica asociada al análisis de datos que podría generar una nueva entrada de dinero. El presente trabajo de título busca aprovechar esta ventaja y tiene como objetivo general diseñar un área de consultoría tecnológica en el WIC con el fin de capitalizar el conocimiento experto del centro en el ámbito de la data science. La metodología utilizada es el modelo de los rendimientos superiores al promedio basado en los recursos la cual permite generar una nueva unidad de negocio a través de lo que ya posee una empresa. El modelo posee seis etapas. Para determinar recursos y capacidad, se caracterizó al centro a través de una investigación exploratoria entrevistando a todos los jefes de proyecto del WIC, identificando proyectos, infraestructura y características del recurso humano. Para identificar la ventaja competitiva, se obtuvo como input todo lo anterior y una investigación exploratoria de las consultoras tecnológicas en Chile, a las que se les preguntó directamente por su modelo de negocio. Finalmente, para determinar la industria atractiva, la formulación e implementación y los rendimientos superiores, se realizó un modelo de negocios utilizando el bussines model generation, cuya validación se realizó con actuales clientes de consultoría tecnológica y con el WIC. Se concluye que ofrecer servicios de consultoría tecnológica es una oportunidad. Es una industria multibillonaria a nivel mundial y en crecimiento, sólo un 1,6% de las consultoras chilenas aborda problemáticas del ámbito de la tecnología y se requiere del servicio de data science. El WIC se posicionaría como una consultora pequeña que resuelve problemas a nivel estratégico de la compañía con poca competencia directa dado el contexto, tamaño y servicio que ofrece. Sería la única consultora de la Universidad de Chile que ofrecería el servicio de data science y que está ligada fuertemente con la academia e investigación. El negocio es rentable y viable legalmente. El tamaño de mercado en Chile es de 9,5 millones de UF y el WIC podría captar el 0,012% de él, lo que equivale a un ingreso anual de 306 millones de pesos al año. Descontando costos de infraestructura, recurso humano y el 22% de los ingresos correspondientes a los peajes a la UNTEC, que sería la vía de venta, y a la Universidad de Chile, se tendría una utilidad anual de 180 millones de pesos, equivalente a ganar dos concursos públicos, permitiendo financiar dos proyectos y la contratación de nuevo personal que podría cumplir la dinámica de colaborador de proyecto y consultor, generando el crecimiento del centro y de la nueva área.
10

Búsqueda por texto de imágenes sin etiquetar

Díaz Renjifo, Bastián Luciano January 2019 (has links)
Memoria para optar al título de Ingeniero Civil Eléctrico / En la era de internet es el contenido multimedia el que concentra la mayoría del tráfico y se espera que para el 2020 este tipo de datos tenga un tráfico de más de 100,000 petabytes al mes. Esto junto con el creciente uso de redes sociales ha provocado que buscar imágenes sea una práctica habitual. Esta situación está resuelta para imágenes que tienen texto asociado como las que se encuentran en Google. ¿Pero qué pasa si se necesita buscar en una base de datos de imágenes que no tienen texto asociado? Por ejemplo, las imágenes subidas a una red social, o las carpetas del computador que tienen las imágenes de las vacaciones. Esta es la principal pregunta que motiva este trabajo, el cual está basado principalmente en las investigaciones de Snoek, Dong y Li quienes aplican la técnica word2visualvec, donde la idea principal es entrenar una red neuronal para que aprenda a transformar el espacio de los descriptores de texto al espacio de los descriptores de imágenes, conservando la relación semántica entre el texto y las imágenes. Para el entrenamiento de la red neuronal se usó el dataset MSCOCO, el cual consiste en más de 80,000 imágenes para entrenar y validar el modelo y más de 40,000 para ser usadas como conjunto de prueba. Además de las fotos, este dataset contiene 5 descripciones de texto para cada una de ellas. Así en total se tienen más de 400.000 ejemplos de texto-imagen para entrenar la red neuronal. Los experimentos se dividieron en 3 partes que se diferencian en el tipo de descriptor de texto y descriptor de imagen usados. Para el texto se usaron los descriptores TF-IDF, R-TF-IDF y word2vec y para las imágenes se usaron los descriptores VLAD y Deep Features (basado en la VGG16). En total se entrenaron 21 modelos, 18 de ellos fueron entrenados en inglés y 3 en español. La evaluación de los modelos consideró el tiempo de entrenamiento, el costo en el conjunto de validación y el Average Precision de los resultados retornados. Los resultados obtenidos son prometedores y permiten sacar conclusiones muy importan- tes. Dentro de ellas es que el impacto de los descriptores de texto se refleja mayormente en el tiempo de entrenamiento, donde el descriptor word2vec es el más rápido de entrenar. Mientras que los descriptores de imágenes impactan significativamente en la relevancia de los resultados, siendo Deep Features basados en la red pre-entrenada VGG16 el que tuvo los mejores resultados, alcanzando una efectividad de 20 % en coincidencias exactas y 68 % en coincidencias parciales.

Page generated in 0.0677 seconds