• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 4
  • Tagged with
  • 22
  • 22
  • 6
  • 6
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Predicción de ubicación frecuente a nivel regional de usuarios chilenos de Twitter

Caamaño Lobos, María Ignacia January 2018 (has links)
Memoria para optar al título de Ingeniera Civil Industrial / El presente trabajo de título tiene como objetivo diseñar y construir modelos de clasificación para predecir cuáles usuarios de Twitter viven en Chile y en cuál de las quince regiones administrativas de Chile habitan; utilizando información pública del perfil y el contenido que emiten, mediante algoritmos de Machine Learning. Las redes sociales son uno de los medios de comunicación más utilizados en el mundo hoy en día en donde segundo a segundo se reciben millones de datos. Si hablamos de Twitter, este contiene a diario más de 328 millones de usuarios activos en todo el mundo que publican cerca de 6.000 tweets por segundo. Todos estos datos que se comparten son de gran utilidad para poder caracterizar de mejor forma a los usuarios. Una de estas características es la geolocalización, la cual está siendo cada vez más utilizada para conocer mejor a los clientes y usuarios. Pero, obtener este atributo para cada usuario no es tarea fácil ya que este dato, por lo general, no es público o es incierto. En particular, el proyecto SONAMA y proyecto OpinionZoom del Web Intelligence Center, buscan geolocalizar a los usuarios chilenos de Twitter a nivel regional para utilizar esta característica dentro de sus investigaciones y poder mejorar los niveles de granularidad que están alcanzando con respecto a la geolocalización de las personas. Para esto, a partir de la API REST de Twitter y de una encuesta realizada en el WIC, se extraen datos para construir bases de entrenamiento etiquetadas para diseñar y entrenar dos modelos de clasificación con el fin de que uno identifique a los usuarios chilenos de Twitter y el segundo identifique la región en que cada usuario chileno vive. Para ambos modelos se analiza el desempeño de tres algoritmos diferentes. El modelo país, mediante Stochastic Gradient Descent, logra un AUC de 99,89% y un F1-Score de la clase positiva de 98,95% tras validación cruzada de 5-iteraciones, el cual supera los resultados de la heurística de clasificación que actualmente se utiliza. Por otro lado, el modelo región, mediante Stochastic Gradient Descent, logra un F1-Macro de 42,54% y Accuracy de 40,73% tras validación cruzada de 5-iteraciones. Resultado el cual, si bien bajo, mejora la situación actual con respecto al 6,67% que entrega la aleatoriedad. Finalmente, se valida la hipótesis de investigación en su totalidad ya que es posible determinar los usuarios chilenos de Twitter y su región frecuente utilizando exclusivamente el contenido que se publica y atributos de contexto del usuario. Tanto el modelo país como el modelo región superan la situación actual, por lo que sus resultados quedan como baseline para próximas investigaciones.
12

Implementación de motor de diseño de ofertas personalizadas para empresa de venta directa

Ávila Pérez, Rodolfo Antonio January 2019 (has links)
Memoria para optar al título de Ingeniero Civil en Computación / La presente tesis se centró en la implementación de una herramienta que permita diseñar y generar ofertas personalizadas a los representantes de una empresa de venta directa. Se utilizó como base un algoritmo de recomendación empleado en empresas de retail. Se adaptaron los diferentes módulos según correspondiese. Dentro de los desafíos iniciales estaba el comprender la diferencia entre el mundo de las empresas de venta directa y las empresas de retail. Entender cómo se lleva a cabo el proceso de compra, detectar oportunidades y restricciones propias del negocio, así como la oportunidad de incluir nuevas tecnologías, por ejemplo Machine Learning, para detectar patrones o comportamientos que no son detectables por un análisis regular de una persona y así mejorar la eficacia de la herramienta. Las ofertas generadas son expuestas al cliente en el portal de la empresa donde el acceso es personalizado. En el escenario inicial ya existía un algoritmo recomendador masivo de ofertas, por lo que uno de los objetivos de éxito es superar la conversión y el valor de las ofertas ofrecidas. La herramienta consta de 6 módulos principales que componen su esqueleto base: perfilamiento, propensión de compra, modelo de descuento, modelo de volumen, modelo de bundle y asignación. Cada uno de esto módulos opera de forma independiente, sin embargo, deben seguir un determinado orden de ejecución para el correcto funcionamiento. Se realiza una prueba preeliminar sobre un grupo piloto comparado contra un grupo control. Se revisan los resultados y se determinan oportunidades de mejorara para el motor. Se implementan cambios a ciertas partes de algoritmo antes de una última prueba. Al finalizar los cambios se obtuvo que en cuanto a tiempos de ejecución, para un país como Perú con alrededor de 150.000 consultoras el tiempo es de 3 horas, generando más de 3 millones de ofertas que están asociadas a cada consultora según sus características. Por el lado de resultados comerciales generales, en la prueba final se logró aumentar el ratio de conversión de las ofertas en un 15.3% con respecto al antiguo algoritmo recomendador llegando a un 24.1%, además se aumentó la conversión del canal de venta en un 4.7%. Mirado desde los productos, el PPU aumentó en 1.73 soles($0,52 USD), pero el PUP disminuyó en 0.35 unidades. Como beneficio secundario se logró bajar el tiempo generación de ofertas desde su diseño hasta la exposición en 7 días a pesar de aumentar considerablemente el volumen de ofertas generadas. Así se detectan posibles oportunidades de mejoras para futuras versiones de la herramienta.
13

Predicción y descripción de la exclusión educativa del sistema escolar regular chileno, ciencia de datos para la innovación pública

Ibáñez Irribarra, Diego Ernesto January 2018 (has links)
Memoria para optar al título de Ingeniero Civil Industrial / La presente memoria de título desarrolla la predicción y descripción a nivel individual del potencial de exclusión educativa, también denominada deserción escolar, de les estudiantes de enseñanza básica y media del sistema escolar regular chileno, a través del prototipado de herramientas digitales. Con el fin de facilitar, mediante la detección temprana, y aportar entendimiento del fenómeno, a procesos de innovación pública para la prevención efectiva. Como aporte a los antecedentes del fenómeno de la exclusión educativa escolar chilena, se evidencia que del orden del 50% de les estudiantes excluides del sistema escolar año a año, asisten hasta diciembre a clases, con asistencia mes a mes en promedio superior al 80% para la enseñanza básica, y en promedio superior al 80% general anual para la enseñanza media. Este nuevo antecedente cuantitativo del fenómeno plantea preguntas sobre la pertinencia del actual proceso de cierre anual escolar, y sobre el enfoque del actuar institucional para la prevención durante el año, y en vacaciones y cambios de ciclo. Se utilizan 20 bases de datos de 4 instituciones distintas, disponibles transversalmente para cada estudiante. Para el aprendizaje de máquinas el conjunto de datos describe el caso de la exclusión educativa de la matrícula regular pública, municipal y particular subvencionada; de enseñanza básica, media científico humanista y técnico profesional. Para el aprendizaje supervisado el conjunto de entrenamiento (balanceado entre clases: excluides 50% y no excluides 50%) describe a cada estudiante en 2016-2017, y los conjuntos validación y test (balanceo natural de clases: 97%-3%) corresponden al 2017-2018. Para el aprendizaje no supervisado, se utilizan conjuntamente les excluides de ambos periodos. Para predecir la exclusión educativa con un semestre de antelación (asistencia hasta julio) se obtiene recall 81.5% y precision 19.29% respecto a la clase excluida, y accuracy 89.215% del modelo general, para el conjunto de test con balanceo natural, con el meta-algoritmo XGBoost. También se proponen 9 perfiles de fenómeno de exclusión educativa, calculados con el modelo de agrupación Gaussian Mixture Model, y descritos cualitativamente en vínculo interdisciplinario con las ciencias sociales. Se utiliza la metodología CRISP-DM, y Python 3.6 para la programación. / Instituto Sistemas Complejos de Ingeniería (CONICYT – PIA – FB0816)
14

Diseño y desarrollo de un sistema para la asociación automática de delitos basados en modelos similitud semántica textual

Santana Ruiz, Sebastián Ignacio January 2018 (has links)
Memoria para optar al título de Ingeniero Civil Industrial / 21/11/2020
15

Predicción de la calidad de servicio de internet móvil basada en mediciones pasivas

Madariaga Román, Diego Ignacio January 2018 (has links)
Tesis para optar al grado de Magíster en Ciencias, Mención Computación / Memoria para optar al título de Ingeniero Civil en Computación / El continuo aumento a nivel global en el uso de Internet móvil, ha posicionado a este medio como la principal forma de acceder a Internet tanto en Chile como en el mundo. Lo anterior, ha generado gran interés en la realización de estudios que permitan determinar objetivamente la calidad de servicio recibida por los usuarios de Internet móvil, así como estudios que permitan estimar la calidad futura asociada a los servicios presentes en la red de telefonía celular. Múltiples investigaciones han analizado los servicios de Internet móvil desde distintos puntos de vista e utilizando distintos tipos de indicadores de calidad, obtenidos por medio de la realización de mediciones pasivas y activas de la red. Dentro de estos parámetros, destaca la intensidad de señal recibida, ya que se ha demostrado su impacto en otros indicadores de calidad comúnmente utilizados, afectando de gran manera la calidad de servicio general de Internet móvil. El presente trabajo propone la predicción de intensidad de señal recibida para un área geográfica determinada, y además, propone la incorporación de información externa en los modelos de predicción, respecto a factores ajenos a las redes móviles que presentan un efecto sobre ellas, tales como eventos meteorológicos y eventos masivos de personas. Para lograr lo mencionado, este estudio hace uso de distintos modelos de predicción basados en técnicas estadísticas y basados en el aprendizaje de máquinas, incorporando información climática acerca de la temperatura, humedad y precipitaciones medidas en el área de interés. Los resultados obtenidos muestran la factibilidad de predecir la intensidad de señal recibida por los usuarios de la red móvil utilizando datos agregados correspondientes a dispositivos móviles dentro de la comuna de Santiago. Además, los resultados muestran la mejora en el desempeño de los modelos predictivos al incorporar información externa acerca del clima presente en el área, obteniendo modelos de predicción semanal más precisos. De acuerdo al estudio realizado y al conocimiento adquirido durante la realización de este trabajo, este es el primer trabajo de investigación enfocado en predecir calidad de servicio de Internet móvil utilizando mediciones pasivas, y además, el primero en incluir factores externos en la predicción de calidad de servicio de Internet móvil. / NIC Chile Research Labs
16

Identificación autónoma de fallas en sistemas monitoreados basado en redes adversarias generativas (GANS)

Garrido Cáceres, Cristóbal Nicolás January 2018 (has links)
Ingeniero Civil Mecánico / El presente trabajo propone y valida un procedimiento para clasificación de fallas usando señales de vibraciones mecánicas en rodamientos con fallas inducidas. Este procedimiento consiste en obtener imágenes tiempo-frecuencia para entrenar una Red Adversaria Generativa (GAN). Luego mediante algoritmos de clustering aplicados a salidas de su arquitectura, se obtienen los grupos con fallas de iguales síntomas y características. Para esto se ensayan diversas configuraciones considerando dos tipos de imágenes (espectrogramas y escalogramas), cuatro arquitecturas GAN (DCGAN, InfoGAN, MRGAN y Wasserstein GAN) y dos algoritmos de clustering (K-means y spectral clustering). En primera instancia se repasan los fundamentos de las fallas en rodamientos: sus síntomas y metodologías usadas para su diagnóstico; luego se presentan los antecedentes respecto a los diversos componentes del procedimiento y los criterios de evaluación. Parea su validación se usan sets de datos de vibraciones mecánicas con fallas ya clasificadas (MFPT y CWRU). Mediante indicadores se comparan la clasificación real con la obtenida, resaltando las mejores configuraciones para el procedimiento. Los ensayos muestran que las arquitecturas GAN InfoGAN y MRGAN junto al algoritmo K-means poseen un comportamiento más estable en el procedimiento. Es más, mediante el estudio de la función de costos es posible determinar si el entrenamiento resulta efectivo o no, proponiéndose un estudio más acabado respecto a un criterio de identificación para obtener mejores desempeños. Además se realiza un análisis entre las clasificaciones obtenidas y las reales teniéndose consistencia entre los resultados obtenidos por el procedimiento propuesto y los entregados por los métodos de diagnóstico usados actualmente, ya sea mediante el estudio de los mismo o consultando bibliografía. También se incorpora un set de ensayo de degradación continua. Usando la mejor configuración de las pruebas anteriores se logran detectar estados de falla. Sin embargo el diagnostico no puede ser concluyente ya que aparecen nuevos fenómenos en estos datos como fallas multimodales, no consideradas inicialmente. Finalmente se proponen algunas extensiones a fin de poder estudiar de manera correcta este último caso que resulta ser más cercano a las aplicaciones que los dos primeros, como considerar la secuencia de las mediciones o determinar anteriormente los modos de fallas presentes en los datos.
17

Aplicaciones del aprendizaje reforzado en robótica móvil

Lobos Tsunekawa, Kenzo Ignacio January 2018 (has links)
Ingeniero Civil Eléctrico / En la última década se ha observado un aumento importante en las aplicaciones relacio- nadas a la robótica a nivel mundial. Adicionalmente, estas aplicaciones ya no se encuentran únicamente en laboratorios o en fábricas, donde se pueden mantener condiciones controladas, sino que también se presentan en distintas situaciones cotidianas. Entre las distintas catego- rías de robots, destaca fuertemente la robótica móvil, debido a su alto potencial de impacto social. Aquellos robots que forman parte de esta categoría, potencialmente pueden resolver una cantidad muy variada de problemas, debido a su capacidad de realizar interacciones complejas con un entorno dinámico, el cual puede incluir interacciones con seres humanos u otros agentes robóticos. Sin embargo, la capacidad de resolver problemas por parte de un agente robótico suele estar limitada por el conocimiento y las habilidades del diseñador. Se identifica entones la necesidad de incorporar metodologías generales que permitan a los agentes robóticos adquirir las habilidades necesarias para poder realizar las labores que les son asignadas. En el presente trabajo se estudia el uso del Aprendizaje Reforzado como herramienta de uso general para que los agentes robóticos adquieran las habilidades necesarias para reali- zar su labor. Son objetivo de especial interés, no solo la capacidad de resolver problemas particulares, sino que además estudiar la capacidad de generalización de las soluciones, y la escalabilidad de ésta herramienta. La metodología propuesta consiste en el uso del fútbol robótico como caso de estudio, debido a su complejidad como problema, al mismo tiempo de su facilidad de evaluación. Se identifican problemas de diversa complejidad y naturaleza en este contexto, identificando cuales son las características que son generales a distintos problemas, permitiendo extraer re- sultados de interés a otras aplicaciones. Para resolver los problemas identificados, se utilizan distintos algoritmos del Aprendizaje Reforzado, tanto tradicionales como modernos, haciendo hincapié en los beneficios de cada uno. Los resultados permiten perfilar al Aprendizaje Reforzado como una herramienta útil en el contexto de la robótica móvil. Algoritmos tradicionales son capaces de solucionar problemas sencillos de manera altamente eficiente y utilizando bajos recursos. Por otro lado, las técni- cas modernas permiten abordar problemas mucho más complejos, previamente considerados intratables de manera directa. Finalmente, el uso de esta metodología presenta un potencial todavía no explorado a profundidad, sin conocer todavía el límite en sus aplicaciones. Se identifica entonces un amplio campo de desarrollo para futuros trabajos e investigación.
18

Interactive learning with corrective feedback for continuous-action policies based on deep neural networks

Pérez Dattari, Rodrigo Javier January 2019 (has links)
Tesis para optar al grado de Magíster en Ciencias de la Ingeniería, Mención Eléctrica / Memoria para optar al título de Ingeniero Civil Eléctrico / El Aprendizaje Reforzado Profundo (DRL) se ha transformado en una metodología poderosa para resolver problemas complejos de toma de decisión secuencial. Sin embargo, el DRL tiene varias limitaciones cuando es usado en problemas del mundo real (p.ej. aplicaciones de robótica). Por ejemplo, largos tiempos de entrenamiento (que no se pueden acelerar) son requeridos, en contraste con ambientes simulados, y las funciones de recompensa pueden ser difíciles de especificar/modelar y/o computar. Más aún, el traspaso de políticas aprendidas en simulaciones al mundo real no es directo (\emph{reality gap}). Por otro lado, métodos de aprendizaje de máquinas basados en la transferencia de conocimiento humano a un agente han mostrado ser capaces de obtener políticas con buenos desempeños sin necesariamente requerir el uso de una función de recompensa, siendo eficientes en lo que respecta al tiempo. En este contexto, en esta tesis se introduce una estrategia de Aprendizaje Interactivo de Máquinas (IML) para entrenar políticas modeladas como Redes Neuronales Profundas (DNNs), basada en retroalimentación correctiva humana con un método llamado D-COACH. Se combina Aprendizaje Profundo (DL) con el método Asesoramiento Correctivo Comunicado por Humanos (COACH), en donde humanos no expertos pueden entrenar políticas corrigiendo las acciones que va tomando el agente en ejecución. El método D-COACH tiene el potencial de resolver problemas complejos sin la necesidad de utilizar muchos datos o tiempo. Resultados experimentales validan la eficiencia del método propuesto en plataformas simuladas y del mundo real, en espacios de estados de baja y alta dimensionalidad, mostrando la capacidad de aprender políticas en espacios de acción continuos de manera efectiva. El método propuesto mostró resultados particularmente interesantes cuando políticas parametrizadas con Redes Neuronales Convolucionales (CNNs) fueron usadas para resolver problemas con espacios de estado de alta dimensionalidad, como pixeles desde una imagen. Al usar CNNs, los agentes tienen la capacidad de construir valiosas representaciones del estado del ambiente sin la necesidad de hacer ingeniería de características por el lado del diseñador (lo que era siempre necesario en el Aprendizaje Reforzado (RL) clásico). Estas propiedades pueden ser muy útiles en robótica, ya que es común encontrar aplicaciones en donde la información adquirida por los sensores del sistema es de alta dimensionalidad, como imágenes RGB. Darles la habilidad a los robots de aprender desde datos del alta dimensionalidad va a permitir aumentar la complejidad de los problemas que estos pueden resolver. A lo largo de esta tesis se proponen y validan tres variaciones de D-COACH. La primera introduce una estructura general para resolver problemas de estado de baja y alta dimensionalidad. La segunda propone una variación del primer método propuesto para problemas de estado de alta dimensionalidad, reduciendo el tiempo y esfuerzo de un humano al entrenar una política. Y por último, la tercera introduce el uso de Redes Neuronales Recurrentes para añadirle memoria a los agentes en problemas con observabilidad parcial. / FONDECYT 1161500
19

Detecting emergency situations based on location in Twitter

Sarmiento Albornoz, Hernán Andrés January 2019 (has links)
Tesis para optar al grado de Magíster en Ciencias, Mención Computación / Durante situaciones de emergencia tales como terremotos o atentados terroristas, los usuarios en redes sociales comparten masiva y colectivamente mensajes relacionados al evento. En muchas ocasiones, estos usuarios se transforman en testigos presenciales en el lugar de los hechos. En efecto, estos usuarios suelen compartir información relevante de manera mucho más rápida que los medios tradicionales de comunicación. Por consiguiente, así como los sensores físicos se activan cuando son estimulados, estos usuarios actúan como sensores ciudadanos localizados en lugares geográficos que reaccionan y detectan eventos de manera similar. La mayoría de los métodos para detectar situaciones de emergencia usando redes sociales, se basan en identificar características en los mensajes que contienen palabras claves específicas para cierto dominio. Sin embargo, los métodos basados en palabras claves requieren modelos que son entrenados con datos históricos en dominios específicos, múltiples idiomas y para diferentes tipos de eventos (por ejemplo, terremotos, aluviones, incendios forestales, etc). Además de ser costoso, estos enfoques podrían fallar al detectar situaciones que ocurren de manera inesperada, tales como catástrofes no comunes o ataques terroristas. Así mismo, las menciones colectivas de palabras clave no son el único tipo de fenómenos de auto-organización que pueden surgir cuando se produce una situación extrema en el mundo real. Para aprovechar esta información, utilizamos la actividad de geolocalización de manera auto-organizada para identificar situaciones de emergencia en Twitter. En nuestro trabajo proponemos detectar dichos eventos mediante el seguimiento de las frecuencias y las distribuciones de probabilidad del tiempo de llegada entre mensajes relacionados con ubicaciones específicas. Usando un clasificador estándar que es independiente de las características específicas del dominio, estudiamos y describimos situaciones de emergencia basadas únicamente en características correspondientes a la ubicación de los mensajes. En nuestro trabajo introducimos el concepto de propagación geográfica para saber si un evento corresponde o no a una situación de emergencia. Este término define si un evento de emergencia es focalizado o difuso, lo cual permite reducir la cantidad de falsos positivos en eventos que no están relacionados a situaciones de emergencia. Finalmente, nuestra contribución es proponer una prueba de concepto que permita detectar eventos de crisis mediante un modelo que no utiliza atributos del texto para clasificar, sino más bien la distribución y frecuencia que tienen los mensajes en ventanas de tiempo. Además nuestros hallazgos indican que las anomalías en la actividad de los usuarios en redes sociales, están relacionados con la ubicación los cuales proporcionan información para detectar automáticamente situaciones de emergencia independientes de su dominio. Los resultados indican que es posible detectar hasta un 80% de las situaciones de crisis sin utilizar características o atributos de texto.
20

Modelo predictivo basado en machine learning de ordenes de trabajo riesgosas para mantenimiento de equipos mineros

Barroso Salgado, Javier Antonio January 2018 (has links)
Memoria para optar al título de Ingeniero Civil Industrial / Objetivo: Desarrollar un modelo predictivo que permita al área de Supply de BHP Minerals Americas hacer gestión proactiva sobre ordenes de trabajo de mantenimiento con requerimiento de materiales y pudiendo anticiparse así a posibles caídas en el indicador WOPIFOT de nivel de servicio de Supply. Contexto: El área de Supply funciona como una balanza entre los requerimientos de materiales y servicios para la operación y los objetivos económicos del negocio, optimizando la relación costo/disponibilidad de materiales. WOPIFOT es un indicador binario de nivel de servicio de Supply que mide para cada orden de trabajo si esta fue completada satisfactoriamente y con todos los materiales requeridos. Durante el año fiscal 2017, el promedio fue de 85 %, o en otras palabras, 15 % de las órdenes de trabajo no se desarrollaron correctamente. Esto supone que existen oportunidades de mejora en el ámbito de disponibilidad de materiales y disciplina operacional que pueden ser apoyadas con la implementación de una herramienta de detección temprana de OTs con riesgo de fallas.Hipótesis: Existen patrones históricos de fallas a nivel de materiales y su relación con otras variables como horizonte de planificación, impacto en el negocio del material, sistema de control de inventario, entre otras, que permite desarrollar un modelo predictivo basado en herramientas de machine learning que detecte estos patrones y también su evolución en el tiempo al modificarse la cultura operacional a medida que se haga gestión sobre las fallas. Diseño: Se propone desarrollar una herramienta basada en el algorítmo Gradient BoostingTrees que cargue los datos de órdenes de trabajo abiertas en el periodo y las clasifique en riesgosas o no riesgosas de acuerdo al comportamiento histórico de sus componentes y otras características y asigne una posible causa de falla para apoyar la gestión.Resultados: El algoritmo de GBT entrenado con 9 variables relativas a las órdenes de trabajos y materiales genera un modelo cuyas métricas de desempeño teóricas en un testeo con datos fuera de muestra, realizado en mayo/2018 con un modelo entrenado con datos históricos hasta abril/2018 son prometedores, con un accuracy de 82,2 %, Cohen s Kappa de 0,625 y AUC de 0,731, lo que permitiría en el caso ideal, aumentar el indicador WOPIFOT PM01 en Spence a sobre 80 %en caso de que las acciones y gestión proactiva sean eficaces.Conclusión: Incluir nuevas tecnologías de analytics y data science permiten agregar valor en una industria que está constantemente enfocada en la mejora de la producción y donde existen oportunidades reales de mejorar los procesos. Automatizar los procesos de análisis de datos,mediante por ejemplo algoritmos de aprendizaje de máquinas permite a los profesionales dedicar menos tiempo en análisis y reportabilidad y enfocar recursos en gestión y decisión.La gestión del cambio es una etapa fundamental en la utilización de estas nuevas tecnologías. / BHP

Page generated in 0.0885 seconds