• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 147
  • 24
  • Tagged with
  • 171
  • 171
  • 81
  • 80
  • 55
  • 47
  • 29
  • 27
  • 18
  • 16
  • 14
  • 13
  • 13
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Metodología para procesos de Inteligencia de Negocios con mejoras en la extracción y transformación de fuentes de datos, orientado a la toma de decisiones

Morales Cardoso, Santiago Leonardo 25 March 2019 (has links)
Con la idea de guiar a personas que están a cargo de diferentes tipos de organizaciones para tomar mejores decisiones, hemos analizado y considerado que uno de los retrasos en los proyectos de Inteligencia de Negocios (IN) ocurre en los procesos de Extracción, Transformación y Carga de Datos (ETL), se propone un algoritmo basado en ID3, pero que incluye mejoras en la investigación de sus nodos mediante atributos ubicados en diferentes fuentes de datos estructurados o no, los mismos que pasan por procesos especiales de limpieza y en este estudio se les da una denominación de "pureza". Una vez obtenidos, los nodos se clasifican según los cálculos recursivos de entropía y ganancia de información para lograr una estructura sólida que tome decisiones para cualquier objetivo que se presente en un caso de estudio.
72

Características y aplicaciones de las funciones resumen criptográficas en la gestión de contraseñas

Andrade, Alicia 07 January 2019 (has links)
Actualmente, la criptografía resulta de vital importancia en la protección de la información, garantizando la confidencialidad, autenticidad, integridad y disponibilidad. Dentro de esta área, las funciones resumen o hash criptográficas tienen mucha aplicabilidad en sistemas y protocolos seguros. Su función principal consiste en pasar de una cadena de longitud arbitraria (mensaje) a una de longitud fija (resumen) de forma que sea muy improbable obtener el mensaje a partir del resumen o encontrar dos mensajes que generen el mismo resumen. Las funciones de derivación de claves basadas en contraseña (PBKDF), son funciones hash especializadas que se usan, comúnmente, para transformar las contraseñas de los usuarios en claves para el cifrado simétrico, así como para la autenticación de usuarios. Se propone un PBKDF con tres niveles de optimización cuyo diseño se basa en emplear el estándar de cifrado avanzado (AES), como un generador pseudoaleatorio y aprovechar el soporte para la aceleración de hardware para AES para mitigar los ataques comunes a los sistemas de autenticación de usuarios basados en contraseña. Se analizan, también, sus características de seguridad, estableciendo que resulta equivalente a la seguridad de AES, y se compara su rendimiento con algoritmos PBKDF de prestigio, como Scrypt y Argon2, con resultados favorables.
73

Modelo para estimar el impacto social del uso de ecosistemas de aprendizaje en las universidades

Meza-Bolaños, Doris Verónica 01 July 2019 (has links)
Las universidades hacen grandes esfuerzos económicos y organizativos para adaptarse a la sociedad actual. El proceso de enseñanza-aprendizaje ha evolucionado desde la tradicional lección magistral hasta las últimas tendencias: e-learning, b-learning, flipped learning, aprendizaje basado en proyectos, aprendizaje cooperativo, etc. En definitiva, el proceso de aprendizaje se encuentra inmerso en lo que se denomina un ecosistema tecnológico en el cual coexisten métodos, políticas y equipos de personas, todo ello relacionado mediante herramientas tecnológicas. Estimar el impacto de un ecosistema de e-learning permite saber qué elementos de este entorno le dan mayor valor a la organización y verificar si los objetivos son pertinentes y si se han cumplido o no. No es suficiente saber si una estrategia aporta valor real a una organización. Con la información que se obtenga de la estimación del impacto de los ecosistemas, es posible identificar brechas en el contenido o la metodología de un programa e implementar acciones que permitan cubrir las necesidades de la sociedad frente a la oferta académica de las universidades. Estas acciones posibilitarán la introducción de mejoras en el entorno en lo referente a logro de objetivos de empleo y mejoras en las condiciones sociales y económicas de las personas, las empresas y la sociedad. Es importante medir el impacto de los procesos de e-learning para determinar los resultados de esta aplicación en la sociedad. Al evaluar las acciones del proceso de enseñanza-aprendizaje, se puede saber en qué y cuánto se debe cambiar, en qué y cuánto se debe mejorar. Por lo tanto, el control de estos factores es fundamental en cualquier organización para impulsar avances y mejora continua. Para responder a las cuestiones de investigación planteadas hay que tener en cuenta que la medición del impacto del uso de ecosistemas de aprendizaje es un área que se encuentra en desarrollo. Inicialmente el estudio se ha basado en determinar criterios, variables e indicadores relevantes y comunes, este es el punto de partida para la evaluación. Además, se ha procurado estudiar a cada elemento de manera sistemática para determinar si es o no relevante y si formará o no parte del modelo propuesto. Para el desarrollo de la investigación se ha realizado un estudio del tema analizando trabajos en este ámbito desarrollados por otros autores para obtener información del estado actual del tema de investigación. Esto habilita definir la línea base que permita estructurar el estudio de forma que se tenga una visión global del contexto y finalmente sea posible diseñar un modelo que incorpore características relevantes y comunes. A continuación, con los datos recabados de encuestas aplicadas a estudiantes, egresados y empleadores, se ha realizado el análisis de los datos con la finalidad de hacer un ajuste del modelo, de acuerdo, a condiciones reales. Se ha aplicado análisis factorial y análisis de componentes principales para determinar cuáles son los factores influyentes en el proceso de estimación del impacto de los ecosistemas e-learning y cuál es su nivel de importancia dentro del entorno estudiado mediante la obtención de sus pesos y calculando su matriz de puntuaciones factoriales. Con estos valores se han establecido las funciones que determinan cada aspecto dentro de cada una de las dimensiones del modelo. Una vez diseñado el modelo para valorar el impacto de los ecosistemas de aprendizaje y habiendo obtenido las ecuaciones que miden cada aspecto de cada dimensión del modelo, se calculan los valores máximos y mínimos de las ecuaciones con el fin de generar un rango referencial común para todas las dimensiones. Finalmente, y a modo de ejemplo, se aplica el modelo utilizando los datos de la Universidad Central del Ecuador con el objetivo de mostrar cómo el modelo puede reflejar de forma sencilla el impacto social de los ecosistemas de aprendizaje. Los resultados obtenidos se presentan también de forma gráfica, lo que permite valorar a simple vista los aspectos mejor y peor valorados dentro del modelo por todos los agentes implicados: estudiantes, egresados y empleadores. Ello permite focalizar las propuestas de mejora en los aspectos peor valorados o en aquellos que requieren un trabajo coordinado entre las partes implicadas. En definitiva, se ha generado un instrumento base que podría ser utilizado por cualquier universidad pública para determinar el impacto social de aplicar ecosistemas de aprendizaje dentro de los procesos de enseñanza-aprendizaje.
74

Robotics semantic localization using deep learning techniques

Cruz, Edmanuel 20 March 2020 (has links)
The tremendous technological advance experienced in recent years has allowed the development and implementation of algorithms capable of performing different tasks that help humans in their daily lives. Scene recognition is one of the fields most benefited by these advances. Scene recognition gives different systems the ability to define a context for the identification or recognition of objects or places. In this same line of research, semantic localization allows a robot to identify a place semantically. Semantic classification is currently an exciting topic and it is the main goal of a large number of works. Within this context, it is a challenge for a system or for a mobile robot to identify semantically an environment either because the environment is visually different or has been gradually modified. Changing environments are challenging scenarios because, in real-world applications, the system must be able to adapt to these environments. This research focuses on recent techniques for categorizing places that take advantage of DL to produce a semantic definition for a zone. As a contribution to the solution of this problem, in this work, a method capable of updating a previously trained model is designed. This method was used as a module of an agenda system to help people with cognitive problems in their daily tasks. An augmented reality mobile phone application was designed which uses DL techniques to locate a customer’s location and provide useful information, thus improving their shopping experience. These solutions will be described and explained in detail throughout the following document.
75

Contributions to 3D data processing and social robotics

Escalona, Félix 30 September 2021 (has links)
In this thesis, a study of artificial intelligence applied to 3D data and social robotics is carried out. The first part of the present document is dedicated to 3D object recognition. Object recognition consists on the automatic detection and categorisation of the objects that appear in a scene. This capability is an important need for social robots, as it allows them to understand and interact with their environment. Image-based methods have been largely studied with great results, but they only rely on visual features and can confuse different objects with similar appearances (picture with the object depicted in it), so 3D data can help to improve these systems using topological features. For this part, we present different novel techniques that use pure 3D data. The second part of the thesis is about the mapping of the environment. Mapping of the environment consists on constructing a map that can be used by a robot to locate itself. This capability enables them to perform a more elaborated navigation strategy, which is tremendously usable by a social robot to interact with the different rooms of a house and its objects. In this section, we will explore 2D and 3D maps and their refinement with object recognition. Finally, the third part of this work is about social robotics. Social robotics is focused on serving people in a caring interaction rather than to perform a mechanical task. Previous sections are related to two main capabilities of a social robot, and this final section contains a survey about this kind of robots and other projects that explore other aspects of them.
76

Image-Based Biomarker Localization from Regression Networks

Cano Espinosa, Carlos 26 September 2019 (has links)
La inteligencia artificial, y en concreto la desarrollada mediante aprendizaje profundo, se ha instaurado firmemente en nuestra sociedad en la última década. Los avances tecnológicos han hecho posible su uso en todos los ámbitos, lo que ha impulsado la investigación y el desarrollo de nuevos métodos que superan enormemente a lo que hasta hace poco era lo que se consideraba más avanzado. Las técnicas tradicionales han sido sustituidas por redes neuronales que permiten obtener resultados de mejor calidad de una forma mucho más rápida. Esto ha sido posible principalmente por dos factores: Primero, el avance en la tecnología de procesadores gráficos, que permiten una alta paralelización, ha permitido el desarrollo de técnicas que hasta la fecha eran completamente inviables debido a su coste temporal. Segundo, la proliferación de la ``cultura de los datos'' en la que estos son tratados como un recurso imprescindible, sumado al abaratamiento de la capacidad de almacenamiento digital, ha propiciado la aparición de grandes bases de datos de todo tipo y para todo propósito, creciendo exponencialmente con el tiempo y con una calidad cada vez superior debido a que se diseñan con el propósito específico de servir como base a estos tipos de sistemas inteligentes. Uno de los ámbitos que más se han beneficiado por estas técnicas es el entorno médico. La era de la digitalización ha hecho posible la recopilación de datos con información de pacientes, enfermedades, tratamientos, etc. No obstante, algo que diferencia al entorno médico de muchos otros ámbitos es que para poder atender correctamente a un paciente y valorar su estado es necesario la opinión de un experto, lo que provoca cierta inseguridad en el uso de los sistemas inteligentes, ya que estos hasta la fecha tienen una gran falta de explicabilidad. Es decir, pueden por ejemplo predecir, categorizar o localizar una enfermedad, pero no es fácilmente interpretable el cómo ha llegado a esa conclusión, cosa que es imprescindible conocer antes de tomar una decisión que puede ser crítica para el paciente. Además, este tipo de técnicas aplicadas al entorno médico tienen un problema añadido. Puesto que las bases de datos suelen provenir de diferentes instituciones, con una diversidad importante en cuanto a los modelos de máquinas empleadas para la obtención de estos datos, cada una con unas propiedades y características diferentes. Por ejemplo, suele existir una diferencia importante en los resultados al aplicar un método que se entrenó con datos provenientes de un hospital, en datos de otro diferente. Para hacer uso de estas bases de datos se requiere que sean lo suficientemente grandes como para poder generalizar de manera adecuada este hecho. Por otro lado, nos encontramos con que las bases de datos suelen estar etiquetadas por varios especialistas, por lo que se introduce cierto grado de diversidad subjetiva e incluso algunos errores que han de tenerse en cuenta. No obstante, en los últimos años se está haciendo un esfuerzo importante en solventar todos estos problemas. Concretamente en el campo de la interpretabilidad, aunque aún es un tema que está en sus fases más tempranas, surgen muchas propuestas que lo abordan desde diferentes perspectivas. Con ello en mente, esta investigación hace su aporte centrándose en redes neuronales para la regresión de biomarcadores, proponiendo un método capaz de indicar la localización de aquellas estructuras, órganos, tejidos o fluidos a partir de los cuales se infieren. Para ello, únicamente se dispone del valor agregado final de dichos biomarcadores y se pretende obtener una localización que explique dicho valor. En esta tesis se analizarán las redes de regresión directa, proponiendo una arquitectura para el cálculo de la Enfermedad de las Arterias Coronarias (CAD), haciendo un estudio de los diferentes elementos que la compone, incluyendo la función de coste empleada y cómo afecta al resultado dependiendo de las propiedades de los datos utilizados para su entrenamiento. Los resultados se validan en otros dos problemas de regresión, Área del Musculo Pectoral (PMA) y Área de Grasa Subcutánea (SFA). Como resultado de esta tesis podemos concluir que la regresión directa de los biomarcadores es una tarea totalmente viable, obteniendo altos índices de correlación entre los resultados calculados por este tipo de redes y la referencia real obtenida de la evaluación de un especialista en el campo al cual se aplica. En segundo lugar, la percepción de este tipo de sistemas en el entorno médico puede mejorarse si, junto con el resultado de la regresión, se proporciona una localización que guíe al especialista para inferir de dónde proviene este valor, centrando su atención en una región específica de la imagen. En esta tesis se profundiza en las redes de regresión de biomarcadores y permitiéndoles localizar las estructuras utilizadas para inferir el valor del biomarcador.
77

Discovering memory optimization opportunities by analyzing shareable objects

Infante Rica, Alejandro José January 2017 (has links)
Magíster en Ciencias, Mención Computación. Ingeniero Civil en Computación / Los lenguajes modernos de programación orientada a objetos han aliviado de manera impor- tante a los programadores la tarea de administrar memoria. A pesar de la eficiencia de los recolectores de basura y herramientas de análisis de programas en tiempo real, aún existe una porción importante de memoria siendo desaprovechada. El desaprovechamiento de memoria en software posee graves consecuencias, incluyendo frecuentes interrupciones en la ejecución debido a la presión ejercida sobre el recolector de basura y el uso ineficiente de dependencias entre objetos. Hemos descubierto que supervisar los lugares de producción de objetos y la equivalencia de los objetos producidos es clave para identificar ineficiencias causadas por objetos redundantes. Hemos implementado optimizaciones para reducir el consumo de memoria de seis aplicaciones industriales, obteniendo una reducción superior al 40% en el uso de memoria en la mitad de las aplicaciones sin poseer conocimiento previo de las mismas. Nuestros resultados replican parcialmente los resultados obtenidos por Marinov y O Callahan y exploran nuevas formas de identificar objetos redundantes. / Este trabajo ha sido parcialmente financiado por CONICYT-PCHA/Magíster-Nacional/2015-22150809
78

Desarrollo de un Método de Clasificación de Edad para Imágenes Faciales Basado en Análisis Antropométrico y de Texturas

Saravia Estrada, Jacob Alejandro January 2011 (has links)
Ingeniero Civil Eléctrico / Un sistema que ayude a determinar la edad de las personas se transforma en una gran ayuda para facilitar una serie de tareas, como estudios de mercadeo, selección de contenidos aptos para ciertos grupos etarios, entre otros sistemas basados en interacciones humanas. El presente trabajo expone el desarrollo de un algoritmo que sea capaz de estimar edad y clasificar en rangos etarios utilizando rostros frontales, realizando para ello un análisis antropométrico de proporciones faciales en conjunto con un análisis de textura de la piel en determinadas zonas claves del rostro. Para ello es que se calculan ciertas proporciones del rostro y, por otro lado, se determina el nivel de arrugas, mediante la obtención de la intensidad, cantidad y distribución espacial de dichos surcos en la piel. Con tales datos se efectúa un procedimiento de clasificación, contrastando un par de algoritmos de aprendizaje computacional conocidos como redes neuronales artificiales y máquinas de soporte vectorial. Para ajustar los parámetros del algoritmo anteriormente descrito, se aplica una optimización por enjambre de partículas. Con todo esto en mente, el clasificador con mejor desempeño es el que en función de la cantidad de grupos previamente definidos (e.g. niño, joven o adulto) entregue la mayor tasa de aciertos, o el que mediante una aproximación de la edad real (en cantidad de años) presente un menor error. Para dichas tareas se obtuvo una clasificación con una tasa de aciertos de un 98% en promedio para 2 clases, y 6 años de error en promedio para la estimación de la edad real del sujeto.
79

Predicción de la demanda de potencia eléctrica de Metro S.A. en tiempo real, mediante la aplicacion de redes neuronales

Reyes Molina, Cristián Daniel January 2012 (has links)
Ingeniero Civil Eléctrico / El objetivo general del presente trabajo de título es diseñar e implementar un modelo matemático que permita realizar predicciones de la demanda de potencia eléctrica de Metro S.A. en tiempo real. El software obtenido permitirá predecir la demanda de potencia eléctrica en un instante de tiempo a futuro, y con esta información se podrá efectuar un control de demanda más eficiente del que se lleva a cabo hoy en día en Metro S.A. Metro de Santiago posee 5 líneas en operación hoy en día, las cuales transportan una cantidad considerable de pasajeros a lo largo del día. En horario punta en la tarde, entre las 18:00 y las 20:00 hrs se efectúa el control de demanda de potencia eléctrica, mediante observación del registrador de consumo con acciones manuales para controlarla. En este escenario, se ha desarrollado un software aplicado en Matlab, que entrena un conjunto de redes neuronales con la información de demanda de potencia eléctrica de Metro a lo largo de 1 año, información entregada por el sistema SCADA de Metro, y luego de la validación de cada red permite realizar predicciones de la demanda de potencia eléctrica con una certeza adecuada para los fines de control buscados. Los resultados obtenidos mediante el entrenamiento de las redes neuronales permiten concluir que las predicciones dependen directamente del tamaño del intervalo de tiempo que se quiere predecir. También se tuvo una dependencia de las predicciones respecto del sistema que se estudiaba. Así, mientras mayor fue la disgregación de las variables del sistema dinámico a estudiar, mejores fueron las predicciones de las redes. De esta forma, se separó el sistema dinámico de Metro S.A. en dos subsistemas, el SEAT (Subestación de alta tensión, L1, L2, L5) y el CDC-Vicente Valdés (Centro de Distribución de Carga, L4, L4A), debido a que poseen alimentación eléctrica y consumos distintos. Para cada sistema se entrenaron 24 redes neuronales, que predicen 5 minutos a futuro, para los 24 instantes de tiempo existentes cada 5 minutos entre las 18:05 y las 20:00 hrs. Como producto del estudio se entrega un software que utiliza las 48 redes neuronales entrenadas con la dinámica eléctrica de Metro S.A. y mediante la supervisión de las variables eléctricas que realiza el sistema SCADA de Metro permite realizar predicciones acertadas dentro del rango de horario de hora punta para cualquier día de semana del año actual. Se concluye que con la ayuda del software existirá la posibilidad de realizar un control de demanda de potencia eléctrica de Metro más eficiente, el cual permita automatizar el control de demanda en tiempo real de la variable potencia eléctrica de Metro S.A.
80

Optimización de las horas operativas de los Caex en los procesos de descarga en chancado y abastecimieno de combustible, mediante la utilización de modelamientos compuestos y redes neuronales

González Gazmuri, Roberto Ignacio January 2016 (has links)
Ingeniero Civil de Minas / En el último tiempo, el precio del cobre se ha estado transando con una tendencia sostenida a la baja, lo que ha conllevado implementar un conjunto de medidas a nivel nacional e internacional, para lograr una reducción de costos e incrementos en la productividad de los procesos. Actualmente, los sistemas de asignación dinámica como Jigsaw o Modular no se encargan del reabastecimiento de combustible, el cual es llevado a cabo de manera manual, y este es realizado cuando el equipo notifica que está cercano a la reserva. Por otra parte, estos softwares una vez asignado a descarga el material, no analiza las características de la carga que se transporta en cada camión, por lo que este proceso consiste en que el primero en llegar es el que realiza la actividad. Este trabajo se centró en recuperar tiempos perdidos de los camiones de extracción en las operaciones a cielo abierto de la gran minería, para mejorar el proceso productivo. Esto se logra mediante la implementación de modelos de redes neuronales, usados para la predicción de información, y modelos de optimización, los cuales usarán lo predicho para mejorar el transporte, en los procesos de chancado y abastecimiento de combustible. Para el caso de estudio se tomó una base de datos de 6 meses, contados a partir de febrero del 2015, de una faena donde el movimiento de material es de aproximadamente 450 KTPD y cuenta con una flota efectiva de 54 CAEX. En cuanto al proceso de optimización de chancado, se logró que mediante una red neuronal se predijera el tiempo de proceso de cada carga y luego, se reorganizara el sistema de descarga teniendo en consideración este nuevo parámetro. Considerando un circuito de 5 km de distancia y con una flota 11 CAEX, se consiguió incrementar la utilización de los equipos de transporte en un 1,9% y el tonelaje procesado en un 2,4% en promedio, con una desviación estándar de 0,4% y 0,6% respectivamente, para 10.000 simulaciones, esto implica un ingreso adicional de 16,8 MUS$/año por cada chancador en faena de características similares. En el caso de que se aumentará el largo del circuito, se deberá incrementar el número de camiones, para conseguir los mismos resultados. Para el proceso de abastecimiento de combustible, la red neuronal predice el consumo del equipo, para posteriormente con un modelo de asignación dinámica, crear un proceso autónomo de envió a las diferentes estaciones. En un escenario de 60 CAEX en circulación y con dos petroleras, se generó una reducción de un 65% aproximadamente en la espera de cada camión para reabastecer. Adicionalmente, disminuye el número de recargas necesarias en periodos mayores a una semana, gracias a rellenar más litros por visita. Lo anterior, significó un incremento de un 3,2% en la utilización de los camiones de extracción. Para asegurar la fidelidad de los resultados presentados anteriormente, se realizó un test de confianza al 95%, para descartar que los beneficios fueron aleatorios. De este se concluyó que los valores señalados son estadísticamente significativos. Por último, con estos desarrollos una faena puede recuperar de manera rápida, gracias a algoritmos de predicción y optimización, y a un bajo costo de implementación y operación, tiempos perdidos en sus activos, con lo que se generará mayores ingresos para el negocio. / The copper mining industry is currently experiencing a low-price crisis, which has led to a series of measures at national and international level, to reduce costs and improve productivity in operational processes. Currently, dynamic allocation systems as Jigsaw or Modular is not responsible for the refueling, which is carried out manually and is performed when the operator notifies that his equipment is close to the reserve. Moreover, this software once assigned the discharge point, does not analyze the type of material carried in each haul truck, so this process is the first to arrive is the one who performs the activity. This work focused on recovering some of the wasted time of haul trucks in large open pit operation to improve the production process. This is achieved by implementing neural network models used for forecasting information, and optimization models, which will use this predicted data to improve transport in the processes of crushing and refueling. For the case study it was used a database of 6 months, from February 2015. The mine company has a production of approximately 450 KTPD material and an effective fleet of 54 CAEX. As for the crushing optimization process, this was succeeded using a neural network that predicted the processing time of each charge. Then, with this information the discharge order was reorganized in crushing in view of this new parameter. Now, considering a 5 km circuit and a fleet of 11 trucks, there was an increase of the utilization of the equipment’s on that circuit by 1.9% and 2.4% of extra throughput tonnage, with a standard deviation of 0.4% and 0.6%. This implies an additional income of 16.8 MUS $ / year for each crusher in the mine. In the case the circuit length increase, the same needs to happen with the truck fleet to achieve the same results. For the refueling process, the neural network predicts the fuel consumption of the equipment. Later a dynamic allocation model, create an autonomous sending process to different fuel stations. If it is consider a case with 60 haul trucks in circulation and two available stations. This results in a reduction of approximately 65% of the waiting of each truck to restock. Further on, it was also decreases the number of loads, thanks to fill more liters per visit. Finally, this means an increase of 3.2% in the utilization of haulage equipment. To ensure that the results presented above, has a 95% of confidence, it was performed a test to determinate that the benefits were not randomized. This test concluded that the indicated values are statistically significant. With these improvements, a mine company can recover quickly, thanks to predictive and optimization algorithm, and for a low cost strategy, wasted time in their assets and improve revenues for the business.

Page generated in 0.4184 seconds