• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 255
  • 43
  • 2
  • Tagged with
  • 300
  • 300
  • 139
  • 77
  • 77
  • 77
  • 77
  • 77
  • 64
  • 60
  • 47
  • 47
  • 42
  • 41
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Aplicación de redes neuronales artificiales para el modelamiento geoquímico y prospección de la zona de alteración hidrotermal del Complejo Tres Puntas, región de Atacama, Chile

Guiresse Torres, Claudio Gastón January 2012 (has links)
Geólogo / El presente estudio se realizó en el Complejo Volcánico Tres Puntas, el cual presenta una extensa zona de alteración hidrotermal ubicada en la Cordillera Claudio Gay, Región de Atacama, en el noreste de la franja de Maricunga. Dado su contexto geodinámico y metalogénico, el área de estudio presenta un gran interés para la prospección de metales preciosos. En el área de estudio se realizó una campaña de exploración básica, en la cual se recolectaron 113 muestras de superficie (rocas y suelo) y se reconocieron las características litológicas, mineralógicas y texturales de varios de los puntos de muestreo. Se analizó la composición química de roca total de las muestras, obteniéndose concentraciones para 49 elementos mayores y trazas, respectivamente mediante ICP-MS e ICP-ES. Asimismo se obtuvieron las concentraciones de Au mediante AAS, utilizando un ensayo de fusión a fuego. En términos generales, las características geoquímicas, mineralógicas y de alteración, son compatibles con un sistema epitermal de Au de alta sulfuración. Los datos geoquímicos fueron estudiados utilizando redes neuronales artificiales (RNA). La aplicación de esta técnica permitió realizar un análisis multi-elemento de este set de datos, el cual incluye un número elevado de muestras con características litológicas y mineralógicas variadas. Como resultado del análisis mediante RNA, fue posible sub-dividir el set de datos en 6 Grupos Geoquímicos, es decir, 6 conjuntos de muestras con características geoquímicas similares. La proyección de esta información sobre el área de estudio, permitió identificar marcadas zonaciones geoquímicas, donde destacan dos zonas prospectivas, distanciadas aproximadamente en 1 km, que se caracterizan por concentrar las muestras con mayores valores de Au y Ag, además de las mayores abundancias de Pb, As, Sb, Te, Bi, Se, Sn, W y S (muestras de los Grupos Geoquímicos 3, 4 y 6). Estas correlaciones geoquímicas coinciden con las esperadas para sistemas epitermales de metales preciosos. El carácter prospectivo de estas zonas se ve reforzado dado que ellas coinciden estrechamente con una zona de alteración argílica avanzada y con una zona de alteración silícea. Las muestras con mayores valores de Cu se correlacionan con las mayores abundancias de Co y Cd (Grupo Geoquímico 5) y estarían relacionadas a rasgos de mayor profundidad (asociados a metales base) por lo que se interpreta como posibles estructuras locales (fallas de colapso) y además se relacionan con un cuerpo intrusivo hipabisal de composición diorítica que aflora en una de las zonas prospectivas. Cabe destacar que las muestras asociadas al Grupo Geoquímico 2 comparten algunas características con el Grupo Geoquímico 5, pero presentan una distribución espacial más dispersa, con algunas muestras dentro de las zonas que se definen como más prospectivas. Las muestras asociadas al Grupo Geoquímico 1 marcan una zona de bajo interés prospectivo ya que presenta algunas características geoquímicas afines con los Grupos Geoquímicos 3 y 6, pero no se relacionan con las anomalías esperadas para sistemas epitermales de metales preciosos.
82

Predicción de signo semanales de las acciones de Falabella, Ripley, CENCOSUD y D&S con redes neuronales

Arancibia V., Franco, Loehnert T., Francisco, Soto R., Gerardo José January 2008 (has links)
Seminario para optar al título de Ingeniero Comercial, Mención Administración / En las diferentes disciplinas de la ciencia, podemos ver que todos los días se hacen esfuerzos importantes para poder determinar con mayor certeza los fenómenos a los que nos vemos afectados. Para ello, se han implementado diversas técnicas de predicción con el propósito de obtener mejores resultados frente a estos nuevos eventos. Dichos esfuerzos responden a la necesidad de las personas de disminuir el riesgo en la toma de decisiones y su aversión al riesgo en cuanto a las opciones que tienen que tomar. En las finanzas la historia es muy parecida. Durante mucho tiempo las personas han buscado poder acceder a mayor información, que les permita tomar decisiones de una forma correcta, en donde las posibilidades de "equivocarse" sean las mínimas y el éxito en la toma de decisiones sea lo más alto posible. A medida que ha pasado el tiempo, nos hemos visto expuestos a diversas técnicas para poder predecir los fenómenos futuros, ellas están basadas en la premisa de que los elementos que suceden en la práctica no son un efecto aleatorio, sino que representan de alguna manera tendencias que podrían ser explicadas de cierta forma por algún modelo. Es así como nacen, por ejemplo, las técnicas con esquema y comportamiento lineal, dentro de las cuales podemos encontrar diversas técnicas que han ayudado a muchos inversionistas a lo largo de los últimos años. A pesar de todo, hemos visto que esta técnica arroja resultados poco certeros si es que no se seleccionan de manera correcta las variables de entrada a incluir, como así también la cantidad de datos del tamaño muestral y la especificación del modelo. Es decir, esta nueva técnica no va a arrojar resultados correctos sólo por introducir los datos, sino que el poder identificar cuáles son las variables importantes que están influyendo en la variable de salida, la elección del conjunto de entrenamiento y su tamaño, nos aseguran un éxito relativamente mayor. En otras palabras, el planteamiento del problema va a ser un elemento clave para lograr una mayor capacidad predictiva. Además, hemos visto que la forma en que el modelo “estudia” o utiliza esta información, es también un factor muy importante para determinar con mayor certeza la predicción requerida. Es por esto que se han implementado técnicas en donde el modelo va agregando datos ha medida que va transcurriendo el tiempo, dándole un carácter más real, dado que las personas van haciendo lo mismo cuando toman decisiones, van agregando información actual para que su predicción tenga mayor validez.
83

Mejora en las simulaciones de un modelo hidrogeológico de base física mediante corrección complementaria de sus errores

Reyes Alcalde, Jorge Mauricio January 2016 (has links)
Magíster en Ciencias de la Ingeniería, Mención Recursos y Medio Ambiente Hídrico / En el ámbito de la modelación hidrogeológica, los Modelos de Base Física (MBF), como MODFLOW, se han utilizado desde hace décadas como herramienta de evaluación de recursos hídricos subterráneos. Estos modelos intentan replicar los niveles observados utilizando ecuaciones diferenciales parciales que incluyen parámetros que representan propiedades físicas del acuífero y del agua. La estimación de estos parámetros considera que las diferencias producidas entre lo simulado y lo observado (residuos o errores) corresponden a ruido blanco. Sin embargo, dada la complejidad de los medios subterráneos en cuanto a heterogeneidad y anisotropía, en la práctica las simulaciones numéricas presentan normalmente errores no sólo aleatorios sino también sistemáticos. Estos errores, usualmente asociados a problemas en la estimación de los parámetros físicos, pueden tener también otras causas, lo que sumado a la falta de mayor información, dificulta en definitiva una corrección apropiada al MBF. La cada vez mayor disponibilidad de información medida en terreno, permite explorar herramientas que antes estaban relegadas por la falta de datos observados. En este trabajo se ha desarrollado un procedimiento numérico para tratar con los errores sistemáticos de los MBF, estudiando su estructura temporal y espacial para modelar su comportamiento y corregir los resultados de forma externa y complementaria mediante un proceso que se alimenta de las mismas salidas del MBF y agrupado en un esquema denominado Modelo de Corrección Complementaria (MCC). El enfoque determinístico tradicional con que se estudia la hidrogeología es complementado con el enfoque estocástico de las herramientas utilizadas en el presente trabajo, aprovechando las potencialidades de ambos esquemas, donde las ventajas de uno compensan las limitaciones del otro. El MCC utiliza elementos de geoestadística para realizar correcciones espaciales y de redes neuronales para correcciones temporales, resultados que posteriormente se integran generando la corrección final. El MCC fue evaluado en el sector acuífero denominado Mapocho Alto, en la zona oriente del valle de Santiago, utilizando el MBF Maipo-Mapocho perteneciente a la Dirección General de Aguas y 54 pozos de observación distribuidos a lo largo de toda la zona. La aplicación del MCC al MBF muestra disminución en las desviaciones locales, distribución normal de los errores y reducciones en las correlaciones temporales y espaciales de los residuos y por tanto notables mejoras en los resultados respecto del MBF original. En términos globales el error medio absoluto (AME) disminuyó de 17.4 m a 3.4 m, la raíz del error cuadrado medio (RMS) bajó de 25.8 m a 7.2 m y el RMS normalizado (RMSN) se redujo de 7% a menos del 2%. En consecuencia, esta metodología se observa como una interesante posibilidad de actualizar un MBF evitando el trabajo y los costos de intervenir su estructura interna.
84

Control Inteligente del Proceso de Biolixiviación en el Botadero San Francisco de Anglo American Chile, División Los Bronces

Kaempfe Kaempfe, Gonzalo Alain January 2008 (has links)
En la actualidad, existe un gran interés en desarrollar técnicas para optimizar y controlar el proceso de biolixiviación de minerales de cobre. En ese contexto, el propósito de este trabajo es la elaboración de una propuesta de controlador inteligente supervisor autónomo, para el proceso de biolixiviación que se lleva a cabo en el botadero San Francisco de la mina Los Bronces de Anglo American Chile. El objetivo del controlador es satisfacer las referencias fijadas para la recuperación o producción de cobre del botadero completo, en base a la adecuada manipulación de la temperatura de la solución de refino de éste, lo que se consigue mediante la utilización y control de equipos de calentamiento inductivo. Para el desarrollo del controlador, se programó en MATLAB una serie de módulos entre los que se cuenta la elaboración automática del programa de riego del botadero, el simulador del proceso global en base a redes neuronales, la elección técnico-económica de las referencias de temperatura de la solución y un sistema de monitoreo en línea del proceso. Además se diseñó una interfaz gráfica que coordina los programas descritos anteriormente, y que optimiza la comunicación usuario-controlador-planta. Los resultados de la simulación de la implementación del controlador diseñado y de la tecnología de calentamiento mencionada, indican que las utilidades económicas obtenidas para la operación del botadero pueden incrementarse hasta en un 35%, y que se justifica la inversión de 14,22 millones de dólares en equipos de calentamiento.
85

Predicción a corto plazo de la demanda de agua urbana en áreas densamente pobladas

Espinoza Rodríguez, César Alejandro 05 July 2010 (has links)
Ante un escenario donde el recurso agua es limitado y con una sociedad que la demanda cada vez con más garantías, la ingeniería es exigida a desarrollar técnicas y metodologías eficientes para asegurar que el vital líquido sea entregado en óptimas condiciones de calidad y cantidad a los usuarios domésticos, comerciales e industriales que conforman el conjunto de abonados de una ciudad. Cada tipo de usuario demanda el agua en diferentes escalas temporales y de cantidad, pero el conjunto de ellos consumiendo agua a la vez generan la demanda global de una ciudad. Los operadores de los sistemas de abastecimiento y distribución de agua potable están obligados a gestionar sus operaciones de tal manera que el conjunto de abonados cuente con el servicio en el momento que lo demanden. La experiencia que acumula el personal de operación se vuelve fundamental para que este objetivo se cumpla ya que son capaces de predecir con gran precisión las demandas futuras. En la búsqueda de predicciones con un fundamento matemático y estadístico sólido, hemos desarrollado este trabajo en el cual se han revisado las metodologías más destacadas que se han utilizado a lo largo de las últimas décadas par modelar y predecir la demanda de agua urbana en áreas densamente pobladas, encontrando que los modelos estocásticos del tipo ARIMA son la base de las principales metodologías. Sin embargo, encontramos también que los modelos existentes están desarrollados y pensados para ciudades en la cuales la demanda presenta un patrón con poca variabilidad derivada de patrones sociológicos y donde las componentes climáticas son poco relevantes. Esta variabilidad es generada por eventos puntuales que perturban el proceso de demanda y que cuando ocurren alteran los patrones repetitivos esperados. El presente trabajo de tesis tiene como principal objetivo proponer, analizar y comparar el desempeño con otras técnicas, de un modelo estocástico para la estimación a corto plazo de la demanda global de agua potable en sistemas de abastecimiento y distribución. / Espinoza Rodríguez, CA. (2010). Predicción a corto plazo de la demanda de agua urbana en áreas densamente pobladas [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/8421 / Palancia
86

Implementación de algoritmos de redes neuronales artificiales de tipo Fuzzy Artmap y Multilayer Feed Fordward con dispositivos electrónicos programables en sistemas de lenguas electrónicas para la clasificación de muestras y determinación de parámetros fisicoquímicos

Garrigues Baixauli, José 27 June 2013 (has links)
En los últimos años las lenguas electrónicas se han convertido en una excelente alternativa a los métodos tradicionales de análisis para el control de los procesos y productos, entre otros, en el ámbito agroalimentario. Se trata de sistemas que, mediante técnicas electroquímicas, como la potenciometría o la voltametría combinadas con herramientas de análisis multivariante, son capaces de clasificar muestras y cuantificar sus parámetros fisicoquímicos. Su funcionamiento se basa en la utilización de sensores de sensibilidad cruzada, lo que permite medir muestras en las que existan interferencias entre los distintos compuestos que la integran. En la actualidad la mayoría de los métodos empleados para la determinación de las propiedades fisicoquímicas son destructivos. El diseño de sistemas de medida no destructivos es un reto. Pero además de preservar la integridad de las muestras analizadas, las nuevas técnicas analíticas deben tener un bajo coste y un funcionamiento sencillo, no dependiente de mano de obra cualificada. Para el análisis de los datos se suele utilizar técnicas de reconocimiento de patrones no supervisadas, como es el Análisis de Componentes Principales (PCA). Pero en muchas ocasiones, es conveniente realizar análisis supervi-sado, donde, las categorías de las muestras están predefinidas y la finalidad es comprobar si es posible conseguir un sistema que sea capaz de clasificar adecuadamente muestras nuevas que entra en el sistema de medida. Uno de los métodos más utilizados para realizar una clasificación de la muestras con técnicas supervisadas son las redes neuronales artificiales (RNA). Existen diversos tipos de redes neuronales, una de las más conocidas y utilizadas es la denominada Perceptrón multicapa. El entrenamiento de esta red consiste en fijar los pesos de cada una de las neuronas. Este tipo de red neuronal, ha comprobado su utilidad en múltiples aplicaciones con lenguas electrónicas, pero también ha demostrado sus limitaciones, que vienen d / Garrigues Baixauli, J. (2013). Implementación de algoritmos de redes neuronales artificiales de tipo Fuzzy Artmap y Multilayer Feed Fordward con dispositivos electrónicos programables en sistemas de lenguas electrónicas para la clasificación de muestras y determinación de parámetros fisicoquímicos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/30219 / Palancia
87

Aplicación de las redes neuronales al modelado de la propagación para la planificación de sistemas de telefonía móvil celular

Fraile Muñoz, Rubén 23 September 2009 (has links)
El modelado de la propagación y la predicción son tareas clave del proceso de planificación de los sistemas de telefonía móvil celular. En ellas se deben lograr predicciones lo más precisas posible empleando el menor tiempo de cálculo. La precisión de los modelos se puede ver incrementada mediante el uso de medidas de campo. Las redes neuronales son sistemas capaces de aprender de medidas y proporcionar resultados con una velocidad de proceso alta. En esta tesis se investiga la aplicabilidad de las redes neuronales al modelado de la propagación en sistemas celulares. Se proponen diferentes modelos para macroceldas y microceldas, entorno urbano y rural, logrando en todos los casos un nivel de precisión similar al de los mejores modelos de propagación y unos ahorros de tiempo de cálculo muy notables. / Fraile Muñoz, R. (2000). Aplicación de las redes neuronales al modelado de la propagación para la planificación de sistemas de telefonía móvil celular [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/6201 / Palancia
88

Robust speech recognition in noisy and reverberant environments using deep neural network-based systems

Novoa Ilic, José Eduardo January 2018 (has links)
Doctor en Ingeniería Eléctrica / In this thesis an uncertainty weighting scheme for deep neural network-hidden Markov model (DNN-HMM) based automatic speech recognition (ASR) is proposed to increase discriminability in the decoding process. To this end, the DNN pseudo-log-likelihoods are weighted according to the uncertainty variance assigned to the acoustic observation. The results presented here suggest that substantial reduction in word error rate (WER) is achieved with clean training. Moreover, modelling the uncertainty propagation through the DNN is not required and no approximations for non linear activation functions are made. The presented method can be applied to any network topology that delivers log likelihood-like scores. It can be combined with any noise removal technique and adds a minimal computational cost. This technique was exhaustively evaluated and combined with uncertainty-propagation-based schemes for computing the pseudo-log-likelihoods and uncertainty variance at the DNN output. Two proposed methods optimized the parameters of the weighting function by leveraging the grid search either on a development database representing the given task or on each utterance based on discrimination metrics. Experiments with Aurora-4 task showed that, with clean training, the proposed weighting scheme can reduce WER by a maximum of 21% compared with a baseline system with spectral subtraction and uncertainty propagation using the unscented transform. Additionally, it is proposed to replace the classical black box integration of automatic speech recognition technology in human-robot interaction (HRI) applications with the incorporation of the HRI environment representation and modeling, and the robot and user states and contexts. Accordingly, this thesis focuses on the environment representation and modeling by training a DNN-HMM based automatic speech recognition engine combining clean utterances with the acoustic channel responses and noise that were obtained from an HRI testbed built with a PR2 mobile manipulation robot. This method avoids recording a training database in all the possible acoustic environments given an HRI scenario. In the generated testbed, the resulting ASR engine provided a WER that is at least 26% and 38% lower than publicly available speech recognition application programming interfaces (APIs) with the loudspeaker and human speakers testing databases, respectively, with a limited amount of training data. This thesis demonstrates that even state-of-the-art DNN-HMM based speech recognizers can benefit by combining systems for which the acoustic models have been trained using different feature sets. In this context, the complementarity of DNN-HMM based ASR systems trained with the same data set but with different signal representations is discussed. DNN fusion methods based on flat-weight combination, the minimization of mutual information and the maximization of discrimination metrics were proposed and tested. Schemes that consider the combination of ASR systems with lattice combination and minimum Bayes risk decoding were also evaluated and combined with DNN fusion techniques. The experimental results were obtained using a publicly-available naturally-recorded highly reverberant speech data. Significant improvements in WER were observed by combining DNN-HMM based ASR systems with different feature sets, obtaining relative improvements of 10% with two classifiers and 18% with four classifiers, without any tuning or a priori information of the ASR accuracy.
89

Convolutional recurrent neural networks for remaining useful life prediction in mechanical systems

Oyharcabal Astorga, Nicolás January 2018 (has links)
Memoria para optar al título de Ingeniero Civil Mecánico / La determinación de la vida útil remanente (RUL del inglés "Remaining Useful Life") de una máquina, equipo, dispositivo o elemento mecánico, es algo en lo que se ha estado trabajando en los últimos años y que es crucial para el futuro de cualquier industria que así lo requiera. El continuo monitoreo de máquinas junto a una buena predicción de la RUL permite la minimización de costos de mantención y menor exposición a fallas. Sin embargo, los datos obtenidos del monitoreo son variados, tienen ruido, poseen un carácter secuencial y no siempre guardan estricta relación con la RUL, por lo que su estimación es un problema difícil. Es por ello que en la actualidad se utilizan distintas clases de Redes Neuronales y en particular, cuando se quiere modelar problemas de carácter secuencial, se utilizan las Redes Neuronales Recurrentes o RNN (del inglés "Recurrent Neural Network") como LSTM (del inglés "Long Short Term Memory") o JANET (del inglés "Just Another NETwork"), por su capacidad para identificar de forma autónoma patrones en secuencias temporales, pero también junto a estas últimas redes, también se utilizan alternativas que incorporan la Convolución como operación para cada célula de las RNN y que se conocen como ConvRNN (del inglés "Convolutional Recurrent Neural Network"). Estas últimas redes son mejores que sus pares convolucional y recurrentes en ciertos casos que requieren procesar secuencias de imágenes, y en el caso particular de este trabajo, series de tiempo de datos de monitoreo que son suavizados por la Convolución y procesados por la Recurrencia. El objetivo general de este trabajo es determinar la mejor opción de ConvRNN para la determinación de la RUL de un turbofan a partir de series de tiempo de la base de datos C-MAPSS. También se estudia cómo editar la base de datos para mejorar la precisión de una ConvRNN y la aplicación de la Convolución como una operación primaria en una serie de tiempo cuyos parámetros muestran el comportamiento de un turbofan. Para ello se programa una LSTM Convolucional, LSTM Convolucional Codificador-Decodificador, JANET Convolucional y JANET Convolucional Codificador-Decodificador. A partir de esto se encuentra que el modelo JANET Convolucional Codificador-Decodificador da los mejores resultados en cuanto a exactitud promedio y cantidad de parámetros necesarios (entre menos mejor pues se necesita menos memoria) para la red, siendo además capaz de asimilar la totalidad de las bases de datos C-MAPSS. Por otro lado, también se encuentra que la RUL de la base de datos puede ser modificada para datos antes de la falla. Para la programación y puesta en marcha de las diferentes redes, se utilizan los computadores del laboratorio de Integración de Confiabilidad y Mantenimiento Inteligente (ICMI) del Departamento de Ingeniería Mecánica de la Universidad de Chile.
90

Búsqueda por texto de imágenes sin etiquetar

Díaz Renjifo, Bastián Luciano January 2019 (has links)
Memoria para optar al título de Ingeniero Civil Eléctrico / En la era de internet es el contenido multimedia el que concentra la mayoría del tráfico y se espera que para el 2020 este tipo de datos tenga un tráfico de más de 100,000 petabytes al mes. Esto junto con el creciente uso de redes sociales ha provocado que buscar imágenes sea una práctica habitual. Esta situación está resuelta para imágenes que tienen texto asociado como las que se encuentran en Google. ¿Pero qué pasa si se necesita buscar en una base de datos de imágenes que no tienen texto asociado? Por ejemplo, las imágenes subidas a una red social, o las carpetas del computador que tienen las imágenes de las vacaciones. Esta es la principal pregunta que motiva este trabajo, el cual está basado principalmente en las investigaciones de Snoek, Dong y Li quienes aplican la técnica word2visualvec, donde la idea principal es entrenar una red neuronal para que aprenda a transformar el espacio de los descriptores de texto al espacio de los descriptores de imágenes, conservando la relación semántica entre el texto y las imágenes. Para el entrenamiento de la red neuronal se usó el dataset MSCOCO, el cual consiste en más de 80,000 imágenes para entrenar y validar el modelo y más de 40,000 para ser usadas como conjunto de prueba. Además de las fotos, este dataset contiene 5 descripciones de texto para cada una de ellas. Así en total se tienen más de 400.000 ejemplos de texto-imagen para entrenar la red neuronal. Los experimentos se dividieron en 3 partes que se diferencian en el tipo de descriptor de texto y descriptor de imagen usados. Para el texto se usaron los descriptores TF-IDF, R-TF-IDF y word2vec y para las imágenes se usaron los descriptores VLAD y Deep Features (basado en la VGG16). En total se entrenaron 21 modelos, 18 de ellos fueron entrenados en inglés y 3 en español. La evaluación de los modelos consideró el tiempo de entrenamiento, el costo en el conjunto de validación y el Average Precision de los resultados retornados. Los resultados obtenidos son prometedores y permiten sacar conclusiones muy importan- tes. Dentro de ellas es que el impacto de los descriptores de texto se refleja mayormente en el tiempo de entrenamiento, donde el descriptor word2vec es el más rápido de entrenar. Mientras que los descriptores de imágenes impactan significativamente en la relevancia de los resultados, siendo Deep Features basados en la red pre-entrenada VGG16 el que tuvo los mejores resultados, alcanzando una efectividad de 20 % en coincidencias exactas y 68 % en coincidencias parciales.

Page generated in 0.0695 seconds