• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 264
  • 136
  • 95
  • 12
  • 11
  • 9
  • 3
  • 2
  • Tagged with
  • 529
  • 309
  • 183
  • 143
  • 116
  • 83
  • 83
  • 83
  • 83
  • 80
  • 65
  • 64
  • 58
  • 56
  • 52
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Predicción a corto plazo de la demanda de agua urbana en áreas densamente pobladas

Espinoza Rodríguez, César Alejandro 05 July 2010 (has links)
Ante un escenario donde el recurso agua es limitado y con una sociedad que la demanda cada vez con más garantías, la ingeniería es exigida a desarrollar técnicas y metodologías eficientes para asegurar que el vital líquido sea entregado en óptimas condiciones de calidad y cantidad a los usuarios domésticos, comerciales e industriales que conforman el conjunto de abonados de una ciudad. Cada tipo de usuario demanda el agua en diferentes escalas temporales y de cantidad, pero el conjunto de ellos consumiendo agua a la vez generan la demanda global de una ciudad. Los operadores de los sistemas de abastecimiento y distribución de agua potable están obligados a gestionar sus operaciones de tal manera que el conjunto de abonados cuente con el servicio en el momento que lo demanden. La experiencia que acumula el personal de operación se vuelve fundamental para que este objetivo se cumpla ya que son capaces de predecir con gran precisión las demandas futuras. En la búsqueda de predicciones con un fundamento matemático y estadístico sólido, hemos desarrollado este trabajo en el cual se han revisado las metodologías más destacadas que se han utilizado a lo largo de las últimas décadas par modelar y predecir la demanda de agua urbana en áreas densamente pobladas, encontrando que los modelos estocásticos del tipo ARIMA son la base de las principales metodologías. Sin embargo, encontramos también que los modelos existentes están desarrollados y pensados para ciudades en la cuales la demanda presenta un patrón con poca variabilidad derivada de patrones sociológicos y donde las componentes climáticas son poco relevantes. Esta variabilidad es generada por eventos puntuales que perturban el proceso de demanda y que cuando ocurren alteran los patrones repetitivos esperados. El presente trabajo de tesis tiene como principal objetivo proponer, analizar y comparar el desempeño con otras técnicas, de un modelo estocástico para la estimación a corto plazo de la demanda global de agua potable en sistemas de abastecimiento y distribución. / Espinoza Rodríguez, CA. (2010). Predicción a corto plazo de la demanda de agua urbana en áreas densamente pobladas [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/8421
212

Implementación de algoritmos de redes neuronales artificiales de tipo Fuzzy Artmap y Multilayer Feed Fordward con dispositivos electrónicos programables en sistemas de lenguas electrónicas para la clasificación de muestras y determinación de parámetros fisicoquímicos

Garrigues Baixauli, José 27 June 2013 (has links)
En los últimos años las lenguas electrónicas se han convertido en una excelente alternativa a los métodos tradicionales de análisis para el control de los procesos y productos, entre otros, en el ámbito agroalimentario. Se trata de sistemas que, mediante técnicas electroquímicas, como la potenciometría o la voltametría combinadas con herramientas de análisis multivariante, son capaces de clasificar muestras y cuantificar sus parámetros fisicoquímicos. Su funcionamiento se basa en la utilización de sensores de sensibilidad cruzada, lo que permite medir muestras en las que existan interferencias entre los distintos compuestos que la integran. En la actualidad la mayoría de los métodos empleados para la determinación de las propiedades fisicoquímicas son destructivos. El diseño de sistemas de medida no destructivos es un reto. Pero además de preservar la integridad de las muestras analizadas, las nuevas técnicas analíticas deben tener un bajo coste y un funcionamiento sencillo, no dependiente de mano de obra cualificada. Para el análisis de los datos se suele utilizar técnicas de reconocimiento de patrones no supervisadas, como es el Análisis de Componentes Principales (PCA). Pero en muchas ocasiones, es conveniente realizar análisis supervi-sado, donde, las categorías de las muestras están predefinidas y la finalidad es comprobar si es posible conseguir un sistema que sea capaz de clasificar adecuadamente muestras nuevas que entra en el sistema de medida. Uno de los métodos más utilizados para realizar una clasificación de la muestras con técnicas supervisadas son las redes neuronales artificiales (RNA). Existen diversos tipos de redes neuronales, una de las más conocidas y utilizadas es la denominada Perceptrón multicapa. El entrenamiento de esta red consiste en fijar los pesos de cada una de las neuronas. Este tipo de red neuronal, ha comprobado su utilidad en múltiples aplicaciones con lenguas electrónicas, pero también ha demostrado sus limitaciones, que vienen d / Garrigues Baixauli, J. (2013). Implementación de algoritmos de redes neuronales artificiales de tipo Fuzzy Artmap y Multilayer Feed Fordward con dispositivos electrónicos programables en sistemas de lenguas electrónicas para la clasificación de muestras y determinación de parámetros fisicoquímicos [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/30219
213

Think outside the Black Box: Model-Agnostic Deep Learning with Domain Knowledge / Think outside the Black Box: Modellagnostisches Deep Learning mit Domänenwissen

Kobs, Konstantin January 2024 (has links) (PDF)
Deep Learning (DL) models are trained on a downstream task by feeding (potentially preprocessed) input data through a trainable Neural Network (NN) and updating its parameters to minimize the loss function between the predicted and the desired output. While this general framework has mainly remained unchanged over the years, the architectures of the trainable models have greatly evolved. Even though it is undoubtedly important to choose the right architecture, we argue that it is also beneficial to develop methods that address other components of the training process. We hypothesize that utilizing domain knowledge can be helpful to improve DL models in terms of performance and/or efficiency. Such model-agnostic methods can be applied to any existing or future architecture. Furthermore, the black box nature of DL models motivates the development of techniques to understand their inner workings. Considering the rapid advancement of DL architectures, it is again crucial to develop model-agnostic methods. In this thesis, we explore six principles that incorporate domain knowledge to understand or improve models. They are applied either on the input or output side of the trainable model. Each principle is applied to at least two DL tasks, leading to task-specific implementations. To understand DL models, we propose to use Generated Input Data coming from a controllable generation process requiring knowledge about the data properties. This way, we can understand the model’s behavior by analyzing how it changes when one specific high-level input feature changes in the generated data. On the output side, Gradient-Based Attribution methods create a gradient at the end of the NN and then propagate it back to the input, indicating which low-level input features have a large influence on the model’s prediction. The resulting input features can be interpreted by humans using domain knowledge. To improve the trainable model in terms of downstream performance, data and compute efficiency, or robustness to unwanted features, we explore principles that each address one of the training components besides the trainable model. Input Masking and Augmentation directly modifies the training input data, integrating knowledge about the data and its impact on the model’s output. We also explore the use of Feature Extraction using Pretrained Multimodal Models which can be seen as a beneficial preprocessing step to extract useful features. When no training data is available for the downstream task, using such features and domain knowledge expressed in other modalities can result in a Zero-Shot Learning (ZSL) setting, completely eliminating the trainable model. The Weak Label Generation principle produces new desired outputs using knowledge about the labels, giving either a good pretraining or even exclusive training dataset to solve the downstream task. Finally, improving and choosing the right Loss Function is another principle we explore in this thesis. Here, we enrich existing loss functions with knowledge about label interactions or utilize and combine multiple task-specific loss functions in a multitask setting. We apply the principles to classification, regression, and representation tasks as well as to image and text modalities. We propose, apply, and evaluate existing and novel methods to understand and improve the model. Overall, this thesis introduces and evaluates methods that complement the development and choice of DL model architectures. / Deep-Learning-Modelle (DL-Modelle) werden trainiert, indem potenziell vorverarbeitete Eingangsdaten durch ein trainierbares Neuronales Netz (NN) geleitet und dessen Parameter aktualisiert werden, um die Verlustfunktion zwischen der Vorhersage und der gewünschten Ausgabe zu minimieren. Während sich dieser allgemeine Ablauf kaum geändert hat, haben sich die verwendeten NN-Architekturen erheblich weiterentwickelt. Auch wenn die Wahl der Architektur für die Aufgabe zweifellos wichtig ist, schlagen wir in dieser Arbeit vor, Methoden für andere Komponenten des Trainingsprozesses zu entwickeln. Wir vermuten, dass die Verwendung von Domänenwissen hilfreich bei der Verbesserung von DL-Modellen bezüglich ihrer Leistung und/oder Effizienz sein kann. Solche modellagnostischen Methoden sind dann bei jeder bestehenden oder zukünftigen NN-Architektur anwendbar. Die Black-Box-Natur von DL-Modellen motiviert zudem die Entwicklung von Methoden, die zum Verständnis der Funktionsweise dieser Modelle beitragen. Angesichts der schnellen Architektur-Entwicklung ist es wichtig, modellagnostische Methoden zu entwickeln. In dieser Arbeit untersuchen wir sechs Prinzipien, die Domänenwissen verwenden, um Modelle zu verstehen oder zu verbessern. Sie werden auf Trainingskomponenten im Eingang oder Ausgang des Modells angewendet. Jedes Prinzip wird dann auf mindestens zwei DL-Aufgaben angewandt, was zu aufgabenspezifischen Implementierungen führt. Um DL-Modelle zu verstehen, verwenden wir kontrolliert generierte Eingangsdaten, was Wissen über die Dateneigenschaften benötigt. So können wir das Verhalten des Modells verstehen, indem wir die Ausgabeänderung bei der Änderung von abstrahierten Eingabefeatures beobachten. Wir untersuchen zudem gradienten-basierte Attribution-Methoden, die am Ausgang des NN einen Gradienten anlegen und zur Eingabe zurückführen. Eingabefeatures mit großem Einfluss auf die Modellvorhersage können so identifiziert und von Menschen mit Domänenwissen interpretiert werden. Um Modelle zu verbessern (in Bezug auf die Ergebnisgüte, Daten- und Recheneffizienz oder Robustheit gegenüber ungewollten Eingaben), untersuchen wir Prinzipien, die jeweils eine Trainingskomponente neben dem trainierbaren Modell betreffen. Das Maskieren und Augmentieren von Eingangsdaten modifiziert direkt die Trainingsdaten und integriert dabei Wissen über ihren Einfluss auf die Modellausgabe. Die Verwendung von vortrainierten multimodalen Modellen zur Featureextraktion kann als ein Vorverarbeitungsschritt angesehen werden. Bei fehlenden Trainingsdaten können die Features und Domänenwissen in anderen Modalitäten als Zero-Shot Setting das trainierbare Modell gänzlich eliminieren. Das Weak-Label-Generierungs-Prinzip erzeugt neue gewünschte Ausgaben anhand von Wissen über die Labels, was zu einem Pretrainings- oder exklusiven Trainigsdatensatz führt. Schließlich ist die Verbesserung und Auswahl der Verlustfunktion ein weiteres untersuchtes Prinzip. Hier reichern wir bestehende Verlustfunktionen mit Wissen über Label-Interaktionen an oder kombinieren mehrere aufgabenspezifische Verlustfunktionen als Multi-Task-Ansatz. Wir wenden die Prinzipien auf Klassifikations-, Regressions- und Repräsentationsaufgaben sowie Bild- und Textmodalitäten an. Wir stellen bestehende und neue Methoden vor, wenden sie an und evaluieren sie für das Verstehen und Verbessern von DL-Modellen, was die Entwicklung und Auswahl von DL-Modellarchitekturen ergänzt.
214

Clonage, surexpression, purification et caractérisation de la liaison membranaire de la neurocalcine delta

Belley, Nicolas 17 April 2018 (has links)
La neurocalcine delta (NCd) fait partie d'une petite famille de protéines appelées ± neuroprotéines sensibles au calcium ¿. Dans la rétine, la NCd est exprimée dans les cellules ganglionnaires et amacrines. La NCd est composée de 4 motifs EF-hand dont 3 ont la capacité de lier le calcium. La liaison du calcium par la NCd mène à un changement de conformation et à l'extrusion du groupement myristoyle ainsi que certains acides aminés hydrophobes. Ce mécanisme, appelé calcium myristoyl switch, semble impliqué dans sa liaison membranaire. Le mécanisme de liaison membranaire de la NCd est seulement partiellement élucidé. Cette étude a donc pour objectif de déterminer les paramètres responsables de la liaison membranaire de la NCd. Pour ce faire, nous avons utilisé le modèle membranaire des monocouches. Ce système modèle pour les membranes a permis de déterminer la pression maximale d'insertion de la NCd lorsqu'elle est injectée dans la sous-phase de monocouches de différents phospholipides.
215

Modeling Uncertainty for Reliable Probabilistic Modeling in Deep Learning and Beyond

Maroñas Molano, Juan 28 February 2022 (has links)
[ES] Esta tesis se enmarca en la intersección entre las técnicas modernas de Machine Learning, como las Redes Neuronales Profundas, y el modelado probabilístico confiable. En muchas aplicaciones, no solo nos importa la predicción hecha por un modelo (por ejemplo esta imagen de pulmón presenta cáncer) sino también la confianza que tiene el modelo para hacer esta predicción (por ejemplo esta imagen de pulmón presenta cáncer con 67% probabilidad). En tales aplicaciones, el modelo ayuda al tomador de decisiones (en este caso un médico) a tomar la decisión final. Como consecuencia, es necesario que las probabilidades proporcionadas por un modelo reflejen las proporciones reales presentes en el conjunto al que se ha asignado dichas probabilidades; de lo contrario, el modelo es inútil en la práctica. Cuando esto sucede, decimos que un modelo está perfectamente calibrado. En esta tesis se exploran tres vias para proveer modelos más calibrados. Primero se muestra como calibrar modelos de manera implicita, que son descalibrados por técnicas de aumentación de datos. Se introduce una función de coste que resuelve esta descalibración tomando como partida las ideas derivadas de la toma de decisiones con la regla de Bayes. Segundo, se muestra como calibrar modelos utilizando una etapa de post calibración implementada con una red neuronal Bayesiana. Finalmente, y en base a las limitaciones estudiadas en la red neuronal Bayesiana, que hipotetizamos que se basan en un prior mispecificado, se introduce un nuevo proceso estocástico que sirve como distribución a priori en un problema de inferencia Bayesiana. / [CA] Aquesta tesi s'emmarca en la intersecció entre les tècniques modernes de Machine Learning, com ara les Xarxes Neuronals Profundes, i el modelatge probabilístic fiable. En moltes aplicacions, no només ens importa la predicció feta per un model (per ejemplem aquesta imatge de pulmó presenta càncer) sinó també la confiança que té el model per fer aquesta predicció (per exemple aquesta imatge de pulmó presenta càncer amb 67% probabilitat). En aquestes aplicacions, el model ajuda el prenedor de decisions (en aquest cas un metge) a prendre la decisió final. Com a conseqüència, cal que les probabilitats proporcionades per un model reflecteixin les proporcions reals presents en el conjunt a què s'han assignat aquestes probabilitats; altrament, el model és inútil a la pràctica. Quan això passa, diem que un model està perfectament calibrat. En aquesta tesi s'exploren tres vies per proveir models més calibrats. Primer es mostra com calibrar models de manera implícita, que són descalibrats per tècniques d'augmentació de dades. S'introdueix una funció de cost que resol aquesta descalibració prenent com a partida les idees derivades de la presa de decisions amb la regla de Bayes. Segon, es mostra com calibrar models utilitzant una etapa de post calibratge implementada amb una xarxa neuronal Bayesiana. Finalment, i segons les limitacions estudiades a la xarxa neuronal Bayesiana, que es basen en un prior mispecificat, s'introdueix un nou procés estocàstic que serveix com a distribució a priori en un problema d'inferència Bayesiana. / [EN] This thesis is framed at the intersection between modern Machine Learning techniques, such as Deep Neural Networks, and reliable probabilistic modeling. In many machine learning applications, we do not only care about the prediction made by a model (e.g. this lung image presents cancer) but also in how confident is the model in making this prediction (e.g. this lung image presents cancer with 67% probability). In such applications, the model assists the decision-maker (in this case a doctor) towards making the final decision. As a consequence, one needs that the probabilities provided by a model reflects the true underlying set of outcomes, otherwise the model is useless in practice. When this happens, we say that a model is perfectly calibrated. In this thesis three ways are explored to provide more calibrated models. First, it is shown how to calibrate models implicitly, which are decalibrated by data augmentation techniques. A cost function is introduced that solves this decalibration taking as a starting point the ideas derived from decision making with Bayes' rule. Second, it shows how to calibrate models using a post-calibration stage implemented with a Bayesian neural network. Finally, and based on the limitations studied in the Bayesian neural network, which we hypothesize that came from a mispecified prior, a new stochastic process is introduced that serves as a priori distribution in a Bayesian inference problem. / Maroñas Molano, J. (2022). Modeling Uncertainty for Reliable Probabilistic Modeling in Deep Learning and Beyond [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/181582
216

Diseño de un Nuevo Sistema de Vigilancia de Dominio de Internet

Zumaeta Morales, Rodrigo Andrés January 2007 (has links)
No description available.
217

Proveniencia Sedimentaria y Ambiente Deposicional de Unidades Atribuídas a los Complejos Duque de York y Denaro, Patagonia XII Región, Chile

Quezada Jara, Andrés Alberto January 2010 (has links)
Se caracterizó petrográfica y geoquímicamente las muestras de rocas asignadas al Complejo Duque de York (CDY) y Complejo Denaro (CD). La asignación ha sido hecha en base a características texturales, litológicas, relaciones de contacto y deformación de las rocas que allí se presentan; pero no se habían hecho estudios petrográficos y geoquímicos para confirmar tales asignaciones. El CDY y el CD forman parte de los Complejos Acrecionarios Costeros. El CDY es una sucesión metasedimentaria que aflora en el margen occidental de la Patagonia con una extensión latitudinal de más de 400 km desde isla Mornington hasta isla Desolación. Está constituído por sucesiones turbidíticas con la presencia de lentes tectónicos de chert. El CD está formado por una sucesión que de base a techo incluye basaltos, 3 niveles de chert y calcarenitas. Asimismo en la Península Antártica afloran rocas consistentes en metaturbiditas similares a las del CDY en el bajo grado metamórfico y en edad de depósito, ubicándose en el rango entre el Pérmico Temprano y el Jurásico Temprano. Las muestras analizadas incluyen areniscas, argilitas y chert que cubren latitudinalmente casi toda el área de la Patagonia donde afloran el CDY y CD. Para las dos primeras litologías se determinó fuente y régimen tectónico de la cuenca de depósito y para el tercero su ambiente deposicional. En total se realizaron análisis químicos a 36 muestras de los 3 tipos litológicos nombrados. Las características petrográficas de las areniscas y argilitas estudiadas aquí se asocian a una proveniencia que es congruente con sedimentos generados a partir de la erosión de raíces plutónicas de un arco magmático ubicado en un margen continental. En cuanto a la geoquímica de estas rocas estas evidenciarían una fuente ígnea común, de composición intermedia a ácida y depósito en una cuenca en un margen continental activo. Se pudo establecer que hay muestras de chert de los tres tipos de ambientes distinguibles es decir ridge, pelágico y margen continental. Esto es evidencia de la presencia de un margen continental activo a lo largo de toda la Patagonia entre las latitudes donde aflora el CDY. Se compararon los resultados de este trabajo con los de estudios anteriores en rocas del CDY en la Patagonia y del Grupo Península Trinidad de la Península Antártica confirmándose las similitudes reportadas en trabajos anteriores.
218

Desarrollo de un Método de Clasificación de Edad para Imágenes Faciales Basado en Análisis Antropométrico y de Texturas

Saravia Estrada, Jacob Alejandro January 2011 (has links)
Ingeniero Civil Eléctrico / Un sistema que ayude a determinar la edad de las personas se transforma en una gran ayuda para facilitar una serie de tareas, como estudios de mercadeo, selección de contenidos aptos para ciertos grupos etarios, entre otros sistemas basados en interacciones humanas. El presente trabajo expone el desarrollo de un algoritmo que sea capaz de estimar edad y clasificar en rangos etarios utilizando rostros frontales, realizando para ello un análisis antropométrico de proporciones faciales en conjunto con un análisis de textura de la piel en determinadas zonas claves del rostro. Para ello es que se calculan ciertas proporciones del rostro y, por otro lado, se determina el nivel de arrugas, mediante la obtención de la intensidad, cantidad y distribución espacial de dichos surcos en la piel. Con tales datos se efectúa un procedimiento de clasificación, contrastando un par de algoritmos de aprendizaje computacional conocidos como redes neuronales artificiales y máquinas de soporte vectorial. Para ajustar los parámetros del algoritmo anteriormente descrito, se aplica una optimización por enjambre de partículas. Con todo esto en mente, el clasificador con mejor desempeño es el que en función de la cantidad de grupos previamente definidos (e.g. niño, joven o adulto) entregue la mayor tasa de aciertos, o el que mediante una aproximación de la edad real (en cantidad de años) presente un menor error. Para dichas tareas se obtuvo una clasificación con una tasa de aciertos de un 98% en promedio para 2 clases, y 6 años de error en promedio para la estimación de la edad real del sujeto.
219

Predicción de la demanda de potencia eléctrica de Metro S.A. en tiempo real, mediante la aplicacion de redes neuronales

Reyes Molina, Cristián Daniel January 2012 (has links)
Ingeniero Civil Eléctrico / El objetivo general del presente trabajo de título es diseñar e implementar un modelo matemático que permita realizar predicciones de la demanda de potencia eléctrica de Metro S.A. en tiempo real. El software obtenido permitirá predecir la demanda de potencia eléctrica en un instante de tiempo a futuro, y con esta información se podrá efectuar un control de demanda más eficiente del que se lleva a cabo hoy en día en Metro S.A. Metro de Santiago posee 5 líneas en operación hoy en día, las cuales transportan una cantidad considerable de pasajeros a lo largo del día. En horario punta en la tarde, entre las 18:00 y las 20:00 hrs se efectúa el control de demanda de potencia eléctrica, mediante observación del registrador de consumo con acciones manuales para controlarla. En este escenario, se ha desarrollado un software aplicado en Matlab, que entrena un conjunto de redes neuronales con la información de demanda de potencia eléctrica de Metro a lo largo de 1 año, información entregada por el sistema SCADA de Metro, y luego de la validación de cada red permite realizar predicciones de la demanda de potencia eléctrica con una certeza adecuada para los fines de control buscados. Los resultados obtenidos mediante el entrenamiento de las redes neuronales permiten concluir que las predicciones dependen directamente del tamaño del intervalo de tiempo que se quiere predecir. También se tuvo una dependencia de las predicciones respecto del sistema que se estudiaba. Así, mientras mayor fue la disgregación de las variables del sistema dinámico a estudiar, mejores fueron las predicciones de las redes. De esta forma, se separó el sistema dinámico de Metro S.A. en dos subsistemas, el SEAT (Subestación de alta tensión, L1, L2, L5) y el CDC-Vicente Valdés (Centro de Distribución de Carga, L4, L4A), debido a que poseen alimentación eléctrica y consumos distintos. Para cada sistema se entrenaron 24 redes neuronales, que predicen 5 minutos a futuro, para los 24 instantes de tiempo existentes cada 5 minutos entre las 18:05 y las 20:00 hrs. Como producto del estudio se entrega un software que utiliza las 48 redes neuronales entrenadas con la dinámica eléctrica de Metro S.A. y mediante la supervisión de las variables eléctricas que realiza el sistema SCADA de Metro permite realizar predicciones acertadas dentro del rango de horario de hora punta para cualquier día de semana del año actual. Se concluye que con la ayuda del software existirá la posibilidad de realizar un control de demanda de potencia eléctrica de Metro más eficiente, el cual permita automatizar el control de demanda en tiempo real de la variable potencia eléctrica de Metro S.A.
220

Optimización de las horas operativas de los Caex en los procesos de descarga en chancado y abastecimieno de combustible, mediante la utilización de modelamientos compuestos y redes neuronales

González Gazmuri, Roberto Ignacio January 2016 (has links)
Ingeniero Civil de Minas / En el último tiempo, el precio del cobre se ha estado transando con una tendencia sostenida a la baja, lo que ha conllevado implementar un conjunto de medidas a nivel nacional e internacional, para lograr una reducción de costos e incrementos en la productividad de los procesos. Actualmente, los sistemas de asignación dinámica como Jigsaw o Modular no se encargan del reabastecimiento de combustible, el cual es llevado a cabo de manera manual, y este es realizado cuando el equipo notifica que está cercano a la reserva. Por otra parte, estos softwares una vez asignado a descarga el material, no analiza las características de la carga que se transporta en cada camión, por lo que este proceso consiste en que el primero en llegar es el que realiza la actividad. Este trabajo se centró en recuperar tiempos perdidos de los camiones de extracción en las operaciones a cielo abierto de la gran minería, para mejorar el proceso productivo. Esto se logra mediante la implementación de modelos de redes neuronales, usados para la predicción de información, y modelos de optimización, los cuales usarán lo predicho para mejorar el transporte, en los procesos de chancado y abastecimiento de combustible. Para el caso de estudio se tomó una base de datos de 6 meses, contados a partir de febrero del 2015, de una faena donde el movimiento de material es de aproximadamente 450 KTPD y cuenta con una flota efectiva de 54 CAEX. En cuanto al proceso de optimización de chancado, se logró que mediante una red neuronal se predijera el tiempo de proceso de cada carga y luego, se reorganizara el sistema de descarga teniendo en consideración este nuevo parámetro. Considerando un circuito de 5 km de distancia y con una flota 11 CAEX, se consiguió incrementar la utilización de los equipos de transporte en un 1,9% y el tonelaje procesado en un 2,4% en promedio, con una desviación estándar de 0,4% y 0,6% respectivamente, para 10.000 simulaciones, esto implica un ingreso adicional de 16,8 MUS$/año por cada chancador en faena de características similares. En el caso de que se aumentará el largo del circuito, se deberá incrementar el número de camiones, para conseguir los mismos resultados. Para el proceso de abastecimiento de combustible, la red neuronal predice el consumo del equipo, para posteriormente con un modelo de asignación dinámica, crear un proceso autónomo de envió a las diferentes estaciones. En un escenario de 60 CAEX en circulación y con dos petroleras, se generó una reducción de un 65% aproximadamente en la espera de cada camión para reabastecer. Adicionalmente, disminuye el número de recargas necesarias en periodos mayores a una semana, gracias a rellenar más litros por visita. Lo anterior, significó un incremento de un 3,2% en la utilización de los camiones de extracción. Para asegurar la fidelidad de los resultados presentados anteriormente, se realizó un test de confianza al 95%, para descartar que los beneficios fueron aleatorios. De este se concluyó que los valores señalados son estadísticamente significativos. Por último, con estos desarrollos una faena puede recuperar de manera rápida, gracias a algoritmos de predicción y optimización, y a un bajo costo de implementación y operación, tiempos perdidos en sus activos, con lo que se generará mayores ingresos para el negocio. / The copper mining industry is currently experiencing a low-price crisis, which has led to a series of measures at national and international level, to reduce costs and improve productivity in operational processes. Currently, dynamic allocation systems as Jigsaw or Modular is not responsible for the refueling, which is carried out manually and is performed when the operator notifies that his equipment is close to the reserve. Moreover, this software once assigned the discharge point, does not analyze the type of material carried in each haul truck, so this process is the first to arrive is the one who performs the activity. This work focused on recovering some of the wasted time of haul trucks in large open pit operation to improve the production process. This is achieved by implementing neural network models used for forecasting information, and optimization models, which will use this predicted data to improve transport in the processes of crushing and refueling. For the case study it was used a database of 6 months, from February 2015. The mine company has a production of approximately 450 KTPD material and an effective fleet of 54 CAEX. As for the crushing optimization process, this was succeeded using a neural network that predicted the processing time of each charge. Then, with this information the discharge order was reorganized in crushing in view of this new parameter. Now, considering a 5 km circuit and a fleet of 11 trucks, there was an increase of the utilization of the equipment’s on that circuit by 1.9% and 2.4% of extra throughput tonnage, with a standard deviation of 0.4% and 0.6%. This implies an additional income of 16.8 MUS $ / year for each crusher in the mine. In the case the circuit length increase, the same needs to happen with the truck fleet to achieve the same results. For the refueling process, the neural network predicts the fuel consumption of the equipment. Later a dynamic allocation model, create an autonomous sending process to different fuel stations. If it is consider a case with 60 haul trucks in circulation and two available stations. This results in a reduction of approximately 65% of the waiting of each truck to restock. Further on, it was also decreases the number of loads, thanks to fill more liters per visit. Finally, this means an increase of 3.2% in the utilization of haulage equipment. To ensure that the results presented above, has a 95% of confidence, it was performed a test to determinate that the benefits were not randomized. This test concluded that the indicated values are statistically significant. With these improvements, a mine company can recover quickly, thanks to predictive and optimization algorithm, and for a low cost strategy, wasted time in their assets and improve revenues for the business.

Page generated in 0.0828 seconds