• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 1
  • Tagged with
  • 14
  • 14
  • 7
  • 4
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modelamiento, estimación y generación de árboles de escenarios para precios del cobre

Martínez Fernández, Yerko Andre January 2014 (has links)
Magíster en Minería / Ingeniero Civil de Minas / El presente trabajo corresponde al desarrollo de una herramienta que permite simular valores de una variable regionalizada considerando que tales valores tienen una variación sistemática en el espacio. En este contexto, se desarrolla una nueva herramienta de simulación consistente en un algoritmo de simulación Gaussiana secuencial con rechazo considerando una deriva de referencia como input, bajo la hipótesis que esta herramienta permite respetar tal deriva, obteniendo resultados representativos de la base de datos en cuanto a sus estadísticos de orden 1 (histograma) y orden 2 (variograma). La metodología del algoritmo comienza definiendo la secuencia de visitas de nodos a simular de manera aleatoria. Se acepta o rechaza el nodo simulado en base a la deriva de referencia considerando un rechazo determinístico o probabilístico y una tolerancia dinámica. Para cada nodo se considera una vecindad de búsqueda de datos condicionantes para la simulación y una vecindad de búsqueda de datos para el cálculo de una media local simulada. El algoritmo permite ajustar el número aceptable de rechazos, el tamaño de la vecindad de búsqueda de la media local, la tolerancia y el tipo de rechazo. Se presentan dos casos de estudio. El primero consiste en un ejemplo sintético de una coordenada con deriva lineal. En este primer caso se tiene que, a mayor tolerancia o mayor vecindad de búsqueda de la media local, los valores simulados se distribuyen con mayor dispersión en torno a la deriva de referencia. El segundo estudio de caso consiste en una zona de interés del yacimiento Compañía Minera Cerro Colorado donde se realiza el proceso de simulación en seis unidades de estimación considerando diecisiete sensibilizaciones de los parámetros del algoritmo más una simulación basada en Kriging Simple (SK) y otra basada en Kriging de residuos (BT). En el caso de presencia de deriva se obtiene en general mejores resultados con el algoritmo propuesto que con el SK o BT cuando la deriva se ve reflejada de manera clara en el variograma como en la unidad de estimación cuatro. Las estadísticas de validación en términos de desempeño de las simulaciones como estimación (coeficiente de determinación R2, pendiente de la regresión de datos reales versus simulados y error medio) y en términos de cuantificación de la incertidumbre de los datos originales (accuracy plot) mejoran en relación al SK y BT. De esta manera, la herramienta desarrollada ofrece una alternativa flexible que mejora los estadísticos de validación en comparación al enfoque tradicional frente a un escenario de simulación con presencia de deriva clara en el variograma.
2

Un estudio algorítmico del problema de corte y empaquetado 2d

Delgadillo Avila, Rosa Sumactika January 2007 (has links)
El problema de corte y empaquetado en dos dimensiones, es un problema NP- difícil perteneciente a la familia de problemas de la optimización combinatoria. El problema combinatorio estriba en la gran cantidad de patrones de corte que puede construirse a partir de un número determinado de requerimientos y un conjunto de objetos los cuales deben ser cortados para satisfacer estos. Este problema es muy importante debido a la gran cantidad de aplicaciones que tiene en la industria. En este trabajo presentamos un estudio de los diferentes métodos que resuelven el problema, clasificándolos por métodos exactos, heurísticas y meta heurísticas. También presentamos conceptos, modelos del problema y las relaciones con otros problemas combinatorios. / -- Two dimensional cutting and packing problems is NP-hard, it belong to the family of problems of the optimization combinatory. This problem is based in the great amount of cut patterns that can be constructed from a determined number of requirements and a set of objects which must be cut to satisfy these. This problem is very important because it presents enormous applicability in the industry. In this work we presented a study of the different methods that solve the problem, classifying them by exact methods, heuristic and meta heuristic. Also we presented concepts, models and the relations with other combinatory problems.
3

Un Algoritmo GRASP-Reactivo para resolver el problema de cortes 1D

Larico Mullisaca, Celso Ever January 2010 (has links)
Se tiene un grupo de requerimientos de piezas con una cantidad ilimitada de barras de algún tipo de material de tamaño estándar y éste posee mayor dimensión que el grupo de requerimientos. El problema de cortes 1D describe la utilización de las barras de tamaño estándar realizando cortes sobre ellas, de manera que se satisfaga todos los requerimientos con el menor número de barras de tamaño estándar. El problema es catalogado como NP-Difícil [Garey+79], y es ampliamente aplicado en diversos sectores de la industria tales como la maderera, vidrio, papelera, siderúrgica, etc. La presente tesis propone dos algoritmos GRASP Reactivo para el problema de cortes 1D, basado en los algoritmos GRASP BFD y GRASP FFD propuestos por [Mauricio+02], además, desarrolla un sistema de optimización basado en los algoritmos propuesto. Se realizan experimentos numéricos del algoritmo propuesto sobre 100 instancias de pruebas, de donde se obtiene una eficiencia promedio de 97.04% y una eficiencia ponderada de 97,19% para el GRASP Reactivo BFD con proceso de mejoría, además se observa que el GRASP BFD con proceso de mejoría converge más rápido al encontrar una solución, donde realiza en promedio 1237 iteraciones. Los resultados numéricos muestran una mejora del GRASP Reactivo con respecto al GRASP básico implementado por Ganoza y Solano [Ganoza+02] que obtuvo una eficiencia promedio de 96.73%. Estas mejorías se pueden explicar porque el parámetro de relajación y se ajusta de manera automática y es guiada en la búsqueda de una mejor solución. / It has a set of requirements of parts with an unlimited number of bars of some kind of standard size and material and this has increased the group size requirements. The cutting stock problem 1D describes the use of standard-size bars of making cuts on them, so that it meets all requirements with the least number of standard size bars. The problem is listed as NP-Hard [Garey+79], and is widely used in various industry sectors such as wood, glass, paper, steel, and so on. This thesis proposes two algorithms Reactive GRASP to the cutting stock problem 1D, based on the algorithms GRASP BFD and GRASP FFD proposed by [Mauricio+02], also, developed an optimization system based on the proposed algorithms. Numerical experiments are conducted of the proposed algorithm on 100 instances of testing, where you get an average efficiency of 97.04% and a weighted efficiency of 97,04%, also be seen that the GRASP BFD with improvement converges faster to find a solution average of 1237 iterations. The numerical results show an improvement of reactive GRASP with respect to the basic GRASP implemented by Ganoza and Solano [Ganoza+02], who obtained an average efficiency of 96,73%. These improvements can be explained as the relaxation parameter and is set automatically and is guided in the search for a better solution.
4

Un Algoritmo GRASP-Reactivo para resolver el problema de cortes 1D

Larico Mullisaca, Celso Ever January 2010 (has links)
Se tiene un grupo de requerimientos de piezas con una cantidad ilimitada de barras de algún tipo de material de tamaño estándar y éste posee mayor dimensión que el grupo de requerimientos. El problema de cortes 1D describe la utilización de las barras de tamaño estándar realizando cortes sobre ellas, de manera que se satisfaga todos los requerimientos con el menor número de barras de tamaño estándar. El problema es catalogado como NP-Difícil [Garey+79], y es ampliamente aplicado en diversos sectores de la industria tales como la maderera, vidrio, papelera, siderúrgica, etc. La presente tesis propone dos algoritmos GRASP Reactivo para el problema de cortes 1D, basado en los algoritmos GRASP BFD y GRASP FFD propuestos por [Mauricio+02], además, desarrolla un sistema de optimización basado en los algoritmos propuesto. Se realizan experimentos numéricos del algoritmo propuesto sobre 100 instancias de pruebas, de donde se obtiene una eficiencia promedio de 97.04% y una eficiencia ponderada de 97,19% para el GRASP Reactivo BFD con proceso de mejoría, además se observa que el GRASP BFD con proceso de mejoría converge más rápido al encontrar una solución, donde realiza en promedio 1237 iteraciones. Los resultados numéricos muestran una mejora del GRASP Reactivo con respecto al GRASP básico implementado por Ganoza y Solano [Ganoza+02] que obtuvo una eficiencia promedio de 96.73%. Estas mejorías se pueden explicar porque el parámetro de relajación y se ajusta de manera automática y es guiada en la búsqueda de una mejor solución. Palabras clave: GRASP Reactivo, optimización combinatoria, meta heurísticas, problema de corte y empaquetado. / It has a set of requirements of parts with an unlimited number of bars of some kind of standard size and material and this has increased the group size requirements. The cutting stock problem 1D describes the use of standard-size bars of making cuts on them, so that it meets all requirements with the least number of standard size bars. The problem is listed as NP-Hard [Garey+79], and is widely used in various industry sectors such as wood, glass, paper, steel, and so on. This thesis proposes two algorithms Reactive GRASP to the cutting stock problem 1D, based on the algorithms GRASP BFD and GRASP FFD proposed by [Mauricio+02], also, developed an optimization system based on the proposed algorithms. Numerical experiments are conducted of the proposed algorithm on 100 instances of testing, where you get an average efficiency of 97.04% and a weighted efficiency of 97,04%, also be seen that the GRASP BFD with improvement converges faster to find a solution average of 1237 iterations. The numerical results show an improvement of reactive GRASP with respect to the basic GRASP implemented by Ganoza and Solano [Ganoza+02], who obtained an average efficiency of 96,73%. These improvements can be explained as the relaxation parameter and is set automatically and is guided in the search for a better solution. Keywords: Reactive GRASP, combinatorial optimization, metaheuristics, cutting stock problem.
5

Un estudio algorítmico del problema de corte y empaquetado 2d

Delgadillo Avila, Rosa Sumactika January 2007 (has links)
El problema de corte y empaquetado en dos dimensiones, es un problema NP- difícil perteneciente a la familia de problemas de la optimización combinatoria. El problema combinatorio estriba en la gran cantidad de patrones de corte que puede construirse a partir de un número determinado de requerimientos y un conjunto de objetos los cuales deben ser cortados para satisfacer estos. Este problema es muy importante debido a la gran cantidad de aplicaciones que tiene en la industria. En este trabajo presentamos un estudio de los diferentes métodos que resuelven el problema, clasificándolos por métodos exactos, heurísticas y meta heurísticas. También presentamos conceptos, modelos del problema y las relaciones con otros problemas combinatorios. / Two dimensional cutting and packing problems is NP-hard, it belong to the family of problems of the optimization combinatory. This problem is based in the great amount of cut patterns that can be constructed from a determined number of requirements and a set of objects which must be cut to satisfy these. This problem is very important because it presents enormous applicability in the industry. In this work we presented a study of the different methods that solve the problem, classifying them by exact methods, heuristic and meta heuristic. Also we presented concepts, models and the relations with other combinatory problems.
6

Probabilistic and constraint based modelling to determine relugation events from heterogeneous biological data

Aravena Duarte, Andrés Octavio January 2013 (has links)
Doctor en Ciencias de la Ingeniería, Mención Modelación Matemática / Esta tesis propone un método para construir redes de regulación causales realistas, que tienen una tasa de falsos positivos más baja que las redes construidas con los métodos tradicionales. La primera contribución de esta tesis es integrar información heterogénea a partir de dos tipos de predicciones de red para determinar una explicación causal de las co-expresiones de genes observada. La segunda contribución de esta tesis es modelar esta integración como un problema de optimización combinatorial. Analizamos la complejidad computacional de este enfoque y demostramos que este problema y mostramos que este problema pertenece a la categoría complejidad NP-hard. Este análisis fue aceptado en la 15ª Conferencia Internacional de Verificación, Modelo de Control, e interpretación abstracta VMCAI 2014. Con el fin de tener una solución aproximada en un tiempo de ejecución práctico se propone también un enfoque heurístico. Esta es la tercera contribución de esta tesis. Nuestra evaluación en E.coli muestra que la red resultante de la aplicación de este método tiene una mayor precisión que la red de regulación putativa construida con herramientas tradicionales. Una publicación sobre este tema se somete a PLoS Computational Biology. La bacteria Acidithiobacillus ferrooxidans, que tiene importantes aplicaciones industriales, presenta retos particulares para la determinación experimental de la red de regulación. Usando las herramientas que hemos desarrollado hemos podido proponer una red de regulación putativa y analizarla para poner en relevancia el papel de los reguladores centrales. Esta es la cuarta contribución de esta tesis. En una segunda parte de esta tesis exploramos cómo estas relaciones regulatorias se manifiestan en un caso vinculado a la salud humana, desarrollando un método para completar una red vinculada a la enfermedad de Alzheimer. Este trabajo fue publicado en BMC Genomics (2010). Como addendum a esta tesis abordamos el problema matemático de diseñar sondas de microarray. Concluimos que para predecir completamente la dinámica de hibridización se necesita un modelo modificado para la energía de las estructuras secundarias de ADN adherido a una superficie y proponemos un plan para determinar tal función.
7

Modelamiento, estimación y generación de árboles de escenarios para precios del cobre

Ríos Uribe, Ignacio Andrés January 2014 (has links)
Magíster en Gestión de Operaciones / Ingeniero Civil Industrial / Muchos problemas de optimización consideran al precio del cobre como uno de los input más relevantes. A pesar de que los precios son altamente volátiles y nadie puede predecir con certeza cual será su valor, éstos pueden ser estimados y árboles de escenarios pueden ser construidos para manejar la incertidumbre asociada. En este trabajo se presenta una nueva metodología para el modelamiento y estimación de los precios del cobre, basada en dos ideas centrales. La primera radica en realizar una distinción entre el corto y el largo plazo (o también referidos como procesos transiente y estacionario), debido a que la evidencia muestra que en el corto plazo los precios son altamente volátiles moviéndose en torno a una tendencia, mientras que en el largo plazo los precios muestran reversión a la media tal como lo sugiere la teoría microeconómica. El segundo aporte central de este trabajo es la combinación de la información de mercado junto a la información histórica para la estimación de la tendencia de los precios en el corto plazo. El uso de la información de mercado resulta relevante ya que permite incorporar toda la información presente en el mercado (inventarios, expectativas, etc...) en la estimación del \drift del proceso transiente, ayudando de esta forma a un mejor pronóstico. Sumado a lo anterior, se presenta una extensión del modelo propuesto para incorporar más de un factor en la estimación de los precios del cobre. Así, se introduce un modelo multi-dimensional (no lineal), se derivan soluciones explícitas y se implementa un mecanismo para la estimación de sus parámetros. Finalmente, se presenta una nueva metodología para la generación de árboles de escenarios partiendo de las funciones de probabilidad acumulada y densidad, y esta se aplica para la generación de árboles de escenarios para los precios del cobre.
8

Algoritmos de aproximación para la programación de trabajos divisibles con tiempos de instalación en máquinas paralelas

Verdugo Silva, Víctor Ignacio January 2014 (has links)
Magíster en Gestión de Operaciones / Ingeniero Civil Matemático / En este trabajo se estudian problemas de programación de tareas en un entorno de máquinas paralelas. A diferencia de la literatura clásica, asumimos que los trabajos pueden ser divididos en distintas partes, cada una de las cuales puede ser procesada en distintas máquinas. Antes de procesar cualquier parte de un trabajo, la máquina debe prepararse y requiere un tiempo de instalación. Primero se estudia el problema de minimizar la suma ponderada de tiempos de completación, para el cual se obtiene una $(2+\varepsilon)$-aproximación cuando los tiempos de instalación son todos iguales. Este resultado corresponde al primer algoritmo de aproximación de factor constante para este problema. Usando técnicas similares se diseña una 2-aproximación para el caso de una ponderación uniforme de los trabajos, que en particular mejora el factor 2.781 obtenido por Schalekamp et al. Finalmente, con un algoritmo de {\it programación en lista}, se obtiene una 4-aproximación para el problema original con tiempos de instalación dependientes del trabajo. Posteriormente se estudia el problema en máquinas no relacionadas, donde los tiempos de proceso e instalación dependen de cada máquina. Los algoritmos diseñados en esta sección están basados en técnicas de redondeo de relajaciones lineales. La primera relajación que se estudia permite diseñar una 3-aproximación para el problema. Al realizar un paso de {\it lift and project} sobre una restricción es posible fortalecer la relajación, lo que permite diseñar una $(1+\phi)$-aproximación, donde $\phi=\frac{\sqrt{5}+1}{2}$. Respecto a la inaproximabilidad del problema se demuestra una cota inferior igual a $\frac{e}{e-1}$ basada en un resultado de Feige para {\it Max-$k$-Cover}. Usando la relajación lineal fuerte se muestra una 2-aproximación para la versión del problema en que cada trabajo posee un conjunto restringido de máquinas en las que puede ser procesado, teniendo igual tiempo de instalación y procesamiento en todas ellas. Finalmente, se estudia relajaciones basadas en {\it configuraciones} sobre trabajos, es decir, las variables corresponden a vectores que representan la asignación de un trabajo a máquinas en una cierta programación. El programa lineal de configuraciones de trabajos posee una cantidad infinita de variables, sin embargo, se demuestra que es posible restringirse a una cantidad finita de ellas y que además es posible aproximar este programa lineal en tiempo polinomial a un factor de $1+\varepsilon$. Determinar el gap de integralidad de esta relajación queda como una pregunta abierta.
9

Un modelo matemático para el diseño de territorios basado en el plan cuadrante de seguridad preventiva de Carabineros de Chile

Bucarey López, Víctor Daniel January 2014 (has links)
Magíster en Gestión de Operaciones / En este trabajo se desarrolla una metodología basada en un modelo de programación lineal entera mixta para la el diseño de cuadrantes, en el contexto del Plan Cuadrante de Seguridad Preventiva (PCSP) de Carabineros de Chile. El modelo presentado en este trabajo es una extensión del modelo de P-medianas con restricciones de equidad en la demanda por recursos policiales entre cada uno de los cuadrantes. Este último modelo arroja formas que no son del todo deseable, incluso creando cuadrantes inconexos. Por eso en este trabajo se incorpora una penalización en el tamaño de la frontera de cada distrito. Por otra parte, Carabineros de Chile se enfrenta a una demanda de recursos policiales cuya unidad de medición es denominada Unidad de Vigilancia Equivalente (U.V.E.). Esta demanda está dividida en dos componentes: una de reacción que es fija para cada subsector geográfico; y otra de prevención que depende del máximo de tres factores (nivel de delito, población, kilómetros viales). La primera componente de la demanda es sometida a restricciones de equidad, y la segunda al depender de la forma en que se divide la comuna, es penalizada en la función objetivo. El modelo propuesto que resuelve el diseño óptimo de cuadrantes resulta ser difícil de resolver para instancias superiores a los 100 bloques. Por este motivo se desarrollan varias reglas para disminuir el tamaño del problema para finalmente utilizar una heurística tipo Localización-Asignación, en la cual se divide el problema original en dos problemas, uno en el cual se determina el centro geométrico de los cuadrantes y otro en el que se le asignan a cada centro los bloques. Esta heurística fue implementada de dos maneras. En una se resolvía el problema de asignación a óptimalidad, y en la otra se resolvía la relajación lineal y se utiliza alguna regla de aproximación sacrificando algunas veces factibilidad. Estos métodos fueron aplicados a la comuna de Ñuñoa cuya instancia sobrepasa los 400 bloques. Los resultados de la heurística fueron satisfactorios, encontrando muchas soluciones factibles y de mejor calidad que las que pueden ser obtenidas a través de los métodos de optimización implementados en CPLEX. El desarrollo de esta metodología permite encontrar muchas soluciones factibles con garantías de equidad, lo cual es bueno para tener los tomadores de decisiones, que pueden a posteriori tener otras consideraciones en el diseño de cuadrantes.
10

Heurística basada en predicción de demanda y generación de columnas para resolver el problema de ruteo dinámico de vehículos con ventanas de tiempo

Briceño Aguirre, Paulina Andrea January 2014 (has links)
Magíster en Gestión de Operaciones / Ingeniera Civil Industrial / En el mundo actual la mayoría de los problemas logísticos son dinámicos; sin embargo, la investigación desarrollada hasta hoy se concentra principalmente en enfoques basados en adaptaciones de algoritmos estáticos. El vertiginoso avance de la tecnología ha incrementado significativamente las posibilidades de diseñar modelos de ruteo dinámico, lo que debe ser explotado para mejorar la eficiencia en problemas reales. En esta tesis se aborda el problema que enfrenta el Servicio Técnico de Xerox en Santiago, el cual es una aplicación real del Problema Dinámico de Ruteo de Vehículos con Ventanas de Tiempo. El objetivo es atender a los clientes con el menor retraso posible dentro de los límites factibles, minimizando a la vez los costos de trasporte. La complejidad de este problema radica principalmente en su naturaleza dinámica, ya que la información de las llamadas se conoce una vez que son recibidas durante el día, por lo que las rutas diseñadas deben ser modificadas para incorporar la nueva información cuando entran al sistema nuevos clientes. Para resolver este problema se desarrolló un algoritmo que utiliza la información histórica de las llamadas para definir Idle Points o puntos de espera, a los cuales acuden los vehículos desocupados para anticipar la demanda futura y minimizar los tiempos de respuesta. Además, se considera un sistema de puntuación según la intensidad de la demanda con el cual se premia la cobertura de las zonas con mayor intensidad de demanda y un esquema de Generación Dinámica de Columnas, en el se utilizan las rutas generadas anteriormente para diseñar nuevas columnas cada vez que surge una nueva solicitud de un cliente. El modelo fue implementado computacionalmente en C++ utilizando Ilog Cplex como motor de optimización, con el fin de realizar simulaciones con datos disponibles de la operación real y evaluar su desempeño en comparación a una versión dinámica de un algoritmo Greedy. Respecto a este benchmark se obtienen mejoras de 26% en los costos totales evaluando instancias que corresponden a 120 días de operación real de todos los meses del año. Además, se compara el modelo con dos versiones simplificadas para medir el impacto de incluir la información histórica y el covering en el modelamiento. Se observa que ambas componentes del modelo permiten disminuir los tiempos de espera de los clientes. Finalmente se comparan los resultados obtenidos con la operación manual de Xerox, obteniendo mejoras significativas en el nivel de servicio y una reducción de un 23% en el tamaño de flota requerido para la atención. Se concluye que el enfoque propuesto se adapta de manera satisfactoria a problemas dinámicos cuya prioridad es el nivel de servicio ofrecido a los clientes.

Page generated in 0.0882 seconds