• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 86
  • 10
  • Tagged with
  • 96
  • 96
  • 19
  • 19
  • 14
  • 14
  • 14
  • 14
  • 14
  • 14
  • 14
  • 14
  • 14
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Some experiments on separation with multi-row cuts

Serrano Musalem, Felipe January 2013 (has links)
Magíster en Gestión de Operaciones / Ingeniero Civil Industrial / Since Andersen et al. there has been a lot of interest in multi-row cuts. However, computational study has been limited. Most research consider multi-row cuts deduced from only 2 rows and they use bounds on none or only on one type of variables, always relaxing integrality of non-basic variables when bounds are taken into account. Also, most applications aim to exact separation as well as using fixed convex lattice free bodies to separate. In this work we try a numerical approach that allows us to look into more complex relaxations and we introduce an approximated separation hoping for a practical implementation to be possible. Extensively numerical analysis has been done to ensure numerical stability and minimize the creation of false cuts. Also, we incorporate some simple forms of taking advantage of integrality of non basic variables. Once the rows of a tableau are obtained we search for a ``deep cut'' which we understand as a cut ($\alpha x \ge 1$) that minimizes $\norm{\alpha}$. To find it, we solve the dual using a column generation approach. We tested both, $\l^1-$norm and $\l^2-$norm, where the latter one is treated using Ben-Tal and Nemirovsky approximation of the second order cone. In order to speed up the process we seek for violated representations of fixed points. Different criteria for row selection is tested: random selection, largest dot product and smallest dot product. To give a more complete idea about the strength of multi-rows cuts, we also generated all possible cuts using all combination of rows, but without aggregation of rows. We compare this to Balas computations of the split closure. As for the experiments done in this work, we analyze the impact in the root node of the procedure (using various rounds) over MIPLIB3. Also, we select a good configuration and test its performance in branch and bound.
2

Optimización de los procesos de gestión de pabellones quirúrgicos en hospitales públicos

Wolff Rojas, Patricio January 2012 (has links)
Magíster en Ingeniería de Negocios con Tecnología de la Información / El pabellón quirúrgico es un recinto diseñado y equipado para realizar actividades anestésicas o quirúrgicas, las cuales generan típicamente el 40% o más de los ingresos de un hospital. Sin embargo, el sistema de salud pública, actualmente, no responde satisfactoriamente a la demanda de intervenciones quirúrgicas electivas. El número de pacientes intervenidos quirúrgicamente está estrechamente relacionado con la disponibilidad de recursos y la forma en la cual se programan los pabellones. El objetivo del proyecto es optimizar los procesos relacionados con la gestión de pabellones, enfocados principalmente en el uso eficiente de los recursos e instalaciones. La optimización se reflejará en reducción de los tiempos de espera, aumento de la utilización de los recursos y una mayor transparencia y equidad en la asignación. La optimización se realizó mediante el rediseño detallado de procesos en base a la arquitectura de hospitales y el diseño de aplicaciones de apoyo fundamentadas en el uso de patrones, la ejecución de procesos y el desarrollo de servicios web. En este sentido, las lógicas de negocios desarrolladas en el sector privado, la teorías de gestión de operaciones, el rediseño de procesos apoyado por nuevas tecnologías de información y las aplicaciones de arquitecturas de procesos de negocios pueden ser utilizadas en hospitales públicos con el fin de mejorar la eficiencia y eficacia de ellos. Se presenta un resultado exitoso de la aplicación de estas técnicas en el Hospital Exequiel González Cortés. Este resultado muestra un 10,2% de mejora en la programación de pabellones, en el período de estudio. Esta investigación representa un caso exitoso de aplicación de rediseño de procesos de negocios apoyados con analítica compleja y una implementación apropiada a los requerimientos del sector.
3

Diseño de un algoritmo de búsqueda tabú para resolver el problema de la selección de proyectos

Rejas Cano, Eduardo Antonio 13 November 2014 (has links)
La Selección de Proyectos de Tecnología de Información es importante en la actualidad ya que gracias a estos se consiguen ventajas competitivas que permiten a la empresa en cuestión marcar diferencia en el mercado y generar ventaja competitiva. Por ello una solución que otorgue utilidades y satisfaga las expectativas de la gerencia es indispensable, es por esta razón que se propone un algoritmo metaheurístico que cumpla con dichos requisitos. La propuesta es la implementación de un algoritmo de Búsqueda Tabú (Tabu Search) de tres fases (Básica, Intensificación y Diversificación) que optimice las utilidades de un portafolio de proyectos de Tecnologías de Información. Un punto importante a tener en cuenta es que este algoritmo llega a la solución en un menor tiempo que otros métodos existentes, como son los modelos matemáticos y de simulación, obteniendo resultados iguales o mejores que con los métodos mencionados. Para tener la certeza de que la solución obtenida es buena, se contrastó con otro algoritmo de relativa complejidad (GRASP construcción) mediante métodos estadísticos, teniendo como resultado que la media del algoritmo de Búsqueda Tabú es mayor y por tanto mejor que la del GRASP. Finalmente, se demuestra que la solución propuesta, un algoritmo de Búsqueda Tabú para la selección de proyectos de Tecnología de Información, es una opción a tomar en cuenta para la toma de decisiones al momento de armar un portafolio de proyectos que permita a la empresa generar utilidades y ventaja competitiva. / Tesis
4

Minimization of the ground state of the mixture of two conducting materials in a small contrast regime

Quintero Castañeda, Duver Alonso January 2016 (has links)
Doctor en Ciencias de la Ingeniería, Mención Modelación Matemática / En esta tesis se considera la resolución de problemas de diseño óptimo mediante procedimientos asintóticos de segundo orden. Estos procedimientos nos proveen de una formulación simplificada del problema que permite ser implementada para la obtención de resultados numéricos. Los procedimientos asintóticos de primer orden se han tenido en cuenta con el fin de mostrar la importancia del modelo de segundo orden. Las consideraciones teóricas dan cuenta de las diferencias entre los modelos implementados. En particular, el procedimiento asintótico de primer orden está basado en la técnica de los conjuntos de nivel mientras que el de segundo orden se basa en los procesos de relajación. En términos generales el modelo de segundo orden está mal condicionado debido a que un óptimo para el problema puede no existir en la clase de los conjuntos admisibles. El problema relajado es obtenido entonces como resultado del método de homogeneización que, a través de los procesos, requiere de la teoría de las H-medidas. Los problemas abordados en esta tesis se enfocan en determinar la configuración óptima de dos materiales isotrópicos (caracterizados por dos magnitudes físicas constantes distintas) dentro de un dominio acotado fijo $\Omega$ con el fin de minimizar una función objetivo asociada a una ecuación de estado, bajo la restricción de que los materiales se mantengan a una proporción de volumen fija. El parámetro escalar $\varepsilon$, con respecto al cual se realizan las expansiones asintóticas, se define como la "diferencia'' entre las magnitudes que describen el comportamiento de los materiales, el cual se debe tomar lo suficientemente pequeño para la obtención de los resultados. El primer problema de la tesis consiste en minimizar el primer valor propio $\lambda$ del operador de difusión $-\dive(\sigma\nabla\cdot)$ en el espacio $\sH_0^1(\Omega)$ donde, como es bien sabido, $\sigma$ representa la densidad de difusión de los materiales al interior del dominio $\Omega$. El segundo problema está dedicado al estudio de la maximización de la "Compliance'' o la energía elástica acumulada de un sistema elástico con condiciones mixtas Dirichlet-Neumann. El tercer y último problema de esta tesis combina los resultados obtenidos de el primer y segundo problema para la resolución parcial al problema de minimizar el primer valor propio del operador de elasticidad $-\dive A e(\cdot)$ en el espacio $\bsH_0^1(\Omega)^d$, donde $A$ representa el tensor de cuarto orden que describe el comportamiento elástico de los materiales dentro de $\Omega$ y $e$ es el operador diferencial que genera el tensor de deformaciones del sistema.
5

An optimization -based matching estimator : large and small sample properties

Díaz Maureira, Juan 12 1900 (has links)
Tesis para optar al grado de Doctor en Economía / This work proposes a novel matching estimator where weights and the choice of neighbors used are endogenously determined by solving an optimization problem. The estimator is non-parametric and is based on nding, for each unit that needs to be matched, sets of observations such that a convex combination of their covariates has the same value of the covariates as the unit to be matched, or with minimized distance between them. Since there is generally more than one set per each unit, the method chooses the one with the closest covariate values. In this work we contribute to the matching literature by linking the choice of matches and weights to the improvement of post-matching covariate balance in a simple way: an optimization problem that optimizes individual covariate balance. It is worth mentioning that the developed method is not an algorithm that iteratively checks covariate balance until convergence. Instead, it incorporates an individual balance criterion in the objective function that determines the weights used in each match. It can be written as a linear program that allows us to use standard optimization techniques to solve the problem quickly. To aid research, we provide a new R library called blopmatching. Regarding asymptotic properties, we shows that our estimator of the ATE attains stan- dard limit properties (consistency and normality), and it has a conditional bias that is Op(N􀀀2=k). It worth mentioning that this order improves the order N1=k attained by the NN-matching estimator. In fact, Op(N􀀀2=k) could be attained by the NN-matching estima- tor in the only case in which the conditional expectation of the outcome variable is a linear expression in covariates, a condition under which the conditional bias of our estimators is as good as we want. Besides, even though the proposed estimator of the ATE is not p N- consistent in general, we show that if the number of control units increases faster than the number of treated units, then our matching estimator of the ATT attains the p N-consistency, as its bias rate is better than the one attained by the NN-matching estimator. Finally, as regards nite sample properties, we implement the proposed estimator to data from the National Supported Work Demonstration nding an outstanding performance even though when using alternative control groups from a non-experimental sample. In addition, by performing Monte Carlo experiments with designs based on the related literature that includes misspeci cation of the selection equation, we study its performance in nite samples. We nd that our estimator provides good post-matching balance and performs well in terms of bias and variance when compared to nearest neighbor matching estimators (for both covariates and propensity score) and the normalized inverse probability weighting estimator. Major improvements are observed when there is underspeci cation of the selection equation for estimating the propensity score. Hence, our method gives researchers a new alternative matching estimator that prevents the selection of an arbitrary number of neighbors or the estimation of the propensity score.
6

Modelos de propensión integrados para la optimización de campañas de marketing

Wilson Matthey, Daniel January 2013 (has links)
Magíster en Gestión de Operaciones / Ingeniero Civil Industrial / Las campañas de marketing son una herramienta fundamental con la cual las empresas afianzan la relación con sus clientes. Mediante la realización de ofertas atractivas a través del canal apropiado, se busca incrementar la satisfacción de los consumidores y por ende la utilidad de la compañía. Sin embargo, el proceso de asignación de ofertas y canales a clientes no es trivial, debido a la existencia de restricciones del negocio tales como: presupuesto disponible, capacidad de los canales, máximo de ofertas por cliente, entre otras. El presente trabajo de título tuvo como objetivo la construcción de un modelo de optimización para campañas de marketing, decidiendo qué ofertas realizar, a qué clientes enviarlas y a través de qué canal de venta. La metodología desarrollada se centra en la integración de modelos de propensión, que determinan la probabilidad de que un cliente responda positivamente a una oferta específica. Considerando dichas probabilidades, el modelo busca maximizar la utilidad esperada de la campaña, sujeto a restricciones del negocio. Dado que el problema es NP-completo, se propuso un enfoque heurístico para resolver la optimización. La metodología desarrollada consiste en separar la resolución del problema en tres etapas: selección de las ofertas a activar, asignación factible de canales y asignación factible de clientes. Cada solución encontrada se somete a la búsqueda de vecinos y posteriormente a un proceso de mutación. Además se desarrolló una etapa previa de clusterización, en la cual se disminuye el tamaño de la instancia y por ende los tiempos de ejecución. Se comparó el algoritmo propuesto con otros métodos desarrollados en la literatura, obteniéndose como resultado un mejor rendimiento en términos de la calidad de la solución y tiempos de ejecución. También se realizó una aplicación real del algoritmo a una empresa chilena perteneciente a la industria del retail financiero. En ella se comparó la metodología propuesta con otras tres más básicas, obteniéndose resultados favorables en términos de venta incremental, utilidad y clientes estimulados.
7

Diseño de un algoritmo de búsqueda tabú para la minimización del desperdicio de espacio en almacenes de empresas comercializadoras de tuberías

Rodríguez Sánchez, Daniel Alberto 14 November 2014 (has links)
Durante el presente proyecto de fin de carrera se plantea el desarrollo de un algoritmo metaheurístico el cual brinde una buena solución para el problema planteado. Esto se debe a diversos factores como la ubicación del almacén donde se colocaran los productos (rumas o estanterías) y los criterios en base a los cuales se apilaran los productos (tamaño, forma y peso) que deben considerarse al momento de realizar el almacenamiento de productos terminados. Además, como se mencionó anteriormente, estos factores se vuelven más complejos cuando se trata de tuberías, debido a que estas poseen una forma circular. Finalmente, este algoritmo no tiene como objetivo resolver el problema de forma exacta dada la complejidad de tiempo y recursos que presenta; sin embargo, permite obtener una buena solución que pueda cubrir con las necesidades de almacenamiento y que pueda ser ejecutada en un tiempo comprensible a las necesidades del negocio. / Tesis
8

Optimización de portafolios de inversión a través del valor en riesgo condicional (CVAR) utilizando cópulas en pares

Navarrete Álvarez, Pablo Isaac 17 April 2013 (has links)
En la presente tesis se demuestran de manera exhaustiva las principales propiedades del CVaR presentadas en los trabajos de Rockafellar y Uryasev (2000, 2002). En particular, se completan las demostraciones del teorema a través del cual se puede minimizar al CVaR utilizando la función auxiliar F®. Estos resultados se mantienen cuando la función de distribución de pérdidas presenta discontinuidades e incluso saltos. Además, se demuestra que el CVaR es continuo con respecto al nivel de confianza elegido y se demuestra que es una medida de riesgo coherente. Por otro lado, se realiza la optimización de un portafolio de inversión utilizando al CVaR como medida de riesgo. Dado que la evidencia estadística muestra que los activos no siguen un comportamiento gaussiano, se utiliza la teoría de cópulas para modelar la dependencia contemporánea de los datos. Finalmente, se comparan los resultados obtenidos de la optimización del modelo media-varianza de Markowitz (M-V) frente a los obtenidos en el modelo media-CVaR (M-CVaR). / Tesis
9

OPTIMIZACIÓN DE MODELOS GARCH A TRAVÉS DE ALGORITMO GENÉTICO

Asenjo Godoy, Pedro Francisco, Praetorius Batalla, Sebastián January 2006 (has links)
Utilizando valores de cierres semanales de los índices bursátiles estadounidenses Dow Jones(DJI), S&P500 (GSPC), Nasdaq (IXIC) y NYSE Composite (NYA), correspondientes al período comprendido entre el 4 de enero de 1980 al 31 de diciembre de 2005, se analiza la eficacia del Algoritmo Genético como técnica de optimización de estructuras de modelos GARCH para la predicción de retornos bursátiles. Los resultados obtenidos mediante Algoritmo Genético, considerando el Error Cuadrático Medio (ECM) como criterio de comparación, fueron contrastados con los de un modelo GARCH (1,1), un modelo GARCH especificado aleatoriamente y un modelo GARCH optimizado mediante Fuerza Bruta (probando todos los modelos posibles). Se efectuó un test de significancia estadística sobre la diferencia de ECM entre los modelos contrastados, además de realizar algunos test complementarios para medir el nivel de la aplicabilidad de los modelos (test LM de Engle, test Portmentau de bicorrelaciones de Hinich (test H) y test de correlaciones simples (testC)). Para todos los índices bajo análisis, los modelos GARCH optimizados por el Algoritmo Genético alcanzaron un ECM (para un conjunto extra muestral de 200 observaciones semanales) menor que el obtenido a través del modelo GARCH (1,1) y el modelo GARCH generado aleatoriamente. Sin embargo, y como era de esperar, el resultado en ECM fue mayor al del modelo obtenido por Fuerza Bruta. La diferencia entre el resultado del Algoritmo Genético y el de un modelo GARCH (1,1) resultó ser, en todos los casos, estadísticamente significativa a un 1% de significancia. Al comparar los resultados con el modelo GARCH especificado de manera aleatoria, sólo la diferencia entre ECM es significativa, a un 5% de nivel de significancia, para el caso del índice GSPC. Al analizar las diferencias de ECM entre los modelos obtenidos mediante Algoritmo Genético y Fuerza Bruta, éstas resultaron ser no significativas, salvo para el índice GSPC que fue significativa a un 10%. De esta manera, se puede concluir que un modelo GARCH optimizado mediante Algoritmo Genético podría obtener mejores resultados que una modelo GARCH (1,1) usado ampliamente en la literatura financiera. Además, el resultado obtenido mediante Algoritmo Genético no presenta desviaciones significativas con respecto de la mejor especificación posible. De este modo, se presenta evidencia a favor del Algoritmo Genético como técnica de optimización de estructuras de modelos GARCH.
10

Fórmula de integración en espacios con la propiedad de continuidad del subdiferencial

Salas Videla, David Sebastián January 2013 (has links)
Ingeniero Civil Matemático / En esta memoria se extiende el resultado de integración de Correa y Hantoute presentado en \cite{Correa1}, que dice que si un espacio de Banach $X$ tiene la propiedad de Radon-Nykod\'ym (RNP), entonces para todo par de funciones $f,g:X\to\Rex$ con $f$ epi-pointed y semicontinua inferior, y tal que $\partial f\subseteq \partial g$, se cumple que existe una constante $c\in\R$ tal que \[ \cco f = \overline. \] Se introduce la noción de funciones integrables, que tienen las condiciones necesarias y suficientes para que la fórmula de integración anterior se cumpla, independiente de la RNP. Además, se definen las funciones cuasi-integrables, que son aquellas funciones $f$ epi-pointed que sólo necesitan para ser integrables que exista un denso $D$ del interior del dominio de $f^*$ donde se satisfaga que \[ \clss = \partial f^*(x^*),\quad\forall x^*\in D. \] Se dan caracterizaciones de la ecuación anterior y luego se define la familia de espacios de Banach donde para toda función $f$ epi-pointed, su conjugada satisface dicha ecuación en un denso del interior de su dominio: Los espacios cuyo dual tiene la propiedad de continuidad del subdiferencial débil ($w$-SCP). Se muestra que esta es la familia de espacios de Banach más grande donde toda función cuasi-integrable es integrable. Se termina la memoria dando varias caracterizaciones de los espacios cuyo dual tiene la $w$-SCP y se plantean algunas conjeturas sobre la estructura de los mismos.

Page generated in 0.1086 seconds