• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 3
  • Tagged with
  • 15
  • 15
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modelo para optimización de dotación de personal de ventas para una tienda de retail de Perú

Fuentes Steger, Claudio Andrés January 2018 (has links)
Ingeniero Civil Industrial / Oechsle, compañía de tiendas por departamento, miembro del holding peruano Intercorp, tras 16 años de recesión, se encuentra en búsqueda de soluciones para optimizar sus operaciones, en las más de 20 tiendas que tiene distribuidas por todo Perú. Esto porque, debido a la llegada de competencia desde Chile, Oechsle ha sido relegado a la tercera posición del mercado. En esta búsqueda por recuperar mercado, es que, desde la gerencia de Productividad surgen inquietudes sobre el desempeño de la fuerza laboral, en particular, sobre la fuerza de ventas, la cual ha ido en aumento durante los últimos años, elevando su costo. Si bien este aumento de trabajadores se debe al aumento de la cantidad de tiendas y las ventas generadas, desde las jefaturas intermedias se presenta la duda sobre el rendimiento de las decisiones que se tomaron en el último tiempo. Ya que, el costo operacional por las ventas sigue representando un porcentaje cercano al 30%. Por tanto, aparece el interés de evaluar nuevas opciones para mejorar el desempeño de la fuerza de ventas, con la esperanza de obtener un aumento en las ventas o una reducción en los costos operacionales, sin perjudicar los resultados comerciales de la compañía. Para realizar esta evaluación, se utilizó un modelo matemático con el fin de determinar el mix de cajeros a contratar para una tienda piloto, ubicada en Lima. Con esto, se logró evaluar nuevas opciones para establecer el equipo de cajeros, pudiendo reducir los costos de la nómina, y otorgando una mayor flexibilidad para cubrir la demanda. Con el modelo de optimización, se obtuvieron dos alternativas para conformar el mix de cajeros. La primera alternativa conservó la cantidad y proporción de contratos, y obtuvo un ahorro estimado de $ 247.571 soles, mientras que al brindarle libertad al modelo para sugerir nuevas cantidades y proporción de contratos, se obtuvo la segunda alternativa, que brinda un ahorro estimado de $ 263.309 soles. Finalmente se incluyó un análisis de sensibilidad con respecto a los parámetros utilizados, con el fin de entender de mejor manera los resultados. Para luego poder replicar el modelo a otras tiendas, con mayor libertad
2

Árboles de decisión e identificación de genes en bacterias

Guzmán Toro, Alonso Tomás January 2018 (has links)
Memoria para optar al título de Ingeniero Civil Matemático / El presente trabajo muestra la implementación de técnicas de clasificación basadas en árboles de decisión para resolver y entender el problema de identificación de genes anotados en el ADN de la bacteria Escherichia Coli. Junto a lo anterior, se pretenden entender algunos principios biológicos subyacentes tras el mecanismo celular de identificación genética. Los métodos de clasificación que se implementan en este trabajo intentan simular la manera en que los complejos procesos celulares de transcripción y traducción genética identifican o encuentran las posiciones de inicio de los genes responsables de la posterior síntesis proteica. Se respeta la forma en que esta información es adquirida sin caer en el error de alejarse del marco biológico en cuestión. Para resolver el problema se crearon tres estrategias de clasificación basadas en la combinación de modelos de árboles de decisión y de un algoritmo de optimización sobre el área ocupada en el ADN por zonas génicas. La primera estrategia consiste en utilizar el algoritmo de optimización sobre candidatos a genes, obtenidos de una lectura secuencial en la doble hebra, para reducir la cantidad de potenciales genes. La solución obtenida es clasificada por los árboles de decisión. La segunda estrategia consiste en realizar el mismo proceso pero usando candidatos obtenidos desde una lectura en ambos sentidos de la doble hebra de ADN. La tercera estrategia consiste en iterar sucesivamente la optimización junto a los árboles utilizando la información incorrectamente clasificada por estos. Los resultados obtenidos se resumen como un conjunto de candidatos clasificados positivamente por los árboles de decisión y que cumplen con las restricciones impuestas por el algoritmo de optimización. / CMM - Conicyt PIA AFB170001
3

Propuesta de un método para maximizar financieramente el rendimiento de plantaciones de Pinus radiata D. Don de un conjunto de sitios, bajo una rotación común

Quiroz Montecinos, Alejandro Esteban January 2009 (has links)
Memoria para optar al Título Profesional de Ingeniero Forestal / Los planes de intervenciones forestales dan solución al cuestionamiento de dónde, cuándo y cuánto intervenir para lograr un objetivo establecido. Sin embargo, esto se vuelve realmente complejo cuando se combinan variables como: distintos sitios, edades, superficies y comportamiento del volumen entre otras. La solución corriente, es optimizar sitio a sitio individualmente para obtener un resultado global a nivel patrimonial, sin embargo, existen pocas alternativas para este tipo de problema. Por consiguiente, el objetivo de este trabajo es: “Proponer un método para maximizar financieramente el rendimiento de plantaciones de Pinus radiata D. Don de un conjunto de sitios, bajo una rotación común”, es decir, se propone un plan de intervenciones patrimonial bajo una sola rotación para el bosque regulado, para ello se utilizaron sistemas de información geográfico (SIG) y un modelo de programación lineal como herramientas de planificación forestal en el desarrollo de este estudio.
4

Diseño de fases de explotación en minas a cielo abierto generadas a través de un algoritmo genético

Suárez Mendoza, María José January 2017 (has links)
Magíster en Minería / El trabajo de tesis presentado tiene como objetivo desarrollar una metodología que permita incorporar elementos adicionales del diseño, en particular el fondo del pit; en la generación de fases y el plan de producción. Para lograr este objetivo se utiliza como herramienta un algoritmo genético, que es una técnica de optimización estocástica basado en la teoría de reproducción natural. El problema de la planificación de una mina a cielo abierto tiene dos componentes principales: una componente espacial que define la extracción de fases y una componente temporal que determina en que momento minar las reservas de mineral. Históricamente existen dos metodologías: una basada en pits anidados e impulsada por el algoritmo de L&G, que es la usada actualmente; y otra propuesta por Johnson en 1968, que es el agendamiento directo de bloques desarrollada solo a nivel académico. La metodología tradicional, basada en pit anidados, se centra en la componente espacial, mientras que la metodología de agendamiento directo de bloques se centra en la componente temporal, la solución óptima está relaciona con el valor actual neto del mineral explotable. Este trabajo busca un enfoque integral, definiendo volúmenes (fases), que respetan ciertas condiciones operacionales de la extracción a cielo abierto y el agendamiento que permita alcanzar el VAN máximo. Para esto se utiliza un algoritmo genético que permite la generación de volúmenes que satisfacen ciertas condiciones espaciales. El algoritmo considera restricciones de precedencia, restricciones de capacidad, así como restricciones espaciales de tipo operacional. Las precedencias se resolvieron a través de un cono truncado, el mismo que por su base radial facilita el diseño operacional y su ángulo externo constituye el ángulo de talud. Las restricciones de capacidad corresponden a las capacidades máximas de mina y de alimentación a planta. También se calculan los anchos de operación de carguío mínimos, en donde se pone especial atención al ancho mínimo en el fondo de una fase, este fondo corresponde a la base del cono truncado. Para el agendamiento se utilizó un agendamiento basado en programación matemática, denominada fase-banco-destino, donde se incorpora una restricción de desfase de banco entre fases (min_lead y max_lead). Dentro del trabajo, se consideraron diferentes configuraciones para los parámetros de algoritmos genéticos; tales como el tamaño de la población y el número de generaciones. El proceso de agrupación de conos truncados en fases se realizó a través del algoritmo K-means. Se aplicó la metodología a un caso estudio para comparar los resultados del algoritmo con el enfoque tradicional, se demostró que era posible generar automáticamente volúmenes más próximos a los diseños operacionales y que los valores de VAN eran comparables con los obtenidos a través de la metodología tradicional de pit anidados. Finalmente se incorporó diseño a las fases generadas a través del algoritmo genético, las mismas que incrementaron su cantidad de material y perdieron un 20% en valor con relación al VAN inicial.
5

Condiciones para operar una línea de bus con frecuencia similar en periodos punta y fuera de punta

Espinoza Silva, Diego Andrés January 2017 (has links)
Magíster en Ciencias de la Ingeniería, Mención Transporte. Ingeniero Civil / Los sistemas de transporte público son utilizados diariamente por millones de personas, quienes además de pagar el valor de la tarifa deben hacer uso de su tiempo (acceso, espera y en vehículo) acrecentando aún más el costo percibido por el usuario. El diseño táctico de un servicio de transporte público es uno de los problemas que más atención ha recibido en la literatura. Sin embargo, la gran mayoría de los estudios considera solo periodos punta, dejando fuera aquellos menos demandados. Esto llama la atención considerando las menores frecuencias observadas por los usuarios en los periodos fuera de punta y con esto los mayores costos percibidos en términos de tiempo, que podrían justificar mayores frecuencias si son incorporados correctamente. En esta tesis se plantea un modelo microeconómico multiperiodo que considera costos de operadores y usuarios para determinar el valor óptimo de la frecuencia y el tamaño de vehículo que minimicen los costos totales de una linea de bus simple. El modelo se aplica en un escenario con demanda observada y tiempos de viaje estimados para el eje de Santa Rosa, Santiago de Chile. El objetivo es determinar escenarios que inciden en el uso de mayores frecuencias en periodos menos demandados y con esto determinar casos en los que se justifican tener frecuencias similares a la de los periodos punta. Para esto se crean distintos escenarios que permiten determinar el impacto que tiene el nivel de la demanda, la duración de los periodos, el nivel de congestión, entre otros elementos. Uno de los principales resultados es la respuesta diferente en frecuencia óptima que tienen mercados de baja y alta demanda ante cambios en la afluencia. Mientras en los primeros se observan frecuencias similares entre periodos punta y fuera de punta, en los segundos se justifican mayores disparidades de frecuencia para los mismos cambios en demanda. Esto se debe a los mayores beneficios en tiempo de espera que se observan al aumentar la frecuencia en mercados menos demandados. Por otra parte, se observa que periodos punta más largos tienden a justificar una mayor diferencia de frecuencia entre periodos, ya que mientras la frecuencia de los periodos fuera de punta se mantiene prácticamente constante, un aumento de demanda absoluta en los más demandados provoca un aumento de frecuencia debido al mayor peso relativo de dichas horas. Otro de los principales resultados de este estudio es la mayor diferencia de frecuencia que se observa en la medida que se reduce la congestión. Una medida que aumente la velocidad comercial de los buses tendrá mayor impacto en los periodos más demandados, debido a que es en éstos donde se observa congestión, y por tanto donde se aprecian los mayores aumentos de frecuencia óptima. Además, se analiza el impacto que tiene una estructura de costos rígidas en la tripulación, como también la utilización de intervalos regulares entre buses (en comparación a distribución poisson), determinando que el primer caso favorece frecuencias óptimas similares entre periodos.
6

Validación experimental de un modelo para predecir el comportamiento dinámico de una placa de material compuesto con daño

Mayorga Ferrada, Juan Fernando January 2017 (has links)
Ingeniero Civil Mecánico / Este trabajo de título busca validar un modelo analítico para placas de material compuesto con grietas, desarrollado por la investigadora de la Universidad de Salta, Argentina, María Virginia Quintana. En este modelo las grietas son representadas como líneas rotuladas con rigideces rotacionales, y mediante las frecuencias naturales y modos de vibración es posible identificar la ubicación y el tamaño de éstas. La motivación surge de la aplicación que puede tener este modelo en la identificación de daño, debido a que mediante una prueba no destructiva y no tan costosa es posible reconocer la ubicación y el tamaño de las grietas. Esto permite tener más información del estado de componentes que pueden ser críticos y de gran costo como el fuselaje de avión o estanques a presión. El objetivo general es validar y ajustar el modelo analítico desarrollado por la profesora Quintana, a partir de datos experimentales obtenidos con placas de resina epóxica reforzada con fibra de vidrio. Para lograr lo anterior se debe realizar el montaje experimental, caracterizar placas con diferentes disposiciones de grietas, realizar las mediciones experimentales, obtener frecuencias naturales y modos de vibración, y ajustar el modelo analítico minimizando el error (o diferencia entre el resultado real y el teórico) mediante algoritmos de optimización. La metodología para lograr estos objetivos se desprende de las siguientes actividades: la medición de cuatro placas unidireccionales con distintas disposiciones de grietas, un montaje experimental en el Laboratorio de Sólidos, Medios Particulados y Sistemas Estructurales, la obtención de frecuencias naturales y modos de vibración de las placas a partir de las funciones de respuesta en frecuencia, la implementación del modelo analítico y un ajuste del mismo mediante algoritmos de optimización para minimizar la diferencia entre valores experimentales y valores numéricos. Dentro de los resultados obtenidos se tiene un ajuste de las propiedades mecánicas de la placa sin daño mediante algoritmos genéticos paralelos que reduce la diferencia entre frecuencias naturales a menos de 2,4%. Otro de los resultados importantes es que se obtienen valores para los parámetros que caracterizan las grietas en las placas con daño dentro de un 20% de variación respecto al valor teórico, pero sólo para una de las placas se obtiene un aumento de la correlación de los modos normales debido al ajuste, mientras que para las otras se mantiene el valor del parámetro.
7

Propuesta de fixture de Liga Metropolitana y V Región para categorías oro y plata, damas y varones de balonmano

Jara Kara, José Ignacio January 2019 (has links)
Memoria para optar al título de Ingeniero Civil Industrial / La gestión en deportes es una creciente y muy productiva área para aplicaciones de Gestión de Operaciones. Dentro de una liga deportiva existen múltiples factores tanto económicos y logísticos que la transforman en un interesante elemento de estudio. Hasta la fecha, los investigadores de esta disciplina, conocida mundialmente como Sports Scheduling, se han centrado principalmente en resolver el problema de la programación de partidos o fixtures considerando diversas condiciones, que lo suelen convertir en un problema combinatorial de difícil solución con múltiples aproximaciones. Estas condiciones se refieren a conseguir mayores beneficios económicos tanto para los equipos participantes como para las entidades organizadoras, mayor equidad deportiva, espectáculos más seguros y torneos más atractivos para el público, entre otros objetivos. Por lo tanto, crear un torneo para una gran cantidad de equipos y muchas solicitudes se convierte en una tarea engorrosa, que dará como resultado una solución poco óptima si no se realiza de la manera adecuada. El presente Trabajo de Memoria tiene por objetivo diseñar un calendario deportivo para la Liga Metropolitana y V región de balonmano temporada 2019, organizado por la Federación Chilena de Balonmano, en las versiones Oro y Plata, categorías dama y varón. Para esto, se utilizan herramientas de modelamiento con programación entera. Esta se basa en restricciones, indicando cómo las variables se relacionan entre sí. Todas las variables del problema tienen un dominio finito y se selecciona un valor de su dominio finito para cada una de las variables, de tal manera que se cumplan todas las restricciones. Para encontrar el calendario que mejor se ajuste a las necesidades de los equipos y de la federación se modela como un problema de programación lineal. Se cuenta con información de los clubes pertenecientes a los torneos, además de sus preferencias y las condiciones impuestas por la federación chilena de balonmano que permitirán esclarecer las restricciones. Esto complementado con la función objetivo resultado de la detección de necesidades en el transcurso de la investigación. Los modelos utilizan entre 3 a 7 familias de variables binarias y alrededor de 30 restricciones cada uno. Si se intenta dar solución a estos problemas en un computador con 4 GB de memoria RAM y procesador Intel Core 2 Duo 2.20 GHz utilizando Gurobi con Python y como solver Simplex, no hay solución de más de 30 horas. Los 3 modelos planteados resuelven el problema principal, sin embargo, se opta por sugerir el último modelo que logra decidir sobre horarios y categorías por cada fecha, ya que es el que mejor se adapta a las necesidades del organizador y que vela por un mejor funcionamiento de una liga de carácter aficionado que se fusiona con otra región.
8

Stochastic optimization applied to scheduling mining problems

Barra Olivares, Erick Andrés de la January 2019 (has links)
Tesis para optar al grado de Doctor en Ciencias de la Ingeniería, Mención Modelación Matemática / Beca Doctorado Nacional, Conicyt 2014, No21141068 / 28/02/2020
9

Diseño de un modelo para la activación de clientes en los rubros de la Tarjeta de Crédito de un Retail Financiero

López Hernández, Diego Ezequiel January 2018 (has links)
Ingeniero Civil Industrial / El presente trabajo de título se lleva a cabo en una empresa de Retail Financiero nacional que se caracteriza por ser la administradora de la tarjeta de crédito de un reconocido grupo a nivel latinoamericano. La estrategia de la empresa es conseguir la principalidad, siendo una manera de medirlo la cantidad de necesidades que cubren los clientes con su tarjeta, a través de calcular los rubros distintos en que es utilizada. Es por ello, que el objetivo general de este proyecto es diseñar un modelo de asignación de ofertas para la activación de los clientes de un Retail Financiero en los distintos rubros de gestión de su tarjeta de crédito, balanceando las preferencias del cliente y las ganancias para la empresa. Con respecto al desarrollo de la solución, se plantean tres objetivos específicos: En primer lugar, determinar el efecto causal que posee sobre el gasto y la rentabilidad (de las compras con la tarjeta) del cliente el hecho de que se active en un nuevo rubro, a través de una técnica de matching. Concluyéndose, que existe un efecto positivo y significativo de activarse en 15 de los 16 rubros sobre el gasto y la rentabilidad del uso de la tarjeta. De estos, se destaca Viajes, que genera el mayor aumento del gasto con $78.000 mensuales (un 117% más que el promedio de los rubros) y un aumento promedio de la rentabilidad de las compras en $1.100 mensuales (el doble que el promedio de los rubros). El segundo objetivo, es diseñar un modelo para predecir el próximo rubro en el cual se activará cada cliente, según sus características y comportamiento pasado. El modelo escogido fue un probit multivariado, que estipula la definición de un orden general de ofrecimiento de los rubros debido a su probabilidad de compra y efecto sobre la compra de otros rubros. Luego, el tercer objetivo, es establecer un criterio de asignación de rubros a ofertar a cada cliente que aumente el gasto de estos, recomendándose a la empresa la utilización del criterio del lift, debido a que el gasto percibido aumenta en un 18% por sobre la utilización de la clásica asignación por mayor propensión. También, de los primeros objetivos, se logra identificar que el 14% de la cartera tiene alta probabilidad de activarse en al menos un rubro, lo que repercutiría en un aumento de su gasto en un 20%. Por lo anterior, se recomienda a la empresa potenciar a través de ofertas los rubros en que los clientes no se activan naturalmente, pero generan una diferencia grande en el gasto de los clientes, como Educación y Recaudación. Finalmente, se estipulan las principales limitaciones del proyecto, que dan paso a dos líneas de trabajos propuestos: el estudio de la activación de rubros en clientes nuevos, debido a que estos fueron eliminados del análisis, y la incorporación del efecto del marketing directo sobre las probabilidades de compra.
10

Estimación de velocidades de tránsito a partir de un sampleo limitado usando compressed sensing

Hasson Arellano, David Yuval January 2018 (has links)
Magíster en Gestión de Operaciones. Ingeniero Civil Matemático / La congestión vehicular plantea un desafío para las compañías de bomberos, cuyo objetivo es cumplir los estándares internacionales de tiempo de llegada y dado que mientras antes se llegue a un incendio, menos personas e inmuebles serán afectados. Commander es un software desarrollado por investigadores de la Universidad de Chile que considera la congestión y le ha permitido al Cuerpo de Bomberos de Santiago seguir rutas rápidas, reduciendo sus tiempos de llegada. Si bien el hecho de considerar los distintos patrones que sigue la congestión durante el día ha ayudado a los bomberos, aún hay oportunidades de mejora. Commander considera tiempos de viaje históricos (promedio) para determinar los caminos mínimos a la emergencia a distintas horas del día, esto significa que queda una brecha por cubrir con respecto al uso de información de tráfico en línea. En tiempo real, pueden acontecer accidentes u otros eventos que alteren el flujo de tránsito y por lo tanto el tiempo de viaje se desvíe del comportamiento histórico en ciertos sectores de la ciudad. Es por ello que en una nueva etapa de desarrollo de Commander se busca mejorar el sistema, incorporando información en línea. Dadas las tecnologías actuales, puede ser costoso adquirir los tiempos de viaje en la totalidad del grafo, y aún si se pudiera, es esperable que haya cierta redundancia en la información, debido a correlaciones espaciales que surgen naturalmente entre las velocidades del tráfico en distintos segmentos de calle. Luego, resulta interesante evaluar la viabilidad de ocupar muestras limitadas de las velocidades en la ciudad, infiriendo la información desconocida en base a la redundancia antes mencionada. De esta manera, además, se reduciría el tiempo de adquisición de información, lo cual es vital en el caso de despacho de bomberos, puesto que se desea tener una respuesta a emergencias lo más pronto posible. La teoría de Compressed Sensing, introducida hace poco más de una década, entrega una manera de realizar lo anterior. Bajo la capacidad de representar la información de tránsito de una manera alternativa a la base canónica, en que la información se concentre en pocas coordenadas, Compressed Sensing asegura que para ciertos esquemas de muestreo se podrá reconstruir la información completa en base a una muestra altamente reducida. Por esta razón, el uso de esta teoría resulta particularmente prometedor. En este trabajo se enmarca el problema de interpolación de datos de velocidad de tránsito bajo la teoría de Compressed Sensing. Se encuentra una base de representación que permita la reconstrucción de datos ante una baja cantidad de mediciones. Se pudo obtener estimaciones de velocidades con un error despreciable sampleando un 10% de los arcos en dos sectores compuestos por las calles principales de 9 comunas de Santiago. / Este trabajo ha sido parcialmente financiado por CONICYT a través de FONDEF IT15110050

Page generated in 0.0996 seconds