11 |
Requerimiento de Neumáticos de una Mina a Cielo AbiertoRojas Cortés, Freddy Antonio January 2009 (has links)
No autorizada por el autor para ser publicada a texto completo / El neumático, elemento vital en la etapa de transporte, está sometido a diferentes tensiones en la mina, como velocidades, tonelajes, etc. Estas configuraciones determinan el tipo de goma a utilizar en las rutas y el TKPH del neumático. Esta característica permite escoger la ruta más adecuada para su uso, minimizando la probabilidad de falla. De lo contrario, impactará directamente en la productividad del camión, y es más, en la productividad del sistema minero.
El presente trabajo tiene como objetivo desarrollar una metodología que, a partir de los ciclos de transportes definidos en el plan de producción anual, estime los requerimientos de los neumáticos que permitan dar respuesta a indicadores como el TK y el TKPH.
Para esto, se analizaron los parámetros operacionales que permiten dar cumplimiento de un plan de producción. Se reconciliaron las variables operacionales y las rutas de transporte con la apertura del plan minero. A partir de esto, se definió un indicador de eventos y la metodología de asignación de neumáticos. Finalmente se calculó el tipo de goma y el requerimiento de neumáticos para las rutas definidas en el plan minero. La gran correlación existente en la velocidad media de ciclo y el TKPH definió el “Evento-TKPH”, como índice de falla. El cálculo del tipo de goma y del número de neumáticos dependerá de los TK necesarios para cumplir las metas de tonelaje de las fases-bancos, de los Eventos-TKPH permitidos y del TKPH de la ruta. A partir de lo anterior, se estimó el tipo de goma y el número de neumáticos con los planes promedios mensuales del plan y, además, con la apertura del plan minero. Los resultados obtenidos fueron 168 del tipo B, y 84 del tipo B4 para la primera metodología, y de 187 del tipo B, y de 84 del tipo B4. Si bien, en el tipo B4 no se observó un aumento en el número, si lo hizo en el uso de éstos, aumentando de un 47% a un 88%. Por otro lado, la reconciliación de las variables mostró las grandes diferencias existentes entre el plan y lo actual, mostrando un 40% de cumplimiento de las rutas planificadas, y de altas varianzas de TK.
Finalmente, resulta indispensable cumplir las rutas del plan, pues el cálculo del tipo de goma, del número de neumáticos y la probabilidad de ser dado de baja se realiza en base al plan. Además se propone optimizar este proceso, minimizando el costo de cada TK sujeto al cumplimiento del TKPH del ciclo, de los Eventos-TKPH permitidos y de la flota de camiones que se tiene.
|
12 |
Predicción de Resistencia a la Carga Puntual y RQD Mediante Kriging Ordinario en la Mina Cerro ColoradoAedo Sanhueza, Luis Salvador January 2007 (has links)
La resistencia de los materiales en procesos mineros se asocia a menudo al gasto en explosivos, circuitos de chancado y procesos de beneficio de mineral, por esta razón en Compañía Minera Cerro Colorado (CMCC) surgió la necesidad de mejorar la información existente sobre dicho comportamiento. Se elaboró un modelo geoestadístico de bloques, que incorpora variables físicas como el índice Is_50 (carga puntual estandarizada) y RQD (Rock Quality Designation). Dichas variables fueron estimadas a partir de ensayos de sondajes diamantinos existentes de acuerdo a procedimientos establecidos y que son estándar dentro de la industria.
Se construyeron bases de datos con sus respectivos chequeos y validaciones, una para carga puntual y otra para RQD. Para la carga puntual se ensayaron aproximadamente 12.000 metros, representando un 50% respecto al largo total de sondajes, y para el caso del RQD se ensayaron aproximadamente 21.000 metros, representando un 97% respecto al largo total de sondajes.
A partir de un estudio estadístico EDA (Exploratory Data Analysis), se identificaron distintos dominios, los cuales están relacionados con atributos como alteración, mineralización, litología y tipo de mineral, además de una variable espacial que condiciona a todas las anteriores. Así, se establecieron los controles que relacionan dichas características geológicas-espaciales con los índices Is_50 y RQD.
Se hizo un estudio vario gráfico para definir las distintas anisotropías y radios de búsqueda para establecer un plan de estimación y definir un método de clasificación de los resultados. La técnica de estimación consistió en Kriging ordinario por pasadas usando un software de uso corporativo. Finalmente, se compararon los resultados con la observación de terreno hecha por geología de producción con el fin de validar la estimación realizada.
Un modelo de esta naturaleza se construye por primera vez en CMCC y debiera ser considerado como de "Largo Plazo", y mejorado con nueva información y/o mediante un programa de reconciliaciones con la producción. Este modelo de resistencias puede ser usado tanto por las distintas áreas dentro de la compañía como en el área de Geología para sus modelos de largo plazo; Geotecnia en lo que respecta a evaluación de las distintas calidades de rocas; Tronadura para optimizar su labor; Ingeniería de largo y corto plazo en la planificación y desarrollo minero y finalmente Geometalurgia-Planta para mejorar su proceso en lo que se refiere a chancado de materiales y percolabilidad en las pilas de aglomeración.
|
13 |
Un enfoque moderno para la estimación espectral probabilísticaAraya Hernández, Lerko Caleb January 2019 (has links)
Tesis para optar al grado de Magíster en Ciencias de la Ingeniería, Mención Eléctrica / Memoria para optar al Título de Ingeniero Civil Eléctrico / El presente trabajo propone y estudia dos métodos bayesianos para abordar el problema de estimación espectral: uno paramétrico y uno no-paramétrico. En esta ocasión se abordará una variante del problema de estimación espectral, en que las muestras u observaciones están en el dominio de las frecuencias, similar al problema de interferometría. Actualmente, Chile es una de las grandes potencias en astronomía, siendo el norte de Chile el hogar del interferómetro más grande del mundo, llamado Atacama Large Millimeter/submillimeter Array (ALMA).
El desarrollo metodológico de este trabajo consistió en modelar el dominio temporal (o espacial) y luego -informalmente- pasar el modelo temporal a través de la transformada de Fourier. Para el modelamiento se utiliza inferencia bayesiana, puesto que esta es un marco de trabajo que promete incorporar la incertidumbre natural de los problemas en el mundo real. De esta manera, el enfoque probabilístico que nos brinda la inferencia bayesiana nos permitirá establecer intervalos de confianza y caracterizar la incertidumbre de la reconstrucción.
Los resultados experimentales están divididos en dos partes. La primera, está relacionada con la validación de los métodos, mientras que la segunda consiste en probar los modelos en imágenes reales. La etapa de validación a su vez se dividió en otros dos experimentos: El primer experimento es un caso unidimensional, en el que se probó el desempeño del método para realizar una regresión de una señal temporal la cual cumple todos las hipótesis propuestas en cada método; el segundo experimento consiste en realizar una regresión de una señal bidimensional, es decir, una imagen que cumpla con las hipótesis de cada método. El propósito de esto es realizar una validación en un escenario sintético y completamente controlado, en los cuales se pueda evaluar correctamente el desempeño de los métodos.
Los resultados para cada método son prometedores, entre los cuales se puede observar la correcta validación de ambos métodos, la robustez de los métodos para imágenes reales y la facilidad de extensión para ocupar los métodos en otros problemas o incluso con muestras en el dominio temporal. En ese sentido, el trabajo a futuro puede alcanzar una gran profundidad y el pulimento de estos métodos se puede entender tanto como la aplicación particular de estos métodos en un problema o el desarrollo de nueva teoría para la sofisticación de los métodos. / CONICYT N 22171830, FONDECYT-Iniciación 1171165 y CONICYT-PIA AFB-170001
|
14 |
Modelo G-DINA aplicado al diagnóstico de desórdenes mentalesVillena Guzmán, Denisse 11 February 2019 (has links)
Actualmente, uno de los modelos de diagnóstico cognitivo (MDC) más usados es el modelo
DINA. Sin embargo, este modelo presenta varias restricciones que hacen que en muchas
ocasiones, no sea el que mejor se ajusta a la realidad. En ese contexto, nace una generalización
del modelo DINA, denominado G-DINA (Generalized deterministic input, noisy and gate).
En el presente estudio se presentan los fundamentos y propiedades del modelo G-DINA y
su aplicación en un área en el que su uso todavía no es muy común: la psicología. Así, se
evaluaron los resultados de una muestra de pacientes de un hospital general de Lima a los
que se les aplicó el test SRQ-18 que evalúa la presencia de desórdenes mentales. Se muestra
el proceso de selección del mejor modelo para cada ítem, los resultados de los parámetros
obtenidos, los diagnósticos para los 10 primeros pacientes y una distribución de los perfiles
de estos pacientes. Finalmente se presenta un estudio de simulación que tiene por finalidad
estudiar el efecto del tamaño de muestra en la estimación de los parámetros en el contexto
de la aplicación de este estudio.
|
15 |
Creación de una Metodología para el Levantamiento de un Panel de Clientes, a Partir de Datos Almacenados en un DatawarehouseNavarrete Guajardo, Carolina Viviana January 2010 (has links)
Este trabajo tiene como objetivo la creación de un panel de clientes de una institución bancaria, que permitiera el cálculo de indicadores de su comportamiento a través del tiempo con el fin de observar el efecto de acciones comerciales de dicha entidad.
El foco investigativo fue diseñar una metodología adecuada para lograr una muestra representativa y de calidad de los 8.297.628 clientes del segmento personas, que pudiera ser mantenida y que asegurara entregar la información requerida en el tiempo.
Para su construcción se revisó la bibliografía de datos de panel, lo que permitió realizar un consolidado de los tópicos estadísticos que sustentan la presente tesis, destacando las ventajas del uso de datos de panel, sus diseños y la teoría base de toda inventigación que utiliza muestras.
Para asegurar que el panel fuera una solución efectiva al problema de negocio, se decidió elegir las variables en las que el panel pudiera entregar mediciones con un cierto nivel de confianza. A través del estudio de la información disponible y entrevistas con ejecutivos, se determinó que las variables de interés del panel serían: transaccionalidad de canales, tenencia de productos, volumen del negocio y uso de productos cruzados.
Las grandes diferencias del valor de dichas variables y la alta variabilidad en el número de individuos en los distintos cruces de la población objetivo hicieron concluir que el panel correspondería a una muestra aleatoria estratificada – no equilibrada .
Para la selección de las variables de estratificación se realizó un estudio de las distribuciones poblacionales en las variables clasificadoras de los clientes, dejando como candidatas aquellas con información completa (al menos 97%) y que presentaban una concentración mayor al 50% en al menos un nivel. Las variables seleccionadas fueron: segmento, renta, región y GRS (grupo de relación similar, creados en base a la tenencia de productos de los clientes). Luego de demostrar dichas variables tenían un efecto no nulo en las variables de interés del panel, a través de las pruebas de contraste de Games-Howell se definieron los niveles de corte, obteniendo un total de 312 estratos.
El tamaño de muestra, 49.770, fue calculado en base al objetivo de cumplir con la estimación de proporciones en varios niveles. La extracción de clientes no resultó constante para cada estrato. El desbalance de la muestra obtenida respecto a la población hizo necesaria la utilización de ponderadores para calibrar el panel, devolviéndole así la representatividad de la población total de clientes.
Los principales resultados de este trabajo son la estructuración de la información, el levantamiento del panel y la automatización de procesos: para extraer la muestra, calcular los ponderadores y obtener las métricas de comportamiento de clientes.
Para validar, se contrastó la mayor cantidad de información poblacional disponible con las estimaciones del panel, obteniendo errores inferiores al 3%. Dicho proceso permitió concluir que las decisiones de diseño tomadas favorecían el control del panel y aportaban flexibilidad en el manejo de información de los clientes de la institución, al permitir la estimación en 176 dimensiones con bajo error.
Finalmente, se concluyó que este trabajo posibilita realizar futuros estudios ad-hoc mediante la selección de clientes del panel para la aplicación de encuestas, así cómo análisis econométricos para estudios de comportamiento complejo. Sin embargo, como trabajo prioritario, se recomienda una exhaustiva revisión y perfeccionamiento de la calidad del data warehouse de la entidad.
|
16 |
Deserción universitaria: una propuesta para determinar un modelo de estimación de las causas de deserción y selección de grupos de intervenciónCortés Fontcuberta Abucci, Manuel Pedro 13 December 2013 (has links)
Los estudios de deserción se han concentrado generalmente en el alumno buscándose a través de una o más decisiones explicar su origen y tratar de perfilarlo. Los recientes estudios se concentran en ciertas variables orientadas al compromiso y “engagement” con la institución. Sin embargo, si bien se ha mencionado los efectos de las expectativas de los alumnos respecto a la validación de sus propias habilidades las propuestas ofrecidas, poco se ha investigado sobre el imaginario que el alumno trae y la formación de sus expectativas de éxito, del servicio a recibir y de toda la experiencia de estar en la universidad.
La propuesta presentada busca evaluar no sólo las variables ya utilizadas en los estudios pasados sino la creación de un set de variables que permitan no solo incorporar las expectativas sino la diferencia entre esa expectativa y lo que encuentra durante las primeras semanas de estudio en la universidad. El gap que se genere y las características socio-demográficas así como intelectuales y de aptitud y actitud pueden determinar el grado de motivación y energía que el alumno ponga al momento de ser parte de la Universidad.
Adicionalmente la propuesta incluye una estimación del costo de la deserción desde el punto de vista de una institución privada buscando demostrar o estimar montos que pueden ser invertidos en reducir la deserción y que reditúan no solo en beneficio económico pero que se asocian directamente a la misión y visión y además reducen el costo social de este fenómeno que crece exponencialmente en la mayoría de sistemas universitarios de Latinoamérica y el mundo.
Además de ello se propone determinar a partir de esta propuesta un modelo para determinar que alumnos dentro del grupo de riesgo tienen una mayor probabilidad de ser impactados a través de los programas de apoyo de UPC. Los recursos destinados a cualquier acción son siempre escasos y hay variables que no son fácilmente modificables. Cuando esto se da es necesario concentrar los esfuerzos de reducción de las tasas de attrition a los grupos de mayor impacto.
El modelo está dirigido principalmente al estudiante de pre grado regular. Utilizamos este término para diferenciar de la población adulta que trabaja y que opta por el programa EPE. Si bien es cierto, pruebas y cuestionarios similares pueden aplicarse a esta población, es necesario incluir otras variables que capturen la idiosincrasia y las razones que tiene un adulto para volver o iniciar la universidad y los factores “ambientales” que lo circunscriben.
Dadas estas condiciones se puede apreciar que la reducción del 1% en la tasa de attrition del primer año de estudios incrementa la rentabilidad de una carrera en cerca de 3 puntos porcentuales de su TIR.
El presente trabajo de investigación no sólo representa un aporte a UPC sino también a la investigación sobre las razones de la deserción. / Tesis
|
17 |
Diseño de Demanda Restringida (Constrained) por Origen-Destino para una Línea Aérea Nacional Mediante Herramienta de SimulaciónGarcía Saavedra, Juan Pablo January 2010 (has links)
Memoria para optar al título de Ingeniero Civil Industrial / El presente trabajo de título tuvo como objetivo principal mejorar el proceso de estimación de demanda, encontrando además la demanda constrained o restringida por origen-destino para toda la red de LAN Airlines. Para ello se desarrolló un modelo basado en herramientas de simulación, que permitiese encontrar las soluciones objetivo en un tiempo práctico, considerando el tamaño y complejidad de la red en cuestión.
Un modelo que permitiese conocer la demanda por origen-destino se hizo necesario pues en los últimos años se ha desarrollado una nueva tendencia en la administración de redes aéreas, en donde se busca mirar el tránsito de pasajeros por origen y destino real en la red, y no analizar aisladamente cada tramo (arco en una red) para luego intentar juntarlos. Esto hace muy complejo el desarrollo de pronósticos por origen-Destino, pues existe una cantidad no menor de influencias sobre un único par de estos.
Para LAN Airlines este tema ha sido discutido hace un par de años y se ha hecho necesario el desarrollo de un modelo que permita conocer la demanda por origen-destino-punto de venta en toda la red, en base a los pronósticos ya otorgados por un proveedor. El gran dilema de los datos de proyección provistos, es que estos no tienen asociada una restricción de capacidad en la red de LAN, por lo que son sobre valorados y por lo tanto no generan una información que pueda usarse para la toma de decisiones en el día a día. Dentro de estas decisiones se encuentran la cancelación de vuelos, la combinación de pasajeros a un mismo avión, aumento de frecuencia para un mismo día, entre otras.
Así se desarrolló un modelo que logró capturar gran parte de las variables importantes a la hora de analizar el negocio mismo a nivel de reservas y cancelaciones, obteniendo finalmente la demanda restringida o constrained. Los resultados fueron expuestos de manera que se explicarán además los errores respecto de la realidad, mostrando muy buenos resultados en los negocios Doméstico Chile e Internacional.
Además del desarrollo mismo de la herramienta, y su posterior evaluación, se expuso el potencial impacto que podría tener la implementación del modelo, asumiendo que este se enmarcaba en un conjunto de prácticas asociadas a la toma de decisiones operacionales. Así fue como se argumentó que el potencial impacto provocaría un aumento en las utilidades mensuales de un 2,14%, logrando percibir ingresos por 203 MM USD.
Es importante señalar que esta información ya está siendo ocupada para la toma de decisiones que, sumada a otros indicadores, logra armar un portafolio de información presente semana a semana en reuniones para decisiones tácticas y operacionales.
|
18 |
Estimación y segmentación de movimiento basado en regiones y su aplicación a tareas de monitorización de tráficoBadenas Carpio, Jorge 28 May 2001 (has links)
La presente Tesis trata sobre la aplicación de técnicas de visión por ordenador al problema de la monitorización del tráfico. Con este objetivo, se han estudiado y desarrollado diversas técnicas, como la segmentación, estimación de movimiento, seguimiento, etc., que de manera entrelazada permiten obtener un sistema de control de tráfico basado en visión. Como principales tareas de dicho sistema podemos citar: medición del volumen del tráfico, seguimiento de trayectorias de los vehículos, y la detección de diversas situaciones anómalas, como vehículos parados, invasiones de carriles contrarios, etc.El método de segmentación que se muestra en el Capítulo 2 divide cada imagen en regiones uniformes. Entre otras características, esta técnica está basada en la técnica de las k-medias, es no supervisado, se adapta automáticamente a imágenes con cualquier número de objetos y ofrece un excelente comportamiento frente a la principal de nuestras exigencias: no mezclar píxeles de diferentes objetos en una misma región.Las regiones extraídas para cada imagen son tomadas por un proceso de segmentación basada en movimiento que une las que corresponden a la proyección de un mismo objeto. Se asume que dos regiones adyacentes pertenecen a un mismo objeto si sus parámetros de movimiento son coherentes. Dichos parámetros se estiman mediante un método basado en el cálculo de la Diferencia de la Imagen Desplazada, y que emplea estimadores robustos y una estrategia multiresolución.El Capítulo 4 trata de hacer uso de una idea no del todo explotada hasta ahora: ir acumulando (integrar) la información obtenida tras el procesamiento de cada imagen de la secuencia, para hacer uso de ella en el tratamiento de cada nueva imagen. De esta forma las estimaciones son más acertadas (se dispone de mayor información) y la influencia de los errores tiende a ser menor. La integración de los parámetros de movimiento frecuentemente se encuentra en la bibliografía por medio de filtros como el de Kalman. En esta Tesis se plantea un tipo de integración temporal que a penas ha sido estudiado en la literatura: la integración temporal morfológica. Básicamente consiste en fundamentar la segmentación de cada nueva imagen en todas las segmentaciones de las imágenes previas y en la información obtenida a partir del proceso de seguimiento. Esto, además, permite introducir una nueva técnica llamada segmentación virtual que permite reducir el coste de computación. Las técnicas propuestas se han verificado en diversas secuencias de tráfico, tanto urbano como de carretera, que se presentan a lo largo del documento. Los resultados muestran que el sistema implementado es capaz de trabajar en tiempo real, sin emplear un hardware dedicado y de alto coste, y dando una adecuada respuesta a las tareas que se le demandan.
|
19 |
Estimación de parámetros y efectos de los huecos de tensión en la máquina de inducción trifásicaJaramillo Matta, Adolfo Andrés 09 December 2010 (has links)
En esta tesis se diseña una técnica de estimación de parámetros constantes para los modelos de jaula sencilla y doble jaula sin pérdidas en el entrehierro de la máquina de inducción trifásica, que parte de los datos del fabricante para obtener trayectorias de comportamiento teórico, llamada Torque-Speed-Tracking. También se diseña una técnica para la estimación de parámetros variables para el modelo de jaula sencilla cuyo comportamiento resultante se compara con el obtenido con el modelo de doble jaula de parámetros constantes; esta técnica parte de medidas experimentales y modela cada parámetro con una función polinómica de coeficientes constantes. Finalmente se utilizan los parámetros constantes obtenidos para analizar los efectos de los huecos de tensión al utilizar los modelos mencionados y se clasifican dichos huecos en función de su severidad en los picos de intensidad, par y deslizamiento en una máquina de inducción trifásica. / In this doctoral thesis a technique has been designed for the constant parameters estimation for the single- and double-cage models, without air gap losses, of the three-phase induction machine; this technique is called Torque- Speed-Tracking, and obtains a path of theoretical behaviour from the manufacturer's data. Also, a technique for the estimation of four variable parameters for the single-cage model has been designed, whose resulting behaviour is compared with the obtained one with the double-cage model with constant parameters; in this technique each parameter is modelled with a polynomial function with constant coefficients, from experimental measurements. Finally, the obtained constant parameters are used to analysing the effects of voltage dips/sags using the listed models. The voltage dips/sags are classified in terms of their severity on peaks of: intensity, torque and slip, on a three-phase induction machine.
|
20 |
Estimación de proyectos de software pequeños basada en el juicio de expertosSantos, Silvana 14 October 2014 (has links)
Para poder contestar la pregunta de investigación de si es posible mejorar la estimación de esfuerzo medido en horas persona de los pequeños proyectos de software, investigamos en profundidad los diferentes métodos de estimación de productos de software basados en el juicio de expertos. Estos conocimientos nos ayudaron a resolver el problema que se presentó en una empresa multinacional cuando se planteó la necesidad de disminuir el porcentaje de error de proyectos pequeños de software para evitar la revisión del alcance. Para esto se diseñamos un método llamado MEBER que se aplicó a un conjunto de ocho proyectos típicos reales de la empresa, durante aproximadamente dos años. De esta manera podemos decir que el método es aplicable.
|
Page generated in 0.0421 seconds