• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 293
  • 24
  • 4
  • 3
  • 2
  • Tagged with
  • 328
  • 80
  • 73
  • 71
  • 66
  • 66
  • 66
  • 66
  • 66
  • 63
  • 54
  • 45
  • 44
  • 43
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Micro-simulación intermodal en la ciudad del Cusco empleando los software Vissim 8 y Viswalk 8

Álvarez Vargas, Jordy Wilber 15 May 2017 (has links)
El proyecto de ingeniería a desarrollar consta del estudio de una intersección ubicada en la ciudad de Cusco entre los distritos de Wanchaq y Cusco Cercado con el fin de evaluar las condiciones de los usuarios dentro de la misma. La evaluación se realizará mediante un modelo microscópico de tráfico (intersección), para luego presentar propuestas de mejoras a la situación inicial. El análisis se realizará a través de los softwares computacionales Vissim 8.0 y Viswalk 8.0. Estos programas son capaces de simular el tráfico vehicular y peatonal de una zona de interés específico basándose en los datos recolectados en campo (flujo vehicular, flujo peatonal, ciclos de semáforos, geometría, etc.). Para llevar a cabo este modelamiento, se procede a recrear la intersección virtualmente en los programasmencionados con todos los datos obtenidos en campo. Para conseguir la mayor similitud posible a la realidad, el modelo debe ser calibrado una vez terminado el procesamiento de datos. Esta calibración consta de ajustes numéricos entre la realidad y el modelo. En el caso de este estudio, se tomará en cuenta como parámetros de evaluación las longitudes de cola, la demora promedio y la velocidad promedio. Posteriormente, se procede a la validación del modelo, para lo cual se cambian los datos iniciales por nuevos datos de campo. Una vez terminado el modelo se procede a evaluar los parámetros de eficiencia y se propondrán alternativas según los resultados obtenidos. Estas pueden ser variaciones en términos de ciclos del semáforo hasta un rediseño vial si así ameritara el caso. En este proyecto, se plantearon tres propuestas con la finalidad de mejorar la situación actual del tráfico peatonal y vehicular. De ellas se escogió la de mayor factibilidad en cuanto a la posibilidad de evaluación que se podía desarrollar. Esta alternativa se conformó de la propuesta de modificación de la geometría de la zona de estudio y de la optimización de los ciclos y fases de los semáforos que actúan en la intersección trabajada. Las modificaciones planteadas generaron cambios positivos en cuanto a la situación inicial estudiada; ya que se redujeron parámetros de eficiencia importantes como la longitud de cola (se redujeron 16 metros) de vehículos en la avenida de mayor afluencia (Av. San Martin). Además, en cuanto a los usuarios de a pie se les brindó mayores facilidades para movilizarse a través de las avenidas de la intersección analizada. Esto debido a que, se propusieron mejoras para la circulación de usuarios con discapacidad. Asimismo, se brindó mayor tiempo para la circulación peatonal (24 segundos adicionales) en el cruce de la Avenida Tullumayo que es la de mayor circulación peatonal.
112

Valoración de los flujos de la comunicación interna en colaboradores de la I.E. 10024 Nuestra Señora de Fátima, Chiclayo, 2022

Puyén Chancafe, Deysi Eveling January 2024 (has links)
La presente investigación planteó describir la valoración de los flujos de comunicación interna en los colaboradores de la I.E. 10024 Nuestra Señora de Fátima, 2022 y como objetivos específicos se planteó: diagnosticar los tipos de comunicación interna, describir cuales son las herramientas de comunicación interna que utilizan los colaboradores e identificar cual es el flujo de comunicación interna que contribuiría en el proceso comunicacional de los colaboradores de la institución educativa. Para esto, se empleó la metodología cuantitativa de tipo descriptivo correlacional, no experimental, y el instrumento aplicado fue la encuesta a través de un cuestionario de 20 preguntas dirigido a 30 colaboradores de la institución educativa. La investigación demostró que la comunicación interna se practica frecuentemente de acuerdo a los flujos de comunicación entre los directivos y los colaboradores de la institución educativa y la conclusión a la que se llegó fue que una comunicación horizontal, permite una comunicación eficaz, participativa, asertiva, y sobre todo un ambiente laboral agradable. / The present investigation proposed to describe the evaluation of the internal communication flows in the collaborators of the I.E 10024 Nuestra Señora de Fátima, achieved specific objectives was to detect the types of internal communication, describe what are the internal communication tools used by the collaborators and identify the flow of internal communication that would contribute to the communication process of the collaborators of the educational institution. For this, the qualitative, non-experimental, descriptive correlational methodology was used, and the instrument applied was the survey through a questionnaire of 20 questions addressed to 30 employees of the educational institution. The research shows that internal communication is frequently practiced according to the communication flows between the managers and the collaborators of the educational institution.
113

Invasive and non-invasive assessment of upper airway obstruction and respiratory effort with nasal airflow and esophageal pressure analysis during sleep

Morgenstern de Muller, Christian Rudolf 25 February 2010 (has links)
La estimación del esfuerzo respiratorio durante el sueño es de una importancia crítica para la identificación correcta de eventos respiratorios en los trastornos respiratorios del sueño (TRS), el diagnóstico correcto de las patologías relacionadas con los TRS y las decisiones sobre la terapia correspondiente. Hoy en día el esfuerzo respiratorio suele ser estimado mediante la polisomnografía (PSG) nocturna con técnicas imprecisas y mediante la evaluación manual por expertos humanos, lo cual es un proceso laborioso que conlleva limitaciones significativas y errores en la clasificación. El objetivo principal de esta tesis es la presentación de nuevos métodos para la estimación automático, invasiva y no-invasiva del esfuerzo respiratorio y cambios en la obstrucción de las vías aéreas superiores (VAS). En especial, la aplicación de estos métodos debería permitir, entre otras cosas, la diferenciación automática invasiva y no-invasiva de eventos centrales y obstructivos durante el sueño. Con este propósito se diseñó y se obtuvo una base de datos de PSG nocturna completamente nueva de 28 pacientes con medición sistemática de presión esofágica (Pes). La Pes está actualmente considerada como el gold-standard para la estimación del esfuerzo respiratorio y la identificación de eventos respiratorios en los TRS. Es sin embargo una técnica invasiva y altamente compleja, lo cual limita su uso en la rutina clínica. Esto refuerza el valor de nuestra base de datos y la dificultad que ha implicado su adquisición. Todos los métodos de procesado propuestos y desarrollados en esta tesis están consecuentemente validados con la señal gold-standard de Pes para asegurar su validez.En un primer paso, se presenta un sistema automático invasivo para la clasificación de limitaciones de flujo inspiratorio (LFI) en los ciclos inspiratorios. La LFI se ha definido como una falta de aumento en flujo respiratorio a pesar de un incremento en el esfuerzo respiratorio, lo cual suele resultar en un patrón de flujo respiratorio característico (flattening). Un total de 38,782 ciclos respiratorios fueron automáticamente extraídos y analizados. Se propone un modelo exponencial que reproduzca la relación entre Pes y flujo respiratorio de una inspiración y permita la estimación objetiva de cambios en la obstrucción de las VAS. La capacidad de caracterización del modelo se estima mediante tres parámetros de evaluación: el error medio cuadrado en la estimación de la resistencia en la presión pico, el coeficiente de determinación y la estimación de episodios de LFI. Los resultados del modelo son comparados a los de los dos mejores modelos en la literatura. Los resultados finales indican que el modelo exponencial caracteriza la LFI y estima los niveles de obstrucción de las VAS con la mayor exactitud y objetividad. Las anotaciones gold-standard de LFI obtenidas, fueron utilizadas para entrenar, testear y validar un nuevo clasificador automático y no-invasivo de LFI basa en la señal de flujo respiratorio nasal. Se utilizaron las técnicas de Discriminant Analysis, Support Vector Machines y Adaboost para la clasificación no-invasiva de inspiraciones con las características extraídas de los dominios temporales y espectrales de los patrones de flujo inspiratorios. Este nuevo clasificador automático no-invasivo también identificó exitosamente los episodios de LFI, alcanzando una sensibilidad de 0.87 y una especificidad de 0.85. La diferenciación entre eventos respiratorios centrales y obstructivos es una de las acciones más recurrentes en el diagnostico de los TRS. Sin embargo únicamente la medición de Pes permite la diferenciación gold-standard de este tipo de eventos. Recientemente se han propuesto nuevas técnicas para la diferenciación no-invasiva de apneas e hipopneas. Sin embargo su adopción ha sido lenta debido a su limitada validación clínica, ya que la creación manual por expertos humanos de sets gold-standard de validación representa un trabajo laborioso. En esta tesis se propone un nuevo sistema para la diferenciación gold-standard automática y objetiva entre hipopneas obstructivas y centrales. Expertos humanos clasificaron manualmente un total de 769 hypopneas en 28 pacientes para crear un set de validación gold-standard. Como siguiente paso se extrajeron características específicas de cada hipopnea para entrenar y testear clasificadores (Discriminant Analysis, Support Vector Machines y adaboost) para diferenciar entre hipopneas centrales y obstructivas mediante la señal gold-standard Pes. El sistema de diferenciación automática alcanzó resultados prometedores, obteniendo una sensibilidad, una especificad y una exactitud de 0.90. Por lo tanto este sistema parece prometedor para la diferenciación automática, gold-standard de hipopneas centrales y obstructivas. Finalmente se propone un sistema no-invasivo para la diferenciación automática de hipopneas centrales y obstructivas. Se propone utilizar la señal de flujo respiratorio para la diferenciación utilizando características de los ciclos inspiratorios de cada hipopnea, entre ellos los patrones flattening. Este sistema automático no-invasivo es una combinación de los sistemas anteriormente presentados y se valida mediante las anotaciones gold-standard obtenidas mediante la señal de Pes por expertos humanos. Los resultados de este sistema son comparados a los resultados obtenidos por expertos humanos que utilizaron un nuevo algoritmo no-invasivo para la diferenciación manual de hipopneas. Los resultados del sistema automático no-invasivo son prometedores y muestran la viabilidad de la metodología empleada. Una vez haya sido validado extensivamente, se ha propuesto este algoritmo para su utilización en dispositivos de terapia de TRS desarrollados por uno de los socios cooperantes en este proyecto. / The assessment of respiratory effort during sleep is of major importance for the correct identification of respiratory events in sleep-disordered breathing (SDB), the correct diagnosis of SDB-related pathologies and the consequent choice of treatment. Currently, respiratory effort is usually assessed in night polysomnography (NPSG) with imprecise techniques and manually evaluated by human experts, resulting in a laborious task with significant limitations and missclassifications.The main objective of this thesis is to present new methods for the automatic, invasive and non-invasive assessment of respiratory effort and changes in upper airway (UA) obstruction. Specifically, the application of these methods should, in between others, allow the automatic invasive and non-invasive differentiation of obstructive and central respiratory events during sleep.For this purpose, a completely new NPSG database consisting of 28 patients with systematic esophageal pressure (Pes) measurement was acquired. Pes is currently considered the gold-standard to assess respiratory effort and identify respiratory events in SDB. However, the invasiveness and complexity of Pes measurement prevents its use in clinical routine, underlining the importance of this new database. . . All the processing methods developed in this thesis will consequently be validated with the gold-standard Pes-signal in order to ensure their clinical validity.In a first step, an (invasive) automatic system for the classification of inspiratory flow limitation (IFL) in the inspiratory cycles is presented.IFL has been defined as a lack of increase in airflow despite increasing respiratory effort, which normally results in a characteristic inspiratory airflow pattern (flattening). A total of 38,782 breaths were extracted and automatically analyzed. An exponential model is proposed to reproduce the relationship between Pes and airflow of an inspiration and achieve an objective assessment of changes in upper airway obstruction. The characterization performance of the model is appraised with three evaluation parameters: mean-squared-error when estimating resistance at peakpressure,coefficient of determination and assessment of IFL episodes. The model's results are compared to the two best-performing models in the literature. The results indicated that the exponential model characterizes IFL and assesses levels of upper airway obstruction with the highest accuracy and objectivity.The obtained gold-standard IFL annotations were then employed to train, test and validate a new automatic, non-invasive IFL classification system by means of the nasal airflow signal. Discriminant Analysis, Support Vector Machines and Adaboost algorithms were employed to objectively classify breaths non-invasively with features extracted from the time and frequency domains of the breaths' flow patterns. The new non-invasive automatic classification system also succeeded identifying IFL episodes, achieving a sensitivity of 0.87 and a specificity of 0.85.The differentiation between obstructive and central respiratory events is one of the most recurrent tasks in the diagnosis of sleep disordered breathing, but only Pes measurement allows the gold-standard differentiation of these events. Recently new techniques have been proposed to allow the non-invasive differentiation of hypopneas. However, their adoption has been slow due to their limited clinical validation, as the creation of manual, gold-standard validation sets by human experts is a cumbersome procedure. In this study, a new system is proposed for an objective automatic, gold-standard differentiation between obstructive and central hypopneas with the esophageal pressure signal. An overall of 769 hypopneas of 28 patients were manually scored by human experts to create a gold-standard validation set. Then, features were extracted from each hypopnea to train and test classifiers (Discriminant Analysis, Support Vector Machines and adaboost classifiers) to differentiate between central and obstructive hypopneas with the gold-standard esophageal pressure signal. The automatic differentiation system achieved promising results, with a sensitivity of 0.82, a specificity of 0.87 and an accuracy of 0.85. Hence, this system seems promising for an automatic, goldstandard differentiation between obstructive and central hypopneas.Finally, a non-invasive system is proposed for the automatic differentiation of central and obstructive hypopneas. Only the airflow signal is used for the differentiation, as features of the inspiratory cycles of the hypopnea, such as the flattening patterns, is used. The automatic, non-invasive system represents a combination of the systems that have been presented before and it was validated with the gold-standard scorings obtained with the Pes-signal by human experts. The outcome is compared to the results obtained by human scorers that applied a new non-invasive algorithm for the manual differentiation of hypopneas. The non-invasive system's results are promising and show the viability of this technique. Once validated, this algorithm has been proposed to be used in therapy devices developed by one of the partner institutions cooperating in this project.
114

Evaluación y análisis del comportamiento de los flujos de escombros en la quebrada Cashahuacra de la subcuenca Santa Eulalia mediante el uso de FLO-2D

Zegarra Muñante, Mariana 28 August 2023 (has links)
El flujo de escombros es el fenómeno de movimiento de masas más frecuente en el Perú. Parámetros como su fuerza de impacto, velocidad de desarrollo del flujo y distancia de recorrido, combinados con su baja predictibilidad hacen de este fenómeno uno de los más peligrosos para los asentamientos y las actividades humanas vulnerables al mismo. Algunas consecuencias son el fallecimiento de personas, daños estructurales y afectaciones socioeconómicas a la población. Se lo conoce y es el quinto fenómeno que más personas y viviendas afectadas ocasionó en el intervalo de 2003 a 2018 en el Perú. Esta cifra demuestra que el Perú es un país altamente susceptible a desastres originados por flujos de escombros. No obstante, hasta la actualidad no existe un buen entendimiento del fenómeno en mención. Por lo expuesto anteriormente, esta investigación pretende realizar estudios de los flujos de escombros, los cuales permitan comprender el comportamiento de la dinámica de los mismos desde su origen hasta su deposición. Para lograrlo, se realizó el modelamiento de los flujos de escombros en la quebrada Cashahuacra ubicada en la parte baja de la subcuenca Santa Eulalia perteneciente a la cuenca del río Rímac. Esta simulación se efectuó mediante el uso de un modelo bidimensional de diferencias finitas denominado FLO 2D. Con el fin de lograrlo, se realizó una evaluación de los aspectos topográficos, geotécnicos, geomorfológicos, reológicos e hidrológicos. Además, se determinaron los parámetros más sensibles en el modelamiento de los flujos de escombros con el propósito de obtener una estimación ajustada a la realidad. Como consecuencia de estos procedimientos, se generaron los mapas de peligro correspondientes a la quebrada Cashahuacra para diferentes periodos de retorno. Gracias a esto, se pudo determinar las áreas con mayor susceptibilidad a ser afectadas en caso de que se presente un evento de precipitación extrema. Se realizó la calibración del modelo comparando el volumen depositado para un evento de Tr=500 años y la validación se realizó comparando los mapas de peligro con mapas temáticos de peligro geotécnico en Santa Eulalia - Lima. Además, se comprobó que el modelo FLO-2D favorece el entendimiento de los flujos de escombros al facilitar la comprensión de sus potencialidades y limitaciones. Esta información podrá ser aplicada a futuros estudios para la determinación de medidas preventivas y mitigantes ante la avenida de flujos de escombros. De la misma forma, contribuirá al mejor entendimiento de los flujos de escombros en el Perú. Además, aportará a la generación de mapas de riesgos, los cuales permitirán una mejor gestión de los recursos hídricos. Ello, a su vez, a la obtención de parámetros necesarios para el diseño de elementos de contención y prevención. De esta manera, se busca disminuir las cifras en pérdidas económicas y de vidas humanas ocasionadas por los flujos de escombros.
115

Planificación del Almacenamiento de los Productos de la Empresa SQM en el Puerto de Tocopilla, con el Fin de Minimizar los Costos

Ureta Messina, Felipe 15 April 2010 (has links)
SQM es líder mundial en sus tres principales líneas de negocio: Nutrición vegetal de especialidad, Yodo y Litio, superando los 1,800 millones de dólares en ventas y contando con oficinas comerciales en más de 20 países, lo que permite que sus fórmulas de negocio lleguen a clientes en 110 países de Europa, América, Asia, África y Oceanía. El almacenamiento de los productos en el puerto de Tocopilla, es uno de los procesos más relevante para la empresa. Diariamente llegan aproximadamente 4.000 toneladas de productos a dicho puerto, por lo que los costos de almacenamientos es un tema a considerar. Existen 14 canchas y 6 silos que tienen distintos costos, donde se acumulan los productos, por lo que una buena decisión de donde dejar cada producto puede producir ahorros considerables. Este trabajo se centra en planificar el almacenamiento de los productos mediante un modelo de programación lineal, resuelta con el solver CPLEX, que permita optimizar los costos asociados al proceso y poder darle una visión a largo plazo, con la cual no se cuenta hoy en día. Se logró hacer una interfaz amigable y fácil de usar, la que se programó en Visual Basic, del programa Excel. La herramienta logró quitarle el paradigma de que los productos son para una cancha determinada y permitirle al modelo decidir donde almacenar cada producto. Se tuvo problemas de capacidad máxima de memoria en la herramienta, por lo que solo se pudo dar una visión a 3 meses, lo que supera el tiempo promedio de permanencia de los productos en el puerto. No se pudo modelar una restricción, que corresponda al espacio perdido por agregar más de un producto a una misma cancha. Finalmente se pudo analizar de que el puerto sí tiene la capacidad para un aumento de producción por parte de las minas, ya que si se tiene un buen ordenamiento de lo productos, es posible poder producir y vender mayores cantidades. Se estimó que pueden haber ahorros de un 3.1% en los costos anuales de almacenamiento y embarque de los productos de la empresa.
116

Modelación térmica del suelo alrededor de tubos enterrados en sistemas de colección de energía geotérmica de baja entalpía

Zenteno Arenas, Alonso Gonzalo January 2013 (has links)
Ingeniero Civil Mecánico / Los sistemas de climatización con energía geotérmica, aprovechan la estabilidad de temperatura que tiene el subsuelo para extraer calor de la vivienda y transferirlo al suelo, o de forma inversa, extraer calor del suelo y transferirlo a la vivienda (depende si se trata de invierno o verano). Para realizar esto se usan tubos enterrados en que se hace circular un fluido interiormente para transportar el calor. En la literatura se proponen métodos incompletos para calcular la capacidad de transferencia entre los tubos enterrados y el suelo, ya que no se considera la modificación de temperatura del suelo alrededor de los tubos enterrados. En este trabajo, usando simulaciones numéricas, se resuelve el campo de temperaturas alrededor de los tubos en función del tiempo y se determina la resistencia térmica del suelo. Usando los resultados de estas simulaciones, se propone una fórmula (en función de las variables relevantes) para estimar de forma sencilla el promedio de capacidad de transferencia que tendrá un tubo. Se realizan simulaciones con 2 y 3 tubos paralelos, para evaluar la disminución de la capacidad de transferir calor debido a la interferencia térmica que se produce entre tubos cercanos. Estos resultados muestran que el espaciado, es un factor importante a la hora de diseñar un circuito de tubos enterrados, ya que con arreglos muy compactos se disminuye en más un 50% la capacidad de captar calor. Con los resultados de las simulaciones se evalúan cuatro casos, para determinar cuán importante es agregar la resistencia térmica del suelo, a las conocidas y bien estudiadas resistencias térmicas de la pared del tubo y del fluido interno. De forma general, el suelo restringe el flujo de calor (más que la pared y el fluido interno) y se vuelve el elemento clave para determinar la capacidad de transferencia. Cuantificar este fenómeno, permite diseñar sistemas de colección, tomando en cuenta la resistencia térmica del suelo y determinar correctamente la capacidad de transferir calor. Así, se puede generar una solución acorde a la demanda térmica requerida.
117

Modelos de optimización para la operación eficiente de sistemas eléctricos de potencia bajo criterios probabilísticos y determinísticos de seguridad de suministro

Zuloaga Royo, Felipe Alejandro January 2015 (has links)
Ingeniero Civil Eléctrico / El constante aumento de la demanda de energía eléctrica ha supuesto un gran desafío para los operadores de sistemas eléctricos, puesto que deben proveer energía a través del sistema de forma económica y confiable. Por suministro confiable se entenderá que éste sea continuo, independiente de si el sistema se encuentra en su estado intacto (planificado) o con fallas. Actualmente existen dos grandes criterios de seguridad para operar sistemas eléctricos, el criterio probabilístico y el determinístico. El criterio probabilístico minimiza costos de operación, de acciones de control y de demanda no suministrada en base a todos los estados posibles del sistema. El criterio determinístico por otro lado, define un conjunto de fallas creíbles que no afectan al sistema (no generan demanda no suministrada) para luego operar bajo este paradigma. Ninguno de estos modelos incorpora una medida de riesgo para la operación, existiendo por ende una incertidumbre respecto a la vulnerabilidad que presentaría el sistema frente a posibles fallas, razón por la cual se propone abordar esta deficiencia. Una métrica comúnmente usada como medida de riesgo es el Valor en Riesgo Condicional. Esta medida considera eventos en la cola de la curva de probabilidad, es decir, aquellos eventos que tienen una muy baja probabilidad de ocurrencia pero alto impacto. Esta memoria examina los modelos determinísticos y probabilísticos clásicos, para luego proponer un modelo que considera la energía no suministrada como índice de riesgo mediante un Valor en Riesgo Condicional. El Valor en Riesgo Condicional considera eventos en la cola de la curva de probabilidad, que si bien tienen una baja probabilidad de ocurrencia, pueden tener un alto impacto en la operación del sistema. Con esto se le exige un mínimo de confiabilidad a la operación, limitando el riesgo asociado a los eventos catastróficos (i.e. de baja probabilidad y alto impacto). Se evaluará la confiabilidad que aportan las restricciones de límites de riesgo a nivel sistémico (disminuir el riesgo de demanda no suministrada del sistema como conjunto) y límite de riesgo a nivel nodal (disminuir el riesgo de demanda no suministrada por nodo). Los resultados confirman que la integración de estas restricciones permite operar el sistema de una manera más segura y confiable. El modelo propuesto disminuye sustancialmente el efecto de los eventos catastróficos. La versión de limitaciones de riesgo nodal, muestra que el corte de demanda equitativo (corte que se realiza nodo a nodo en proporción a la demanda conectada) se puede lograr en base a una correcta administración post-falla. Asimismo, los tiempos de cómputo son extremadamente bajos por lo que el modelo puede ser aplicado en sistemas complejos.
118

Calibración y desarrollo de Flowsim mediante la utilización de trazadores inteligentes

Fuentes Bustamante, Matías Ignacio January 2015 (has links)
Ingeniero Civil de Minas / El estudio de flujo gravitacional es fundamental en la minería subterránea por block/panel caving debido a su directa relación con la planificación minera, entregando información como el tipo y cantidad de material extraído, secuencia de extracción, leyes y recuperación. Debido a lo anterior, contar con herramientas computacionales que permitan modelar este fenómeno es de gran ayuda para realizar de la mejor manera las operaciones mineras. Dentro del ámbito del modelamiento de flujo gravitacional, Flowsim es un simulador basado en el concepto de autómatas celulares implementado en lenguaje C++, el cual permite realizar trabajos de forma más sencilla, rápida y con una gran calidad en los resultados. En el presente trabajo se utiliza esta herramienta con el objetivo de evaluar su funcionamiento y resultados mediante el modelamiento de diferentes casos de estudio a nivel experimental y a nivel industrial. Además se utilizan nuevas características del simulador para el trabajo con trazadores y se agrega un nuevo mecanismo para el modelamiento de la subsidencia. Los casos de estudio tratados son el análisis de trazadores recuperados a nivel mina, resultados experimentales obtenidos a partir de modelos físicos y simulaciones predictivas de 370 puntos de extracción pertenecientes a la mina Esmeralda, división El Teniente, focalizando el estudio en el funcionamiento de Flowsim para el cálculo de zonas de extracción, leyes, punto de entrada de material quebrado, y el tiempo de simulación. Los resultados muestran que Flowsim es capaz de replicar los resultados de zonas de flujo obtenidos con trazadores inteligentes en mina con diferencias de 9.7 [%]. Los casos experimentales e industriales analizados con el simulador calibrado muestran una leve tendencia a sobreestimar el punto de entrada de quebrado. Las simulaciones se realizan un 50 [%] más rápido a lo realizado por Rebop, simulador de flujo gravitacional desarrollado por Itasca, mientras que los valores entregados para las variables analizadas son muy similares entre ambos simuladores, variando en porcentajes menores al 5[%]. Las nuevas funciones de Flowsim, como el trabajo con trazadores y el mecanismo de rilling, aumentan las capacidades del simulador, pudiendo llevar a cabo nuevos análisis para la planificación minera. Los trazadores permiten establecer la recuperación para diferentes mallas de extracción y estudiar el comportamiento de los elipsoides de extracción. El mecanismo de rilling permite comprobar la morfología de la superficie y los resultados de su implementación muestra diferencias menores al 2 [%] con respecto a los resultados de modelos físicos. Finalmente, los resultados muestran que Flowsim es una potente herramienta de planificación en desarrollo, que, debido a su versatilidad, permite trabajar e implementar nuevos mecanismos como el trabajo con trazadores y el concepto de rilling, entregando resultados de forma rápida, simple y eficaz.
119

Secuenciamiento optimizado considerando regla de mezcla

Arriagada Arenas, Francisca del Carmen January 2015 (has links)
Ingeniera Civil de Minas / Para la estimación de reservas en block caving existen metodologías manuales que están basadas en principios de mezcla propuestos hace muchos años, como la mezcla vertical determinada por Laubscher. Esta problemática se ha estudiado mediante investigaciones del flujo gravitacional a través de modelos físicos y matemáticos. Dentro de los modelos matemáticos, se destaca Rebop, como un modelo de flujo gravitacional basado en balances de masa y criterios mecánicos del caving, que permiten modelar de forma más asertiva el fenómeno del caving incluyendo la mezcla vertical y horizontal.. Estas metodologías manuales también cuentan con criterios de optimización, en particular se encuentra la metodología de costo de oportunidad, la cual incorpora el costo de procesar mineral de baja ley, cuando es posible enviar a planta un mineral de mejor ley. Por lo anterior, el presente trabajo busca desarrollar un estudio exploratorio de una metodología que determina una secuencia optimizada, mediante la incorporación de un modelo de optimización de secuencia UDESS, que tiene como función objetivo maximizar el valor presente neto (VPN) del proyecto, junto con utilizar el software de flujo gravitacional Rebop, el que obtiene una mezcla más precisa. Posteriormente, los resultados de la metodología de UDESS y Rebop, serán comparados con un procedimiento manual de planificación llamado marginalista el que considera mineral todo lo que se encuentra sobre la ley de corte sobre una secuencia determinada con anterioridad. Para el desarrollo del trabajo se realizaron 4 casos que difieren en la distribución de las leyes y en las alturas de columna en su modelo de bloques. Como resultado todas las secuencias optimizadas, se muestra una disminución en la cantidad de dilución extraída, llegando a más de un 50% menos. Mientras que respecto al VPN en 3 de los casos aumenta en un rango del 7% al 20% dependiendo del caso. El único caso que disminuye, lo hace en un 1%, lo que se considera que está dentro del error permitido del modelo de optimización. Por otro lado, se determina que la distribución de leyes es más relevante que las alturas de columna in-situ, debido a que no se generan secuencias que extraigan proporcional a su altura de columna. Los resultados muestran que en el caso de un block caving, donde la dirección de la extracción es principalmente vertical, esta metodología funciona para obtener una secuencia que maximice el VPN dentro de un horizonte de tiempo determinado. Por lo tanto, se recomienda usar esta metodología tanto para una evaluación de un proyecto como para una planificación de corto plazo, que tenga como objetivo mejorar el VPN, dependiendo de la cantidad y calidad de la información con la que se cuenta. Respecto a las secuencias obtenidas con UDESS se estima que las restricciones que se incorporan son las necesarias para una secuencia de un macro-bloque extraído por block caving, con sus puntos abiertos y disponibles. Sin embargo, se recomienda precisar algunos parámetros como: la apertura de área por periodo, diferencia de altura extraída entre los vecinos, tasa de extracción por punto y discretización del modelo en UDESS. Cabe mencionar que para el uso de la herramienta de flujo, este se debe calibrar con datos mina para mejorar los resultados de simulación.
120

Valoración Compañía Cervecerías Unidas S.A. mediante método de flujo de caja descontado (FDC)

Jara Muñoz, Marta 07 1900 (has links)
Tesis para optar al grado de Magíster en Finanzas / A través del presente informe, se da a conocer una valoración económica, de la empresa chilena, Compañía Cervecerías Unidas S.A (CCU), al 30 de septiembre de 2014, utilizando el método de valoración, conocido como, Flujo de Caja Descontado (DCF). Para la construcción del flujo de caja, se utilizó la información de los Estados Financieros, presentados desde diciembre del año 2010, hasta septiembre del año 2014. Se analizó la empresa y la industria en la que opera, se determinó la estructura de capital que presenta, las perspectivas de inversión futura y de crecimiento, proyectándose los flujos de caja hasta el año 2018, más una perpetuidad a partir del año 2019 (sin perspectivas de crecimiento). Para el cálculo de la tasa de descuento se utilizó la tasa libre de riesgo de 1,91% (BTU-30), un premio por riesgo de mercado de un 5,93% y un beta de la empresa de 0, 9372 obteniendo una tasa costo capital (Wacc) de 7,01%. Lo anterior permitió determinar un precio estimado para la acción, al 30 de septiembre de 2014, de empresas CCU de $6.590, el cual comparado con el precio de cierre de las transacciones de la Bolsa de Comercio de Santiago, es tan solo un 0,07% superior (precio bolsa $6.585). Teniendo en consideración, los supuestos utilizados en el cálculo de la tasa de descuento, se realizó un análisis de sensibilidad, con el objetivo de apreciar cómo se afecta la valoración económica del precio de la acción de la Compañía, cuando cambia la tasa de descuento. Al respecto, se determinó que para rangos de tasas entre 7,01% y 8,51% el precio de la acción fluctúa entre $6.590 y $5.030, concluyendo por lo tanto, que el precio de mercado de la acción se encuentra en su precio justo.

Page generated in 0.0912 seconds