• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 295
  • 24
  • 4
  • 3
  • 2
  • Tagged with
  • 330
  • 81
  • 74
  • 72
  • 68
  • 68
  • 68
  • 68
  • 68
  • 65
  • 54
  • 46
  • 45
  • 44
  • 41
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Valoración de los flujos de la comunicación interna en colaboradores de la I.E. 10024 Nuestra Señora de Fátima, Chiclayo, 2022

Puyén Chancafe, Deysi Eveling January 2024 (has links)
La presente investigación planteó describir la valoración de los flujos de comunicación interna en los colaboradores de la I.E. 10024 Nuestra Señora de Fátima, 2022 y como objetivos específicos se planteó: diagnosticar los tipos de comunicación interna, describir cuales son las herramientas de comunicación interna que utilizan los colaboradores e identificar cual es el flujo de comunicación interna que contribuiría en el proceso comunicacional de los colaboradores de la institución educativa. Para esto, se empleó la metodología cuantitativa de tipo descriptivo correlacional, no experimental, y el instrumento aplicado fue la encuesta a través de un cuestionario de 20 preguntas dirigido a 30 colaboradores de la institución educativa. La investigación demostró que la comunicación interna se practica frecuentemente de acuerdo a los flujos de comunicación entre los directivos y los colaboradores de la institución educativa y la conclusión a la que se llegó fue que una comunicación horizontal, permite una comunicación eficaz, participativa, asertiva, y sobre todo un ambiente laboral agradable. / The present investigation proposed to describe the evaluation of the internal communication flows in the collaborators of the I.E 10024 Nuestra Señora de Fátima, achieved specific objectives was to detect the types of internal communication, describe what are the internal communication tools used by the collaborators and identify the flow of internal communication that would contribute to the communication process of the collaborators of the educational institution. For this, the qualitative, non-experimental, descriptive correlational methodology was used, and the instrument applied was the survey through a questionnaire of 20 questions addressed to 30 employees of the educational institution. The research shows that internal communication is frequently practiced according to the communication flows between the managers and the collaborators of the educational institution.
112

Inteligencia computacional en la programación de la producción con recursos adicionales

Alfaro Fernández, Pedro 26 October 2023 (has links)
[ES] En esta Tesis Doctoral se aborda el problema del taller de flujo de permutación considerando recursos adicionales renovables, que es una versión más realista del clásico problema de taller de flujo de permutación, muy estudiado en la literatura. La inclusión de los recursos ayuda a acercar el mundo académico-científico al mundo real de la industria. Se ha realizado una completa revisión bibliográfica que no se ha limitado a problemas del taller de flujo, sino que han revisado problemas similares del ámbito de scheduling que consideren recursos. En esta revisión, no se han encontrado en la literatura artículos para el problema concreto que se estudia en esta tesis. Por ello, la aportación principal de esta Tesis Doctoral es el estudio por primera vez de este problema y la propuesta y adaptación de métodos para su resolución. Inicialmente, el problema se modeliza a través de un modelo de programación lineal entera mixta (MILP). Dada la complejidad del problema, el MILP es capaz de resolver instancias de un tamaño muy pequeño. Por ello, es necesario adaptar, diseñar e implementar heurísticas constructivas y metaheurísticas para obtener buenas soluciones en un tiempo de computación razonable. Para evaluar la eficacia y eficiencia de los métodos propuestos, se generan instancias de problemas partiendo de los conjuntos más utilizados en la literatura para el taller de flujo de permutación. Se utilizan estas instancias propuestas tanto para calibrar los distintos métodos como para evaluar su rendimiento a través de experimentos computacionales masivos. Los experimentos muestran que las heurísticas propuestas son métodos sencillos que consiguen soluciones factibles de una forma muy rápida. Para mejorar las soluciones obtenidas con las heurísticas y facilitar el movimiento a otros espacios de soluciones, se proponen tres metaheurísticas: un método basado en búsqueda local iterativa (ILS), un método voraz iterativo (IG) y un algoritmo genético con búsqueda local (HGA). Todos ellos utilizan las heurísticas propuestas más eficaces como solución o soluciones iniciales. Las metaheurísticas obtienen las mejores soluciones utilizando tiempos de computación razonables, incluso para las instancias de mayor tamaño. Todos los métodos han sido implementados dentro de la plataforma FACOP (Framework for Applied Combinatorial Optimization Problems). Dicha plataforma es capaz de incorporar nuevos algoritmos de optimización para problemas de investigación operativa relacionados con la toma de decisiones de las organizaciones y está diseñada para abordar casos reales en empresas. El incorporar en esta plataforma todas las metodologías propuestas en esta Tesis Doctoral, acerca el mundo académico al mundo empresarial. / [CA] En aquesta Tesi Doctoral s'aborda el problema del taller de flux de permutació considerant recursos addicionals renovables, que és una versió més realista del clàssic problema de taller de flux de permutació, molt estudiat a la literatura. La inclusió dels recursos ajuda a apropar el món acadèmic-científic al món real de la indústria. S'ha realitzat una revisió bibliogràfica completa que no s'ha limitat a problemes del taller de flux, sinó que ha revisat problemes similars de l'àmbit de scheduling que considerin recursos. En aquesta revisió, no s'ha trobat a la literatura articles per al problema concret que s'estudia en aquesta tesi. Per això, l'aportació principal d'aquesta Tesi Doctoral és l'estudi per primera vegada d'aquest problema i la proposta i l'adaptació de mètodes per resoldre'ls. Inicialment, el problema es modelitza mitjançant un model de programació lineal sencera mixta (MILP). Donada la complexitat del problema, el MILP és capaç de resoldre instàncies d'un tamany molt petita. Per això, cal adaptar, dissenyar i implementar heurístiques constructives i metaheurístiques per obtenir bones solucions en un temps de computació raonable. Per avaluar l'eficàcia i l'eficiència dels mètodes proposats, es generen instàncies de problemes partint dels conjunts més utilitzats a la literatura per al taller de flux de permutació. S'utilitzen aquestes instàncies proposades tant per calibrar els diferents mètodes com per avaluar-ne el rendiment a través d'experiments computacionals massius. Els experiments mostren que les heurístiques proposades són mètodes senzills que aconsegueixen solucions factibles de manera molt ràpida. Per millorar les solucions obtingudes amb les heurístiques i facilitar el moviment a altres espais de solucions, es proposen tres metaheurístiques: un mètode basat en cerca local iterativa (ILS), un mètode voraç iteratiu (IG) i un algorisme genètic híbrid (HGA). Tots ells utilitzen les heurístiques proposades més eficaces com a solució o solucions inicials. Les metaheurístiques obtenen les millors solucions utilitzant temps de computació raonables, fins i tot per a les instàncies més grans. Tots els mètodes han estat implementats dins de la plataforma FACOP (Framework for Applied Combinatorial Optimization Problems). Aquesta plataforma és capaç d'incorporar nous algorismes d'optimització per a problemes de recerca operativa relacionats amb la presa de decisions de les organitzacions i està dissenyada per abordar casos reals a empreses. El fet d'incorporar en aquesta plataforma totes les metodologies proposades en aquesta Tesi Doctoral, apropa el món acadèmic al món empresarial. / [EN] In this Doctoral Thesis, the permutation flowshop problem is addressed considering additional renewable resources, which is a more realistic version of the classic permutation flowshop problem, widely studied in the literature. The inclusion of resources helps to bring the academic-scientific world closer to the real world of industry. A complete bibliographic review has been carried out that has not been limited to flow shop problems, but has reviewed similar problems in the scheduling field that consider resources. In this review, no articles have been found in the literature for the specific problem studied in this thesis. Therefore, the main contribution of this Doctoral Thesis is the study for the first time of this problem and the proposal and adaptation of methods for its resolution. Initially, the problem is modeled through a mixed integer linear programming (MILP) model. Given the complexity of the problem, the MILP is capable of solving very small instances. Therefore, it is necessary to adapt, design and implement constructive heuristics and metaheuristics to obtain good solutions in a reasonable computation time. In order to evaluate the effectiveness and efficiency of the proposed methods, problem instances are generated starting from the sets most used in the literature for the permutation flowshop. These proposed instances are used both to calibrate the different methods and to evaluate their performance through massive computational experiments. Experiments show that proposed heuristics are simple methods that achieve feasible solutions very quickly. To improve the solutions obtained with the heuristics and facilitate movement to other solution spaces, three metaheuristics are proposed: a method based on iterated local search (ILS), an iterative greedy method (IG) and a hybrid genetic algorithm (HGA). All of them use the most effective proposed heuristics as initial solution or solutions. Metaheuristics get the best solutions using reasonable computation times, even for the largest instances. All the methods have been implemented within the FACOP platform (Framework for Applied Combinatorial Optimization Problems). Said platform is capable of incorporating new optimization algorithms for operational research problems related to decision-making in organizations and it is designed to address real cases in companies. Incorporating in this platform all the methodologies proposed in this Doctoral Thesis, brings the academic world closer to the business world. / Alfaro Fernández, P. (2023). Inteligencia computacional en la programación de la producción con recursos adicionales [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/198891
113

Invasive and non-invasive assessment of upper airway obstruction and respiratory effort with nasal airflow and esophageal pressure analysis during sleep

Morgenstern de Muller, Christian Rudolf 25 February 2010 (has links)
La estimación del esfuerzo respiratorio durante el sueño es de una importancia crítica para la identificación correcta de eventos respiratorios en los trastornos respiratorios del sueño (TRS), el diagnóstico correcto de las patologías relacionadas con los TRS y las decisiones sobre la terapia correspondiente. Hoy en día el esfuerzo respiratorio suele ser estimado mediante la polisomnografía (PSG) nocturna con técnicas imprecisas y mediante la evaluación manual por expertos humanos, lo cual es un proceso laborioso que conlleva limitaciones significativas y errores en la clasificación. El objetivo principal de esta tesis es la presentación de nuevos métodos para la estimación automático, invasiva y no-invasiva del esfuerzo respiratorio y cambios en la obstrucción de las vías aéreas superiores (VAS). En especial, la aplicación de estos métodos debería permitir, entre otras cosas, la diferenciación automática invasiva y no-invasiva de eventos centrales y obstructivos durante el sueño. Con este propósito se diseñó y se obtuvo una base de datos de PSG nocturna completamente nueva de 28 pacientes con medición sistemática de presión esofágica (Pes). La Pes está actualmente considerada como el gold-standard para la estimación del esfuerzo respiratorio y la identificación de eventos respiratorios en los TRS. Es sin embargo una técnica invasiva y altamente compleja, lo cual limita su uso en la rutina clínica. Esto refuerza el valor de nuestra base de datos y la dificultad que ha implicado su adquisición. Todos los métodos de procesado propuestos y desarrollados en esta tesis están consecuentemente validados con la señal gold-standard de Pes para asegurar su validez.En un primer paso, se presenta un sistema automático invasivo para la clasificación de limitaciones de flujo inspiratorio (LFI) en los ciclos inspiratorios. La LFI se ha definido como una falta de aumento en flujo respiratorio a pesar de un incremento en el esfuerzo respiratorio, lo cual suele resultar en un patrón de flujo respiratorio característico (flattening). Un total de 38,782 ciclos respiratorios fueron automáticamente extraídos y analizados. Se propone un modelo exponencial que reproduzca la relación entre Pes y flujo respiratorio de una inspiración y permita la estimación objetiva de cambios en la obstrucción de las VAS. La capacidad de caracterización del modelo se estima mediante tres parámetros de evaluación: el error medio cuadrado en la estimación de la resistencia en la presión pico, el coeficiente de determinación y la estimación de episodios de LFI. Los resultados del modelo son comparados a los de los dos mejores modelos en la literatura. Los resultados finales indican que el modelo exponencial caracteriza la LFI y estima los niveles de obstrucción de las VAS con la mayor exactitud y objetividad. Las anotaciones gold-standard de LFI obtenidas, fueron utilizadas para entrenar, testear y validar un nuevo clasificador automático y no-invasivo de LFI basa en la señal de flujo respiratorio nasal. Se utilizaron las técnicas de Discriminant Analysis, Support Vector Machines y Adaboost para la clasificación no-invasiva de inspiraciones con las características extraídas de los dominios temporales y espectrales de los patrones de flujo inspiratorios. Este nuevo clasificador automático no-invasivo también identificó exitosamente los episodios de LFI, alcanzando una sensibilidad de 0.87 y una especificidad de 0.85. La diferenciación entre eventos respiratorios centrales y obstructivos es una de las acciones más recurrentes en el diagnostico de los TRS. Sin embargo únicamente la medición de Pes permite la diferenciación gold-standard de este tipo de eventos. Recientemente se han propuesto nuevas técnicas para la diferenciación no-invasiva de apneas e hipopneas. Sin embargo su adopción ha sido lenta debido a su limitada validación clínica, ya que la creación manual por expertos humanos de sets gold-standard de validación representa un trabajo laborioso. En esta tesis se propone un nuevo sistema para la diferenciación gold-standard automática y objetiva entre hipopneas obstructivas y centrales. Expertos humanos clasificaron manualmente un total de 769 hypopneas en 28 pacientes para crear un set de validación gold-standard. Como siguiente paso se extrajeron características específicas de cada hipopnea para entrenar y testear clasificadores (Discriminant Analysis, Support Vector Machines y adaboost) para diferenciar entre hipopneas centrales y obstructivas mediante la señal gold-standard Pes. El sistema de diferenciación automática alcanzó resultados prometedores, obteniendo una sensibilidad, una especificad y una exactitud de 0.90. Por lo tanto este sistema parece prometedor para la diferenciación automática, gold-standard de hipopneas centrales y obstructivas. Finalmente se propone un sistema no-invasivo para la diferenciación automática de hipopneas centrales y obstructivas. Se propone utilizar la señal de flujo respiratorio para la diferenciación utilizando características de los ciclos inspiratorios de cada hipopnea, entre ellos los patrones flattening. Este sistema automático no-invasivo es una combinación de los sistemas anteriormente presentados y se valida mediante las anotaciones gold-standard obtenidas mediante la señal de Pes por expertos humanos. Los resultados de este sistema son comparados a los resultados obtenidos por expertos humanos que utilizaron un nuevo algoritmo no-invasivo para la diferenciación manual de hipopneas. Los resultados del sistema automático no-invasivo son prometedores y muestran la viabilidad de la metodología empleada. Una vez haya sido validado extensivamente, se ha propuesto este algoritmo para su utilización en dispositivos de terapia de TRS desarrollados por uno de los socios cooperantes en este proyecto. / The assessment of respiratory effort during sleep is of major importance for the correct identification of respiratory events in sleep-disordered breathing (SDB), the correct diagnosis of SDB-related pathologies and the consequent choice of treatment. Currently, respiratory effort is usually assessed in night polysomnography (NPSG) with imprecise techniques and manually evaluated by human experts, resulting in a laborious task with significant limitations and missclassifications.The main objective of this thesis is to present new methods for the automatic, invasive and non-invasive assessment of respiratory effort and changes in upper airway (UA) obstruction. Specifically, the application of these methods should, in between others, allow the automatic invasive and non-invasive differentiation of obstructive and central respiratory events during sleep.For this purpose, a completely new NPSG database consisting of 28 patients with systematic esophageal pressure (Pes) measurement was acquired. Pes is currently considered the gold-standard to assess respiratory effort and identify respiratory events in SDB. However, the invasiveness and complexity of Pes measurement prevents its use in clinical routine, underlining the importance of this new database. . . All the processing methods developed in this thesis will consequently be validated with the gold-standard Pes-signal in order to ensure their clinical validity.In a first step, an (invasive) automatic system for the classification of inspiratory flow limitation (IFL) in the inspiratory cycles is presented.IFL has been defined as a lack of increase in airflow despite increasing respiratory effort, which normally results in a characteristic inspiratory airflow pattern (flattening). A total of 38,782 breaths were extracted and automatically analyzed. An exponential model is proposed to reproduce the relationship between Pes and airflow of an inspiration and achieve an objective assessment of changes in upper airway obstruction. The characterization performance of the model is appraised with three evaluation parameters: mean-squared-error when estimating resistance at peakpressure,coefficient of determination and assessment of IFL episodes. The model's results are compared to the two best-performing models in the literature. The results indicated that the exponential model characterizes IFL and assesses levels of upper airway obstruction with the highest accuracy and objectivity.The obtained gold-standard IFL annotations were then employed to train, test and validate a new automatic, non-invasive IFL classification system by means of the nasal airflow signal. Discriminant Analysis, Support Vector Machines and Adaboost algorithms were employed to objectively classify breaths non-invasively with features extracted from the time and frequency domains of the breaths' flow patterns. The new non-invasive automatic classification system also succeeded identifying IFL episodes, achieving a sensitivity of 0.87 and a specificity of 0.85.The differentiation between obstructive and central respiratory events is one of the most recurrent tasks in the diagnosis of sleep disordered breathing, but only Pes measurement allows the gold-standard differentiation of these events. Recently new techniques have been proposed to allow the non-invasive differentiation of hypopneas. However, their adoption has been slow due to their limited clinical validation, as the creation of manual, gold-standard validation sets by human experts is a cumbersome procedure. In this study, a new system is proposed for an objective automatic, gold-standard differentiation between obstructive and central hypopneas with the esophageal pressure signal. An overall of 769 hypopneas of 28 patients were manually scored by human experts to create a gold-standard validation set. Then, features were extracted from each hypopnea to train and test classifiers (Discriminant Analysis, Support Vector Machines and adaboost classifiers) to differentiate between central and obstructive hypopneas with the gold-standard esophageal pressure signal. The automatic differentiation system achieved promising results, with a sensitivity of 0.82, a specificity of 0.87 and an accuracy of 0.85. Hence, this system seems promising for an automatic, goldstandard differentiation between obstructive and central hypopneas.Finally, a non-invasive system is proposed for the automatic differentiation of central and obstructive hypopneas. Only the airflow signal is used for the differentiation, as features of the inspiratory cycles of the hypopnea, such as the flattening patterns, is used. The automatic, non-invasive system represents a combination of the systems that have been presented before and it was validated with the gold-standard scorings obtained with the Pes-signal by human experts. The outcome is compared to the results obtained by human scorers that applied a new non-invasive algorithm for the manual differentiation of hypopneas. The non-invasive system's results are promising and show the viability of this technique. Once validated, this algorithm has been proposed to be used in therapy devices developed by one of the partner institutions cooperating in this project.
114

Evaluación y análisis del comportamiento de los flujos de escombros en la quebrada Cashahuacra de la subcuenca Santa Eulalia mediante el uso de FLO-2D

Zegarra Muñante, Mariana 28 August 2023 (has links)
El flujo de escombros es el fenómeno de movimiento de masas más frecuente en el Perú. Parámetros como su fuerza de impacto, velocidad de desarrollo del flujo y distancia de recorrido, combinados con su baja predictibilidad hacen de este fenómeno uno de los más peligrosos para los asentamientos y las actividades humanas vulnerables al mismo. Algunas consecuencias son el fallecimiento de personas, daños estructurales y afectaciones socioeconómicas a la población. Se lo conoce y es el quinto fenómeno que más personas y viviendas afectadas ocasionó en el intervalo de 2003 a 2018 en el Perú. Esta cifra demuestra que el Perú es un país altamente susceptible a desastres originados por flujos de escombros. No obstante, hasta la actualidad no existe un buen entendimiento del fenómeno en mención. Por lo expuesto anteriormente, esta investigación pretende realizar estudios de los flujos de escombros, los cuales permitan comprender el comportamiento de la dinámica de los mismos desde su origen hasta su deposición. Para lograrlo, se realizó el modelamiento de los flujos de escombros en la quebrada Cashahuacra ubicada en la parte baja de la subcuenca Santa Eulalia perteneciente a la cuenca del río Rímac. Esta simulación se efectuó mediante el uso de un modelo bidimensional de diferencias finitas denominado FLO 2D. Con el fin de lograrlo, se realizó una evaluación de los aspectos topográficos, geotécnicos, geomorfológicos, reológicos e hidrológicos. Además, se determinaron los parámetros más sensibles en el modelamiento de los flujos de escombros con el propósito de obtener una estimación ajustada a la realidad. Como consecuencia de estos procedimientos, se generaron los mapas de peligro correspondientes a la quebrada Cashahuacra para diferentes periodos de retorno. Gracias a esto, se pudo determinar las áreas con mayor susceptibilidad a ser afectadas en caso de que se presente un evento de precipitación extrema. Se realizó la calibración del modelo comparando el volumen depositado para un evento de Tr=500 años y la validación se realizó comparando los mapas de peligro con mapas temáticos de peligro geotécnico en Santa Eulalia - Lima. Además, se comprobó que el modelo FLO-2D favorece el entendimiento de los flujos de escombros al facilitar la comprensión de sus potencialidades y limitaciones. Esta información podrá ser aplicada a futuros estudios para la determinación de medidas preventivas y mitigantes ante la avenida de flujos de escombros. De la misma forma, contribuirá al mejor entendimiento de los flujos de escombros en el Perú. Además, aportará a la generación de mapas de riesgos, los cuales permitirán una mejor gestión de los recursos hídricos. Ello, a su vez, a la obtención de parámetros necesarios para el diseño de elementos de contención y prevención. De esta manera, se busca disminuir las cifras en pérdidas económicas y de vidas humanas ocasionadas por los flujos de escombros.
115

Planificación del Almacenamiento de los Productos de la Empresa SQM en el Puerto de Tocopilla, con el Fin de Minimizar los Costos

Ureta Messina, Felipe 15 April 2010 (has links)
SQM es líder mundial en sus tres principales líneas de negocio: Nutrición vegetal de especialidad, Yodo y Litio, superando los 1,800 millones de dólares en ventas y contando con oficinas comerciales en más de 20 países, lo que permite que sus fórmulas de negocio lleguen a clientes en 110 países de Europa, América, Asia, África y Oceanía. El almacenamiento de los productos en el puerto de Tocopilla, es uno de los procesos más relevante para la empresa. Diariamente llegan aproximadamente 4.000 toneladas de productos a dicho puerto, por lo que los costos de almacenamientos es un tema a considerar. Existen 14 canchas y 6 silos que tienen distintos costos, donde se acumulan los productos, por lo que una buena decisión de donde dejar cada producto puede producir ahorros considerables. Este trabajo se centra en planificar el almacenamiento de los productos mediante un modelo de programación lineal, resuelta con el solver CPLEX, que permita optimizar los costos asociados al proceso y poder darle una visión a largo plazo, con la cual no se cuenta hoy en día. Se logró hacer una interfaz amigable y fácil de usar, la que se programó en Visual Basic, del programa Excel. La herramienta logró quitarle el paradigma de que los productos son para una cancha determinada y permitirle al modelo decidir donde almacenar cada producto. Se tuvo problemas de capacidad máxima de memoria en la herramienta, por lo que solo se pudo dar una visión a 3 meses, lo que supera el tiempo promedio de permanencia de los productos en el puerto. No se pudo modelar una restricción, que corresponda al espacio perdido por agregar más de un producto a una misma cancha. Finalmente se pudo analizar de que el puerto sí tiene la capacidad para un aumento de producción por parte de las minas, ya que si se tiene un buen ordenamiento de lo productos, es posible poder producir y vender mayores cantidades. Se estimó que pueden haber ahorros de un 3.1% en los costos anuales de almacenamiento y embarque de los productos de la empresa.
116

Modelación térmica del suelo alrededor de tubos enterrados en sistemas de colección de energía geotérmica de baja entalpía

Zenteno Arenas, Alonso Gonzalo January 2013 (has links)
Ingeniero Civil Mecánico / Los sistemas de climatización con energía geotérmica, aprovechan la estabilidad de temperatura que tiene el subsuelo para extraer calor de la vivienda y transferirlo al suelo, o de forma inversa, extraer calor del suelo y transferirlo a la vivienda (depende si se trata de invierno o verano). Para realizar esto se usan tubos enterrados en que se hace circular un fluido interiormente para transportar el calor. En la literatura se proponen métodos incompletos para calcular la capacidad de transferencia entre los tubos enterrados y el suelo, ya que no se considera la modificación de temperatura del suelo alrededor de los tubos enterrados. En este trabajo, usando simulaciones numéricas, se resuelve el campo de temperaturas alrededor de los tubos en función del tiempo y se determina la resistencia térmica del suelo. Usando los resultados de estas simulaciones, se propone una fórmula (en función de las variables relevantes) para estimar de forma sencilla el promedio de capacidad de transferencia que tendrá un tubo. Se realizan simulaciones con 2 y 3 tubos paralelos, para evaluar la disminución de la capacidad de transferir calor debido a la interferencia térmica que se produce entre tubos cercanos. Estos resultados muestran que el espaciado, es un factor importante a la hora de diseñar un circuito de tubos enterrados, ya que con arreglos muy compactos se disminuye en más un 50% la capacidad de captar calor. Con los resultados de las simulaciones se evalúan cuatro casos, para determinar cuán importante es agregar la resistencia térmica del suelo, a las conocidas y bien estudiadas resistencias térmicas de la pared del tubo y del fluido interno. De forma general, el suelo restringe el flujo de calor (más que la pared y el fluido interno) y se vuelve el elemento clave para determinar la capacidad de transferencia. Cuantificar este fenómeno, permite diseñar sistemas de colección, tomando en cuenta la resistencia térmica del suelo y determinar correctamente la capacidad de transferir calor. Así, se puede generar una solución acorde a la demanda térmica requerida.
117

Modelos de optimización para la operación eficiente de sistemas eléctricos de potencia bajo criterios probabilísticos y determinísticos de seguridad de suministro

Zuloaga Royo, Felipe Alejandro January 2015 (has links)
Ingeniero Civil Eléctrico / El constante aumento de la demanda de energía eléctrica ha supuesto un gran desafío para los operadores de sistemas eléctricos, puesto que deben proveer energía a través del sistema de forma económica y confiable. Por suministro confiable se entenderá que éste sea continuo, independiente de si el sistema se encuentra en su estado intacto (planificado) o con fallas. Actualmente existen dos grandes criterios de seguridad para operar sistemas eléctricos, el criterio probabilístico y el determinístico. El criterio probabilístico minimiza costos de operación, de acciones de control y de demanda no suministrada en base a todos los estados posibles del sistema. El criterio determinístico por otro lado, define un conjunto de fallas creíbles que no afectan al sistema (no generan demanda no suministrada) para luego operar bajo este paradigma. Ninguno de estos modelos incorpora una medida de riesgo para la operación, existiendo por ende una incertidumbre respecto a la vulnerabilidad que presentaría el sistema frente a posibles fallas, razón por la cual se propone abordar esta deficiencia. Una métrica comúnmente usada como medida de riesgo es el Valor en Riesgo Condicional. Esta medida considera eventos en la cola de la curva de probabilidad, es decir, aquellos eventos que tienen una muy baja probabilidad de ocurrencia pero alto impacto. Esta memoria examina los modelos determinísticos y probabilísticos clásicos, para luego proponer un modelo que considera la energía no suministrada como índice de riesgo mediante un Valor en Riesgo Condicional. El Valor en Riesgo Condicional considera eventos en la cola de la curva de probabilidad, que si bien tienen una baja probabilidad de ocurrencia, pueden tener un alto impacto en la operación del sistema. Con esto se le exige un mínimo de confiabilidad a la operación, limitando el riesgo asociado a los eventos catastróficos (i.e. de baja probabilidad y alto impacto). Se evaluará la confiabilidad que aportan las restricciones de límites de riesgo a nivel sistémico (disminuir el riesgo de demanda no suministrada del sistema como conjunto) y límite de riesgo a nivel nodal (disminuir el riesgo de demanda no suministrada por nodo). Los resultados confirman que la integración de estas restricciones permite operar el sistema de una manera más segura y confiable. El modelo propuesto disminuye sustancialmente el efecto de los eventos catastróficos. La versión de limitaciones de riesgo nodal, muestra que el corte de demanda equitativo (corte que se realiza nodo a nodo en proporción a la demanda conectada) se puede lograr en base a una correcta administración post-falla. Asimismo, los tiempos de cómputo son extremadamente bajos por lo que el modelo puede ser aplicado en sistemas complejos.
118

Calibración y desarrollo de Flowsim mediante la utilización de trazadores inteligentes

Fuentes Bustamante, Matías Ignacio January 2015 (has links)
Ingeniero Civil de Minas / El estudio de flujo gravitacional es fundamental en la minería subterránea por block/panel caving debido a su directa relación con la planificación minera, entregando información como el tipo y cantidad de material extraído, secuencia de extracción, leyes y recuperación. Debido a lo anterior, contar con herramientas computacionales que permitan modelar este fenómeno es de gran ayuda para realizar de la mejor manera las operaciones mineras. Dentro del ámbito del modelamiento de flujo gravitacional, Flowsim es un simulador basado en el concepto de autómatas celulares implementado en lenguaje C++, el cual permite realizar trabajos de forma más sencilla, rápida y con una gran calidad en los resultados. En el presente trabajo se utiliza esta herramienta con el objetivo de evaluar su funcionamiento y resultados mediante el modelamiento de diferentes casos de estudio a nivel experimental y a nivel industrial. Además se utilizan nuevas características del simulador para el trabajo con trazadores y se agrega un nuevo mecanismo para el modelamiento de la subsidencia. Los casos de estudio tratados son el análisis de trazadores recuperados a nivel mina, resultados experimentales obtenidos a partir de modelos físicos y simulaciones predictivas de 370 puntos de extracción pertenecientes a la mina Esmeralda, división El Teniente, focalizando el estudio en el funcionamiento de Flowsim para el cálculo de zonas de extracción, leyes, punto de entrada de material quebrado, y el tiempo de simulación. Los resultados muestran que Flowsim es capaz de replicar los resultados de zonas de flujo obtenidos con trazadores inteligentes en mina con diferencias de 9.7 [%]. Los casos experimentales e industriales analizados con el simulador calibrado muestran una leve tendencia a sobreestimar el punto de entrada de quebrado. Las simulaciones se realizan un 50 [%] más rápido a lo realizado por Rebop, simulador de flujo gravitacional desarrollado por Itasca, mientras que los valores entregados para las variables analizadas son muy similares entre ambos simuladores, variando en porcentajes menores al 5[%]. Las nuevas funciones de Flowsim, como el trabajo con trazadores y el mecanismo de rilling, aumentan las capacidades del simulador, pudiendo llevar a cabo nuevos análisis para la planificación minera. Los trazadores permiten establecer la recuperación para diferentes mallas de extracción y estudiar el comportamiento de los elipsoides de extracción. El mecanismo de rilling permite comprobar la morfología de la superficie y los resultados de su implementación muestra diferencias menores al 2 [%] con respecto a los resultados de modelos físicos. Finalmente, los resultados muestran que Flowsim es una potente herramienta de planificación en desarrollo, que, debido a su versatilidad, permite trabajar e implementar nuevos mecanismos como el trabajo con trazadores y el concepto de rilling, entregando resultados de forma rápida, simple y eficaz.
119

Secuenciamiento optimizado considerando regla de mezcla

Arriagada Arenas, Francisca del Carmen January 2015 (has links)
Ingeniera Civil de Minas / Para la estimación de reservas en block caving existen metodologías manuales que están basadas en principios de mezcla propuestos hace muchos años, como la mezcla vertical determinada por Laubscher. Esta problemática se ha estudiado mediante investigaciones del flujo gravitacional a través de modelos físicos y matemáticos. Dentro de los modelos matemáticos, se destaca Rebop, como un modelo de flujo gravitacional basado en balances de masa y criterios mecánicos del caving, que permiten modelar de forma más asertiva el fenómeno del caving incluyendo la mezcla vertical y horizontal.. Estas metodologías manuales también cuentan con criterios de optimización, en particular se encuentra la metodología de costo de oportunidad, la cual incorpora el costo de procesar mineral de baja ley, cuando es posible enviar a planta un mineral de mejor ley. Por lo anterior, el presente trabajo busca desarrollar un estudio exploratorio de una metodología que determina una secuencia optimizada, mediante la incorporación de un modelo de optimización de secuencia UDESS, que tiene como función objetivo maximizar el valor presente neto (VPN) del proyecto, junto con utilizar el software de flujo gravitacional Rebop, el que obtiene una mezcla más precisa. Posteriormente, los resultados de la metodología de UDESS y Rebop, serán comparados con un procedimiento manual de planificación llamado marginalista el que considera mineral todo lo que se encuentra sobre la ley de corte sobre una secuencia determinada con anterioridad. Para el desarrollo del trabajo se realizaron 4 casos que difieren en la distribución de las leyes y en las alturas de columna en su modelo de bloques. Como resultado todas las secuencias optimizadas, se muestra una disminución en la cantidad de dilución extraída, llegando a más de un 50% menos. Mientras que respecto al VPN en 3 de los casos aumenta en un rango del 7% al 20% dependiendo del caso. El único caso que disminuye, lo hace en un 1%, lo que se considera que está dentro del error permitido del modelo de optimización. Por otro lado, se determina que la distribución de leyes es más relevante que las alturas de columna in-situ, debido a que no se generan secuencias que extraigan proporcional a su altura de columna. Los resultados muestran que en el caso de un block caving, donde la dirección de la extracción es principalmente vertical, esta metodología funciona para obtener una secuencia que maximice el VPN dentro de un horizonte de tiempo determinado. Por lo tanto, se recomienda usar esta metodología tanto para una evaluación de un proyecto como para una planificación de corto plazo, que tenga como objetivo mejorar el VPN, dependiendo de la cantidad y calidad de la información con la que se cuenta. Respecto a las secuencias obtenidas con UDESS se estima que las restricciones que se incorporan son las necesarias para una secuencia de un macro-bloque extraído por block caving, con sus puntos abiertos y disponibles. Sin embargo, se recomienda precisar algunos parámetros como: la apertura de área por periodo, diferencia de altura extraída entre los vecinos, tasa de extracción por punto y discretización del modelo en UDESS. Cabe mencionar que para el uso de la herramienta de flujo, este se debe calibrar con datos mina para mejorar los resultados de simulación.
120

Valoración Compañía Cervecerías Unidas S.A. mediante método de flujo de caja descontado (FDC)

Jara Muñoz, Marta 07 1900 (has links)
Tesis para optar al grado de Magíster en Finanzas / A través del presente informe, se da a conocer una valoración económica, de la empresa chilena, Compañía Cervecerías Unidas S.A (CCU), al 30 de septiembre de 2014, utilizando el método de valoración, conocido como, Flujo de Caja Descontado (DCF). Para la construcción del flujo de caja, se utilizó la información de los Estados Financieros, presentados desde diciembre del año 2010, hasta septiembre del año 2014. Se analizó la empresa y la industria en la que opera, se determinó la estructura de capital que presenta, las perspectivas de inversión futura y de crecimiento, proyectándose los flujos de caja hasta el año 2018, más una perpetuidad a partir del año 2019 (sin perspectivas de crecimiento). Para el cálculo de la tasa de descuento se utilizó la tasa libre de riesgo de 1,91% (BTU-30), un premio por riesgo de mercado de un 5,93% y un beta de la empresa de 0, 9372 obteniendo una tasa costo capital (Wacc) de 7,01%. Lo anterior permitió determinar un precio estimado para la acción, al 30 de septiembre de 2014, de empresas CCU de $6.590, el cual comparado con el precio de cierre de las transacciones de la Bolsa de Comercio de Santiago, es tan solo un 0,07% superior (precio bolsa $6.585). Teniendo en consideración, los supuestos utilizados en el cálculo de la tasa de descuento, se realizó un análisis de sensibilidad, con el objetivo de apreciar cómo se afecta la valoración económica del precio de la acción de la Compañía, cuando cambia la tasa de descuento. Al respecto, se determinó que para rangos de tasas entre 7,01% y 8,51% el precio de la acción fluctúa entre $6.590 y $5.030, concluyendo por lo tanto, que el precio de mercado de la acción se encuentra en su precio justo.

Page generated in 0.0283 seconds