• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 17
  • 5
  • 2
  • 1
  • Tagged with
  • 25
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Desarrollo de un sistema de triaje de urgencias escalable, reproducible y con interoperabilidad semántica

Bellod Guillén, José Miguel 30 June 2017 (has links)
No description available.
12

Probing CPT breaking induced by quantum decoherence at DUNE

Carrasco Martínez, Juan Carlos 05 June 2019 (has links)
We consider a beyond standard physics scenario, where neutrino is considered as an open quantum system. In order to have that consideration we use the Lindblad master equation, which introduce the quantum phenomena called decoherence. In that context we explore one of the most exotic of its consecuences, the CPT violation. We work in three avor generation case where making the SU(3) decomposition of the operators we encounter that there exist fteen parameters in the decoherence matrix that explicitly violate CPT. Regarding four of those parameteres we choose one case of decoherence which will be tested at DUNE. / Trabajo de investigación
13

Contributions to the Earth Monitoring by Space Geodesy Methods / Contribuciones a la observación de la Tierra mediante métodos de Geodesia espacial

Belda, Santiago 17 July 2015 (has links)
No description available.
14

Estudi prospectiu observacional de pacients amb pneumònia adquirida en la comunitat: avaluació de la utilitat de diversos models predictors de gravetat en el maneig i l'evolució clínica d'aquesta patologia

Luque Pardos, Sònia 03 July 2008 (has links)
No description available.
15

Variaciones de las reservas de agua durante la sequía del año 2009 en la Provincia de Buenos Aires a partir de datos satelitales de la misión GRACE

Montenegro, María Soledad 02 May 2013 (has links)
La sequía agrícola ocurre cuando la cantidad de precipitación, su distribución, las reservas de agua en el suelo y las pérdidas producidas por la evapotranspiración se combinan para causar una disminución considerable de los rendimientos del cultivo y el ganado. Desde el punto de vista hidrogeofísico, la sequía se manifiesta como una disminución de las reservas de agua en la zona afectada por este evento. Durante el año 2009, la provincia de Buenos Aires se vió afectada por una sequía que se estima ha sido el peor evento de este tipo que atravesó el país en más de medio siglo y cuyos efectos climáticos repercutieron en un descenso significativo en los cuerpos de agua superficiales, una disminución de los niveles freáticos en toda la región y significativas pérdidas en la economía de la principal región agrícola-ganadera del país. El presente trabajo de Tesis analiza la potencialidad de la misión satelital Gravity Recovery and Climate Experiment (GRACE) para detectar y estudiar esta impactante sequía. La misión espacial GRACE tiene como principal objetivo la medición de variaciones espacio-temporales del campo de gravedad terrestre, siendo estas variaciones de gravedad originadas principalmente por las variaciones de las reservas de agua. Para estudiar los efectos de la sequía en las reservas de agua subterráneas durante el año 2009 se tomó como referencia el año 2008 que puede considerarse a los fines de este análisis como un año hidrológico normal. Los datos utilizados consisten en alturas de agua equivalente calculados cada 10 días a partir de los datos de la misión GRACE por el Grupo de Investigación de Geodesia Espacial del Centro Nacional de Estudios Espaciales de Francia (CNES/GRGS). Estos datos satelitales que poseen una cobertura regional muy amplia, han sido comparados con datos puntuales de dos estaciones de medición de niveles freáticos ubicadas en las ciudades de Azul y La Plata. A partir de los datos de alturas de agua equivalente se realizó un seguimiento de la evolución de la sequía en la provincia de Buenos Aires que pudo ser validado por mediciones de los niveles freáticos. A partir de la correlación de los datos satelitales y de campo se calcularon propiedades de la zona de estudio, como la capacidad específica y las variaciones de humedad del suelo en la zona no saturada. El carácter regional del fenómeno de la sequía observado a partir de los datos de GRACE también queda de manifiesto en los descensos del los niveles freáticos observados en las estaciones de Azul y La Plata. Los resultados obtenidos muestran la utilidad de los datos de GRACE para cuantificar las reservas de agua subterráneas y realizar estudios regionales en zonas donde no se cuenta con datos de campo o resultan de difícil acceso.
16

On the semiclassical limit of emergent quantum mechanics, as a classical thermodynamics of irreversible processes in the linear regime

PEREA CÓRDOBA, MILTÓN HENRY 21 September 2015 (has links)
[EN] Motivated by the conceptual problems concerning the quantisation of gravity, the Dutch theoretical physicist G. 't Hooft (1999 Nobel prize in physics) put forward the notion that quantum mechanics must be the emergent theory of some underlying, deterministic theory. This proposal usually goes by the name quantum mechanics as an emergent phenomenon. This research line, initiated by 't Hooft in the late 1990's, has been the subject of intense research over the last 15 years, by 't Hooft himself as well as by many other researchers. In this PhD thesis we present our own approach to quantum mechanics as an emergent phenomenon. According to the emergence paradigm for quantum mechanics, information-loss effects in the underlying deterministic theory lead to the arrangement of states of the latter into equivalence classes, that one identifies as quantum states of the emergent quantum mechanics. In brief, quantisation is dissipation, according to 't Hooft. Moreover it has been argued in the literature that, in the presence of weak gravitational fields, quantum effects must be indistinguishable from thermal effects. Since the latter are typically dissipative in nature, the presence of a weak gravitational field should provide a framework in which quantum effects can be explained as due to thermal, dissipative fluctuations. Furthermore, since gravitational effects can be locally gauged away (thanks to the equivalence principle), there should exist some kind of equivalence principle for quantum effects, i.e., some kind of relativity principle for the notion of quantumness as opposed to the notion of classicality. In this PhD thesis we elaborate on this idea. Once a reference frame is fixed, however, quantum effects cannot be gauged away, and the statement quantisation is dissipation lends itself to a thermodynamical treatment. In this thesis we also present one mechanism whereby quantum mechanics is seen to emerge, thus explicitly realising 't Hooft's proposal. This mechanism is based on a dictionary between semiclassical quantum mechanics, on the one hand, and the classical theory of irreversible thermodynamics in the linear regime, on the other. This thermodynamical formalism, developed by Nobel prize winners Onsager and Prigogine, can be easily mapped into that of semiclassical quantum mechanics. / [ES] Motivado por los problemas conceptuales relativos a la cuantización de la gravedad, el físico teórico holandés G. 't Hooft (premio Nobel de física en 1999) sugirió la noción de que la mecánica cuántica pudiera ser la teoría emergente de alguna otra teoría determinista subyacente. Dicha propuesta se conoce como la mecánica cuántica en tanto que teoría emergente. Esta línea de investigación, iniciada por 't Hooft a finales de los años 90, ha sido objeto de intenso estudio a lo largo de los últimos 15 años, tanto por el mismo 't Hooft como por numerosos otros investigadores. En esta tesis doctoral presentamos nuestra propia aproximación a la mecánica cuántica como fenómeno emergente. De acuerdo con este paradigma emergente para la mecánica cuántica, son efectos de pérdida de información en la teoría determinista subyacente los que conducen a que los estados de ésta última se agrupen en clases de equivalencia, las cuales clases se identifican con los estados cuánticos de la mecánica cuántica emergente. En breve, la cuantización es disipación, según 't Hooft. Asimismo se ha argumentado en la literatura que, en presencia de campos gravitatorios débiles, los efectos cuánticos son indistinguibles de los efectos térmicos. Dado que éstos últimos son típicamente disipativos por naturaleza, la presencia de un campo gravitatorio débil debería proporcionar un entorno en el cual los efectos cuánticos puedan entenderse como debidos a fluctuaciones térmicas, disipativas. Además, dado que los campos gravitatorios pueden eliminarse localmente (gracias al principio de equivalencia), debería existir algún tipo de principio de equivalencia para los efectos cuánticos, i.e., algún tipo de principio de relatividad para la noción de cuanticidad, por oposición a la noción de clasicidad. En esta tesis doctoral elaboramos estas ideas. Sin embargo, una vez fijado un sistema de referencia, los efectos gravitatorios ya no pueden eliminarse, y la afirmación de que la cuantización es disipación se presta a un tratamiento termodinámico. En esta tesis también presentamos un mecanismo mediante el cual la mecánica cuántica se ve emerger, comprobándose así explícitamente la propuesta de 't Hooft. Este mecanismo se basa en un diccionario entre la mecánica cuántica semiclásica, por un lado, y la teoría clásica de la termodinámica irreversible en el régimen lineal, por otro lado. Dicho formalismo termodinámico, desarrollado por los premios Nobel Onsager y Prigogine, puede trasladarse fácilmente a la mecánica cuántica semiclásica. / [CAT] Motivat pels problemes conceptuals en relació a la quantització de la gravetat, el físic teóric holandés G. 't Hooft (premi Nobel de física en 1999) va suggerir la noció de que la mecànica quàntica pogués ser la teoria emergent d ' alguna altra teoria determinista subjacent. A questa proposta es coneix com a mecanica quantica en tant que teoria emergent. Aquesta línia d ' investigació, iniciada per 't Hooft a final dels anys 90, ha sigut intensament estudiada durant els últims 15 anys , tant pel mateix 't Hooft com per nombrosos altres investigadors. En aquesta tesi doctoral presentem la nostra própia aproximació a la mecànica quàntica com a fenomen emergent. D ' acord amb aquest paradigma emergent per a la mecànica quàntica, són efectes de pérdua d ' informació en la teoria determinista, subjacent els que condueixen a que els estats d ' aquesta última s ' agrupen en classes d ' equivalència, les quals s ' identifiquen amb els estats quàntics de la mecànica quàntica emergent. Breument, la quantització es dissipació segons 't Hooft. Aixímateix, s ' ha argumentat a la literatura que, en presència de camps gravitatoris febles, els efectes quàntics són indistingibles dels efectes tèrmics. Com aquests últims són típicament dissipatius per naturalesa, la presència d ' un camp gravitatori feble hauria de proporcionar un entorn en el qual els efectes quàntico es puguen entendre com deguts a fluctuacions tèrmiques, dissipatives. A més a més, com que els camps gravitatoris poden eliminar-se localment (gràcies al principi d ' equivalència), hauria d ' existir algun tipus de principi d ' equivalència per als efectes quàntics, i.e. , algun tipus de principi de relativitat per a la noció de quanticitat, per oposició a la noció de classicitat. En aquesta tesi doctoral elaborem aquestes idees. En canvi, una vegada fixat el sistema de referència, els efectes gravitatoris ja no poden eliminar-se, i l ' afirmació de que la quantització és dissipació es presta a un tractament termodinàmic. En aquesta tesi també presentem un mecanisme mitjançant el qual la mecànica quàntica es veu emergir, comprovant-se explícitament la proposta de 't Hooft. A quest mecanisme es basa en un diccionari entre la mecànica quàntica semiclàssica, d ' una banda, i la teoria clàssica de la termodinàmica irreversible en el règim lineal, d ' una altra banda. A quest formalisme termodinàmic, desenvolupat pels premis Nobel Onsager i Prigogine, pot traslladar-se fàcilment a la mecànica quàntica semiclàssica. / Perea Córdoba, MH. (2015). On the semiclassical limit of emergent quantum mechanics, as a classical thermodynamics of irreversible processes in the linear regime [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/54840 / TESIS
17

Una contrtibución al establecimiento del margen de seguridad contra el deslizamiento de presas de gravedad en explotación en funcion de la información disponible

Fullana Montoro, Juan 04 July 2016 (has links)
[EN] In Spain the safety of dams is currently regulated by classical deterministic methods based on the verification of safety factors, or at most, pseudo-probabilistic methods when loads have some random component. For the application of the classic methodology dam information is obtained from various sources and collected throughout the life of the dam, from conception to the time when the security is evaluated. However much of this information may be subject to uncertainty that may have epistemic or random character. The first is associated with lack of knowledge (lack of information, insufficient reliability, unrepresentative mathematical models of reality, etc.) and, the second, to the inherent variabiliity of information (flows, precipitation, etc.) The deterministic method has emerged as primary and essential in the verification of any structure but, nevertheless, it could be considered incomplete for not taking into account the uncertainty of the information since it is not involved in the final result, at least, in an explicit and / or traceable way. An attempt to improve the deterministic method is proposed in this thesis by systematizing the evaluation of the quality and quantity of the information used so that the uncertainty is incorporated into dam safety verifications, providing that the quantity and quality information is directly linked to its uncertainty. The approach assumes that there must be some parity or equivalence between the deterministic and the probabilistic method used by the discipline of Risk Analysis, by which the results obtained by both methods applied to the same dam should be similar qualitatively speaking, that is, to high safety coefficients correspond very small probabilities of failure and vice versa. The proposed model has as a reference the safety factor against sliding required by good practices or recommendations on the application of Technical Regulation of Dams and Reservoirs, which is based on the percentage of contribution between strength parameters of cohesion and friction. From this factor and depending on the quality and quantity of information available, so that the more accurate and abundant is, the required coefficient is reduced and vice versa, the more vague and little the required safety of factor increases. The increase or decrease is also linked to the strength parameters adopted, so that the higher these are (less conservative position of the evaluator) greater increase and vice versa. The procedure is qualitative because on one hand, while it is based on certain probabilistic basis much of the methodology is supported on intuition and engineering judgment, and partly because most of the information used is subjective, does not allow statistical analysis and comes from the critical judgment of the evaluator. However the procedure concludes with a quantitative result. / [ES] En España la seguridad de presas se regula, hoy por hoy, por métodos determinísticos clásicos basados en la verificación de coeficientes de seguridad o a lo sumo por métodos pseudo-probabilísticos cuando las solicitaciones presentan cierta componente aleatoria. Para la aplicación de esta metodología clásica se utiliza información sobre la presa extraída de diversas fuentes y recopilada a lo largo de toda la vida de la presa, desde su concepción hasta el momento en que se evalúe la seguridad. Sin embargo mucha de esta información puede estar sujeta a incertidumbre que puede tener carácter epistémico o aleatorio. El primero está asociado a la falta de conocimiento (carencia de información, insuficiente fiabilidad, modelos matemáticos poco representativos de la realidad, etc.) y, el segundo, a la variabilidad inherente de la información (caudales, precipitaciones, etc.) El procedimiento determinista se ha erigido como primordial e imprescindible en la comprobación de toda estructura pero, sin embargo, puede considerarse incompleto por no tener en cuenta la incertidumbre de la información, pues ésta no interviene en el resultado final al menos de forma explícita y/o trazable. Se propone en este trabajo un intento de perfeccionar el procedimiento determinista sistematizando la evaluación de la calidad y cantidad de la información utilizada de manera que se incorpore la incertidumbre en las comprobaciones de seguridad de presas, dando por buena la premisa de que la cantidad y calidad de la información está directamente vinculada a su incertidumbre. El planteamiento presume que debe existir cierta paridad o equivalencia entre el procedimiento determinista y el probabilista utilizado por la disciplina del Análisis de Riesgos, por la cual los resultados obtenidos por ambas metodologías en una misma presa deben ser parejos cualitativamente hablando, es decir, a coeficientes de seguridad elevados le corresponden probabilidades de rotura muy reducidas y viceversa. El modelo propuesto tiene como referente el coeficiente de seguridad contra al deslizamiento exigible por las buenas prácticas o recomendaciones en la aplicación del Reglamento Técnico de Presas y Embalses, que es función del porcentaje de contribución entre los parámetros resistentes de la cohesión y el rozamiento. A partir de éste y en función de la calidad y cantidad de la información disponible se modifica el coeficiente de seguridad exigible, de manera que a mayor precisión y abundancia experimenta una reducción y viceversa, según sea más vaga y escasa se incrementa.. El aumento o disminución también se vincula a los parámetros resistentes adoptados, de forma que cuanto más altos sean éstos (posición menos conservadora del evaluador) mayor aumento y viceversa. El procedimiento planteado tiene carácter cualitativo porque por un lado, si bien se fundamenta en cierta base probabilista buena parte de la metodología se apoya en la intuición y juicio ingenieril, y por otro porque la mayor parte de la información que utiliza es subjetiva, no permite un análisis estadístico y proviene del juicio crítico del evaluador. No obstante el procedimiento concluye en una estimación cuantitativa. / [CAT] En l'estat espanyol, la seguretat de preses es regula, ara com ara, per mètodes deterministes clàssics basats en la verificació de coeficients de seguretat o, a tot estirar, per mètodes pseudoprobabilístics quan les sol¿licitacions presenten un cert component aleatori. Per a l'aplicació d'aquesta metodologia clàssica, s'empra informació sobre la presa extreta de diverses fonts, i recopilada al llarg de tota la vida de la presa, des de la seua concepció fins al moment en què se n'avalue la seguretat. Tanmateix, molta d'aquesta informació pot estar subjecta a incertesa, que pot tenir caràcter epistèmic o aleatori. El primer està associat a la manca de coneixement (mancança d'informació, fiabilitat insuficient, models matemàtics poc representatius de la realitat, etc.) i, el segon, a la variabilitat inherent de la informació (cabals, precipitacions, etc.). El procediment determinista s'ha erigit com a primordial i imprescindible en la comprovació de tota estructura; això no obstant, pot considerar-se incomplet per no tenir en compte la incertesa de la informació, ja que aquesta no n'intervé en el resultat final, si més no de manera explícita i/o traçable. Es proposa, en aquest treball, un intent de perfeccionar el procediment determinista sistematitzant l'avaluació de la qualitat i quantitat de la informació utilitzada, de manera que s'incorpore la incertesa en les comprovacions de seguretat de preses, tot donant per bona la premissa que la quantitat i qualitat de la informació estan directament vinculades a la seua incertesa. El plantejament pressuposa que ha d'existir una certa paritat o equivalència entre el procediment determinista i el probabilista emprat per la disciplina de l'Anàlisi de Riscos, per la qual els resultats obtinguts per ambdues metodologies en una mateixa presa han de ser semblants qualitativament parlant; això és, a coeficients de seguretat elevats, els corresponen probabilitats de ruptura molt reduïdes, i viceversa. El model proposat té com a referent el coeficient de seguretat contra l'esmunyiment exigible per les bones pràctiques o recomanacions en l'aplicació del Reglament Tècnic de Preses i Embassaments, que és funció del percentatge de contribució entre els paràmetres resistents de la cohesió i el fregament. A partir d'aquest i en funció de la qualitat i quantitat de la informació disponible, se'n modifica el coeficient de seguretat exigible, de manera que, com més precisió i abundància, n'experimenta una reducció, i viceversa, segons siga més vague i escassa, se n'incrementa. L'augment o disminució també es vincula als paràmetres resistents adoptats, de manera que com més alts en siguen (posició menys conservadora de la persona avaluadora) més augment, i viceversa. El procediment plantejat té caràcter qualitatiu perquè, d'una banda, si bé es fonamenta en una certa base probabilista, bona part de la metodologia recolza en la intuïció i seny enginyer, i d'altra, perquè la major part de la informació que utilitza és subjectiva, no permet una anàlisi estadística i prové del judici crític de la persona avaluadora. Tanmateix, el procediment conclou amb una estimació quantitativa. / Fullana Montoro, J. (2016). Una contrtibución al establecimiento del margen de seguridad contra el deslizamiento de presas de gravedad en explotación en funcion de la información disponible [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/66968 / TESIS
18

Metodología de diseño de sistemas de retención de carga en transiciones de flujo vertical

Cornejo Farías, Rodolfo Francisco January 2014 (has links)
Memoria para optar al título de Ingeniero Civil Mecánico / Los sistemas de retención de carga (SRC) se emplean en minería para detener el flujo de mineral en piques, silos y stockpiles, con el fin de realizar tareas de mantenimiento aguas abajo de la posición retenida. En general, se estima que existe poco conocimiento para abordar la ingeniería y el diseño de estos importantes componentes de áreas secas de minería. Este proyecto plantea el desarrollo y validación de un método de diseño para los principales componentes de SRC incluyendo: elementos de retención y sistemas de accionamiento. Sus objetivos específicos son: i. Evaluar el estado del arte para estimación de cargas de gravedad en silos, piques y pilas de mineral en orden a generar estimadores de presión y cargas sobre SRC, ii. Validar una metodología de estimación de cargas de gravedad mediante evaluaciones de sistemas existentes en Chile y por medio de un modelo a escala reducida, y iii. Proponer y validar una metodología de diseño de SRC integrando los resultados del modelo de predicción de carga vertical y las recomendaciones AISC 360-05, NCh. 2369 of. 2003 y ACI 313-97. Para desarrollar los objetivos del trabajo se empleó una metodología multidisciplinaria de revisión y ajuste de las teorías para la estimación de carga vertical/horizontal en sistemas de flujo/almacenamiento de mineral; la observación del flujo, la retención y la medición de carga en un SRC ubicado en un yacimiento nacional; y la observación de flujo y de retención de carga en un modelo a escala. Los principales resultados y conclusiones del proyecto muestran que: i. La teoría de Janssen, con parámetros ajustados a cada aplicación, proporciona las mejores estimaciones de presión y de cargas vertical/horizontal aplicables a sistemas de flujo/almacenamiento de mineral utilizados en minería, ii. La observación de flujo y de retención de carga en un modelo a escala muestra el desarrollo de flujo expandido y un ángulo de flujo de unos 30° para todas las combinaciones de extracción de lanzas, iii. Un programa de mediciones experimentales desarrollado en terreno permite efectuar una primera estimación del conjunto de parámetros de ajuste del modelo de Janssen, estableciendo que el cálculo de cargas de servicio debe efectuarse con las siguientes combinaciones: coeficiente de roce acero-roca μ_ar entre 0,4-0,5; coeficiente de roce acero-acero μ_aa entre 0,65-0,75; y ángulo de fricción interna ϕ=35°. Por otro lado, el desarrollo de varios ejemplos prácticos y el diseño de una planilla Excel de soporte para diseño de SRC muestra que el método de cálculo de los principales componentes debe basarse en el método LRFD por sobre el ASD.
19

Aplicación de la criminología a la investigación penal medioambiental en la Comunidad Valenciana (1997-2012)

Castaño Martínez, Emilio José 16 September 2016 (has links)
No description available.
20

Análisis económico conceptual del aprovechamiento de un depósito de relaves con contenido de oro mediante un proceso de concentración gravimétrico

Yauri Esquivel, Erick Jorge Alberto, Alvarez Saldaña, Angel David 13 October 2020 (has links)
Dado el panorama actual que vive el Perú, es fundamental incentivar la realización de nuevos proyectos que permitan agregar valor a las empresas enfocado al reaprovechamiento de relaves, sobre todo, cuando el sector minero se encuentra afectado por diversos problemas sociales vinculados a pasivos ambientales. En base a lo mencionado, este trabajo se encuentra enfocado en evaluar la viabilidad económica a manera conceptual utilizando una metodología holística propuesta para la recuperación de oro libre en un depósito de relaves. Para ello, se utilizará aspectos económicos, como es el uso de indicadores económicos y ley de corte, y técnicos, como el análisis de parámetros operativo en la concentración de minerales, que permitirán evaluar el desarrollo del proyecto. La metodología propuesta busca encontrar el caso óptimo que genere el valor económico máximo al proyecto vinculado a parámetros operativos. Para ello, esta se encuentra esquematizada de la siguiente manera: a) caracterización de relaves, b) selección de variables independiente, c) procesamiento de data, d) análisis económico, e) selección de caso optimo, f) evaluación a una nueva capacidad de procesamiento, g) comparación de casos óptimos y h) determinación de puntos clave de mejora del proyecto. Para poder corroborar la viabilidad económica del retratamiento de relaves auríferos utilizando la metodología propuesta, en el presente trabajo, se utilizó como caso base los datos experimentales obtenidos del retratamiento de relaves con una ley promedio de 16.32 gr/tm ubicados en la zona de Limbani Puno, en la comunidad de Canu Canu, presentados por Javier Antonio Morales Valdivia. Los cuales fueron procesados para poder establecer los costó de capital y operativos mediante el uso bench marking, análisis de mercado, regresiones multivaribles, entre otros; para 4 diferentes capacidades de procesamiento: 150, 250, 350,450 TPD asumiendo 620000 toneladas de reservas. A partir de la aplicación de la metodología se analizaron alrededor de 189 casos para cada capacidad de procesamiento, del cual se obtuvo que el caso óptimo que genera mayor valor al proyecto se da a una capacidad de 450 TPD trabajando a una densidad 1.465 gr/cm3, fuerza en el concentrador centrifugo de 90G y a una malla de 200 con una ley de corte de 1.128 gr/tm. A partir de ello, se realizó una análisis de sensibilidad con lo cual se obtuvo que2 el proyecto era rentable a una ley superior de 1.9 gr/tm en los relaves, con un VAN $64,881.23, TIR 23.24%. El trabajo consta de 5 capítulos, los cuales serán descritos a continuación. Capítulo I: En este capítulo se hace mención a la justificación técnica, económica, social y ambiental de la investigación, avocando a los principales objetivos en la cual pretende enfocarse. Capítulo II: En este capítulo se enfoca a desarrollar la estrategia experimental pretendida a utilizar en el Marco Teórico, definiendo las variables dependientes/independientes utilizadas en la metodología. Capítulo III: En este capítulo se disgrega la metodología empleada en la investigación, la cual posee 2 etapas: técnico y económico. Capítulo IV: En este capítulo se realiza la aplicación de la metodología, con lo cual se consigue obtener el caso óptimo. Capítulo V: En este capítulo se realiza las conclusiones, recomendaciones y observaciones entorno a la aplicación de metodología holística propuesta y el caso de estudio.

Page generated in 0.0543 seconds