• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 35
  • 6
  • Tagged with
  • 41
  • 41
  • 7
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Modelación matemática de los fenómenos anti-biofouling en membranas de osmosis reserva modificadas con nanopartículas de cobre

Quezada Mustaros, Rodrigo Sebastián January 2019 (has links)
Memoria para optar al título de Ingeniero Civil en Biotecnología / La incrustación (fouling) biológica es una de las mayores causas de daño en membranas para sistemas de purificación de agua por osmosis reversa (OR). La modificación de las membranas mediante la adición de nanopartículas (NPs) metálicas u óxidos, con características antimicrobianas, han demostrado mejorar la resistencia de la membrana al biofouling. Sin embargo, el mecanismo tóxico varía dependiendo del tipo de nanopartícula incorporada. En el caso de las modificaciones con cobre, los mecanismos de acción de las nanopartículas de cobre y su incidencia cuando se encuentran en la membrana modificada aún no son claros. En el presente trabajo se estudiaron los parámetros y mecanismos por los cuales las NPs inducen efectos nocivos, esto mediante un estudio de las vías tóxicas para 3 tipos de membranas con distintas modificaciones con cobre: nanopartículas de cobre elemental (Cu-NPs), nanopartículas de óxido de cobre (CuO-NPs) y un oligómero de cobre formado a partir de sal de cobre (Cu-MPD), todo esto con el objetivo de caracterizar y estudiar los mecanismos biocidas del cobre en estas membranas modificadas, junto a la generación de un modelo que describa la capacidad biocida de las nanopartículas en membranas de osmosis reversa. A partir de la bibliografía revisada se encontró que el efecto tóxico más preponderante de las NPS en membrana corresponde a la disolución de las NPs con liberación de iones, los cuales inducen toxicidad en células al superar una concentración dada. Todos estos efectos están sujetos a características de la nanopartícula como su tipo, tamaño y forma, y también a las condiciones de medio. Este efecto fue estudiado mediante un seguimiento de la cinética de disolución, tanto en suspensión como en membrana. Además, se realizaron pruebas con las membranas en presencia de un cultivo de E. coli, en donde se monitoreó la viabilidad de las bacterias mediante conteo de colonias viables (CFU) y se obtuvieron indicadores para cuantificar el efecto tóxico del cobre. Estos no mostraron diferencias apreciables entre los cobres estudiados, los cuales con capaces de mantener un alto nivel de inhibición (mayor al 90%), incluso luego de alcanzada la fase exponencial de crecimiento del microorganismo. Se obtuvieron cinéticas de primer orden de disolución que varían según el tipo de cobre utilizado. Debido a las diferencias observadas en las cinéticas de disolución, se plantearon 2 modelos para describir la liberación de iones de cobre desde las membranas modificadas. Los modelos obtuvieron una buena correlación con los datos experimentales. El análisis de estos modelos permitió identificar que la carga efectiva de cobre en membrana es uno de los fenómenos más relevantes para caracterizar la eficiencia biocida de las mismas, dado que define la tasa de liberación de iones y el tiempo de vida del cobre en la membrana. Finalmente, a partir del modelo anti-biofouling propuesto, se obtuvo que las membranas de Cu-MPD presentan una ventaja frente a las NPs, dado que alcanzan un poder biocida similar con menor carga de cobre, con un efecto más perdurable en el tiempo. La metodología utilizada puede ser implementada en otros modelos que incluyan el uso de nanopartículas.
12

Estimación numérica de la respuesta estática de un cable dañado: Formulación viga-cable

Bravo Tetlak, Tomás Patricio January 2018 (has links)
Magíster en Ciencias de la Ingeniería, Mención Ingeniería Estructural, Sísmica y Geotécnica. Ingeniero Civil / El presente trabajo tiene por objetivo extender el estudio mecánico de cables dañados asimétricamente llevado por De Vico (2013) y Ramírez (2015) y el trabajo de Beltrán (2006), combinando en un único modelo el efecto de asimetría y concentración de deformaciones: dos fenómenos cuyo impacto aislado se ha traducido en la inducción de flexión producto del daño asimétrico y la capacidad de recuperación de carga producto de la concentración de deformaciones cerca del daño. El modelo mecánico propuesto se basa en el método de los elementos finitos, para lo cual se propone un elemento viga capaz de incorporar la cinemática de deformación de los elementos que conforman un cable de modo de generar matrices de rigidez que representen a un elemento denominado viga-cable. Este elemento es capaz de desarrollar flexión biaxial, torsión y carga axial. Se supone que el cable está sometido a una fuerza axial de tracción y a cargas transversales de corte asociadas a la asimetría del daño, en caso de que corresponda. Además, dependiendo de la fricción entre los alambres del cable, se puede incrementar el área efectiva del cable en elementos alejados del daño, aumentando la capacidad de carga del cable y forzando una concentración de deformaciones en zonas cercanas a los elementos finitos dañados. Se estudiaron cables de distintos materiales (poliéster, acero y aluminio) con distintas configuraciones geométricas (distribución de alambres, ángulos de paso y diámetros) y de daño, de modo de evaluar distintos fenómenos presentes que impacten tanto el comportamiento global (curva de capacidad, rigidez, capacidad de deformación y capacidad de carga) y local (gradiente de tensiones y deformaciones). Para cada caso de estudio, se compararon los resultados del modelo propuesto con resultados experimentales y modelación de elementos finitos presentes en la literatura. Los análisis comparativos indican el modelo propuesto es capaz de predecir de buena manera curvas de capacidad y gradiente de tensiones/deformaciones en las secciones transversales a lo largo del cable. Se logró acoplar en un modelo los fenómenos de daño asimétrico y concentración de deformaciones, cuyo resultado queda en la región acotada por las curvas de daño asimétrico y concentración de deformaciones, actuando en forma independiente, desarrolladas por Beltrán et al (2017). En particular, se obtienen rigideces superiores a las experimentales, tal como evidencian Lalonde (2017) y Judge (2012) en sus estudios. Además, se obtuvieron capacidades similares a las de la literatura. En cuanto a la capacidad de deformación, la alta variabilidad de los ensayos no permitió obtener resultados concluyentes. Se identificó una relación directa entre el diámetro del cable y el impacto de la asimetría, ya que a medida que es más grande el diámetro, se pudo identificar una mayor diferencia entre los límites del gradiente de deformaciones. La eficiencia computacional y robustez del modelo queda demostrada, obteniéndose resultados con alta precisión en fracciones del tiempo requerido por modelos desarrollados en software de elementos finitos.
13

Diseño de un proceso de alertas tempranas para disminuir las deserciones de los estudiantes de primer año en una Institución de Educación Superior

Miranda Hidalgo, Francisca Patricia January 2019 (has links)
Tesis para optar al grado de Magíster en Ingeniería de Negocios con Tecnología de Información / La deserción estudiantil es un fenómeno que ha ido en aumento durante los últimos años a nivel nacional, por lo tanto, resulta de interés comprender por qué se genera esta situación, que desde la perspectiva de las ciencias sociales corresponde a identificar y comprender cuales son los factores y predictores de la deserción. El objetivo de este proyecto es identificar cuales son los factores que lleva a los estudiantes a desertar, con el propósito de generar un proceso de alertas tempranas por medio de la creación y aplicación de un modelo que permita detectar tempranamente a los posibles desertores de los estudiantes de pregrado de una Universidad del territorio nacional. La metodología general del proyecto de rediseño es la Ingeniería de Negocios del doctor Oscar Barros, mientras que para la creación de los modelos predictivos se utiliza la metodología CRISP-DM. El propósito es obtener un modelo que permita ir monitoreando las calificaciones obtenidas por los alumnos en las tres primeras evaluaciones de cada ramo del primer semestre del primer año y así dirigir los esfuerzos de manera localizada, generando un acompañamiento especial en las asignaturas que presentan dificultad. Los algoritmos utilizados para la creación de los modelos predictivos fueron los siguientes: Árboles de decisión (Gradient Boosted Trees y Random Forest), Regresión Logística, Redes Neuronales y Máquinas de Soporte Vectorial, donde el que presentó los mejores resultados de predicción fue el Random Forest, con un Accuracy del 83% y un Fscore del 70,3%. Con tal modelo se realizó una prueba piloto a los alumnos que ingresaron a la carrera el año 2017, obteniendo una asertividad del 58,34%. Se presenta una arquitectura basada en la conexión a la base de datos institucional para extraer los datos de cada asignatura, luego se ejecutan los pasos de la metodología CRISP-DM, finalmente se identifican los casos de uso, diagrama de arquitectura y diagrama de despliegue. Por último, se realiza una evaluación económica del proyecto, bajo tres escenarios: optimista, conservador y pesimista, utilizando una tasa de descuento del 15%, que es la que utiliza la Universidad para evaluar proyectos para un horizonte de tiempo de 3 años. En todos los escenarios la rentabilidad del proyecto es alta, ya que la inversión inicial es bastante baja, respecto al retorno, que finalmente es la retención de un grupo de alumnos, que en términos económicos significa el pago del arancel.
14

Detección de daños en losas colaborantes

Salazar Reyes, Israfel Ali January 2018 (has links)
Ingeniero Civil Mecánico / Determinar el daño en estructuras y edificios luego de ocurrido un desastre natural, como puede ser un terremoto, es de crucial importancia para poder iniciar acciones de respuesta frente a emergencias de manera eficaz y que eviten el generar mayores pérdidas. Es por esta razón que se tornan necesarias herramientas predictivas fiables basadas en tecnologías de ingeniería moderna para evaluar las estructuras dañadas y ayudar a las autoridades a tomar mejores decisiones. La losa colaborante o Steel Deck, hoy en día tiene un importante rol en la construcción de losas de entrepiso en edificios y construcciones alrededor del mundo. En Latinoamérica, su uso es cada vez más común en grandes construcciones y Chile ha tomado un papel protagónico en su masificación, implementándolas en una gran cantidad de obras de construcción ya sea para edificios industriales, habitacionales, educacionales, estacionamientos y de servicio. El creciente interés se debe a las propiedades que entrega su estructura compuesta de chapas o láminas de acero las cuales funcionan como encofrado que soporta hormigón vertido. Se comporta entonces como una estructura mixta de acero-hormigón con características como buena resistencia estructural en poco peso, larga durabilidad y bajo costo. El objetivo de esta investigación es desarrollar y evaluar la utilización de tres algoritmos de detección de daños al utilizarlos en una losa colaborante los cuales funcionan en base a los cambios en sus modos de vibración y frecuencias naturales. Para esto se estudian diversos métodos de detección de daño mediante vibraciones y de esta forma determinar si existe falla, su ubicación y la magnitud el daño. El estudio comprende la preparación de modelos computacionales de losa colaborante con distintos escenarios de daño, sobre los cuales se realizará un análisis de las propiedades de vibración mediante software de ingeniería asistida para determinar sus modos de vibración y frecuencias naturales. Una vez obtenidos los modos de vibración se aplicarán los algoritmos de identificación de daño para poder estudiar su efectividad en los diferentes escenarios. Se espera poder determinar según los resultados, cuales son los alcances y limitaciones de cada método de identificación. Se estudiará la efectividad de cada uno según la calidad de la detección, la posibilidad de determinar la localización del daño y el grado de daño. / Este trabajo ha sido parcialmente financiado por proyecto Fondecyt 1170535
15

Simulación numérica por el método de elementos finitos del transiente hidráulico en sistemas de transporte de fluidos monofásicos a largas distancias

Tapia Cárdenas, Fernando Andrés January 2018 (has links)
Ingeniero Civil Mecánico / El fenómeno de transientes hidráulicos en sistemas de transporte de fluidos por cañerías es un aspecto que debe ser analizado en detalle por las empresas de ingeniería especializadas del área. A lo largo de las historia moderna se han registrado desastres a las instalaciones, las personas y las comunidades cercanas a estas conducciones como consecuencia de un diseño inapropiado. El presente estudio desarrolla una herramienta computacional (algoritmo) que predice la variación de presión y velocidad del fluido al interior de las cañerías en un sistema de transporte de fluidos monofásicos a larga distancia durante un evento transiente. En la actualidad existen distintos modelos que permiten predecir el coeficiente de fricción existente entre el fluido y la pared interna de la cañería, los cuales junto a las ecuaciones de conservación de masa y de movimiento, permiten calcular los valores de presión y velocidad del fluido en cualquier punto del sistema (componente espacial), y para cualquier instante de tiempo (componente temporal) luego de que el evento transiente, o golpe de ariete, se ha generado en el sistema. Sin embargo, estos modelos se han determinado analíticamente, o bien, realizando experimentaciones en sistemas de transporte de fluido de algunos cientos metros de largo, mientras que sistemas reales, como por ejemplo de transporte de agua de mar, alcanzan varios kilómetros de distancia, por lo que realizar una validación de los modelos del coeficiente de fricción existente entre el fluido y la pared interna de la cañería cobra gran importancia, ya que permite realizar un buen diseño de estas instalaciones en etapas tempranas de un proyecto de ingeniería. Para lo anterior, se desarrolló un algoritmo que resuelve las ecuaciones que gobiernan el fenómeno del golpe de ariete, utilizando el método de elementos finitos, y programando en el lenguaje de MATLAB. Se utilizó un escenario ficticio, el que está compuesto por un estanque con nivel constante del pelo de agua, conectado a una cañería de 5000[m] de longitud, y en el otro extremo una válvula de bola que cierra rápidamente. Este escenario corresponde a una extrapolación de los existentes en la literatura. Se concluye con este estudio que el modelo estacionario de perdida de energía por fricción es un buen estimador. Los resultados de presión obtenidos, si bien son conservadores en comparación con los modelos cuasi-estacionario y no-estacionario, son bastante precisos para utilizarlos en el diseño de sistemas de transporte de fluidos. Además, se observó que el modelo no-estacionario estima que se pierde más energía por roce entre el fluido y la pared de la cañería, que los otros dos modelos.
16

Caracterización del conjunto de consideración en elección de ruta

Villalobos Zaid, Guillermo Nicolás January 2018 (has links)
Ingeniero Civil / En elecciones discretas, el conjunto de consideración contiene las alternativas entre las cuales un tomador de decisión realiza una elección. Uno de los supuestos fundamentales al modelar elecciones discretas es que el analista conoce dicho conjunto. Este supuesto es fácilmente cuestionable, sobre todo cuando el conjunto universal de alternativas es muy grande, como es en elección de rutas. Manski (1977) dio una solución a este problema desde el punto de vista teórico, proponiendo un enfoque donde se utiliza el conjunto de consideración como latente. Prato (2009) revisa una serie de métodos que han intentado resolver este problema de forma práctica. Entre estos enfoques, destacan aquellos en los que se eligen funciones de costo generalizado y se calculan las mejores \textit{K} rutas para generar el conjunto. Sin embargo, independiente del método utilizado, si se viola algún supuesto el modelo no será capaz de representar la realidad, entregando estimadores inconsistentes y errores en la predicción. Esta memoria realiza tres contribuciones orientadas a entender el proceso de generación del conjunto de consideración. La primera se basa en la utilización de una simulación de Monte Carlo para explorar la robustez de varios métodos prácticos utilizados para construir el conjunto de consideración. La segunda consiste en el análisis de tres métodos para recolectar datos sobre el conjunto de consideración: datos pasivos, encuesta online y encuesta sobre mapa. Finalmente, la tercera contribución desarrolla un experimento práctico de preferencias declaradas donde los participantes se ven enfrentados a una imitación del proceso de generación del conjunto de consideración. Esto permite estudiar características del conjunto y probar la robustez de algunos posibles métodos utilizados para construirlo. En el capítulo basado en simulación de Monte Carlo se muestra primero que los métodos tradicionales generan grandes sesgos en la estimación. Además, se prueba un nuevo método generador del conjunto que utiliza una serie de elecciones experimentadas, resultando en buenas estimaciones y mostrando cierto potencial práctico, dada la disponibilidad de datos de hoy en día mediante datos pasivos. En el capítulo referido a la recolección de datos, se muestra evidencia preliminar que sugiere que los datos pasivos, si bien son atractivos debido a que muestran las preferencias reveladas de las personas, tienen la limitación de requerir de mucho procesamiento para dar cuenta de errores de medición. Por otro lado, los datos obtenidos a partir de encuestas mostraron ser factibles para utilizarse en un contexto exploratorio. Estos datos permitieron describir el tamaño del conjunto de consideración, estudiar las heurísticas que la gente dice utilizar para generar el conjunto, modelar el proceso de consideración e identificar las variables que afectan dicho proceso. Finalmente, se utilizan estos datos para estudiar el sesgo que causan los distintos métodos para generar el conjunto de consideración, corroborando que los métodos deterministas generan sesgos muy grandes, estimando incluso parámetros con signo contrario a los verdaderos. / Este trabajo ha sido parcialmente financiado por el proyecto Fondecyt-Chile N° 1150590
17

Modelo de equilibrio urbano general

Vallejos Muñoz, Tomás Alejandro January 2018 (has links)
Tesis para optar al grado de Magíster en Ciencias de la Ingeniería, Mención Transporte / Memoria para optar al título de Ingeniero Civil / El presente trabajo de tesis aborda el desafío de formular un modelo integrado, que contenga un equilibrio entre los sistemas de transporte, uso de suelo e intercambio de bienes y servicios. Para este propósito, se utiliza como base el modelo RELUTRAN (Anas y Liu, 2007), que formula un equilibrio en los sistemas de uso de suelo, transporte y consumo de bienes y servicios; en este caso, se asume que los agentes se localizan maximizando su utilidad, por lo tanto, es un modelo tipo ``Choice''; el modelo del sistema de transporte se basa en ``Stochastic cost minimization model'' (Daganzo y Sheffi, 1997) y no tiene demostración de convergencia ni de unicidad de la solución. Sin embargo, iterativamente se llega a una solución. Luego, el modelo propuesto en esta tesis recibe el nombre de MEGU (Modelo de equilibrio general urbano), se asume que el mercado del suelo se transa mediante remates, por lo tanto, es un modelo tipo ``Bid''. Se definen dos tipos de agentes, ``Hogares'' y ``Firmas''; los primeros maximizan una función de utilidad tipo Cobb-Douglas aleatoria, mientras que las Firmas, minimizan una función aditiva de costos; en ambos casos el término de error para las funciones de disposición a pagar resultantes, distribuye Fréchet (Mattsson. et al., 2011). El trade-off consiste en que los hogares demandan suelo, consumen bienes y servicios y ofertan mano de obra; mientras que las firmas demandan suelo, producen bienes y servicios y demandan mano de obra. Para la oferta inmobiliaria, se utiliza como referencia la formulación propuesta en MUSSA (Martínez y Donoso, 2010), pero con una distribución de error tipo Fréchet. El sistema de transporte que se utilizará está basado en el MTE (Baillon y Cominetti, 2008). Se diseña un algoritmo de iteración y solución secuencial por etapas, que comienza determinando las variables representativas del sistema de transportes dada la localización de los agentes, luego encuentra la solución para el sistema de intercambio de bienes y servicios y finalmente actualiza la localización de los agentes. Con el fin de verificar el correcto funcionamiento de la formulación propuesta, se diseñan escenarios de simulación que permiten analizar casos tipo y se programa una rutina específicamente desarrollada para M.E.G.U., que se aplica en una ciudad ficticia. Finalmente, se reportan las principales conclusiones obtenidas y se sugieren posibles líneas de investigación futura. / FONDEF D10I-1002 "Tecnología Avanzada para Ciudades del Futuro"
18

Speculation and hedging in art markets

Valdenegro Cabrera, Víctor Eduardo January 2018 (has links)
Ingeniero Civil Industrial / 16/08/2023
19

Propuesta de actualización del sistema de alerta de crecidas en Chile usando redes neuronales e hidrogramas unitarios

Ávila Mercado, Claudio Andrés January 2018 (has links)
Ingeniero Civil / Durante los últimos años en el mundo se ha observado un aumento de la frecuencia de inundaciones, las que pueden ser muy destructivas, siendo necesario proveer de sistemas de alerta que permitan estar preparados ante estos eventos extremos. Los sistemas de alerta de crecidas han demostrado ser rentables ya que sus costos son bajos en comparación a los impactos que éstas generan. Actualmente en Chile existe un sistema de monitoreo realizado por la Dirección General de Aguas (DGA), en el que si un caudal umbral se sobrepasa se declara una alerta. Además, existen relaciones de pronóstico de caudales en algunas estaciones mediante el uso de modelos autorregresivos con variable exógena (ARX), generados en el año 1987 por BF Ingenieros. Sin embargo, muchas de estas relaciones no se encuentran operativas, por diversas razones. Este trabajo propone actualizar el sistema de alerta de crecidas utilizando modelos de redes neuronales, que han demostrado obtener mejores resultados en la predicción de caudales en tiempo real que los modelos utilizados en el Sistema Nacional de Alerta de Crecidas (SNAC), para lo cual se utilizan las cuencas piloto Curanilahue en Curanilahue y Cautín en Cajón. Además, para cuencas pequeñas de rápida respuesta hidrológica se propone aplicar el Sistema Guía para Crecidas Repentinas (SGCR) junto con la aplicación del hidrograma unitario con pulsos horarios de precipitación, para lo cual se utiliza la cuenca piloto Curanilahue en Curanilahue. La aplicación de la metodología permitió encontrar redes neuronales óptimas para cada cuenca, una para la cuenca del río Curanilahue con predicciones aceptables hasta las 3 horas de antelación, con eficiencias NSE y R2 superiores a 0,81 y otra para la cuenca del río Cautín en Cajón con predicciones aceptables hasta las 12 horas de antelación, con eficiencias NSE y R2 superiores a 0,95. Además, para la cuenca del río Curanilahue en Curanilahue los resultados del SGCR son aceptables cuando se utiliza un pronóstico perfecto de precipitación (con porcentajes de acierto entre 67 y 100% dependiendo del tipo de alerta y sin falsas alarmas), sin embargo, es altamente dependiente de que estos pronósticos sean precisos. Algo parecido ocurre con la metodología del hidrograma unitario, la cual es más conservadora (con porcentajes de acierto similares y porcentajes de falsa alarma entre 0 y 50% dependiendo del tipo de alerta). Se concluye que los modelos de redes neuronales presentan mejores resultados en comparación a la situación actual, por lo que se podrían utilizar como sistemas de alerta con mayores tiempos de antelación. Para crecidas repentinas es útil la implementación de metodologías como el SGCR y el hidrograma unitario, cuando se tengan pronósticos precisos de precipitación.
20

Caracterización y cuantificación de los procesos de transporte-reacción que dominan la dinámica intradiaria de dióxido de carbono y oxígeno en el Salar del Huasco

Hidalgo Durán, Felipe Antonio January 2017 (has links)
Ingeniero Civil / Los salares se ubican típicamente en la región altiplánica andina de Chile, Perú y Bolivia. Los sistemas acuáticos formados en ellos, corresponden usualmente a lagunas extremadamente someras, sometidas a condiciones ambientales desfavorables como bajo oxígeno atmosférico, alta oscilación térmica, alta radiación y fuertes vientos durante las horas del día. Estos ecosistemas están principalmente sustentados por la producción bentónica primaria, la que funciona como alimento para aves de la zona, como los flamencos, ave que se encuentra en estado vulnerable. Debido a lo anterior es que el trabajo de título realizado, consiste en la elaboración de un modelo hidrodinámico de la variación intradiaria de dióxido de carbono y oxígeno en el salar de Huasco, dinámicas que se ven afectadas por los flujos en la interfaz agua-sedimentos, los procesos biológicos de la columna de agua y los flujos en la interfaz aire-agua. El objetivo general es describir y cuantificar los procesos de transporte-reacción de dióxido de carbono y oxígeno en la zona, mediante la elaboración de un modelo hidrodinámico impermanente en 0D del salar, que permita obtener las evoluciones diarias para el oxígeno y el dióxido de carbono, para luego ser validado utilizando mediciones del terreno. El fin de la modelación es adquirir conocimiento acerca de estos fenómenos que pueden afectar considerablemente a los ecosistemas de la zona, únicos en el mundo, adaptados a condiciones climáticas extremas. Inicialmente se realizó un procesamiento de los datos obtenidos en dos campañas de terreno realizadas en los años 2015 y 2016, el que complementado con una revisión bibliográfica orientada a la hidro y biodinámica de sistemas someros, permitió plantear un modelo conceptual que simula las evoluciones intradiarias de dióxido de carbono y oxígeno. Luego se procedió a calibrar y validar el modelo con datos medidos, para finalmente realizar un análisis de sensibilidad que explique los procesos y parámetros más significativos del modelo. El principal resultado del trabajo, corresponde a un modelo que permite cuantificar las variaciones intradiarias de dióxido de carbono y oxígeno. Este modelo permite identificar que los procesos más importantes para el salar corresponden a la producción primaria, y a los flujos de masa en la interfaz aire-agua, tanto para el dióxido de carbono como para el oxígeno. En estos flujos se presentan inconsistencias entre lo que se sabe de la literatura y lo que se observa en el modelo, donde se presentan grandes diferencias entre las tasas de trasferencia en esta interfaz según el compuesto que se esté analizando.

Page generated in 0.1099 seconds