• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 19
  • Tagged with
  • 19
  • 19
  • 19
  • 19
  • 10
  • 10
  • 10
  • 10
  • 10
  • 10
  • 7
  • 6
  • 6
  • 6
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Implementación de la iteración lanczos en arquitectura CUDA

Rosales Jara, Erick Daniel 25 July 2015 (has links)
Los autovalores y autovectores son elementos muy utilizados en diversos problemas como análisis de estructuras, reconocimiento de imágenes, compresión de datos, solución de problemas electrodinámicos, entre otros. Existen muchos algoritmos para calcular y tratar con autovalores y autovectores mediante el uso de computadoras, sin embargo, cuando solo se requiere uno o unos pocos autovalores (los más significativos) y autovectores, se puede optar por Power Method o la Iteración Lanczos. Por otro lado, factores como la cantidad de información a procesar o la precisión deseada pueden significar tiempos de ejecución no aceptables para ciertas aplicaciones, surgiendo la alternativa de realizar implementaciones paralelas, siendo la arquitectura CUDA una de la mejores opciones actualmente. En la presente tesis se propone diseñar e implementar un algoritmo paralelo para la iteración Lancos en arquitectura CUDA, el cual es un método para el cálculo del mayor autovalor y su correspondiente autovector. La propuesta esta dividia en tres bloques principales. El primer bloque realiza la tridiagonalización parcial de una matriz cuadrada simétrica. El segundo bloque calcula la descomposición de Schur de la matriz tridiagonal obteniendo los autovectores y autovalores de esta. El tercer bloque calcula el mayor autovalor y su correspondiente autovector de la matriz inicial a partir de lo obtenido en etapas anteriores y determinará si es necesario seguir realizando cálculos. Los bloques trabajan iterativamente hasta encontrar resultados que se ajusten a la precisión deseada. Además de la implementación paralela en CUDA, se realizaron implementaciones en el entorno de simulación MATLAB y en lenguaje C secuencial, con el propósito de comparar y verificar una correcta y eficiente implementación paralela. Los resultados computacionales evaluados para una matriz de 4000 _ 4000 elementos reflejan un rendimiento de 13;4 y 5;8 al compararse la implementación en CUDA con MATLAB y C secuencial respectivamente. Estos rendimientos tienden a crecer mientras mayor sea el tamaño de la matriz. La organización de la tesis es: en el primer capítulo se describe la problemática del tema. En el segundo capítulo se explica la teoría correspondiente a Power Method y Lanczos, así como los algoritmos necesarios. En el capítulo tres se exponen conceptos fundamentales sobre arquitectura CUDA. El diseño del algoritmo paralelo se desarrolla en el capítulo cuatro. Finalmente, en el capítulo cinco, se muestran y analizan los resultados computacionales, seguidos de las conclusiones, recomendaciones y bibliografía. / Tesis
2

Diseño y simulación de un scrambler digital de voz

Montoya Limón, Roberto Isaac 15 October 2012 (has links)
Un primer acercamiento a la definición de comunicación puede realizarse desde su etimología. La palabra deriva del latín communicare, que significa “compartir algo, poner en común”. Por lo tanto, la comunicación es el proceso mediante el cual el emisor y el receptor establecen una conexión en un momento y espacio determinados para compartir ideas, transmitir e intercambiar información o significados que son comprensibles para ambos. Desde un punto de vista técnico se entiende por comunicación al hecho que un determinado mensaje originado por el emisor llegue a un receptor, distante en el espacio o en el tiempo. La comunicación implica transmitir y recepcionar una determinada información que en la actualidad se encuentra muy vulnerable e insegura debido a las interceptaciones, la existencia de intereses personales, empresariales o de terceros. Este problema ha motivado la presente tesis a diseñar una alternativa de solución mediante el cual se mejora la confidencialidad de las comunicaciones que en su mayoría de casos se requiere. En tal sentido, la presente tesis tiene como objetivo presentar un Diseño y Simulación de un Scrambler Digital de Voz, el cual permitirá codificar la señal de voz a fin de transmitirla por el canal. La transmisión permitirá la comunicación exclusiva entre el emisor y receptor. Sólo el receptor podrá decodificar el mensaje y a su vez recibirá del emisor una contraseña que será establecida aleatoriamente en cada transmisión. Para la recepción, se decodificará la señal de voz con la contraseña recibida aleatoriamente garantizando de esta manera una comunicación segura. / Tesis
3

Implementación del detector de esquinas de Harris en la plataforma Jetson TK1

Chahuara Silva, Hector Francisco 27 June 2017 (has links)
Las esquinas son puntos invariantes, estructurales y con alto contenido de información en una imagen. Estas son usadas en aplicaciones importantes de Procesamiento de imágenes o video entre las cuales destacan Navegación de UAVs (Unmanned Aerial Vehicles) [1] o Detección de objetos [2] que son importantes en distintas áreas y tienen requerimientos de tiempo real. Entre las soluciones para detección de esquinas propuestas destaca el detector de esquinas de Harris [3], el cual demuestra ser robusto y eficiente. El uso de plataformas que permiten realizar procesamiento paralelo permiten implementar métodos de alto costo computacional con un bajo tiempo de procesamiento. Entre ellas destacan los GPU (Graphic Processor Unit) que generalmente tienen un alto consumo energético, lo cual es inconveniente en aplicaciones dirigidas a dispositivos móviles como celulares, robots, drones, entre otros. Por ello, plataformas basadas en mobile CPU que tienen bajo consumo energético son opciones a tomar en cuenta. En la presente tesis se propone el diseño e implementación del Detector de esquinas de Harris en la plataforma Jetson TK1 de Nvidia [4] la cual se distingue por su bajo consumo energético y alto rendimiento. El método será implementado en MATLAB, ANSI-C y CUDA. Los resultados muestran que la implementación en CUDA presentada es hasta 32.08 veces aproximadamente más rápida que la implementación en ANSI-C y permite procesar imágenes de resolución full HD (1920 x 1080) en tiempo real. Además, es comparable a implementaciones en software en plataformas con mayores recursos e implementaciones en hardware usando FPGAs (Field Programmable Gate Array). La estructura del presente documento es la siguiente: En el primer capítulo se presenta el estado del arte sobre detección de esquinas y el Detector de esquinas de Harris. En el segundo capítulo se presenta la plataforma Jetson TK1. El diseño del algoritmo paralelo se detalla en el tercer capítulo. Por último, se presenta la implementación y sus resultados en el cuarto capítulo, seguido de las conclusiones y recomendaciones. / Tesis
4

Aplicaciones multimedia para el curso de mecánica estructural

Nontol Espinoza, Carlos David 28 November 2018 (has links)
En el presente trabajo, se desarrollan aplicaciones en MATLAB a modo de herramientas didácticas, que permitan ilustrar de manera sencilla y amigable los conceptos del curso de Mecánica Estructural para facilitar el aprendizaje de los alumnos. El código de las aplicaciones está escrito en MATLAB y compilado en archivos ejecutables (archivos *.exe) de tal forma que no se requiera del programa principal para ser utilizados. Se desarrollan aplicaciones para los siguientes temas: Teoría de esfuerzos y deformaciones en el rango elástico, se abarca desde las definiciones básicas, la transformación de esfuerzos y deformaciones en general y en particular para encontrar los valores principales y direcciones principales. Ley de Hooke generalizada para distintos materiales, Incluyendo los efectos de cambios de temperatura. Teoría de falla para materiales frágiles y dúctiles: Máximo esfuerzo normal (Rankine Coulomb), Máxima deformación unitaria (Saint Venant), Densidad de energía de deformación (Beltrami), Máximo esfuerzo cortante (Tresca), Densidad de Energía de Distorsión (Von Mises). Se analiza los factores de seguridad y se grafica las superficies de fluencia de cada criterio de falla. Vigas con cimentación elástica y cargas variables, se calcula la deflexión, giro, fuerza cortante, momento flector y el esfuerzo máximo. Se desarrolla la teoría para “n” cargas aplicadas. Pandeo, enfoque clásico y con polinomios para diversas condiciones de apoyo, obteniendo la carga crítica y la forma modal de pandeo. Se analiza además la carga crítica de pandeo para elementos esbeltos de sección variable y de sección compuesta. En el análisis de teorías de falla se puede comparar los factores de seguridad y las superficies de falla para distintos criterios, observando que en bajo cierta combinación de cargas uno resulta más conservador que otro. En el análisis de pandeo de elementos esbeltos, se presenta tablas de la carga crítica obtenida para varias condiciones de apoyo, para elementos de sección constante, variable y de sección compuesta. La precisión de estos valores depende directamente de la exactitud de la ecuación de la deformada asumida. Al tener una viga apoyada sobre una cimentación elástica se obtiene esfuerzos en su sección. Se puede analizar el máximo de estos esfuerzos con alguno de los criterios de falla dependiendo del material en estudio. Así por ejemplo si es un material frágil se pude usar el criterio de Rankine, si es un material dúctil se puede usar el criterio de Tresca. El código de las aplicaciones también es presentado en archivos script (archivos *.m) de libre acceso. Se propone al final de este documento un nuevo alcance para complementar y mejorar el código desarrollado en el presente trabajo. / Tesis
5

Aplicaciones multimedia para el curso de mecánica estructural

Nontol Espinoza, Carlos David 28 November 2018 (has links)
En el presente trabajo, se desarrollan aplicaciones en MATLAB a modo de herramientas didácticas, que permitan ilustrar de manera sencilla y amigable los conceptos del curso de Mecánica Estructural para facilitar el aprendizaje de los alumnos. El código de las aplicaciones está escrito en MATLAB y compilado en archivos ejecutables (archivos *.exe) de tal forma que no se requiera del programa principal para ser utilizados. Se desarrollan aplicaciones para los siguientes temas: Teoría de esfuerzos y deformaciones en el rango elástico, se abarca desde las definiciones básicas, la transformación de esfuerzos y deformaciones en general y en particular para encontrar los valores principales y direcciones principales. Ley de Hooke generalizada para distintos materiales, Incluyendo los efectos de cambios de temperatura. Teoría de falla para materiales frágiles y dúctiles: Máximo esfuerzo normal (Rankine Coulomb), Máxima deformación unitaria (Saint Venant), Densidad de energía de deformación (Beltrami), Máximo esfuerzo cortante (Tresca), Densidad de Energía de Distorsión (Von Mises). Se analiza los factores de seguridad y se grafica las superficies de fluencia de cada criterio de falla. Vigas con cimentación elástica y cargas variables, se calcula la deflexión, giro, fuerza cortante, momento flector y el esfuerzo máximo. Se desarrolla la teoría para “n” cargas aplicadas. Pandeo, enfoque clásico y con polinomios para diversas condiciones de apoyo, obteniendo la carga crítica y la forma modal de pandeo. Se analiza además la carga crítica de pandeo para elementos esbeltos de sección variable y de sección compuesta. En el análisis de teorías de falla se puede comparar los factores de seguridad y las superficies de falla para distintos criterios, observando que en bajo cierta combinación de cargas uno resulta más conservador que otro. En el análisis de pandeo de elementos esbeltos, se presenta tablas de la carga crítica obtenida para varias condiciones de apoyo, para elementos de sección constante, variable y de sección compuesta. La precisión de estos valores depende directamente de la exactitud de la ecuación de la deformada asumida. Al tener una viga apoyada sobre una cimentación elástica se obtiene esfuerzos en su sección. Se puede analizar el máximo de estos esfuerzos con alguno de los criterios de falla dependiendo del material en estudio. Así por ejemplo si es un material frágil se pude usar el criterio de Rankine, si es un material dúctil se puede usar el criterio de Tresca. El código de las aplicaciones también es presentado en archivos script (archivos *.m) de libre acceso. Se propone al final de este documento un nuevo alcance para complementar y mejorar el código desarrollado en el presente trabajo. / Tesis
6

Formación de imágenes para detección de cáncer de mama empleando tecnología microondas

Villavicencio Paz, Arantxa 21 February 2019 (has links)
El presente trabajo consiste en la formación de imágenes que permitan detectar tempranamente los tumores mamarios. Para ello, se hará uso de un sistema de recolección de datos físico, haciendo uso de la tecnología microondas por medio de antenas y un equipo Analizador de Redes Vectoriales (VNA). Estos datos serán procesados con algoritmos computacionales para lo obtención de las imágenes. El primer capítulo presenta una descripción del marco problemático actual, donde se considera tanto la incidencia como la mortalidad por cáncer de mama en relación con la importancia de la detección temprana. Luego, se hace una mención breve sobre alguna de las tecnologías actuales que se encuentran destinadas a la imagenología de la mama, lo cual brinda una visión de en qué campos puede desenvolverse la presente investigación y los parámetros a evaluar que se contemplan para una útil formación de imágenes. Por último, con todo lo anterior se plantea la justificación y los objetivos de estas tesis. En el segundo capítulo se expone qué son las propiedades dieléctricas y cómo es que las propiedades de los componentes de una mama brindan información suficiente para la formación de imágenes en base a tecnología microondas. Además, se mencionan las distintas técnicas microondas para formación de imágenes y se logra enfatizar en las basadas en radar, ya que estas competen a la aplicación en este trabajo. Finalmente, se explica brevemente lo que son los parámetros de dispersión, datos base de información para el procesamiento que son brindados por el equipo VNA. El tercer capítulo consiste en el planteamiento de distintos puntos requeridos para el sistema final. Por un lado, se plantea el desarrollo del fantoma de pruebas que simula las propiedades eléctricas de una mama, para lo cual se emplea una técnica basada en cavidades resonantes que permite medir la permitividad de los materiales a usar. Esta medición de permitividad permite comprobar si los valores de los materiales corresponden a los esperados. Por otro lado, se describen dos sistemas para formación de imágenes basados en radar: Confocal y Holográfico. Para ello, se considera el mecanismo de sus algoritmos, los requerimientos para la recolección de pruebas experimentales y, finalmente, las pruebas de factibilidad de estos en la detección de objetos. Las imágenes obtenidas permiten comparar ambos métodos. Además, se realiza una prueba adicional de distribución espacial de antenas para el sistema holográfico, buscando distinguir la distribución con mejores resultados. / Tesis
7

Desarrollo de una herramienta informática en MATLAB para la estandarización de la toma de datos en estudios de vida pública

Mallma León, José Antonio 06 April 2017 (has links)
El interés por el estudio de los peatones ha ido aumentado a lo largo de los años debido a su importancia en la movilidad y en el diseño del espacio público. El proceso de diseño se inicia con el estudio de vida pública que permite recolectar información sobre los patrones de comportamiento de las personas. Se registran flujos y velocidades peatonales, patrones de movimiento, lugares de estancia, etc., pero a la fecha no existe un software que permita sistematizar la información recolectada y organizarla de manera estándar. Por ello, el presente trabajo tiene como objetivo principal el desarrollo e implementación de un software, que permita el registro de los datos recolectados en estudios de vida pública. Dicho programa cuenta con una interfaz gráfica de usuario para facilitar su uso. El programa fue desarrollado en el entorno del lenguaje de programación MATLAB. Se implementaron seis herramientas de los estudios de vida pública: Mapping para mapear las actividades de las personas, Tracing para identificar las rutas o líneas de deseo, Tracking para registrar el seguimiento de los peatones, Counting para registrar los flujos peatonales, Speed Test para evaluar las velocidades de las personas, y Diary que permite registrar información genérica que no pertenece a las demás herramientas. Para tal fin, se adoptó el proceso típico de la ingeniería de software que consta de etapas parcialmente ordenadas. En primer lugar, se traducen las necesidades del usuario en requerimientos de software, luego estos son transformados en diseño, dicho diseño es implementado en código. Finalmente, el código es probado y documentado. Con base en las pruebas realizadas, se concluye que el programa cumplió con las expectativas y objetivos planteados; sin embargo, es importante resaltar que se trata de una primera versión y tiene bastantes limitaciones. Se espera que en un futuro se pueda mejorar y ampliar las funcionalidades con las que se cuenta de acuerdo a los nuevos sujetos de estudios que aparezcan en la movilidad. / Tesis
8

Simulación del estándar IS-95 en MATLAB

Corzo Gálvez, Miguel Ángel 23 November 2011 (has links)
En el primer capítulo se explica la importancia del sistema CDMA en el desarrollo de los futuros sistemas celulares y el motivo del desarrollo de esta tesis. En el segundo capítulo se explica la evolución de la tecnología celular, en la cual fueron apareciendo diferentes tecnologías, las cuales ofrecían mejores prestaciones para el usuario final. En el tercer capítulo se describen todas las técnicas de acceso múltiple empleados por los diversos sistemas de comunicación. En el cuarto capítulo se desarrolla el cálculo de las pérdidas en el trayecto; de tal manera que con este cálculo se puede encontrar la cobertura de la señal. Además, se explican algunos modelos utilizados en la práctica tales como Okumura, Hata y Link Budget. También define algunos conceptos útiles para este capítulo y por último se muestra las bandas asignadas en Perú. En el quinto capitulo se explican los temas relacionados con el estándar IS-95, la cual engloba diferentes técnicas para procesar la señal; los conceptos para entender el funcionamiento y los canales que posee en los dos sentidos downlink & uplink. En el sexto capítulo se desarrollan los diagramas de flujo del programa principal y los subprogramas. Los subprogramas ayudan a organizar las tareas de cada una de las técnicas utilizadas simular el estándar, de tal manera que el programa principal haga uso de los subprogramas para el procesamiento de la señal. Adicionalmente, en este capítulo se explica las perdidas de datos en la codificación de la voz, la clave de la técnica del CDMA con ayuda de la correlación de las secuencias pseudoaleatorias y por último un manual, donde explica cómo se debe usar el programa. En el séptimo y octavo capítulo se presentan las observaciones y recomendaciones que se observaron durante el desarrollo del trabajo de tesis. En el noveno capítulo se dan las referencias bibliográficas utilizadas para el desarrollo de la tesis, cabe destacar que la mayor fuente de información fue Internet. Al final de la tesis se muestra un pequeño glosario de las palabras técnicas empleadas en la tesis. / Tesis
9

Implementación de la iteración lanczos en arquitectura CUDA

Rosales Jara, Erick Daniel 25 July 2015 (has links)
Los autovalores y autovectores son elementos muy utilizados en diversos problemas como análisis de estructuras, reconocimiento de imágenes, compresión de datos, solución de problemas electrodinámicos, entre otros. Existen muchos algoritmos para calcular y tratar con autovalores y autovectores mediante el uso de computadoras, sin embargo, cuando solo se requiere uno o unos pocos autovalores (los más significativos) y autovectores, se puede optar por Power Method o la Iteración Lanczos. Por otro lado, factores como la cantidad de información a procesar o la precisión deseada pueden significar tiempos de ejecución no aceptables para ciertas aplicaciones, surgiendo la alternativa de realizar implementaciones paralelas, siendo la arquitectura CUDA una de la mejores opciones actualmente. En la presente tesis se propone diseñar e implementar un algoritmo paralelo para la iteración Lancos en arquitectura CUDA, el cual es un método para el cálculo del mayor autovalor y su correspondiente autovector. La propuesta esta dividia en tres bloques principales. El primer bloque realiza la tridiagonalización parcial de una matriz cuadrada simétrica. El segundo bloque calcula la descomposición de Schur de la matriz tridiagonal obteniendo los autovectores y autovalores de esta. El tercer bloque calcula el mayor autovalor y su correspondiente autovector de la matriz inicial a partir de lo obtenido en etapas anteriores y determinará si es necesario seguir realizando cálculos. Los bloques trabajan iterativamente hasta encontrar resultados que se ajusten a la precisión deseada. Además de la implementación paralela en CUDA, se realizaron implementaciones en el entorno de simulación MATLAB y en lenguaje C secuencial, con el propósito de comparar y verificar una correcta y eficiente implementación paralela. Los resultados computacionales evaluados para una matriz de 4000 _ 4000 elementos reflejan un rendimiento de 13;4 y 5;8 al compararse la implementación en CUDA con MATLAB y C secuencial respectivamente. Estos rendimientos tienden a crecer mientras mayor sea el tamaño de la matriz. La organización de la tesis es: en el primer capítulo se describe la problemática del tema. En el segundo capítulo se explica la teoría correspondiente a Power Method y Lanczos, así como los algoritmos necesarios. En el capítulo tres se exponen conceptos fundamentales sobre arquitectura CUDA. El diseño del algoritmo paralelo se desarrolla en el capítulo cuatro. Finalmente, en el capítulo cinco, se muestran y analizan los resultados computacionales, seguidos de las conclusiones, recomendaciones y bibliografía.
10

Análisis de sensibilidad paramétrica para el diseño eficiente de humedales artificiales de flujo superficial a través del software Matlab

Acuña Letona, Raúl Sebastián 05 April 2021 (has links)
En el presente trabajo se desarrolló un aplicativo con ayuda del software MATLAB para acompañar en las fases de diseño y mantenimiento de la implementación de proyectos de humedales artificiales de flujo superficial. Dicho aplicativo se encuentra de manera libre para su descarga con el nombre HumePUCP en el siguiente link: https://bit.ly/3k2hOs7 . El trabajo de tesis propone un primer acercamiento para un diseño optimizado de humedales artificiales en función a la literatura existente. Por un lado, existen diversos autores que proponen distintas ecuaciones de diseño en función al área superficial. Dichas ecuaciones tienen constantes de diseño típicos que, debido a su naturaleza, no proporcionan diseños adecuados ya que las condiciones bajo las cuales estas se formularon varían de acuerdo a las condiciones locales de cada estudio. Esto, finalmente se traduce en sobredimensionamientos e incrementos en costos de construcción y mantenimiento. A este reto se le suman las diversas consideraciones que se deben tomar en cuenta para diseñar en función a distintos indicadores de calidad de agua. Frente a esta complejidad, el aplicativo en mención toma los cuatro modelos para diseño de humedales más empleados en la literatura y se permite integrar los siguientes contaminantes: DBO5, SST, NT, NH4, PT y NO3 para un diseño eficiente. El aplicativo permite estudiar las variables involucradas en los típicos modelos de diseño para humedales artificiales a fin de comparar y optar por un diseño optimizado (menor área superficial). Se incluyen una fase de seguimiento (en caso el usuario cuente con datos) con herramientas de análisis estocástico para modificar los parámetros seleccionados y optimizar las constantes de diseño de un humedal de flujo superficial. Asimismo, el usuario puede gestionar la data recogida y evaluar indicadores estadísticos como varianza, media y eficiencia a fin de comprender el comportamiento del humedal construido. Asimismo, el aplicativo permite generar un reporte del diseño del humedal (formato estándar) en PDF a fin de permitir la cooperación entre usuarios y técnicos para que en futuro sea sencillo compartir la data generada y las consideraciones de humedales construidos en la región. De igual forma, se brinda el código del aplicativo para que eventualmente la herramienta trabajada aquí sirva como base para futuros proyectos en ingeniería relacionados a humedales artificiales. Finalmente, para corroborar las exigencias en campo e incorporar las funcionalidades pertinentes dentro del aplicativo, se implementó en el distrito de Chincheros, provincia de Urubamba, región del Cusco, un humedal artificial de flujo superficial de 15.0 m2. El proyecto se diseñó en función a la remoción de DBO5 y SST. Se encontró que las constantes de diseño sugeridas por el autor R. Reed en cuanto a remoción de DBO5 son buenas aproximaciones, obteniendo un valor de p = 0.329, indicando que no hay prueba suficiente para afirmar que lo que predice el modelo y las mediciones de contaminante en campo son muy diferentes; es decir, el modelo y las constantes empleadas son predictivos. Por otro lado, el modelo empleado para SST y las mediciones en campo si fueron disparejos empleando una constante de K20=1000.0 m/año en el diseño según el modelo del autor R. Kadlec. De acuerdo al análisis estocástico realizado con HumePUCP este debería de ser aproximadamente 150.0 m/año. / In the present work, an application was developed with the help of MATLAB software to accompany the design and maintenance phases of the implementation of surface flow constructed wetland projects. This application is freely available under the name HumePUCP for download at the following link: https://bit.ly/3k2hOs7 . The thesis work proposes a first approach for an optimized design of constructed wetlands based on the existing literature. On the one hand, there are various authors who propose different design equations based on surface area. These equations have typical design constants which, due to their nature, do not provide adequate designs since the conditions under which they were formulated vary according to the various local conditions. This ultimately translates into oversizing and increases in construction and maintenance costs. To this challenge are added the various considerations that must be taken into account to design based on different water quality indicators. Faced with this complexity, the built application takes the four most used models for wetland design in the literature and allows the integration of the following pollutants (BOD5, SST, NT, NH4, PT and NO3). The application allows to study the variables involved in the typical design models for constructed wetlands in order to compare and choose an optimized design (lower surface area). A follow-up phase is included (if the user has data) with stochastic analysis tools to modify the selected parameters and optimize the design constants of a surface flow wetland. Likewise, the user can manage the collected data and evaluate statistical indicators such as variance, mean and efficiency in order to understand the behavior of the constructed wetland. Likewise, the application allows the generation of a report of the wetland design (standard format) in PDF in order to allow cooperation between users and technicians so that in the future it is easy to share the data generated and the considerations of wetlands built in the region. In the same way, the application code is provided so that the tool worked here may eventually serve as a basis for future engineering projects related to artificial wetlands. Finally, to corroborate the requirements in the field and incorporate the pertinent functionalities within the application, a 15.0 m2 surface flow artificial wetland was implemented in the Chincheros district, Urubamba province, Cusco region. The project was designed based on the removal of BOD5 and TSS. It was found that the design constants suggested by the author R. Reed regarding BOD5 removal are good approximations, obtaining a value of p = 0.329, indicating that there is not enough evidence to affirm that what the model predicts and the measurements of pollutant in the field are very different; that is, the model and the constants used are predictive. On the other hand, the model used for SST and field measurements were uneven using a constant of K20 = 1000.0 m / year in the design according to the R. Kadlec model. According to the stochastic analysis carried out with HumePUCP this should be approximately 150.0 m / year.

Page generated in 0.0812 seconds