• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1094
  • 101
  • 7
  • 1
  • Tagged with
  • 1204
  • 519
  • 382
  • 382
  • 382
  • 382
  • 382
  • 337
  • 330
  • 315
  • 270
  • 238
  • 169
  • 150
  • 131
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
751

Aplicación de enzimas en la obtención de aceite de girasol con solventes renovables : impacto del procesamiento en la composición y calidad de aceites y harinas

Rodríguez, Luciana Marcela 28 March 2019 (has links)
Dada la importancia del aceite de girasol en el comercio nacional e internacional, surge la necesidad de realizar investigaciones para incentivar la incorporación de alternativas tecnológicas “amigables” con el medio ambiente que logren reducir las pérdidas y perfeccionar el procesamiento. El uso de enzimas en el proceso de extracción acuosa o la utilización de enzimas como tratamiento previo a la extracción alcohólica, pueden estar consideradas dentro de las “tecnologías limpias” y puede dar como resultado una mejor calidad de los productos, un aumento en la competitividad frente a otros aceites en crecimiento y una mejora de la rentabilidad, debido a que se podría eliminar algunas etapas del refinado. Dentro de este marco se planteó como objetivo general de la presente tesis estudiar el uso de enzimas en el proceso extractivo de aceite de collets de girasol, utilizando solventes no convencionales y la obtención de otros derivados a escala laboratorio, promoviendo el desarrollo de tecnologías alternativas. Dentro de los objetivos específicos se pueden identificar dos grandes áreas en el uso de enzimas, por un lado se plantea su uso en la extracción acuosa de aceite de collets de girasol, estudiando variables operativas a través de diseño de experimentos para optimizar dicha extracción y por otro lado, el uso de enzimas como pre-tratamiento para la posterior extracción de aceite de collets de girasol con alcoholes de cadenas cortas como etanol e isopropanol. En el Capítulo 1 se presenta el complejo oleaginoso argentino y la relevancia del girasol en el mercado interno y externo. Se describe su localización en Argentina y sus productos, detallando la composición química del aceite, los subproductos y sus aplicaciones. Además, se realiza una breve reseña sobre la extracción de aceite con proceso convencional y no convencional, como la extracción acuosa, extracción asistida por enzimas y extracción alcohólica. En el Capítulo 2 se especifican los materiales y las técnicas analíticas utilizadas en el trabajo de tesis. A su vez, se detalla la caracterización de la materia prima principal utilizada y la caracterización de su aceite. En el Capítulo 3 analiza la extracción acuosa y acuosaenzimática a través de un diseño de experimentos robusto para definir variables generales del proceso extractivo. El estudio se complementa con la optimización de la extracción acuosa-enzimática empleando un diseño de experimentos más amplio y detallado que incluye otras variables necesarias, su significancia y el efecto de las interacciones entre las mismas. En el Capítulo 4 se evalúa la extracción alcohólica con pretratamiento enzimático, utilizando como solventes alternativos etanol e isopropanol. Se analiza la eficiencia del proceso extractivo para ambos alcoholes y se compara con la extracción convencional con nhexano. Además se realiza una caracterización de los aceites obtenidos según su contenido de fosfolípidos y tocoferoles. Finalmente, en el Capítulo 5, se exponen las conclusiones generales y se proponen trabajos futuros continuando las líneas de investigación de esta tesis, en base a los conocimientos adquiridos. / Given the importance of sunflower oil in national and international trade, there is a need to research for the incorporation of eco-friendly technological alternatives that reduce losses and improve processing. Use of enzymes in the aqueous extraction process or the use of enzymes as pre-treatment to alcoholic extraction, can be considered within the "clean technologies" and can result in a better quality products, an increase competitiveness compared with other growing oils and improvement in profitability, due to the fact that some stages of refining could be eliminated. Within this framework, the overall objective of this thesis was aimed to study the use of enzymes in the extractive oil process of sunflower collets, using non-conventional solvents and obtaining other derivatives at a laboratory scale, promoting the development of alternative technologies. Among specific objectives, enzyme use in the aqueous extraction of oil from sunflower collets was considered, studying operational variables through the design of experiments to optimize performance and on the other hand, its use in the pre-treatment to oil extraction from sunflower collets with short-chain alcohols such as ethanol and isopropanol Chapter 1 presents the Argentine oilseed complex and the relevance of sunflower in the internal and external market. Its location in Argentina and its products are described, detailing the chemical composition of the oil, the by-products and their applications. In addition, a brief review is made on the conventional and non conventional oil extraction process, such as aqueous extraction, enzyme-assisted extraction and alcoholic extraction. Chapter 2 specifies the materials and analytical techniques used in the thesis work. At the same time, the characterization of the main raw material used and the characterization of its oil are detailed. In Chapter 3, it analyzes aqueous extraction and enzyme-aided aqueous extraction through a robust design of experiments to define general variables of the extractive process. The study is complemented with the optimization of the enzyme-aided aqueous extraction using a broader and more detailed design of experiments that includes other necessary variables, their significance and the effect of the interactions among them. In Chapter 4, alcohol extraction with enzymatic pretreatment is evaluated, using ethanol and isopropanol as alternative solvents. The efficiency of the extractive process for both alcohols is analyzed and compared with conventional extraction with nhexane. In addition, a characterization of the oils obtained according to their content of phospholipids and tocopherols is carried out. Finally, Chapter 5 presents overall conclusions and future studies are proposed continuing the research lines of this thesis, based on the knowledge acquired.
752

StadCore - herramienta estadística modular:|buna orientación a la construcción y análisis de tests psicológicos

Tapia Alvarez, James David, Chavez Tapia, Daniel Ricardo 11 November 2011 (has links)
Las herramientas de software estadísticas existentes en el mercado y construidas especialmente para un área específica de estudio son muy pocas, debido a que resultaría muy costoso para el fabricante de software producir, de manera independiente, una herramienta orientada a cada área de estudio dada la diversidad de éstas. Estos costos serían trasladados hacia el usuario final y no harían rentable su producción. Es por esta razón que se opta por construir herramientas estadísticas genéricas que abarquen grandes áreas de conocimiento e incluyan un amplio conjunto de funcionalidades, llegando a cubrir de este modo la mayor parte de las necesidades de los usuarios. Sin embargo, lo anterior en ocasiones no es suficiente, ya que suelen haber pasos previos o posteriores a los cálculos estadísticos (por ejemplo; obtención, tabulación y cuadre de datos, presentación de resultados en determinado formato, etc.) que éstas herramientas de software no contemplan del todo y deben de ser realizadas aparte, ya sea con otras aplicaciones o bien de forma manual. La construcción de tests psicológicos y el análisis de sus resultados son un buen ejemplo: la construcción del test y la recolección de los resultados se realizan de forma manual, y los resultados tienen que ser transcritos para poder ser analizados en una herramienta adecuada, con la probabilidad de cometer errores. Frente a estas limitaciones se plantea un nuevo modelo de solución, el cual consiste de una herramienta de software que implemente funciones básicas, en este caso funciones estadísticas, y cuya ventaja respecto a otras herramientas de software consiste en su capacidad de escalabilidad y reutilización del software base a través de la construcción de módulos de software externos especializados y orientados a una o varias áreas específicas de estudio. Estos módulos externos pueden aprovechar las funciones estadísticas básicas de la herramienta de software base mediante interfaces de comunicación definidas, permitiendo así adaptar la funcionalidad de la herramienta de acuerdo a las necesidades del usuario. Este modelo brindará a la herramienta de software una flexibilidad superior a las actualmente existentes en el mercado. La construcción de tests psicológicos es un área de estudio en la que las herramientas de software disponibles son escasas y de difícil adquisición; ello constituye una oportunidad de mejora que puede ser aprovechada por la herramienta de software planteada. Por consiguiente, y también como prueba de concepto de la solución propuesta, se implementa un módulo orientado a la construcción y administración de tests que automatizará sus procesos de carácter mecánico maximizando el tiempo de respuesta. La presente tesis se desarrolló utilizando UML (Unified Modeling Language) como lenguaje de modelado, RUP (Rational Unified Process) como guía para el proceso de desarrollo del software y Six Sigma(metodología de mejora de procesos) para alcanzar un nivel deseado en la mejora de los procesos implementados.
753

Desarrollo de un framework para la recuperación de imágenes a partir del ingreso de dibujos a mano alzada

Puenternan Fernández, Willy 10 July 2018 (has links)
En la actualidad las personas demandan constantemente información que les ayude a realizar todo tipo de acciones. Ante esta necesidad surgieron los buscadores web y durante un tiempo permitieron la obtención de información de forma óptima. No obstante, ante la creciente generación de contenido multimedia como imágenes y videos, estos buscadores vieron afectados en gran medida sus funcionalidades al ser incapaces de describir a través de palabras el contenido de objetos abstractos presentes en dichas imágenes. Como alternativas de solución surgen los sistemas de recuperación de imágenes por contenido, cuyo uso se extiende inclusive a la realización de búsquedas más complejas como la recuperación de información en videos. Estos sistemas de recuperación de información visual comprenden dos conocidas áreas: similitud de imágenes y dibujos a mano alzada. En el caso de la búsqueda por similitud de imágenes se permite una mayor aproximación a las imágenes que el usuario desea obtener como resultado de su búsqueda, pero implica que el usuario disponga de una imagen previa de la que desea buscar; por lo que no tiene mucho sentido buscar una imagen si ya se cuenta con otra. Por otro lado, el uso de dibujos hechos a mano es un medio innato de representación del conocimiento utilizado desde tiempos antiguos y que las personas emplean desde edad temprana. Entonces, ¿por qué no utilizar los dibujos a mano alzada como un parámetro de entrada del motor de búsqueda de imágenes? Es lógico pensar que, mediante el uso de trazos, muchos de los problemas presentes en los buscadores tradicionales serían resueltos. No obstante, el desarrollo de esta alternativa de solución trae consigo nuevas e interesantes dificultades a enfrentar. En el presente proyecto de fin de carrera se desarrollará un framework de recuperación de imágenes mediante la especificación de dibujos a mano alzada como parámetro de entrada. Para ello se creará un algoritmo que priorice la obtención de resultados eficaces a partir del uso de técnicas de inteligencia artificial, visión computacional y sistemas de indexación de imágenes. El presente documento se encuentra dividido en 7 capítulos, los cuales abarcan lo siguiente: el primer capítulo presenta el contexto sobre el cual actúa el proyecto de tesis, sus objetivos, los resultados y las herramientas utilizadas para la obtención de estos; el segundo capítulo define los conceptos básicos y técnicos necesarios para un mayor entendimiento durante el desarrollo del framework; el tercer capítulo presenta una muestra de los trabajos más importantes aplicados hasta la fecha en el campo de recuperación de imágenes; el cuarto capítulo describe en detalle cómo se ideó la representación de las imágenes según la metodología de bolsa de características; el quinto capítulo hace hincapié en el diseño e implementación del proceso de comparación y recuperación de imágenes a partir del ingreso de trazos a mano alzada por parte del usuario; el sexto capítulo realiza un análisis de los resultados obtenidos y la validación de estos; finalmente, el séptimo capítulo presenta las conclusiones y recomendaciones obtenidas a lo largo del proyecto de tesis.
754

Desarrollo de un sistema de adquisición de datos de temperatura para evaluación funcional de incubadoras / José Miguel Obregón Núñez

Obregón Núñez, José Miguel 09 May 2011 (has links)
El sistema de adquisición de datos de temperatura implementado provee la información de la temperatura en puntos específicos en el habitáculo de una incubadora neonatal. Estos datos son necesarios para realizar el ensayo especificado en la Norma IEC 601219.50.102 el cual determina la precisión de los datos de funcionamiento de la incubadora en lo que respecta a temperatura. El presente trabajo comienza con la revisión de los conceptos sobre medición de temperatura, tipos de sensores, los métodos para procesamiento de señales analógicas y las normas que determinan las características del equipo (rango de medición, precisión y número de puntos de medición). Se toma como referencia los ensayos realizados en el prototipo documentado en el proyecto Sistema de Supervisión Gráfica en 3D de Temperaturas en Tiempo Real de un Ambiente Cerrado y las observaciones encontradas durante su desarrollo para plantear el esquema general del sistema de adquisición de datos de temperatura. Éste se divide en dos partes: La unidad de sensado, en donde se realiza la adquisición y acondicionamiento de la señal del sensor y el módulo central de adquisición de datos, el cual tendría como finalidad servir de interfaz para establecer una comunicación entre las unidades de sensado y la computadora personal. Tiene también como función adicional, la alimentación de las unidades de sensado.
755

Diseño e implementación del algoritmo de convolución bidimensional en la arquitectura CUDA

Sánchez Checa Crosato, Ivo 25 October 2011 (has links)
En el presente documento se explicarán las consideraciones realizadas para implementar la convolución bidimensional en la arquitectura CUDA. En general se discutirá la metodología seguida y se mostrarán y analizarán los resultados obtenidos. Inicialmente en el Capítulo 1, a manera de introducción, se discutirá la programación en paralelo y los diferentes aspectos a tener en cuenta al desarrollar programas para arquitecturas concurrentes. De esta forma se pretende explicar conceptos importantes que servirán para poner la presente investigación en contexto y comprender mejor los siguientes capítulos. En el Capítulo 2 se describirá a profundidad los aspectos más importantes de la arquitectura CUDA así como la operación de convolución bidimensional. De esta manera se espera dejar claros los conceptos pertinentes. Posteriormente en el Capítulo 3 se explicará la metodología para el desarrollo de los programas realizados, detallándose las diferentes consideraciones para optimizar el desempeño y reducir el tiempo de ejecución de los mismos. Finalmente en el capítulo 4 se mostrarán los tiempos de ejecución obtenidos con los diferentes programas desarrollados. Estos se obtendrán al tomar en cuenta cada una de las optimizaciones mencionadas en el tercer capítulo con lo que se apreciará la mejora de desempeño en cada caso. A continuación se tomará la mejor de las implementaciones realizadas y se comparará con otras existentes para poner los resultados obtenidos en contexto. Por último se presentarán las conclusiones y recomendaciones pertinentes.
756

Diseño del dispositivo simulador de señales electrocardiográficas y del protocolo de evaluación de monitores

Vidal Vidal, Melissa del Rocío 01 August 2012 (has links)
La evaluación periódica de los monitores de electrocardiografía (ECG), es fundamental para que el equipo funcione correctamente. Se recomienda utilizar un dispositivo simulador de señales electrocardiográficas dentro de la evaluación periódica, sin embargo, su elevado costo y su calibración a cargo de los fabricantes extranjeros, dificulta su adquisición. Actualmente, existe la necesidad de estos equipos simuladores en los diferentes hospitales e institutos de Lima. Por ello, el objetivo principal de este trabajo de tesis es diseñar un dispositivo simulador de señales electrocardiográficas y un protocolo de evaluación de monitores ECG dentro de un centro de salud. Para el diseño del dispositivo simulador fue necesario contar con señales patrones ECG, las cuales fueron inicialmente capturadas de manera analógica y convertidas a valores digitales, para luego permitir su almacenamiento dentro del dispositivo y su posterior simulación. La simulación de la señal ECG consta de tres etapas principales: Conversión Digital-Análoga de la señal, Demultiplexación de los valores analógicos y Acondicionamiento. Posteriormente, a través de la conexión del simulador con el monitor ECG se logra inyectar una señal patrón para la evaluación del Monitor. La evaluación del Monitor ECG se lleva a cabo utilizando un Protocolo de Evaluación, para cuyo diseño se consultaron como base fundamental las guías desarrolladas por ECRI, considerando los datos del equipo a evaluar, los instrumentos utilizados, así como las pruebas cualitativas y cuantitativas, permitiendo definir el estado del Monitor: Operativo o Inoperativo. Finalmente, se realizaron las pruebas del dispositivo simulador, utilizando el Protocolo de Evaluación diseñado, comprobando que el error del simulador es 2% en la Amplitud y 1% en la frecuencia, características técnicas de los simuladores comerciales.
757

Diseño de un algoritmo de estabilizacion de video orientado a la detección de personas

Inafuku Yoshida, Alberto Hiroshi 03 June 2015 (has links)
El presente trabajo de tesis tiene como objetivo principal el desarrollo de un algoritmo de estabilización de video robusto y eficiente frente a cambios de escala, rotación e iluminación. La estabilización de video es una etapa de pre procesamiento utilizada para eliminar o reducir el ruido que se adhiere debido a movimientos involuntarios en los videos. Su importancia radica en que procesamientos posteriores requieren de imágenes alineadas y libres de distorsión espacial. El documento está divido en cuatro capítulos descritos a continuación: En el capítulo 1 se presenta la problemática de la estabilización de videos así como las aplicaciones en diversos campos. Se explicará cómo los videos pueden ser afectados por factores ajenos a la cámara. Entre las aplicaciones se mencionarán procesamientos posteriores que requieren estabilización como paso previo y aplicaciones finales en temas de seguridad, industria y entretenimiento. En el capítulo 2 se mencionan las alternativas de solución del problema. Se presentan tanto las alternativas como sus características, ventajas y desventajas. Entre ellas se describen algunas alternativas mecánicas, que involucran equipos y sistemas sofisticados, y alternativas digitales como registro de imágenes, Structure from Motion y Geometría Epipolar. El capítulo 3 describe la metodología a emplear. Se utilizan gráficas, diagramas e imágenes para mostrar de manera sencilla cómo se piensa atacar el problema. Se describen los parámetros utilizados en cada etapa. El capítulo 4 muestra las simulaciones y los resultados del algoritmo implementado. Mediante imágenes se muestra los resultados de las etapas descritas en el capítulo anterior
758

Segmentación de imágenes médicas mediante algoritmos de colonia de hormigas

Gavidia Calderón, Carlos Gabriel 13 October 2014 (has links)
El análisis de imágenes nos permite la extracción de información de éstas, y dentro de esta disciplina la segmentación permite la identificación de sus partes constituyentes. La segmentación de imágenes tiene aplicaciones en reconocimiento de patrones y sistemas de control de tráfico entre otros. Si llevamos la segmentación de imágenes al rubro de imágenes médicas, las aplicaciones van desde la detección de tumores y otras patologías hasta la medición de volúmenes en tejidos. Existen diversas técnicas de segmentación de imágenes, y en este trabajo se plantea un procedimiento de segmentación de imágenes médicas basado en la metaheurística de Algoritmos de Colonia de Hormigas. Los algoritmos de esta metaheurística imitan el comportamiento de las hormigas durante su búsqueda de alimento, dado que siempre produce rutas óptimas entre la fuente de comida y el nido. Dicha conducta fue implementada mediante hormigas artificiales con el objeto de realizar tareas específicas de procesamiento de imágenes. Este procedimiento fue aplicado a imágenes de Resonancias Magnéticas Cerebrales - buscando la extracción de los segmentos correspondientes a la Materia Gris, Materia Blanca y Líquido Cefalorraquídeo- y la segmentación obtenida fue de una calidad superior a la de los algoritmos actualmente existentes para esta tarea. Este documento consta de 5 capítulos: El capítulo 1 busca definir el problema y el enfoque adoptado en este trabajo para darle solución. El capítulo 2 describe la disciplina de segmentación de imágenes y la metaheurística de Algoritmos de Colonia de Hormigas. El capítulo 3 describe los trabajos previos que busquen segmentar imágenes médicas mediante Algoritmos de Colonia de Hormigas. El capítulo 4 describe el procedimiento desarrollado, así como los resultados obtenidos en la aplicación del mismo. Finalmente, el capítulo 5 trata sobre las conclusiones y recomendaciones obtenidas como producto de este trabajo. / Tesis
759

Caracterización y clasificación automática de ríos en imágenes satelitales

Brown Manrique, Kevin 16 June 2017 (has links)
En los últimos años, el fenómeno conocido como cambio climático se está volviendo cada vez más notorio. Como resultado de este fenómeno, uno de los sectores que se verá más afectado será el de los recursos hídricos debido al impacto que se tendrá sobre el ciclo hidrológico y en los sistemas de gestión de agua, y a través de estos, en los sistemas socioeconómicos. Uno de los impactos conocidos es el conjunto de modificaciones en los patrones de precipitación y caudal de los ríos que afectarán a todos sus usuarios. Los caudales de ríos se forman por sedimentos que han sido y están siendo transportados por agua que fluye y por lo general se pueden clasificar en 4 formas básicas: rectos, meandros, trenzados y anastomosados. Es importante el tener reconocidos los distintos ríos y para ello no basta con conocer su localización sino además tener mapeadas las características de estos según su canal aluvial. Uno de los métodos tradicionales para caracterizar la morfología de un río (anchura, sinuosidad, características de inundación, etc.) es a través de trabajo de campo, que es costoso y demanda tiempo. Estos métodos no sólo consumen tiempo, sino que además, son extremadamente difíciles de llevar a cabo debido a que están sujetos a factores como inundaciones, mareas y tormentas que pueden hacer el lugar inaccesible y peligroso para recolectar información. El presente proyecto de fin de carrera propone una solución ante el problema de la dificultad y alto costo que supone la realización del trabajo de campo que permita caracterizar la morfología de un río. La solución planteada es una nueva técnica computacional para la caracterización automática de la morfología de los ríos, Dimensión Fractal Multi-escala, el cual aprovecha las características fractales de formación de elementos naturales como los ríos. El proyecto inicia con un proceso de limpieza de ruido a los datos de entrada que son esqueletos de ríos, para luego, por cada uno, aplicar el método de Crossing Number para obtener la multiplicidad de canal. Seguidamente, se elaborará una Curva Fractal aplicando el método de Dimensión Fractal Multiescala y de la curva obtenida se extraerán puntos de interés para generar un vector de características necesario para la clasificación. A continuación, se entrenará un clasificador empleando los vectores de características para generar un modelo predictivo. Finalmente, el modelo será evaluado mediante la clasificación de un nuevo esqueleto de río.
760

Diseño de un amplificador operacional de transconductancia para la adquisición de señales de electroencefalograma

Villacorta Minaya, Héctor Luis 09 May 2011 (has links)
En el presente trabajo de tesis, se desarrolla el diseño de un amplificador operacional de transconductancia (OTA), bloque constitutivo de todos los sistemas integrados e implantables de adquisición de señales biomédicas, en este caso las señales del EEG, que se encuentrar en el rango de 0 – 100Hz.

Page generated in 0.0739 seconds