• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1094
  • 101
  • 7
  • 1
  • Tagged with
  • 1204
  • 519
  • 382
  • 382
  • 382
  • 382
  • 382
  • 337
  • 330
  • 315
  • 270
  • 238
  • 169
  • 150
  • 131
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
781

Diseño de un procesador de efectos de sonido en un FPGA

Morán Carbajal, Wilber Manuel 09 May 2011 (has links)
Desde sus inicios el hombre ha mostrado un fuerte interés por los sonidos musicales. Junto a su evolución, la música ha seguido sus pasos desarrollando una consolidada industria encargada de la producción musical, fabricación de instrumentos y equipos en esta línea; con todo ello, se busca preservar las características sonoras de las piezas musicales, pues estas, sirven como modo de identificación de las diferentes regiones, culturas y épocas sociales alrededor del mundo.
782

Propuesta de técnica para la estimación de densidad mamaria en mamografías digitales utilizando técnicas de segmentación y estimadores globales

Segura del Río, César Whesly 29 October 2014 (has links)
Anualmente un millón y medio de nuevos casos de cáncer de mama son diagnosticados alrededor del mundo. Por tal motivo, se han establecido estrategias de despistaje temprano de cáncer de mama que utilicen a la mamografía como principal herramienta. Adicionalmente, se han evaluado diversas variables clínicas que han sido capaces de estimar el riesgo a desarrollar esta neoplasia. Entre estas variables se encuentra la densidad mamaria o tejido denso catalogado como principal indicador del cáncer de mama. La densidad mamaria o tejido denso de la mama incrementa de 3.5 a 5 veces el riesgo de adquirir cáncer de mama. La mamografía es una imagen formada a partir del principio de rayos X, describe a los tejidos de la mama y permite la evaluación del estado clínico de los pacientes. Se utilizan dos acercamientos para su estudio, estos consisten en el análisis cualitativo y cuantitativo. En el primero se utiliza el criterio de la observación del médico para dar su juicio de cada caso. En el segundo se procesan digitalmente mamografías y se les aplican técnicas de segmentación, luego se utilizan métodos cuantificables como estimadores globales. La segmentación consiste en subdividir una mamografía en los tejidos que la constituyen mientras que los estimadores globales son algoritmos que se aplican a la imagen completa y brindan indicadores cuantitativos de esta. El objetivo de la presente tesis es realizar una comparación entre el tejido denso obtenido mediante los técnicas de segmentación de Bden, bimodal, C-medias difusas y Otsu con el establecido por un patrón de oro (segmentación manual de experto). A partir de las comparaciones, se propondrá un algoritmo de segmentación validado en base a estimadores globales. Para alcanzar dicho objetivo, se cumplirán los siguientes objetivos específicos: implementación de técnicas de segmentación de Bden, bimodal, C-medias difusas y Otsu para calcular el tejido denso; implementación de estimadores globales intersección sobre unión, índice de similitud estructural (SSIM) y norma L2; comparación cuantitativa del tejido denso entre mamografías segmentadas y mamografías del patrón de oro; implementación de propuesta de técnica de segmentación y cálculo de tejido denso de la mama. Se ha encontrado que la propuesta de técnica de segmentación implementada para el cálculo de tejido denso es superior a las demás técnicas en base a estimadores globales. La técnica propuesta también demuestra un mayor grado de correlación con el tejido denso calculado por los médicos que las segmentaciónes de Bden, bimodal, C-medias difusas y Otsu. Se ha encontrado que en base a los estimadores globales de intersección sobre unión y SSIM la técnica de segmentación propuesta presenta mejores resultados que las técnicas implementadas de Bden, bimodal, C-medias difusas y Otsu. El coeficiente de Pearson es el mejor indicador del grado de correlación que existe entre los porcentajes de tejido denso calculado por los médicos y la técnica propuesta que con el calculado por las demás técnicas.
783

Diseño e implementación del filtro mediano de dos dimensiones para arquitecturas SIMD

Sánchez Loayza, Ricardo Miguel 04 October 2011 (has links)
El filtro mediano es una de las operaciones básicas en el procesamiento de imágenes digitales, su función es la de eliminar el ruido impulsivo sin alterar la información de la imagen. A pesar de estas características, su uso se ve restringido debido al alto costo computacional del filtro. Las propuestas tradicionales de solución, consisten en disminuir la complejidad del algoritmo del filtro mediano, y en vectorizar los algoritmos existentes. Esta vectorización se realiza al utilizar las unidades SIMD (Single Instruction Multiple Data - Instrucción Única Múltiples Datos) de los procesadores modernos. Ésta les permite realizar una misma operación a un conjunto, o vector, de datos de manera simultánea, con lo que se obtiene un mejor desempeño computacional. En el presente trabajo se implementa el filtro mediano con el algoritmo vectorial propuesto por Kolte [1], el cual aprovecha las ventajas de las unidades SIMD. La eficiencia computacional de la implementación realizada se compara con el algoritmo Filtro Mediano en Tiempo Constante, propuesto recientemente por Perreault [2], el cual presenta una complejidad de O(1). La implementación realizada es 75 y 18.5 veces mas rápida que la implementación de referencia, para áreas de análisis de 3 x 3 y 5 x 5 respectivamente. Se concluye además que la vectorización de un algoritmo no necesariamente obtiene los mismos resultados que un algoritmo diseñado específicamente para ser implementado en unidades vectoriales [3].
784

Proceso de extracción de patrones secuenciales para la caracterización de fenómenos espacio-temporales

Maldonado Cadenillas, Rodrigo Ricardo 30 May 2016 (has links)
El objetivo de este trabajo de fin de carrera es realizar un proceso de extracción de patrones secuenciales basado en KDD, empleando el algoritmo de minería de patrones secuenciales PrefixSpan para prever el comportamiento de fenómenos representados por eventos que cambian con el tiempo y el espacio. Estos tipos de fenómenos son llamados fenómenos espacio-temporales, los cuales son un conjunto de eventos o hechos perceptibles por el hombre. Además, están compuestos por un componente espacial (la ubicación donde sucede el fenómeno), un componente temporal (el momento o intervalo de tiempo en el que ocurre el fenómeno) y un componente de análisis (el conjunto de características que describen el comportamiento del fenómeno). En el mundo, se pueden observar una gran diversidad de fenómenos espaciotemporales; sin embargo, el presente trabajo de fin de carrera se centra en los fenómenos naturales, tomando como caso de prueba el fenómeno espacio-temporal de la contaminación de los ríos en Reino Unido. Por lo tanto, con el fin de realizar un estudio completo sobre este fenómeno, se utiliza KDD (Knowledge Discovery in Databases) para la extracción del conocimiento a través de la generación de patrones novedosos y útiles dentro de esquemas sistemáticos complejos. Además, se utilizan métodos de Minería de Datos para extraer información útil a partir de grandes conjuntos de datos. Así mismo, se utilizan patrones secuenciales, los cuales son eventos frecuentes que ocurren en el tiempo y que permiten descubrir correlaciones entre eventos y revelar relaciones de “antes” y “después”. En resumen, el presente trabajo de fin de carrera se trata de un proceso para mejorar el estudio del comportamiento de los fenómenos gracias al uso de patrones secuenciales. De esta manera, se brinda una alternativa adicional para mejorar el entendimiento de los fenómenos espacio-temporales; y a su vez, el conocimiento previo de sus factores causantes y consecuentes que se puedan desencadenar, lo cual permitiría lanzar alertas tempranas ante posibles acontecimientos atípicos.
785

Propuesta técnica para el incremento de procesamiento de caña de azúcar a 300 T/H del trapiche de un ingenio azucarero en el norte del Perú

Chacón Chauca, Justo Antonio 27 February 2017 (has links)
Este proyecto presenta una alternativa de mejora tecnológica económica y versátil para la generación y transmisión de potencia. Se trata de incrementar la capacidad de procesamiento de caña del trapiche de una planta procesadora de azúcar en el norte del Perú, se empleó como solución principal una transferencia de tecnología, la cual consiste en el cambio de las turbinas mecánicas a motores eléctricas, con variador de frecuencia, del área de extracción de jugo, usadas como accionamientos de molinos; con la base que el área de procesos de· azúcar cuenta con la suficiente capacidad. Este proyecto conforma la primera parte de un proyecto mayor que la planta analizada propone desarrollar, la cual se llama "expansión de campos agrícolas", la cual consiste en aumentar la producción y venta de azúcar. Actualmente, el flujo de procesamiento de caña de azúcar es de 200 T/h; la energía eléctrica generada es de =6 MW; y se produce =120 T/h de vapor de alta presión. El propósito del cambio tecnológico es aumentar los márgenes antes ya mencionados, al mismo tiempo poder utilizar la maquinaria actual en sus máximas capacidades. Tras el cambio se llegó tener los siguientes incrementos: Flujo de procesamiento de caña, 300 T/h; energía eléctrica generada, 12 MW; y producción de vapor, 170 T/h. La selección de los motores eléctricos fue de acuerdo a la teoría de elementos de máquinas relacionada-con tr-ansmisiones mecánicas y de-potencia, complementada con la teoría relacionada con turbinas de vapor y termodinámica. Las características nominales de los motores eléctricos seleccionados son los siguientes: cinco motores eléctricos con potencia nominal de 1000 HP y velocidad de 1200 RPM; cada una complementada con variador de frecuencia, acople flexible y reductor de velocidad (planetario), que nos permite obtener una velocidad de salida de 5 RPM. Para mayor facilidad y rápida resolución de cálculos en el presente proyecto, se utilizó programas y software de cálculos, tales como: Matlab, WASP, Turbine, etc. Se desarrollaron diversas mejoras extras, las cuales son las siguientes: aumento de flujo de caña hasta 300 T/h; e instalación de turbogenerador de 6 MW. Además, se analizó la distribución de tuberías tras la instalación de los motores eléctricos. Se da como realizado las mejoras adicionales para poder llegar a un máximo aprovechamiento de la maquinaria instalada y de los recursos que cuenta la planta. Finalmente, el costo de compra de cada motor eléctrico, junto con sus demás componentes, fue de 1 043 333 $; el costo "puesta en planta" y de instalación de las maquinarias fue 3 343 204 $; entonces, el coste total involucrado fue 1 O 201 724 $.
786

Diagnóstico automático de Roya Amarilla en hojas de cafeto aplicando técnicas de procesamiento de imágenes y aprendizaje de máquina

Barriga Pozada, Alfonso Carlos Cesar, Arrasco Ordoñez, Carlos Salvador 09 March 2018 (has links)
Actualmente, el café es uno de los recursos naturales más consumidos tanto en el mundo como en el Perú, Por ello, es menester garantizar la calidad en los granos de café, pues esto afectará considerablemente en el precio y posicionamiento en mercados altamente competentes; asimismo, el cultivo de este representa el principal ingreso para algunas familias, el cual se ve amenazado entre otras plagas, por la más perniciosa: La Roya Amarilla. La Roya Amarilla se propaga fácilmente a través del aire, una vez que cae en un cultivo de café, ataca directamente en las hojas, almacenándose en forma de esporas en el envés de estas, y al paso de días consume las hojas hasta defoliar completamente la planta infectada. Debido a ello, la planta no puede adquirir los nutrientes necesarios del sol, pues necesita las hojas como receptores; en consecuencia, el fruto del café (granos) no se desarrollan con normalidad, y por ende su calidad y cantidad de cosecha es baja. Aun cuando no existe una solución absoluta para la erradicación de esta plaga, se la puede controlar; es decir, a través de un proceso manual y exhaustivo los caficultores pueden aplicar una solución bioquímica en la planta que detenga el desarrollo del hongo en las hojas, pero no acaba con ellas, solo se puede prolongar el tiempo de vida de la planta de café. Esto es posible, solo si se detecta en sus inicios la presencia de las esporas en las hojas, pues de haber germinado el hongo sería en vano cualquier intento de recuperar la planta, con lo que solo quedaría el exterminio de la planta. Frente a este panorama, se propone una solución a través del aprendizaje máquina y procesamiento de imágenes, con el fin de automatizar el proceso de detección de la Roya en las hojas y calcular de manera más precisa la severidad del hongo. El proceso comienza en tomar fotografías a las hojas en un espacio semi controlado (con fondo blanco), luego se guardan todas las imágenes de las que se quiera conocer el porcentaje de severidad y ejecutar el programa propuesto, al término de ello el software muestra un reporte estadístico con el grado de incidencia por hoja según la clasificación de severidad que corresponda. Finalmente, destacar que, de manera funcional, el aprendizaje máquina será vital para descartar si hay presencia de roya en la hoja analizada, y luego si la hoja está infectada, con el método de procesamiento de imágenes se calculará de manera más precisa el porcentaje de severidad considerando el área de la hoja examinada.
787

Análisis del esfuerzo de contacto en engranajes cilíndricos de ejes paralelos de perfil evolvente mediante el método de los elementos finitos

Infanzón García, Hernán Luis 06 December 2011 (has links)
Los engranajes han sido desde hace mucho tiempo uno de los elementos de máquinas más usados para la transmisión de potencia mecánica en la industria. Esto ha impulsado su estudio para optimizar su funcionamiento y poder calcular la capacidad de carga de estos elementos de máquinas y así evitar su falla o desgaste prematuro. Una de las principales fallas que se presentan es estos elementos es la picadura progresiva o pitting en el flanco de los dientes que tiene como causa fundamental el excesivo esfuerzo de contacto entre los dientes producido durante el engrane. En la presente tesis se desarrolla el estudio del esfuerzo de contacto en los flancos de los dientes de engranajes cilíndricos de ejes paralelos (rectos y helicoidales) y perfil de evolvente determinados a partir de dos metodologías distintas: 1) Mediante el método de los elementos finitos, donde se definió la geometría real del diente con ecuaciones paramétricas para así poder modelar los engranajes en un software CAD y luego realizar la simulación del engrane en un software CAE. 2) Mediante cálculos analíticos según las normas técnicas ISO 6336, DIN 3990 y AGMA2105-C95, donde se determinó el esfuerzo de contacto actuante a partir de las expresiones que proponen cada una de estas normas pero solo tomando en cuenta los factores que hacen referencia a la geometría del diente y a las características de la transmisión y no a las que tienen que ver con otros parámetros que afectan el esfuerzo de contacto como las características de montaje de los engranajes y otros. Se realizaron cálculos del esfuerzo de contacto sobre una muestra de pares de engranajes con distintos parámetros geométricos y de carga para poder comparar los resultados de las dos metodologías de cálculo, y se encontró que los esfuerzos determinados a partir de las normas técnicas son de 2 a 5 veces mayores que los hallados por el método de los elementos finitos. Lo que refleja a un sobredimensionamiento de los engranajes contra la falla por picadura en el flanco del diente en los procedimientos de las normas técnicas.
788

Implementación de arquitecturas para el cálculo de funciones trascendentales empleando el algoritmo CORDIC en FPGA

Agurto Ríos, Carla Paola 09 May 2011 (has links)
Al implementar un algoritmo de procesamiento digital de señales en hardware es muy común encontrarse con funciones matemáticas trascendentales las cuales, en principio, se pueden implementar usando la serie de Taylor o diseñando un hardware específico para cada función. A fin de mejorar su rendimiento se desarrolló el algoritmo Coordenado Circular, Hiperbólico y Lineal (CORDIC), el cual reduce tanto el uso de compuertas lógicas como el número de iteraciones empleadas al implementar una función trascendental.
789

Diseño de una arquitectura para estimación de movimiento fraccional según el estándar de codificación HEVC para video de alta resolución en tiempo real

Soto León, Jorge Guillermo Martín 21 July 2016 (has links)
Las labores de organizaciones especializadas como ITU-T Video Coding Experts Group e ISO/IEC Moving Picture Experts Group han permitido el desarrollo de la codificación de video a lo largo de estos años. Durante la primera década de este siglo, el trabajo de estas organizaciones estuvo centrado en el estándar H.264/AVC; sin embargo, el incremento de servicios como transmisión de video por Internet y redes móviles así como el surgimiento de mayores resoluciones como 4k u 8k llevó al desarrollo de un nuevo estándar de codificación denominado HEVC o H.265, el cual busca representar los cuadros de video con menor información sin afectar la calidad de la imagen. El presente trabajo de tesis está centrado en el módulo de Estimación de Movimiento Fraccional el cual forma parte del codificador HEVC y presenta una elevada complejidad computacional. En este trabajo, se han tomado en cuenta las mejoras incluidas por el estándar HEVC las cuales radican en los filtros de interpolación empleados para calcular las muestras fraccionales. Para verificar el algoritmo, se realizó la implementación del mismo utilizando el entorno de programación MATLAB®. Este programa también ha permitido contrastar los resultados obtenidos por medio de la simulación de la arquitectura. Posteriormente, se diseñó la arquitectura teniendo como criterios principales la frecuencia de procesamiento así como optimizar la cantidad de recursos lógicos requeridos. La arquitectura fue descrita utilizando el lenguaje de descripción de hardware VHDL y fue sintetizada para los dispositivos FPGA de la familia Virtex los cuales pertenecen a la compañía Xilinx®. La verificación funcional fue realizada por medio de la herramienta ModelSim empleando Testbenchs. Los resultados de máxima frecuencia de operación fueron obtenidos por medio de la síntesis de la arquitectura; adicionalmente, por medio de las simulaciones se verificó la cantidad de ciclos de reloj para realizar el algoritmo. Con estos datos se puede fundamentar que la arquitectura diseñada es capaz de procesar secuencias de video HDTV (1920x1080 píxeles) a una tasa de procesamiento mayor o igual a 30 cuadros por segundo.
790

Diseño e implementación de un algoritmo para el registro de imágenes aéreas ortorectificadas aplicado en la supervisión agrícola

Meza Zurita, Fernando Javier 08 July 2015 (has links)
La presente tesis muestra el diseño e implementación de un sistema de registro de imágenes aéreas orientado a la agricultura de precisión. Este sistema cuenta con la particularidad que las imágenes pasarán por un pre procesamiento de corrección geométrica para mejorar la calidad del registro. Este sistema permitirá la generación de panoramas globales de los campos de cultivo con la finalidad de obtener información correctamente localizada del campo analizado. El documento está dividido en 4 capítulos y su estructura es de la siguiente manera: En el capítulo 1, se analiza la problemática de la agricultura de precisión y el sensado remoto, así como también se expone la aplicación y la problemática del uso de aeromodelos e imágenes aéreas en la agricultura de precisión. En el capítulo 2, se exponen los temas de registro y ortorectificación de imágenes como solución cuando se trabaja con imágenes aéreas orientado a la agricultura de precisión En el capítulo 3, se explican los objetivos de este proyecto y se desarrolla detalladamente el sistema diseñado. Se definen las características particulares del vuelo para la obtención de las imágenes aéreas, a partir de estas características se realiza la selección de algoritmos y se desarrolla el modelo propuesto y una explicación detallada de los pasos y algoritmos usados en este proceso. Finalmente, en el capítulo 4, se muestra la evaluación del sistema propuesto, el cual estará dividido en dos partes, en una primera instancia se evaluará únicamente la generación de mosaicos a partir de un banco de imágenes que se tendrá de referencia y posteriormente se evaluará todo el sistema completo utilizando imágenes aéreas reales adquiridas en la PUCP

Page generated in 0.055 seconds