• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1078
  • 99
  • 7
  • 1
  • Tagged with
  • 1186
  • 512
  • 367
  • 367
  • 367
  • 367
  • 367
  • 327
  • 324
  • 310
  • 264
  • 233
  • 169
  • 145
  • 130
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Novel Edge-Preserving Filtering Model Based on the Quadratic Envelope of the l0 Gradient Regularization

Vásquez Ortiz, Eduar Aníbal 26 January 2023 (has links)
In image processing, the l0 gradient regularization (l0-grad) is an inverse problem which penalizes the l0 norm of the reconstructed image’s gradient. Current state-of-the art algorithms for solving this problem are based on the alternating direction method of multipliers (ADMM). l0-grad however, reconstructs images poorly in cases where the noise level is large, giving images with plain regions and abrupt changes between them, that look very distorted. This happens because it prioritizes keeping the main edges but risks losing important details when the images are too noisy. Furthermore, since kÑuk0 is a non-continuous and non-convex regularizer, l0-grad can not be directly solved by methods like the accelerated proximal gradient (APG). This thesis presents a novel edge-preserving filtering model (Ql0-grad) that uses a relaxed form of the quadratic envelope of the l0 norm of the gradient. This enables us to control the level of details that can be lost during denoising and deblurring. The Ql0-grad model can be seen as a mixture of the Total Variation and l0-grad models. The results for the denoising and deblurring problems show that our model sharpens major edges while strongly attenuating textures. When it was compared to the l0-grad model, it reconstructed images with flat, texture-free regions that had smooth changes between them, even for scenarios where the input image was corrupted with a large amount of noise. Furthermore the averages of the differences between the obtained metrics with Ql0- grad and l0-grad were +0.96 dB SNR (signal to noise ratio), +0.96 dB PSNR (peak signal to noise ratio) and +0.03 SSIM (structural similarity index measure). An early version of the model was presented in the paper Fast gradient-based algorithm for a quadratic envelope relaxation of the l0 gradient regularization which was published in the international and indexed conference proceedings of the XXIII Symposium on Image, Signal Processing and Artificial Vision.
202

Generación de imágenes de acciones específicas de una persona utilizando aprendizaje profundo

Morales Pariona, Jose Ulises 16 April 2024 (has links)
Desde que aparecieron las redes GAN, se han realizado varias investigaciones sobre cómo generar imágenes en diversos ámbitos, como la generación de imágenes, conversión de imágenes, síntesis de videos, síntesis de imágenes a partir de textos y predicción de cuadros de videos. Basándose mayormente en mejorar la generación de imágenes de alta resolución y la reconstrucción o predicción de datos. El propósito de este trabajo es implementar las redes GAN en otros ámbitos, como la generación de imágenes de entidades realizando una acción. En este caso se consideró 3 acciones de personas, que son los ejercicios de Glúteo, Abdomen y Cardio. En primer lugar, se descargaron y procesaron las imágenes de YouTube, el cual incluye una secuencia de imágenes de cada acción. Posteriormente, se separó dos grupos de imágenes, de una sola persona, y de personas diferentes realizando las acciones. En segundo lugar, se seleccionó el modelo InfoGAN para la generación de imágenes, teniendo como evaluador de rendimiento, la Puntuación Inicial (PI). Obteniendo como resultados para el primer grupo, una puntuación máxima de 1.28 y en el segundo grupo, una puntuación máxima de 1.3. En conclusión, aunque no se obtuvo el puntaje máximo de 3 para este evaluador de rendimiento, debido a la cantidad y calidad de las imágenes. Se aprecia, que el modelo si logra diferenciar los 3 tipos de ejercicios, aunque existen casos donde se muestran incorrectamente las piernas, los brazos y la cabeza. / Since the appearance of GAN networks, various investigations have been carried out on how to generate images in various fields, such as image generation, image conversion, video synthesis, image synthesis from text, and video frame prediction. Based mostly on improving the generation of high resolution images and the reconstruction or prediction of data. The purpose of this work is to implement GAN networks in other areas, such as the generation of images of entities performing an action. In this case, 3 actions of people were considered, which are the Gluteus, Abdomen and Cardio exercises. First, the images from YouTube were downloaded and processed, which includes a sequence of images of each action. Subsequently, two groups of images were separated, of a single person, and of different people performing the actions. Secondly, the InfoGAN model was selected for image generation, having the Initial Score (PI) as a performance evaluator. Obtaining as results for the first group, a maximum score of 1.28 and in the second group, a maximum score of 1.3. In conclusion, although the maximum score of 3 was not obtained for this performance tester, due to the quantity and quality of the images. It can be seen that the model is able to differentiate the 3 types of exercises, although there are cases where the legs, arms and head are shown incorrectly.
203

Fundamentos de data science y sus aplicaciones en distintas industrias

Ramos Torres, Jean Franco 10 January 2022 (has links)
Este trabajo de investigación tiene la finalidad de brindar una guía de aprendizaje de los conocimientos, a nivel general, que un profesional debe adquirir con la finalidad de desempeñarse como Data Scientist. A través de este trabajo, se inicia enunciando lo que es Data Science y lo que hace un Data Scientist, y en base a esto discernir cinco categorías de actividades principales. Partiendo de estas cinco actividades se desarrollan los siguientes apartados del primer capítulo, en los que se presentan los conocimientos estadísticos, matemáticos e informáticos que se deben poseer vinculados a cada una de las actividades. Aunque es de mencionar que los conocimientos asociados a estas actividades principales son transversales entre sí para una correcta aplicación del Data Science. También, se debe tener en cuenta que este trabajo solo pretende brindar una pauta para los conocimientos base necesarios para desempeñarse en el área de Data Science, esto implica que no se profundiza en temas relacionados a algoritmos de modelos, de los cuales solo se harán mención por ser relevantes por sus aplicaciones. En el segundo capítulo se mencionan distintas aplicaciones del Data Science en cuatro industrias: servicios de salud, transporte, finanzas y e-commerce. En cada una de estos se muestran distintos casos de aplicación de Data Science entre los que están las predicciones, análisis de decisiones, detecciones de escenarios, optimizaciones, control de sistemas y sistemas de recomendaciones. En cada una de estos casos se refieren de forma concisa los procedimientos seguidos, pasando desde la recolección de los datos hasta el modelo de los mismos, y mencionando los resultados logrados. Finalmente, se presentan conclusiones recabadas de lo que implica una formación como Data Science en la actualidad, así de como su importancia en los campos de aplicación, más ahora, en tiempos donde hay más información disponible y mejores capacidades de cómputo.
204

Visualización 3D de grandes cantidades de datos 3D para la prevención frente a desastres naturales: una revisión de la literatura

Guillén Zapata, Handry James 25 November 2020 (has links)
La visualización de datos 3D es un aspecto muy importante para varios campos de trabajo como la arquitectura, minería, videojuegos, diseño gráfico, geografía, etc. En especial en este último, la geografía, el cual a diario necesita visualizar información topográfica para hacer un estudio previo de los terrenos sin la necesidad de estar presente. En Perú, el uso información 3D por parte de los geógrafos para analizar terrenos a detalle, se ha vuelto una actividad de mucha importancia, debido a que el país es muy propenso a sufrir de fenómenos naturales como el fenómeno del Niño. Esta información topográfica suele ser de superficies de un gran tamaño que pueden llegar hasta un área de 7000 hectáreas, por lo que se necesita de procesar una inmensa cantidad de información 3D. Es por esto que el presente trabajo de investigación se centra en revisar la literatura para lograr una visualización de grandes cantidades de datos 3D. En primer lugar, se revisará cómo es que se deben guardar y organizar los datos 3D para que puedan ser fácilmente extraídos por el visualizador y qué tipo de estructura de datos es la mejor para este tipo de trabajos. En segundo lugar, se revisarán los métodos que existen actualmente para poder renderizar los datos 3D de forma fluida, con el objetivo de logar una visualización interactiva del usuario sin exigir tantos recursos. Por último, se presentarán las conclusiones de los dos puntos mencionados anteriormente y se explicarán cuáles son los mejores métodos para realizar el proyecto de visualización de grandes cantidades de datos 3D.
205

Optimal vicinity 2D median filter for fixed-point or floating-point values

Chang Fu, Javier 19 June 2024 (has links)
Los filtros medianos son una técnica digital no lineal normalmente usada para remover ruido blanco, ’sal y pimienta’ de imágenes digitales. Consiste en reemplazar el valor de cada pixel por la mediana de los valores circundantes. Las implementaciones en punto flotante usan ordenamientos con técnicas de comparación para encontrar la mediana. Un método trivial de ordenar n elementos tiene una complejidad de O(n2), y los ordenamientos más rápidos tienen complejidad de O(n log n) al calcular la mediana de n elementos. Sin embargo, éstos algoritmos suelen tener fuerte divergencia en su ejecución. Otras implementaciones usan algoritmos basados en histogramas, y obtienen sus mejores desempeños cuando operan con filtros de ventanas grandes. Estos algoritmos pueden alcanzar tiempo constante al evaluar filtros medianos, es decir, presenta una complejidad de O(1). El presente trabajo propone un algoritmo de filtro mediano rápido y altamente paralelizable. Se basa en ordenamientos sin divergencia con ejecución O(n log2 n) y mezclas O(n) con los cuales se puede calcular grupos de pixeles en paralelo. Este método se beneficia de la redundancia de valores en pixeles próximos y encuentra la vecindad de procesamiento óptima que minimiza el número de operaciones promedio por pixel. El presente trabajo (i) puede procesar indiferentemente imágenes en punto fijo o flotante, (ii) aprovecha al máximo el paralelismo de múltiples arquitecturas, (iii) ha sido implementado en CPU y GPU, (iv) se logra una aceleración respecto al estado del arte. / Median filter is a non-linear digital technique often used to remove additive white, salt and pepper noise from images. It replaces each pixel value by the median of the surrounding pixels. Floating point implementations use sorting and comparing techniques to find median. A common method for sorting n elements has complexity O(n2), and the fastest sorting ones have complexity O(n log n) when computing the median of n elements. However, such fastest algorithms have strong divergence in their execution. Other implementations use histogram based algorithms and have their best performance for large size windows. These histogram based achieve constant time median filtering, exhibiting O(1) complexity. A fast and highly parallelizable median filter algorithm is proposed. It is based on sorting without divergence execution O(n log2 n) and merge O(n) that computes groups of pixels in parallel. The method benefits from redundancy values in neighboring pixels and finds the optimal vicinity that minimize the average operations per pixel. The present work (i) can process either fixed or floating point images, (ii) take full advantage of parallelism of multiple architectures, (iii) have been implemented on CPU and GPU, (iv) the results speed up state of the art implementations.
206

Elaboración de un plan de migración de servicios de recaudación de un sistema centralizado a un sistema distribuido orientado a servicios aplicado a una entidad bancaria peruana

Del Carpio Gómez, Diego Jason Danilo January 2015 (has links)
Publicación a texto completo no autorizada por el autor / Abarca la problemática desde el caso de estudio del negocio de la recaudación bancaria donde no existen experiencias para llevar a cabo una migración de sistemas de información centralizado que cumple las características de un sistema de información heredado a un sistema distribuido orientado a servicios. Es por ello que en este estudio se propone la elaboración de un plan de migración que abarque las consideraciones realizadas por los diferentes autores englobando los aspectos más importantes y definiendo nuevas actividades en forma detallada que abarquen la planificación, desarrollo y ejecución de una migración, con el objetivo de garantizar un correcto desempeño en la transición de los servicios de recaudación a migrar de la entidad bancaria en estudio. / Trabajo de suficiencia profesional
207

Sistema de consulta y reserva de citas médicas usando tecnología móvil para mejorar el servicio de atención de pacientes en la Clínica Internacional

Morillo Espinoza, Luis David, Sarmiento Rojas, Juan Manuel January 2012 (has links)
Publicación a texto completo no autorizada por el autor / Expone el caso de la Clínica Internacional que actualmente brinda un servicio de atención al paciente por medio presencial, atención telefónica y vía web para realizar la reserva de citas médicas. El crecimiento de la tecnología se utiliza como ayuda para mejorar la organización y control de atención de los pacientes. Una de estas tecnologías es la telefonía móvil, mediante el cual se implementará un sistema para la Clínica Internacional que permita a un usuario y/o paciente poder consultar: locales, especialidades, profesionales médicos, horarios de atención y reservación de citas médicas, disponible desde cualquier lugar y a cualquier hora, de manera cómoda y eficiente, evitando al paciente tener que asistir al mismo centro de salud, o realizar llamadas telefónicas en las cuales muchas veces se presenta demora en la atención por parte de recepción de la clínica, o depender de un ordenador y una conexión a internet para conectarse vía web. Adicionalmente, permitirá al usuario y/o paciente, realizar un seguimiento a la cita médica reservada, indicándole el número de pacientes total por doctor según especialidad y la cantidad de pacientes faltantes para la atención de la cita reservada, pudiendo ser consultada desde cualquier lugar (dentro o fuera de la clínica), permitiendo al paciente aprovechar el tiempo en diferentes actividades en lugar de estar en sala de espera pendiente de su turno para su atención. / Trabajo de suficiencia profesional
208

Utilización de Imágenes Digitales para el Mejoramiento de la Productividad de Operaciones de Construcción

Mora Aguirre, Miguel Alejandro January 2009 (has links)
Diversos estudios demuestran que a nivel mundial la industria de la construcción presenta bajos niveles de productividad. A pesar de que la construcción es un sector considerado tradicionalmente lento para adoptar innovaciones, la aplicación de herramientas que faciliten la captura y el procesamiento de datos para el mejoramiento de procesos, en base a tecnología de información, puede ser una estrategia efectiva para ayudar a mejorar indicadores de productividad. Este trabajo desarrollado bajo la rama de productividad del proyecto FONDEF D06I1013: “UTILIZACIÓN DE IMÁGENES Y VIDEOS DIGITALES PARA EL MEJORAMIENTO DE LA SEGURIDAD, PRODUCTIVIDAD Y CALIDAD EN PROCESOS DE CONSTRUCCIÓN”. Presenta el diseño de metodologías computacionales que facilitan la captura, el procesamiento y análisis de información para el mejoramiento de la productividad en operaciones de construcción, utilizando videos e imágenes digitales. Se discuten los problemas y necesidades de obra que pueden ser atendidos mediante el uso de imágenes y videos digitales. Se describen las metodologías, su adaptación; las tecnologías disponibles y el diseño de los nuevos métodos que fueron incorporados en un sistema de captura, procesamiento y análisis de información a partir de videos e imágenes digitales. Finalmente se presenta un set de herramientas cuyo uso puede contribuir al mejoramiento significativo de la productividad en proyectos de construcción.
209

Diseño y Construcción de un Sistema de Unificación de Señales de Video

Castillo Durán, Nelson Javier January 2010 (has links)
Este proyecto nace de una propuesta del profesor guía de esta memoria, que plantea la realización de un multiviewer, dispositivo capaz de mostrar varias entradas de video a través de una sola pantalla, para ser utilizado en televisoras y compañías de televisión por cable para la administración, verificación y edición de la señales de transmisión de TV. Además el mercado de este producto es mucho mayor teniendo un gran uso en sistemas de seguridad, monitoreo de transito, eventos y posibles usos en comercialización de dispositivos de video. El objetivo general del presente trabajo consiste en diseñar e implementar el software y hardware de un prototipo básico del sistema multiviewer, que permita sentar las bases de un futuro producto comercial. Este trabajo parte con la recopilación de información, investigando características de multiviewers comerciales de las cuales se elijen para implementar: el soporte de múltiples estándares, el control de tamaño y posición de sub-imágenes. La implementación del dispositivo requiere indagar en tecnologías de procesamiento lo que lleva a comparar las tecnologías Digital Signal Processor (DSP) y Field Programmable Gate Array (FPGA), llegando a la conclusión de la superioridad de la segunda por sus atributos de procesamiento paralelo. Luego de esto se define el diseño del dispositivo asignándole las funciones de control a la FPGA y el manejo de estándares a dispositivos externos. Las funciones de control son diseñadas como manejo de memoria para el control de posición, como interpolación y filtrado de señales en dos dimensiones para el control de tamaño, esto es implementado a través de Verilog un Lenguaje de Descripción de Hardware (HDL, Hardware Description Language) que permite la configuración de una FPGA. Por otra parte, el hardware del sistema se diseña para utilizar la plataforma de desarrollo Spartan-3A Starter Kit, con la cual se reduce el tiempo de desarrollo, y se limita el diseño a una placa de circuito impreso (PCB, Printed Circuit Board) con conexión a la plataforma de desarrollo. La PCB diseñada contiene los chips encargados de los estándares y los conectores necesarios para capturar las entradas y emitir la salida de video. El objetivo de diseñar e implementar el software del sistema fue completado, obteniendo la codificación en HDL de un sistema de dos entradas y una salida de video en formato YCbCr con muestreo 4:2:2 acorde a la recomendación UIT-R BT.601 de la Unión Internacional de Telecomunicaciones (UIT) y con una interfaz acorde a la recomendación UIT-R BT.656. La salida de video contiene la imagen de un máximo de dos sub-pantallas de tamaño y posición seleccionable por el configurador, las cuales pueden contener una de las entradas del sistema. El segundo objetivo de esta memoria se alcanzó parcialmente, logrando obtener los planos de la placa de circuito impreso, pero no así su construcción, la cual se plantea como un trabajo futuro. El sistema diseñado permite la proyección de dos posibles sistemas comerciales a futuro, uno de bajo costo y prestaciones básicas para usos domiciliarios en seguridad y otro profesional para tareas de mayor envergadura que necesiten más entradas de video por monitor, una mejor calidad de imagen y mayor control sobre ellas.
210

Evaluación Automática de Habilidad Lectora con Tecnología de Voz

Ramírez Díaz, Adolfo Nicolás January 2011 (has links)
No autorizada por el autor a ser publicada a texto completo / En esta memoria se presenta un sistema que permite evaluar la velocidad lectora de un individuo. Para realizar tal medición, se utilizan cuatro indicadores objetivos: la última palabra que fue leída dentro de un texto determinado; el número de términos omitidos; el número de palabras insertadas; y el número de palabras sustituidas. Para conseguir estas cuatro variables se utiliza tecnología de reconocimiento de voz (ASR – Automatic Speech Recognition). Para ello, se proponen e implementan diversos modelos de lenguaje que toman en consideración los errores esenciales en velocidad de lectura. En efecto, por ejemplo se consideran modelos de lenguaje que permiten saltos entre palabras dentro de un texto, así como también, se permiten reemplazos de ciertos términos. Los experimentos realizados en esta memoria permiten observar que un modelo que sólo toma en consideración omisiones de palabras, es decir, sin incluir casos de sustitución ni de inserción, consigue un error en la estimación de la última palabra leída y de términos omitidos de un 1,8% y un 5,9% respectivamente. Para la detección de errores de lectura relativos a palabras insertadas y sustituidas se utilizan modelos de lenguaje que incluyen unidades acústico fonéticas genéricas denominadas filler. Sin embargo, la incorporación de dichos fillers provoca un incremento en el error al estimar la última palabra leída y los términos omitidos. En efecto, el aumento en la estimación de tales errores es de un 8,1% y un 6,2%, respectivamente. Por otra parte, este tipo de modelo consigue un error en la estimación de palabras insertadas y sustituidas de un 7.8%. Como trabajo a futuro, se propone mejorar el modelamiento que considera los errores productos de palabras insertadas o sustituidas.

Page generated in 0.1096 seconds