• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 16
  • 1
  • Tagged with
  • 17
  • 17
  • 10
  • 7
  • 6
  • 6
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Procesamiento Digital de Señales para previsiones de Caudales de Ríos

Valera Gárate, Leyla María, Fuentes Vargas, Héctor January 2006 (has links)
Este trabajo estudia una nueva propuesta para la predicción de series de caudales de ríos basada en la descomposición de secuencias en sub-bandas de frecuencia haciendo uso de un modelo donde se adaptan técnicas de filtraje y de procesamiento de señales. La investigación propuesta estudia una forma alternativa de predicción, utilizando la descomposición de la serie original en sub -bandas y su posterior reconstrucción. El modelo propuesto es generado en base al comportamiento típico de una secuencia de caudales, adaptada por técnicas estadísticas y de procesamiento digital de señales. Los filtros utilizados para las pruebas del proceso de descomposición son filtros FIR simétricos de orden par. Pruebas fueron realizadas utilizando secuencias reales de caudales de diversos lugares del Perú. Los resultados pueden ser clasificados como muy buenos comparados a los que se conoce en la literatura.
2

Detección de Parámetros y Extracción de Características de Señales ECG mediante técnicas Procesamiento Digital de Señales

Sunohara Ramírez, Dante Yoshio, Toscano Palacios, José Carlos January 2006 (has links)
Este trabajo se encuentra dividido en seis capítulos, en el primero de ellos hacemos referencia a los objetivos este proyecto, sus aplicaciones y porque realizamos el proyecto. En el capitulo siguiente hacemos una pequeña reseña histórica de la electrónica en la medicina, como esta ha ido evolucionando, sus objetivos y las diferentes aplicaciones que pueda tener en el campo de la medicina. En el tercer capítulo realizamos una introducción de las señales ECG y sus características principales, para su mejor entendimiento, también hacemos referencia del electrocardiograma para que se pueda comprender el significado de los gráficos que obtendremos. En el capítulo cuatro explicaremos los métodos de extracción de los parámetros, es decir damos a conocer los métodos para la separar y así poder mostrar los parámetros QRS P y T de las señales ECG. El capítulo cinco explica la interface visual de usuario, las diversas opciones que presenta al momento de la ejecución del mismo. En el último capítulo detallamos los resultados y conclusiones obtenidas luego del desarrollo de este proyecto, dando algunas recomendaciones para trabajos futuros.
3

Programación, calibración y medición del patrón de radiación de un receptor radio-astronómico digital de doble polarización implementado en una plataforma FPGA

Fuentes Prieto, Roberto Mathias January 2017 (has links)
Ingeniero Civil Eléctrico / En los últimos años el poder de cómputo que presentan los arreglos de circuitos lógicos reprogramables (FPGA) ha aumentado considerablemente. Junto a ello han mejorado los conversores análogos digital (ADC), lo cual ha permitido expandir su uso en radioastornomía como espectrómetros, correlacionadores y separadores de banda lateral. La presente memoria busca demostrar nuevas aplicaciones de la tecnología mediante la implementación de un detector de polarización usando una FPGA y evaluar su viabilidad como receptor astronómico. Trabajos previos en el laboratorio de ondas milim\'etricas demostraron la síntesis de polarización digital con excitaciones inyectadas por guías de onda. El contenido de esta memoria presenta las mejoras realizadas a dicho polarizador digital, con el objetivo de permitir la calibración y mediciones en espacio libre. Se desarrollaron los dispositivos de hardware y firmware necesarios para medir patrones de radiación del sistema completo, es decir del receptor digital acoplado a una antena de bocina. Se resolvió el problema de integrar espectros complejos mediante el uso de una señal de referencia, y se desarrollaron los programas computacionales que automatizan la medida de patrón de radiación. Se implementó exitosamente un sistema capaz de medir simultáneamente la co-polarización y cros-polarización de un receptor radioastronómico, así como las rutinas necesarias para calibrar dicho receptor. Se demuestra que el proceso de calibración puede mejorar los niveles de cros-polarización del sistema completo en un factor 10 cuando se optimiza sobre un disco de 10 grados de diámetro angular en torno al eje óptico, y en un 20% cuando se optimiza en el ángulo sólido donde el patrón de radiación es mayor a -10dB. Se concluye que el proceso de calibración se debe realizar en el campo lejano y puede, además de mejorar los niveles de cros-polarización, corregir la posición del ángulo de polarización del sistema completo.
4

Diseño e implementación de un espectrómetro basado en FPGA, de ancho de banda seleccionable para aplicaciones astronómicas

Huaracán Durán, Edgardo Antonio January 2014 (has links)
Ingeniero Civil Eléctrico / El auge que ha presentado en los últimos años la Astronomía observacional en Chile, producto de las inigualables condiciones ambientales del desierto de Atacama, ha generado la necesidad de desarrollar tecnologías afines con este gran desafío. Este trabajo propone soluciones en el área de procesamiento digital de señales haciendo uso de procesadores de alta velocidad. En concreto, se diseña e implementa un espectrómetro de ancho de banda seleccionable para aplicaciones en espectrometría de alta resolución como lo es el estudio de estructuras moleculares híper finas. Además se diseña un bloque de control de datos, útil entre otras cosas para mejorar las mediciones de rechazo de banda lateral. El uso de procesadores FPGA (Field Programmable Gate Array) permite implementar espectrómetros digitales. Estos diseños son aplicables en procesadores cada vez más veloces. Existen arquitecturas prediseñadas para estos propósitos como por ejemplo la plataforma ROACH (Reconfigurale Open Architecture Computing Hardware) creada por CASPER (Collaboration for Astronomy Signal Processing and Electronic Research) y que se utiliza en este trabajo de título. Utilizando diseños en ambiente MATLAB Simulink se crea un ejecutable que da instrucciones al FPGA. Así, estos diseños son controlados y comandados por códigos en lenguaje Python, los que realizan un post procesamiento de los datos para su posterior análisis. Los diseños creados para mejorar el rechazo de banda lateral demuestran ser efectivos limitando la contaminación de banda adyacente a menos de -50dB. El bloque de control asegura el buen funcionamiento del sistema, incluso en presencia de alto ruido de fase. Por otro lado al realizar acercamiento a una porción del ancho de banda se logra una mejor resolución espectral logrando distinguir variaciones de energía en rangos pequeños de frecuencia. A futuro, todos los diseños creados en este trabajo pueden implementarse a mayor velocidad, utilizando procesadores más avanzados. Es posible enriquecer el zoom, reduciendo el ancho de banda desde dos hasta ocho veces, y utilizar mezcladores digitales para seleccionar una zona arbitraria del espectro.
5

Sistemas de visión inteligente para monitoreo ambiental en estaciones remotas

Revollo Sarmiento, Natalia Verónica 10 December 2012 (has links)
La información relacionada con los procesos geomorfológicos y dinámicos de la costa es de fundamental importancia en estudios científicos y ambientales necesarios para establecer políticas de gestión costera. Las playas son ambientes inestables que presentan cambios continuos debido a diferentes fenómenos. También las personas, a través de diferentes mecanismos, ejercen un efecto sobre estos ambientes. Los mismos deben ser estudiados en períodos continuos, para lo cual es útil disponer de información generada automáticamente sin necesidad de recolectarla in situ. Si bien el procesamiento digital de imágenes es relativamente nuevo en monitoreo costero, su aplicación en otras disciplinas demuestra las ventajas de su utilización, favorecida por el avance tecnológico en las herramientas de procesamiento. El objetivo general de esta investigación es desarrollar nuevas técnicas y metodologías para la extracción de características de la playa basadas en procesamiento digital de imágenes factibles de ser integradas en un sistema visual de monitoreo costero. En primera instancia se desarrolló una metodología para la adquisición de información a partir de la captura de videos que permite almacenar datos de la playa durante un período específico. El principal resultado de este desarrollo es la obtención de información cualitativa del estado de la playa en forma automática, mediante la generación de una imagen media y de varianza. A partir de ella se pueden distinguir y documentar algunas características de la playa. Luego se implementaron las herramientas para la extracción y medición de la línea de ribera en imágenes medias. En primer lugar, la diferenciación de zonas de agua y tierra es posible mediante un algoritmo de clasificación a partir de un conjunto de patrones representativos de cada una de ellas. Seguidamente se realizó la medición de la longitud de la línea de ribera. Otro de los resultados obtenidos comprendió la clasificación de zonas de la playa. El método empleado se basa en la elección de grupos de píxeles prototipos que sirven como modelo de cada una de las zonas. Además de la clasificación, se logró obtener las mediciones de las áreas y perfiles de cada zona, tanto en forma porcentual en el plano de la imagen como en forma cuantitativa en unidades reales sobre el terreno. El algoritmo trabaja bajo diferentes condiciones meteorológicas y técnicas. En este sentido, el método desarrollado representa un avance importante en la detección y medición automática de zonas de playa. Por otro lado, se abordó la estimación de la cantidad de personas en la playa. Inicialmente se trabajó sobre imágenes medias, en las cuales únicamente se pueden observar aquellos usuarios que permanecieron en ubicaciones fijas durante el tiempo de grabación. Debido al interés actual sobre la detección de personas en zonas costeras se trabajó sobre imágenes instantáneas de cámaras de alta resolución, provistas por cortesía del proyecto HORUS obteniéndose resultados significativos sobre la información de ocupación de los usuarios en la playa como así también su desplazamiento en la misma. En la etapa final de la tesis, la información obtenida mediante técnicas de procesamiento digital de imágenes fue integrada en un Sistema de Información Geográfico. Sobre dicho sistema se present´o un ejemplo de aplicaci´on de las metodolog´ıas para la generaci´on de modelos del comportamiento de la playa. De esta manera, las caracter´ısticas extra´ıdas a partir de im´agenes pueden ser georreferenciadas, almacenadas en una base de datos o comparadas con informaci´on proveniente de otras fuentes. A modo global, se concluy´o la generaci´on de herramientas basadas en visi´on por computadora que permiten el an´alisis cualitativo y la medici´on cuantitativa de diversas caracter´ısticas de la playa. / Geomorphological and dynamic information of coastal processes is very important in scientific and environmental studies and also for coastal management policies. Beaches are unstable environments, which have continuous changes due to different phenomena. Also, people through diverse mechanisms have a significant effect. The assessment of changes in these environments should be studied continuously and for long periods. For this reason, it is useful to have information that is generated automatically. While digital image processing is relatively new in coastal monitoring applications, the advantages of its use has been largely taken in other disciplines, geared by technological advances in processing tools. The objective of this dissertation is to develop new techniques and methodologies for feature extraction and recognition in digital images and videos from beach environments, and to integrate those tools into a video-based coastal monitoring system. First, a methodology was developed for video capture that allows storing data from the beach during a specific period. The main result of this development is to obtain qualitative information, for instance, the mean and variance image, of the state of the beach in an automatically way. Then, tools for automatic extraction and measurement of shoreline in mean images were implemented. The differentiation of land and water areas was possible using a classification algorithm from a set of patterns. Based on this technique, the length of the shoreline was measured automatically. Another results involved the classification of the zones of the beach. The method is based on the choice of prototypes pixel groups of each zone. Furthermore, it was possible to obtain measurements of areas and profiles for each zone. The algorithm works in different weather and operational conditions. For this reason, the method represents a significant advance in the automatic detection and measurement of beach zones. Furthermore, algorithms for estimating the number of people on the beach was estimated were developed. Initially, the method was applied on mean images in which only those users that remained at a fixed location during the recording time can be analyzed. Also, the algorithm was tested using high-resolution cameras, provided by the HORUS project. In the final stage of this dissertation, the information obtained through techniques of digital image processing was integrated into a Geographic Information System. An example of an application of methodologies for the generation of behavioral models from the beach was implemented in the GIS. Thus, the extracted features from the images can be geo-referenced, stored in a database and compared with information from other sources. This thesis concluded with the generation of tools based in computer vision that allows a qualitative analysis and a quantitative measurement of diverse characteristics of the beach.
6

Procesamiento inteligente de imágenes para el modelado geomorfológico

Revollo Sarmiento, Gisela N. 27 March 2015 (has links)
Las planicies de marea del estuario de Bahía Blanca se caracterizan por tener una amplia presencia de accidentes geográficos (cursos de marea y cuencos de agua) de diversos tamaños, formas y orientaciones. El estudio del origen de los mismos, su permanencia y los mecanismos de erosi ón durante la evolución de estos accidentes es importante para determinar futuros procesos dinámicos en el humedal costero. Sin embargo, el acceso directo para el monitoreo de estas regiones no es fácil, tiene un costo prohibitivo, no siempre es posible el acceso condicionado por las mareas y es ambientalmente dañino. El procesamiento digital de imágenes (PDI) de sensado remoto es una alternativa natural ante esta situación, dado que es una herramienta no invasiva para la extracción de datos cualitativos y cuantitativos sin alterar el estado natural del objeto bajo estudio. La presente tesis tiene como objetivo principal desarrollar e implementar nuevas técnicas y metodologías de PDI que conformen la arquitectura de una aplicación que permita extraer la información necesaria y suficiente de los accidentes geográficos para que posteriormente, el experto pueda analizar y modelar la geomorfología de los mismos. La metodología desarrollada está compuesta por diferentes etapas de procesamiento, entre ellas la segmentación (identificación), medición, extracción de parámetros morfológicos (descriptores de forma) y la clasificación automática de los accidentes de interés. En primera instancia, se caracterizó el tipo de ambiente y se seleccionaron 13 zonas del estuario para ser analizadas. Las mismas son representativas de la diversidad de cuencos y cursos de marea existentes en las planicies. En cada zona de estudio se aplicaron las distintas etapas del procesamiento y se discriminaron los objetos de interés. Seguidamente, se analizó su morfología individual en detalle. En este sentido, un conjunto de datos es obtenido para el análisis morfológico y, además es usado para definir las ecuaciones de un modelo estadístico de regresión, el cual permite diferenciar automáticamente los cuencos de agua y cursos de marea. En principio, el clasificador se testeó en un conjunto de zonas usadas para su entrenamiento y posteriormente se usaron las restantes zonas como conjunto de validación. El desempeño del clasificador se evaluó de dos formas distintas, visual y cuantitativamente. El propósito fue determinar la variabilidad de los resultados según la apreciación del evaluador experto (supervisada) y la predicha por el clasificador (automática). En todos los casos se identificaron y clasificaron automáticamente los diferentes accidentes geográficos con una precisión superior al 86 %. Los resultados demuestran que es posible identificar y clasificar en forma automática los accidentes geográficos de formas complejas, como los cuencos de agua y cursos de marea a partir de imágenes de sensado remoto, en este caso particular, imágenes de Google Earth. Inclusive, la metodología puede ser aplicada en otras regiones de humedales costeros y con otros tipos de imágenes de sensado remoto. / Tidal flats of the Bahía Blanca Estuary, generally exhibit ponds of diverse size, shape and orientation. The study of the origin, stability and erosive mechanisms during the evolution of these geographic features are important to determine dynamic processes in coastal wetlands. However, direct monitoring access to the locations is hard and expensive, not always feasible, and environmentally damaging. Remote sensing images may represent a natural alternative for this situation, since it is a noninvasive tool for qualitative and quantitative data extraction without altering the natural state of the object under study. The main aim of this thesis is to introduce and develop new techniques and DIP methodologies that integrate a framework application. In this sense, the expert is able to analyze the data set obtained. The methodology consists in different processing stages like segmentation, measurement, shape descriptors extraction and the automatic classification of geographic features. First, we characterize the environment type and 13 zones were selected to study. These zones are representative of ponds and tidal courses in tidal flats. The different processing stages were applied for each zone and geographic features were indentified. Then, the individual morphology in detail was analyzed. A data set for morphological analysis was provided and used to define the classifier model equations, which allow to automatically discriminate ponds against tidal courses. The classifier were tested in the training zones and then other zones were used to validate the performance of the classifier. To determine the variability of the results , supervise classification was compared against automatic classification. In all cases, it was possible to identify and automatically classify different geographic features with an accuracy higher than 86%. These results highlight the feasibility of using freely available Google Earth imagery for the automatic identification and classification of complex geographical features, as ponds and tidal courses. In addition, the methodology presented here could be applied in other wetlands of the world and to other remote sensing imagery.
7

Sistema de llenado automático de botellas con control de nivel utilizando procesamiento digital de imágenes

Manrique Hernandez, Jose A., Palomino Puma, Yon January 2015 (has links)
Esta tesis propone el uso de procesamiento digital de imágenes para el control de clasificación, a través de redes neuronales, en un sistema de llenado automático de botellas. Las imágenes de las tres botellas fueron capturadas por una cámara web, dichas imágenes a través de algoritmos de MatLab pasaron a escala de grises y fueron almacenadas en una matriz de 20x20 que sirven como entrada a la red neuronal. Luego, la PC envió la información al sistema de control indicando el tipo de botella. De acuerdo a la información recibida el sistema de control activo el motor de la banda transportadora para hacer avanzar la botella hacia las estaciones de llenado, desecho, enchapado y selección. En la estación de llenado, el sistema de control activó los motores de llenado de acuerdo al tipo de botella. Si el llenado es muy alto o insuficiente, la base circular lleva a la botella a la posición de desecho. Si el llenado es el correcto, la base circular desplaza a la botella hacia la fase de clasificación. Se realizaron diferentes pruebas en el entrenamiento de la red neuronal en lo que respecta el número de iteraciones, donde se vio que 7000 iteraciones permiten que el reconocimiento sea eficiente. También para determinar la eficacia del llenado, se obtuvo que dos de cada diez botellas fueron rechazadas por mal llenado. En lo que respecta la productividad, con este sistema en media hora se puede tener hasta 38 botellas y en 8 horas hasta 608.
8

Design and construction of a digital sideband separating spectrometer for the 1.2-meter southern radio telescope

Finger Camus, Ricardo January 2013 (has links)
Doctor en Ingeniería Eléctrica / Los receptores de doble banda lateral (2SB) son particularmente útiles para la observación de espectros astronómicos complejos en un amplio rango de frecuencias. Son extensamente utilizados en radio astronomía siendo sus principales ventajas el evitar la confusión espectral y disminuir la temperatura efectiva de sistema en un factor de dos con respecto a los receptores de doble banda lateral (DSB). Usando la actual tecnología analógica, los receptores 2SB de banda ancha obtienen generalmente cocientes de rechazo de banda lateral (SRR) de 10 a 15 dB, valores insuficientes para algunas aplicaciones astronómicas. En este trabajo se presenta la arquitectura típica de los receptores astronómicos de doble banda lateral y se describen las principales causas que limitan el rendimiento de la tecnología analógica actual. Se elabora sobre la necesidad de un alto rechazo de banda lateral para observaciones astronómicas y se propone un nuevo enfoque usando tecnología digital para superar los problemas que limitan el rechazo de banda lateral de los instrumentos actuales. Durante este trabajo se estudiaron técnicas digitales para mejorar el rendimiento de los receptores con separación de banda lateral. Se presenta el diseño e implementación de un espectrómetro de transformada de Fourier rápida (FFT) con separación de banda lateral digital incluyendo la implementación de un receptor analógico de 4 GHz construido para probar los diseños y medir el rechazo de banda lateral. La configuración utiliza una arquitectura clásica de receptor 2SB, excepto que las salidas de los mezcladores son directamente digitalizadas, antes del híbrido de IF, utilizando dos ADCs de 8 bits a 1 GSPS. El híbrido de IF está implementado en la FPGA junto con un conjunto de vectores de calibración que, debidamente elegidos, compensan los desequilibrios de amplitud y fase del receptor analógico. El receptor calibrado exhibe un cociente de rechazo banda lateral superior a 40 dB para todo el ancho de banda de recepción de 2 GHz. Esto representa una mejora de un factor de 100 a 1000 respecto a los actuales receptores radio astronómicos.
9

Desarrollo de un sistema electrónico portátil orientado a la detección de billetes falsos de 50, 100 y 200 soles basado en algoritmos de procesamiento digital de imágenes / Development of a portable electronic system oriented to the detection of counterfeit bills of 50, 100 and 200 soles based on digital image processing algorithms

Huaytalla Usurin, Bryan Juan, Humari Quispe, Diego Oswaldo 19 July 2020 (has links)
Solicitud de envío manuscrito de artículo científico. / Solicitud de envío manuscrito de artículo científico. / El presente proyecto de tesis propone el desarrollo de un sistema portátil de detección de billetes falsos de 50, 100 y 200 soles de diagnóstico automático basado en procesamiento digital de imágenes e implementado en un computador de placa reducida. En la actualidad, las técnicas de falsificación de billetes que se usan en el Perú son capaces de burlar a los sistemas de detección tradicionales. El sistema propuesto se basa en una detección más eficiente ya que enfoca la adquisición y segmentación de imagen en los patrones calcográficos de marcas de alto relieve. Para optimizar este proceso, se hace uso de una cámara, una lente y un recinto portable. Al resultado se le aplican filtros de repujado, de sobel, de erosión y de dilatación sucesivamente, para resaltar las características distintivas de los billetes legítimos. Finalmente, se usan Máquinas de Soporte Vectorial para clasificar los billetes falsos y los verdaderos, de acuerdo al proceso de entrenamiento realizado para cada denominación. El resultado entregado permitirá que el algoritmo pueda discernir la legitimidad del billete e indicarlo en un display para el entendimiento de cualquier usuario. Asimismo, el computador va conectado a una base de datos para transmitir las estadísticas de billetes falsos detectados. Para la validación de la solución, se han procesado muestras de 278 billetes entre verdaderos y falsos de 50, 100 y 200 soles provistos por el BCRP, o Banco Central de Reserva del Perú. En estas pruebas se obtuvo un porcentaje precisión mayor al 97% para identificar billetes falsos. / The present thesis project proposes to design a portable system to detect 50, 100 and 200 soles counterfeit bills with automatic diagnosis based on digital image processing and implemented on a reduced plate computer. Nowadays, the current counterfeiting techniques for bills being used in Peru are capable of eluding the traditional detection systems. The system being proposed is based on a more efficient detection because the acquisition and image segmentation is being focused on the chalcographic patterns of high relief. To optimize this process, a camera, a lens and a portable enclosure are being used. Then, the system applies the embossing filter, the sobel filter, the erosion filter and the expansion filter successively, to emphasize the distinctive characteristics of the legitimate bills. Finally, Support Vector Machines are used to classify real and counterfeit bills, based on the training process performed for each denomination. The result delivered will allow the program to discern the legitimacy of the bill and show it on a display to ease the understandment by any user. Likewise, the computer is connected to a database in order to transmit the statistics of counterfeit bills detected. To validate the solution, samples of 278 bills, counterfeit and legal, of 50, 100 and 200 soles were processed. These were provided by the BCRP, the official organism of Peru in charge of coins and bills. In this tests, the results show a presicion of over 97% of counterfeited bills correctly identified. / Tesis
10

Adecuación a la Guía ALICIA 2.0.1 e Identificadores persistentes

Huaroto, Libio 22 April 2021 (has links)
Presentación que aborda los cambios realizados para adaptar a la Guia ALICIA 2.0.1. Igulamente, implementación del identificador handle.

Page generated in 0.105 seconds