• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1078
  • 99
  • 7
  • 1
  • Tagged with
  • 1186
  • 512
  • 367
  • 367
  • 367
  • 367
  • 367
  • 327
  • 324
  • 310
  • 264
  • 233
  • 169
  • 145
  • 130
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
391

Procesamiento y análisis de radio eco-sondaje (RES) sobre glaciares chilenos: relación entre volumen de hielo y área superficial

Huenante Gutiérrez, Jorge Andrés January 2018 (has links)
Magíster en Ciencias, Mención Geofísica / El Método RES es un método geofísico similar al método sísmico, pero que en lugar de ondas elásticas, se basa en la propagación de ondas electromagnéticas a través de antenas entre un emisor y un receptor, ambos normalmente en la superficie. Para el caso de un glaciar estas ondas se propagan a través del material, interactuando con reflectores internos del hielo y con la interfaz hielo-roca al fondo del glaciar. El espesor de hielo de un glaciar puede ser calculado utilizando este método en base al tiempo de recorrido y una velocidad de propagación de la onda en el medio. Se dispone de datos RES en formato crudo obtenido mediante un sistema de radar aéreo, con el cual se midieron 18 glaciares de la cordillera norte, centro y sur de Chile solicitados por la Dirección General de Aguas (DGA). En base a estos datos se realizó el procesamiento de datos para cada uno de los glaciares y así se obtuvieron espesores de hielo en ciertas transectas medidas sobre el glaciar. En base a estos resultados se realizó una interpolación del espesor para toda el área del glaciar con límites definidos mediante imágenes aéreas y satelitales. Así se calculó un volumen para cada uno de los 18 glaciares. Diversos autores han propuesto fórmulas que relacionan el volumen o espesor medio del hielo en un glaciar con el área de la superficie del mismo. Esto busca dar una respuesta general para una zona determinada en la cual no se pueden realizar mediciones RES, debido a que corresponde a una técnica laboriosa y solo aplicable a glaciares individuales. Es aquí donde surge la necesidad de realizar un ajuste que sea aplicable a los glaciares de la cordillera andina de Chile. Se obtuvo, luego de un minucioso análisis utilizando las áreas y volúmenes obtenidos para el conjunto de datos disponibles, una relación del tipo de Ley de Potencias ($V=C\cdot S^\gamma$) que entrega un resultado válido para ser aplicable sobre glaciares chilenos. La relación área-volumen para glaciares chilenos obtenida en el presente trabajo, fue aplicada sobre los glaciares con áreas entre $0.01$ y $30\ km^2$ del inventario de glaciares a nivel nacional disponible, realizado por la Unidad de Glaciología y Nieves de la DGA. Se calculó una disminución de volumen de $31\%$ respecto a los cálculos realizados aplicando otras relaciones. Debido a los tamaños de los glaciares, la fórmula propuesta puede ser aplicada sobre todos los glaciares entre las regiones XV y X, mientras que puede ser aplicada en forma parcial entre las regiones XI y XII.
392

Conteo de varillas de acero por procesamiento de imágenes

Dueñas Rodriguez, Abel Alejandro, Vadillo Vidal, Christian Edward 01 January 2013 (has links)
El desarrollo de la presente tesis obedece a un problema real originado en los almacenes de la siderúrgica más grande del país, la Corporación Aceros Arequipa. En su operación de despacho se ha visto la necesidad de mejorar el proceso de conteo de varillas conformantes de los paquetes a entregar al cliente final luego de ser preparados. Hasta este momento, dicho conteo se ejecuta de manera manual, teniendo como consecuencia la alta tasa de error, producto de las desventajas inherentes al factor humano como son el cansancio y la desconcentración. Viendo esto, se propuso automatizar dicho conteo mediante el uso de técnicas de visión artificial. Para esto la empresa condicionó dos cosas al proyecto, confiabilidad y portabilidad. Por esta razón, se iniciará el proyecto con una etapa de investigación, tanto de componentes como de qué técnica de teoría de imágenes a utilizar para realizar el conteo. Luego de haber concluir la etapa de investigación, se comenzará con el desarrollo del prototipo, el cual no obtuvo resultados al inicio en cuanto a confiabilidad, producto de las noveles técnicas utilizadas en la detección y conteo de varillas. Con el pasar de los meses, se fue mejorando el algoritmo hasta llegar a una versión considerada como confiable por obtener una tasa de confiabilidad de 0.0057% de varillas erradas. En el texto de la presente tesis, se profundizará en la justificación del desarrollo del proyecto. También se detallarán las características del prototipo desarrollado, tanto en el aspecto físico como es el caso de los componentes, así como en el algoritmo desarrollado para obtener un conteo confiable de las varillas. Así mismo, se analizarán los resultados de las pruebas realizadas con el conteo y se contrastarán con las mediciones de error de despacho producto del conteo manual. Luego, se extrapolarán estos resultados a meses y años con el fin de comparar de una manera más didáctica los dos métodos. Por último, se listarán una serie de conclusiones a las que se llegó en el desarrollo del proyecto, salvando las múltiples dificultades que se presentaron durante el avance del mismo. / Tesis
393

Sistema de seguimiento de objetos mediante procesamiento digital de imágenes aplicado al control de robots autónomos

Aranguren Zapata, Alejandro, Vela Asin, Tiffany 01 January 2012 (has links)
En el presente trabajo se presenta el diseño y desarrollo de un Sistema de seguimiento de objetos mediante el procesamiento digital de imágenes aplicado al control de robots autónomos. El software le permite al usuario seleccionar los colores de la marca que desea monitorear, además le permite cambiar los niveles de luminosidad con los que se presenta la imagen en pantalla. Una vez iniciado el seguimiento se procede a realizar la adquisición de imágenes mediante una cámara inalámbrica instalada en el robot para luego procesarlas y mostrar en pantalla la marca identificada y centrada. El sistema realiza el seguimiento de la marca ubicada en el objeto de interés siempre manteniéndolo a un margen máximo de un metro. El sistema está conformado por un robot autónomo capaz de realizar movimientos rotacionales y traslacionales de manera de evitar que la marca se pierda en algún momento. Además el robot cuenta con un sensor de proximidad que le permite evadir obstáculos a medida que realiza algún movimiento. El sistema de control está monitoreado por dos microcontroladores PIC 16F877A, los cuales gobiernan los actuadores del sistema (motores, servomotor, sensores), además de permitir el intercambio de información con ayuda de dos módulos XBee-PRO instalados uno en el robot y el otro en la estación base. El computador posee un software desarrollado en el entorno MATLAB potenciado con tecnología de procesamiento paralelo a través de una tarjeta de video con tecnología CUDA para optimizar el procesamiento digital de imágenes que permite realizar la identificación del objeto de interés. Por último se presenta también un sistema capaz de detectar o identificar aves en el cielo, esto con el fin de monitorear campos o pistas de aterrizaje para evitar inconvenientes o retrasos en vuelos como aplicación adicional del sistema. / Tesis
394

Desarrollo de un algoritmo computacional basado en técnicas de procesamiento de imágenes orientado a la determinación de trayectorias de desplazamiento de un vehículo no tripulado

Morón Peña, Analía, Lapa O´Hara, José 04 December 2016 (has links)
Escasas soluciones e ineficientes métodos en automatización de sistema de guiado de AGV’s (Vehículos de guiado autónomo) en distribución de pequeña mercadería en almacenes de pequeñas y medianas empresas en el mercado nacional. El uso de los Kiva robots que han aumentado significativamente la eficiencia de las operaciones mientras que hace la vida de los empleados más sencilla. Los robots Kiva recortan la parte dura de "recoger", trabajar y traer artículos directamente a los trabajadores, quienes procesan los pedidos. Por esta razón, se puede decir que la empresas líderes entre otras implementan métodos de automatización de almacenes, para proteger a su capital humano, su imagen y prestigio. Asimismo debido a esta situación cada día se están implementando nuevos métodos para manejar y automatizar más almacenes. / Tesis
395

Estudio comparativo de técnicas para robustez de sistemas de verificación de locutor texto independiente

Fredes Sandoval, Josué Abraham January 2015 (has links)
Ingeniero Civil Electricista / Las técnicas de biometría son métodos automáticos de verificación o reconocimiento de la identidad de una persona basándose en una característica fisiológica o de comportamiento. En este marco se encuentra la tarea de verificación de locutor, que es el proceso de verificar la identidad de una persona basada en su señal de voz. Un sistema de verificación de locutor usualmente es entrenado bajo ciertas condiciones de grabación o de canal de comunicación, y utilizar el sistema bajo otras condiciones de canal puede ser problemático. Debido a esto se han desarrollado diversas técnicas para cancelar o compensar el efecto del ruido y del canal, y así hacer la tecnología más robusta. En los últimos años se han propuesto nuevas técnicas basadas en análisis factorial que intentan modelar el efecto del canal de comunicación sobre la señal de voz. En este trabajo se analizan en detalle dos sistemas de análisis factorial: Joint Factor Analysis o JFA, y Total Variability Front-End Factor Analysis más conocido como i-Vectors. Se implementaron ambos sistemas para ser integrados al conjunto de softwares para ve- rificación de locutor del Laboratorio de Procesamiento y Transmisión de Voz, LPTV, de la Universidad de Chile. Los sistemas implementados se validaron usando un software de referencia que tiene rendimiento state-of-the-art. Al utilizar las mismas condiciones iniciales de entrenamiento, los sistemas JFA e i-Vectors desarrollados para el LPTV igualaron el rendimiento del software de referencia, validando así su implementación.
396

Estudiando obras literarias con herramientas de procesamiento de lenguaje natural

Gouron, Romain Víctor Olivier January 2017 (has links)
Ingeniero Civil Matemático / En los últimos años, el procesamiento de lenguaje natural (Natural Language Proces-sing, o NLP) ha experimentado importantes avances. Específicamente, en 2013, Google lanzó "word2vec", un algoritmo que propone, a partir de un corpus dado, una representación vecto-rial de las palabras que lo componen. Dicho algoritmo ha tenido un gran éxito principalmentepor dos razones: La primera es el bajo costo computacional de su entrenamiento que permitióun uso masivo, mientras que la segunda es la intuitiva topología inducida por la representación vectorial ilustrada por el popular ejemplo: word2vec("king") - word2vec("man") + word2vec("woman") = word2vec("queen") En esta memoria, presentamos en un primer lugar un ejemplo ilustrativo del algoritmo "word2vec" mediante su implementación para determinar preguntas duplicadas en Quora, una competencia propuesta por el sitio Kaggle.com. Una vez familiarizados con el algoritmo, nos enfocamos en un problema más abierto que considera el análisis de 45 obras de literatura francesa. En particular, queremos atacar la siguiente pregunta: ¿cómo se puede definir una distancia entre dos libros? Después de haber preparado los libros con el propósito de poder usar el algoritmo, propondremos varios métodos originales para comparar pares de libros. Luego, nos interesará representar estas obras en un espacio, y determinar si dicha representación revela propiedades literarias de las obras consideradas tales como la paternidad o el estilo literario.
397

Un sintetizador de múltiples haces, basado en FPGA, para arreglos de antenas en fase, con aplicaciones en radioastronomía y telecomunicaciones

Casado Castro, Francisco Emilio January 2018 (has links)
Ingeniero Civil Eléctrico / La síntesis de haces resuelve el problema de generar patrones de radiación más complejos que los que se puede generar con antenas individuales o arreglos de estas. Para ello se manipula la fase y la amplitud de la alimentación de cada elemento del arreglo, lo que permite focalizar la emisión o recepción de la potencia en ciertos lugares del espacio. Tanto en radioastronomía, como en las telecomunicaciones, esta tecnología da la posibilidad de observar el espacio de manera selectiva y/o en múltiples direcciones de manera simultanea, lo cual permite disminuir tiempos de barrido (para el caso de radiotelescopios) o descongestionar canales creando enlaces directivos. Este trabajo presenta la implementación de un sintetizador digital de múltiples haces, utilizando un arreglo planar de de 4x4 antenas tipo parche, capaz de generar tres patrones patrones directivos, cuyo procesamiento se realiza íntegramente en una FPGA (Field Programmable Gate Array). El arreglo está sintonizado para operar en 5.81 GHz, con un ancho de banda de 40 MHz. La señal es convertida a banda base por un conjunto de tarjetas de electrónica analógica. Se han realizado dos pruebas experimentales para verificar el funcionamiento del sistema: una emulando condiciones ideales de excitación, de modo de eliminar interferencias ajenas al experimento, y otra situando el arreglo en un extremo de una habitación vacía, siendo iluminado por una fuente puntual en el otro extremo. Los resultados permiten concluir que la síntesis de haces es satisfactoria, generando haces cuyo lóbulo principal es de 20º de ancho, con la capacidad rotar la dirección en que apuntan en todo el hemisferio visible del arreglo.
398

Identificación de modos de vibración con un sistema de correlación digital de imágenes de alta velocidad (High Speed 3D DIC)

Pacheco Román, Ricardo Alfredo January 2018 (has links)
Ingeniero Civil Mecánico / Este trabajo consiste en cuantificar el ruido experimental a partir de mediciones de modos de vibración obtenidas a través de un sistema de correlación digital de imágenes. Esto último con el fin de generar una metodología de identificación de los mismos tal que el ruido sea mínimo. Los objetos a medir son placas curvas fabricadas con una estructura tipo sandwich de fibra de carbono y un núcleo tipo NOMEX , todas de las mismas dimensiones y sin delaminación. Este proceso es necesario debido a que para estudiar fenómenos más complejos se requiere de una mayor precisión en las mediciones. Esta memoria de título se enmarca dentro de un proyecto cuyo objetivo final es detectar localización y magnitud del daño en placas de material compuesto, por lo que la metodología desarrollada a lo largo de este trabajo establece una base mediante la cual se espera obtener resultados óptimos a futuro. La primera parte de este trabajo consiste en una revisión de la bibliografía pertinente para poder determinar los parámetros entre los que se realiza la comparación, identificar frecuencias naturales de cada placa y excitarlas para poder grabarlas mediante un sistema de correlación digital de imágenes de alta velocidad. Luego, se procesan estos datos para obtener los desplazamientos de cada una de las mediciones, suavizar los modos, lo que se realiza utilizando Procesos Gaussianos, como una manera de encontrar una función continua que represente represente la forma del modo como un continuo de funciones en 3D, y calcular el ruido como la diferencia entre el modo suavizado y los valores medidos. Finalmente, se analizan estos datos estadísticamente obteniendo resultados comparables y seleccionando la metodología. Al evaluar los tres diferentes patrones, para los primeros cuatro modos de vibración y con tres diferentes tamaños de facet, se concluye lo siguiente: el primer patrón es el más efectivo a la hora de disminuir el ruido y es el que presenta menos complicaciones al momento de calibrar, al permitir una mejor identificación por parte de las cámaras. No se observa una relación entre los errores y la frecuencia de los modos de vibración. Por último, a mayor tamaño del facet, se disminuye el error promedio y la cantidad de cuadros no identificados / Este trabajo ha sido parcialmente financiado por Proyecto Fondecyt 1170535
399

Seguimiento de una persona con robot de servicio de recursos limitados

Hormazabal Correa, Eduardo Andrés January 2019 (has links)
Memoria para optar al título de Ingeniero Civil Eléctrico / Los robots de servicio son cada vez más frecuentes dado su potencial para realizar diversos tipos de tareas. Una actividad con gran potencial es la de seguir a una persona, ya que se puede utilizar para ejecutar acciones más complejas, como aprender un recorrido predeterminado, ayudar a transportar objetos, monitorear a una persona, etc. Luego, el objetivo de este trabajo es el de implementar un sistema de seguimiento de una persona con el robot de servicio Pepper de SoftBank Robotics, que implica ser capaz de funcionar en tiempo real, con la presencia de múltiples personas, entre otros. Tras investigar en la literatura distintos métodos relacionados con este trabajo, se propone e implementa un sistema modular que basa su funcionamiento en imágenes de color y profundidad adquiridas por el robot. Primero se obtienen candidatos de personas utilizando la nube de puntos generada por la imagen de profundidad para reducir el costo computacional, y luego se detectan utilizando la imagen de color. Posteriormente se asocian las detecciones de todas las personas a lo largo del stream de video. A continuación se entrena un clasificador adaptativo capaz de diferenciar a la persona que se está siguiendo de las demás, mediante un conjunto de características elegidas previamente. Por último, se tiene un módulo encargado de accionar al robot para realizar la rutina de movimiento, que permite seguir a la persona. El sistema se evaluó en un conjunto de videos generados específicamente para la tarea de seguimiento. Los resultados obtenidos indican que el sistema sí se puede ejecutar en tiempo real, con una tasa aproximada de 12 fps. Por otro lado, la detección de la persona a seguir alcanzó una media del 90.49%, además de ser capaz de reencontrarla la mayoría de las veces con una tasa promedio del 92.01%. Estos resultados compiten con métodos tradicionales utilizados en la literatura, pero que no logran ejecutarse en tiempo real en una máquina de las mismas características a la utilizada en este trabajo. Se concluye que el sistema cumple con los objetivos planteados, y también da la posibilidad de realizar una mejora continua de éste por la naturaleza modular de la solución propuesta. Aún así, existe un conjunto de problemáticas no resueltas que se esperan resolver con métodos modernos y hardware especializado, como por ejemplo las redes neuronales convolucionales.
400

Multi-object tracking with camera

Thomas Brigneti, Andrés Attilio January 2019 (has links)
Memoria para optar al título de Ingeniero Civil Eléctrico / En este trabajo se evaluarán distintos algoritmos de trackeo para el problema de seguimiento de peatones, donde teniendo un video obtenido de una camara de seguridad, nos interesa reconocer correctamente cada individuo a traves del tiempo, buscando minimizar la cantindad de etiquetas mal asignadas y objetos (peatones) no identificados. Para esto se ocuparán algorimos basados en el concepto de Conjuntos Aleatorios Finitos (Random Finite Sets - RFS), los cuales usan mediciones pasadas de los objetos para predecir posiciones futuras de todos ellos simultaneamente, mientras que también se consideran los casos de nacimientos y muertes de los objetos. Estos algoritmos fueron concebidos para el trackeo de objetos con movimientos simples y predecibles en condiciones de una gran cantidad ruido en las mediciones. mientras que las condiciones en las que se evaluarán son drasticamente opuestas, con un nivel muy alto de certeza en las mediciones pero con movimientos altamente no linear y muy impredecible. Se ocupará una libreria abierta creada por el investigador Ba Tuong Vo, donde están implementados varios de los más clásicos algoritmos en esta área. Es por esto que el trabajo se basará más en el análisis de los resultados en estas nuevas condiciones y observar como se comparán a los algoritmos actuales del area de Computer Vision (CV)/ Machine Learning (ML), usando tanto métricas de RFS como del área de CV.

Page generated in 0.4608 seconds