• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1098
  • 103
  • 7
  • 1
  • Tagged with
  • 1210
  • 522
  • 388
  • 388
  • 388
  • 388
  • 388
  • 343
  • 331
  • 318
  • 273
  • 241
  • 169
  • 151
  • 131
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
341

Modelamiento semántico del entorno para la conducción autónoma de un vehículo terrestre

Bernuy Bahamóndez, Fernando Javier January 2017 (has links)
Doctor en Ingeniería Eléctrica / La conducción autónoma de vehı́culos requiere de un método de localización robusto a cambios en el ambiente debidos, entre otros, a la iluminación natural, los objetos dinámicos presentes y a las condiciones ambientales. Los mapas topológicos permiten una representación concisa del mundo al mantener solo información sobre los lugares relevantes, mientras que los mapas semánticos permiten una representación de alto nivel que incluye etiquetas asociadas con lugares u objetos. Es por esto que en este trabajo se propone el uso de mapas topológicos semánticos como una solución robusta y eficiente para el mapeo en lugares extensos para su uso en la conducción de vehı́culos autónomos. El objetivo de esta tesis es modelar el entorno de un vehı́culo a través de un mapa topológico semántico, utilizando información semántica obtenida del procesamiento de imágenes de la cámara frontal del vehı́culo, lo que permite generar una descripción de alto nivel del entorno para su uso en la localización de un vehı́culo autónomo en condiciones de navegación urbanas y rurales. La metodologı́a para la construcción del Mapa Topológico Semántico utiliza un método de seg- mentación semántica basado en redes neuronales profundas para extraer la información semántica de las imágenes, y construye el mapa en una estructura de grafo que describe el entorno del vehı́cu- lo. Para llevar a cabo la localización del vehı́culo en un mapa topológico semántico conocido se implementó un método basado en filtros de partı́culas que resuelve exitosamente el problema de localización. Esta metodologı́a fue probada en una base de datos de conducción urbana, logrando describir 9,57[km] de caminos de ciudad con un grafo que contiene 232 aristas. La metodologı́a de localización fue probada utilizando un segundo recorrido de 8,45[km] obteniéndose una precisión promedio de 7,7[m] en la estimación de la pose del vehı́culo, mostrando mejores resultados que otros dos métodos del estado del arte. Además, los experimentos realizados demuestran la robustez de la metodologı́a en el caso de no tener una estimación inicial de la pose del vehículo.
342

Reconocimiento rápido de objetos usando objects proposals y deep learning

Soto Barra, Claudia Naiomi January 2017 (has links)
Ingeniera Civil Eléctrica / El reconocimiento (o detección) de objetos es un área activa y en continua mejora de la visión computacional. Recientemente se han introducido distintas estrategias para mejorar el desempeño y disminuir los costos y el tiempo de detección. Entre estas, se encuentran la generación de Object Proposals (regiones en la imágen donde hay alta probabilidad de encontrar un objeto) para acelerar la etapa de localización, como respuesta al paradigma de ventana deslizante; el cada vez más popular uso de redes Deep Learning y, en particular, para la clasi cación y detección de imágenes, las redes convolucionales (CNN). Si bien existen diversos trabajos que utilizan ambas técnicas, todos ellos se centran en tener una buena performance en conocidas bases de datos y competencias en lugar de estudiar su comportamiento en problemas reales y el efecto que tiene la modi cación de arquitecturas de redes convencionales y la elección adecuada de un sistema de generación de proposals. En este trabajo de título, entonces, se tiene como objetivo principal el caracterizar métodos de generación de proposals para su uso en el reconocimiento de objetos con redes CNN, comparando el desempeño tanto de los proposals generados como del sistema completo en bases de datos fabricadas manualmente. Para estudiar el sistema completo, se comparan dos estructuras conocidas, llamadas R-CNN y Fast R-CNN, que utilizan de distintas formas ambas técnicas (generación de proposals y detección) y donde se considera en el estado del arte mejor Fast R-CNN. Se propone en este trabajo que esta hipótesis no es del todo cierta en el caso de que se trabaje con un número su cientemente bajo de proposals (donde las bases de datos acá construidas se enfocan en precisamente asegurar una cantidad baja de objetos de tamaños similares presentes en cada una: objetos sobre super cies y objetos de una sala de estar) y se acelere el proceso de clasi cación alterando el tamaño de entrada de la red convolucional utilizada. Se eligieron tres métodos de generación de Proposals de la literatura a partir de su desempe ño reportado, y fueron comparados en distintos escenarios sus tiempos de procesamiento, calidad de proposals generados (mediante análisis visual y numérico) en función del número generados de estos. El método llamado BING presenta una ventaja sustancial en términos del tiempo de procesamiento y tiene un desempeño competitivo medido con el recall (fracción de los objetos del ground truth correctamente detectados) para las aplicaciones escogidas. Para implementar R-CNN se entrenan dos redes del tipo SqueezeNet pero con entradas reducidas y seleccionando los 50 mejores proposals generados por BING se encuentra que para una red de entrada 64x64 se alcanza casi el mismo recall (~ 40%) que se obtiene con el Fast R-CNN original y con una mejor precisión, aunque es 5 veces más lento (0.75s versus 0.14s). El sistema R-CNN implementado en este trabajo, entonces, no sólo acelera entre 10 y 20 veces la etapa de generación de proposals en comparación a su implementación original, si no que el efecto de reducir la entrada de la red utilizada logra disminuir el tiempo de detección a uno que es sólo 5 veces más lento que Fast R-CNN cuando antes era hasta 100 veces más lento y con un desempeño equivalente.
343

Estrategia para la re-activación de SERPRO S.A.

Ovalle Ortúzar, Felipe January 2017 (has links)
Ingeniero Civil Industrial / El presente trabajo de título consiste en determinar la factibilidad de la re-activación de SERPRO S.A., que permanece inactiva desde el 2013. La empresa ofrece servicios de asesoría y venta de software para el diseño y procesamiento de encuestas complejas y censos poblacionales y está constituida en Chile desde 1984. La empresa puede decidir entre retomar la actividad, finiquitar y vender la propiedad de su software, o fusionarse. Se presenta el contexto de la empresa y los datos importantes de su funcionamiento, el software desarrollado, los proyectos en los que participó y los clientes atendidos. Se destaca el desarrollo de la herramienta de diseño y procesamiento de encuestas CSProX, versión mejorada del software CSPro, de propiedad intelectual del U.S. Census Bureau, que se desarrolló en conjunto con SERPRO en 1999. Ésta herramienta se usa actualmente en proyectos e instituciones estadísticas en todo el mundo. El 2012 SERPRO finaliza contrato con 2 de sus principales clientes, que en conjunto correspondían al 91% de la actividad comercial de SERPRO en ese año. Se concluye que SERPRO no se preparó estratégicamente ante este escenario y la situación llevó a los dueños a tomar la decisión de congelar la actividad de la empresa, dedicándose por separado a brindar servicio de asesoría de manera individual. Se describen las cualidades del software en un análisis realizado por el Banco Mundial para softwares destinados a procesamiento de encuestas CAPI, dónde el ingreso de los datos en la encuesta presencial se realiza a través de un Tablet u otro artefacto electrónico. Además, se comparan las capacidades del software con las de la competencia directa, su plan comercial y el segmento objetivo de clientes. Se concluye el potencial de CSProX en relación a la competencia y se afirma que debido a la inactividad, SERPRO está en una posición de desventaja para intentar una venta del software o una fusión, decidiéndose por el retome de actividades. Se define que existe un potencial mercado en los centros de estudio estadísticos latinoamericanos que mantienen la metodología de captura de datos en papel y lápiz debido al salto tecnológico que implica el cambio a ingreso de datos electrónica. Se detecta la oportunidad de asesorar a los posibles clientes en esta transición, proponiendo un servicio integral que cubra todas las necesidades y problemáticas del cliente en esta adaptación. Paralelamente, se definen los factores claves, los servicios a realizar por SERPRO y la estructura organizacional y un sistema de sueldos variables que se obtendrán en relación a las utilidades. SERPRO pasa a ser una SpA, donde el alumno ingresa a la sociedad con un 22% de la compañía. El proyecto se evalúa financieramente entregando un VAN de $322.991.766CLP para un plazo de 5 años. Un aspecto importante es que la re-activación de la empresa no requiere una inversión inicial considerable, ya que el software es propiedad intelectual de SERPRO.
344

Análisis de datos de movimiento de clientes en un supermercado

Ferreiro Pérez, César Miguel January 2017 (has links)
Ingeniero Civil Industrial / La creciente incidencia de la tecnología en los procesos de compra ha facilitado poder hacer seguimiento de los clientes a través de las distintas etapas que componen una compra, tanto en formatos físicos como digitales. En partciular en una tienda física es posible conocer la ubicación del cliente a largo de su visita a la sala de ventas. En el presente trabajo se cuenta con la secuencia de ubicaciones seguidas por los clientes al interior de un supermercado en la ciudad de Santiago, estos fueron capturados a través de sensores dispuestos en la sala de ventas que detectan aquellos dispositivos móviles con la opción de wifi encendida. El principal objetivo del presente trabajo es entender como esta nueva fuente de información puede ayudar a enriquecer los análisis que se hacen actualmente sobre comportamiento de compra, donde generalmente solo se usan datos transaccionales. Para esto el análisis se divide en 3 partes: temporal, espacial y relacional. Primero los datos son pre procesados aplicando filtros sobre estos para restringir el análisis sobre secuencias de ubicaciones que correspondan a viajes de compra. En particular se definen criterios sobre las zonas en que son detectadas las observaciones y la duración de las visitas a la sala de ventas. Una vez hecho esto se analiza como varía la frecuencia de observación de acuerdo con las distintas trayectorias observadas. De esta parte se concluye que una gran fracción de las observaciones no puede ser asignada a un viaje de compra. Posteriormente se analizan los datos en su dimensión temporal a través de las variables hora de llegada y visitas por día. Estos datos se contrastan con variables análogas obtenidas a través de datos transaccionales. El principal resultado que se obtiene de esta comparación es que los patrones observados en datos transaccionales son consistentes con los obtenidos a través de datos móviles. Adicionalmente se logra estimar el tiempo que están los clientes al interior de la sala de ventas lo que no es posible con los datos transaccionales. Luego se analizan los datos en su dimensión espacial, esto es como se mueven los clientes al interior de la sala de ventas. En particular se construye el indicador de velocidad y se estudia como este varía de acuerdo con distintas variables. Una vez hecho esto se analiza cómo cambian los resultados al introducir correcciones a las trayectorias capturadas. Finalmente se comparan las visitas a ciertas zonas de la sala de ventas con las compras registradas en dichas zonas. El principal resultado de esta parte es la detección de brechas entre las compras y las visitas en distintas zonas de la sala de ventas. Esta información tiene el potencial de ser usada para mejorar la oferta de la sala de ventas en layout, ubicación de producto y ofertas entre otros.
345

Modelamiento de confiabilidad y análisis para flotas: Un enfoque basado en clustering para manejo de datos no homogéneos

Martínez Salazar, Ignacio Nicolás January 2017 (has links)
Ingeniero Civil Mecánico / En gestión de activos físicos, el cálculo actual de la confiabilidad de un equipo es realizado sobre una muestra de datos no homogénea, lo que significa que existen una o más características que no son la misma para todos los componentes de la población. Debido a ello el análisis de confiabilidad resulta ser poco preciso, obteniéndose de esta manera, resultados que son poco representativos de la realidad operacional de los equipos. Es por ello que, mediante técnicas de aprendizaje no supervisado, en particular clustering, se pretenden identificar las sub poblaciones existentes en la muestra que tienen como principal característica ser un conjunto homogéneo de datos y a partir de éstas calcular la confiabilidad para la flota. La metodología a seguir consta de tres etapas principales, la primera consiste en el análisis del conjunto de datos, en donde se desarrollarán los algoritmos Principle Component Analysis y Spectral feature selection mediante el software MATLAB. La segunda etapa consiste en identificar los clusters dentro del conjunto de datos mediante el desarrollo de los algoritmos k-means y DBSCAN. Por último se analizará y calculará la confiabilidad para cada cluster (sub-población homogénea) y para la flota en base a los modelos encontrados para los clusters (población no homogénea). En cuanto a los resultados obtenidos, se tiene que se redujeron las dimensiones de los datos de 5 a 3 covariables por medio de los algoritmos PCA y SPEC. Luego a través de k-means y DBSCAN se identificaron los clusters del conjunto reducido de datos. El análisis de confiabilidad realizado a cada cluster muestra métricas de confiabilidad muy distintas entre ellos, con hasta una diferencia de aproximadamente el 87 %. La automatización en la lectura y procesamiento de datos mediante las técnicas de aprendizaje no supervisado, en concreto clustering, son una gran herramienta para identificar, etiquetar y clasificar las características que representan a cada conjunto de datos, permitiendo desarrollar un análisis de confiabilidad más representativo de la realidad operacional de los equipos. A través de los clusters es posible llevar a cabo un estudio enfocado a los equipos que comparten las mismas condiciones de operaciones dentro de una misma flota. Lo que nos permite tener un mejor pronóstico de los tiempos de falla de los equipos y una mejor administración de los recursos destinados a la mantención.
346

Detector de eventos remotos basado en técnicas de procesamiento digital de video

Azama Makishi, Alan Yoshio, Huamán Huanca, Tomás Fernando 2013 March 1919 (has links)
El tema del presente proyecto profesional trata sobre las diferentes técnicas de procesamiento digital de imágenes aplicadas a un sistema de vigilancia, con cámaras IP conectadas en red. Estas técnicas de procesamiento hacen al sistema capaz de detectar automáticamente eventos remotos, tales como la detección de movimiento o el cambio de iluminación de una escena. El desarrollo del proyecto está dividido en cinco capítulos. El primer capítulo presenta un panorama general del proyecto. El segundo capítulo explica los fundamentos teóricos utilizados. El tercer capítulo muestra el desarrollo de los algoritmos utilizados para la detección automática de eventos. El cuarto capítulo expone las características del diseño y la implementación del sistema. Finalmente, el último capítulo es para realizar un análisis de los resultados obtenidos. Al finalizar el trabajo, luego de múltiples pruebas del sistema, se llegó a la conclusión de que la detección de eventos remotos utilizando técnicas de procesamiento digital de vídeo es un método de fácil implementación y superior a muchos sistemas actuales. / Tesis
347

Sistema de llenado automático de botellas con control de nivel utilizando procesamiento digital de imágenes

Manrique Hernandez, Jose A., Palomino Puma, Yon January 2015 (has links)
Esta tesis propone el uso de procesamiento digital de imágenes para el control de clasificación, a través de redes neuronales, en un sistema de llenado automático de botellas. Las imágenes de las tres botellas fueron capturadas por una cámara web, dichas imágenes a través de algoritmos de MatLab pasaron a escala de grises y fueron almacenadas en una matriz de 20x20 que sirven como entrada a la red neuronal. Luego, la PC envió la información al sistema de control indicando el tipo de botella. De acuerdo a la información recibida el sistema de control activo el motor de la banda transportadora para hacer avanzar la botella hacia las estaciones de llenado, desecho, enchapado y selección. En la estación de llenado, el sistema de control activó los motores de llenado de acuerdo al tipo de botella. Si el llenado es muy alto o insuficiente, la base circular lleva a la botella a la posición de desecho. Si el llenado es el correcto, la base circular desplaza a la botella hacia la fase de clasificación. Se realizaron diferentes pruebas en el entrenamiento de la red neuronal en lo que respecta el número de iteraciones, donde se vio que 7000 iteraciones permiten que el reconocimiento sea eficiente. También para determinar la eficacia del llenado, se obtuvo que dos de cada diez botellas fueron rechazadas por mal llenado. En lo que respecta la productividad, con este sistema en media hora se puede tener hasta 38 botellas y en 8 horas hasta 608.
348

Técnicas matemáticas para mejorar la visualización de imágenes DICOM

Barrientos De La Cruz, Andersson Bill, Higa Tako, Jenny January 2015 (has links)
El desarrollo de técnicas matemáticas para mejorar la visualización de imágenes médicas DICOM, mediante segmentación y procesamiento morfológico es el principal objetivo del presente proyecto de tesis. Para lograr este fin, se recopilaron imágenes médicas de un Tomógrafo Computarizado en diferentes estudios especializados de UROTEM, Tórax y de Cerebro, los cuales fueron procesados mediante algoritmos matemáticos desarrollados en el software Matlab. En el primer capítulo se plantea el problema; la necesidad de un post procesamiento de imágenes médicas, se fundamenta la importancia de esta investigación y se identifican los objetivos a lograr, así como también, se describen los antecedentes de esta investigación. Como marco teórico, en el segundo capítulo, se explica brevemente el funcionamiento de un Tomógrafo Computarizado, la adquisición de una imagen y el desarrollo del formato DICOM como un estándar internacional para imágenes médicas. Las técnicas matemáticas se describen en el capítulo tres; segmentación de imágenes, mediante el método de N. Otsu y procesamiento morfológico, detallándose su formulación y se definen las funciones empleadas en el software Matlab basadas en estas técnicas. El desarrollo de técnicas computacionales son descritas en el capítulo cuatro, donde se presenta por cada estudio; un diagrama de bloques y el desarrollo del procedimiento del algoritmo en Matlab, Finalmente, en el capítulo cinco, se muestran las pruebas y resultados de las imágenes DICOM de cinco pacientes por estudio, identificándose las patologías de forma automática. The mathematical technics to improve the visualization of medical images DICOM, through segmentation and morphological processing is the main goal of the following thesis project. In order to achieve this purpose, we collected medical images from a computed tomography scanner in three different exams, UROTEM, Thorax, and Brain. These images were processed through the mathematical algorithms developed in the software Matlab. The first chapter presents the problem; the necessity to post processing the medical images, the importance of the investigation as a tool to help in the medical diagnosis and the identification of a pathology automatically, the identification of the objectives to accomplish, and also it describes the antecedents of medical images processing developed from different authors. As a theory, in the second chapter, explain briefly the working basis of the Computed tomography scanner, the acquisition of an image and the developing of DICOM format as an international standard for medical images. The mathematical technics, are described in the chapter three; segmentation of the images, through the Otsu method and morphological processing, explaining its formula and function in Matlab Software. The developing of the computational technics are described in chapter four , UROTEM, Thorax and Brain; a flow chart of each exam and the step by step procedure of the Matlab algorithm, which applied the segmentation and morphological processing in the images.
349

Diseño e implementación de un algoritmo de pre-procesamiento de datos sísmicos en túneles utilizando fuentes sísmicas controladas

Peña Álvarez, Gerardo Andrés January 2017 (has links)
Ingeniero Civil Eléctrico / Las crecientes necesidades energéticas, de conectividad y de extracción de minerales, además del aumento de las exigencias medioambientales hacen del uso de túneles una buena alternativa al momento de desarrollar un proyecto. Construir túneles no es una tarea fácil, el riesgo que conlleva el excavar en roca y mantener la estructura sin que se colapse por el peso del sitio, requiere de estudios acabados de la geología del lugar antes y durante la construcción del túnel. Es en estos estudios donde se utilizan sondajes junto con las técnicas de prospección sísmica. En este trabajo de título se estudió un método de prospección sísmica el cual utiliza cargas explosivas como fuentes sísmicas controladas y acelerómetros para registrar las ondas reflejadas por estructuras geológicas que se encuentran más adelante de la cara del túnel, método probado y utilizado por una empresa privada, la cual no entrega información a fondo del funcionamiento del sistema por motivos comerciales. Durante el estudio del método, se generó un algoritmo de pre-procesamiento de trazas sísmicas obtenidas en túneles que hace filtrados secuenciales de las señales y las prepara para aplicarles tomografía y estimar las estructuras geológicas en la sección del túnel que no ha sido excavada. El algoritmo de pre-procesamiento generado se aplicó a dos conjuntos de datos sísmicos obtenidos en un túnel, en dos niveles de avance consecutivos. Los resultados obtenidos se compararon con un software comercial obteniéndose en la mayoría de los pasos aplicados resultados similares o mejores al software comercial, lo cual indica que el estudio realizado puede ser utilizado para desarrollar un nuevo producto, que entregue de manera confiable y segura, la información que los profesionales necesitan durante la construcción de túneles modernos. Finalmente, se deja a libre disposición de la comunidad docente y estudiantil el algoritmo diseñado, el cual da un primer paso en estudio del área de procesamiento de señales sísmicas en túneles y se motiva a la comunidad a continuar y perfeccionar el trabajo realizado, con el objetivo futuro de diseñar el hardware y software necesario para realizar las mediciones en terreno y representar los resultados de manera clara y transparente al operador.
350

Lineamientos de uso y diseño para soluciones de data visualization

Camavilca Rodriguez, Angela Vanesa, Jimenez Merino, Jocelyn Alejandra 31 March 2018 (has links)
Implementación de lineamientos de uso y diseño basados en técnicas de Data Visualization para dar a conocer, a aquellos usuarios que requieren estructurar y analizar data, los diferentes aspectos que se deben tener en cuenta al momento de elegir el tipo de gráfico a utilizar para representar un conjunto de datos, tomando en consideración las pautas a seguir para lograr su correcta aplicación y sobre todo, permitiendo que el usuario final pueda decidir de forma rápida y acorde a lo que requiere. / Implementation of guidelines for use and design based on data visualization technology to make known, users that require data analysis and data, the different aspects that must be taken into account when choosing the type of graphic to use a representation of data set, taking into consideration the guidelines to follow its correct application and above all, allowing the end user to decide quickly and according to what is required.

Page generated in 0.085 seconds