131 |
Diseño y Construcción de Interfaz Humano Robot Utilizando Gestos Realizados con las ManosFrancke Henríquez, Hardy Einar January 2007 (has links)
En el presente trabajo de título, que se presenta para obtener el título de Ingeniero Civil
Electricista, se diseña y construye un sistema de capaz de interpretar una serie de gestos realizados
con las manos. Este sistema hace uso de una cámara web con la que se obtienen imágenes de
manera periódica, que son procesadas y analizadas individualmente para poder luego interpretar el
gesto ejecutado mediante métodos estadísticos.
El problema se ha separado en dos etapas distintas: la localización inicial de la(s) mano(s)
en una imagen cualquiera y la posterior interpretación del gesto que se realiza. Para este fin se
hace uso de varios subsistemas dentro del campo de la visión computacional, como lo son
clasificadores estadísticos basados en ‘Adaboost’, seguimiento de objetos mediante ‘Meanshift’ y
detección de piel con métodos adaptivos.
El sistema diseñado funciona de la manera siguiente: en una serie de imágenes obtenidas a
través de una cámara se ejecuta un detector de caras, continuándose este proceso hasta que se
logre encontrar alguna. Una vez detectada una cara se le aplica un algoritmo de seguimiento de
objetos para conocer su ubicación dentro de la imagen a lo largo del tiempo, usándose además la
información del color presente en esta cara para construir un modelo que identifique la piel. Este
modelo de piel se aplica sobre todas las imágenes siguientes para detectar zonas que posean este
color, y que por lo tanto tienen alta probabilidad de corresponder a alguna parte del cuerpo
humano. Estas zonas de interés son analizadas en mayor profundidad, aplicando sobre ellas un
detector de manos, entrenado en el marco de este trabajo de título y que hace uso de un
procedimiento similar al del detector de cara. Al igual que en el caso de las caras, este detector se
aplica sobre todas las imágenes de entrada hasta que se obtenga una detección positiva. Una vez
detectada una mano se usa el mismo sistema de seguimiento empleado para las caras, y se aplica
sobre esta zona otra serie de detectores. Estos nuevos detectores cumplen la función de
identificar cual es el gesto que el usuario está realizando en ese momento, basados en un
diccionario gestual previamente definido y que consta de cuatro tipos diferentes para este trabajo.
Los resultados de estos detectores son finalmente analizados por un clasificador que finalmente
toma la decisión de cual gesto está realizando el usuario. Este proceso se continúa efectuando
iterativamente mientras se tenga un vídeo de entrada al sistema.
Los resultados obtenidos en la etapa de detección de los gestos son para todos los casos
superior al 60%, obteniéndose para un caso detecciones correctas mayores al 95%. El sistema
final logra un 69% de éxito en la clasificación de los gestos conocidos por él, debiéndose la mayor
cantidad de errores a confusiones entre gestos parecidos entre si. La totalidad del algoritmo puede
llegar a funcionar a una velocidad promedio de 6,6 [cuadros/seg.], lo que se considera un número
aceptable para su uso sin molestias para el usuario del mismo.
|
132 |
Detección y Seguimiento de Robots Articulados Mediante Análisis Computacional de ImágenesArenas Sepúlveda, Matías Esteban January 2009 (has links)
El objetivo de esta tesis es diseñar e implementar un sistema de detección y seguimiento de
robots articulados mediante el análisis computacional de imágenes. El principal aporte es
extender el uso de técnicas de detección de objetos rígidos a robots articulados y lograr un
seguimiento en tiempo real de la posición de éstos en imágenes y secuencias de video. El trabajo
realizado está enfocado principalmente a condiciones de fútbol robótico pero es fácilmente
extendible a otras aplicaciones.
El reconocimiento de robots articulados requiere la detección de éstos en cualquier estado y
posición. Para lograrlo, se probaron distintos tipos de clasificadores de manera de obtener una
mayor tasa de detección, independiente del estado del robot (acostado, parado, caminando,
etc…). Los robots utilizados para probar los algoritmos fueron el robot Aibo y los robots de tipo
Humanoide (basado en el modelo Hajime).
El sistema antes mencionado necesitó la creación e implementación de distintas herramientas
computacionales. Para la detección de robots en imágenes se utilizó un sistema basado en
Adaboost, y para el posterior seguimiento se ocupó el algoritmo “mean-shift”. Para la detección
mediante Adaboost se generaron una serie de bases de datos para el entrenamiento del algoritmo.
Posteriormente se construyeron diversos clasificadores (frontal, lateral, trasero, global, etc…), y
se probaron distintas estrategias de detección.
El detector con mejores resultados para Aibos fue el Lateral, con una tasa de detección de hasta
94.7% con 98 falsos positivos en la base de datos AIBODetUChileEval. Luego siguen el detector
Trasero, con 89.9% y 166 falsos positivos y, por último, el detector Frontal con 89.4% y 254
falsos positivos. Finalmente se probó la detección de los Aibos en todas las posiciones con un
detector múltiple, el cual obtuvo una tasa de detección de 94.8% con 392 falsos positivos.
Aplicando solo el detector frontal sobre todas las imágenes con Aibos obtuvo solo un 90% de
detecciones con 392 falsos positivos, pero es más rápido que el detector múltiple. Para los
Humanoides se desarrolló un solo detector que logró un 92.2% de detecciones con 123 falsos
positivos sobre la base de datos HDetUChileEval.
Se concluyó finalmente que los clasificadores Adaboost elegidos en este trabajo para hacer las
clasificaciones reportan excelentes resultados, y no se duda que puedan también hacerlo en otros
tipos de aplicaciones de similares características. Además se logró hacer la detección y el
seguimiento de robots en tiempos muy cercanos al tiempo real, lo cual permite ocuparlo en
aplicaciones con altas restricciones de procesamiento.
|
133 |
Estudio Preliminar de Factibilidad de una Central Nuclear en el Sistema Interconectado CentralMontes López, Horacio Antonio January 2007 (has links)
El objetivo de esta memoria es determinar la factibilidad de una planta nuclear en el sistema interconectado central mediante un análisis económico, utilizando herramientas de evaluación privada de proyectos.
|
134 |
Inferencia de la Volatilidad de Retornos Financieros Usando Filtro de PartículasTobar Henríquez, Felipe Arturo January 2010 (has links)
En este trabajo se presenta y evalúa un modelo de volatilidad estocástica, basado
en el modelo determinístico Generalized Autoregressive Conditional Heteroskedasticity
(GARCH), para describir la relación entre los retornos de un proceso financiero y la
volatilidad de éstos. Este modelo, a diferencia de la estructura GARCH, considera que las
observaciones de los retornos pueden explicarse a través de un proceso de innovación,
cuya distribución a priori se asume idéntica a la que especifica el modelo GARCH
para dichos retornos. La estructura propuesta recibe el nombre de unobserved GARCH
(uGARCH), ya que considera que un proceso de innovación no observado --en lugar de
una secuencia determinística-- es el que dirige la evolución de la volatilidad.
La estructura propuesta uGARCH, entre otros modelos convencionales de volatilidad,
ha sido utilizada para resolver el problema de estimación de estado, en conjunto con
esquemas basados tanto en filtro de partículas (PF), como en el filtro extendido de
Kalman (EKF). Además, con dichos filtros se identificaron adaptativamente los parámetros
del modelo usando el concepto de evolución artificial de parámetros. El PF utilizado
corresponde al muestreo de importancia con remuestro (SIR), mientras que la estructura
basada en EKF considera un banco de filtros. Ambas estructuras estiman conjuntamente
los estados y parámetros del sistema.
Las técnicas presentadas han sido evaluadas cuantitativamente --mediante la
introducción de índices de desempeño-- en simulación y con datos reales. En este último
caso se consideró la volatilidad del índice NASDAQ Composite, la cual se estimó durante
el período Julio 21, 2008 hasta Julio 17, 2009, y se predijo al día Diciembre 15, 2008
considerando horizontes de predicción entre 1 y 45 días. Tanto en simulación como en
la aplicación mencionada, los resultados reportados por el conjunto uGARCH-PF son
auspiciosos en el sentido de que mediante su implementación (i) el filtrado es altamente
exacto y preciso según los índices propuestos, y (ii) las predicciones del intervalo de
confianza son consistentes con el valor real (o mejor aproximación) del proceso.
|
135 |
Optimización de los parámetros de forma de onda excitatoria en estimulación táctil para optimizar la potencia de entrega, análisis de dos tipos de excitación mecánica: perpendicular y tangencialOsorio Herrera, Marcela Elena January 2007 (has links)
El presente trabajo de título tiene como objetivo encontrar un óptimo teórico para la potencia entregada por una forma de onda en la banda de frecuencia donde la sensibilidad táctil es máxima 25-700Hz. Además se realiza un estudio experimental para establecer si existen diferencias significativas entre dos tipos de estimulación mecánica a la piel: tangencial y perpendicular
|
136 |
Análisis de Riesgo de Desabastecimiento en el SICPérez Vargas, Leonardo January 2008 (has links)
En estos días, el sector eléctrico nacional esta atravesando por una complicada situación de
crisis energética, la cuál depende principalmente de la variabilidad hidrológica. Los estudios
de abastecimiento eléctrico realizados mediante modelos nacionales de coordinación
hidrotérmica, consideran sólo la aleatoriedad hidrológica como única variable aleatoria en
sus horizontes de evaluación, ya que de ella depende gran parte de la capacidad de
generación del SIC. Sin embargo, las dificultades actuales del sector eléctrico para garantizar
el suministro de energía en el corto y mediano plazo hacen que nuevas variables puedan tener
una incidencia relevante en la probabilidad de desabastecimiento, como la disponibilidad de
combustibles y el crecimiento de la demanda eléctrica
El presente trabajo busca ampliar un modelo de coordinación hidrotérmica, modelando e
incorporando dos nuevas incertidumbres que influyen en la estimación de desabastecimiento
eléctrico: crecimiento de la demanda energética y disponibilidad de combustibles. El objetivo
principal es mejorar las estimaciones de probabilidad de déficit en el Sistema Interconectado
Central y de otros estadísticos de interés.
Se construyo un mecanismo de sorteo hidrológico pseudoaleatorio en la fase de simulación
que permite balancear la frecuencia en que son sorteadas las hidrologías del registro
histórico. Esto permite reducir los errores muestrales de los estadísticos, convergiendo al
valor esperado de ellos con un menor número de secuencias hidrológicas a simular.
La incorporación de las incertidumbres se realiza en la fase de simulación de una herramienta
de coordinación hidrotérmica. Se utiliza el método de Montecarlo para la simulación del
sistema eléctrico bajo distintos escenarios hidrológicos, demanda, y de disponibilidad de
combustibles. La plataforma escogida para el desarrollo de este trabajo es el modelo OMSIC.
Los modelos implementados permiten evaluar la incidencia de estas nuevas incertidumbres
sobre estadísticos de interés, los que resultan de la simulación de la operación del sistema
eléctrico en un horizonte de estudio.
Finalmente se evaluó la situación de abastecimiento eléctrico del SIC para los próximos
cinco años, simulando numerosos casos con incertidumbres distintas. Los resultados no
entregan estimaciones de desabastecimiento alarmistas, pero muestran que el sistema
eléctrico es vulnerable a situaciones de sequía en años venideros.
Se concluye que contar con nuevas incertidumbres permite simular un mayor número de
distintos escenarios, lo que lleva a evaluar el panorama de abastecimiento eléctrico de
manera más extensiva, por lo que se obtienen mejores estimaciones de probabilidad de déficit
en el SIC, así como también estimaciones más confiables de otros estadísticos de interés
utilizados en diversos estudios de planificación y rentabilidad de proyectos, como costos
marginales del sistema proyectados para años futuros y nivel de déficit energético esperado.
|
137 |
Diseño e Implementación de Estrategias de Control Predictivo Supervisor Aplicadas a la Caldera de una Central Termoeléctrica de Ciclo Combinado”Solís Castro, Juan Alberto January 2010 (has links)
En esta tesis se aplican los algoritmos de computación evolutiva como una eficiente
herramienta de resolución del problema de control predictivo difuso basado en modelos de
Takagi – Sugeno (T&S). Se plantea la metodología de formulación general en tiempo discreto del
problema predictivo difuso basado en los siguientes algoritmos evolutivos: algoritmo genético
simple (SGA), Deterministic Crowding (DC) y Particle Swarm Optimization(PSO).
Estas formulaciones basadas en algoritmos evolutivos se implementan en MATLAB
SIMULINK y son aplicadas a una serie de problemas benchmark que muestran las ventajas y
desventajas de cada uno de los mencionados algoritmos. Se realiza una sensibilización de los
parámetros relevantes de cada uno de los algoritmos y se selecciona la mejor estrategia según sus
parámetros.
El desafío principal de la tesis es la implementación de la mejor solución basada en algoritmos
de computación evolutiva en la Caldera o Generadora de Vapor por Recuperación de Calor de
una Planta Termoeléctrica de Ciclo Combinado. Este tipo de plantas termoeléctricas mejoran la
eficiencia energética de un combustible fósil por medio de la recuperación del calor de la fuente
fría de una turbina a gas y su utilización para generar vapor para el funcionamiento de una turbina
a vapor. Este problema es de alta complejidad y no linealidad. La implementación de la solución
basada en algoritmos evolutivos es comparada con las tradicionales para evaluar su
funcionamiento.
Por último, se destaca que el aporte de esta tesis radica en el análisis de los algoritmos de
computación evolutiva (GAs y PSO) aplicado a un problema altamente no lineal dado por la
optimización de plantas termoeléctricas, que debe ser resuelto en tiempo real.
|
138 |
Control Activo y Diferencial en el Tiempo de Robots HumanoidesTestart Pacheco, Javier Enrique January 2011 (has links)
El objetivo de esta tesis es el desarrollo e implementación de una arquitectura híbrida de
control para robots bípedos humanoides. Una arquitectura híbrida es aquella que permite tener
diferentes niveles de control que funcionan en paralelo, cada uno de los cuales se evalúa a diferente
frecuencia con diferente información sensorial. La arquitectura implementada se estructura en tres
niveles. La meta es lograr que los niveles superiores tengan información de más alto nivel que se
puede obtener a una frecuencia más baja, a diferencia de lo que ocurre en los niveles inferiores, en
donde la información sensorial es de menor calidad pero obtenida a una frecuencia mayor. Esto
permite jerarquizar el desarrollo de los comportamientos según la calidad de información que
requieren y su frecuencia de actualización.
Los principales aportes de esta tesis son la implementación de una estructura híbrida en tres
niveles: reactivo, deliberativo y planificación; que permiten manejar comportamientos individuales
o grupales de robots, que logra operar con múltiples objetivos en los diferentes niveles de la toma
de decisiones. Esta arquitectura se diseña de tal forma que los comportamientos grupales, definidos
en el nivel de planificación, configuran misiones para los comportamientos del nivel deliberativo,
los cuales a su vez definen objetivos para los del nivel reactivo, los que finalmente seleccionan las
acciones a ejecutar. El manejo de objetivos múltiples se basa en una evaluación de los diferentes
objetivos a lograr en el nivel deliberativo, generando un puntaje por cada uno de ellos, los que son
actualizados en el nivel reactivo para que reflejen los cambios en el entorno del robot.
Para evaluar el funcionamiento de la arquitectura diseñada se realizaron diferentes pruebas,
tanto en simulador -para así disminuir los daños- como en los robots reales. El objetivo de éstas fue
verificar que el diseño cumplía con los requerimientos de las diferentes misiones, sin mermar la
reactividad del robot en ningún instante. En efecto, en los experimentos efectuados con los robots
reales, la efectividad del robot en marcar goles fue sobre 80% para las misiones de atacante
demostrando gran reactividad y precisión. Además en cuanto al manejo de múltiples objetivos, se
destaca que en la misión de arquero el robot pudo realizar visión activa sin perder la reactividad lo
que permite al robot detectar las caídas en 57 [ms]. Adicionalmente, se lograron generar
comportamientos grupales y desarrollar estrategias conjuntas, las que no afectaron las misiones
individuales de los robots cuando hubo problemas en la comunicación de datos. Estos resultados
demuestran las ventajas de la estructura híbrida en cuanto al manejo de los recursos
computacionales del robot gracias a la ejecución de los comportamientos en diferentes niveles
permitiendo a éste cumplir diferentes misiones sin afectar su capacidad de reacción.
Finalmente, cabe destacar que esta arquitectura fue exitosamente usada para competir en
competencias internacionales de robótica RoboCup 2010.
|
139 |
Sistemas de Almacenamiento de Energía para Aplicación en el Control Primario de FrecuenciaValderrama Osorio, Juan Pablo January 2011 (has links)
El crecimiento de la demanda del sector eléctrico, sumado al incremento de la generación
eléctrica en base a energías renovables no convencionales, conforman las dos principales
razones que convocan a la búsqueda de alternativas que permitan proporcionar seguridad
y confiabilidad en los sistemas eléctricos. En este sentido, uno de los procesos importantes
para mantener la seguridad operacional corresponde al control primario de frecuencia
(CPF), que en la actualidad está determinado por la mantención de suficiente reserva en giro
entre las unidades generadoras participantes. No obstante, al ser la generación un proceso
electromecánico, el control de la reserva para regulación primaria es lento, y además
hace incurrir al sistema en sobrecostos operacionales. En esta dirección, el presente
trabajo busca como objetivo evaluar los beneficios de la integración de los Sistemas de
Almacenamiento de Energía en sistemas eléctricos en el ámbito técnico del CPF.
En la primera parte de este trabajo se establece el estado del arte de los principales
sistemas de almacenamiento de energía (en lo que sigue proyecto, equipo o tecnología),
las formas de regulación primaria de frecuencia y los requerimientos generales para el
modelamiento dinámico de estas tecnologías en un sistema eléctrico, haciendo uso de las
plataformas Matlab® y Simulink®.
La segunda parte del trabajo presenta el desarrollo de una plataforma computacional
que permite la elaboración sistemática de simulaciones con el objetivo de estudiar la
implementación por separado de los dispositivos de almacenamiento de energía (BESS,
CES, SMES y FES), todo lo anterior en base a tres escenarios de estudio: Estado Normal
de operación del Sistema Interconectado (SI), Contingencia en Proyecto y Desconexión de
Consumo o Generación del SI. De forma complementaria, el último escenario se realiza
también para un Sistema Aislado (SA).
Los análisis realizados en los SI (SIC y SING) muestran que el aporte a la regulación
de los proyectos (BESS, CES, SMES y FES) ante variaciones naturales instantáneas de
la demanda es nulo, pues éstas no perturbarían la frecuencia de los SI por fuera de la
banda muerta asociada a los diferentes equipos. En efecto, este tipo de tecnología no
podría reemplazar la reserva primaria destinada para atender aquellas perturbaciones. En
cuanto a la inhabilidad para realizar CPF, que provocarían contingencias que afecten a las
tecnologías, se prevé que éstas no afectarían la SyCS del SI. Finalmente, tanto para las
desconexiones de bloques de generación como consumos, se obtiene que la interconexión
de los proyectos permite mejorar las prestaciones dinámicas del SI, observándose una
reducción en las desviaciones máxima de frecuencia en el transiente y los tiempos de
estabilización de las variables eléctricas.
Este trabajo permite concluir bajo una mirada puramente técnica, que la
implementación de los medios de almacenamiento de energía para el apoyo del CPF en
sistemas eléctricos evidencia mejoras a la situación actual, justificándose su uso limitado
en reemplazo de reserva primaria. En este sentido, se destaca un beneficio económico de
la propuesta, dado que la capacidad de reemplazo de reserva en giro podría generar una
disminución de los sobrecostos operacionales actuales de los sistemas.
Adicionalmente, este trabajo contribuye con un procedimiento que permite establecer
los aspectos generales para la valorización y tarificación de los Sistemas de Almacenamiento de Energía como servicios complementarios (SS.CC.) de CPF. Donde se
propone evaluar la conveniencia de adoptar uno u otro mecanismo, o combinaciones de
ellos, a objeto de lograr que exista un interés claro de los inversionistas por entrar a este
tipo de mercado.
Finalmente, como trabajo futuro se sugiere estudiar la integración de estas tecnologías
en conjunto con equipos FACTS, la implementación de un control óptimo a partir de técnicas
avanzadas que considere los niveles de carga de los equipos y la propuesta de esquemas
tarifarios en base a licitación de reserva primaria para los SS.CC. de CPF que proveen
estas tecnologías.
|
140 |
Proyección de Datos Multidimensionales Utilizando Teoría de la InformaciónVera Cadenas, Pablo Andrés January 2010 (has links)
En el presente trabajo se desarrolló un método no supervisado de proyección y visualización de
datos multidimensionales a espacios de baja dimensión, en especial a 2D. El modelo de proyección
propuesto consiste en una matriz de transformación lineal y ortonormal entre los espacios de entrada
y salida. Para la optimización de los parámetros se utilizaron como criterios de proyección
medidas basadas en la Teoría de la Información, en particular la Información Mutua. Debido a la
complejidad del cálculo de la Información Mutua utilizando la forma clásica de Shannon, se trabajó
con medidas basadas en la entropía de Renyi, las que combinadas con un estimador de funciones
de densidad de probabilidad, llamado ventana de Parzen, permitieron el cálculo de la Información
Mutua Cuadrática directamente a partir de los ejemplos. El método es no paramétrico ya que no
requiere información a priori sobre la distribución de los datos. Adicionalmente, para mejorar el
desempeño se añadió un pre-procesamiento para los datos llamado Blanqueo, el cual transforma
los datos linealmente de forma que las características de los mismos no tengan correlación y que la
varianza sea unitaria.
El método fue probado en cuatro bases de datos distintas con diversa complejidad y fue comparado
con otros algoritmos como Análisis de Componentes Principales (PCA), Stochastic Neighbor
Embedding (SNE) y Mapas de Sammon (NLM), utilizando como criterios de desempeño tanto medidas
de preservación topológica como otras basadas en clustering. Los resultados mostraron que
el método propuesto es capaz de proyectar datos de alta a baja dimensión manteniendo gran parte
de la información de los mismos, en especial en términos de clustering. El algoritmo superó a PCA
en todas las pruebas y obtuvo resultados comparables con SNE y NLM a pesar de que estos métodos
son no-lineales. Se desarrolló además una caracterización del método para determinar aspectos
como orden computacional y dependencia de parámetros. Por otro lado, se demostró la necesidad
de desarrollar nuevas métricas para medir el desempeño de los algoritmos de proyección.
|
Page generated in 0.043 seconds