• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 368
  • 8
  • 2
  • 1
  • Tagged with
  • 379
  • 106
  • 102
  • 101
  • 48
  • 46
  • 43
  • 41
  • 35
  • 33
  • 32
  • 31
  • 30
  • 30
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Diseño y Construcción de Interfaz Humano Robot Utilizando Gestos Realizados con las Manos

Francke Henríquez, Hardy Einar January 2007 (has links)
En el presente trabajo de título, que se presenta para obtener el título de Ingeniero Civil Electricista, se diseña y construye un sistema de capaz de interpretar una serie de gestos realizados con las manos. Este sistema hace uso de una cámara web con la que se obtienen imágenes de manera periódica, que son procesadas y analizadas individualmente para poder luego interpretar el gesto ejecutado mediante métodos estadísticos. El problema se ha separado en dos etapas distintas: la localización inicial de la(s) mano(s) en una imagen cualquiera y la posterior interpretación del gesto que se realiza. Para este fin se hace uso de varios subsistemas dentro del campo de la visión computacional, como lo son clasificadores estadísticos basados en ‘Adaboost’, seguimiento de objetos mediante ‘Meanshift’ y detección de piel con métodos adaptivos. El sistema diseñado funciona de la manera siguiente: en una serie de imágenes obtenidas a través de una cámara se ejecuta un detector de caras, continuándose este proceso hasta que se logre encontrar alguna. Una vez detectada una cara se le aplica un algoritmo de seguimiento de objetos para conocer su ubicación dentro de la imagen a lo largo del tiempo, usándose además la información del color presente en esta cara para construir un modelo que identifique la piel. Este modelo de piel se aplica sobre todas las imágenes siguientes para detectar zonas que posean este color, y que por lo tanto tienen alta probabilidad de corresponder a alguna parte del cuerpo humano. Estas zonas de interés son analizadas en mayor profundidad, aplicando sobre ellas un detector de manos, entrenado en el marco de este trabajo de título y que hace uso de un procedimiento similar al del detector de cara. Al igual que en el caso de las caras, este detector se aplica sobre todas las imágenes de entrada hasta que se obtenga una detección positiva. Una vez detectada una mano se usa el mismo sistema de seguimiento empleado para las caras, y se aplica sobre esta zona otra serie de detectores. Estos nuevos detectores cumplen la función de identificar cual es el gesto que el usuario está realizando en ese momento, basados en un diccionario gestual previamente definido y que consta de cuatro tipos diferentes para este trabajo. Los resultados de estos detectores son finalmente analizados por un clasificador que finalmente toma la decisión de cual gesto está realizando el usuario. Este proceso se continúa efectuando iterativamente mientras se tenga un vídeo de entrada al sistema. Los resultados obtenidos en la etapa de detección de los gestos son para todos los casos superior al 60%, obteniéndose para un caso detecciones correctas mayores al 95%. El sistema final logra un 69% de éxito en la clasificación de los gestos conocidos por él, debiéndose la mayor cantidad de errores a confusiones entre gestos parecidos entre si. La totalidad del algoritmo puede llegar a funcionar a una velocidad promedio de 6,6 [cuadros/seg.], lo que se considera un número aceptable para su uso sin molestias para el usuario del mismo.
132

Detección y Seguimiento de Robots Articulados Mediante Análisis Computacional de Imágenes

Arenas Sepúlveda, Matías Esteban January 2009 (has links)
El objetivo de esta tesis es diseñar e implementar un sistema de detección y seguimiento de robots articulados mediante el análisis computacional de imágenes. El principal aporte es extender el uso de técnicas de detección de objetos rígidos a robots articulados y lograr un seguimiento en tiempo real de la posición de éstos en imágenes y secuencias de video. El trabajo realizado está enfocado principalmente a condiciones de fútbol robótico pero es fácilmente extendible a otras aplicaciones. El reconocimiento de robots articulados requiere la detección de éstos en cualquier estado y posición. Para lograrlo, se probaron distintos tipos de clasificadores de manera de obtener una mayor tasa de detección, independiente del estado del robot (acostado, parado, caminando, etc…). Los robots utilizados para probar los algoritmos fueron el robot Aibo y los robots de tipo Humanoide (basado en el modelo Hajime). El sistema antes mencionado necesitó la creación e implementación de distintas herramientas computacionales. Para la detección de robots en imágenes se utilizó un sistema basado en Adaboost, y para el posterior seguimiento se ocupó el algoritmo “mean-shift”. Para la detección mediante Adaboost se generaron una serie de bases de datos para el entrenamiento del algoritmo. Posteriormente se construyeron diversos clasificadores (frontal, lateral, trasero, global, etc…), y se probaron distintas estrategias de detección. El detector con mejores resultados para Aibos fue el Lateral, con una tasa de detección de hasta 94.7% con 98 falsos positivos en la base de datos AIBODetUChileEval. Luego siguen el detector Trasero, con 89.9% y 166 falsos positivos y, por último, el detector Frontal con 89.4% y 254 falsos positivos. Finalmente se probó la detección de los Aibos en todas las posiciones con un detector múltiple, el cual obtuvo una tasa de detección de 94.8% con 392 falsos positivos. Aplicando solo el detector frontal sobre todas las imágenes con Aibos obtuvo solo un 90% de detecciones con 392 falsos positivos, pero es más rápido que el detector múltiple. Para los Humanoides se desarrolló un solo detector que logró un 92.2% de detecciones con 123 falsos positivos sobre la base de datos HDetUChileEval. Se concluyó finalmente que los clasificadores Adaboost elegidos en este trabajo para hacer las clasificaciones reportan excelentes resultados, y no se duda que puedan también hacerlo en otros tipos de aplicaciones de similares características. Además se logró hacer la detección y el seguimiento de robots en tiempos muy cercanos al tiempo real, lo cual permite ocuparlo en aplicaciones con altas restricciones de procesamiento.
133

Estudio Preliminar de Factibilidad de una Central Nuclear en el Sistema Interconectado Central

Montes López, Horacio Antonio January 2007 (has links)
El objetivo de esta memoria es determinar la factibilidad de una planta nuclear en el sistema interconectado central mediante un análisis económico, utilizando herramientas de evaluación privada de proyectos.
134

Inferencia de la Volatilidad de Retornos Financieros Usando Filtro de Partículas

Tobar Henríquez, Felipe Arturo January 2010 (has links)
En este trabajo se presenta y evalúa un modelo de volatilidad estocástica, basado en el modelo determinístico Generalized Autoregressive Conditional Heteroskedasticity (GARCH), para describir la relación entre los retornos de un proceso financiero y la volatilidad de éstos. Este modelo, a diferencia de la estructura GARCH, considera que las observaciones de los retornos pueden explicarse a través de un proceso de innovación, cuya distribución a priori se asume idéntica a la que especifica el modelo GARCH para dichos retornos. La estructura propuesta recibe el nombre de unobserved GARCH (uGARCH), ya que considera que un proceso de innovación no observado --en lugar de una secuencia determinística-- es el que dirige la evolución de la volatilidad. La estructura propuesta uGARCH, entre otros modelos convencionales de volatilidad, ha sido utilizada para resolver el problema de estimación de estado, en conjunto con esquemas basados tanto en filtro de partículas (PF), como en el filtro extendido de Kalman (EKF). Además, con dichos filtros se identificaron adaptativamente los parámetros del modelo usando el concepto de evolución artificial de parámetros. El PF utilizado corresponde al muestreo de importancia con remuestro (SIR), mientras que la estructura basada en EKF considera un banco de filtros. Ambas estructuras estiman conjuntamente los estados y parámetros del sistema. Las técnicas presentadas han sido evaluadas cuantitativamente --mediante la introducción de índices de desempeño-- en simulación y con datos reales. En este último caso se consideró la volatilidad del índice NASDAQ Composite, la cual se estimó durante el período Julio 21, 2008 hasta Julio 17, 2009, y se predijo al día Diciembre 15, 2008 considerando horizontes de predicción entre 1 y 45 días. Tanto en simulación como en la aplicación mencionada, los resultados reportados por el conjunto uGARCH-PF son auspiciosos en el sentido de que mediante su implementación (i) el filtrado es altamente exacto y preciso según los índices propuestos, y (ii) las predicciones del intervalo de confianza son consistentes con el valor real (o mejor aproximación) del proceso.
135

Optimización de los parámetros de forma de onda excitatoria en estimulación táctil para optimizar la potencia de entrega, análisis de dos tipos de excitación mecánica: perpendicular y tangencial

Osorio Herrera, Marcela Elena January 2007 (has links)
El presente trabajo de título tiene como objetivo encontrar un óptimo teórico para la potencia entregada por una forma de onda en la banda de frecuencia donde la sensibilidad táctil es máxima 25-700Hz. Además se realiza un estudio experimental para establecer si existen diferencias significativas entre dos tipos de estimulación mecánica a la piel: tangencial y perpendicular
136

Análisis de Riesgo de Desabastecimiento en el SIC

Pérez Vargas, Leonardo January 2008 (has links)
En estos días, el sector eléctrico nacional esta atravesando por una complicada situación de crisis energética, la cuál depende principalmente de la variabilidad hidrológica. Los estudios de abastecimiento eléctrico realizados mediante modelos nacionales de coordinación hidrotérmica, consideran sólo la aleatoriedad hidrológica como única variable aleatoria en sus horizontes de evaluación, ya que de ella depende gran parte de la capacidad de generación del SIC. Sin embargo, las dificultades actuales del sector eléctrico para garantizar el suministro de energía en el corto y mediano plazo hacen que nuevas variables puedan tener una incidencia relevante en la probabilidad de desabastecimiento, como la disponibilidad de combustibles y el crecimiento de la demanda eléctrica El presente trabajo busca ampliar un modelo de coordinación hidrotérmica, modelando e incorporando dos nuevas incertidumbres que influyen en la estimación de desabastecimiento eléctrico: crecimiento de la demanda energética y disponibilidad de combustibles. El objetivo principal es mejorar las estimaciones de probabilidad de déficit en el Sistema Interconectado Central y de otros estadísticos de interés. Se construyo un mecanismo de sorteo hidrológico pseudoaleatorio en la fase de simulación que permite balancear la frecuencia en que son sorteadas las hidrologías del registro histórico. Esto permite reducir los errores muestrales de los estadísticos, convergiendo al valor esperado de ellos con un menor número de secuencias hidrológicas a simular. La incorporación de las incertidumbres se realiza en la fase de simulación de una herramienta de coordinación hidrotérmica. Se utiliza el método de Montecarlo para la simulación del sistema eléctrico bajo distintos escenarios hidrológicos, demanda, y de disponibilidad de combustibles. La plataforma escogida para el desarrollo de este trabajo es el modelo OMSIC. Los modelos implementados permiten evaluar la incidencia de estas nuevas incertidumbres sobre estadísticos de interés, los que resultan de la simulación de la operación del sistema eléctrico en un horizonte de estudio. Finalmente se evaluó la situación de abastecimiento eléctrico del SIC para los próximos cinco años, simulando numerosos casos con incertidumbres distintas. Los resultados no entregan estimaciones de desabastecimiento alarmistas, pero muestran que el sistema eléctrico es vulnerable a situaciones de sequía en años venideros. Se concluye que contar con nuevas incertidumbres permite simular un mayor número de distintos escenarios, lo que lleva a evaluar el panorama de abastecimiento eléctrico de manera más extensiva, por lo que se obtienen mejores estimaciones de probabilidad de déficit en el SIC, así como también estimaciones más confiables de otros estadísticos de interés utilizados en diversos estudios de planificación y rentabilidad de proyectos, como costos marginales del sistema proyectados para años futuros y nivel de déficit energético esperado.
137

Diseño e Implementación de Estrategias de Control Predictivo Supervisor Aplicadas a la Caldera de una Central Termoeléctrica de Ciclo Combinado”

Solís Castro, Juan Alberto January 2010 (has links)
En esta tesis se aplican los algoritmos de computación evolutiva como una eficiente herramienta de resolución del problema de control predictivo difuso basado en modelos de Takagi – Sugeno (T&S). Se plantea la metodología de formulación general en tiempo discreto del problema predictivo difuso basado en los siguientes algoritmos evolutivos: algoritmo genético simple (SGA), Deterministic Crowding (DC) y Particle Swarm Optimization(PSO). Estas formulaciones basadas en algoritmos evolutivos se implementan en MATLAB SIMULINK y son aplicadas a una serie de problemas benchmark que muestran las ventajas y desventajas de cada uno de los mencionados algoritmos. Se realiza una sensibilización de los parámetros relevantes de cada uno de los algoritmos y se selecciona la mejor estrategia según sus parámetros. El desafío principal de la tesis es la implementación de la mejor solución basada en algoritmos de computación evolutiva en la Caldera o Generadora de Vapor por Recuperación de Calor de una Planta Termoeléctrica de Ciclo Combinado. Este tipo de plantas termoeléctricas mejoran la eficiencia energética de un combustible fósil por medio de la recuperación del calor de la fuente fría de una turbina a gas y su utilización para generar vapor para el funcionamiento de una turbina a vapor. Este problema es de alta complejidad y no linealidad. La implementación de la solución basada en algoritmos evolutivos es comparada con las tradicionales para evaluar su funcionamiento. Por último, se destaca que el aporte de esta tesis radica en el análisis de los algoritmos de computación evolutiva (GAs y PSO) aplicado a un problema altamente no lineal dado por la optimización de plantas termoeléctricas, que debe ser resuelto en tiempo real.
138

Control Activo y Diferencial en el Tiempo de Robots Humanoides

Testart Pacheco, Javier Enrique January 2011 (has links)
El objetivo de esta tesis es el desarrollo e implementación de una arquitectura híbrida de control para robots bípedos humanoides. Una arquitectura híbrida es aquella que permite tener diferentes niveles de control que funcionan en paralelo, cada uno de los cuales se evalúa a diferente frecuencia con diferente información sensorial. La arquitectura implementada se estructura en tres niveles. La meta es lograr que los niveles superiores tengan información de más alto nivel que se puede obtener a una frecuencia más baja, a diferencia de lo que ocurre en los niveles inferiores, en donde la información sensorial es de menor calidad pero obtenida a una frecuencia mayor. Esto permite jerarquizar el desarrollo de los comportamientos según la calidad de información que requieren y su frecuencia de actualización. Los principales aportes de esta tesis son la implementación de una estructura híbrida en tres niveles: reactivo, deliberativo y planificación; que permiten manejar comportamientos individuales o grupales de robots, que logra operar con múltiples objetivos en los diferentes niveles de la toma de decisiones. Esta arquitectura se diseña de tal forma que los comportamientos grupales, definidos en el nivel de planificación, configuran misiones para los comportamientos del nivel deliberativo, los cuales a su vez definen objetivos para los del nivel reactivo, los que finalmente seleccionan las acciones a ejecutar. El manejo de objetivos múltiples se basa en una evaluación de los diferentes objetivos a lograr en el nivel deliberativo, generando un puntaje por cada uno de ellos, los que son actualizados en el nivel reactivo para que reflejen los cambios en el entorno del robot. Para evaluar el funcionamiento de la arquitectura diseñada se realizaron diferentes pruebas, tanto en simulador -para así disminuir los daños- como en los robots reales. El objetivo de éstas fue verificar que el diseño cumplía con los requerimientos de las diferentes misiones, sin mermar la reactividad del robot en ningún instante. En efecto, en los experimentos efectuados con los robots reales, la efectividad del robot en marcar goles fue sobre 80% para las misiones de atacante demostrando gran reactividad y precisión. Además en cuanto al manejo de múltiples objetivos, se destaca que en la misión de arquero el robot pudo realizar visión activa sin perder la reactividad lo que permite al robot detectar las caídas en 57 [ms]. Adicionalmente, se lograron generar comportamientos grupales y desarrollar estrategias conjuntas, las que no afectaron las misiones individuales de los robots cuando hubo problemas en la comunicación de datos. Estos resultados demuestran las ventajas de la estructura híbrida en cuanto al manejo de los recursos computacionales del robot gracias a la ejecución de los comportamientos en diferentes niveles permitiendo a éste cumplir diferentes misiones sin afectar su capacidad de reacción. Finalmente, cabe destacar que esta arquitectura fue exitosamente usada para competir en competencias internacionales de robótica RoboCup 2010.
139

Sistemas de Almacenamiento de Energía para Aplicación en el Control Primario de Frecuencia

Valderrama Osorio, Juan Pablo January 2011 (has links)
El crecimiento de la demanda del sector eléctrico, sumado al incremento de la generación eléctrica en base a energías renovables no convencionales, conforman las dos principales razones que convocan a la búsqueda de alternativas que permitan proporcionar seguridad y confiabilidad en los sistemas eléctricos. En este sentido, uno de los procesos importantes para mantener la seguridad operacional corresponde al control primario de frecuencia (CPF), que en la actualidad está determinado por la mantención de suficiente reserva en giro entre las unidades generadoras participantes. No obstante, al ser la generación un proceso electromecánico, el control de la reserva para regulación primaria es lento, y además hace incurrir al sistema en sobrecostos operacionales. En esta dirección, el presente trabajo busca como objetivo evaluar los beneficios de la integración de los Sistemas de Almacenamiento de Energía en sistemas eléctricos en el ámbito técnico del CPF. En la primera parte de este trabajo se establece el estado del arte de los principales sistemas de almacenamiento de energía (en lo que sigue proyecto, equipo o tecnología), las formas de regulación primaria de frecuencia y los requerimientos generales para el modelamiento dinámico de estas tecnologías en un sistema eléctrico, haciendo uso de las plataformas Matlab® y Simulink®. La segunda parte del trabajo presenta el desarrollo de una plataforma computacional que permite la elaboración sistemática de simulaciones con el objetivo de estudiar la implementación por separado de los dispositivos de almacenamiento de energía (BESS, CES, SMES y FES), todo lo anterior en base a tres escenarios de estudio: Estado Normal de operación del Sistema Interconectado (SI), Contingencia en Proyecto y Desconexión de Consumo o Generación del SI. De forma complementaria, el último escenario se realiza también para un Sistema Aislado (SA). Los análisis realizados en los SI (SIC y SING) muestran que el aporte a la regulación de los proyectos (BESS, CES, SMES y FES) ante variaciones naturales instantáneas de la demanda es nulo, pues éstas no perturbarían la frecuencia de los SI por fuera de la banda muerta asociada a los diferentes equipos. En efecto, este tipo de tecnología no podría reemplazar la reserva primaria destinada para atender aquellas perturbaciones. En cuanto a la inhabilidad para realizar CPF, que provocarían contingencias que afecten a las tecnologías, se prevé que éstas no afectarían la SyCS del SI. Finalmente, tanto para las desconexiones de bloques de generación como consumos, se obtiene que la interconexión de los proyectos permite mejorar las prestaciones dinámicas del SI, observándose una reducción en las desviaciones máxima de frecuencia en el transiente y los tiempos de estabilización de las variables eléctricas. Este trabajo permite concluir bajo una mirada puramente técnica, que la implementación de los medios de almacenamiento de energía para el apoyo del CPF en sistemas eléctricos evidencia mejoras a la situación actual, justificándose su uso limitado en reemplazo de reserva primaria. En este sentido, se destaca un beneficio económico de la propuesta, dado que la capacidad de reemplazo de reserva en giro podría generar una disminución de los sobrecostos operacionales actuales de los sistemas. Adicionalmente, este trabajo contribuye con un procedimiento que permite establecer los aspectos generales para la valorización y tarificación de los Sistemas de Almacenamiento de Energía como servicios complementarios (SS.CC.) de CPF. Donde se propone evaluar la conveniencia de adoptar uno u otro mecanismo, o combinaciones de ellos, a objeto de lograr que exista un interés claro de los inversionistas por entrar a este tipo de mercado. Finalmente, como trabajo futuro se sugiere estudiar la integración de estas tecnologías en conjunto con equipos FACTS, la implementación de un control óptimo a partir de técnicas avanzadas que considere los niveles de carga de los equipos y la propuesta de esquemas tarifarios en base a licitación de reserva primaria para los SS.CC. de CPF que proveen estas tecnologías.
140

Proyección de Datos Multidimensionales Utilizando Teoría de la Información

Vera Cadenas, Pablo Andrés January 2010 (has links)
En el presente trabajo se desarrolló un método no supervisado de proyección y visualización de datos multidimensionales a espacios de baja dimensión, en especial a 2D. El modelo de proyección propuesto consiste en una matriz de transformación lineal y ortonormal entre los espacios de entrada y salida. Para la optimización de los parámetros se utilizaron como criterios de proyección medidas basadas en la Teoría de la Información, en particular la Información Mutua. Debido a la complejidad del cálculo de la Información Mutua utilizando la forma clásica de Shannon, se trabajó con medidas basadas en la entropía de Renyi, las que combinadas con un estimador de funciones de densidad de probabilidad, llamado ventana de Parzen, permitieron el cálculo de la Información Mutua Cuadrática directamente a partir de los ejemplos. El método es no paramétrico ya que no requiere información a priori sobre la distribución de los datos. Adicionalmente, para mejorar el desempeño se añadió un pre-procesamiento para los datos llamado Blanqueo, el cual transforma los datos linealmente de forma que las características de los mismos no tengan correlación y que la varianza sea unitaria. El método fue probado en cuatro bases de datos distintas con diversa complejidad y fue comparado con otros algoritmos como Análisis de Componentes Principales (PCA), Stochastic Neighbor Embedding (SNE) y Mapas de Sammon (NLM), utilizando como criterios de desempeño tanto medidas de preservación topológica como otras basadas en clustering. Los resultados mostraron que el método propuesto es capaz de proyectar datos de alta a baja dimensión manteniendo gran parte de la información de los mismos, en especial en términos de clustering. El algoritmo superó a PCA en todas las pruebas y obtuvo resultados comparables con SNE y NLM a pesar de que estos métodos son no-lineales. Se desarrolló además una caracterización del método para determinar aspectos como orden computacional y dependencia de parámetros. Por otro lado, se demostró la necesidad de desarrollar nuevas métricas para medir el desempeño de los algoritmos de proyección.

Page generated in 0.043 seconds