• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 70
  • 7
  • 6
  • 2
  • 1
  • Tagged with
  • 86
  • 24
  • 19
  • 14
  • 14
  • 11
  • 9
  • 9
  • 8
  • 8
  • 7
  • 7
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Distritos industriales y competitividad empresarial: un análisis aplicado a los Distritos Industriales Alimentarios (DIA) en España

Seva-Larrosa, Pedro 20 November 2019 (has links)
Este trabajo de investigación analiza la competitividad de las empresas de la industria alimentaria considerando su contexto competitivo. Para ello, el trabajo toma como marco teórico de referencia el distrito industrial o clúster. El objetivo general planteado es aportar nuevo conocimiento sobre los Distritos Industriales Alimentarios (DIA) en España desde una perspectiva integral. Para lograr dicho objetivo, el análisis ha sido desarrollado en cuatro etapas o fases de investigación. En la primera etapa de investigación (Etapa 1), se lleva a cabo la identificación y caracterización de los DIA en España. En la segunda (Etapa 2), se analizan las instituciones de apoyo a las empresas de la industria alimentaria y la oferta formativa en torno a los distritos. En la tercera (Etapa 3), se contrasta el Modelo Teórico 1. Finalmente, en la cuarta (Etapa 4) se contrasta el Modelo Teórico 2.
22

Navegación Autónoma Basada en Mapas Públicos Geo-Referenciados

Muñoz-Bañón, Miguel Á. 07 December 2022 (has links)
La representación del entorno juega un papel crucial en la navegación autónoma. A esta representación, se le suele denominar en la literatura como mapa, y su construcción suele realizarse mediante vehículos de mapeado dedicados. Sin embargo, aunque este tipo de mapas son muy precisos a nivel local, presentan el inconveniente de ser globalmente inconsistentes debido a la acumulación de pequeños errores que se hacen relevantes cuando los mapas crecen en tamaño. En la presente tesis doctoral, se propone como alternativa, la navegación autónoma basada en mapas públicos geo-referenciados. Este tipo de mapas, a diferencia de los construidos mediante vehículos de mapeado, son por naturaleza globalmente consistentes debido a que proceden de imágenes aéreas que se encuentran geo-referenciadas. Esto, además de ser una ventaja en sí misma, conlleva otro tipo de beneficios, como la no dependencia de un proceso de mapeado, o la posibilidad de navegar sin restricciones en el tamaño del entorno. No obstante, la integración de los mapas públicos geo-referenciados introduce algunas particularidades en la implementación de los algoritmos de navegación autónoma. Durante la investigación que se expone en esta memoria, se han desarrollado diferentes métodos para abordar dichas particularidades. En el módulo de localización, la representación de mapas geo-referenciados introduce la dependencia de un tipo de marcas que deben ser observables, tanto desde imágenes por satélite, como desde los sensores locales del vehículo. Esta restricción genera representaciones escasas que, a menudo, resultan en zonas ambiguas para la asociación de datos (efecto aliasing). Para abordar estos temas, se han desarrollado diferentes métodos robustos, como Delta-Angle Lane Markings Representation, una estrategia de representación para el proceso de asociación de datos, y Distance-Compatible SAmple Consensus, un método de asociación de datos. Para mitigar el efecto del aliasing en el módulo de localización, también se han empleado capacidades de autoajuste, que modifican de manera dinámica la configuración del método de asociación de datos en función de la pseudo-entropía medida en las observaciones. Por otra parte, para el módulo de planificación de rutas, se ha desarrollado un método llamado Naive-Valley-Path que corrige las imprecisiones locales intrínsecas en los mapas públicos. Todos estos métodos han sido comparados con sus homólogos en el estado del arte, demostrando en todos los casos mejoras que han resultado en contribuciones de gran impacto para la comunidad científica. / La presente tesis doctoral ha sido financiada por la Conselleria d’Innovació, Universitats, Ciència i Societat Digital de la Generalitat Valenciana y el Fondo Social Europeo de la Unión Europea a través de las subvenciones ACIF/2019/088 y BEFPI/2021/069.
23

Diseño e implementación de un sistema supervisor con modelos basados en similitud para la detección y aislamiento de fallas en turbina a gas natural

Fuentealba Toro, Sebastián Felipe January 2012 (has links)
Ingeniero Civil Electricista / Debido al constante aumento en los estándares de producción y calidad, así como las exigencias impuestas por estrictas normativas ambientales y de seguridad, existe en la industria moderna la necesidad de incrementar la eficiencia y complejidad de los sistemas de control asociados. Sin embargo, existen perturbaciones que no pueden ser eficazmente manejadas por los controladores a menos que exista una adecuada caracterización del modo de operación. He ahí la necesidad de incorporar sistemas de monitoreo para detección y aislamiento de anomalías que pudiesen condicionar el funcionamiento del proceso. En este sentido, el objetivo general de este trabajo es diseñar e implementar un sistema supervisor en línea con modelos basados en similitud (SBM) que permita la detección y el aislamiento de anomalías en procesos industriales multivariados y en particular, en el caso de una turbina a gas natural. El diseño del sistema supervisor incluye una etapa preliminar fuera de línea y de tres etapas que operan en tiempo real. La etapa preliminar corresponde al análisis del proceso en estudio y de los modos de falla de interés, así como la generación de los modelos SBM que serán utilizados en la etapa de implementación en línea. A través de esta metodología de estudio de eventos se determinan las variables más relevantes en cada anomalía con el fin de optimizar el procedimiento de generación de modelos. Las etapas asociadas a la implementación en línea se han denominado fases . Fase I genera una señal de alarma si la salida estimada por un modelo clasificador SBM, diseñado en la etapa preliminar, supera un umbral determinado en la etapa preliminar. Si se produce una alarma, entonces se ejecuta la Fase II que determina el vector de residuos entre las salidas medidas y las salidas estimadas por el modelo SBM, para cada posible anomalía en gestación. Fase III calcula el indicador de Hotelling de cada vector de residuos. Se genera una alarma de anomalía si este indicador supera un umbral determinado en la etapa preliminar. Este sistema es aplicado en una turbina a gas natural para el estudio de dos anomalías que ocasionan una disminución significativa en la potencia: (i) temperatura de un álabe fuera de rango (Anomalía #1) y, (ii) suciedad excesiva en el compresor (Anomalía #2). Los porcentajes de detección de las Anomalías #1 y #2 son 96% y 76%, respectivamente. Estos porcentajes se estiman en función del número de datos. Debido al tamaño de los conjuntos de datos disponibles, es imposible en esta aplicación utilizar probabilidades para caracterizar al sistema supervisor. Las principales ventajas de disponer de este sistema supervisor son: (1) con una metodología de estudio de eventos, se obtienen aquellas variables que son más relevantes en cada anomalía, (2) con la Fase I se logran descartar del análisis aquellas observaciones que representan un modo normal de operación y (3) a través de señales binarias Normal o Alarma se logra centralizar la información que entregan todos los modelos.
24

Localización de fallas en líneas de alta tensión con compensación serie

Montoya Soto, Esteban Andrés January 2016 (has links)
Ingeniero Civil Eléctrico / En el marco de una creciente demanda eléctrica global, es inminente la búsqueda de soluciones tecnológicas eficientes para reducir costos y mantener una operación del sistema eléctrico segura y confiable, y de esta forma, satisfacer este aumento de requerimiento energético. Ante esto, el uso de equipos de compensación serie en líneas de transmisión, es una medida óptima, la cual incrementa la capacidad de transferencia de potencia por las líneas a un costo mínimo en comparación con la construcción de nuevas líneas. Pero esta instalación, conlleva ciertos fenómenos transitorios como el alto contenido de frecuencia subsincrónica y elevado contenido de componente de decaimiento DC, afectando directamente a la localización de fallas. Sabida es la importancia de la ubicación de fallas en líneas de transmisión, ya que para fallas con tiempos de retardo mayores en su despeje, disminuye el tiempo de restauración del suministro eléctrico. Adicionalmente, tal como lo establece la ley, para toda falla se deben determinar sus causas, por lo que la localización de fallas aporta en reducir el rango de búsqueda de las brigadas de operación, ahorrando tiempo y recursos. Por lo tanto, este trabajo se enfocará en atenuar la influencia de estos problemas, y así, obtener la localización de falla con un mínimo error. Expuesto lo anterior, la presente memoria se centra en la localización de fallas en líneas de alta tensión con compensación serie, empleando información de las líneas de 500 [kV] de Transelec, las cuales comprenden gran parte del sistema de transmisión troncal chileno debido a sus grandes longitudes (incluso mayores a 200 kilómetros). Primero, se desarrolla un algoritmo que determine la ubicación de falla, que aplicado a ciertos parámetros variables, como la frecuencia de corte de los filtros y el método de resolución, entregará la localización con menor error. Aun así, la búsqueda de un error mínimo, lleva a realizar un problema de optimización estadístico que minimice la distancia a la ubicación real de las fallas. Luego, este algoritmo resolutivo es validado mediante el procesamiento de fallas simuladas en Digsilent, donde los escenarios de simulaciones dinámicas corresponden al tipo de falla y la ubicación de la falla con respecto a la compensación serie, con tal de abarcar la totalidad del largo de la línea. En general, los resultados obtenidos demuestran bajos errores promedio en la ubicación de fallas. Para fallas reales, se obtiene un 8.98% de error promedio para el algoritmo sin optimización, pero una vez minimizado el error, este desciende a 3.74%. En cuanto a las fallas simuladas en Digsilent, los errores corresponden a 8.01% y 3.95% respectivamente, lo que verifica los resultados alcanzados y permite ampliar la estadística para la corrección del error de la localización.
25

Las obligaciones procesales: especial referencia a la localización de bienes

Ochoa Monzó, Virtudes 19 January 1996 (has links)
No description available.
26

Implementación de un sistema de ubicación y discernimiento entre tecnología GSM y satelital para el seguimiento de unidades móviles

Shimabuko Shimabukuro, César Antonio 13 June 2011 (has links)
El presente proyecto de tesis propone la implementación de un sistema de rastreo alternativo a los existentes en el mercado. Esta propuesta se da debido a que los sistemas de rastreo de vehículos actuales basados en transmisión satelital tiene un costo operativo alto, mientras que los basados en transmisión por la red celular tienen un costo operativo bajo, pero se encuentran limitados a la disponibilidad del servicio celular. Por ello se plantea la alternativa de integrar estas dos tecnologías de transmisión formando un sistema de bajo costo, pero a la vez confiable. Para la implementación de este proyecto se ha hecho uso de las tecnologías de comunicación celular GSM y satelital, adicionalmente al Sistema de Posicionamiento Global (GPS). Además para la programación del equipo se realizó mediante lenguaje de programación Java junto con comandos de comunicación ATcommands. / Tesis
27

Sistema de Localizacion de Personas y Recursos para Recintos Cerrados, Basado en Wi-Fi

Vera Barrera, Rodrigo Felipe 26 April 2010 (has links)
A partir del surgimiento de la computación móvil, la necesidad de conocer la ubicación de recursos y/o personas ha sido imperante en el desarrollo de nuevas tecnologías que persiguen estos objetivos. En particular, los sistemas de localización en tiempo real cobran cada día más importancia. Típicamente, este tipo de sistemas persigue fines de seguridad, optimización y administración. Rubros de todas las áreas aprovechan cada vez más las ventajas de estas tecnologías y las incorporan en su plan de negocios. Aplicaciones conocidas de este tipo de soluciones van desde el seguimiento de activos dentro de un recinto cerrado, hasta el control de flota en empresas de transporte. En el presente trabajo se diseñó e implementó una aplicación de software que funciona en un dispositivo móvil. La aplicación estima la posición del usuario de dicho dispositivo, dentro de un recinto cerrado, con un margen de error que ayude a tomar decisiones a un ser humano. Un escenario de ejemplo donde esta solución podría utilizarse es un hospital. Allí, el personal podría usar la aplicación más el apoyo visual, para conocer la ubicación y disponibilidad de recursos móviles (por ejemplo, personas y equipos). La información necesaria para realizar la estimación se obtiene del contraste entre un modelo del espacio cargado en memoria y las señales inalámbricas observadas. Además, se requiere que el entorno en el cual se desea implantar posea distintos puntos de accesos WiFi para usar como referencia. La aplicación desarrollada permite construir, de manera expedita y con la mínima información, un modelo del decaimiento de las señales WiFi para toda la zona objetivo. Esta solución se adapta fácilmente ante cambios en las referencias del recinto, y permite que un mismo modelo funcione en distintos dispositivos con un leve cambio en la configuración. La calidad del modelo es proporcional a la densidad de señales WiFi del ambiente. En su estado actual, en un ambiente de densidad moderada, se puede obtener márgenes de error aceptables para que un humano pueda encontrar, a través de la inspección visual, a otra persona cuya posición ha sido estimada por la aplicación.
28

El Teorema de De Rham-Saito / El Teorema de De Rham-Saito

Apaza Nuñez, Danny Joel 25 September 2017 (has links)
The theorem of De Rham-Saito is a generalization of a lemma due to De Rham [3], which was announced and used in [7] by Kyoji Saito, as noproof of this theorem was available, Le Dung Trang encouraged to Saito to publish the proof that can be seen in [8], which indirectly encourages us to detail the proof in this article for the many applications it has,we highlight the Godbillon-Vey algorithm [4]; in the proof of Theorem classical Frobenius given in [2]; in [6] we see some interesting applications, in the proof of Frobenius theorem with singularities [5]. In [1] we givefull details of the proof given by Moussu and Rolin. / El teorema de De Rham-Saito es una generalización de un lema debido a De Rham [3], el cual fue enunciado y usado en [11] por Kyoji Saito, al no haber prueba de este teorema Le Dung Trang anima a Saito a publicar la prueba que puede ser vista en [12], lo cual indirectamente nos motiva a detallarla prueba en este articulo por las muchas aplicaciones que tiene, destacamos el algoritmo de Godbillon-Vey [5]; en la prueba del Teorema de Frobenius clásico dada en [2]; en [8] vemos unas aplicaciones interesantes; en la prueba del Teorema de Frobenius con singularidades [7]; en [1] se detalla la prueba realizada por Moussu y Rolin [10].
29

Algunos Problemas Inversos de Localización de Fuentes en Ecuaciones de Difusión-Transporte

Tapia Gaete, Marcelo Andrés January 2009 (has links)
No autorizado por el autor para ser publicada a texto completo / La localización de fuentes en ecuaciones de difusión-transporte es tanto un tema de estudio teórico como práctico ya que estas ecuaciones pueden modelar concentración de contaminantes peligrosos para la salud y la localización de las fuentes es importante para saber en qué parte de una cuidad se producen una cantidad no recomendada. El primer resultado logrado es la localización de fuentes de monóxido de carbono en Santiago y el cálculo de la sensibilidad de las concentraciones con respecto a las emisiones por medio de un método adjunto. Esta senibilidad es comparada con la obtenida en [Sai08], que fue calculada por un método directo, y se obtubo una buena correlación entre ellas, dando así una correctitud para ambos métodos (directo y adjunto).
30

Aplicación de Métodos Secuenciales de Monte Carlo Sensibles al Riesgo en la Estimación de Vida Útil de Componentes

Neira Bravo, Daniel Alexis January 2011 (has links)
El presente trabajo de memoria se propone como objetivo principal el de analizar el desempeño de los filtros de partículas clásico y sensible al riesgo en el estudio de la vida útil de componentes mecánicos que se encuentren en falla. Los filtros de partículas, también conocidos como métodos secuenciales de Monte Carlo, corresponden a técnicas de estimación y pronóstico que se sustentan en un marco teórico de trabajo capaz de tratar con problemas en tiempo real, no lineales y con ruidos de proceso y observación no necesariamente Gaussianos. El desempeño de estos métodos de estimación y predicción será estudiado y validado mediante la utilización de datos de laboratorio, provenientes de pruebas realizadas a componentes reales de un helicóptero en falla. En particular, se utilizarán los datos originados a partir del crecimiento de una fractura en una placa de engranaje planetario, pieza que se encuentra presente en el rotor principal de la nave. La prueba de laboratorio, realizada por terceros, consistió en fracturar artificialmente una placa de engranaje planetario para luego someterla a una carga variable, carga que en un instante de la prueba sufre un cambio. A partir del perfil de vibraciones originado se hizo una estimación ruidosa del crecimiento de la fractura, característica que finalmente es la que se utiliza en este trabajo. Lo que se espera a partir del estudio de esta señal es evaluar cómo se desempeña el filtro de partículas sensible al riesgo, en comparación con el clásico, en vista del cambio introducido durante el registro de los datos y cómo ello influye en la estimación de la vida útil de la pieza mecánica. Para implementar los algoritmos de los filtros se hacen diversas consideraciones de cara a disminuir la complejidad del código, proveer una aproximación más simple al problema y reducir la carga computacional asociada con su ejecución. La suposición más importante que se realiza da origen a que durante el proceso de pronóstico los pesos de las partículas se mantengan constantes. En particular, la implementación de la etapa de predicción para el caso del filtro de partículas sensible al riesgo considera dos casos excluyentes. En el primero, las componentes del ruido de proceso y distribuyen como Gaussianas de media cero y se calcula el valor esperado de los estados. En el segundo caso, ~ y , sin cálculo del valor esperado de los estados. Las estimaciones de vida útil obtenidas a partir de los filtros de partículas implementados no fueron satisfactorias. Al no existir una actualización de pesos en la etapa de pronóstico, no fue posible corregir el error que se estaba cometiendo en la estimación. Así, la alerta de falla se activa con demasiada anticipación, subestimando el tiempo real de vida útil remanente del sistema. En conformidad con lo anterior se propone como trabajo futuro la implementación de una técnica encargada de actualizar los pesos de las partículas durante la etapa de pronóstico, así como de una estrategia que sea capaz de evaluar en línea la calidad de las predicciones a largo plazo. Se concluye a partir del trabajo realizado que para el caso de los filtros de partículas sensibles al riesgo implementados, en cuanto a estimación de vida útil y desempeño computacional, no ofrecen ventajas comparativas claras frente al filtro de partículas clásico.

Page generated in 0.0517 seconds