• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 8
  • Tagged with
  • 17
  • 17
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Análisis y comparación de estrategias basadas en medidas de información para la detección de regeneraciones del estado-de-salud en baterías de ion-litio

Lacalle Alarcón, Matías Sebastián January 2013 (has links)
Ingeniero Civil Electricista / En la actualidad, los acumuladores de ion-litio han tomado fuerza como dispositivos de almacenamiento de energía. Su menor peso para acumular la misma cantidad de energía que otros sistemas de este tipo y su estabilidad en cuanto a seguridad se refiere, son las principales características que le entregan una fuerte ventaja competitiva. Sin embargo, un problema importante que presenta el uso de este tipo de dispositivos tiene relación con la capacidad de predecir el fin de la vida útil de los mismos. En algunas aplicaciones específicas, como los vehículos aéreos no tripulados, resulta crítico contar con una buena estimación de este parámetro, debido al costo que conlleva el reemplazo de estas baterías y las graves consecuencias que puede traer una sobre-estimación de la vida útil remanente. La predicción de este parámetro se ve dificultada con la aparición de fenómenos de auto-regeneración espontánea que sufre el estado de salud de las baterías de ion-litio, lo cual afecta la tendencia de su degradación y puede conducir a errores considerables en la predicción de la vida útil remanente. Es posible atenuar el impacto que estos fenómenos pueden tener sobre algoritmos de estimación o pronóstico si son detectados y aislados correctamente, permitiendo que los algoritmos de predicción consideren únicamente la información que representa la tendencia de degradación de la capacidad de la batería. El presente trabajo busca desarrollar métodos de detección de anomalías que permitan abordar el problema de incertidumbre causada por el fenómeno de regeneración mencionado; implementando módulos que utilicen métodos de detección en conjunto con algoritmos de filtro de partículas en su versión clásica y su versión sensible al riesgo. Dichos métodos deben ser capaces de identificar si un aumento en la capacidad de la batería se debe a un fenómeno de auto-regeneración o simplemente a la variación intrínseca al ruido de medición. La investigación realizada compara cuatro métodos de detección que caracterizan empíricamente al estimador de la función de densidad de probabilidad del estado de salud del acumulador, determinando su desempeño en términos de errores de tipo I y II, precisión, exactitud y sus efectos en el sesgo de las estimaciones. Un método desarrollado consiste en la construcción de un test de hipótesis, mientras que otras tres metodologías utilizadas están basadas en medida de teoría de la información y que consisten en la medida de entropía, diferencia de entropía y el método de divergencia de Kullback-Leibler. Los resultados de este estudio reflejan que los métodos basados en medidas de teoría de la información presentan resultados similares. Sin embargo, la metodología de medición de entropía presenta un mejor desempeño comparativo en la zona de menor tasa de falsos positivos, la cual corresponde a la zona de mayor interés si se pretende no subestimar el estado de salud de la batería. No obstante, el método de test de hipótesis, presenta un desempeño marcadamente superior a los métodos de teoría de la información desarrollados, logrando una mayor tasa de detección para cualquier caso. Siendo consistente con el criterio de evitar la subestimación, se prefiere utilizar este método con el algoritmo de filtro de partículas clásico. Como línea de desarrollo futuro, se propone diseñar un método de test de hipótesis alternativas (Neyman-Pearson), para caracterizar así la función de probabilidad de las regeneraciones.
2

Deliberation and its effect on voting: nash bayesian equilibrium with communication and endogenous information acquisition

Macdonald Aros, Diana Elizabeth January 2013 (has links)
Magíster en Economía Aplicada / Analizamos la cantidad de información adquirida por los agentes, en el caso donde toman sus decisiones en base a creencias privadas versus el caso donde existe intercambio de información. En otras palabras, modelamos la adquisición de información cuando los agentes tienen la opción de comunicar y deliberar. Nos enfocamos en comités o paneles de decisión compuestos por un grupo de agentes que comparten una meta común, una tarea conjunta, y que poseen la habilidad de comunicarse sin costo. Consideramos la unanimidad como regla de votación y demostramos que si existe la oportunidad de comunicar, entonces los agentes podrían tener incentivos a adquirir información sólo cuando comunican. Intuitivamente, esperaríamos que el compartir información decrezca los incentivos a realizar esfuerzo y observar un efecto free rider. Sin embargo, nuestros resultados muestran que, bajo ciertas condiciones, la comunicación genera incentivos a adquirir información. Nuestro análisis deja en evidencia, la importancia de incorporar comunicación cuando se analiza la adquisición de información. Además, discutimos extensiones sobre la regla de votación y comunicación costosa. En nuestro modelo, un comité de expertos debe decidir, en representación del público (o una organización), si implementar un proyecto o mantener el status quo. Los miembros del comité tienen preferencias comunes. El problema es que existe incertidumbre acerca de las consecuencias del proyecto. En la primera etapa, los agentes adquieren información costosa y reciben una señal privada acerca del estado del mundo. Luego, los agentes deliberan y votan. El comité alcanza una decisión en dos etapas. En la primera etapa, la etapa de comunicación, cada miembro puede compartir su información privada con los demás. Suponemos que los agentes revelan su señal simultáneamente. En la segunda etapa, la etapa de votación, cada miembro vota simultáneamente, donde los votos son agregados utilizando como regla de votación la unanimidad. Nuestros resultados muestran que, en la etapa de votación, los agentes votan estratégicamente en ambos casos, cuando la información es compartida y cuando no. Esto es, los agentes votan en contra de su señal. En la etapa de comunicación, encontramos que los agentes pueden no tener incentivos en comunicar su señal, incluso cuando la comunicación no tiene costo. Finalmente, encontramos que si el número de agentes es lo suficientemente grande, entonces cada miembro prefiere comunicar su señal y adquirir información. Contrario a la intuición, encontramos condiciones tales que el efecto free rider no se observa, y la comunicación crea más incentivos a adquirir información.
3

Costly information acquisition and voluntary voting

Díaz Klaassen, Felipe Ignacio January 2015 (has links)
Magíster en Economía Aplicada / Ingeniero Civil Industrial / En este trabajo comparamos la eficiencia de la votación por mayoría con producción endógena de información, tanto permitiendo como no permitiendo la abstención por parte de los votantes. Estudiamos elecciones en donde existe incerteza con respecto a cuál es el mejor candidato, aunque los votantes pueden adquirir información sobre sus alternativas a un costo. Analizamos esto bajo dos instituciones muy distintas, votación voluntaria y obligatoria, y encontramos que bajo ambas los votantes prácticamente no se informan. Sin embargo, bajo ciertas condiciones la información se agrega completamente y el mejor candidato es elegido. Encontramos que esta agregación de información es mayor bajo votación voluntaria y que, por lo tanto, ésta domina a la votación obligatoria.
4

Diseño e Implementación de una Herramienta de Representación del Conocimiento para Apoyar la Gestión de Requisitos en un Proceso de Desarrollo de Software

Acosta Palacio, Carlos Enrique January 2010 (has links)
La principal medida de éxito o aceptación de un nuevo sistema de software es el grado de cumplimiento de los objetivos y necesidades para las cuales fue concebido. La Ingeniería de Requisitos (IR) de sistemas de software es, precisamente, una de las disciplinas que estudia los procesos y técnicas para lograr un alto grado de cumplimiento de estos objetivos y necesidades con respecto a los requisitos planteados. Dentro de la Ingeniería de Requisitos el proceso de captura y análisis de requisitos funcionales se enfrenta a numerosos riesgos, como los conflictos y ambigüedades presentes en el conocimiento de los stakeholders, entre otros. En este contexto, el informe “Chaos Report”, presentado por el Standish Group en 1999 a 2004 y realizado en Corporaciones del hemisferio norte, resume que dentro de las principales causas de fracaso de proyectos de desarrollo de software, se encuentran, los requisitos incompletos, la falta de participación de los usuarios, la presencia de conflictos en la definición de requisitos, desconocimiento de las expectativas de los usuarios, entre otras. En los últimos años, se ha dado especial atención a las características colaborativas presentes dentro del desarrollo de software, como es el caso de la programación colaborativa en la metodología Extreme Programming (XP). Estas características han impactado positivamente las actividades de proceso de desarrollo de software, como por ejemplo la construcción de software y testing. El objetivo general de este trabajo de investigación ha sido: diseñar, implementar y probar una herramienta colaborativa para apoyar la captura de requisitos funcionales en un proceso de desarrollo de software, con el propósito de evaluar las ventajas que se pueden obtener al introducir esquemas de trabajo colaborativo dentro de procedimientos propios de la Ingeniería de de Requisitos. Por medio de la búsqueda de trabajos de investigaciones realizados en el ámbito de herramientas colaborativas de apoyo al proceso de desarrollo de software se identificaron las líneas base del diseño e implementación de la herramienta de esta propuesta de tesis para finalmente realizar la experimentación y evaluación de las ventajas de la propuesta de tesis. Como resultado de las actividades de experimentación se puede concluir que la herramienta y técnica propuesta permite resultados comparables con otros procesos de Ingeniería de Requisitos, mostrando así que los aspectos positivos de incluir esquemas de trabajo colaborativo pueden resultar en la disminución de errores en las especificaciones funcionales y aumento en la participación activa de los ingenieros de software y en la consolidación y disminución de ambigüedades y conflictos en el entendimiento común.
5

Proyección de Datos Multidimensionales Utilizando Teoría de la Información

Vera Cadenas, Pablo Andrés January 2010 (has links)
En el presente trabajo se desarrolló un método no supervisado de proyección y visualización de datos multidimensionales a espacios de baja dimensión, en especial a 2D. El modelo de proyección propuesto consiste en una matriz de transformación lineal y ortonormal entre los espacios de entrada y salida. Para la optimización de los parámetros se utilizaron como criterios de proyección medidas basadas en la Teoría de la Información, en particular la Información Mutua. Debido a la complejidad del cálculo de la Información Mutua utilizando la forma clásica de Shannon, se trabajó con medidas basadas en la entropía de Renyi, las que combinadas con un estimador de funciones de densidad de probabilidad, llamado ventana de Parzen, permitieron el cálculo de la Información Mutua Cuadrática directamente a partir de los ejemplos. El método es no paramétrico ya que no requiere información a priori sobre la distribución de los datos. Adicionalmente, para mejorar el desempeño se añadió un pre-procesamiento para los datos llamado Blanqueo, el cual transforma los datos linealmente de forma que las características de los mismos no tengan correlación y que la varianza sea unitaria. El método fue probado en cuatro bases de datos distintas con diversa complejidad y fue comparado con otros algoritmos como Análisis de Componentes Principales (PCA), Stochastic Neighbor Embedding (SNE) y Mapas de Sammon (NLM), utilizando como criterios de desempeño tanto medidas de preservación topológica como otras basadas en clustering. Los resultados mostraron que el método propuesto es capaz de proyectar datos de alta a baja dimensión manteniendo gran parte de la información de los mismos, en especial en términos de clustering. El algoritmo superó a PCA en todas las pruebas y obtuvo resultados comparables con SNE y NLM a pesar de que estos métodos son no-lineales. Se desarrolló además una caracterización del método para determinar aspectos como orden computacional y dependencia de parámetros. Por otro lado, se demostró la necesidad de desarrollar nuevas métricas para medir el desempeño de los algoritmos de proyección.
6

Listado eficiente y en espacio reducido de documentos con sus frecuencias

Escobar Silva, Eduardo Ignacio January 2014 (has links)
Ingeniero Civil en Computación / En este trabajo se propone un nuevo método para la recuperación de documentos eficiente en espacio reducido. En términos generales, en recuperación de documentos se busca responder eficientemente a consultas sobre una colección de documentos con aquellos documentos cuyo contenido satisface algún criterio especificado en las consultas. Para acelerar las consultas los documentos son indexados con alguna estructura de datos. Las soluciones tradicionales para estos problemas basadas en índices invertidos no son adecuadas para dominios en los cuales los patrones de consulta son arbitrarios. Por ello, para colecciones cuyo contenido son, por ejemplo, secuencias de ADN, secuencias de proteínas, datos multimedia o algunos lenguajes naturales estas soluciones no son aplicables. Los índices de texto completo ofrecen una alternativa. Estos permiten indexar patrones generales pero incurren en un excesivo costo en espacio. Muthukrishnan diseñó una solución que utiliza este tipo de índices junto con otras estructuras para resolver listado de documentos. Su algoritmo es óptimo en tiempo pero consume más de veinte veces el espacio que ocupa la colección de documentos de entrada. Sadakane desarrolló una variante del algoritmo de Muthukrishnan. Para reducir el espacio introduce algunas modificaciones y diseña estructuras compactas que reemplazan las utilizadas por Muthukrishnan. Además extiende el algoritmo para resolver consultas de listado de documentos jerarquizadas. El espacio ocupado por el algoritmo de Sadakane para consultas jerarquizadas resulta excesivo para muchas aplicaciones prácticas. Aquí se proponen nuevas estructuras compactas para abordar este problema. Los resultados experimentales muestran que la nueva estrategia resuelve el problema de listado de documentos con sus frecuencias en un espacio menor y con la misma eficiencia que la solución original de Sadakane.
7

Riesgo Moral y Selección Adversa: Información Privada Sobre la Productividad y el Monitoreo

Pulgar Arata, Carlos Eduardo January 2011 (has links)
No description available.
8

Medidas de riesgo y su aplicación a ruteo en redes bajo incertidumbre

Torrico Palacios, Alfredo Ignacio January 2013 (has links)
Ingeniero Civil Matemático / Esta memoria aborda el problema de ruteo en redes bajo condiciones de incertidumbre, mediante el uso de funcionales no lineales que permiten cuantificar el riesgo de una ruta. En el caso determinista, el problema combinatorial de camino mínimo puede ser abordado desde dos enfoques: de forma dinámica, donde se busca en cada nodo la mejor opción para moverse hacia el siguiente vértice, o bien, de manera global, donde se busca el camino de menor costo desde el origen al destino. En este caso ambas ópticas coinciden, lo cual se ve reflejado en las ecuaciones de Bellman para encontrar caminos mínimos. Ambas perspectivas motivan el presente trabajo que trata el caso no determinista. El modelo general considera un grafo $G=(N,A)$ con nodos terminales $s,d\in N$, donde cada arco $a\in A$ tiene asociado un tiempo de viaje aleatorio $\tau_a$. En el Capítulo 2 se entregan las herramientas necesarias para los siguientes capítulos: medidas de riesgo; consistencia temporal y medidas de riesgo condicionales; procesos de Markov controlados; y por último, las teorías de elección bajo incertidumbre. En el Capítulo 3 se estudia un enfoque dinámico del problema utilizando la noción de medidas de riesgo condicionales, las cuales permiten satisfacer la condición de consistencia temporal. Usando los procesos de Markov controlados y el Average Value-at-Risk condicional, se aborda el problema de ruteo con aversión al riesgo. Se muestra que, bajo independencia de los tiempos de viaje, el problema se reduce a un modelo determinista en que el costo de cada arco corresponde al AVaR. Más aún, esta solución es consistente temporal. Sin embargo, mediante un contraejemplo con variables aleatorias normales se muestra que aún existen inconsistencias. En el Capítulo 4 se desarrolla un enfoque global en base a las teorías de elección, identificando la condición de consistencia aditiva como la propiedad que evita las inconsistencias temporales en las preferencias de los usuarios. De la teoría de desutilidad esperada, se obtiene la medida de riesgo entrópica como la única medida de riesgo que satisface su axiomatización. En el caso de la teoría dual de elección, la consistencia aditiva entrega al valor esperado como única solución. Por último, mediante la consistencia aditiva y la teoría de desutilidad rango-dependiente esperada --una combinación de las dos anteriores--, se obtiene nuevamente la medida de riesgo entrópica como única solución. Finalmente, en el Capítulo 5 se estudian modelos de equilibrio bajo incertidumbre para juegos de congestión no-atómicos y discretos. Para el caso independiente se tiene la existencia de equilibrios de Wardrop y Nash, respectivamente.
9

Finding periodicities in astronomical light curves using information theoretic learning

Huijse Heise, Pablo Andrés January 2014 (has links)
Doctor en Ingeniería Eléctrica / The analysis of time-variable astronomical phenomena is of great interest as it helps to improve our understanding of the structure and topology of our Universe, the mechanisms of galaxy and stellar evolution, etc. The basic tool to study variability in the sky is the light curve. Light curves are time series of stellar brightness and their analysis reveals key information about the physics behind the variable phenomena. Periodic variable stars are particularly interesting. Periodic variable stars are used to estimate the size and distance-scales of our Universe, and the period is a key parameter for stellar parameter estimation, stellar classification and exoplanet detection. The precise estimation of the period is critical in order to accomplish these scientific tasks. Astronomy is experiencing a paradigm change due to the extent volumes of data generated by current astronomical surveys. In less than 10 years, hundreds of Petabytes of astronomical images and time series catalogs will be produced. Conventional astronomy does not possess the tools required for this massive data mining operation. Nowadays there is a growing need for methods with solid statistical background to do automatic astronomical time series analysis. These methods need to be robust, fully-automated and computationally efficient. In this doctoral research I developed methods for periodicity detection and period estimation in light curves that are based on information theoretic concept of correntropy and advanced signal processing techniques. These methods are intended for automatic and efficient periodic light curve discrimination in large astronomical databases. Correntropy is a generalization of the conventional correlation to higher order statistics. In this thesis I propose the slotted correntropy estimator, the correntropy kernelized periodogram (CKP) and the correntropy non-negative matrix factorization spectrum (CNMFS). The slotted correntropy extends correntropy to unevenly sampled time series such as light curves. The CKP is a generalized periodogram that can be computed directly from the samples without regards on their sampling. The CNMFS is a high resolution spectrum that is localized on the fundamental frequency of the process. The results presented in this thesis show that information theoretic based criteria perform better than conventional methods used in astronomy such as the LS periodogram, analysis of variance, string length and the slotted autocorrelation function (second-order methods). Including the higher-order moments of the time series into the estimation makes the proposed information-theoretic methods more robust against noise and outliers, giving them the upper hand in term of the precision of the detected periods. The proposed methods are also general as they do not pose any assumption on the underlying periodic signal (e.g. sum of sine-waves), and can be adapted heuristically (CKP) or automatically (CNMFS) to different periodic light curve shapes. The proposed methods are less prone to return a harmonic, sub-harmonic or an alias of the underlying period, a usual problem with conventional methods. The results also show that the proposed methods are more robust and less dependant on the number of samples and the time span of the light curve, i.e. the period can be recovered even if few samples or only a short piece of the light curve is available. This suggests that these methods may outperform conventional methods for early or online periodicity discrimination on surveys that are currently operating (VVV, DECam). El análisis de fenómenos astronómicos variables en el tiempo es de gran interés científico pues ayuda a mejorar nuestro entendimiento de la estructura y topología de nuestro Universo, los mecanismos de evolución estelar, etc. La herramienta básica para estudiar variabilidad celeste es la curva de luz. Las curvas de luz son series de tiempo de brillo estelar y su análisis revela información clave sobre los procesos físicos tras el fenómeno variable. Las estrellas variables periódicas son particularmente interesantes, pues se usan para estimar el tamaño y las escalas de distancia en nuestro Universo, y su período es un parámetro clave para la estimación de otros parámetros estelares como la masa y el radio, para la clasificación estelar y la detección de exoplanetas. Una estimación precisa del período es crítica para el cumplimiento de estas tareas científicas. La astronomía está experimentando un cambio de paradigma debido a los extensos volúmenes de datos generados por los sondeos astronómicos actuales. En menos de 10 años, se producirán cientos de Petabytes de imágenes astronómicas y catálogos de series tiempo. La astronomía convencional no posee las herramientas que se requieren para esta operación masiva de minería de datos. Hoy en día existe una creciente necesidad por métodos con sólidas bases estadísticas para realizar análisis automático de series de tiempo astronómicas. Los métodos han de ser robustos, completamente automáticos y computacionalmente eficientes. En esta investigación doctoral he desarrollado métodos para detección de periodicidad y estimación de período en curvas de luz que están basados en conceptos de teoría de la información de correntropía y técnicas avanzadas de procesamiento de señales. Estos métodos fueron desarrollados teniendo en mente el procesamiento eficiente de grandes bases de datos de curvas de luz. La correntropía es una generalización de la correlación convencional a estadísticos de alto orden. En esta tesis propongo la correntropía ranurada, el periodograma kernelizado de correntropía (CKP) y el espectro de correntropía mediante factorización no-negativa de matrices (CNMFS). La correntropía ranurada extiende la correntropía a series de tiempo con muestreo irregular tales como las curvas de luz. El CKP es un periodograma generalizado que puede computarse directamente de las muestras sin importar su muestreo. El CNMFS es un espectro de alta resolución que está localizado en la frecuencia fundamental del proceso. Los resultados presentados en esta tesis muestran que los criterios basados en teoría de la información tienen un desempeño superior a los métodos convencionales usados en astronomía tales como el periodograma LS, análisis de varianza, string lengh y la función de correlación ranurada (métodos de segundo orden). Incluir los momentos de alto orden de la serie de tiempo hace que los métodos propuestos sean más robustos al ruido y a los outliers, lo cual a su vez se traduce en una mayor precisión en la detección de período. Los métodos propuestos son generales, en el sentido de que no hacen supuestos sobre la señal periódica subyacente (e.g. suma de señales sinusoidales), y pueden ser adaptados heurísticamente (CKP) o automáticamente (CNMFS) a diferentes tipos de periodicidad. Los métodos propuestos son menos propensos a entregar un armónico, sub-armónico o alias del período subyacente, un problema usual de los métodos convencionales. Los resultados muestran que los métodos propuestos son más robustos y menos dependientes del número de muestras y del tiempo total de la curva de luz, es decir, el período puede ser recuperado incluso si pocas muestras o un segmento corto de la curva de luz está disponible. Esto sugiere que los métodos propuestos pueden funcionar mejor que los métodos convencionales para discriminación temprana u online de periodicidad en sondeos que están operando actualmente (VVV, DECam).
10

Utilización y desarrollo de criterios basados en teoría de la información para la selección de modelos de regresión

Castro, María Ángeles 21 June 2006 (has links)
No description available.

Page generated in 0.0788 seconds