• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 2
  • 2
  • Tagged with
  • 36
  • 36
  • 25
  • 11
  • 10
  • 10
  • 9
  • 9
  • 9
  • 9
  • 9
  • 8
  • 8
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Un enfoque MIDAS modificado: FB-MIDAS

Miní Cuadros, Renzo Enrique January 2018 (has links)
Los modelos de series de tiempo tradicionales asumen una misma frecuencia entre la variable dependiente y las variables explicativas. Sin embargo, en finanzas y en macroeconomía existen variables dependientes trimestrales que pueden ser explicadas o predichas por variables independientes diarias o mensuales, respectivamente. Para resolver este problema, la literatura ha desarrollado la metodología MIDAS (mixed-data sampling) que emplea un polinomio de rezagos distribuidos para relacionar variables de alta frecuencia con variables de baja frecuencia. Cuando la diferencia entre frecuencias es alta, típicamente se han empleado restricciones a los coeficientes para reducir la varianza de los estimadores y solucionar el problema de sobreparametrización (metodología MIDAS). Cuando la diferencia entre frecuencias es baja, existen relativamente pocos parámetros a estimar, por lo que un modelo sin restricciones (U-MIDAS) funciona mejor para nowcasting y backcasting. Esta investigación pretende darle un tratamiento bayesiano a la decisión de imponer o no restricciones al polinomio del modelo. Es decir, trata de ubicarse en el medio de los dos extremos (MIDAS y U-MIDAS) al imponer restricciones, determinadas empíricamente, de manera estocástica. El tratamiento consiste de un prior de “suavizamiento” sobre la distribución de rezagos del polinomio, y para encontrarlo, realiza tanto una calibración bayesiana empírica como un promedio ponderado de modelos bayesianos.
12

Development of algorithms of statistical signal processing for the detection and pattern recognitionin time series. Application to the diagnosis of electrical machines and to the features extraction in Actigraphy signals.

Iglesias Martínez, Miguel Enrique 08 June 2020 (has links)
[ES] En la actualidad, el desarrollo y aplicación de algoritmos para el reconocimiento de patrones que mejoren los niveles de rendimiento, detección y procesamiento de datos en diferentes áreas del conocimiento resulta un tema de gran interés. En este contexto, y específicamente en relación con la aplicación de estos algoritmos en el monitoreo y diagnóstico de máquinas eléctricas, el uso de señales de flujo es una alternativa muy interesante para detectar las diferentes fallas. Asimismo, y en relación con el uso de señales biomédicas, es de gran interés extraer características relevantes en las señales de actigrafía para la identificación de patrones que pueden estar asociados con una patología específica. En esta tesis, se han desarrollado y aplicado algoritmos basados en el procesamiento estadístico y espectral de señales, para la detección y diagnóstico de fallas en máquinas eléctricas, así como su aplicación al tratamiento de señales de actigrafía. Con el desarrollo de los algoritmos propuestos, se pretende tener un sistema dinámico de indicación e identificación para detectar la falla o la patología asociada que no depende de parámetros o información externa que pueda condicionar los resultados, sólo de la información primaria que inicialmente presenta la señal a tratar (como la periodicidad, amplitud, frecuencia y fase de la muestra). A partir del uso de los algoritmos desarrollados para la detección y diagnóstico de fallas en máquinas eléctricas, basados en el procesamiento estadístico y espectral de señales, se pretende avanzar, en relación con los modelos actualmente existentes, en la identificación de fallas mediante el uso de señales de flujo. Además, y por otro lado, mediante el uso de estadísticas de orden superior, para la extracción de anomalías en las señales de actigrafía, se han encontrado parámetros alternativos para la identificación de procesos que pueden estar relacionados con patologías específicas. / [CAT] En l'actualitat, el desenvolupament i aplicació d'algoritmes per al reconeixement de patrons que milloren els nivells de rendiment, detecció i processament de dades en diferents àrees del coneixement és un tema de gran interés. En aquest context, i específicament en relació amb l'aplicació d'aquests algoritmes a la monitorització i diagnòstic de màquines elèctriques, l'ús de senyals de flux és una alternativa molt interessant per tal de detectar les diferents avaries. Així mateix, i en relació amb l'ús de senyals biomèdics, és de gran interés extraure característiques rellevants en els senyals d'actigrafia per a la identificació de patrons que poden estar associats amb una patologia específica. En aquesta tesi, s'han desenvolupat i aplicat algoritmes basats en el processament estadístic i espectral de senyals per a la detecció i diagnòstic d'avaries en màquines elèctriques, així com la seua aplicació al tractament de senyals d'actigrafia. Amb el desenvolupament dels algoritmes proposats, es pretén obtindre un sistema dinàmic d'indicació i identificació per a detectar l'avaria o la patologia associada, el qual no depenga de paràmetres o informació externa que puga condicionar els resultats, només de la informació primària que inicialment presenta el senyal a tractar (com la periodicitat, amplitud, freqüència i fase de la mostra). A partir de l'ús dels algoritmes desenvolupats per a la detecció i diagnòstic d'avaries en màquines elèctriques, basats en el processament estadístic i espectral de senyals, es pretén avançar, en relació amb els models actualment existents, en la identificació de avaries mitjançant l'ús de senyals de flux. A més, i d'altra banda, mitjançant l'ús d'estadístics d'ordre superior, per a l'extracció d'anomalies en els senyals d'actigrafía, s'han trobat paràmetres alternatius per a la identificació de processos que poden estar relacionats amb patologies específiques. / [EN] Nowadays, the development and application of algorithms for pattern recognition that improve the levels of performance, detection and data processing in different areas of knowledge is a topic of great interest. In this context, and specifically in relation to the application of these algorithms to the monitoring and diagnosis of electrical machines, the use of stray flux signals is a very interesting alternative to detect the different faults. Likewise, and in relation to the use of biomedical signals, it is of great interest to extract relevant features in actigraphy signals for the identification of patterns that may be associated with a specific pathology. In this thesis, algorithms based on statistical and spectral signal processing have been developed and applied to the detection and diagnosis of failures in electrical machines, as well as to the treatment of actigraphy signals. With the development of the proposed algorithms, it is intended to have a dynamic indication and identification system for detecting the failure or associated pathology that does not depend on parameters or external information that may condition the results, but only rely on the primary information that initially presents the signal to be treated (such as the periodicity, amplitude, frequency and phase of the sample). From the use of the algorithms developed for the detection and diagnosis of failures in electrical machines, based on the statistical and spectral signal processing, it is intended to advance, in relation to the models currently existing, in the identification of failures through the use of stray flux signals. In addition, and on the other hand, through the use of higher order statistics for the extraction of anomalies in actigraphy signals, alternative parameters have been found for the identification of processes that may be related to specific pathologies. / Iglesias Martínez, ME. (2020). Development of algorithms of statistical signal processing for the detection and pattern recognitionin time series. Application to the diagnosis of electrical machines and to the features extraction in Actigraphy signals [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/145603 / TESIS
13

Algoritmo de predicción de crisis respiratoria en pacientes pediátricos

García Tenorio, Fabián Andrés January 2018 (has links)
Magíster en Gestión de Operaciones. Ingeniero Civil Industrial / Las enfermedades respiratorias crónicas (ERC) afectan las vías respiratorias y otras estructuras del pulmón por más de tres meses, lo que en caso de infantes repercute tanto en su crecimiento como en su desarrollo normal. En Chile las enfermedades respiratorias son la primera causa de egreso hospitalario, siendo las ERC una de las razones más frecuentes. Diversas iniciativas se han implementado en apoyo a estas problemáticas, principalmente a través de Garantías Explícitas en Salud, pero éstas presentan un enfoque de atención médica necesaria y oportuna más que de prevención. A partir de 2013 una iniciativa impulsada por el Ministerio de Salud busca reintegrar en sus domicilios a pacientes menores de 20 años que requieran apoyo respiratorio, lo que mejora su calidad de vida y la de sus familias. No obstante, el protocolo de detección de crisis y su consiguiente plan contingente recae en las familias y cuidadores. Por esto es fundamental generar estrategias que puedan prevenir y detectar de forma oportuna cualquier riesgo de salud una vez que llegan a sus casas. Para esto, el objetivo general planteado es predecir el estado de riesgo de salud futuro del paciente en base a los signos vitales capturados, brindando el tiempo necesario para desencadenar el plan contingente asociado a la situación. El resultado de este trabajo es un algoritmo capaz de conectarse a un sistema de captura de datos del paciente que logre detectar una situación adversa futura entregando este resultado en un tiempo mínimo de procesamiento. Considerando esto es fundamental contar con un repositorio de datos confiable, tanto para modelar el predictor como para su funcionamiento continuo. Este algoritmo está dividido en dos etapas: elección de modelos óptimos y clasificación de riesgo futuro. La primera etapa busca escoger el conjunto de métodos de series de tiempo que sea capaz de predecir siguiente estado del paciente, y luego escoger el modelo de aprendizaje supervisado que clasifique de mejor forma el riesgo del paciente. La segunda etapa busca tomar los modelos ya seleccionados y utilizarlos para desencadenar la predicción. Con esto se logra que la respuesta del próximo estado de cada paciente se obtenga en segundos. El resultado muestra que algunos signos vitales se pueden modelar de buena forma con la distancia de captura de los datos que se tiene (dos horas), como la temperatura, que para el paciente en que mejor se ajusta se puede modelar con un 1% de error cuadrático medio. En contraste, la frecuencia cardiaca no es posible modelarla con la misma distancia entre datos, teniendo en el mejor caso un error cuadrático medio de 35,90. Por otro lado, la clasificación de riesgo llega a resultados bastante buenos en términos de exactitud, cercano a 90% en algunos casos, pero se tiene que para el mejor escenario el Valor-F alcanza sólo 67%. Contrastando simultáneamente sensibilidad y especifidad se logra obtener modelos que están sobre 80% en ambas métricas, o cercano a 90% en una manteniéndose sobre 70% en la otra.
14

Análisis y Pronósticos de Demanda para Telefonía Móvil

Jiménez Lillo, Daniela Loreto January 2011 (has links)
No description available.
15

Finding periodicities in astronomical light curves using information theoretic learning

Huijse Heise, Pablo Andrés January 2014 (has links)
Doctor en Ingeniería Eléctrica / The analysis of time-variable astronomical phenomena is of great interest as it helps to improve our understanding of the structure and topology of our Universe, the mechanisms of galaxy and stellar evolution, etc. The basic tool to study variability in the sky is the light curve. Light curves are time series of stellar brightness and their analysis reveals key information about the physics behind the variable phenomena. Periodic variable stars are particularly interesting. Periodic variable stars are used to estimate the size and distance-scales of our Universe, and the period is a key parameter for stellar parameter estimation, stellar classification and exoplanet detection. The precise estimation of the period is critical in order to accomplish these scientific tasks. Astronomy is experiencing a paradigm change due to the extent volumes of data generated by current astronomical surveys. In less than 10 years, hundreds of Petabytes of astronomical images and time series catalogs will be produced. Conventional astronomy does not possess the tools required for this massive data mining operation. Nowadays there is a growing need for methods with solid statistical background to do automatic astronomical time series analysis. These methods need to be robust, fully-automated and computationally efficient. In this doctoral research I developed methods for periodicity detection and period estimation in light curves that are based on information theoretic concept of correntropy and advanced signal processing techniques. These methods are intended for automatic and efficient periodic light curve discrimination in large astronomical databases. Correntropy is a generalization of the conventional correlation to higher order statistics. In this thesis I propose the slotted correntropy estimator, the correntropy kernelized periodogram (CKP) and the correntropy non-negative matrix factorization spectrum (CNMFS). The slotted correntropy extends correntropy to unevenly sampled time series such as light curves. The CKP is a generalized periodogram that can be computed directly from the samples without regards on their sampling. The CNMFS is a high resolution spectrum that is localized on the fundamental frequency of the process. The results presented in this thesis show that information theoretic based criteria perform better than conventional methods used in astronomy such as the LS periodogram, analysis of variance, string length and the slotted autocorrelation function (second-order methods). Including the higher-order moments of the time series into the estimation makes the proposed information-theoretic methods more robust against noise and outliers, giving them the upper hand in term of the precision of the detected periods. The proposed methods are also general as they do not pose any assumption on the underlying periodic signal (e.g. sum of sine-waves), and can be adapted heuristically (CKP) or automatically (CNMFS) to different periodic light curve shapes. The proposed methods are less prone to return a harmonic, sub-harmonic or an alias of the underlying period, a usual problem with conventional methods. The results also show that the proposed methods are more robust and less dependant on the number of samples and the time span of the light curve, i.e. the period can be recovered even if few samples or only a short piece of the light curve is available. This suggests that these methods may outperform conventional methods for early or online periodicity discrimination on surveys that are currently operating (VVV, DECam). El análisis de fenómenos astronómicos variables en el tiempo es de gran interés científico pues ayuda a mejorar nuestro entendimiento de la estructura y topología de nuestro Universo, los mecanismos de evolución estelar, etc. La herramienta básica para estudiar variabilidad celeste es la curva de luz. Las curvas de luz son series de tiempo de brillo estelar y su análisis revela información clave sobre los procesos físicos tras el fenómeno variable. Las estrellas variables periódicas son particularmente interesantes, pues se usan para estimar el tamaño y las escalas de distancia en nuestro Universo, y su período es un parámetro clave para la estimación de otros parámetros estelares como la masa y el radio, para la clasificación estelar y la detección de exoplanetas. Una estimación precisa del período es crítica para el cumplimiento de estas tareas científicas. La astronomía está experimentando un cambio de paradigma debido a los extensos volúmenes de datos generados por los sondeos astronómicos actuales. En menos de 10 años, se producirán cientos de Petabytes de imágenes astronómicas y catálogos de series tiempo. La astronomía convencional no posee las herramientas que se requieren para esta operación masiva de minería de datos. Hoy en día existe una creciente necesidad por métodos con sólidas bases estadísticas para realizar análisis automático de series de tiempo astronómicas. Los métodos han de ser robustos, completamente automáticos y computacionalmente eficientes. En esta investigación doctoral he desarrollado métodos para detección de periodicidad y estimación de período en curvas de luz que están basados en conceptos de teoría de la información de correntropía y técnicas avanzadas de procesamiento de señales. Estos métodos fueron desarrollados teniendo en mente el procesamiento eficiente de grandes bases de datos de curvas de luz. La correntropía es una generalización de la correlación convencional a estadísticos de alto orden. En esta tesis propongo la correntropía ranurada, el periodograma kernelizado de correntropía (CKP) y el espectro de correntropía mediante factorización no-negativa de matrices (CNMFS). La correntropía ranurada extiende la correntropía a series de tiempo con muestreo irregular tales como las curvas de luz. El CKP es un periodograma generalizado que puede computarse directamente de las muestras sin importar su muestreo. El CNMFS es un espectro de alta resolución que está localizado en la frecuencia fundamental del proceso. Los resultados presentados en esta tesis muestran que los criterios basados en teoría de la información tienen un desempeño superior a los métodos convencionales usados en astronomía tales como el periodograma LS, análisis de varianza, string lengh y la función de correlación ranurada (métodos de segundo orden). Incluir los momentos de alto orden de la serie de tiempo hace que los métodos propuestos sean más robustos al ruido y a los outliers, lo cual a su vez se traduce en una mayor precisión en la detección de período. Los métodos propuestos son generales, en el sentido de que no hacen supuestos sobre la señal periódica subyacente (e.g. suma de señales sinusoidales), y pueden ser adaptados heurísticamente (CKP) o automáticamente (CNMFS) a diferentes tipos de periodicidad. Los métodos propuestos son menos propensos a entregar un armónico, sub-armónico o alias del período subyacente, un problema usual de los métodos convencionales. Los resultados muestran que los métodos propuestos son más robustos y menos dependientes del número de muestras y del tiempo total de la curva de luz, es decir, el período puede ser recuperado incluso si pocas muestras o un segmento corto de la curva de luz está disponible. Esto sugiere que los métodos propuestos pueden funcionar mejor que los métodos convencionales para discriminación temprana u online de periodicidad en sondeos que están operando actualmente (VVV, DECam).
16

Análisis técnico aplicado a los mercados latinoamericanos

Ormazábal Caris, Claudio 06 1900 (has links)
Tesis para optar al grado de Magíster en Finanzas / Autor no autoriza el acceso a texto completo de su tesis en el Portal de Tesis Electrónicas de la U. de Chile. / El presente trabajo tiene como finalidad estudiar la efectividad de las principales herramientas utilizadas en el análisis técnico aplicadas al principal índice bursátil de cinco países latinoamericanos, estos son el IPSA de Chile, BOVESPA de Brasil, MERVAL de Argentina, IGBC de Colombia e IGBVL de Perú. Las reglas aplicadas serán medias móviles simples con distintos periodos de tiempo y osciladores, tales como RSI, %R y %K. Para estimar el nivel de eficiencia se trabajó con series de precios diarios de cada índice, correspondientes al periodo comprendido entre el 30 de octubre de 2008 y 30 de octubre de 2013, utilizando así cinco años de muestra el cuál se separará en dos periodos, exactamente a la mitad de los cinco años para tener obtener mayor consistencia en los resultados. Se aplicó el test de rachas para analizar el random walk de los índices, rechazándose la hipótesis nula de aleatoriedad en cuatro de los cinco casos. Los resultados muestran que considerando los costos de transacción, en el periodo completo de estudio, ninguna estrategia activa de inversión fue capaz de superar la rentabilidad generada por la estrategia buy and hold, mientras que al dividir la muestra por periodos, en el primero de ellos no se obtuvo apoyo para el uso de las medias móviles como herramienta a la hora de aprovechar la tendencia alcista de los mercados, mientras que para el segundo periodo de tendencia lateral se obtuvieron rentabilidades mayores a la estrategia pasiva por medio de los osciladores RSI y %K.
17

Dinámica inflacionaria y persistencia: Argentina 1980-2013

Pastor Rueda, Juan Marcos January 2014 (has links)
En este trabajo se estudia la dinámica de la inflación agregada, en particular el fenómeno de la persistencia inflacionaria en el período 1980-2013 en Argentina siguiendo dos enfoques: el de series de tiempo univariado y el de modelos de vectores autorregresivos (VAR) para comprender el vínculo de su dinámica con otras variables macro-monetarias de la economía. Utilizando métodos recursivos y test de cambios estructural desarrollados por Bai y Perron identificamos quiebres en la tasa media de inflación que coinciden con cambios en el régimen monetario. En el modelo VAR se encuentra que, si bien la mitad de la variabilidad de la inflación depende de su propia dinámica, los impulsos monetarios la afectan de manera positiva y significativa.
18

Estadística Aplicada 2 (MA145), ciclo 2013-1

Cuadros, Gonzalo, Tarazona, Enver, Cárdenas Solís, Celia, Ramírez Infante, Raúl 03 1900 (has links)
El curso de Estadística Aplicada 2 para estudiantes de Ingeniería Industrial e Ingeniería de Sistemas, comprende el estudio de diversos métodos de Estadística Inferencial que sirven de apoyo en el proceso de toma de decisiones a partir de información proveniente de las diferentes ramas de la ingeniería. Contenido: Muestreo -- Diseño de la encuesta por muestreo -- Pruebas de hipótesis -- Uso de la distribución Chi Cuadrado -- Análisis de variancia -- Análisis factorial -- Análisis de regresión lineal y no lineal simple -- Análisis de correlación -- Análisis de regresión múltiple -- Series de tiempo.
19

Estadística Experimental (MA143), ciclo 2013-1

Aliaga, Elmer, Cárdenas, Celia, Chávez Ramos, Manuel Raymundo, Cuadros, Gonzalo, Laines, Blanca, Menacho, César, Piña, Gilber, Ognio, Carmen, Silvestre, Jim, Ventura, Susana January 2013 (has links)
Separata del curso Estadística Experimental (MA143), que corresponde al ciclo 2013-1. El curso está destinado para administradores y comprende el estudio de los métodos básicos más utilizados de la estadística inferencial, los cuales servirán para la toma de decisiones y como base para otras disciplinas para el mismo fin, que se estudiarán a lo largo de la carrera.
20

Estadística Experimental (MA143), ciclo 2013-2

Ognio, Carmen, Laines, Blanca, Ventura, Susana, Cárdenas, Celia, Aliaga, Elmer, Chávez Ramos, Manuel Raymundo, Piña Rucoba, Gilber, Menacho, César, Silvestre, Jim, Cuadros, Gonzalo 18 July 2013 (has links)
Cuaderno de trabajo del curso Estadística Experimental (MA143), que corresponde al ciclo 2013-2. El curso está destinado para administradores y comprende el estudio de los métodos básicos más utilizados de la estadística inferencial, que constituyen herramientas muy útiles para la toma de decisiones y como base para otras disciplinas para el mismo fin, que se estudiarán a lo largo de la carrera.

Page generated in 0.0772 seconds