Return to search

Nuevos modelos y técnicas estadísticas para el estudio de datos financieros

Nuestra línea de investigación se ha desarrollado en el ámbito de la estadística aplicada a las finanzas. Nuestro objetivo es encontrar y analizar nuevos modelos estadísticos para ajustar los datos financieros y nuevas técnicas para estudiar el comportamiento de las colas. Una aplicación destacada de este trabajo es el estudio del riesgo operacional. En los últimos años, la industria bancaria ha cambiado profundamente por los procesos de liberalización, innovación financiera y tecnológica. Esto, ha generado en las entidades financieras una evolución en el ámbito de la modelización de procesos para la medición y gestión del riesgo. El riesgo financiero se define como el impacto adverso en el rendimiento debido a diferentes fuentes de incertidubre. En la actualidad, y desde una perspectiva avanzada de riesgos, se identificarían y se cuantificarían tres tipos de riesgo: riesgo de mercado, riesgo de crédito y riesgo operacional. A diferencia de los anteriores, el riesgo operacional es un riesgo que no es producto de la toma de una posición de riesgo, tiene su origen en sucesos que no pueden ser adscritos a riesgo de mercado o a riesgo de crédito, se define como la pérdida potencial por deficiencias en los controles, por los errores en el procesamiento y almacenamiento de las operaciones o en la transmisión de información, así como por resoluciones administrativas y judiciales adversas, fraudes, robos o por factores externos. El método más reciente para la cobertura de riesgo operacional es el método de medición avanzado (AMA) que consiste en la modelización de la distribución agregada de pérdidas (Loss Distribution Approach o LDA) que se ha utilizado con éxito en el ámbito de seguros. Bajo el supuesto de que las severidades son independientes entre si e independientes de la frecuencia de los sucesos, la metodología LDA requiere la modelización por separado de la frecuencia y de la severidad. El capital regulatorio se calcula como el percentil de la distribución agregada de pérdidas para un nivel de probabilidad del 99;9%. Las fluctuaciones pronunciadas de precios conducen a serias inestabilidades en los mercados financieros. Estas perturbaciones llevan a problemas en la gestión del riesgo. En este contexto, es necesaria la modelización del comportamiento de estos precios que alcanzan valores extremos. La distribución normal no determina con suficiente precisión dicho comportamiento, lo cual obliga a recurrir a otro tipo de distribuciones de colas pesadas o semi pesadas. En el Capítulo uno, haremos una descripción de las distribuciones de colas pesadas que son distribuciones que tienen colas más pesadas que la distribución exponencial. Históricamente se han utilizado en el mundo de seguros, especificamente las distribuciones subexponenciales. En la última década, esta metodología se ha trasladado al mundo de las finanzas. De forma más amplia los mercados financieros están bajo una permanente tensión por la interacción entre la oferta y la demanda, lo cual implica fluctuaciones pronunciadas en los precios. El modelo clásico para estudiar la evolución de los precios es el modelo de Black Scholes que supone normalidad en la distribución de los precios. Los estudios empíricos, que presentan una curtosis elevada y valores extremos que no se pueden ajustar por la distribución normal, muestran que este modelo está lejos de ser adecuado. Suponiendo normalidad de la distribución de la oferta y de la demanda, y si hay tantas ofertas como demandas (mercado ideal), las transacciones siguen una mixtura de normales. En caso contrario, cuando no se aceptan de la misma manera las ofertas y las demandas las transacciones pueden seguir una mixtura de normales truncadas. En el Capítulo dos, proponemos la mixtura de normales truncadas para ajustar los datos de tipo de cambio. Es un modelo muy apropiado dado que en la práctica nos permite estudiar la no-normalidad de los datos teniendo en cuenta la asimetría de los mismos. Para ello, primero desarrollamos las propiedades de la distribución propuesta y a continuación demostramos que la función de verosimilitud tiene un máximo único y que este máximo depende del coeficiente de variación. El enfoque basado en la modelización de la distribución de severidad mediante distribuciones de colas semi pesadas tales que la distribución lognormal, la inversa gaussiana y la mixtura de normales proporcionan estimaciones robustas estables del capital regulatorio, es decir, las cifras de capital entre dos periodos sólo pueden variar por su exposición al riesgo. El enfoque basado en la teoría de valor extremo que se caracteriza por el ajuste de los valores que superan un determinado umbral con la distribución de Pareto generalizada es de mucha importancia dado que las entidades se basan únicamente sobre las pérdidas elevadas, aunque la elección de manera eficiente del umbral a partir del cual se realiza el ajuste a una distribución de Pareto es crucial para obtener valores estables de las medidas de riesgo. Varios autores estudiaron la estimación de la distribución de Pareto generalizada mediante el método de máxima verosimilitud. No obstante, los métodos numéricos no siempre tienen soluciones sobretodo cuando las muestras son pequeñas, por ello se han propuesto otros métodos tales como el método de los momentos ponderados que sólo se puede utilizar cuando el momento de orden dos es finito, y el método que consiste en estimar los parámetros a través de los estadísticos de orden. En el Capítulo tres, explicaremos los problemas destacados de la no convergencia en algunos casos de la función profile verosimilitud de la distribución de Pareto generalizada. Luego, demostraremos que la función profile verosimilitud se caracteriza por el coeficiente de variación empírico. Por último, probaremos que en el caso de la distribución de Pareto, la función de verosimilitud tiene un máximo global cuando el coeficiente de variación empírico es mayor que uno. Por otro lado, ilustramos con un ejemplo que la función de verosimilitud de la distribución de Pareto generalizada puede no tener soluciones. En el Capítulo cuatro, utilizamos la caracterización de la distribución de Pareto generalizada a través del coeficiente de variación condicionado para desarrollar una metodología previa y complementaria a los estudios paramétricos y contrastar el modelo desde un punto de vista empírico. Es un método alternativo a los métodos clásicos ME-Plot y el Hill-Plot para estudiar las colas. Además nos permite encontrar de manera eficiente el umbral a partir del cual podemos ajustar los datos por una distribución de Pareto y estimar el parámetro del peso de la cola. Por otro lado, proponemos un test de exponencialidad contra las alternativas de cola Pareto. Una de las dificultades de la distribución de Pareto generalizada es que al incluir distribuciones de soporte acotado, existen problemas de convergencia de los estimadores. Además las ecuaciones de verosimilitud para muestras pequeñas pueden no tener soluciones. Por ello, proponemos la distribucón TNP que es la unión de la normal truncada, la distribución exponencial y la distribución de Pareto como alternativa a la distribución GPD. / Our line of investigation has developed in the field of the statistical applied
to the finances. Our aim is to find and analyse new statistical models
to adjust the financial data and new techniques to study the behavior of the
tails. An application of this work is the study of operational risk.
The banking business has changed deeply by the processes of liberalization,
financial and technological innovation. This, has generated an evolution
in the field of modeling the processes for the measurement and the quantification
of the risk.
The risk of loss has his origin in events that can not be attribute to
market risk or to credit risk, it is resulting from inadequate or failed internal
processes, people and systems or from external events. This definition
includes legal risk but excludes strategic and reputacional risk. The most
recent method for hedging the operational risk is the method of advanced
measurement (AMA) that consists in modeling the aggregate distribution of
losses (Loss Distribution Approach or LDA) that has been used successfully
in the field of insurances. assuming that the severities are independent, and,
that are independent of the frequency of the events, the methodology LDA
requires modeling separately the frequency and the severity. The VaR is then
calculated as the percentile of the aggregate distribution of losses for a level
of probability 99;9%.
In the Chapter one, we give an overview on heavy-tailed distributions.
Historically, it have been used in the world of insurances, specifically the distributions
subexponentials. In the last decade, this methodology has moved
to the world of the finances.
In the Chapter two, it is shown that the prices formation mechanism may
explain some amount of non-normality. Assuming normality for bid and ask
prices, the observed transaction prices may be a mixture of normal distributions
or a mixture of left- right truncated normal distributions, the latter
case being more likely. The statistical properties of the mixture of left-right
truncated normal distri- butions are developed. It is proved that there is only
one maximum for the likelihood function and the maximum is closely related
to the coeficient of variation. Our results show that continuity at zero of this
distribution can be avoided in statistical analysis. Empirical work suggests
that in financial data non-normality is also produced for a large number of
values close to the mean, here referred to as ïnliers". This could explain that
the Laplace approximation is often a better approach than normal distribution
for daily returns.
The approach based in the modeling the distribution of severity by semi
weighed distributions such as the lognormal distribution, the inverse gaussian
and the mixture of normal provide robust estimates estables of the VaR. The approach based in the theory of extreme value that adjust the values over an
determined threshold by the generalized Pareto distribution is of importance
To obtain values estables of the measures of the risk.
In the Chapter three, we provide precise arguments to explain the anomalous
behavior of the likelihood surface when sampling from the generalized
Pareto distribution for small or moderate samples. The behavior of the
profile-likelihood function is characterized in terms of the empirical coefficient
of variation. A suficient condition is given for global maximum of the
likelihood function of the Pareto distribution to be at a finite point.
In the Chapter four, we develop a previous and complementary methodology
to the parametric studies to contrast the model from a point of empirical
view. New methods to decide between polynomial or exponential tails are
introduced. Is an alternative method to the classical methods ME-Plot and
the Hill-Plot. The key idea is based on a characterization of the exponential
distribution and uses the residual coefficient of variation as a random process.
A graphical method, called a CV plot, is introduced to distinguish between
exponential and polynomial tails. Moreover, new statistics introduced from a
multivariate point of view allow for testing exponentiality using simultaneously
several thresholds. The usefulness of our approach is clearly shown with
the daily returns of exchange rates between the US dollar and the Japan yen.
One of the difficulties of the distribution of generalized Pareto is that
include bounded distributions, there lead a problems of convergence of the
estimators. Besides the likelihood functions for small samples can not having
solutions. Thus, we propose the TNP distribution that is the union of the
normal truncated, the exponential distribution and the distribution of Pareto
and is an alternative to the distribution GPD to modeling financial data.

Identiferoai:union.ndltd.org:TDX_UAB/oai:www.tdx.cat:10803/130794
Date13 July 2009
CreatorsDaoudi, Jalila
Contributorsdel Castillo Franquet, Joan, Universitat Autònoma de Barcelona. Departament de Matemàtiques
PublisherUniversitat Autònoma de Barcelona
Source SetsUniversitat Autònoma de Barcelona
LanguageSpanish
Detected LanguageSpanish
Typeinfo:eu-repo/semantics/doctoralThesis, info:eu-repo/semantics/publishedVersion
Format122 p., application/pdf
SourceTDX (Tesis Doctorals en Xarxa)
Rightsinfo:eu-repo/semantics/openAccess, ADVERTIMENT. L'accés als continguts d'aquesta tesi doctoral i la seva utilització ha de respectar els drets de la persona autora. Pot ser utilitzada per a consulta o estudi personal, així com en activitats o materials d'investigació i docència en els termes establerts a l'art. 32 del Text Refós de la Llei de Propietat Intel·lectual (RDL 1/1996). Per altres utilitzacions es requereix l'autorització prèvia i expressa de la persona autora. En qualsevol cas, en la utilització dels seus continguts caldrà indicar de forma clara el nom i cognoms de la persona autora i el títol de la tesi doctoral. No s'autoritza la seva reproducció o altres formes d'explotació efectuades amb finalitats de lucre ni la seva comunicació pública des d'un lloc aliè al servei TDX. Tampoc s'autoritza la presentació del seu contingut en una finestra o marc aliè a TDX (framing). Aquesta reserva de drets afecta tant als continguts de la tesi com als seus resums i índexs.

Page generated in 0.0158 seconds