Spelling suggestions: "subject:"econòmic"" "subject:"econòmica""
331 |
Modelización No Browniana de series temporales financierasEspinosa Navarro, Fernando 12 February 2002 (has links)
La Tesis se enmarca dentro del ámbito de estudio de los mercados financieros y más concretamente en el campo de la modelización del tipo de interés. Destacaremos que desde el punto de vista formal, en esta investigación, postulamos un modelo teórico concreto, que explica el comportamiento de las series de tipos de interés interbancario. El objeto de estudio de está, por tanto, es una colección de series temporales financieras del tipo de interés cotizado en el mercado interbancario español durante el periodo comprendido entre el 4 de Enero de 1988 y el 31 de Diciembre de 1998. En concreto las series de observaciones diarias del tipo de interés nominal para operaciones a 1 día, 1 semana, 15 días, 1 mes, 2 meses, 3 meses, 6 meses y 1 año. Considerando que los datos que disponemos son observaciones equiespaciadas de un proceso de logaritmo de precios, es decir, suponemos que la serie de los incrementos diarios del tipo de interés nominal es una serie de datos independientes e idénticamente distribuidos.En primer lugar tomamos primeras diferencias de nuestros datos y pasamos a analizar la normalidad de las observaciones. Destacar la aparición de colas anchas y fuerte apuntamiento en todas ellas y, por tanto, no se acepta la normalidad. Por ello, podemos considerar que falla alguna de las hipótesis del esquema planteado por Bachelier-Osborne. En primer lugar pondremos en cuestión la hipótesis de independencia. En consecuencia, como primera solución, vamos a aplicar un modelo de dependencia lineal estocástica, estudiamos el caso del ajuste de los modelos ARMA sobre las series de primeras diferencias. Modelos proporcionados por la teoría clásica de Box-Jenkins. Una vez estimados los modelos ARMA, pasamos a la validación de los mismos y para ello utilizamos el test de Ljung-Box. Para las series de residuos del modelo ARMA el resultado obtenido, aunque interesante, no es del todo satisfactorio. Para retardos cortos, los residuos exhiben el comportamiento incorrelacionado esperado, pero para retardos grandes no. Este hecho nos motiva a plantearnos el ajuste de modelos más generales. En concreto, nos estamos refiriendo a los modelos autorregresivos de medias móviles integrados fraccionarios (ARFIMA) Pero los resultados son similares a los obtenidos con la modelización ARMA.Agotada la vía lineal pasamos a la modelización no lineal, y dentro de esta daremos un primer paseo por la modelización no lineal determinista: La teoría del Caos. Vamos a intentar detectar un posible comportamiento caótico sobre nuestras series. En este respecto decir que al igual que en los capítulos precedentes el resultado que obtuvimos tampoco fue satisfactorio.A continuación, pasamos a la modelización no lineal estocástica poniendo en duda también el carácter estacionario en varianza de nuestras series junto con el de la independencia. Como consecuencia, ajustamos modelos GARCH a nuestros datos, modelos no lineales que intentan describir el comportamiento heterocedástico, para validarlos utilizamos el test BDS.Podemos decir que los modelos GARCH ajustados son mejores que los anteriores pero no son quizá los mejores modelos. Nuestro análisis, por tanto, podría seguir en esa línea, intentando detectar un modelo no lineal estocástico que mejorase los resultados del test BDS o bien atacar la tercera y última hipótesis del teorema Bachelier-Osborne. Siendo esa última vía la que elegimos.Recordemos que hasta ahora hemos considerado Modelos discretos. Pasaremos ahora a considerar modelos de tiempo continuo. En este caso nos encontramos en el contexto de los procesos de Lévy y los llamados modelos con saltos introducidos en Finanzas por Merton. En concreto intentamos modelizar las series como procesos que saltan en determinados instantes y que evolucionan de forma Browniana entre salto y salto.En definitiva este análisis reafirma nuestra hipótesis de que el proceso subyacente tras la serie de incrementos del tipos de interés, viene determinado por la coexistencia de diversas leyes normales. De forma que, si estudiamos la serie a nivel global, obtenemos como resultado que la serie no se comporta siguiendo un patrón Gaussiano, como hemos podido observar en los histogramas de frecuencias de la series de incrementos. Pero por el contrario, si detectamos los momentos de cambio, o saltos, y realizamos un análisis local, vemos como entonces si que podemos decir que el proceso podría modelizarse utilizando leyes normales locales y, de forma global, mediante el proceso de Lévy-Merton generalizado propuesto.Para finalizar diremos que tras el análisis de las series temporales del tipo de interés MIBOR podemos destacar que aceptamos la hipótesis de Bachelier-Osborne a nivel local mediante la consideración de saltos en la serie que separan diferentes tipos de distribuciones normales.
|
332 |
Métodos de análisis dinámico discreto. Aplicaciones financierasFort Martínez, Juan Manuel 11 June 2004 (has links)
En la tesis podemos distinguir dos partes bien diferenciadas, la primera de investigación matemática sobre ecuaciones en diferencias, desarrollada en los capítulos II y III; la segunda parte corresponde a las aplicaciones financieras, capítulos IV y V.En el capítulo II , desarrollo un método nuevo de resolución de ecuaciones en diferencias lineales, que denomino del factor anti-diferencia del producto, y un segundo método mas novedoso si cabe, que lo denomino "Cambio de variable" que nos permite resolver ecuaciones en diferencias, cuando la diferencia es una variable discreta y no constante como es habitual.En el capítulo III, al aplicar las técnicas anteriores de resolución y contrastarlas con las ya existentes, nos permite obtener 11 sumatorios generales, y si consideramos sus casos particulares podemos pasar del centenar de sumatorios prácticos.En el capítulo IV, realizamos todos los cálculos de rentas financieras, ya sean constantes, lineales, geométricas, o de variación polinómica, con una sola fórmula inicial "F1S" obtenida del primer sumatorio del capítulo anterior.En el capítulo V, realizamos cálculos de planes especiales de ahorro, utilizando la misma fórmula "F1S", y realizando todas las simplificaciones oportunas, llegando al extremo de poder obtener unas tablas de planes de ahorro con todas sus cantidades enteras.En el capítulo VI, dada mi incapacidad para poder analizar todos los campos investigados, he dejado abiertos una serie de caminos, para que toda persona interesada pueda seguir investigando, pues queda mucho camino por recorrer. / In the following thesis two parts are clearly shown. The first mathematical research is about differential equations properly developed in chapters II and III. The second one is about their financial use in chapters IV and V.In chapter II a new method for solving lineal differential equations, called Anti Differential Factor of the Product is seen. There is also a second method, even newer, named Variable Change that let us solve differential equations when the difference is a discrete variable and not constant as it usually is. At the end of the chapter some solved numeral examples are displayed. They verify the above mentioned procedures.In chapter III when using the new solving techniques and contrasting them with the traditional ones, 11 general addends are obtained from S1 to S11. If their specific events are taken into account, we could get more then a hundred of practical addends as it will be shown in the annex of the same chapter.In chapter IV we do all the calculations of financial income valuation, being these able to be constant, lineal, geometric or polynomial ones from only one initial "FIS" formula obtained from the first addend in the former chapter. In chapter V, calculus of special saving plans are made using the same "FIS" formula and doing all the suitable simplifications. Doing so, getting saving plan tables with all their complete quantities have been possible.In chapter VI being not able to analyse all the researched fields, some paths are left to those interested in following their exploration because there is still a long way to walk.
|
333 |
Memòria als mercats financers: una anàlisi mitjançant xarxes neurals artificials, LaSorrosal Forradellas, María Teresa 07 June 2005 (has links)
La memòria, dins del context financer, és un concepte ambigu que requereix la distinció entre diverses accepcions. La primera noció sorgeix en el marc economètric com a crítica de la hipòtesi d'independència entre observacions d'una variable en una sèrie temporal de naturalesa financera i es defineix com una relació funcional entre retards d'una mateixa variable. Nosaltres l'anomenem "memòria-dependència".De l'anàlisi tècnica obtenim una segona accepció a la que ens hi referim com "memòria-patró". La tercera hipòtesi postulada a la teoria de Dow és la de que els preus dels actius financers, i generalitzant els mercats financers, tenen memòria. En aquest sentit, s'interpreta com una repetició de les mateixes figures o patrons en l'evolució de les cotitzacions d'un actiu, conseqüència del manteniment d'unes mateixes pautes d'actuació per part dels inversors d'un mercat.La insuficiència d'aquestes dues nocions per recollir la totalitat de les influències del passat sobre el comportament dels mercats financers, duu a ampliar el marc teòric amb una tercera definició, la Memòria Col·lectiva. L'expressió prové de l'àmbit sociològic i destaca la naturalesa social dels records. L'entenem com el conjunt de coneixements, regles i patrons de comportament que són compartits pels membres d'un col·lectiu, un mercat financer per exemple, homogeneïtzant les representacions del passat per a obtenir avantatges en el futur. L'econometria ha desenvolupat models d'ajust a sèries temporals amb memòria-dependència, i l'anàlisi tècnica posseeix un instrumental per detectar la repetició de patrons gràfics. Cal, doncs, una metodologia per tractar de forma qualitativa, però també quantitativa, la memòria col·lectiva en el món financer. La nostra proposta són les xarxes neurals artificials. D'una banda, la seva estructura inspirada en el sistema neural biològic les fa adequades per a la modelització de la memòria. Per un altre costat, la seva flexibilitat i multifuncionalitat permet dissenyar xarxes específiques que s'adapten a gran quantitat d'entorns, circumstàncies i problemes. Així, les xarxes neurals artificials esdevenen una metodologia capaç de recollir els efectes de la memòria col·lectiva, però també poden aplicar-se per a la detecció i anàlisi de la memòria-dependència i memòria-patró, homogeneïtzant l'estudi de la influència del passat en un mercat financer i facilitant la comparació entre les diferents accepcions de memòria.En concret, hem aplicat les xarxes multiperceptró amb algorisme d'aprenentatge back-propagation a l'anàlisi de la memòria-dependència i la seva comparació amb la memòria col·lectiva en l'evolució de l´índex Dow Jones Industrial Average als mesos d'octubre. Hem optat per les xarxes ART (Adaptive Resonance Theory), per la seva capacitat en el reconeixement de patrons i adaptació a entorns oberts, com a instrument per al tractament de la memòria-patró, també en l'evolució del Dow Jones. Finalment, l'arquitectura dels mapes auto-organitzatius de Kohonen els fa adequats per l'anàlisi de la memòria col·lectiva, mitjançant l'ordenació espacial d'un conjunt de patrons en funció de la similitud entre llur característiques en un mapa bidimensional. La trajectòria dels patrons en el mapa informa de la seva evolució històrica i per tant, de l'aprenentatge, i la seva situació relativa permet la comparació entre ells. Hem aplicat els mapes de Kohonen a l'estudi de l'"efecte octubre" als mercats espanyol, francès i nord-americà, i al cas de l'"efecte eleccions generals" en l'evolució de les cotitzacions d'algunes accions de l'Ibex-35. Els resultats obtinguts són que no existeix efecte octubre ni des de la perspectiva de la memòria-dependència ni tampoc considerant la memòria col·lectiva; que sí és possible detectar patrons o climes mitjançant les xarxes ART; i que l''efecte eleccions generals' juntament amb l'aprenentatge dels inversors són fenòmens que es posen de relleu quan considerem la memòria col·lectiva en els mercats financers. / "Memory in Financial Markets: An analysis through Artificial Neural Networks" distinguishes between three different kinds of memory in the financial environment. The first concept, that is named dependence-memory, comes from the econometric context and it is understood as the functional relationship between past and present observations in a time series. A second concept of memory, the pattern-memory, is obtained from technical analysis. It can be seen when the evolution of the asset price follows a repeated graphical pattern. Finally, we propose the introduction of a third notion, the Collective Memory, in order to take into account the influences from the past not captured by the previous definitions of dependence and pattern memories. Econometrics analysis has developed complex models to study time series with long memory. Also technical analysis has its own tools to detect different patterns and take profit of the past knowledge. For the quantitative, as well as qualitative, analysis of collective memory we propose to use artificial neural networks. Moreover, this methodology allows homogenizing the study of the three types of memory in financial markets.We have applied back-propagation neural networks to analyse the behaviour of the Dow Jones Industrial Average during the Octobers. The same index has been studied using ART ("Adaptive Resonance Theory") networks, in order to find patterns and improve future decisions. The effect that is produced for the proximity of an October and the influence of the results in a political election have been analyzed using Self-Organizing Maps of Kohonen.As empirical conclusions, we have obtained that there is no evidence of the "October effect" from the point of view of collective memory and neither dependence-memory is detected. Contrary, using Kohonen maps it is possible to find factors of learning in the "general elections effect" in the Spanish capital asset market. Finally, ART networks can be used as a complementary tool in technical analysis to detect patterns of behaviour in financial markets.
|
334 |
Análisis de soluciones para juegos cooperativos de valores medios crecientes respecto a un vector: juegos financierosIzquierdo i Aznar, Josep Maria 17 April 1996 (has links)
El campo de estudio de la Teoría de Juegos se centra en los modelos matemáticos de conflicto y cooperación entre agentes decisores racionales. Las situaciones y problemas que analiza surgen de la interdependencia que tienen las decisiones de los agentes y de su repercusión sobre la utilidad de cada uno de ellos (repercusiones de tipo económico, de poder o, simplemente, de satisfacción). Este planteamiento hace que un objeto de estudio importante para la Teoría de Juegos sea la Economía y, en general, las Ciencias Sociales.Las decisiones y acciones llevadas a cabo por los agentes pueden tomarse de forma independiente, aunque tomando en cuenta la actuación de otros decisores, o en cooperación y de forma coordinada con ellos. Estos dos enfoques dan lugar a la división de la Teoría de Juegos en un parte dedicada a los juegos cooperativos y en otra dedicada a los juegos no cooperativos. En la presente Tesis nos ocuparemos de modelizar situaciones dentro del campo de la Teoría de Juegos cooperativos.Básicamente, un juego cooperativo analiza cuál es el fruto de la cooperación conjunta entre los agentes con la intención de encontrar un criterio que permita la distribución de las ganancias o beneficios obtenidos. En muchos de los modelos estudiados se observa o se asume que la cooperación siempre incrementa positivamente los resultados; sin embargo, la forma en cómo se incrementa es diferente según los problemas analizados.Una primera idea al respecto nos diría que la adhesión de nuevos miembros a una coalición de agentes nunca empeora el resultado obtenido por la coalición; en Teoría de juegos esta noción se expresa mediante el concepto de monotonía. Una segunda idea reforzaría la anterior e indicaría que romper una coalición de agentes ya formada resultaría ineficiente pues los grupos resultantes de la escisión saldrían perdiendo; esta condición nos conduce a lo que en Teoría de Juegos se denomina superaditividad. Una tercera vía aún más restrictiva respecto a la manera en que la cooperación es beneficiosa exigiría que el efecto positivo de la adhesión de un nuevo agente a una coalición fuera mayor cuanto mayor fuera el número de participantes en la coalición; en otras palabras, estaríamos hablando de la noción de convexidad. Las dos primeras condiciones (monotonía y superaditividad) son muy generales y se asumen en la mayoría de modelos. La convexidad, sin embargo, implica una regularidad en la aportación de los nuevos jugadores al juego: siempre resulta más productivo que un jugador se incorpore a una coalición con muchos jugadores que a una con pocos jugadores.
|
335 |
Teoria de la credibilitat: extensions i aplicacions, LaBermúdez i Morata, Lluís 20 June 1997 (has links)
La Teoria de la Credibilitat té les seves arrels al començament del segle vint, quan els articles de Mowbray, A. (1914) i Whitney, A. (1918) van ser publicats. Mowbray va ser el primer a investigar com de gran hauria de ser l'experiència del risc, en una assegurança determinada, per a obtenir una prima individual acceptable. Per la seva part, Whitney va establir que, en algunes assegurances, el risc assegurat proporciona una experiència amb el pas del temps, o sigui, les contingències passen amb prou regularitat com per tenir una informació útil a l'hora de calcular-ne la prima. Per tant, intentava establir un equilibri entre l'experiència del grup i l'experiència individual. Aquests treballs van aixecar la polèmica de quina prima hauria de ser la utilitzada si l'experiència individual per una pòlissa era considerada insuficient.No va ser fins el 1965 que no van aparèixer els veritables fonaments teòrics de la Teoria de la Credibilitat. Aquests van ser donats per Bühlmann, H. (1967,1969) quan va presentar la seva fórmula de credibilitat de distribució lliure, basada en el criteri de mínims quadrats. El model de Bühlmann ha estat el punt de partida de la moderna Teoria de la Credibilitat, i a partir d'ell han aparegut una sèrie de models credibilístics cada cop més perfeccionats i desenvolupats.A partir de la publicació del model original de Bühlmann, ha aparegut una llarga llista de literatura credibilística. De Pril, D'Hooge i Goovaerts (1976), Norberg, R. (1979) i De Wit, G. et al. (1986) són tres estudis dedicats a resumir la literatura d'aquesta teoria. Al mateix temps, en el marc de la Teoria de la Credibilitat, s'han anat obrint i desenvolupant diversos camps de recerca . En la línia endagada per Pons, M.A. (1992), on fa un recull de tots els models de credibilitat apareguts fins el moment, vàrem creure necessari continuar-la amb una altra tesi doctoral que tractés la Teoria de la Credibilitat i, més concretament, les extensions i aplicacions d'aquesta en l'àmbit actuarial. Aquest podria ser l'objectiu inicial que ens va moure a la realització de la present. Però, un cop començat l'estudi amb profunditat dels temes credibilístics, vam observar alguns problemes o mancances en les aplicacions d'aquests models que van originar uns nous motius per seguir analitzant la Teoria de la Credibilitat.Encara que els fonaments teòrics que han estat aportats en les ultimes dècades són molt ferms, els models de credibilitat no són freqüentment utilitzats en la pràctica actuarial. En aquest contexte, pot ser mencionat el conegut sistema de tarificació per automòbils Bonus-Malus, però poca cosa més. Per tant, resta molta recerca per fer millorar l'aplicabilitat dels models de credibilitat. Tot i això, és una llàstima que el nombre de publicacions sobre aquest tema hagi minvat en els últims anys.Una de les raons de l'ús limitat a la pràctica actuarial, és que les primes són difícilment interpretables en molts models de credibilitat. Per exemple, en el model de regressió de Hachemeister pot ocórrer que la prima de credibilitat no estigui entre les primes basades en l'experiència individual i en la col·lectiva. La interpretació d'un model i de les seves respectives primes són, a més, un important criteri perquè un actuari decideixi quin model ha de fer servir. Els actuaris es troben amb la difícil tasca d'explicar o defensar el criteri utilitzat. Per altra banda, la majoria de models de credibilitat només es preocupen de donar una mitjana ponderada de la prima pura de risc, quan es ben sabut que les primes del mercat requereixen un recàrrec de seguretat. Un altre problema amb que es troben els actuaris a l'hora d'aplicar models de credibilitat, és que els models disponibles no són apropiats per a les dades empíriques de que disposen. Per exemple, en els models jeràrquics, que tanta volada han tingut dins de la Teoria de la Credibilitat, els factors de risc que serveixen per dividir els riscos en grups homogenis estan niats. En canvi, en la pràctica asseguradora, molt sovint, els factors de risc no estan ordenats jeràrquicament (niats). Per tant, en aquests casos, els models jeràrquics no són apropiats i altres models, com els de regressió de Hachemeister, són massa generals per captar els específics trets d'aquestes dades.Així doncs, l'objectiu final d'aquesta tesi doctoral és analitzar i posar remei als inconvenients que hem mencionat de manera que els models de credibilitat puguin ser més aplicats a la pràctica actuarial. Per exemple, farem una incursió als models que tracten amb primes amb recàrrec de seguretat. Tanmateix, mostrarem que els models de credibilitat poden fer-se més flexibles i oberts, veurem com aquesta flexibilitat s'aconsegueix mitjançant estimador s dels paràmetres més complexos. Finalment, donarem a conèixer aplicacions que poden ser portades a terme a la pràctica,per exemple, els models de credibilitat per calcular les reserves IBNR.
|
336 |
Gestión del riesgo de tipos de interés en el mercado de mutuo acuerdo: las operaciones "swaps" de tipos de interés, LaBadia Batlle, Carmen 05 December 1990 (has links)
El presente trabajo se inicia con una delimitación del marco histórico de los acontecimientos que han propiciado la aparición y el desarrollo de un conjunto de innovaciones financieras que se denominan "nuevos productos financieros". Las causas principales han sido las variaciones en los tipos de interés y de cambio.En una primera etapa, se estudia con cierta profundidad los riesgos asociados a esas variaciones, y la necesidad de una gestión de los mismos, destacamos la formalización del tipo de cambio "forward" para operaciones a corto y largo plazo, que dependen de los tipos de cambio al contado y de la estructura de los tipos de interés.Paralelamente, hemos sistematizado el subconjunto de los nuevos productos financieros formado por los que se utilizan para la gestión de los riesgos derivados de las variaciones en los tipos de cambio que dan lugar a intercambios de diferencias de tipos de interés, y que se negocian en los mercados de mutuo acuerdo por oposición a los mercados organizados. Estos nuevos productos son: Los "forward-forward", los FRAs, los "caps", los "floors" y los "collars" y los "swaps" de tipos de interés. De forma individualizada, hemos formalizado estas operaciones financieras, de acuerdo con lo siguiente: Los "forward-forward" y los FRAs: Las operaciones "forward-forward" se estudian por su carácter de precursoras de la operaciones FRAs, mediante un contrato FRA un prestatario se asegura un tipo de interés para un préstamo futuro cubriéndose, de esta forma, de posteriores subidas en los tipos de interés. Este tipo de interés se denomina tipo garantizado, siendo el elemento básico de la formalización obtenido a partir de la operación de cobertura que realiza la entidad garante. Con posterioridad al cálculo del tipo garantizado se realiza un estudio formal de las cuantías a intercambiar entre el comprador y el vendedor del FRA en función del valor del tipo de interés del mercado tornado como referencia. Se analiza también la rentabilidad de la operación tanto para el comprador como para el vendedor del FRA.Como paso previo a una formalización de las operaciones "swaps", nos hemos visto obligados a ordenar cronológicamente las primeras de ellas, para describir a continuación el mercado "swap" vigente en la actualidad. De este mercado hemos efectuada un análisis de las cifras globales de los últimos diez años, este desarrollo cronológico nos ha hecho ver la necesidad de describir, desde el punto de vista formal, las operaciones financieras antecesoras de los "swaps" de tipos de interés. Precisamente sobre estas operaciones se centra el objetivo fundamental de nuestro trabajo.Las operaciones precursoras de los "swaps" de tipos de interés son los préstamos paralelos, los "back-to-back "y los "swaps" de tipos de divisas. Los préstamos "back-to-back" surgen de los préstamos paralelos, y son dos préstamos, apareciendo corno tales en el balance de las entidades prestamista y prestataria. El problema fundamental surge cuando una de las entidades incumple sus obligaciones permaneciendo, la otra ligada a sus compromisos. Los "swaps" de divisas son formalmente idénticos y sólo se diferencian desde las ópticas legal y contable, puesto que no se trata ahora de dos préstanos, sino de un único contrato entre las dos partes que libera a una de ellas de sus obligaciones cuando la otra las incumple.La estructura de los "swaps" de divisas es la misma que la de los "swaps" de tipos de interés, pero en éstos el intercambio inicial y final de los principales no tiene sentido, ya que se encuentran nominados en la misma divisa; basta con intercambiar diferenciales de intereses periódicos.Analizaremos de aquí hasta el final los puntos más sobresalientes relacionados con los "swaps" de interés. Mediante una operación de este tipo, los usuarios se intercambian las cuotas de interés de sus respectivos préstamos y sólo en determinadas condiciones todos los participantes obtienen una disminución del coste de sus deudas.Para estudiar estos casos comparamos los costes de una deuda en el caso de contratar un "swap", con los costes de dicha deuda en caso de acceder directamente al mercado. A partir del estudio detallado de la operación, y de los signos de las diferencias entre los tipos fijos y los tipos variables a los que tienen acceso los participantes en la operación "swap", llegamos a la conclusión de que para que una operación "swap" sea conveniente a ambos participantes, la condición que en un principio se planteó como necesaria es también suficiente. Esta condición se enuncia de la forma: "Para que las dos entidades que participan en el "swap" obtengan beneficios, la entidad mejor situada debe encuadrarse en el mercado en el que su ventaja comparativa respecto a la otra es mayor".Si la condición necesaria y suficiente no se cumple, entonces alguna de las entidades pierde.Algunas de las aplicaciones que citamos se han estandarizado debido al hecho de que se utilizan con frecuencia y han tornado nombre propio, entre ellas podemos citar las siguientes: el "swap" de cupón cero, el "basis rate swap", el "swap" diferido.El modelo que proponemos para la valoración de las operaciones "swaps" permite calcular el precio de la prima que el comprador del "swap", pagador de tipo fijo, paga periódicamente junta con los diferenciales de tipo de interés. Comprar un "swap" de tipo de interés es equivalente a comprar un "cap" y vender un "floor", siendo el tipo de interés "cap" igual al tipo de interés "floor" e igual al tipo pactado en la operación "swap". La prima pagada por el comprador del "cap" y recibida por el vendedor del "floor", han sido calculadas anteriormente, nos bastará con igualar los tipos "cap", "floor", y "swap" para obtenerla. Junta con el problema de la valoración nos referimos a continuación a los distintos riesgos que asumen los participantes de estas operaciones, siendo los más significativos los riesgos debidos a las variaciones de los tipos de interés que pueden cubrirse mediante operaciones convenientes, y los riesgos de crédito o insolvencia debidos al incumplimiento de sus obligaciones por parte de algún usuario. Este tipo de riesgo no puede cubrirse, si bien puede ser valorada en un momento cualquiera del plazo de la operación, dependiendo del tipo de interés al que podría contratarse un nuevo "swap" que cubriera la posición abierta debido a dicho incumplimiento.Hemos terminado nuestro trabajo con un estudio del mercado secundario de las operaciones "swaps" de tipos de interés. Dentro de este estudio hemos enumerada las causas más frecuentes para la terminación de un "swap" de tipo de interés, así como las distintas formas existentes en dicho mercado para su anulación.Nuestro trabajo termina con una recopilación de la bibliografía utilizada, ordenada alfabéticamente. / The dissertation contains chapters:The first is an introduction, showing the different modifications that have gone appearing in the international markets and that have originated the financial innovation.Second chapter is related with the mutual agreement market (OTC). Also, this chapter contains a definition and formalization for FRA's and their ancests the Forward-Forward, the options over interest rate differences: Caps, Floors and Collars.Third and fourth chapters are the core of this work: The study of interest rate swap. In a fist level, the parallel foreign currency contracts and foreign currency swaps are deeply analyzed. After, the economic causes that have developed the interest rate swap market are studied in order to introduce its pricing, risks, and secondary market.The dissertation finishes with the conclusion about previous chapters and with a bibliographic relation of this issue by alphabetic order.
|
337 |
Teoría de la Credibilidad y su aplicación a los seguros colectivos, LaPons Cardell, Mª Ángeles 20 December 1991 (has links)
El objetivo de esta tesis doctoral es dar una visión sistemática y completa, en la medida de lo posible, de los distintos modelos propuestos dentro de la Teoría de la Credibilidad para el cálculo de las primas de riesgo individuales, así como las relaciones existentes entre ellos, sus ventajas e inconvenientes.El desarrollo de la Teoría de la Credibilidad se basa en agrupar las pólizas referentes a un mismo riesgo, con una serie de características comunes en un colectivo, al cual corresponde como a tal una determinada prima colectiva. Pero, a su vez, cada póliza tiene un conjunto de características específicas que la diferencian de las demás pólizas, características que en la mayoría de los casos son inobservables o de difícil cuantificación, pero que se deben tener en cuenta a la hora de calcular las primas de riesgo individuales.El término Credibilidad fue introducido en la ciencia actuarial como una medida de la creencia, de la importancia, que el actuario cree que debe ser dada a un cuerpo particular de experiencia con el objeto de elaborar una tarifa. El objetivo de la Teoría de la Credibilidad es estimar las primas de riesgo individuales basándose en la información disponible sobre la experiencia de reclamaciones de cada póliza, de tal manera qua las fórmulas de credibilidad obtenidas son una especie de medias ponderadas entre la prima colectiva del riesgo y la media empírica de las indemnizaciones pagadas por cada póliza.La Teoría de la Credibilidad surgió a principios del siglo XX, y en su formulación actual fue desarrollada en los años anteriores a la Primera Guerra Mundial. El motivo fue la presión que ejercieron algunas compañías, con un gran número de empleados y una baja siniestralidad, para que se les reconociera estos hechos en el importe de las primas a pagar.MOWBRAY, A. (1914) planteó en el contexto de los seguros de compensación obrera la cuestión de cuántos asegurados, cubiertos por el mismo contrato, son necesarios para tener una estimación completamente creíble del ratio de la prima basada en la experiencia individual de un empleado, que pueda servir como prima para el próximo año.Dicho autor calculó, con un modelo matemático relativamente simple, el número de asegurados cubiertos por el mismo contrato requeridos para tener una estimación segura (creíble) de la prima pura verdadera, y su solución fue interpretada como un estándar (una norma) para conseguir una credibilidad completa o credibilidad total.MOWBRAY, A. no fue el único actuario que se preocupó de hallar cuál era el tamaño necesario de una experiencia de seguros para poder alcanzar una credibilidad completa, sino que muchos otros autores, entre ellos PERRYMAN, F. (1932) se ocuparon del tema.Una vez que el problema de la credibilidad completa estuvo bien definido, se planteó otro: cómo actuar cuando el número de asegurados fuese demasiado pequeño. A este problema se le conoce con el nombre de credibilidad parcial, ya que se trata de calcular el peso que se debe asignar a los nuevos datos frente a la experiencia de reclamaciones pasada, cuando tales datos no son lo suficientemente numerosos como para proporcionar una credibilidad completa. WHITNEY, A. (1918) fue uno de los primeros autores que se ocupó del tema, y estableció que en los seguros de compensación obrera, en los seguros de grupo, en algunos seguros de responsabilidad, y posiblemente en otros pocos tipos de seguros, el riesgo asegurado proporciona una experiencia de si mismo, esto es, las contingencias aseguradas ocurren con suficiente frecuencia cono para proporcionar información útil.Por ello, en los mencionados tipos de seguros, el problema de la tasación de la experiencia presenta la necesidad, desde el punto de vista de la equidad para el riesgo individual, de alcanzar un equilibrio entre la experiencia del grupo y la experiencia individual. Para WHITNEY, A., el problema fundamental residía en la obtención de un criterio que permitiese dar, a cada uno de los dos tipos de experiencia, su peso adecuado en la determinación de la prima a pagar por cada individuo. Las fórmulas del tipo indicado por WHITNEY se han denominado "fórmulas credibilísticas", y se han convertido en un elemento característico de la Teoría de la Credibilidad.El problema de la credibilidad parcial dio lugar múltiples discusiones entre los actuarios norteamericanos, así como a un número elevado de fórmulas para la determinación del factor de credibilidad, algunas de ellas casi inverosímiles. La Teoría de la Credibilidad ha tenido y tiene una gran relevancia práctica, de tal modo que los procedimientos credibilísticos empleados en las entidades aseguradoras precedieron a su justificación teórica. Como herramienta práctica es en gran parte invención de los actuarios norteamericanos, pero sus raíces provienen de la Teoría del Riesgo y de la estimación estadística.Aunque LONGLLEY-COOK, L. (1962) planteó ya la necesidad de un modelo matemático firme para desarrollar correctamente la Teoría de la Credibilidad no fue hasta 1965, en el coloquio de Astin, cuando se plantearon los verdaderos fundamentos teóricos de la misma, al presentar BÜHLMANN, H. su fórmula de credibilidad de distribución libre basada en el criterio de los mínimos cuadrados, que fue publicada en 1967.Desde la aparición del modelo de BÜHLMANN se han expuesto una gran variedad de modelos credibilísticos, que nosotros henos clasificado del siguiente modo: modelos clásicos, modelos de Regresión, modelos Semi-lineales y modelos Jerárquicos.Esta clasificación no sigue estrictamente el orden cronológico de aparición de los modelos, sin embargo a nuestro entender da una visión clara de las interrelaciones que existen entre los modelos, dentro de cada grupo, y entre los distintos grupos.En el Capítulo II de este trabajo, hemos analizado los modelos que hemos denominado "Modelos Clásicos", que son el Modelo de BÜHLMANN y el Modelo de BÜHLMANN-STRAUB. El término "clásico" lo hemos utilizado para indicar que estos dos modelos fueron los dos primeros que aparecieron como tales, y al mismo tiempo sentaron las bases para la aparición de los demás modelos credibilísticos. Se trata de dos modelos de tiempo homogéneo, aunque el segundo con observaciones ponderadas.En el Capítulo III, hemos analizado los Modelos de Regresión, que incluyen el Modelo de Regresión de HACHEMEISTER y el Modelo de Regresión No-Lineal de De VYLDER, siendo el segundo una generalización del primero. Estos dos modelos constituyen una de las vertientes en la cual se ha desarrollado la Teoría de la Credibilidad desde la aparición de los modelos clásicos, y la henos denominado Modelos de Regresión pues, como su propio nombre indica, uno de sus elementos característicos es la utilización de la técnica de regresión para el cálculo de los estimadores de credibilidad, junto con el completo abandono de la hipótesis de homogeneidad en el tiempo.En el Capítulo IV hemos analizado las Modelos Semilineales, ambos propuestos por De VYLDER, F. (1976), que son respectivamente el Modelo Semilineal y el Modelo Semilineal Óptimo. Estas dos modelos se hallan en la misma línea que el Modelo de BÜHLMANN, en cuanto que siguen asumiendo la hipótesis de homogeneidad en el tiempo, aunque ya no utilizan directamente los datos de la experiencia de reclamaciones sino que los transforman previamente a través de unas funciones.En el Capítulo V hemos analizado los Modelos Jerárquicos, que engloban al Modelo Jerárquico de JEWELL, el Modelo Jerárquico con múltiples niveles, el Modelo de Regresión Jerárquico de SUNDT y el Modelo de Regresión Jerárquico con múltiples niveles.Bajo la denominación de Modelos Jerárquicos hemos englobado aquellos modelos en los cuales cada póliza ya no viene caracterizada por un único parámetro de riesgo, sino que por tantos como niveles se hayan considerado dentro de la cartera. Esta vertiente fue iniciada por JEWELL, W. (1975), cuyo modelo aparece paralelamente al Modelo de Regresión de HACHEMEISTER.En cuanto al análisis de cada una de los modelos credibilísticos, nos hemos centrado principalmente en el estudio de las hipótesis asumidas en cada uno de ellos, así como en los problemas de estimación que se presentan tanto a la hora de obtener los estimadores ajustados de credibilidad como en la obtención de los estimadores de los parámetros estructurales. A su vez, hemos comparado los distintos modelos, y henos indicado las relaciones y diferencias existentes entre ellos, en lo referente a las hipótesis asumidas y a las consecuencias que se desprenden de los mismos.Una vez analizados los modelos de credibilidad, el siguiente paso, en el Capítulo VI, ha sido aplicar algunos de los modelos expuestos, para prever la prima de riesgo que deberá pagar el próximo año una entidad bancaria, que consta de veinticinco sucursales y que ofrece a sus Clientes, desde hace cuatro años, un seguro totalmente gratuito a cobrar en caso de muerte, que tiene contratado con una entidad aseguradora.La entidad aseguradora dispone de información respecto al montante global de las indemnizaciones que se han ido pagando en cada uno de los cuatro años de vigencia del seguro, y puede acceder a la misma desglosada por sucursales y años de ocurrencia. Al disponer cada sucursal de su propia experiencia de reclamaciones, la vamos a utilizar para estimar su prima de riesgo individual para el próximo año. Una vez estimadas las primas de riesgo individuales para cada una de las sucursales, la prima de riesgo total a pagar por parte de la entidad bancaria la obtendremos sumando las veinticinco primas de riesgo individuales.A la entidad aseguradora le interesará aplicar aquel modelo de credibilidad que le proporcione la prima total a cobrar y que mejor se adecue al caso estudiado, siendo éste el objetivo último de esta aplicación práctica.Para prever las primas de riesgo individuales hemos aplicado el Modelo de BÜHLMANN, el Modelo de BÜHLMANN-STRAUB, el Modelo Semilineal de DE VYLDER, el Modelo de Regresión de HACHEMISTER, el Modelo Jerárquico de JEWELL y el Modelo de Regresión Jerárquico de SUNDT.Para obtener los resultados numéricos a través de los cuatro primeros modelos, hemos contado con la ayuda de las funciones elaboradas en el lenguaje de programación APL, por STIERS, D.; GOOVAERTS, M. y De KERF, J. (1987), denominadas BÜHLMANN, BÜHLMANNSTRA, SEMILINEAR y HACHEMEISTER respectivamente, mientras que para los dos últimos modelos hemos tenido que elaborar nuestras propias funciones, también en APL, que hemos denominado JEWELL y SUNDT, ya que no tenemos conocimiento de ningún programa informático a tal efecto. No nos hemos limitado a obtener los resultados numéricos, sino que en cada modelo henos comentado sus ventajas e inconvenientes, así como las diferencias existentes entre ellos, y su adecuación o no al caso estudiado. / The objective of this dissertation is to give a systematic and complete vision of the different credibility theory models used to calculate individual risk premiums, as well as the relations between the different models and their advantages and disadvantages.Credibility Theory arose at the early 20th century and its present formulation was developed in the previous years to the First World War. Credibility Theory, as a practical tool, is originally an invention of some North American actuaries, but takes its roots from Risk Theory and Statistical Estimation.The term "credibility" was introduced in actuarial science as a measure of the belief or the importance that actuaries give to a particular part of experience in order to fix a rate. The objective of Credibility Theory is the estimation of too individual risks premiums based on the available information about the experience of claims of each instance policy, in such a way that the obtained credibility formulae are like a weighted mean between collective risk premium and the empiric mean of the paid compensation for every policy.LONGLEY-COOK, L. (1962) planed the need of a solid mathematic model to develop accurately the Credibility Theory, but it was not until Astin Colloquium (1955) that the veritable theoretic basis of Credibility Theory was established, where BÜHLMANN, H. presented his free distribution credibility formulae based in the least square criteria.Since appearance of BÜHLMANN model, others models were published. We have clasificated these models of this way: Classics Models, Regression Models, Semi linear Models and Hierarchical Models. Inasmuch as the analysis of every credibilitic model, mainly studied too assumed hypothesis on every model, as soon as the estimation problems appeared in the calculation of adjusted credibility estimadors and the calculation of structural parameter estimadors. At the same time, we have compared the different models, and we have indicated the relations and the differences between them.
|
338 |
Market Indices: Bases, Biases and BeyondAndreu Corbatón, Jordi 23 July 2009 (has links)
Market Indices are perhaps one of the most well known concepts in finance. They have also a crucial role in the professional financial field: hundreds of institutional investors, pension funds or investment banks use, follow and create market indexes. Since 1880, indexes have spread over the world developing a huge industry. The Modern Portfolio Theory (MPT), the CAPM or the efficiency analysis contributed to this expansion, and theoretical and empirical studies concluded passive investments (or indexing) were winning strategies. Indexing grew exponentially supported by lower management costs, simplification of the manager selection, superior performance in average, and the EMH and CAPM fever. In the last 20 years indexed institutional assets have grown 40% annually. Having in mind the importance of indexing, it is really shocking not to find a complete and deep analysis of market indexes. No many books or articles about index construction are available. Regarding this reality, the main objective of this thesis was to contribute with a complete theoretical and empirical analysis of market indexes. A deep literature analysis is presented and completed with an empirical study in three articles. In the first article, a revision of financial fundamental pillars is provided. This revision is absolutely essential to understand theoretical and empirical bases of indexing and hypotheses underlying index construction. The analysis let us present five market index biases (the sample, the construction, the efficiency and the active bias, and finally, tracking error). The definition of these biases is fundamental to understand how indexes can be improved. In the second article, a deep Market Index analysis is presented. After an historical revision and a discussion about functions of an index and desirable characteristics, market index's biases are provided and studied. The author pays attention to how these biases are created and how the can be mitigated. Finally, in the last article, Minimum Risk Indices are generated for the Spanish, American and Argentinean Stock Markets. Minimum Risk Indices using VaR provide market indices with less risk and with higher profitability in some cases, due to the partial elimination of some market index biases, specially, the efficiency one.KEYWORDS: Market Indices, Biases, Passive Investment, Prtfolio Management, Minimun Risk Indices. / Los índices de mercado son uno de los conceptos más conocidos en finanzas. Además, tienen un papel importantísimo en el mundo profesiona, siendo centenares e incluso miles los inversores institucionales, fondos de pensiones o de inversión que siguen este tipo de inversión. La teoría moderna de carteras, el CAPM y la creencia en la eficiencia de mercado han ayudado a desarrollar una industria, basada en los índices de mercado, de una importancia crucial. El objetivo principal de esta tesis doctoral es el de contribuir a la literatura especializada con una profunda reflexión teórica y práctica sobre la indexación. En el primer capítulo de la misma se revisan conceptos fundamentales de finanzas como son el mercado como juego de suma cero, el concepto de eficiencia, el CAPM y la inversión pasiva, poniendo especial énfasis en las hipótesis sobre las que se basan estas ideas. Las conclusiones son bastante diferentes de las tradicionales. La cartera de mercado no es una cartera totalmente eficiente ni óptima, no se sitúa sobre la frontera eficiente, y no es deseable por todos los inversiones, en contra de lo que dicen los modelos tradicionales. La indexación, como "proxy" de la cartera de mercado, se considera una estrategia sesgada. Concretamente, se presentan cinco sesgos a tener en cuenta por cualquier inversor pasivo. Finalmente, en este capítulo se presenta la Ecología como una vísión interesante y aplicable en los sistemas financieros. Una aproximación cualitativa de un sistema financiero como un sistema ecológico global, donde diferentes especies conviven y compiten por la supervivencia, es presentada al final del primer capítulo. En el capítulo dos de la tesis doctoral se analizan con detalle los fundamentos de los índices de mercado, prestando especial énfasis a los a los sesgos que les afectan, se presentan y analizan extensamente los sesgos de muestra, de construcción, de "tracking error", el sesgo de eficiencia y el sesgo activo, tratando sus orígenes, efectos y posibles técnicas para reducirlos o minimizarlos.En el tercer capítulo se presenta el marco conceptual de los índices de mínimo riesgo como estrategia para crear índices de mercado que reduzcan parte del sesgo de eficiencia. Se presenta un marco conceptual basado en la minimización del riesgo medido por el "value-at-risk" y se aplica la metodología presentada a tres mercados (español, margentino y americano). Los índices resultantes presentan menos riesgo que los existentes actualmente, y en el caso español y argentino presentan también mayor rendimiento, solucionando en parte los sesgos que sufren los índices actuales de estos mercados.
|
339 |
Valoración de proyectos de inversión en economías emergentes latinoamericanas: el caso de los inversionistas no diversificadosMongrut Montalván, Samuel 26 March 2007 (has links)
La evaluación de proyectos por lo general evita el importante proceso de análisis del riesgo porque se basa en el supuesto de los mercados completos. En un mercado completo se pueden encontrar activos gemelos o elaborar una cartera de inversiones dinámica para replicar el riesgo del proyecto todo estado de la naturaleza y momento futuro. Además, dado que se supone que los inversionistas están bien diversificados, lo que importa es el valor del proyecto como si éste se negociara en el mercado de capitales. Desafortunadamente, el supuesto de mercados completos se satisface difícilmente en la realidad, sobre todo en los mercados emergentes abundantes en títulos ilíquidos y donde los mecanismos financieros, como las ventas en corto o las compras en el margen, están prohibidos o son inexistentes en la práctica. En este trabajo se asumen mercados incompletos y se sugiere un procedimiento de análisis de riesgo que puede aplicarse toda vez que no sea posible replicar el riesgo del proyecto a partir de títulos transados en el mercado bursátil, específicamente en dos situaciones: cuando los inversionistas mantienen una cartera de inversiones diversificada y cuando los inversionistas son empresarios no diversificados. El primer caso es importante porque durante el pasado decenio se ha observado un aumento de la inversión directa extranjera en los países emergentes, de modo que algunos empresarios globales bien diversificados han colocado su dinero en estos mercados. El segundo caso es particularmente importante para los mercados emergentes donde una gran porción del total de empresas está integrada por negocios familiares o que son propiedad de un solo empresario no diversificado. En ambos casos se puede emplear una regla de inversión clara, como el valor presente neto, pero no existe un valor de mercado único para el proyecto. En el caso de los inversionistas globales bien diversificados es posible encontrar el valor del proyecto dentro de un rango de posibles valores; mientras que para los empresarios no diversificados lo que importa es el valor del proyecto dado el riesgo total que enfrentan.PALABRAS CLAVE: Evaluación de proyectos, mercado incompleto, análisis de riesgo. / "Project Valuation in Emerging Latin American Markets: The Case of Non-Diversified Entrepreneurs"TEXT:Traditional project valuation usually overlooks the important risk analysis process because it relies in the complete market assumption. In a complete market it will be possible to either find twin securities or elaborate a dynamic investment portfolio to replicate the project risk and payoff in every state of nature at any moment in the future. Furthermore, since one assumes well-diversified investors what matters is the project value as if it were traded in the capital market. Unfortunately, the assumption of complete markets hardly holds in reality, especially in emerging markets full of illiquid securities and where financial mechanisms such as short sales or buying on margin are prohibited or non-existent in practice. In this work one assumes incomplete markets and designs a risk analysis procedure that can be applied whenever there is no tradable benchmark in two situations: when investors hold a well-diversified investment portfolio and when investors are non-diversified entrepreneurs. The former case is important because during the last decade there has been an increase of foreign direct investment in emerging economies, so some global diversified entrepreneurs have put their money in these markets. The latter case is especially important for emerging markets where high proportions of total enterprises are family business or are owned by a single non-diversified entrepreneur. In either case it is possible to use a clear cut investment rule, such as the Net Present Value, but there is no a single market value for the project. In the case of global diversified investors it is just one possible value and for non-diversified entrepreneurs what matters is the project value given the project total risk that they face.KEYWORDS: Project valuation, incomplete market, risk analysis.
|
340 |
Incidencia de los recursos humanos en la cadena de suministroGómez Cedeño, Milena G. 23 January 2015 (has links)
La gestión de la cadena de suministro (SCM) es un crisol de diversas disciplinas, con influencias de la logística y el transporte, operaciones y materiales, distribución, así como compras y las tecnologías de la información. Se considera que la cadena de suministro (SC) es una mezcla 50/50 de infraestructura y tecnología, cuando más bien debería ser 45/45/10, como mezcla del comportamiento humano, tecnología e infraestructura. Además, se incide en esta idea, al considerar que muchas empresas se han centrado en mejoras tecnológicas y de infraestructura y que el siguiente paso debería enfocarse en las personas que gestionan la SC. Gattorna (2006)
La literatura existente considera la gestión de las personas en la SC como un área olvidada de investigación en el campo de estudio de la SCM (Nils-Ole Hohenstein et al., 2014). En consecuencia, la presente tesis doctoral se enmarca en esta brecha de investigación entre los campos de estudio de la SC y de los recursos humanos (RRHH), siendo el objetivo principal el de analizar la incidencia de los RRHH en la SCM. Unido al objetivo principal, también se propone conocer el efecto de los RRHH en el éxito de la cadena. Para la consecución de los objetivos establecidos, se han planteado tres contribuciones académicas que constituyen los capítulos relevantes. Así, esta tesis doctoral se presenta como un compendio de tres aportaciones, cada una de las cuales está enfocada a alcanzar determinados objetivos propuestos bajo diferentes estrategias metodológicas.
La primera contribución presenta un estudio bibliométrico sobre recursos humanos y cadena de suministro (HRSC), el cual se basa en un análisis en profundidad de los artículos localizados sobre HRSC, con el fin de identificar los aspectos relacionados con los métodos de investigación, áreas temáticas y las principales aportaciones de estas investigaciones. Los resultados de esta contribución justifican la importancia del HRSC.
El objetivo de la segunda contribución es conocer el efecto que ejerce la RRHH en la SCM y, a su vez, cómo ello incide en la satisfacción del cliente y en el desempeño empresarial. En esa dirección, se desarrolló un estudio empírico cuantitativo, a partir de una encuesta aplicada a empresas españolas, de la que se obtuvieron un total de 231 respuestas válidas. El contraste de las hipótesis se realizó a través de ecuaciones estructurales a partir de la técnica de mínimos cuadrados parciales (PLS). Los resultados de dicha contribución sugieren que una exitosa implementación de la SCM no sólo mejora directamente los resultados de la SC, sino que también indirectamente aumenta la satisfacción del cliente y el desempeño organizacional.
Por último, la tercera contribución presenta un estudio empírico cuantitativo con el objetivo de explorar las relaciones de cada una de las prácticas específicas de RRHH de forma desagregada (reclutamiento y selección, compensación y beneficios, estilo de la gestión comunicativa y formación y desarrollo) con la implementación y resultados de la SC. Para la validación de la parte empírica, se realizó una encuesta aplicada a empresas españolas. La contrastación de las hipótesis se realizó aplicando la PLS, para concluir que las prácticas de RRHH facilitan la implementación de la SC. Además, no sólo influyen en ésta de manera directa, sino que también, de manera indirecta, sobre los resultados de la SCM.
Finalmente, los diferentes hallazgos obtenidos en este trabajo proporcionan evidencia empírica a los investigadores y a las empresas de cómo deben ser gestionados los RRHH para facilitar el éxito de la SC. En consecuencia, la presente tesis doctoral supone una novedosa contribución al todavía incipiente campo de estudio que relaciona los RRHH con la SCM. / The investigations show that the SCM has emerged as a strategic organizational process that is driven by human interaction. Meanwhile, most companies recognize the importance of strategic management of their supply chains (SC), but there are few who believe that the success of this management is based on the performance of individuals in the chain.
In addition, the existing literature considers the management of people in the SC as a neglected research (Nils-Ole Hohenstein et al., 2014) area. Consequently, this thesis is part of this research gap between the fields of study of SC and human resources (HR), the main objective is to analyze the impact of human resources management chain supply (HRSC), with the intention of improving the performance of the same.
To achieve the stated objectives have been raised three scholarly contributions that constitute the relevant chapters of this research. Thus, this thesis is presented as a compendium of three injections, each of which is focused on achieving certain methodological strategies proposed under different objectives.
The first contribution presents a bibliometric study on HRSC, which is based on a thorough analysis of the articles located on HRSC, in order to identify aspects of the research methods used, subject areas studied and the main contributions of this research. The results of this contribution justify the importance of the study of HRSC.
The objective of the second contribution is to determine the effect that the management of human resources in the SC and, in turn, how this affects customer satisfaction and business performance. In this direction, a quantitative empirical study was developed from a survey of Spanish manufacturing firms, of which a total of 231 valid responses were obtained. The contrast of the hypothesis was based on the technique of partial least squares (PLS). The results of this contribution suggests that successful implementation of SCM (SCMI) not only directly enhances the performance of the SC, but also indirectly increases customer satisfaction and organizational performance.
Finally, the third contribution presents a quantitative empirical study in order to explore the relationships of each of the specific HR practices at a disaggregate with the implementation and results of the SC. Furthermore, not only influence it directly, but also, indirectly, on the outcome of the SCM.
|
Page generated in 0.05 seconds