• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 77
  • 69
  • 8
  • Tagged with
  • 77
  • 77
  • 68
  • 67
  • 60
  • 34
  • 34
  • 34
  • 32
  • 30
  • 29
  • 25
  • 21
  • 17
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

考慮信用風險之可轉債評價研究

劉昶輝 Unknown Date (has links)
本論文將信用風險模型CreditGrades model延伸至可轉債評價。相對 Hung and Wang (2002) 與 Chambers and Lu (2007), 本文信用風險模型的設定較有經濟意涵。除了結構式模型(structural models) 本身就比縮減式模型 (reduced-form models) 較具經濟意涵外, 本文模型在股價愈低時, 發生違約的機率愈高, 與在真實世界公司股價愈低愈有可能發生違約的現象一致。但是 Hung and Wang (2002) 與Chambers and Lu (2007) 的設定隱含假設公司股價高低於皆不影響違約發生機率。Ayache, Forsyth and Vetzal (2003) 雖然將違約強度設定為股價的遞減函數, 試圖捕捉股價愈低違約機率愈高的現象。卻沒有說明如何估計該設定的參數。本文模型的參數校準容易而且快速。 / 本研究選用最小平方蒙地卡羅法(Least Square Monte Carlo, LSM) 進行評價。相對於樹狀法與有限差分法, 蒙地卡羅法能夠輕易評價具有路徑相依性質條款的可轉債。此外, 未來如果需要新增其它隨機因子, 比起樹狀法與有限差分法更有彈性。蒙地卡羅法的缺點為評價時間冗長, 本文以準隨機亂數(quasi-random sequences) 輔助, 縮短評價時間。 / 本文有以下發現:考慮信用風險的模型價格比起未考慮信用風險更接近市場價格; 可轉債對波動度較不敏感, 與Brennan and Schwartz (1988) 的觀察一致; 股價波動度愈大會使得可轉債價值提高, 但具有贖回條款的可轉債, 提高幅度不如沒有贖回條款的可轉債; 加入賣回條款的可轉債對利率較不敏感, 利率上升會降低可轉債的價值, 但具有賣回條款的可轉債, 下跌幅度小於沒有賣回條款的可轉債。
42

十年期累積計息利率連動債券與附部分保本之股權連結式自動贖回債券之研究

張世民 Unknown Date (has links)
日前由於金融海嘯的發生,導致全球金融市場對於結構債此種收益較高的商品存在眾多疑點,然而究其原因乃投資人無法正確地了解到自身的風險屬性,盲目地追求高收益率,反而造成投資結果不盡理想。本文將應用模型來推導商品的理論價格,並深入分析結構債可能帶來的風險與報酬。 本文兩個案商品之連動標的分別為利率與股權。第一個個案商品為英國勞埃德TSB銀行所發行之十年期累積計息利率連動債,在評價上將採用LIBOR市場模型,利用市場上既有的資料校準模型所需參數與期初遠期利率;此外由於本商品具有提前贖回特性,故將應用最小平方法蒙地卡羅來找出該商品發行之期初價格,並分別就發行機構探討其避險策略及投資人應注意的風險作深入分析。 第二個個案商品為摩根大通公司所發行之附部分保本之股權連結式自動贖回債券,利用對數常態股價模型及蒙地卡羅法評價出其理論價格,並針對發行機構可能面對之風險與避險策略作完整探討,最後就投資人之報酬及風險層面作詳盡地剖析。
43

股價指數報酬率厚尾程度之研究

李佳晏 Unknown Date (has links)
許多觀察到的時間序列資料,多呈現高峰厚尾(leptokurtic)的現象,本文引用時間序列資料為Paretian分配之假設,估計各個國家股價指數報酬率於不同頻率資料下之最大級數動差,以觀察其厚尾程度。實證結果發現,各個國家指數報酬率於不同頻率資料下之四級以上動差大部分存在,且不隨資料之頻率不同,而有不同的表現。由此可推論,各個國家股價指數報酬率之歷史分配,其離群值之活動並不嚴重。接著,利用樣本分割預測檢定(Sample Split Prediction Test)來檢定所觀察各個國家股價指數報酬率於同一樣本期間內,其左右尾之厚尾程度是否一致,及檢定所觀察各個國家指數報酬率於跨期間左尾或右尾之厚尾程度是否穩定。在同一樣本期間,檢定時間序列之左右尾之厚尾程度是否一致之檢定中,發現各個國家指數報酬率在所觀察樣本期間內,其左右尾之厚尾程度大致相同;而在跨期間之樣本分割預測檢定中,發現各個國家指數報酬率在像是1987年10月美國股市大崩盤、1990年至1991年間之波斯灣戰爭、1997年亞洲金融風暴等事件前後,其左(右)尾之厚尾程度有顯著差異。最後提出Cusum of Squares檢定,係用於檢定一時間序列資料在所觀察之樣本期間內,其非條件變異數是否為一常數。 Cusum of Squares檢定之檢定結果顯示,本文之各個國家指數報酬率在所觀察之樣本期間內,其非條件變異數並非為一常數。進一步觀察各個國家指數報酬率之Cusum of Squares圖,並綜合前述跨期間樣本分割預測檢定之結果,可推論在處理較長樣本期間之時間序列資料可能遇到結構性變動之情況時,跨期間之樣本分割預測檢定及Cusum of Squares檢定可提供結構性變動可能發生之時點。
44

信用卡與通貨需求之實證研究 / The empirical research between credit card and currency demand

梁婉麗, Liang, Woan Lih Unknown Date (has links)
晚近金融環境快速變化,金融商品不斷的開發及付款方式不斷的革新,逐漸改變消費者持有現金作為支付工具的習性,使得傳統上只用所得和利率來解釋貨幣需求函數已不太具解釋能力。因此本文將「金融創新」的影響納入貨幣需求函數。 本文實證的變數選擇方面,採用通貨和信用卡的使用分別代表貨幣需求和金融創新以作為分析的重點。實證方法方面,同時採用一般常用的「聯立方程式」-Johansen Procedure和「單迴歸方程式」-OLS、動態OLS(Saikkonen's OLS及Phillips and Loretan's NLS)及FM-OLS來估計信用卡和通貨的關係,並比較這些方法得出的結果。 實證結果比較,發現使用OLS所估計的係數值及圖型均較採用動態OLS及Johansen為佳。在OLS估計時,發現季節性虛擬變數對於估計有重要的影響。 由於使用OLS估計法,在變數為單根時,無法使用一般統計檢定係數顯著性,因此多加入FM-OLS和OLS實證結果的比較,以達能充分了解各變數對於通貨需求的真實影響。 採用FM-OLS實證結果,得到信用卡卡數cn、利率r和實質所得rgnp對於實質通貨淨額rcur的影響顯著,其估計值分別為-0.0025、-0.22與0.60左右。結果顯示當信用卡使用增加、利率增加與所得減少,均會減少通貨的持有,與理論相符。 在採用FM-OLS實證時,發現匯率ex對於通貨需求rcur的影響不顯著,與以往實證結果不符。推測可能原因為(1)通貨持有動機為交易目的,甚少當做投資的工具;(2)過去實證所選取的貨幣需求量為更廣義的M1A、M1B及M2。 第一章 導論 1 第一節 研究動機 1 第二節 研究方法與目的 4 第三節 研究架構 6 第二章 信用卡發展、意義及影響 7 第一節 信用卡的發展 7 第二節 信用卡的意義 9 第三節 信用卡對經濟的影響 11 第三章 貨幣需求理論與文獻回顧 14 第一節 貨幣需求理論 14 1.Baumol and Tobin存貨理論 14 2.Hafiz Akhand and Ross Milbourne 16 第二節 國外實證文獻 21 第三節 國內實證文獻 26 第四章 研究方法 33 第一節 單根檢定 33 1.ADF Test 33 2.Phillips-Perron Test 35 3.Perron Test 36 第二節 共積理論-Johansen Procedure估計法 39 第三節 動態OLS估計法 43 1.Saikkonen's OLS估計法 43 2.Phillips and Loretan's NLS估計法 44 第四節 Fully Modified OLS(FM-OLS)估計法 45 第五章 實證結果 48 第一節 資料說明與處理 48 第二節 單根檢定 50 第三節 Johansen Procedure估計法 53 第四節 OLS及動態OLS的估計及比較 63 1.OLS估計法 63 2.Saikkonen's OLS估計法 69 3.Phillips and Loretan's NLS估計法 78 4.小結 83 第五節 Johansen 與OLS估計結果比較 85 第六節 FM-OLS實證結果與OLS比較 87 第七節 本章實證結果 93 第六章 結論與建議 94
45

三向資料的主成分分析 / 3-way data principal component analysis

趙湘琪, Chao, Hsiang Chi Unknown Date (has links)
傳統的主成分分析(principal component analysis)法,只能分析二式二向的資料(2-mode 2-way data),若是要處裡三向三式的資料(3-mode 3-way data)或是更多維的資料,則必須用其它的方法。例如將某一向資料取平均數,再做分析。此法雖然可行,但卻忽略三向資料間可能潛藏的相關性。且社會科學的研究日趨複雜,三向資料也就更常見到,而我們可能也對三向資料間彼此的關聯感到興趣。因此在1960、1970年代,學者開始研究將主成分分析的模型加以擴展成適合分析三向資料的模型。本文除了介紹三向資料主成分分析所使用的Tucker3模型及其參數估計法外,也以28家股票上市公司為實例,探討資本結構影響因素於五年間(1989~1993年)在不同公司群組間的變化情形。
46

以最小平方法處理有限離散型條件分配相容性問題 / Addressing the compatibility issues of finite discrete conditionals by the least squares approach

李宛靜, Lee, Wan Ching Unknown Date (has links)
給定兩個有限離散型條件分配,我們可以去探討有關相容性及唯一性的問題。Tian et al.(2009)提出一個統合的方法,將相容性的問題轉換成具限制條件的線性方程系統(以邊際機率為未知數),並藉由 l_2-距離測量解之誤差,進而求出最佳解來。他們也提出了電腦數值計算法在檢驗相容性及唯一性時的準則。 由於 Tian et al.(2009)的方法是把邊際機率和為 1 的條件放置在線性方程系統中,從理論的觀點來看,我們認為該條件在此種做法下未必會滿足。因此,本文中將邊際機率和為 1 的條件從線性方程系統中抽離出來,放入限制條件中,再對修正後的問題求最佳解。 我們提出了兩個解決問題的方法:(一) LRG 法;(二) 干擾參數法。LRG 法是先不管機率值在 0 與 1 之間的限制,在邊際機率和為 1 的條件下,利用 Lagrange 乘數法導出解的公式,之後再利用 Rao-Ghangurde 法進行修正,使解滿足機率值在 0 與 1 之間的要求。干擾參數法是在 Lagrange 乘數法公式解中有關廣義逆矩陣的計算部份引進了微量干擾值,使近似的逆矩陣及解可快速求得。理論證明,引進干擾參數所增加的誤差不超過所選定的干擾值,易言之,由干擾參數法所求出的解幾近最佳解。故干擾參數法在處理相容性問題上,是非常實用、有效的方法。從進一步分析Lagrange 乘數法公式解的過程中,我們也發現了檢驗條件分配"理論"相容的充分條件。 最後,為了驗證 LRG 法與干擾參數法的可行性,我們利用 MATLAB 設計了程式來處理求解過程中的運算,並以 Tian et al.(2009)文中四個可涵蓋各種情況的範例來解釋說明處理的流程,同時將所獲得的結果和 Tian et al. 的結果做比較。 / Given two finite discrete conditional distributions, we could study the compatibility and uniqueness issues. Tian et al.(2009) proposed a unified method by converting the compatibility problem into a system of linear equations with constraints, in which marginal probability values are assumed unknown. It locates the optimum solution by means of the error of l_2 - discrepancy. They also provided criteria for determining the compatibility and uniqueness. Because the condition of sum of the marginal probability values being equal to one is in Tian et al.s’linear system, it might not be fulfilled by the optimum solution. By separating this condition from the linear system and adding into constraints, we would look for the optimum solution after modification. We propose two new methods: (1) LRG method and (2) Perturbation method. LRG method ignores the requirement of the probability values being between zero and one initially, it then uses the Lagrange multipliers method to derive the solution for a quadratic optimization problem subject to the sum of the marginal probability values being equal to 1. Afterward we use the Rao-Ghangurde method to modify the computed value to meet the requirement. The perturbation method introduces tiny perturbation parameter in finding the generalized inverse for the optimum solution obtained by the Lagrange multipliers method. It can be shown that the increased error is less than the perturbation value introduced. Thus it is a practical and effective method in dealing with compatibility issues. We also find some sufficient conditions for checking the compatibility of conditional distributions from further analysis on the solution given by Lagrange multipliers method. To show the feasibilities of LRG method and Perturbation method, we use MATLAB to device a program to conduct them. Several numerical examples raised by Tian et al.(2009) in their article are applied to illustrate our methods. Some comparisons with their method are also presented.
47

粒子群最佳化演算法於估測基礎矩陣之應用 / Particle swarm optimization algorithms for fundamental matrix estimation

劉恭良, Liu, Kung Liang Unknown Date (has links)
基礎矩陣在影像處理是非常重要的參數,舉凡不同影像間對應點之計算、座標系統轉換、乃至重建物體三維模型等問題,都有賴於基礎矩陣之精確與否。本論文中,我們提出一個機制,透過粒子群最佳化的觀念來求取基礎矩陣,我們的方法不但能提高基礎矩陣的精確度,同時能降低計算成本。 我們從多視角影像出發,以SIFT取得大量對應點資料後,從中選取8點進行粒子群最佳化。取樣時,我們透過分群與隨機挑選以避免選取共平面之點。然後利用最小平方中值表來估算初始評估值,並遵循粒子群最佳化演算法,以最小疊代次數為收斂準則,計算出最佳之基礎矩陣。 實作中我們以不同的物體模型為標的,以粒子群最佳化與最小平方中值法兩者結果比較。實驗結果顯示,疊代次數相同的實驗,粒子群最佳化演算法估測基礎矩陣所需的時間,約為最小平方中值法來估測所需時間的八分之一,同時粒子群最佳化演算法估測出來的基礎矩陣之平均誤差值也優於最小平方中值法所估測出來的結果。 / Fundamental matrix is a very important parameter in image processing. In corresponding point determination, coordinate system conversion, as well as three-dimensional model reconstruction, etc., fundamental matrix always plays an important role. Hence, obtaining an accurate fundamental matrix becomes one of the most important issues in image processing. In this paper, we present a mechanism that uses the concept of Particle Swarm Optimization (PSO) to find fundamental matrix. Our approach not only can improve the accuracy of the fundamental matrix but also can reduce computation costs. After using Scale-Invariant Feature Transform (SIFT) to get a large number of corresponding points from the multi-view images, we choose a set of eight corresponding points, based on the image resolutions, grouping principles, together with random sampling, as our initial starting points for PSO. Least Median of Squares (LMedS) is used in estimating the initial fitness value as well as the minimal number of iterations in PSO. The fundamental matrix can then be computed using the PSO algorithm. We use different objects to illustrate our mechanism and compare the results obtained by using PSO and using LMedS. The experimental results show that, if we use the same number of iterations in the experiments, the fundamental matrix computed by the PSO method have better estimated average error than that computed by the LMedS method. Also, the PSO method takes about one-eighth of the time required for the LMedS method in these computations.
48

三焦張量在多視角幾何中的計算與應用 / Computation and Applications of Trifocal Tensor in Multiple View Geometry

李紹暐, Li, Shau Wei Unknown Date (has links)
電腦視覺三維建模的精確度,仰賴影像中對應點的準確性。以前的研究大多採取兩張影像,透過極線轉換(epipolar transfer)取得影像間基礎矩陣(fundamental matrix)的關係,然後進行比對或過濾不良的對應點以求取精確的對應點。然極線轉換存在退化的問題,如何避免此退化問題以及降低兩張影像之間轉換錯誤的累積,成為求取精確三維建模中極待解決的課題。 本論文中,我們提出一套機制,透過三焦張量(trifocal tensor)的觀念來過濾影像間不良的對應點,提高整體對應點的準確度,從而能計算較精確的投影矩陣進行三維建模。我們由多視角影像出發,先透過Bundler求取對應點,然後採用三焦張量過濾Bundler產生的對應點,並輔以最小中值平方法(LMedS)提升選點之準確率,再透過權重以及重複過濾等機制來調節並過濾對應點,從而取得精確度較高的對應點組合,最後求取投影矩陣進行電腦視覺中的各項應用。 實作中,我們測詴了三組資料,包含一組以3ds Max自行建置的資料與兩組網路中取得的資料。我們先從三張影像驗證三焦張量的幾何特性與其過濾對應點的可行性,再將此方法延伸至多張影像,同樣也能證實透過三焦張量確實能提升對應點的準確度,甚至可以過濾出輸入資料中較不符合彼此間幾何性的影像。 / The accuracy of 3D model constructions in computer vision depends on the accuracy of the corresponding points extracted from the images. Previous studies in this area mostly use two images and compute the fundamental matrix through the use of the epipolar geometry and then proceed for corresponding point matching and filtering out the outliers in order to get accurate corresponding points. However, the epipoler transform suffers from the degenerate problems and, also, the accumulated conversion errors during the corresponding matches both will degrade the model accuracy. Solving these problems become crucial in reconstructing accurate 3D models from multiple images. In this thesis, we proposed a mechanism to obtain accurate corresponding points for 3D model reconstruction from multiple images. The concept of trifocal tensor is used to remove the outliers in order to improve the overall accuracy of the corresponding points. We first use Bundler to search the corresponding points in the feature points extracted from multiple view images. Then we use trifocal tensor to determine and remove the outliers in the corresponding points generated by Bundler. LMedS is used in these processes to improve the accuracy of the selected points. One can also improve the accuracy of the corresponding points through the use of weighting function as well as repeated filtering mechanism. With these high precision corresponding points, we can compute more accurate fundamental matrix in order to reconstruct the 3D models and other applications in computer vision. We have tested three sets of data, one of that is self-constructed data using the 3ds Max and the other two are downloaded from the internet. We started by demonstrating the geometric properties of trifocal tensor associated with three images and showed that it can be used to filter out the bad corresponding points. Then, we successfully extended this mechanism to more images and successfully improved the accuracy of the corresponding points among these images.
49

考慮信用風險及Lévy過程之可轉換公司債評價 / Valuation of Convertible Bond under Lévy process with Default Risk 指導教授:廖四郎 博士 研究生:李嘉晃 撰 中華

李嘉晃, Chia-Huang Li Unknown Date (has links)
由於違約事件不斷發生以及在財務實證上顯示證券的報酬率有厚尾與高狹峰的現象,本文使用縮減式模型與Lévy過程來評價有信用風險下的可轉換公司債。在Lévy過程中,本研究假設股價服從NIG及VG模型,發現此兩種模型比傳統的GBM模型更符合厚尾現象。此外,在Lévy過程參數估計方面,本文使用最大概似法估計參數,在評價可轉換公司債方面,本研究採用最小平方蒙地卡羅法。本文之實證結果顯示,Lévy模型的績效比傳統GBM模型佳。 / Due to the reason that the default events occurred constantly and still continue taking place, empirical log return distributions exhibit fat tail and excess kurtosis, this paper evaluates convertible bonds under Lévy process with default risk using the reduced-form approach. Under the Lévy process, the underlying stock prices are set to be normal inverse Gaussian (NIG) and variance Gamma (VG) model to capture the jump components. In the empirical analysis, we use the maximum likelihood method to estimate the parameters of Lévy distributions, and apply the least squares Monte Carlo Simulation to price convertible bonds. Five examples are shown in pricing convertible bonds using the traditional model and Lévy model. The empirical results show that the performance of Lévy model is better than the traditional one.
50

可贖回雪球式商品的評價與避險

曹若玹 Unknown Date (has links)
本文採用Lognormal Forward LIBOR Model (LFM) 利率模型,針對可贖回雪球式債券進行相關的評價與避險分析,而由於此商品的計息方式為路徑相依型態,價格沒有封閉解,故必須利用數值方法來進行評價。過去通常使用二元樹或三元樹的方法來評價具有可贖回特性的商品,但因為LFM是屬於多因子模型,所以不容易處理建樹的過程。而一般路徑相依商品的評價是使用蒙地卡羅法來進行,但是標準的蒙地卡羅法不易處理美式或百慕達式選擇權的問題,因此,本研究將使用由Longstaff and Schwartz(2001)所提出的最小平方蒙地卡羅法,來處理同時具有可贖回與路徑相依特性的商品評價並進行實證研究。 / 此外,關於可贖回商品的避險參數部分,由於商品的價格函數不具有連續性,若在蒙地卡羅法之下直接使用重新模擬的方式來求算避險參數,將會造成不準確的結果,而Piterbarg (2004)提出了兩種可用來計算在LFM下可贖回商品避險參數的方法,其實証結果發現所求出的避險參數結果較準確,因此本研究將此方法運用至可贖回雪球式利率連動債券,並分析各種參數變化對商品價格的影響大小,便於進行避險工作。

Page generated in 0.0377 seconds