• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 16
  • 14
  • 2
  • Tagged with
  • 16
  • 16
  • 16
  • 8
  • 8
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

多元自迴歸條件異質變異數之模型設定研究

欉清全, Genius Tung Unknown Date (has links)
經濟理論明白揭示,在不確定下,金融性資產的選擇不僅要考慮其未來報 酬率的平均值,更需將風險程度納入決策過程中。而最佳風險測度為預測 誤差的變異數(Variance of Forec ast Error)。傳統實証方法均視變異 數為固定常數,實無法掌握變異數具有條件異質性的特點。為了到達此目 的,Engle(1982) 提出向量自迴歸條件異質變異數(ARCH)模型,此模型假 定條件變異數不再是固定常數而是過去干擾項平方的線型函數,為實証方 法上一項偉大的突破。在考慮多個變數的聯立動態體系中,由於跨方程式 間可以互相提供額外的訊息,往往可以增加估計的效率性,直覺上比單變 數的設定更能掌握資料的實際情形。故往後的學者便提出了多元自迴歸條 件異質變異數(Multivariate ARCH) 模型,此一模型亦有其缺點存在,因 其待估計參數過多,形成自由度嚴重減少,將導致估計值缺乏效率性。所 以如何利用可獲得的有限資料對模型進行更有效率的估計方式,此為研究 Multivaria te ARCH的重要課題。本文將對Multivariate ARCH做一系列 的介紹,並利用VAR 的貝氏方法對參數進行估計。而多元因素AR CH模型 也是探討的重點。
12

變數轉換之穩健迴歸分析

張嘉璁 Unknown Date (has links)
在傳統的線性迴歸分析當中,當基本假設不滿足時,有時可考慮變數轉換使得資料能夠比較符合基本假設。在眾多的轉換方法當中,以Box和Cox(1964)所提出的乘冪轉換(Box-Cox power transformation)最為常用,乘冪轉換可將某些複雜的系統轉換成線性常態模式。然而當資料存在離群值(outlier)時,Box-Cox Transformation會受到影響,因此不是一種穩健方法。 在本篇論文當中,我們利用前進演算法(forward search algorithm)求得最小消去平方估計量(Least trimmed squares estimator),在過程當中估計出穩健的轉換參數。
13

混合型資料下之單位根檢定研究:平均概似比統計量之建立與模擬 / Panel Unit Root Test

邱惠玉, Chiu, Huei-Yu Unknown Date (has links)
自Nelson和Plosser (1982)後,研究經濟資料是否具有單位根現象,已成為近二十年來熱門且重要的課題。因 為資料性質的不同(恆定或非恆定),對實證計量模型的設定、統計推論以及原理論的發展有深遠的影響。與傳 統探討單一時間數列之單位根的論文不同的是,本篇論文將橫斷面的資料擴大,探討混合型資料的單位根現象 ( Panel Unit Root )。就此課題,文獻上已有兩個不同的檢定方法: Levin、Lin和Chu (1997)的LLC檢定法以及Im、 Pesaran和Shin (1995)的IPS檢定法。 我們的研究,有別於以上兩者,是從「概似比」的角度(likelihood ratio) 和應用檢定共積關係的Johansen (1988)「Trace檢定」,建構新的單位根檢定統計量。首先於文中推導出,「Trace檢定」可用於檢測單一時間數 列的單位根現象。進而,再將橫斷面資料擴大,採用mean group方法,加總平均每個橫斷面時間數列的「Trace 檢定」統計量,形成混合型資料之單位根檢定統計量 。根據中央極限定理,標準化後的 檢定統計量,極限上 收斂至標準常態分配。此外,我們也推導得出 檢定統計量與傳統ADF、LLC以及IPS檢定統計量極限上的關係。 最後,我們以「蒙地卡羅」模擬方法,分析小樣本下「型一誤差」與「檢定力」的表現。發現新的混合型資 料之單位根檢定統計量表現優良,近似於標準常態分配。故在做混合型資料的單位根分析時,採用 檢定統計 量,可得到較精確的推論。
14

複迴歸係數排列檢定方法探討 / Methods for testing significance of partial regression coefficients in regression model

闕靖元, Chueh, Ching Yuan Unknown Date (has links)
在傳統的迴歸模型架構下,統計推論的進行需要假設誤差項之間相互獨立,且來自於常態分配。當理論模型假設條件無法達成的時候,排列檢定(permutation tests)這種無母數的統計方法通常會是可行的替代方法。 在以往的文獻中,應用於複迴歸模型(multiple regression)之係數排列檢定方法主要以樞紐統計量(pivotal quantity)作為檢定統計量,進而探討不同排列檢定方式的差異。本文除了採用t統計量這一個樞紐統計量作為檢定統計量的排列檢定方式外,亦納入以非樞紐統計量的迴歸係數估計量b22所建構而成的排列檢定方式,藉由蒙地卡羅模擬方法,比較以此兩類檢定方式之型一誤差(type I error)機率以及檢定力(power),並觀察其可行性以及適用時機。模擬結果顯示,在解釋變數間不相關且誤差分配較不偏斜的情形下,Freedman and Lane (1983)、Levin and Robbins (1983)、Kennedy (1995)之排列方法在樣本數大時適用b2統計量,且其檢定力較使用t2統計量高,但差異程度不大;若解釋變數間呈現高度相關,則不論誤差的偏斜狀態,Freedman and Lane (1983)、Kennedy (1995) 之排列方法於樣本數大時適用b2統計量,其檢定力結果也較使用t2統計量高,而且兩者的差異程度比起解釋變數間不相關時更加明顯。整體而言,使用t2統計量適用的場合較廣;相反的,使用b2的模擬結果則常需視樣本數大小以及解釋變數間相關性而定。 / In traditional linear models, error term are usually assumed to be independently, identically, normally distributed with mean zero and a constant variance. When the assumptions cannot meet, permutation tests can be an alternative method. Several permutation tests have been proposed to test the significance of a partial regression coefficient in a multiple regression model. t=b⁄(se(b)), an asymptotically pivotal quantity, is usually preferred and suggested as the test statistic. In this study, we take not only t statistics, but also the estimates of the partial regression coefficient as our test statistics. Their performance are compared in terms of the probability of committing a type I error and the power through the use of Monte Carlo simulation method. Situations where estimates of the partial regression coefficients may outperform t statistics are discussed.
15

變數轉換之離群值偵測 / Detection of Outliers with Data Transformation

吳秉勳, David Wu Unknown Date (has links)
在迴歸分析中,當資料中存在很多離群值時,偵測的工作變得非常不容易。 在此狀況下,我們無法使用傳統的殘差分析正確地偵測出其是否存在,此現象稱為遮蔽效應(The Masking Effect)。 而為了避免此效應的發生,我們利用最小中位數穩健迴歸估計值(Least Median Squares Estimator)正確地找出這些群集離群值,此估計值擁有最大即50﹪的容離值 (Breakdown point)。 在這篇論文中,用來求出最小中位數穩健迴歸估計值的演算法稱為步進搜尋演算法 (the Forward Search Algorithm)。 結果顯示,我們可以利用此演算法得到的穩健迴歸估計值,很快並有效率的找出資料中的群集離群值;另外,更進一步的結果顯示,我們只需從資料中隨機選取一百次子集,並進行步進搜尋,即可得到概似的穩健迴歸估計值並正確的找出那些群集離群值。 最後,我們利用鐘乳石圖(Stalactite Plot)列出所有被偵測到的離群值。 在多變量資料中,我們若使用Mahalanobis距離也會遭遇到同樣的屏蔽效應。 而此一問題,隨著另一高度穩健估計值的採用,亦可迎刃而解。 此估計值稱為最小體積橢圓體估計值 (Minimum Volume Ellipsoid),其亦擁有最大即50﹪的容離值。 在此,我們也利用步進搜尋法求出此估計值,並利用鐘乳石圖列出所有被偵測到的離群值。 這篇論文的第二部分則利用變數轉換的技巧將迴歸資料中的殘差項常態化並且加強其等變異的特性以利後續的資料分析。 在步進搜尋進行的過程中,我們觀察分數統計量(Score Statistic)和其他相關診斷統計量的變化。 結果顯示,這些統計量一起提供了有關轉換參數選取豐富的資訊,並且我們亦可從步進搜尋進行的過程中觀察出某些離群值對參數選取的影響。 / Detecting regression outliers is not trivial when there are many of them. The methods of using classical diagnostic plots sometimes fail to detect them. This phenomenon is known as the masking effect. To avoid this, we propose to find out those multiple outliers by using a highly robust regression estimator called the least median squares (LMS) estimator which has maximal breakdown point. The algorithm in search of the LMS estimator is called the forward search algorithm. The estimator found by the forward search is shown to lead to the rapid detection of multiple outliers. Furthermore, the result reveals that 100 repeats of a simple forward search from a random starting subset are shown to provide sufficiently robust parameter estimators to reveal multiple outliers. Finally, those detected outliers are exhibited by the stalactite plot that shows greatly stable pattern of them. Referring to multivariate data, the Mahalanobis distance also suffers from the masking effect that can be remedied by using a highly robust estimator called the minimum volume ellipsoid (MVE) estimator. It can also be found by using the forward search algorithm and it also has maximal breakdown point. The detected outliers are then displayed in the stalactite plot. The second part of this dissertation is the transformation of regression data so that the approximate normality and the homogeneity of the residuals can be achieved. During the process of the forward search, we monitor the quantity of interest called score statistic and some other diagnostic plots. They jointly provide a wealth of information about transformation along with the effect of individual observation on this statistic.
16

排列檢定法應用於空間資料之比較 / Permutation test on spatial comparison

王信忠, Wang, Hsin-Chung Unknown Date (has links)
本論文主要是探討在二維度空間上二母體分佈是否一致。我們利用排列 (permutation)檢定方法來做比較, 並藉由費雪(Fisher)正確檢定方法的想法而提出重標記 (relabel)排列檢定方法或稱為費雪排列檢定法。 我們透過可交換性的特質證明它是正確 (exact) 的並且比 Syrjala (1996)所建議的排列檢定方法有更高的檢定力 (power)。 本論文另提出二個空間模型: spatial multinomial-relative-log-normal 模型 與 spatial Poisson-relative-log-normal 模型 來配適一般在漁業中常有的右斜長尾次數分佈並包含很多0 的空間資料。另外一般物種可能因天性或自然環境因素像食物、溫度等影響而有群聚行為發生, 這二個模型亦可描述出空間資料的群聚現象以做適當的推論。 / This thesis proposes the relabel (Fisher's) permutation test inspired by Fisher's exact test to compare between distributions of two (fishery) data sets locating on a two-dimensional lattice. We show that the permutation test given by Syrjala (1996} is not exact, but our relabel permutation test is exact and, additionally, more powerful. This thesis also studies two spatial models: the spatial multinomial-relative-log-normal model and the spatial Poisson-relative-log-normal model. Both models not only exhibit characteristics of skewness with a long right-hand tail and of high proportion of zero catches which usually appear in fishery data, but also have the ability to describe various types of aggregative behaviors.

Page generated in 0.0297 seconds