• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 3
  • Tagged with
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

離散判別分析中燕數選取之研究

陳燕鑾, CHEN, YAN-LUAN Unknown Date (has links)
有關離散資料的判別分析問題,在各種應用領域內扮演著相當重要的角色。例如醫療 診斷、消費者購買行為之研究等等。然而在研究分析的過程當中,因為少數離散變數 (含二個以上的階數(level ))的增加即能引起狀態(state )的遽增,從而導致 模型建立的複雜性以及抽樣估計上種種難以克服的困難。因此在上述情況之下,對離 散判別模型之建立與分析的問題便特別值得我們重視。 本文基於此種需要,期能研究一些”最佳”變數組之尋求的方法並且找出各種方法的 適用狀況及優劣得失。最重要的是設計更優良迅速的電腦通式,以加強各種方法之使 用強度。 本文結構預計分五章討論: 第一章 緒論:將詳述研究動機及目的,並闡述本研究之結構與貢獻。 第二章 判別分析的基本理論:探討有關離散資料方面之判別分析法。 第三章 變數選取之理論與方法:最主要是探討Goldstein 與Rabinowitz〔1975 〕提出的以判別值距離為基礎之變數選取法,及Goldstein 和Dillon〔1977〕發 展的Forward 變數選取法,和兩者之優劣點。並改進原始程式,以應用在套裝軟體之 上。 第四章 模擬分析:利用模擬技術探討各方法的適用狀況。 第五章 結論:在此章將提出研究之結果。
2

JSWT+估計應用於線性迴歸變數選取之研究 / Variable Selection Based on JSWT+ Estimator for Linear Regression

王政忠, Wang,Jheng-Jhong Unknown Date (has links)
變數選取方法已經成為各領域在處理多維度資料的工具。Zhou與Hwang在2005年,為了改善James-Stein positive part估計量(JS+)只能在完全模型(full model)與原始模型(origin model)兩者去做挑選,建立了具有Minimax性質同時加上門檻值的估計量,即James-Stein with Threshoding positive part估計量(JSWT+)。由於JSWT+估計量具有門檻值,使得此估計量可以在完全模型與其線性子集下做變數選取。我們想進一步了解如果將JSWT+估計量應用於線性迴歸分析時,藉由JSWT+估計具有門檻值的性質去做變數選取的效果如何?本文目的即是利用JSWT+估計量具有門檻值的性質,建立JSWT+估計量應用於線性迴歸模型變數挑選的流程。建立模擬資料分析,以可同時做係數壓縮及變數選取的LASSO方法與我們所提出JSWT+變數選取的流程去比較係數路徑及變數選取時差異比較,最後將我們提出JSWT+變數選取的流程對實際資料攝護腺癌資料(Tibshirani,1996)做變數挑選。則當考慮解釋變數個數小於樣本個數情況下,JSWT+與LASSO在變數選取的比較結果顯示,JSWT+表現的比較好,且可直接得到估計量的理想參數。
3

Lasso顯著性檢定與向前逐步迴歸變數選取方法之比較 / A Comparison between Lasso Significance Test and Forward Stepwise Selection Method

鄒昀庭, Tsou, Yun Ting Unknown Date (has links)
迴歸模式的變數選取是很重要的課題,Tibshirani於1996年提出最小絕對壓縮挑選機制(Least Absolute Shrinkage and Selection Operator;簡稱Lasso),主要特色是能在估計的過程中自動完成變數選取。但因為Lasso本身並沒有牽扯到統計推論的層面,因此2014年時Lockhart et al.所提出的Lasso顯著性檢定是重要的突破。由於Lasso顯著性檢定的建構過程與傳統向前逐步迴歸相近,本研究接續Lockhart et al.(2014)對兩種變數選取方法的比較,提出以Bootstrap來改良傳統向前逐步迴歸;最後並比較Lasso、Lasso顯著性檢定、傳統向前逐步迴歸、以AIC決定變數組合的向前逐步迴歸,以及以Bootstrap改良的向前逐步迴歸等五種方法變數選取之效果。最後發現Lasso顯著性檢定雖然不容易犯型一錯誤,選取變數時卻過於保守;而以Bootstrap改良的向前逐步迴歸跟Lasso顯著性檢定一樣不容易犯型一錯誤,而選取變數上又比起Lasso顯著性檢定更大膽,因此可算是理想的方法改良結果。 / Variable selection of a regression model is an essential topic. In 1996, Tibshirani proposed a method called Lasso (Least Absolute Shrinkage and Selection Operator), which completes the matter of selecting variable set while estimating the parameters. However, the original version of Lasso does not provide a way for making inference. Therefore, the significance test for lasso proposed by Lockhart et al. in 2014 is an important breakthrough. Based on the similarity of construction of statistics between Lasso significance test and forward selection method, continuing the comparisons between the two methods from Lockhart et al. (2014), we propose an improved version of forward selection method by bootstrap. And at the second half of our research, we compare the variable selection results of Lasso, Lasso significance test, forward selection, forward selection by AIC, and forward selection by bootstrap. We find that although the Type I error probability for Lasso Significance Test is small, the testing method is too conservative for including new variables. On the other hand, the Type I error probability for forward selection by bootstrap is also small, yet it is more aggressive in including new variables. Therefore, based on our simulation results, the bootstrap improving forward selection is rather an ideal variable selecting method.

Page generated in 0.0283 seconds