• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 27
  • 1
  • Tagged with
  • 28
  • 28
  • 28
  • 28
  • 22
  • 16
  • 10
  • 9
  • 8
  • 8
  • 7
  • 7
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

相似性指數與卡方檢定之探討

歐陽致平 Unknown Date (has links)
適合度檢定(Goodness-of-fit Test)用於檢測觀察值是否符合某種特質,是統計學應用非常廣泛的檢定,其中卡方檢定(Chi-Squared Test)更是適合度檢定最常用的方法。卡方檢定廣受歡迎的原因之一在於其彈性,通常只要求分組後每一組觀察值的期望個數不少於5,若樣本較少需考慮併組,但如何併組至今仍無定論。本文即針對樣本數不足時,運用計算模擬的方法探討卡方適合度檢定,希冀研究結果可提供卡方適合度檢定併組的參考;另外,相似性指數(Similarity Indices)一般用於比較兩個母體的異同,使用上並不受限於觀察值期望個數的限制,我們也同時探討相似指數是否也可用於適合度檢定。 過去研究顯示當母體接近均勻分配時,適合度檢定或有較為不同特性,因此我們將研究分成當母體服從(或接近)均勻分配、或是幾何分配兩種情形。當母體接近均勻分配時,我們發現卡方適合度檢定並不受限於期望個數不大於5的限制,不考慮併組的卡方檢定的型一誤差符合顯著水準的要求,而且比併組的卡方檢定有更大的檢力(Power);然而,在母體服從幾何分配時,卡方檢定必須依賴併組以改善型一誤差。另外,我們也發現相似性指數確實在各種假設條件之下,檢定力皆不如併組修正的卡方檢定優越。
2

政策預期, 股價變動與匯率調整

林為中, LIN,WEI-ZHONG Unknown Date (has links)
本論文主要將Blandchard(1981)及朱美麗、曹添旺(1986)之論文加以拓展為民眾在有 政策預期的情況下,擴張性貨幣政策的采行對股價及匯率等有關的經濟變數的影響效 果。本文主要可分為五章,分別敘述如下: 第一章為序論,主要說明本文的特色與主旨。 第二章為模型分析,主要區分為兩節:第一節為模型分析所須的假定及理論模型的設 定;第二節為模型的解。主要分為長期均衡、動態調整路徑及向穩定均衡收斂的馬鞍 路徑等三個部分。 第三章為政府采行突發性貨幣干擾的影響效果分析。主要可分為三節加以說明:第一 節為長期效果分析;第二節為調整路徑;第三節為圖形說明。 第四章為本文重心所在。主要探討民眾在事先得知政府將于未來采行擴張性的貨幣政 策時,主要經濟變數如匯率及股價的調整路徑。主要分四節加以說明,第一節為調整 路徑;第二節為衝擊效果及動態調整路徑分析;第三節為電腦模擬分析;第四節為經 濟意義的解釋與說明。 第五章為結論。 #50002769 #50002769
3

雙重抽樣之貝氏最佳樣本與子樣本數選取的特例

梁淑真, LIANG, SHU-ZHEN Unknown Date (has links)
我們常常希望去估計一個大母體中各種不同領域內的參數值,而在抽樣實驗之前整個 母體無法被分層。當實驗的總預算有限,若選取一組簡單隨機樣本來估計這些母體參 數,可能不是一個佷嚴密的推定量,因此實驗者必須先決定一個有效、可行的抽樣方 法。 在本文中採取雙重抽樣的原理抽取樣本,而想要估計的母體參數是母體第j領域所佔 全母體的成數,並在固定的預算下討論貝氏最佳樣本與子樣本數的選取。 SMITH 及SEDRANSK(1982)利用雙重抽樣法研究魚群體的年齡組成,並解決了二 個問題(1)利用貝氏法,估算第j領域年齡的魚群所佔全體魚群的成數。(2)當 總預算固定,並給定第一階段樣本數n'及其分配 n' =(n' ,n' ,---n' ) 1 2 i 說明如何選取最佳的貝氏子樣本數分配,n*= n* ,n* ,---n* ) 使得近 1 2 i 似的風險函數r*(n',{ni'},{ni} 最小,其中 0≦ni≦ni'(i=1,2,---I) 而後JINN, SEDRANSK, SMITH(1987) 延續以上結果,利用電腦模擬取樣,在必 然的nL'≦n'≦nU' 條件下,說明如何取得最佳的n'使得 A(n')=En'ln'{r*(n',n',n。*)} 最小. 由於上述方法在一般情況下無法求得A(n') 的明確數學式,因此n'也就無法用式子表 示出來。 本文首先考慮I=2的特殊情況,在這情況下舉一些例子說明如何求得A(n') 的明確 數學式,並由此求出最佳的貝氏解n'。其次導出一些充分條件使得在忽略限制條件下 由LAGRANGE乘數法所得的解n=(n1,n2)分別滿足(1)0≦ni≦ni'或(2) ni≦ni'(i=1,2). 最後在(1) 或 (2)成立的充分條件下,導出A(n')的 數學式,進而求得最佳貝氏解n'。
4

台灣地震散群之研究

吳東陽 Unknown Date (has links)
九二一地震是台灣數十年來傷亡最大的地震,根據中央氣象局的研究發現九二一地震之後半年至一年內發生的地震,大多數都是由其引發的餘震,然而一個地震屬於主震、或是某個地震的餘震又該如何判斷呢?本文是以統計資料分析之觀點來區分主震與餘震,而不是利用相關地震學理論來區分主震與餘震,本文主要研究的是比較四種區分主震與餘震的方法:整體距離(Global Distance)、負相關(Negative Correlation)、最近鄰區(Nearest Neighbors)、視窗(Window)。四種地震散群方法所需要給定的參數:時間與空間參數,要如何選取與決定,本文則是利用台灣自1991年1月 1日至2003年12月31日之地震規模大於5.0以上的資料,定義地震減少比例(decreasing earthquake percent)來選取參數,以求出最適當的模型參數。套用選取得到的模型參數,利用電腦模擬地震來驗證比較方法的優劣,依據誤判主震(False Positive)、誤判餘震(False Negative)、分錯比例(Overall Error Rate)等準則比較各種地震散群方法的優劣,研究發現四種方法各有其優劣之處。 關鍵詞:主震、餘震、空間統計、最近鄰區、電腦模擬 / The Chi-Chi earthquake resulted in one of the greatest casualties for the past 100 years in Taiwan. According to the Central Weather Bureau in Taiwan, most of the earthquakes that occurred 6 months to 12 months after the Chi-Chi earthquake were the aftershocks. But in general, how do we classify if a certain earthquake is a main earthquake or aftershock? In this study, our interest is on the statistical methods for detecting whether an earthquake is a main earthquake. Four declustering methods are considered: Global Distance, Negative Correlation, Nearest Neighbors and Window. Taiwan earthquake data, with magnitude larger than 5 occurring between 1991 and 2003, were used to determine the parameters used in these four methods. Finally, a computer simulation is used to evaluate the performance of four methods, based on the results such as false positive and false negative, and overall Error Rate. Key Words: Decluster, Aftershock, Spatial Statistics, Nearest Neighbors, Simulation
5

電腦模擬與隨機方法在人口推估上的應用 / An Empirical Study of Simulation and Stochastic Methods on the Population Projections

郭孟坤, Kuo,MengKun Unknown Date (has links)
人口推估(Population Projection)涉及國家的政策及規劃,精確的結果可協助國家適時制訂政策,提高國民福祉。臺灣現在使用的方法為人口變動要素合成法(The Cohort Component Method),可算是情境推估(Scenario Forecast)的一種,其起源可追溯至1920年代(Whelpton, 1928),參酌專家意見之後,使用高、中、低三種推計來描述其變動範圍。除了情境推估外,近年在人口變動要素合成方法上發展出的新方法大致可以分成三種:一為隨機推估(Stochastic Forecast Method)、一為模擬情境(Random Scenario Method)、一為推估誤差(ex post Method),美國及聯合國已經不單單依賴專家提供的傳統高、中、低推計,轉而使用這些新的推估方法。 由於近年來生育率快速降低、平均餘命延長以及外籍新娘增多等因素,大為提高人口推估的難度,因此本文將機率的概念併入人口推估中,以預測區間(Prediction Interval)來捕捉人口各項特性的可能變動範圍。除了回顧幾種在人口變動要素合成法中發展出的隨機推估方法及合併專家意見的方針外,也使用區塊拔靴法(Block Bootstrap)電腦模擬,進行臺灣、美國、日本、法國四個國家的人口推估。另外,本文也採用以Stoto(1983)提出的預測誤差估計,評估區塊拔靴法和人力規劃處推估結果之異同,以提供使用專家意見與隨機方法的參考。最後則是比較臺灣以北中南東小區域推估和臺灣整體的推估結果,並合併專家意見進行臺灣地區人口推估。
6

結合專家意見與隨機方法:台灣生育率推估 / Combining Expert Opinion with Stochastic Forecast: A Study of Taiwan Fertility Projection

李政豫 Unknown Date (has links)
政府制訂與規劃政策,需要未來人口數或人口結構的資訊,以期能針對國家需求對症下藥;預測未來人口總數及人口結構通稱為人口推估(Population Projection),台灣的官方人口推估由行政院經濟建設委員會負責。人口推估通常使用人口變動要素合成法(The Cohort Component Method),根據現有人口總數及結構,加上對未來生育(Fertility)、死亡(Death)、遷移(Migration)三要素的預期,推估出未來的人口數及其結構;除了參考歷史資料外,目前三要素大多參考專家意見(Expert opinion)決定變動範圍。 在三要素之中,生育和遷移由於變動趨勢較大,較不容易以歷史資料找出趨勢,過去大多倚賴專家意見進行生育和遷移的假設。但專家意見也有蒐集上的疑慮,例如意見沒有固定的形成格式,推估結果也難以機率角度詮釋發生可能性,亦即推估數值大多不隨時間波動。為了彌補專家意見的不足,近年不少國家的人口推估使用隨機方法(Stochastic Methods),大致可分為三種:隨機推估法(Stochastic Forecast)、模擬情境法(Random Scenario Method)和推估誤差法(ex post Method),這三種方法可組合使用,例如Lutz (1995)合併隨機推估和模擬情境,而郭孟坤與余清祥(2008)則是以隨機推估和推估誤差的組合來進行推估,使隨機方法更具有彈性,適用於不同情境的人口推估。 本文目的在於結合專家意見與隨機方法,希冀綜合兩者的優點,提出適用於台灣的人口推估方法。首先,本文提出將專家方法數量化的幾種作法,配合德菲法蒐集專家意見,先以電腦模擬找出較佳的數量化方法;接著再參考由歷史資料及隨機方法(區塊拔靴法)得出的推估結果,分別以主觀角度、貝氏分析(Bayesian Analysis)和貝氏可信度(Bayesian Credibility)的角度進行加權平均,結合專家意見及隨機方法的推估。
7

挑三揀四--連續性搜尋的擇偶過程模擬

陳佳穎, Chen,Chia-ying Unknown Date (has links)
日常生活中,人們是如何挑選結婚對象的?隨著時代的演進,在現代社會中,婚姻配對已由傳統的「媒妁之言」轉變為「自由戀愛」的結合方式。不過,「自由戀愛」並非等同於完全的自由選擇或隨機配對,人們由於其特定的地位背景條件,是在一個特定的「候選對象群」中擇定配偶。本研究修正過去擇偶研究中「單一指標觀」的侷限,改採用「多重指標觀」來檢視人們的擇偶行為,主張個人之行為會遵循「理性選擇」原則,依據「多重指標」的擇偶條件,在候選對象群中進行「連續性搜尋」,歷經一番「挑三揀四」,篩選若干對象後,方能覓得伴侶。 本研究的目的,即是透過電腦模擬(simulation)的方式,以人們挑選伴侶時常用的五種偏好類型—一試定終身型、專挑極品型、面面俱顧型、差別偏好型、截長補短型做為基礎架構,分別模擬在婚姻市場中人們為了「覓得良緣」,所可能採取的不同挑選伴侶策略及搜尋結果,分析重點鎖定在以下兩點:一是持不同擇偶偏好類型的人,能夠成功覓得良緣的機會;以及若能成功覓得良緣,所需篩選的對象數量為何。此外,面對同樣一個婚姻市場,個人因其對「市場價格範圍」的掌握與否,也會發展出兩種不同類型的擇偶策略:經驗法則與門檻法則,本研究亦針對這兩種策略分別進行模擬分析。研究最後並為後續研究可行之方向,提出幾點建議,例如:與實證資料相互比對、與其他如婚姻品質、婚姻滿意度等之相關主題結合、進一步將「時間面向」納入模型結構等。 關鍵字:擇偶、連續性搜尋、婚姻配對、理性選擇、電腦模擬、婚姻市場 / How do people pick their “another half” in their daily life? People now have more and more freedom in choosing their spouses, unlike the situation before when arranged marriage was the main stream. However, choosing spouses freely doesn’t mean that they are free to choose whomever they like or they are matched randomly. People tend to select their spouses within a pool in which the “candidates” share similar backgrounds with them. In this study, people’s mate selecting process, previously analyzed with single indicator, is now examined with multiple indicators. This study suggests that people, who intent to find mates, would follow the rational choice principle, go through a sequential “picking and choosing” process with multiple spouse-choosing criteria, and find their spouses in the “candidate pool” finally. The purpose of this study is to explore the mate-selecting strategies and results with the technique of computer simulation, based on five principles of mate-selection preference people usually have. The five principles are 1) the immediately matching type, 2) the choosing for the best only type, 3) the deliberate type, 4) the individual diversity-admiring type, and 5) the compensatory type. The focuses of the analysis are twofold. Firstly, it looks into the chance of successfully finding a mate by people with different preference. Secondly, it tries to find out the number of “candidates” which are sifted out before people can make a final decision. Besides, although in the same marriage market, individuals tend to develop two types of searching strategies—rule of experience and rule of threshold—that depends on their grasp of the “range of the market price.” This study conducts simulation of the two rules. Moreover, the study also indicates some potential issues for following researches, for example, comparing the research outcomes with empirical data, combining topics such as the quality or satisfaction of marriage, and incorporating the “time” element in the simulation model. Keywords: mate-selection (or mate-searching), sequential searching process, assortative marriage, rational choice, computer simulation, marriage market
8

維度縮減應用於蛋白質質譜儀資料 / Dimension Reduction on Protein Mass Spectrometry Data

黃靜文, Huang, Ching-Wen Unknown Date (has links)
本文應用攝護腺癌症蛋白質資料庫,是經由表面強化雷射解吸電離飛行質譜技術的血清蛋白質強度資料,藉此資料判斷受測者是否罹患癌症。此資料庫之受測者包含正常、良腫、癌初和癌末四種類別,其中包括兩筆資料,一筆為包含約48000個區間資料(變數)之原始資料,另一筆為經由人工變數篩選後,僅剩餘779區間資料(變數)之人工處理資料,此兩筆皆為高維度資料,皆約有650個觀察值。高維度資料因變數過多,除了分析不易外,亦造成運算時間較長。故本研究目的即探討在有效的維度縮減方式下,找出最小化分錯率的方法。 本研究先比較分類方法-支持向量機、類神經網路和分類迴歸樹之優劣,再將較優的分類方法:支持向量機和類神經網路,應用於維度縮減資料之分類。本研究採用之維度縮減方法,包含離散小波分析、主成份分析和主成份分析網路。根據分析結果,離散小波分析和主成份分析表現較佳,而主成份分析網路差強人意。 本研究除探討以上維度縮減方法對此病例資料庫分類之成效外,亦結合線性維度縮減-主成份分析,非線性維度縮減-主成份分析網路,希望能藉重疊法再改善僅做單一維度縮減方法之病例篩檢分錯率,根據分析結果,重疊法對原始資料改善效果不明顯,但對人工處理資料卻有明顯的改善效果。 / In this paper, we study the serum protein data set of prostate cancer, which acquired by Surface-Enhanced Laser Desorption/Ionization Time-of-Flight Mass Spectrometry (SELDI-TOF-MS) technique. The data set, with four populations of prostate cancer patients, includes both raw data and preprocessed data. There are around 48000 variables in raw data and 779 variables in preprocessed data. The sample size of each data is around 650. Because of the high dimensionality, this data set provokes higher level of difficulty and computation time. Therefore, the goal of this study is to search efficient dimension reduction methods. We first compare three classification methods: support vector machine, artificial neural network, and classification and regression tree. And, we use discrete wavelet transform, principal component analysis and principal component analysis networks to reduce the data dimension. Then, we discuss the dimension reduction methods and propose overlap method that combines the linear dimension reduction method-principal component analysis, and the nonlinear dimension reduction method-principal component analysis networks to improve the classification result. We find that the improvement of overlap method is significant in the preprocessed data, but not significant in the raw data.
9

多重群集的偵測研究 / A study of methods for detecting multiple clusters

黃柏誠, Huang, Bo Cheng Unknown Date (has links)
檢測某些地區是否有較高的疾病發生率,亦即群集(Cluster)現象,是近年來空間統計(Spatial Statistics)在流行病學的主要應用之一,常見的偵測方法包括SaTScan (Kulldorff, 1995)及Spatial Scan Statistic (Li et al., 2011)。這些方法多半大都採用一次性偵測,也就是比較疑似群集之內外相對風險(Relative Risk),如此確實可提高計算效率,同時檢視所有疑似群集。然而,一次性偵測會受到群集外其他發生率較高群集的影響,對於相對風險較小群集的偵測能力過於保守(Zhang et al., 2010)。 本文以多重群集偵測為研究目標,以逐次分析的方式修正SaTScan等群集偵測方法,逐一篩選出發生率較高的顯著群集,並探討逐次分析在使用上的時機及限制。除了透過電腦模擬,測試逐次群集分析的改進效果,我們也分析臺灣地區的癌症死亡率,比較偵測結果的差異。研究發現,逐次群集偵測確實能提高相對風險較小群集的偵測能力,像是在相對風險不大於1.6的群集時尤其有效,但若相對風險大於1.6時,SaTScan的偵測能力不受多重群集的影響。 / Cluster detection, one of the major research topics in spatial statistics, has been applied to identify areas with higher incidence rates and is very popular in many fields such as epidemiology. Many famous cluster detection methods are proposed, such as SaTScan (Kulldorff, 1995) and Spatial Scan Statistic (Li et al., 2011). Most of these methods adapt the idea for comparing the relative risk inside and outside the suspected clusters. Although these methods are efficient computationally, clusters with smaller relative risk are not easy to be detected (Zhang et al, 2010). The goal of this study is to apply the idea of sequential search into SaTScan, in order to improve the power of detecting clusters with smaller relative risk, and to explore the limitation of sequential method. The computer simulation and empirical study (Taiwan cancer mortality data) are used to evaluate the sequential SaTScan. We found that the Sequential method can improve the power of cluster detection, especially effective for the cases where the clusters with relative risk not greater than 1.6. However, the sequential method also suffers from identifying false clusters.
10

超級市場結帳口服務系統之研究

陳志明, CHEN, ZHI-MING Unknown Date (has links)
壹、研究目的: 近年來我國經濟蓬勃發展,因此國民生活型態日趨多樣化與複雜 化,消費者一次購足一段期間生活必需品的需要由是產生。斯值此時,超級市場在國 民日常生活中所扮演的角色益形重要。是故,本研究乃針對超級市場之等待線設計及 服務品質進行研究,期能對超級市場業者之作業系統設計及品質管理有所助益。 貳、文獻探討: 本研究參考Parasuraman, Zeichamal及Berry 等提出之「服務業 品質的觀念性模式」加以修正而發展出品質模式。根據Maister 提出之「等待線之心 理假設」, 及Cooley, Ishikawa, Kristiansen及多篇等符線模擬之相關文獻,進行 等待線之探討。 參、研究方法: 本研究利用電腦模擬研究超級市場之人力、設備佈置與顧客等候 時間、設備利用率等變數之關係。並以問卷調查、統計檢定衡量消費者等待心理及消 費者預期服務品質與管理者對於服務品質認知之差距。 肆、研究內容: 以台北市為範圍,選取俱有代表性的典型超級市場為模擬對象, 進行實地調查。並依李克尺度設計問卷以了解服務品質屬性之重要性及屬性滿意度之 認知差距以人口統計變數對於各該項目之影響。 伍、研究結果: 本研究發現管理者對消費者自覺服務水準之認知與消費者接受服 務之感受存在頗大差距。此外,各超級市場之人力、設備普遍未能妥慎規劃。

Page generated in 0.0235 seconds