• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • 6
  • 2
  • Tagged with
  • 8
  • 8
  • 5
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

處理含有雜訊之點雲骨架的生成 / Dealing with Noisy Data for the Generation of Point Cloud Skeletons

林逸芃, Lin, Yi Peng Unknown Date (has links)
一個視覺物體或一個三維模型的骨架,是一種可以揭示該物體或模型的拓樸結構的呈現方式,因此骨架可以被應用在諸多場合當中,例如形狀分析和電腦動畫。近年來,有許多針對從一個物體當中抽取骨架的研究工作。然而,大多數的研究著重於完整和乾淨的資料(儘管這些研究當中,有一些有將缺失值考慮在內),但在實務上,我們經常要處理不完整和不潔淨的資料,就像資料裡面可能有缺失值和雜訊。在本論文中,我們研究雜訊處理,而且我們將焦點放在針對帶有雜訊的點雲資料進行前置處理,以便生成相應物體的骨架。在我們提出的方法當中,我們首先識別可能帶有雜訊的資料點,然後降低雜訊值的影響。為了識別雜訊,我們將監督式學習用在以密度和距離作為特徵的資料上。為了降低雜訊值的影響,我們採用三角形表面和投影。這個前置處理方法是有彈性的,因為它可以搭配任何能夠從點雲資料當中抽取出物體的骨架的工具。我們用數個三維模型和多種設定進行實驗,而結果顯示本論文所提出的前置處理方法的有效性。與未經處理的模型(也就是原始模型加上雜訊)相比,在從帶有雜訊的點雲資料當中產生物體的骨架之前,如果我們先使用本論文所提出的前置處理方法,那麼我們可以得到一個包含更多原來的物體的拓撲特徵的骨架。我們的貢獻如下:第一,我們展示了機器學習可以如何協助電腦圖學。第二、針對雜訊識別,我們提出使用距離和密度做為學習過程中要用的特徵。第三、我們提出使用三角表面和投影,以減少在做雜訊削減時所需要花費的時間。第四、本論文提出的方法可以用於改進三維掃描。 / The skeleton of a visual object or a 3D model is a representation that can reveal the topological structure of the object or the model, and therefore it can be used in various applications such as shape analysis and computer animation. Over the years there have been many studies working on the extraction of the skeleton of an object. However, most of those studies focused on complete and clean data (even though some of them took missing values into account), while in practice we often have to deal with incomplete and unclean data, just as there might be missing values and noise in data. In this thesis, we study noise handling, and we put our focus on preprocessing a noisy point cloud for the generation of the skeleton of the corresponding object. In the proposed approach, we first identify data points that might be noise and then lower the impact of the noisy values. For identifying noise, we use supervised learning on data whose features are density and distance. For lowering the impact of the noisy values, we use triangular surfaces and projection. The preprocessing method is flexible, because it can be used with any tool that can extract skeletons from point clouds. We conduct experiments with several 3D models and various settings, and the results show the effectiveness of the proposed preprocessing approach. Compared with the unprocessed model (which is the original model with the added noise), if we apply the proposed preprocessing approach to a noisy point cloud before using a tool to generate the skeleton, we can obtain a skeleton that contains more topological characteristics of the model. Our contributions are as follows: First, we show how machine learning can help computer graphics. Second, we propose to use distance and density as features in learning for noise identification. Third, we propose to use triangular surfaces and projection to save execution time in noise reduction. Fourth, the proposed approach could be used to improve 3D scanning.
2

依理性預期理論論我國承銷制度 / A Rational Expectation Equilibrium Theory of Initial Public Offerings

蔡柳卿, Tsai, Liuo Chin Unknown Date (has links)
鑑於我國現行承銷制度下新上市股票上市後的股價行為異於尋常(如蜜月期的問題),故本研究的目的在於以理性預期均衡理論及其他相關理論來探討新上市股票股價的問題,進而由理論中對資訊與股價之關係的推論來評議我國目前新上市股票承銷制度及股市的資訊環境。   新上市股票最重要的經濟特質在於上市前鮮為人知,其公司原始股東與上市後潛在股東間存在一個嚴重的資訊不對稱問題,證管會特以公開說明書為工具,藉此公開公司原始舊股東所持有之優越資訊,以解決此種資訊不對稱的情況。就理論上而言,一個合理的承銷制度應能令投資者「所付等於所值」,其上市後的第一個均衡價應等於承銷價,且其上市後的股價行為應與相關資訊呈系統化的關係。然而從實證的資料與分析結果顯示,我國新上市股票股價行為(包括承銷價)具異常性,根據理性預期均衡理論,這種異常股價行為歸因於股價與公開說明書上的財務資訊不具系統化的關係,亦即投資者間異質性的預期、投資者的變現性需求、及財務資訊之收集、分析與解釋成本過高(就個別投資人而言)所致的雜訊主導了這種異常的股價行為,故可謂目前的新上市股票承銷制度功能不彰,其合理性仍嫌不足。   現行新上市股票承銷制度下係規範公開說明書的財務報表需經會計師簽證,而其他資訊則需由承銷商以盡專業注意的方式來確認資訊之公開與忠實表達,若有不實表達處再課以法律責任。本研究以為這種資訊不對稱的解決設計,其運作之良窳尚有賴資訊環境的配合,故擬發展「資訊環境理論」,以說明強化財務資訊收集、分析與解釋的功能,或降低個別投資人對此類資訊的搜尋成本,可因而降低投資者異質性預期與變現性需求所產生的雜訊。其次本研究以為,為使公開財務資訊具品質保證與齊一性,並促使財務資訊環境更能有效運作,除可賦予法律責任外,藉由自律規範對承銷商之專業注意力與職業道德加以規範已屬必要。據此,更發展了「最低承銷品質理論」,透過此二理論的發展,以強化目前承銷制度的功能。
3

Use of Partial Cumulative Sum to Detect Trends and Change Periods in Time Series Analysis with Fuzzy Statistics

陳力揚 Unknown Date (has links)
轉折點與趨勢的研究在時間數列分析、經濟與財務領域裡一直是重要的研究主題。隨著所欲研究的物件之結構複雜性日益增加,再加上人類的知識語言因人類本身的主觀意識、不同時間、環境的變遷與研判事件的角度等條件下,可能使得所蒐集到的時間數列資料具某種程度的模糊性。為此,Zadeh[1965]提出了模糊理論,專門解決這一類的問題。在討論時間數列分析中的轉折點與趨勢問題時,常常會遇到時間數列的轉折過程緩慢且不明顯的情況。因此傳統的轉折點研究方法在這種情形下便顯得不足。對此,許多學者提出了轉折區間的概念。然而轉折區間的概念仍然存在一個潛在的困擾:在一個小的時間區間下,一個被認定的轉折區間可能在時間區間拉得很長的情況下,被視為是一個不重要的擾動或雜訊。本文嘗試藉由模糊統計量,提出一個轉折區間與趨勢的偵測方法。與其他轉折區間偵測法不同的是我們所提的方法能藉由控制參數,偵測到合乎使用者需求的轉折區間,進而找到一個趨勢的起點與終點。藉此避免把雜訊當成轉折區間或把轉折區間當成雜訊的困擾。因為使用了模糊統計量,同時也解決了資料的模糊性問題。 / Because the structural change of a time series from one pattern to another may not switch at once but rather experience a period of adjustment time, conventional change points detection may be inappropriate to apply under this circumstance. Furthermore, changes in time series often occur gradually so that there is a certain amount of fuzziness in the change point. For this, many research have focused on the theory of change periods detection for a better model to fit. However, a change period in some small observation time interval may seem a neglectable noise in a larger observation time interval. In this paper, we propose an approach to detect trends and change periods with fuzzy statistics through using partial cumulative sum. By controlling the parameters, we can filter the noises and find out suitable change periods. With the change periods, we can further find the trends in a time series. Finally, some simulated data and empirical examples are studied to test our approach. Simulation and empirical results show that the performance of our approach is satisfactorily successful.
4

資訊遺漏與雜訊對企業盈虧預測範例學習系統衰減與干擾效果之研究

陳炎欽 Unknown Date (has links)
範例學習(Learning-from-Example, LFE)技術的發展,在人工智慧發展領域中,已成功地突破關於知識萃取的瓶頸,並廣泛地應用到諸多評估或預測模式以及專家系統的建立。在本研究中,以台灣上市公司歷年來的財務報表資訊,進行企業盈虧的預測,並探討判斷個案申出現資訊遺漏與雜訊時,對範例學習系統在企業盈虧預測所產生之影響。主要的影響分別為預測績效的衰減(attenuating)與干擾(disturbing)兩類。本研究並藉由「資料預先處理轉換」及「修正系統演算法」兩方面著手,來避兔或減少上述現象發生時,對範例學習系統在企業盈虧預測績效所造成之影響。 因此本研究主要以民國七十五年到八十四年期間,共十五項大小產業之股票上市公司財務報表及股價報酬等資料作為研究樣本,整體市場共計有3199筆樣本資料。而研究的進行可分為實驗設計階段以及實証資料測試階段。 實驗設計階段中,將探討當建樹或預測之資料含有資訊遺漏與雜訊時,對企業盈虧預測範例學習系統所造成之衰減與干擾效果。在資訊遺漏之探討下,分就「資料預先處理轉換」及「修正系統演算法」兩方面,評比了「線性內插法」、「迴歸預測法」、「獨立分群法」及「多重線索分割法」等四種之遺漏值解決方案,在區別能力及預測績效上之差異性;在雜訊之探討,則了解到雜訊對範例學習系統究竟會造成多大之干擾效果,並進一步測試雜訊過濾器是否能降低部份之干擾效果。 而接下來的實証資料測試階段,則以實証資料測試上述各種模式及方法,而獲得之結果將和實驗設計階段之結果作一比較對照,以符合實務應用之狀況。而根據研究結果顯示,主要可獲得下列結論: 一、分就:1. 建樹資料含遺漏或雜訊,2. 預測資料含遺漏或雜訊,3. 建樹及預測資料同時含遺漏或雜訊,三種情況考量。則第2種情況下對範例學習系統所造成之衰減或干擾效果相對較大,第3種情況次之,第1種情況較無影響。 二、在資訊遺漏之探討下: (一)、「迴歸預測法」及「多重線索分割法」最能避免衰減效果之發生,但前提是必需存在高度相關之替代線索。 (二)、最為簡便也最常被使用之「線性內插法」,並無法有效排除遺漏值所造成之衰減效果,而這和財務比率線索不具備單調性(Monotonicity)之原因有關。 (三)、對於遺漏值之處理若是採取整筆刪除之作法,則對系統之預測績效而言(命中率)可能造成較大之衰減效果,因為其可能破壞學習樣本資料之代表性。 (四)、在無高度相關替代線索,或者是系統之例子資料庫含有計質性(Qualitative)線索時,可以「獨立分群法」來降低遺漏值之衰減效果。 三、在雜訊之探討下: (一)、雜訊對範例學習系統之干擾效果是存在的,因此在蒐集處理樣本資料之過程中,即應小心避免雜訊混入其中。 (二)、雜訊過濾器能否排除影響樣本代表性之極端值,就結果看來並不能獲得一致之結論;或者是對極端值取捨之界限定義應為何?則有待更進一步之研究。
5

雲端筆記之混合式文字切割與辨識 / Segmentation and recognition of mixed characters for cloud-based notes

王冠智, Wang, Guan Jhih Unknown Date (has links)
文字辨識為常見的電腦視覺應用之一,隨著正確率逐漸的上升,許多新的服務相繼出現,本論文改善了筆記管理軟體最主要的問題-文字切割,並提出兩種新的中文印刷體及手寫體的分類方法。我們將筆記文件中較常見的重點標記過濾後,再使用新核心的文字結構濾波取得筆記文件中的文字區塊,新的核心數據大幅降低原始核心的計算時間。本論文也使用文字結構濾波作為分辨印刷體、手寫體的特徵值,由於文字結構濾波會依據筆畫結構給予能量回饋,使得較工整的印刷體與手寫體能有所區別,此外也使用Sobel搭配不同角度範圍進行字體辨識,實驗結果證實了本論文所提出的文字切割及字體分類方法對於筆記文件資訊的處理是有效的。 / Character recognition is an important and practical application of computer vision. With the advance of this technology, more and more services embedding text recognition functionality have become available. However, segmentation is still the central issue in many situations. In this thesis, we tackle the character segmentation problem in note taking and management applications. We propose novel methods for the discrimination of handwritten and machine-printed Chinese characters. First, we perform noise removal using heuristics and apply a stroke filter with modified kernels to efficiently compute the bounding box for the text area. The responses of the stroke filter also serve as clues for differentiating machine-printed and handwritten texts. They are further enhanced using a SVM-based classifier that employs aggregated directional responses of edge detectors as input. Experiment results have validated the efficacy of the proposed approaches in terms of text localization and style recognition.
6

蛋白質質譜儀資料之峰偵測探討 / On Peak Detection of Proteomic Mass Spectrum Data

楊智凱, Yang,Zhi Kai Unknown Date (has links)
介質輔助雷射脫附離子化/飛行時間質譜 (Matrix-assisted Laser Desorption Ionization/ Time-of-Flight –Mass Spectrum, MALDI-TOF-MS),是種屬於高維度的蛋白質質譜儀資料,主要是用來偵測蛋白質分子的表現,而這項技術的原理,是先將蛋白質與介質混合,再利用雷射將蛋白質分子打碎,分散出帶電荷的離子,接著運用離子飛行時間的偵測,最後掃描出質譜圖形,圖形上有兩個重要變數,分別為:質量電荷比(Mass to Charge Ratio, m/z)以及強度(Intensity),我們希望利用這些質譜資料,研究出臨床上癌症病人以及正常人的質譜資料差異,藉由找出質譜資料的生物標記,來作為判斷是否為癌症患者的依據。但是由於MALDI的技術上的限制,導致掃描出來的質譜資料往往存在著雜訊以及誤差,這時候,事前處理(Preprocessing)步驟,就顯的格外重要。生物學家認為,蛋白質質譜資料,其表現異常的蛋白質,會顯現在質譜圖的峰上面,因此在維度如此龐大的質譜資料中,如果將分析重點著重在這些峰上面,可以簡化我們事後的分析,因此在分析質譜資料的流程中,事前處理步驟的峰偵測,便成為了一個很重要的環節。Du, Kibbe以及Lin在2006年的文獻中提到,使用連續型小波轉換(Continuous Wavelet Transform, CWT)的方法來進行峰偵測,可以改善我們使用傳統峰偵測方法所產生的誤差,因此本文將CWT峰偵測方法,與傳統峰偵測方法,對已知峰正確位置的MALDI質譜資料進行分析,結果發現在不同訊號雜訊比(Signal to Noise Ratio, SNR)下,CWT峰偵測方法的敏感度(Sensitivity)都比傳統峰偵測方法來的高,且誤判率(False Discovery Rate, FDR)也都較傳統峰偵測方法低,因此就本文所使用的模擬資料,CWT峰偵測確實是一個較佳的峰偵測方法。
7

奇異值分解在影像處理上之運用 / Singular Value Decomposition: Application to Image Processing

顏佑君, Yen, Yu Chun Unknown Date (has links)
奇異值分解(singular valve decomposition)是一個重要且被廣為運用的矩陣分解方法,其具備許多良好性質,包括低階近似理論(low rank approximation)。在現今大數據(big data)的年代,人們接收到的資訊數量龐大且形式多元。相較於文字型態的資料,影像資料可以提供更多的資訊,因此影像資料扮演舉足輕重的角色。影像資料的儲存比文字資料更為複雜,若能運用影像壓縮的技術,減少影像資料中較不重要的資訊,降低影像的儲存空間,便能大幅提升影像處理工作的效率。另一方面,有時影像在被存取的過程中遭到雜訊汙染,產生模糊影像,此模糊的影像被稱為退化影像(image degradation)。近年來奇異值分解常被用於解決影像處理問題,對於影像資料也有充分的解釋能力。本文考慮將奇異值分解應用在影像壓縮與去除雜訊上,以奇異值累積比重作為選取奇異值的準則,並透過模擬實驗來評估此方法的效果。 / Singular value decomposition (SVD) is a robust and reliable matrix decomposition method. It has many attractive properties, such as the low rank approximation. In the era of big data, numerous data are generated rapidly. Offering attractive visual effect and important information, image becomes a common and useful type of data. Recently, SVD has been utilized in several image process and analysis problems. This research focuses on the problems of image compression and image denoise for restoration. We propose to apply the SVD method to capture the main signal image subspace for an efficient image compression, and to screen out the noise image subspace for image restoration. Simulations are conducted to investigate the proposed method. We find that the SVD method has satisfactory results for image compression. However, in image denoising, the performance of the SVD method varies depending on the original image, the noise added and the threshold used.
8

整體經驗模態分解在台灣期貨市場與選舉預測市場的應用 / Applications of ensemble empirical mode decomposition to future and election prediction markets in Taiwan

鄭緯暄 Unknown Date (has links)
金融市場常常受到政治、經濟與社會環境等因素所影響,所得到價格為眾多變數交互作用的結果,包含了許多雜訊。本文引進一套數據處理方法「整體經驗模態分解」(Ensemble Empirical Mode Decomposition,EEMD)來分析「期貨市場」以及「預測市場」。第一個實證利用EEMD處理台股期貨,分析對台股指數的解釋能力,並同時與原始台股期貨預測台股指數,比較預測結果;第二個實證利用EEMD來分析預測市場,判別是否能有效的消除雜訊,準確預測選舉結果。 第一個實證結果發現,EEMD能有效地過濾期貨市場的雜訊,另外,在最後到期日前十二天或者是前九天,以週期為6.5日經EEMD處理的台股期貨對台股指數的預測較原始台股期貨預測準確;第二個實證結果指出,直接利用EEMD處理預測市場得到的長期趨勢「剩餘訊號」(Residue)來預測選舉並無優於原始預測市場,主因為預測市場參與者不只在乎長期趨勢,亦在乎短期事件的衝擊,故直接利用剩餘訊號預測選舉結果會有所失真,而將剩餘訊號由低頻率之「本質模態函數」(Intrinsic Modes Function,IMF)合併至週期為6日與12日的IMF,得到了EEMD週趨勢價格,分成選前一天和選前十天的資料並與原始預測市場以及民調預測做比較,從不同的準則來看,發現以EEMD週趨勢價格來做選舉預測,準確度較原始預測市場與民調預測的結果更好。根據中選會2012年初選前對選罷法做成的解釋,未來事件交易所在選前十日亦須停止交易,我們可將EEMD運用在日後的選舉預測,把預測市場的合約價格以EEMD處理,應可提高選舉預測的準確度。 / The financial markets are usually affected by political, economic and social environment factors, and thus the volatilities of asset prices in these markets are subject to a lot of noises and shocks. To filter out noises and quantify shocks, this paper applies a data processing method, Ensemble Empirical Mode Decomposition (EEMD), and demonstrates its improved prediction to the futures and election prediction markets. While the first empirical application shows that the EEMD effectively filters out the noises in the futures market, the second one indicates that the Taiwanese election prediction using EEMD “residue” is not as accurate as that by original data from the prediction market. The reason why the residue cannot serve as a good predictor is that the market participants consider not only the long-term trend, but also shocks, especially those right before the elections. We then attempt to predict the election outcomes by the week trend series processed by EEMD. The prediction by the week EEMD trend series turns out to be more accurate than that by the poll and original prediction market. Based on this study, we can apply the EEMD to the next election prediction and improve its accuracy.

Page generated in 0.0189 seconds