Spelling suggestions: "subject:"akceleraciju"" "subject:"akceleraci""
1 |
Реконфигурабилне архитектуре за хардверску акцелерацију предиктивних модела машинског учења / Rekonfigurabilne arhitekture za hardversku akceleraciju prediktivnih modela mašinskog učenja / Reconfigurable Architectures for Hardware Acceleration of Machine Learning ClassifiersVranjković Vuk 02 July 2015 (has links)
<p>У овој дисертацији представљене су универзалне реконфигурабилне<br />архитектуре грубог степена гранулације за хардверску имплементацију<br />DT (decision trees), ANN (artificial neural networks) и SVM (support vector<br />machines) предиктивних модела као и хомогених и хетерогених<br />ансамбала. Коришћењем ових архитектура реализоване су две врсте<br />DT модела, две врсте ANN модела, две врсте SVM модела и седам<br />врста ансамбала на FPGA (field programmable gate arrays) чипу.<br />Експерименти, засновани на скуповима из стандардне UCI базе скупова<br />за машинско учење, показују да FPGA имплементација омогућава<br />значајно убрзање (од 1 до 6 редова величине) просечног времена<br />потребног за предикцију, у поређењу са софтверским решењима.</p> / <p>U ovoj disertaciji predstavljene su univerzalne rekonfigurabilne<br />arhitekture grubog stepena granulacije za hardversku implementaciju<br />DT (decision trees), ANN (artificial neural networks) i SVM (support vector<br />machines) prediktivnih modela kao i homogenih i heterogenih<br />ansambala. Korišćenjem ovih arhitektura realizovane su dve vrste<br />DT modela, dve vrste ANN modela, dve vrste SVM modela i sedam<br />vrsta ansambala na FPGA (field programmable gate arrays) čipu.<br />Eksperimenti, zasnovani na skupovima iz standardne UCI baze skupova<br />za mašinsko učenje, pokazuju da FPGA implementacija omogućava<br />značajno ubrzanje (od 1 do 6 redova veličine) prosečnog vremena<br />potrebnog za predikciju, u poređenju sa softverskim rešenjima.</p> / <p>This thesis proposes universal coarse-grained reconfigurable computing<br />architectures for hardware implementation of decision trees (DTs), artificial<br />neural networks (ANNs), support vector machines (SVMs), and<br />homogeneous and heterogeneous ensemble classifiers (HHESs). Using<br />these universal architectures, two versions of DTs, two versions of SVMs,<br />two versions of ANNs, and seven versions of HHESs machine learning<br />classifiers, have been implemented in field programmable gate arrays<br />(FPGA). Experimental results, based on datasets of standard UCI machine<br />learning repository database, show that FPGA implementation provides<br />significant improvement (1–6 orders of magnitude) in the average instance<br />classification time, in comparison with software implementations.</p>
|
2 |
Hardware Acceleration of Nonincremental Algorithms for the Induction of Decision Trees and Decision Tree Ensembles / Хардверска акцелерација неинкременталних алгоритама за формирање стабала одлуке и њихових ансамбала / Hardverska akceleracija neinkrementalnih algoritama za formiranje stabala odluke i njihovih ansambalaVukobratović Bogdan 22 February 2017 (has links)
<p>The thesis proposes novel full decision tree and decision tree ensemble<br />induction algorithms EFTI and EEFTI, and various possibilities for their<br />implementations are explored. The experiments show that the proposed EFTI<br />algorithm is able to infer much smaller DTs on average, without the<br />significant loss in accuracy, when compared to the top-down incremental DT<br />inducers. On the other hand, when compared to other full tree induction<br />algorithms, it was able to produce more accurate DTs, with similar sizes, in<br />shorter times. Also, the hardware architectures for acceleration of these<br />algorithms (EFTIP and EEFTIP) are proposed and it is shown in experiments<br />that they can offer substantial speedups.</p> / <p>У овоj дисертациjи, представљени су нови алгоритми EFTI и EEFTI за<br />формирање стабала одлуке и њихових ансамбала неинкременталном<br />методом, као и разне могућности за њихову имплементациjу.<br />Експерименти показуjу да jе предложени EFTI алгоритам у могућности<br />да произведе драстично мања стабла без губитка тачности у односу на<br />постојеће top-down инкременталне алгоритме, а стабла знатно веће<br />тачности у односу на постојеће неинкременталне алгоритме. Такође су<br />предложене хардверске архитектуре за акцелерацију ових алгоритама<br />(EFTIP и EEFTIP) и показано је да је уз помоћ ових архитектура могуће<br />остварити знатна убрзања.</p> / <p>U ovoj disertaciji, predstavljeni su novi algoritmi EFTI i EEFTI za<br />formiranje stabala odluke i njihovih ansambala neinkrementalnom<br />metodom, kao i razne mogućnosti za njihovu implementaciju.<br />Eksperimenti pokazuju da je predloženi EFTI algoritam u mogućnosti<br />da proizvede drastično manja stabla bez gubitka tačnosti u odnosu na<br />postojeće top-down inkrementalne algoritme, a stabla znatno veće<br />tačnosti u odnosu na postojeće neinkrementalne algoritme. Takođe su<br />predložene hardverske arhitekture za akceleraciju ovih algoritama<br />(EFTIP i EEFTIP) i pokazano je da je uz pomoć ovih arhitektura moguće<br />ostvariti znatna ubrzanja.</p>
|
Page generated in 0.3908 seconds