• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 189
  • 19
  • 2
  • Tagged with
  • 210
  • 142
  • 108
  • 73
  • 46
  • 35
  • 34
  • 25
  • 24
  • 22
  • 20
  • 19
  • 19
  • 18
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Atvirojo kodo duomenų bazių serverių analizė aptarnavimo paslaugų teikimo valdymo sistemos pagrindu / Analysis of open source database servers using service management system

Jankevičius, Vytautas 26 May 2006 (has links)
Jankevičius, Vytautas (2006). “Analysis of open source database servers using service management system”. MA Graduation Paper. Kaunas: Faculty of informatics, University of Kaunas Technology . 49 p. The graduation work object is to analyse the popular open source databases servers and determine which is the optimal for service management system. To complete the goal there were made such tasks: • Perform theoretical analysis of open source database servers • To determine similarities and differences of open source database servers. • To analyze and compare functional features of service management systems. • To design the special class and methods necessary for research. • To determine the optimal database server for service management system using the special class and methods. There are 49 pages in the work. First part of the work consists of 13 pages, second part – 13 pages and the third part is 14 pages. There are 3 tables and 32 pictures in the work. The first part of the work proposed the review and the comparison of service management systems and open source database servers. Second part of the work is proposed the project model of service management system Third part of the work proposed the results of open source database servers’ research.
2

Klaidų ieškojimo įmonių pramoninių gaminių gamybos ataskaitose automatizavimas / Automatization of lookup for outliers in industrial commodity production accounts of enterprises

Grigianec, Žana 25 November 2010 (has links)
Statistikos departamentas siekdamas užtikrinti statistinės informacijos kokybę vadovaujasi Europos statistikos sistemos kokybės deklaracijos ir Europos statistikos praktikos kodekso nuostatomis. Tuo tarpu Pramonės statistikos skyrius savo skelbiamos informacijos kokybę pagerinti gali padidinus pirminių statistinių duomenų kontrolių ir klaidų „išgaudymo“ skaičiumi. Taigi, vienas iš pagrindinių šio darbo uždavinių ir buvo – gerinti Pramonės statistikos skyriaus skelbiamų duomenų (apie pagrindinių gaminių gamybos ir pardavimo apimtis ir jų pokyčius) kokybę, t.y. automatizuoti įmonių pramoninių gaminių gamybos ataskaitose loginių klaidų paiešką. Loginių klaidų „išgaudymui“ buvo pasiūlytos programos, kurių veikimas buvo patikrintas su pirminių (duomenys iki antrinio redagavimo) duomenų rinkiniu, o gauti rezultatai – tai įmonių, padariusių vienokio ar kitokio tipo loginę klaidą, sąrašas. Atlikus logistinę regresiją, buvo gauta, kad klaidos atsiradimą įtakoja ataskaitos pateikimo būdas (t.y. elektroninės formos siuntimas), gaminio kodo agregavimo lygis (t.y. tie kodai, kurie išsiskaido į smulkesnius kodus) bei matavimo vienetai kai jie yra „-“. / In order to warrant the quality of statistical information the Department of Statistics to the Government of the Republic of Lithuania follows Quality declaration of the European Statistical System and Code of practice for European statistics. The Division of statistics on industry, accordingly, in order to improve the quality of information it publishes may increase the number of primary statistical data controls and error eliminations. Thus, the primary aim of this thesis is to improve the quality of data (on the amount and changes of production and trade of major products) that is published by the Division of statistics on industry, i.e. to automate the search for the logical errors in the reports on the production of industry products at enterprises. A software application was developed for the elimination of logical errors. It was tested with the set of primary statistical data (the data before the secondary editing) and it provided as its result a list of companies that have made some kind of mistake. By means of logistic regression it was found that the appearance of a mistake is conditioned by the method of submission of the report (i.e., the uploading of an electronic form), by the level of aggregation of a product code (i.e., the codes that resolve into smaller codes) and by the measures when they are “-”.
3

Duomenų gavimas iš daugialypių šaltinių ir jų struktūrizavimas / Data Mining from Multiple Sources and Structurization

Barauskas, Antanas 19 June 2014 (has links)
Šio darbo idėja yra Išgauti-Pertvarkyti-Įkelti (angl. ETL) principu veikiančios sistemos sukūrimas. Sistema išgauna duomenis iš skirtingo tipo šaltinių, juos tinkamai pertvarko ir tik tuomet įkelia į parinktą saugojimo vietą. Išnagrinėti pagrindiniai duomenų gavimo būdai ir populiariausi šiuo metu ETL įrankiai. Sukurta debesų kompiuterija paremtos daugiakomponentinės duomenų gavimo iš daugialypių šaltinių ir jų struktūrizavimo vieningu formatu sistemos architektūra ir prototipas. Skirtingai nuo duomenis kaupiančių sistemų, ši sistema duomenis išgauna tik tuomet, kai jie reikalingi. Duomenų saugojimui naudojama grafu paremta duomenų bazė, kuri leidžia saugoti ne tik duomenis bet ir jų tarpusavio ryšių informaciją. Darbo apimtis: 48 puslapiai, 19 paveikslėlių, 10 lentelių ir 30 informacijos šaltinių. / The aim of this work is to create ETL (Extract-Transform-Load) system for data extraction from different types of data sources, proper transformation of the extracted data and loading the transformed data into the selected place of storage. The main techniques of data extraction and the most popular ETL tools available today have been analyzed. An architectural solution based on cloud computing, as well as, a prototype of the system for data extraction from multiple sources and data structurization have been created. Unlike the traditional data storing - based systems, the proposed system allows to extract data only in case it is needed for analysis. The graph database employed for data storage enables to store not only the data, but also the information about the relations of the entities. Structure: 48 pages, 19 figures, 10 tables and 30 references.
4

Prekybos agentų mobilių darbo vietų ir serverio duomenų sinchronizavimo problema / Trading agent‘s mobile work places and server data synchronization problem

Sorokinas, Romanas 31 May 2005 (has links)
This job is considered about mobile technologies, and mobile devices data synchronization problem. Presented trading agent‘s mobile work places and server data synchronization solution, wich was developed using free software.
5

Duomenų vientisumo apribojimų realizavimo strategijos didelėje įmonėje tyrimas / Investigation of strategy for implementation of data integrity constraints in large application system

Preibys, Justas 28 January 2008 (has links)
Darbe apžvelgiami duomenų vientisumo apribojimų tipai ir jų realizavimo būdai, analizuojami jų privalumai ir trūkumai. Kiekvienam apribojimo tipui, pagal veikimo trukmės ir įgyvendinimo sudėtingumo charakteristikas, parinktas labiausiai efektyvus realizavimo būdas bei eksperimentiškai patvirtintos analizės metu iškeltos hipotezės. Remiantis eksperimentinio tyrimo rezultatais, sudaryta ir aprašyta duomenų vientisumo apribojimų realizacijos strategijos parinkimo metodika, kuri galėtų padėti didelėms įmonėms efektyviai įgyvendinti duomenų vientisumo apribojimus, sunaudojant kuo mažiau laiko, darbo ir sistemos resursų, bet tuo pačiu užtikrinant duomenų vientisumą ir korektiškumą. / This thesis describes types of data integrity constraints, the ways for implementation these constraints, and their analyzed advantages and disadvantages. It is chosen most effective way for implementation every type of data integrity constraint, according to their run duration and complexity of implementation characteristics, and experimentally approved hypotheses, which were raised during analysis. With reference to the results of the experiment, is made and described the methodology of implementation strategy for data integrity constraints, which could help effectively implement data integrity constraints for large application systems, using as less as it is possible time, workforce and system resources, and at the same time ensuring data integrity and correctness.
6

Duomenų apsaugos priemonių kompiuterizuoto parinkimo ir įvertinimo metodika / The data protection measures in the computerized selection and evaluation method

Urmanavičiūtė, Ingrida 09 July 2011 (has links)
Duomenų apsaugos sistemas organizuojant konkrečioje funkcionavimo srityje, išryškėja šios problemos ir spręstini uždaviniai: iš didelio kiekio egzistuojančių duomenų apsaugos priemonių tipų bei jų realizacijų atrinkti tinkamas, objektyviai įvertinti pasirinkto duomenų apsaugos priemonių rinkinio užtikrinančių saugą funkcijų kokybę, sukurti duomenų apsaugos priemonių rinkinio kompiuterizuoto įvertinimo metodiką. Mokslinio tiriamojo darbo tikslas pasiūlyti duomenų apsaugos priemonių kompiuterizuoto parinkimo ir įvertinimo metodiką. Problemų sprendimui siūloma naudoti struktūrinio projektavimo principus, kurių dėka, gali būti išsprendžiama duomenų apsaugos priemonių pritaikomumo ir suderinamumo problema. Nustatysime organizacijos duomenų apsaugai užtikrinti reikalingų galimų sprendimų rinkinį. Pateiksime kiekybinius šio rinkinio elementų įvertinimo kriterijus. Darbe panaudoti metodai: dedukcijos metodas (naudotas temą suskaidant į smulkesnes dalis), palyginimo metodas (naudotas lyginant duomenų apsaugos priemones, duomenų saugumo įvertinimo metodus), apibendrinimo metodas (naudotas apdorojant pirminę informaciją), pilnosios indukcijos metodas (naudotas rašant darbo išvadas). Darbą sudaro trys pagrindinės dalys, bei 4 priedai. Darbo apimtis 78 psl. Darbe panaudota: 11 formulių, 8 paveikslėliai, 34 lentelės. / Data protection systems in the functioning of the organization in a particular area, highlights the problems and challenges: of the large number of existing data protection types and their implementations to select appropriate; objectively evaluate the selected set of data protection measures to ensure the safety functions of quality; develop a set of data protection measures the relative evaluation method that is user friendly. The main goal of the paper is to propose a methodology to ensure data security measures and evaluation of computerized prescribing. The main tasks to reach this goal are: to know the ways how security of the computer system can be impinging and how to protect from it, to do analysis trying to know what methods of data security are usable at the moment, propose measures to safeguard the data selection and computer-based assessment methodology for the security measures compared to alternative. While writing the paper, various methods, such as induction and deduction, data comparison method, generalization method were used. During the period of implementation practical part of the work completed all main tasks. Proposed data protection computer selection and evaluation methodology to compare alternative security measures. The method of data protection measures to facilitate the selection and evaluation, in accordance with user-friendly criteria. The length of this paper is 78 pages; there are 8 pictures and 34 tables in this paper.
7

Globalaus pozicionavimo sistemų duomenų tikslinimo tyrimas / Investigation of global positioning systems data correction

Lyčius, Tomas 25 November 2010 (has links)
Darbe yra analizuojama GPS veikimo principai nuo palydovų iki pat naudotojui pasiekiamų signalų. Nagrinėjant šiuos principus visur atsižvelgiama į galimas paklaidas ir tiriama kokiu būdu jos yra taisomos, siekiant sistemą padaryti kuo tikslesnę. Atlikus sistemos veikimo analizę daromas bandymas, siekiant nustatyti realiai gautų GPS duomenų paklaidą, matuojant taško poziciją. Taip pat tiriama skirtingų gamintojų GPS imtuvų tikslumo priklausomybė nuo imtuvo procesoriaus kanalų skaičiaus. Paaiškėja, jog rinkoje parduodami GPS imtuvai dirba labai panašiu tikslumu. Toliau darbe atliekama naudojamų GPS duomenų tikslinimo algoritmų analizė ir pasiūlomas judėjimo rastriniu žemėlapiu algoritmas pozicijos nustatymo paklaidų mažinimui bei judėjimo prognozavimui nutrūkus ryšiui su palydovais. / This paper is a study of GPS operating principles from satellites to user-accessible signals. The examination is done by taking into account all the possible errors and how they are corrected in order to make the system more accurate. After system operation analysis tests of GPS data accuracy are made. The position of a point is measured using several GPS receivers. Those receivers are made by different manufacturers, so we can observe the dependency of accuracy according to manufacturer and different number of processor channels. It appeared that receivers have very similar errors. The work is continued by data accuracy improvement algorithms analysis. Finally an algorithm is suggested to improve positioning data precision moving on map and predict the event of a failure to communicate with satellites.
8

Šiuolaikinių duomenų bazių programavimo metodų palyginimas / Modern data bases programming methods comparison

Ivanauskienė, Erika 14 June 2006 (has links)
The purpose of this paperwork is to analyze the programming methods of various modern data bases and apply them for the solution of real problems. ADO and ADO.NET component programming methods have been used to attain this purpose. The investigation has been made using different systems of data bases and different numbers of recordings. The results of investigation were applied for the practical implementation of problem solution; and that is estimate data.
9

Microsoft Access ir Visual FoxPro duomenų bazių valdymo sistemos palyginimas / The Comparison a Microsoft Access and Visual FoxPro data base control system

Lukošienė, Vera 09 June 2005 (has links)
The comparison a Microsoft Access and Visual FoxPro data base control system.
10

Portalo kūrimas naudojant kitų svetainių duomenis / Creating portal using data from other sites

Žemaitis, Mindaugas 08 September 2009 (has links)
Duomenų importas reiškia taikomųjų programų panaudojimą, siekiant gauti kuo daugiau informacijos iš duomenų šaltinių, nuskaityta informacija turi būti pritaikyta naudojamai sistemai ir paruošta saugojimui. Duomenų šaltiniai – priemonės, kurių pagalba duomenys perduodami portalui. Vienas sunkiausių uždavinių – kaip perduoti duomenis tinkama forma kitai sistemai, kuri galėtų juos nuskaityti ir išsaugoti bendroje duomenų bazėje, užtikrinti nuolatinį informacijos atnaujinimą. Tam nagrinėjami įvairūs duomenų šaltinių metodai, ieškoma naujų alternatyvų. Paprastai kartu su duomenų perdavimo, nagrinėjami ir jų gavimo metodai, būdai. Šioje srityje naudojamos kompiuterinės programos (taikomosios programos), skirtos duomenų gavimui ir paruošimui saugoti iš šaltinio. Dažniausiai importo sistemos naudoja tik joms tinkamą duomenų struktūros standartą, todėl šaltiniai turi pateikti duomenis, suformuotus laikantis jame nustatytų taisyklių. Jei duomenys kitokios struktūros, nei reikalaujama importo sistemoje, jie netinkami. Darbe išnagrinėjama minėta duomenų struktūrų nesuderinamumo problema, siekiama, kad taikomosios programos būtų suderinamos su daugeliu informacijos apsikeitimo formų, veiktų patikimai ir greitai. / Data import means creation of applications to get as much as possible information from data sources, collected information must be fitted for the using system and be prepared for saving. Data sources – tools that supply data for portals. One of the most difficult problems are how to supply fitted data for other system that could collect and save it in main database, ensure regular update of information. For this reason in this work methods of data sources are analyzed, searching for new alternatives. Simply data supply and receive methods are analyzed in one time. In this case usually usable computer programs (applications) that gather and tailor data from data sources. Mostly import systems use one standard of data structure that fits for them, so data sources must supply data using that rules of data structure. If data is in inappropriate form, they are unacknowledged. In work this problem of different data structure that unacknowledged in other systems is analyzed, to make applications be appropriate with many forms of data. These applications must work reliable and fast.

Page generated in 0.056 seconds