• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5462
  • 1048
  • 723
  • 26
  • 5
  • 1
  • 1
  • 1
  • Tagged with
  • 7324
  • 7324
  • 7199
  • 7197
  • 3979
  • 3979
  • 3292
  • 3216
  • 3216
  • 3216
  • 3216
  • 3216
  • 3216
  • 1157
  • 1157
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Immersiivisten virtuaaliympäristöjen hyödyntäminen teollisuusalueiden suunnitteluprosessissa

Väyrynen, J. (Jani) 06 June 2018 (has links)
Virtuaaliympäristöjä on alettu hyödyntää enenevässä määrin kaupunkisuunnittelussa ja rakennusteollisuudessa. Tässä tutkielmassa tutkitaan, voidaanko tehdasalueen 3D-malliin tutustua käyttämällä apuna eri näyttöteknologioita ja tunnistaa ihmisen havainnointikykyyn liittyviä suunnitteluongelmia. Tällaisia ovat esimerkiksi käyttäjien altistaminen korkeille paikoille ilman riittäviä turvarakenteita. Korkeuden ja tilan ongelmia ei ole aina helppo tunnistaa tavanomaisessa suunnitteluprosessissa, ja ongelmat ovat kalliita korjattavia jälkikäteen. Tutkielmassa esitellään käyttäjätutkimus (n = 30), jossa vertaillaan kolmen eri näyttöteknologian, 1) CAVE, 2) HMD ja 3) näyttöpääte, soveltuvuutta virtuaalisen tehdasalueen tarkastelussa. Tulokset viittaavat HMD:n tarjoavan kaikkein immersiivisimmän kokemuksen. CAVEn käyttäminen on taas ongelmallista tilanteissa, jossa vaaditaan tarkkaa navigointia. Tulokset viittaavat myös siihen, että virtuaaliympäristön tarkastelun aikana käytetyn sykemonitorin data on yhteydessä virtuaaliympäristön kokemuksiin. Sykedatan käytössä on kuitenkin tärkeää huomioida muut sykkeeseen vaikuttavat tekijät, kuten kyberpahoinvointi. Datasta voidaan kuitenkin saada hyödyllisiä viitteitä tueksi muille indikaattoreille, jotka kertovat mahdollisista mallissa olevista, visuaalisiin havaintoihin liittyvistä ongelmista. / Virtual environments are becoming more commonly used in urban planning and the construction industry. In this paper, it is investigated whether exploring a 3D model of a factory site can identify design problems related to human perception, such as exposing users to heights without sufficient protection. Problems of height and space are not easily identified during the normal design process, and are costly to correct. A user study is presented (n = 30) in which three different presentation formats, 1) CAVE, 2) Head Mounted Display (HMD), and 3) monitor display, are compared as methods to explore a virtual factory site. The results indicate that HMD provides the most immersive experience and e.g. that the CAVE approach is problematic in cases where detailed navigation is required. It is also identified that heart rate monitor feedback, when exploring the virtual environment, is indicating about the experiences in the virtual environment. However, when using heart rate data, it is essential to take into consideration other factors that can affect heart rate, such as cybersickness. Nevertheless, heart rate data can provide a supporting indication of possible issues related to perceptions of the design.
52

Pelien käyttö opiskelijaelämän ja työuran ajankäytön hallinnassa

Mattila, T. (Tapani) 15 January 2018 (has links)
Henkilökohtainen suunnitelmallisuus ja aikataulutus on monille ongelmallista. Näin on erityisesti nuorilla aikuisilla, koska he eivät ole vielä ehtineet harjoitella sitä paljon. Hyötypelit ovat pelejä, joiden pääasiallinen tarkoitus on jokin muu kuin viihde. Niiden avulla on mahdollista harjoitella monia taitoja — myös ajankäytön hallintaa. Tässä työssä tutkittiin kyseistä aihetta suunnittelemalla ja toteuttamalla prototyyppi tietokonepelistä, jossa pelaajat käsittelevät opiskelun, työn ja vapaa-ajan tasapainoa ja etenevät kohti itse asettamiaan tavoitteita. Peli on vuoropohjainen ja lautapelityylinen. Pelissä rajallinen määrä aikaa investoidaan haluamallaan tavalla kullakin vuorolla ja suunnitelmallisella toiminnalla pelaaja menestyy, saavuttaen tavoitteensa nopeammin. Ensimmäisenä tavoitteensa saavuttanut pelaaja voittaa. Peli toteutettiin java-ohjelmointikielellä käytettäväksi tavallisissa kotitietokoneissa. Konseptia ja prototyypin soveltuvuutta tarkoitukseensa arvioitiin koekäyttäjien avulla. Koekäyttäjät pelasivat peliä 40 minuuttia, minkä jälkeen he vastasivat kyselyyn ja heitä haastateltiin. Kyselyssä esitettiin kymmenen prototyyppiä koskevaa väittämää, joiden paikkaansa pitävyyttä koekäyttäjät arvioivat seitsenportaisella Likert-asteikolla. Haastattelu oli osittain strukturoitu. Koekäyttö tehtiin pareittain kymmenen hengen joukolle. Koekäyttäjien arvioiden mukaan ajankäytön hallinnan kehittäminen hyötypelillä on mahdollista. He myös arvioivat prototyypin vastaavan hyvin todellisen elämän haasteita. Tutkimuksessa vahvistui käsitys siitä, että hyötypelin täytyy olla hyvä ollakseen aidosti hyödyllinen. Tutkimuksessa ilmeni myös hyvän pelin tekemisen olevan hyvin haastavaa. / Personal orderliness and scheduling is problematic for many people. This is especially true for young adults since they have not yet mastered them through practice. Serious games are games that have some other primary purpose than entertainment. With serious games it is possible to practice many different skills — including time allocation. In this thesis the subject was studied by designing and implementing a prototype of a computer game in which the players balance their studies, work and spare time, progressing towards goals they have set for themselves. The game is turn-based with a board game style. Players have limited amount of time to invest as they choose each turn. By planning well they prevail in achieving their targets faster. The player who reaches his or her goals first is the winner. The concept and the prototype’s suitability to it’s purpose was evaluated with test users. The test users played the game for 40 minutes, after which they filled a survey and were interviewed. The survey consisted of ten claims regarding the prototype. The test users assessed those claims on a seven step Likert-scale. The interview was partially structured. Testing was done in pairs and there were a total of ten test users. According to test users it is possible to improve one’s time allocation skill with a serious game. They also thought the prototype simulated real-life challenges well. This research strengthened the understanding that to be truly beneficial a serious game has to be good. It also became apparent that creating a good game is a challenging task.
53

Automatic segmentation of bone tissue from computed tomography using a volumetric local binary patterns based method

Kaipala, J. (Jukka) 13 February 2018 (has links)
Segmentation of scanned tissue volumes of three-dimensional (3D) computed tomography (CT) images often involves—at least partially—some manual process, as there is no standardized automatic method. There is a need to develop fully automatic approaches, not only to improve the objectivity of the task, but also to increase the overall speed of the segmentation process. Here we extend a 3D local binary patterns (LBP) based trabecular bone segmentation method with adaptive local thresholding and additional segmentation parameters to make it more robust yet still perform adequately when compared to traditional user-assisted segmentation. We estimate parameters for the new automated adaptive multiscale LBP-based 3D segmentation method (AMLM) in our experimental setting, and have two micro-CT (μCT) scanned bovine trabecular bone tissue volumes segmented by both the AMLM and two experienced users. Comparison of the results shows superior performance of the AMLM suggesting the strong potential for this solution to perform automatic bone segmentation. / Skannattujen kudosrakenteiden segmentointi kolmiulotteisista (3D) tomografiakuvista tehdään usein ainakin osittain manuaalisesti, sillä standardoitua automaattista menetelmää ei ole. Täysin automatisoitujen lähestymistapojen kehitys on tarpeen, sillä se parantaisi sekä segmentoinnin objektiivisuutta että sen kokonaisnopeutta. Tässä työssä laajennamme automatisoitua local binary patterns (LBP) -perustaista trabekulaarisen luun 3D-segmentointimenetelmää adaptiivisella paikallisella kynnystyksellä ja segmentoinnin lisäparametreilla tavoitteenamme vahvistaa menetelmää mutta säilyttää silti riittävä suorituskyky verrattuna perinteiseen käyttäjäavusteiseen segmentointiin. Arvioimme koejärjestelyssämme parametrit uudelle automatisoidulle adaptiiviselle moniasteikkoiselle LBP-pohjaiselle 3Dsegmentointimenetelmälle (AMLM), ja teetämme sekä AMLM:n avulla että kahden kokeneen käyttäjän toimesta binäärisegmentoinnit kahdelle mikrotietokonetomografialla (μTT) tuotetulle kuvalle naudan trabekulaarisesta luukudoksesta. Tulosten vertailu osoittaa AMLM:n suorituskyvyltään selkeästi paremmaksi, mikä antaa vahvan viitteen tämän menetelmän soveltuvuudesta automatisoituun luusegmentointiin.
54

Mobile game test automation with image recognition

Tuovinen, J. (Jarno) 13 February 2018 (has links)
In the sequel of mobile game industry, testing is recognized as a key factor that can either boost or halt the game development. Indeed, the growth speed of mobile industry has led to decreasing quality in the apps and the employed testing tools. The wide spectrum of device hardware and software, so called fragmentation, makes it a lot slower to test the application on devices. Besides, there are more inherent technical issues to test games as compared to other mobile applications. The lack of efficient tools for testing robustness, quality and computational efficiency has been acknowledged by the game industry. This unmet need has motivated the work highlighted in this thesis which aims to explore easy and efficient approaches to generate test automation code for mobile games. First, to identify difficulties, challenges and good practices that mobile game developers face, a questionnaire-based analysis has been conducted and evaluated. Second, a new Android mobile game testing tool, called MAuto, has been developed and deployed. MAuto is developed to be compatible with Appium, open source test automation framework. MAuto is a tool that utilizes its user’s input to generate Appium test automation code which can be run on the same or any other Android device. The system consists of three elements: the user, the browser, and the mobile device. Once the user has launched MAuto, all the interaction between the user and the tool happens with the browser. During the rerun, MAuto utilizes AKAZE algorithm to recognize the location of the object and repeats the user input with Appium. Consequently, MAuto has been used in developing test automation code to play the tutorial scene of the mobile game Clash of Clans. MAuto is designed to be a friendly mobile test creator that, with minimal amendments, can be exported to other testing applications in alternative platforms, e.g. iOS. Nevertheless, the thesis also acknowledges the limitations in the image-recognition based test automation methods where the negative impact of change of configuration, lack of luminosity, and non-exhaustive list of models cannot be ignored. On the other hand, the thesis also reviews the existing tools and current practices in mobile game testing, providing a comparable analysis for both researchers and developer communities. / Mobiilipeliteollisuudessa testauksen on havaittu olevan avaintekijä, joka voi nopeuttaa tai hidastaa pelinkehitystä. Mobiiliteollisuuden kasvunopeus on johtanut applikaatioiden ja testaustyökalujen laadun heikkenemiseen. Laitteistojen ja ohjelmistojen laaja kirjo, niin kutsuttu fragmentaatio, hidastaa applikaatioiden testausta laitteilla. Lisäksi peleissä on enemmän niille ominaisia teknisiä ongelmia verrattuna muihin mobiiliapplikaatioihin. Peliteollisuudessa on huomattu, ettei ole olemassa riittävän tehokkaita työkaluja pelien vakauden, laadun ja tehokkuuden testaamiseen. Tämä diplomityö pyrkii vastaamaan tähän tarpeeseen. Työn tarkoitus on löytää helppoja ja tehokkaita lähestymistapoja testiautomaatiokoodin kehittämiseksi mobiilipeleille. Ensimmäiseksi on toteutettu kyselypohjainen analyysi, jotta voitaisiin selvittää mobiilikehittäjien kohtaamat vaikeudet ja haasteet sekä löytää heille parhaat käytänteet. Toiseksi on kehitetty uusi Android-pelien testaustyökalu, MAuto, joka on tarkoitettu erityisesti helpottamaan pelien testausta mutta joka toimii myös muilla applikaatioilla. MAuto on yhteensopiva Appiumin kanssa, joka on avoimen lähdekoodin testiautomaatioviitekehys. MAuto on työkalu, jolla voi luoda testaajan syötteistä Appium-testiautomaatiokoodia. Testikoodia voidaan ajaa uudelleen millä tahansa Android-laitteella. Järjestelmä koostuu kolmesta osasta: käyttäjästä, selaimesta ja mobiililaitteesta. Kun käyttäjä on käynnistänyt MAuton, interaktio käyttäjän ja työkalun välillä tapahtuu selaimessa. Kun testi ajetaan uudelleen, MAuto toistaa käyttäjän syötteen tunnistetussa sijainnissa hyödyntämällä AKAZE-algoritmia ja Appiumia. MAutoa on käytetty esimerkiksi luomaan testiautomaatiokoodi, joka pelaa Clash of Clans -peliä. MAuto on suunniteltu käyttäjäystävälliseksi, ja pienellä vaivalla sitä voidaan laajentaa kattamaan useampia käyttöjärjestelmiä, kuten iOS. Diplomityö käsittelee myös kuvantunnistukseen perustuvien työkalujen heikkouksia, kuten kuvantunnistuksen tunnistustehokkuutta verrattuna natiiviin objektintunnistukseen ja muuttuvien grafiikoiden aiheuttamia ongelmia testauksessa. Myös MAuton heikkouksia on käsitelty liittyen erityisesti sen nopeuteen ja toimintavarmuuteen peleissä, joissa grafiikan valaistus muuttuu tai peli on nopeatempoinen. Lisäksi työ arvioi olemassa olevia tekniikoita ja työkaluja ja tarjoaa vertailukelpoisen analyysin niin tutkijoille kuin kehittäjillekin.
55

Optimizing continuous integration testing using dynamic source code analysis

Heikkilä, V. (Ville) 13 February 2018 (has links)
The amount of different tools and methods available to perform software testing is massive. Exhaustive testing of a project can easily take days, weeks or even months. Therefore, it is generally advisable to prioritize and optimize the performed tests. The optimization method chosen to be studied in this thesis was Dynamic Source Code Analysis (DSCA). In DSCA a piece of target software is monitored during testing to find out what parts of the target code get executed. By finding and storing this information, further code changes can be triggered to execute the stored test cases that caused execution in the modified parts of code. The test setup for this project consisted of three open-source software targets, three fuzz testing test suites, and the DSCA software. Test runs of different lengths were triggered by code changes of varying size. The durations of these test runs and the sizes of the code changes were stored for further analysis. The purpose of this thesis was to create a method for the fuzz testing suite to reliably communicate with the DSCA software. This was done to find out how much time can be saved if CI-testing is optimized by scanning every source code change to obtain a targeted test set as opposed to running a comprehensive set of tests after each change. The data analysis demonstrates with certainty that using DSCA reduces the average run-time of a test by up to 50%. / Ohjelmistotestauksessa käytettävien työkalujen ja metodien määrä on massiivinen. Ohjelmistoprojektin läpikotainen testaus saattaa kestää päiviä, viikkoja tai jopa kuukausia. Tämän takia on yleisesti suositeltavaa priorisoida ja optimoida suoritetut testit. Tässä opinnäytetyössä tarkasteltavaksi optimointimetodiksi valittiin dynaaminen lähdekoodianalyysi (DSCA), jossa ohjelmistoa monitoroidaan ajonaikaisesti, jotta saadaan selville mitä osia lähdekoodista mikäkin testi suorittaa. Tämä projekti koostui kolmesta avoimen lähdekoodin ohjelmistoprojektista, kolmesta fuzz-testaustyökalusta sekä DSCA-ohjelmistosta. Erikokoisilla lähdekoodin muutoksilla saatiin aikaan erikokoisia testimääriä uudelleenajettaviksi. Näiden ajojen suuruudet ja kestot tallennetiin, ja niitä vertailtiin. Tämän opinnäytetyön tarkoituksena oli löytää keino saada fuzz-testaustyökalu keskustelemaan DSCA-ohjelmiston kanssa luotettavasti, sekä selvittää kuinka paljon aikaa pystytään säästämään optimoimalla CI-testausta skannaamalla jokainen lähdekoodimuutos kohdennettujen testien saamiseksi verrattuna siihen että jokainen lähdekoodimuutos aiheuttaisi kokonaisvaltaisen testiajon. DSCA-ohjelmistoja käyttämällä saatiin varmuus siitä, että CI-järjestelmien testiajojen pituutta pystytään pienentämään huomattavasti. Keskimääräisen testiajon pituus pystyttiin testeissä jopa puolittamaan.
56

Scalable cloud database solution for sensor networks

Moilanen, T. (Tuomo) 14 June 2013 (has links)
This Master’s thesis presents the theory, design, and implementation of a scalable cloud database solution for a sensor network utilizing a cloud-based database-as-a-service platform. The sensor network is a part of the project called Internet of Things, a project studying on networking physical objects and visualizing of sensor data in a 3D environment. The challenge comes from being able to handle the massive data set expected to be produced by the sensor network. This is an example of the concept of Big Data, a data set so large that it becomes difficult and time consuming to be processed with conventional relational database methods. The solution can be found in NoSQL architectures. However, the distributed NoSQL architectures trade off several advantages of the relational database model to achieve database scaling, query performance, and partition tolerance. In this work, the database infrastructure is acquired as-a-service from one of the major cloud database service providers. Several decision criteria have been used to choose the database infrastructure service, such as scalability, absence of administrative duties, query functions, and service pricing. The work presents the rationale behind the database service selection and the design and implementation of the database and client software. Amazon’s DynamoDB is chosen as a target system due to its high scalability and performance, which offset its restrictions to query versatility. The resulting database design offering scalability beyond the traditional database management systems is presented with additional discussion on how to further improve the system and to implement new features. / Tämä diplomityö käsittelee sensoriverkon datan tallennukseen hyödynnettävän skaalautuvan pilvitietokantaratkaisun teoriaa, suunnittelua ja toteutusta käyttäen olemassaolevan pilvipalvelutarjoajan tietokanta-alustaa. Sensoriverkko on osa Internet of Things -projektia, joka tutkii fyysisten objektien verkottumista ja sensoridatan visualisointia 3D-ympäristössä. Sensoriverkon tuottama valtava datamäärä on haasteellista hallita. Tästä ilmiöstä käytetään nimitystä Big Data, jolla tarkoitetaan niin suurta datan määrää, että sitä on vaikeata ja hidasta käsitellä perinteisillä tietokantasovelluksilla. Ratkaisu on hajautetut NoSQL tietokanta-arkkitehtuurit. NoSQL-arkkitehtuureissa joudutaan kuitenkin tekemään myönnytyksiä, jotta saavutaan tietokannan skaalautuvuus, hakujen suorituskyky ja partitioiden sieto. Tässä työssä tietokantainfrastruktuuri hankitaan palveluna suurelta pilvitietokantapalveluiden tarjoajalta. Tietokantapalvelun valintaan vaikuttavat useat kriteerit kuten skaalautuvuus, hallinnoinnin helppous, hakufunktiot sekä palvelun kustannukset. Työssä esitetään tietokantapalvelun valintaperusteet sekä tietokannan ja asiakasohjelman suunnittelu ja toteutus. Tietokantapalveluksi valitaan Amazon DynamoDB, jonka suuri skaalautuvuus ja suorituskyky kompensoivat tietokantahakujen rajoituksia. Työssä kehitetään tietokantasuunnitelma, joka tarjoaa perinteisiä relaatiotietokantoja suuremman skaalautuvuuden, sekä käsitellään menetelmiä uusien ominaisuuksien lisäämiseksi ja järjestelmän parantamiseksi.
57

Betonin suhteitus tilastollisesti

Välimäki, M. (Mauri) 18 October 2017 (has links)
Suhteitus on tärkeä betonin valmistuksen suunnitelma, jolla pyritään saamaan tuoreelle ja kovettuneella betonille halutut ominaisuudet. Tässä työssä on keskitytty betonin suhteituksen laskemiseen ryhmittelyn, luokittelun ja regression kautta. Puristuslujuus on betonin tärkein ominaisuus ja se toimii tässä työssä vastearvona luokittelussa ja regressiossa. Puristuslujuuden vastearvoja tutkitaan ennustemuuttujien eli prediktorien avulla. Ennustemuuttujina ovat esimerkiksi sementtimäärä, vesimäärä, kiviainesmäärä ja erilaisten lisäaineiden määrä. Ryhmittelyllä analysoidaan ensin näytteitä parhaiden havaintojen esille kaivamiseksi ja mahdollisten harhaisuuksien poistamiseksi. Suhteitusta voidaan suorittaa reaaliaikaisesti betoniasemalla mutta tämän tutkimuksen perusteella voidaan suhteitus ottaa yhdeksi suunnittelun osa-alueeksi. Tällöin on kuitenkin oltava betonissa reagoivien osa-aineiden käytöstä aikaisempaa tietoa, jonka avulla laskenta suoritetaan ja päätökset tehdään. Aineiston käsittely voidaan suorittaa monellakin työkalulla, mutta tässä työssä käytetään Matlab-ohjelmistoa ryvästämis-, luokittelu- ja regressioanalyysien suorittamiseksi. Työkalussa on valmiina monia valmiita toimintoja laskennan suorittamiseksi ja tulosten esittämiseksi havainnollisesti. Reseptien suunnittelijan antamaa suhteitusta siis verrataan eri menetelmien kautta muodostettuihin suhteituksiin ja annetaan korjausehdotus tai kommentti suhteitukseen, mikäli siihen on tarvetta. Kehitettyjä menetelmiä voidaan käyttää esimerkiksi betonin valmistuksen opetuksessa siten, että rakennesuunnittelu, työmaa sekä muut osapuolet luovat menestyksekkään betoniketjun. Lisäksi, menetelmät voitaisiin toteuttaa osaksi reaaliaikaisen suhteituksen prosessia. / Concrete mix design is an important part of manufacturing planning aiming to achieve certain desired properties for the fresh and hardened concrete. This work focuses on the concrete mix design via clustering, classification and regression. The most important feature of hardened concrete is compressive strength. In this study, the response values of concrete compressive strength are examined with predictors. The predictive variables are for example the amount of cement, water, aggregates and various additives. With clustering the data is preprocessed before applying classification and regression. The preprocessing leads to best data samples and finding outliers. The concrete mix design can be performed in real-time at a batching plant, but it should also be taken as one action in the normal design work. Before we can get any results and make decisions, we must have historical information about the behavior of the materials. The data processing can be done in many ways, but now we focus on clustering, classification and linear regression methods with Matlab software. This software has many built-in functions and methods to perform calculations and to present the results graphically. The existing mix design can be compared to the mix design created via statistical approach. The results shall be reviewed and action taken, if needed. The results of this thesis can be used by designers, site and other relevant stakeholders involved in creating the successful concrete chain and also for training purposes. The methods developed in this thesis can be used as a part of the real-time process in batching plant.
58

Information security improving blocklist driven firewall implementation

Kylmänen, J. (Juha) 05 December 2013 (has links)
The Internet has become a commodity and with it information security and privacy issues have appeared. Common threats against the end users include malware and phishing. Phishing is a social engineering technique used to mimic legit banking or social networking websites in an attempt to gain sensitive information from the user and malware is software with malicious intent. An Internet firewall is an essential component of a modern computer network and it is used to implement policy to prevent access to web hosts. A personal firewall solution, called Defensia, is described and implemented in this work to perform basic firewall tasks, but also to improve information security by using IP blocklists and by supporting access control based on organization, country and application information. The packet processing performance level was measured and determined to be adequate for personal use. The measured overhead was 0,490 milliseconds which applies to the first packet in connection because connection state tracking is used. The organization block feature was successfully demonstrated in a case study against Facebook, Inc. and the IP address blocking was demonstrated by blocking a web tracker from the Nordea online web bank. Third party blocklists from Abuse.ch and Wizcrafts Computer Services were used to demonstrate how Defensia can benefit from third party resources. In a case study, Abuse.ch’s blocklist was used to block access to a known Zeus botnet command and control server. In another case study Wizcrafts Computer Services’ exploited servers blocklist was used to prevent access to a phishing website. Additionally, the application whitelist feature was used to demonstrate how Defensia can proactively prevent an unknown application from accessing the network. Defensia demonstrated successfully that it is a contribution to security and privacy. / Internetistä on tullut yleishyödyke ja sitä myötä on ilmaantunut tietoturvaan ja yksityisyyteen liittyviä ongelmia. Eräitä uhkia käyttäjiä kohtaan ovat haittaohjelmat ja khalastelu. Khalastelu on urkintaa, jossa matkitaan toista palvelua, kuten pankkia, ja jonka tavoitteena on saada käyttäjä luovuttamaan henkilökohtaista tietoa. Haittaohjelmat ovat puolestaan ohjelmistoja, joilla on haitallinen tarkoitus. Internet-palomuuri on olennainen osa modernia tietoverkkoa ja se toteuttaa politiikan, jolla voidaan estää yhteys tietoverkon tietokoneisiin. Tämä työ kuvaa ja toteuttaa Defensia-nimisen henkilökohtaisen palomuurin. Se toteuttaa perinteiset palomuuriominaisuudet, mutta parantaa myös tietoturvaa käyttämällä IP-estolistauksia ja tukemalla organisaatioihin, maan nimeen ja ohjelmiin pohjautuvaa kulunvalvontaa. Paketin käsittelyn havaittiin olevan riittävän nopea henkilökohtaiseen käyttöön. Mitattu viive paketin käsittelyssä oli 0,490 millisekuntia ja se koskee yhteyden ensimmäistä pakettia, koska yhteyden tilan seurantaa hyödynnetään. Organisaation estoa havainnollistettiin tutkimuksessa, jossa Facebook, Inc. laitettiin estolistalle ja IP-pohjaista estolistausta havainnollistettiin estämällä Nordean verkkopankista löytyvän seurantakoodin toiminta. Kolmannen osapuolen estolistauksia Abuse.ch:lta ja Wizcrafts Computer Serviceltä käytettiin havainnollistamaan, kuinka Defensia hyötyy ulkopuolisista resursseista. Abuse.ch:n Zeus-estolistausta käytettiin estämään verkkoyhteys Zeus-troijalaisen komentopalvelimeen ja toisessa tutkimuksessa Wizcrafts Computer Servicen estolistausta hyödynnettiin havainnollistamaan, kuinka pääsy kalastelusivustolle voidaan estää Defensialla. Lisäksi ohjelmiin pohjautuvalla kulunvalvonnalla havainnollistettiin, kuinka Defensia voi ennakoivasti estää tuntemattomien ohjelmien pääsyn verkkoon. Defensia havainnollisti onnistuneesti osuutensa tietoturvan ja yksityisyyden parantamiseen.
59

Painettavan elektroniikan ratakameran ohjelmointi

Jääskä, J. (Jaakko) 05 December 2013 (has links)
Painettavalla elektroniikalla tarkoitetaan elektroniikan valmistamista perinteisillä painomenetelmillä. Perinteisiin graafisiin painotuotteisiin verrattuna elektroniikan painamisessa painon laadun merkitys korostuu. Painettavien lopputuotteiden toiminnan takaamiseksi moitteeton painojälki on erittäin tärkeää. Tässä diplomityössä tutkitaan painettavan elektroniikan painokoneen eri painoyksiköiden välisen rekisteritarkkuuden mittaamista konenäköjärjestelmän avulla. Työssä esitellään yksi tällainen järjestelmä. Painoteknologian ja käytettävien materiaalien kehittyessä painokoneiden nopeus kasvaa ja painettavat yksityiskohdat pienenevät, mikä lisää haasteita laadunvalvontaan. Nykyisellä teknologialla painettavat yksityiskohdat ovat painotekniikasta riippuen 20–100 mikrometrin kokoluokkaa, mutta 10 mikrometrin kokoluokan saavuttaminen lähitulevaisuudessa on todennäköistä. Työssä esiteltävän järjestelmän resoluutio, eli pienin kuvasta erottuvan yksityiskohdan mitta on olosuhteista riippuen 11–15 mikrometriä. Työn ohella toteutettiin aiemmin kehitetyn laitteiston kanssa yhteensopiva ohjelmisto. Ohjelmisto etsii konenäön menetelmiä hyväksikäyttäen ratakameran ottamista kuvista rekisterimerkin ja laskee sen avulla eri painoyksiköiden painamien rekisterimerkin osien välisen poikkeaman, eli painon rekisterivirheen. Ohjelmiston ja koko järjestelmän suorituskyky ja soveltuvuus rekisterivirheen mittaamiseen osoitetaan työssä kokeellisesti. / Printed electronics means manufacturing electronics by utilising traditional printing methods. In comparison to traditional graphic printed products, the quality of the print becomes more significant when printing electronics. Flawlessness of the imprint is very important to ensure fully functional end products. This thesis studies measuring register accuracy between separate print units in printed electronics printing press by using a machine vision system. One such system is described in this thesis. As printing technologies and materials evolve, throughput of printing lines increases and the sizes of printed details get smaller. This places increasing challenges on quality assurance. Today’s technology enables smallest printed feature sizes between 20 and 100 micrometres depending on the used printing technique. Reaching 10 micrometre scale is likely to be achieved in the near future. The system described in this thesis has a resolution of 11 to 15 micrometres depending on the circumstances. Software compatible with the described system was developed alongside this thesis. The software uses machine vision methods to find register marks from pictures captured by the camera in the system. The software then uses these marks to determine the offset between marks printed in different printing units. The calculated offset is the print’s register error. The performance and suitability for register error measurement of both the software and the entire system are verified experimentally in this thesis.
60

Ympäristön 3D-mallintaminen quadrokopterilla kuvatun 2D-videon pohjalta

Seppälä, M. (Marko) 05 May 2014 (has links)
Ympäristöistä muodostetuille 3D-malleille löytyy lisääntyvää kysyntää useilta eri teollisuuden aloilta, esimerkiksi robotiikan, arkkitehtuurin, arkeologian, filmiteollisuuden ja virtuaaliturismin parista. Lisääntyneen kysynnän vuoksi 3D-malleja halutaan luoda aikaisempaa nopeammin, edullisemmin ja automaattisemmin. Perinteisten 3D-mittaukseen perustuvien järjestelmien avulla suurten ympäristöjen 3D-mallintaminen ei ole käytännössä järkevää, sillä 3D-informaation mittaaminen on liian hidasta, vaikeaa ja kallista. Tämän vuoksi kehitetään järjestelmiä, joiden avulla 3D-informaatio voidaan laskea suoraan 2D-kuvien pohjalta käyttämällä apuna useita samasta näkymästä otettuja kuvia. Tällöin puhutaan niin sanotusta monen näkymän geometriasta. Tässä diplomityössä tehdään alustava toteutus järjestelmästä, jonka avulla ympäristö voidaan 3D-mallintaa videokuvan pohjalta hyödyntämällä monen näkymän geometriaan perustuvia menetelmiä. Kuvausrobottina käytetään Parrot-yhtiön AR Drone 2.0 quadrokopteria. Ohjelmiston toteuttamisessa hyödynnetään avoimeen lähdekoodiin perustuvia VisualSFM- ja OpenCV-ohjelmistoja. Puuttuvat ohjelmiston osat on toteutettu Python-ohjelmointikielen avulla. Työssä on selvitetty, että mitä ongelmia tällaisen järjestelmän toteuttamisessa kohdataan ja mitä menetelmiä näiden ongelmien ratkaisemiseen on olemassa. / Increasing demand for environment based 3D models can be found in various different industries such as robotics, architecture, archeology, the film industry, and virtual tourism. Due to the increasing demand, 3D models now require faster, cheaper and more automatized creation than before. 3D modelling of large environments with the use of traditional 3D measuring systems is not reasonable in practice because measuring of 3D information is too slow, difficult, and expensive. Because of this, systems are being developed that allow 3D information to be calculated directly from 2D images by utilizing several images taken of the same view. This is so-called multiple view geometry. In this Master’s thesis a preliminary implementation of a system, by the aid of which a 3D model of an environment can be created from the basis of video capture, was completed. The system utilizes methods based on multiple view geometry. For the video capturing robot, a Parrot AR Drone 2.0 quadricopter was used. In the software implementation, open-source based VisualSFM and OpenCV software were used. Remaining parts of the software were implemented using Python software language. This thesis determines what problems are encountered when implementing this type of system, and what methods exist for solving those problems.

Page generated in 0.1408 seconds