• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5214
  • 1022
  • 711
  • 26
  • 5
  • 1
  • 1
  • 1
  • Tagged with
  • 7038
  • 7038
  • 6913
  • 6911
  • 3944
  • 3944
  • 3039
  • 2965
  • 2965
  • 2965
  • 2965
  • 2965
  • 2965
  • 1151
  • 1151
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Test suite optimisation based on response status codes and measured code coverage

Parttimaa, T. (Tuomas) 23 May 2013 (has links)
A software test suite often comprises of thousands of distinct test cases. Therefore, the execution of an unoptimised test suite might waste valuable time and resources. In order to avoid the unnecessary execution of redundant test cases, the test suite should be optimised to contain fewer test cases. This thesis focuses on the optimisation efforts of a commercially available Hypertext Transfer Protocol (HTTP) fuzzing test suite. A test setup was created for the optimisation purposes. The test setup consisted of the given fuzzing test suite, five different HTTP server implementations used as test subjects, and a code coverage measurement tool. Test runs were executed against the five test subjects with the test suite, and at the same time code coverage was measured from the test subjects. In this thesis, three different types of test suite optimisation algorithms were implemented. The original test suite was optimised by applying the optimisation algorithms to the results of the test runs. Another set of test runs were performed with the optimised subset suites, while again measuring code coverage from the same test subjects. All of the coverage measurement results are presented and analysed. Based on the code coverage analysis, the test suite optimisation algorithms were assessed and the following research results were obtained. Code coverage analysis demonstrated with a strong degree of certainty that a variation in the response messages indicates which test cases actually exercise the test subject. The analysis showed also with a quite strong degree of certainty that an optimised test suite can achieve the same level of code coverage which was attained with the original test suite. / Ohjelmistojen testisarja koostuu usein tuhansista erilaisista testitapauksista. Testisarjan suorittamisessa voi mennä hukkaan arvokasta aikaa ja resursseja, jos testisarjaa ei optimoida. Testisarja tulee optimoida siten, että se sisältää vähän testitapauksia, jotta epäolennaisten testitapausten tarpeeton suoritus vältetään. Tämä diplomityö keskittyy kaupallisesti saatavilla olevan Hypertext Transfer Protocol (HTTP) -palvelimien fuzz-testisarjan optimointiyrityksiin. Optimointia varten luotiin testiympäristö, joka koostuu fuzz-testaussarjasta, testikohteina käytetyistä viidestä HTTP-palvelimesta ja koodikattavuuden mittaustyökalusta. Ennalta määriteltyä testisarjaa käytettiin testikohteille suoritetuissa testiajoissa, joiden aikana mitattiin testikohteista koodikattavuus. Diplomityössä toteutettiin kolme erilaista testisarjan optimointialgoritmia. Alkuperäinen testisarja optimoitiin käyttämällä algoritmeja testiajojen tuloksiin. Optimoiduilla osajoukkosarjoilla suoritettiin uudet testiajot, joiden aikana mitattiin testikohteista koodikattavuus. Kaikki koodikattavuusmittaustulokset on esitetty ja analysoitu. Kattavuusanalyysin perusteella arvioitiin testisarjan optimointialgoritmien toimivuus ja saavutettiin seuraavat tutkimustulokset. Koodikattavuusanalyysin avulla saatiin varmuus siitä, että muutos vastausviesteissä ilmaisee, mitkä testitapaukset oikeasti käyttävät testikohdetta. Analyysilla saatiin myös kohtalainen varmuus siitä, että optimoidulla osajoukkosarjalla voidaan saavuttaa sama koodikattavuus, joka saavutettiin alkuperäisellä testisarjalla.
2

Sovellus sydämen sykevälivaihtelun mittaamiseen

Laine, K. (Kari) 03 June 2013 (has links)
Tässä diplomityössä toteutettiin älypuhelimessa toimiva sovellus sydämen sykevälivaihtelun mittaamiseen. Sovellus käyttää Polar WearLink+ Bluetooth-sykevyötä sykevälitietojen mittaamiseen ja esittää analysoidut tulokset puhelimen käyttöliittymässä. Sovellus on tarkoitettu henkilökohtaiseen käyttöön oman terveydentilan seuraamiseen. Yksi työn tavoite oli osoittaa, että tällainen sovellus voidaan toteuttaa älypuhelimella ja urheilukäyttöön tarkoitetulla sykevyöllä. Työn ensimmäinen osio tutustuu sykevälivaihteluun ja sen taustalla oleviin fysiologisiin mekanismeihin. Osiossa tutustutaan myös sykevälivaihtelun mittaamiseen, analysointimenetelmiin ja niistä saatujen tulosten käyttöön erilaisten fysiologisten tilojen tunnistamisessa. Tämä osa työstä on toteutettu kirjallisuuslähdeanalyysinä. Toteutettu sovellus pohjautuu vahvasti laajasti tunnettuihin teorioihin ja vakiintuneisiin sykevälivaihtelun mittausmenetelmiin. Tilastollisista analyysimenetelmistä toteutettaviksi valittiin SDNN, RMSSD ja pNN50 sekä epälineaarisista menetelmistä Poincaré plot. Työn toisessa osiossa kuvataan toteutettu HrvBt-sovellus. Osiossa käydään läpi sovelluksen rakenne ja toiminnot. Kolmannessa osiossa esitellään sovelluksen testaus, jolla varmistetaan sovelluksen oikea toiminta. Sovellukselle suoritettiin yksikkötestaus ja toiminnallinen testaus. Lisäksi sovelluksella tehtiin joukko testimittauksia pienelle testiryhmälle. Testien perusteella sovellus todettiin toimivaksi ja sillä pystytään mittaamaan sykevälivaihtelua.
3

Algorithms for opportunistic load balancing cognitive engine

Mäkeläinen, M. (Marko) 01 March 2013 (has links)
Due to the increasing use of more and more powerful smart devices demands on the scarce radio spectrum are becoming more intense. One way to cope with increasing demands on radio spectrum is to apply innovative and flexible authorization schemes like spectrum sharing. Under the spectrum sharing paradigm, multiple users and/or systems are authorized to utilize the same spectrum band in a defined sharing agreement. A technology that is generally recommended for the implementation of spectrum sharing is called cognitive radio (CR). In this thesis, we design and implement a cognitive engine (CE) that intelligently and dynamically allocates spectrum resources to users. We first consider a scenario where a network has an exclusive access to a spectrum band and the CE accepts or rejects the arrival user requests based on an algorithm that takes into account a user’s priority and its bandwidth demand. We then consider a spectrum sharing scenario where along with the exclusive utilization to its own spectrum band a network also can opportunistically utilize another network’s spectrum band. For this scenario, we design and implement a CE that performs two main tasks: 1) Accepts or rejects arrival user requests based on a priority based algorithm; and 2) it intelligently load balances the user traffic between the two available network resources, while taking into account the primary user activity in the shared spectrum band. We provide a load balancing algorithm and evaluate its performance under different primary and secondary user traffic scenarios. We show that the proposed load balancing algorithm increases average throughput of the network and it also reduces the average number of users rejected by the network. / Yhä tehokkaampien älykkäiden langattomien päätelaitteiden nopea lisääntyminen johtaa niukan radiospektrin yhä kiihtyvään käyttöön. Eräs menetelmä radiospektrin lisääntyvän kysynnän tyydyttämiseen on hyödyntää innovatiivista ja joustavaa resurssin käytönjakoa kuten spektrin jakamista. Spektrinjakamismalli mahdollistaa useiden käyttäjien ja/tai järjestelmien yhtäaikaisen käytön samalla taajuuskaistalla hyödyntämällä sovittua käytäntöä resurssien jakamisesta. Radiospektrin jakaminen on tänä päivänä yleisesti suositeltu toteuttamaan hyödyntämällä kognitiivista radioteknologiaa. Tässä työssä suunnittellaan ja toteutetaan kognitiivinen päätöksentekokone, joka jakaa radiospektriresursseja käyttäjille älykkäästi ja dynaamisesti. Kognitiivista päätöksentekokonetta radioresurssien jakamisessa hyödynnetään kahdessa skenaariossa. Ensimmäisessä skenaariossa radioverkolla on yksinomainen pääsy taajuuskaistalle, jonka käyttöä kognitiivinen päätöksentekokone säätelee joko hyväksymällä tai hylkäämällä verkkoon liittyviä käyttäjiä. Kognitiivinen päätöksentekokoneen päätökset perustuu algoritmiin, joka ottaa huomioon käyttäjien määritetyn tärkeyden ja käyttäjän vaatiman kaistanleveyden. Seuraavassa skenaariossa radioverkko voi oman yksinomaisen taajuuskaistan lisäksi hyödyntää opportunisesti toisen radioverkon taajuuskaistaa silloin, kun siellä ei ole liikennettä. Tätä skenaariota varten suunnitteltiin kognitiivinen päätöksentekokone, jolla on kaksi päätehtävää: 1) hyväksyä tai hylätä verkkoon liittyviä käyttäjiä edellämainitun tärkeysperusteisen algoritmin avulla; ja 2) jakaa käyttäjien liikennettä kahden tarjolla olevan verkon välillä samalla ottaen huomioon opportunistisen resurssin pääkäyttäjien liikenteen jaetulla taajuuskaistalla. Tässä työssä esitellään toteutettu kuormantasausalgoritmi, jonka suorituskykyä tarkastellaan erilaisissa pääkäyttäjien ja toissijaisien käyttäjien liikenneskenaarioissa. Simulaatiotulokset osoittavat, että esitellyn kuormanjakoalgoritmin hyödyntäminen kognitiivisessa päätöksentekokoneessa parantaa verkon keskimääräistä siirtonopeutta, sekä vähentää keskimääräistä käyttäjien hylkäysastetta verkossa. Algoritmimme parantaa opportunistisen taajuuskaistan käyttöastetta. Algoritmimme ottaa myös huomioon käyttäjille asetetut prioriteetit ja parantaa korkeampi prioriteettisten käyttäjien asemaa verkossa. Tämä tulee ilmi muun muassa korkeampi prioriteettisten käyttäjien pienemmässä hylkäysasteessa.
4

CERN library Thin Client System modernization

Ollakka, I. (Ilkka) 15 May 2013 (has links)
The goal of this Master’s thesis is to modernize the CERN library public terminal system. With modernization the aim was set to minimize the administrative burden on library staff from the new system. Modernization focuses on replacing the currently used Linux based thin client system that suffers from hardware ageing with a system that resides in the CERN-IT operated private cloud. Another aspect in modernization was to utilize the provided network infrastructure more to simplify system complexity and the amount of remote components that require library staff maintenance and administration. The new system differentiates from a traditional LTSP-system by dividing every thin client into a different virtual machine. By distributing every thin client in our own virtual host, we can distribute resource allocation, like CPU-time and physical memory, between different physical hosts. The system also contains monitoring features that informs administrative problems that have been noted. Monitoring decreases the time required for dealing with system maintenance. Linux-based thin client remote connection efficiencies are compared using UI-latency and bandwidth efficiency as metrics. A plain X11 connection is measured against an NX-connection and an SSH-tunneled X11 connection. Results show NX bandwidth efficiency that comes from utilizing an extra caching layer. Measurements for overall latency and bandwidth usage are presented. / Tässä diplomityössä modernisoidaan CERN:n kirjaston käytössä olevat asiakaspäätteet. Modernisoinnin tarkoituksena on vähentää asiakaspäätteistä mahdollisesti aiheutuvaa ylläpitokuormaa kirjaston henkilökuntaa kohtaan. Pääsuunta modernisaatiossa on rakentaa uusi asiakaspäätejärjestelmä vanhan LTSP järjestelmän tilalle, joka kärsii palvelinraudan vanhenemisesta, hyödyntäen CERN-IT:n operoimaa sisäistä pilvipalvelua sekä jo olemassa olevaa verkkoinfrastruktuuria. Rakennettu järjestelmä poikkeaa perinteisestä LTSP-järjestelmästä määrittelemällä jokaiselle päätteelle erillisen virtuaalikoneen johon kytkeytyä. Erillisillä virtuaalikoneilla saadaan käyttäjien varaamia resursseja kuten CPU-aikaa ja fyysistä muistia hajautettua useammalle fyysiselle palvelimelle. Järjestelmä sisältää myös proaktiivisen monitoroinnin joka ilmoittaa havaituista ongelmista ylläpitovastuussa olevia henkilöitä eikä näin vaadi järjestelmän aktiivista tarkkailua ylläpitovastuussa olevilta henkilöiltä. Linux-pohjaisten tyhmien päätteiden etäyhteys-protokollien tehokkuutta vertaillaan käyttämällä käyttöliittymän latenssia ja kaistankulutusta mittareina. Normaalia X11 yhteyttä verrataan yleisesti käytettyyn SSH-tunneloituun X11 yhteyteen sekä NX-yhteyteen. Tulokset osoittavat NX-yhteyden ylimääräisen välimuistin tehostavan kaistankäyttöä. Mittausjärjestelyt ja tulokset on esitelty.
5

Cross-platform software component design

Kivijärvi, M. (Marko) 03 June 2013 (has links)
The aim of this thesis is to analyze a project to design and implement a new FM Radio application for Symbian OS. The project process and relevant events are discussed when they have an impact on the design work. The goal of the project was to offer an improved user experience with features like favorite stations, song history, RT+ support, and automatic region selection. In order to complete the application within the project schedule, the existing radio modules were to be reused as much as possible. The application was required to be developed using the Qt application framework and to have no dependencies on the old UI framework from the Symbian OS. Platform-independence, testability, and simplicity were other key requirements for the new radio application. A final comprehensive goal was to stick to established design patterns and to follow the design principles and good practices defined earlier in the bachelor’s thesis by the same author. An added challenge was provided by the necessity to develop the application on top of a new UI framework that was still in development itself. Constant changes to the framework put a strain on the already tight project schedule. The discussion focuses on the design of the engine module that was required to house most of the application logic. The engine is disconnected from the Symbian OS by the use of a wrapper module, whose purpose is to hide the platform details. Due to its relevance to the engine, the design of the wrapper is discussed in detail. The application UI and the reused radio modules are discussed briefly and only to the extent that is relevant for the engine design. The resulting design fulfills its requirements and the implemented application performs as designed. All the required features are supported, and the existing radio modules are reused. The lack of dependency on the old UI framework is witnessed by running the application in a system that does not contain the framework. The possibility to run the application on a Windows workstation also affirms that the platform-independence requirement was achieved. The design and implementation adhere to the principles outlined in the bachelor’s thesis and provide a practical use for them. The principles are found to be valid and important for the successful completion of a complex software project. It is discovered that the goal of designing a simple system from complicated beginnings is difficult to achieve and requires many iterations. Gradual refinements to the architecture and implementation are necessary to finally arrive at the optimal design. Constant refactoring is found to be a key element in the successful completion of a software project. / Tässä työssä analysoidaan projektia, jossa suunniteltiin ja toteutettiin uusi FM Radio -sovellus Symbian-käyttöjärjestelmälle. Projektin prosessi ja oleelliset tapahtumat kuvataan siltä osin kuin ne vaikuttavat suunnittelutyöhön. Projektin tavoite oli tarjota parempi käyttökokemus uusilla ominaisuuksilla kuten suosikkikanavilla, kappalehistorialla, RT+ -tuella, ja automaattisella aluevalinnalla. Olemassa olevia radiomoduuleita oli uudelleenkäytettävä niin paljon kuin mahdollista, jotta projekti saataisiin aikataulun puitteissa valmiiksi. Sovellus tuli suunnitella Qt-sovelluskehystä käyttäen, eikä sillä saanut olla riippuvuuksia vanhaan käyttöliittymäkirjastoon. Alustariippumattomuus, testattavuus ja yksinkertaisuus olivat myös tärkeitä vaatimuksia. Viimeinen kattava tavoite oli pitäytyä vakiintuneissa suunnittelumalleissa ja noudattaa suunnitteluperiaatteita ja hyviä toimintatapoja, jotka olivat saman tekijän kandidaatintyössä aiemmin määritelty. Tarve toteuttaa sovellus keskeneräisen käyttöliittymäkirjaston päälle asetti oman lisähaasteensa. Jatkuvat muutokset kirjastossa rasittivat jo valmiiksi tiukkaa projektiaikataulua. Tämän työn pääpaino on moottorimoduulissa, jonka tuli sisältää suurin osa sovelluksen logiikasta. Moottori on eriytetty Symbian-käyttöjärjestelmästä adapterimoduulilla, jonka tarkoitus on piilottaa ohjelmistoalustan yksityiskohdat. Adapterin suunnitelma kuvataan yksityiskohtaisesti. Sovelluksen käyttöliittymä ja uudelleenkäytetyt radiomoduulit kuvataan lyhyesti ja vain niiltä osin kuin ne ovat moottorin suunnitelmalle oleellisia. Tuloksena syntyvä suunnitelma täyttää vaatimukset, ja toteutettu sovellus toimii kuten oli suunniteltu. Kaikki vaaditut ominaisuudet ovat tuettuja ja olemassa olevat radiomoduulit käytettiin uudelleen. Riippumattomuus vanhasta käyttöliittymäkirjastosta havaitaan suorittamalla sovellusta järjestelmässä, jossa sitä ei ole. Mahdollisuus ajaa sovellusta Windows-työasemassa myös todistaa sen, että alustariippumattomuuden vaatimus täytettiin. Suunnitelma ja toteutus noudattavat kandidaatintyössä määriteltyjä periaatteita ja tarjoavat niille käytännön sovellutuksen. Periaatteet todetaan paikkansapitäviksi ja tärkeiksi monimutkaisen ohjelmistoprojektin onnistuneen valmistumisen kannalta. Työssä havaitaan, että tavoite suunnitella yksinkertainen järjestelmä monimutkaisista lähtökohdista on vaikea saavuttaa ja vaatii useita toistoja. Asteittaiset korjaukset arkkitehtuuriin ja toteutukseen ovat välttämättömiä optimaaliseen suunnitelman saavuttamiseksi. Jatkuvan uudelleenjärjestelyn havaitaan olevan avainasemassa ohjelmistosuunnitteluprosessissa.
6

Sovelluskohtainen signaaliprosessori HEVC ALF-suodattimelle

Hautala, I. (Ilkka) 27 August 2013 (has links)
Tässä työssä esitellään High Efficiency Video Coding-videopakkausstandardi ja kiinnitetään erityisesti huomiota standardin osana kehitettyyn adaptiiviseen silmukkasuodatukseen (ALF). Adaptiivinen silmukkasuodatus parantaa kuvanlaatua objektiivisesti ja subjektiivisesti. Suodatus poistaa muun muassa muunnoksista aiheutuvia virheitä, kvantisointikohinaa ja värisävymuutoksia. Suuri vaihtuvien kertoimien lukumäärä tekee ALF-suodattimesta laskennallisesti haastavan. Työssä esitellään erilaisia ALF-suodatukseen käytettyjä toteutuksia ja esitetään uusi energiatehokas reaaliaikaiseen ALF-suodatukseen teräväpiirtoresoluutioilla kykenevä ratkaisu. Tehty toteutus perustuu siirtoliipaistavan prosessoriarkkitehtuurin (TTA) käyttöön. 312,5 MHz:n kellotaajuudella toimiva prosessori kykenee suodattamaan yli 30 1920x1080 resoluution lumakehystä sekunnissa kuluttaen tehoa 32 mW. Prosessorin alhainen porttimäärä ja matala tehonkulutus mahdollistavat sen käytön sulautetuissa järjestelmissä. Ohjelmakoodi on kirjoitettu korkean tason ohjelmointikielellä, mikä mahdollistaa prosessorissa ajettavan sovelluksen nopean päivittämisen ja muuttamisen ilman, että prosessoriin joudutaan tekemään muutoksia. Kirjallisuusselvitykseen perustuen työssä esitetty ratkaisu on ensimmäinen täysin ohjelmoitava sulautettu ratkaisu ALF-suodatuksen toteuttamiseen. / This work will give a brief introduction to the High Efficiency Video Coding (HEVC) standard and especially Adaptive Loop Filtering (ALF) which is a part of the HEVC standard. ALF improves objective and subjective image quality and reduces errors caused by image transforms, quantization noise and color changes. Size of the ALF-filter and adaptive coefficients make it computationally complex. This research will give an overview of the state of the art in ALF implementations and presents a new energy efficient ALF solution. The proposed processor is based on Transport Triggered Architecture and it can process 1920x1080p luminance frames at over 30 frames per second, when operated at a clock frequency of 312,5 MHz. The Processor power consumption is 32 mW. Low power consumption and a low gate count make the proposed processor suitable for embedded devices. The processor program code is written in pure C-language, which allows the versatile use of the circuit and updates to the filter functionality without modifying the processor design. To the author best knowledge this is the first programmable solution for ALF on embedded devices.
7

A tool for generating protocol dissectors for Wireshark in Lua

Luomala, J. (Jarmo) 05 December 2013 (has links)
Packet analysis is an essential part of monitoring and understanding network traffic. Packet analyzers are used to capture binary data flowing inside networks, decode it, and parse the decoded stream into a structured, human-readable form. Packet analyzers consist of protocol dissectors, small pieces of software that dissect the captured data stream into separate packets and fields according to the specified protocol rules. Because new protocols are developed constantly and a dissector is needed for every protocol that an analyzer is supposed to understand, there is a continuous need to create dissectors. Manual writing of them is time-consuming, requires familiarity with the target analyzer, the structure of the dissectors, and of course programming skills. Therefore, a tool that would automate the actual dissector creation process would be useful. In this thesis, packet analyzers and protocol dissectors are studied. Functionalities and typical uses of packet analyzers are explored, especially from the information security point of view. In the empirical part, a tool for generating protocol dissectors for Wireshark, which is a very popular network packet analyzer, is implemented and introduced. The tool has a graphical user interface and it generates the dissectors in Lua programming language. Several executed test cases with custom protocols have proven that the tool generates valid Lua files which work properly as protocol dissectors in Wireshark. Used sample packets are dissected correctly according to the protocol rules and definitions specified with the tool. Both fixed and variable length fields and packets can be defined, and both parent dissectors and subdissectors can be created. / Pakettianalyysi on olennainen osa tietoverkkoliikenteen tarkkailua ja ymmärtämistä. Pakettianalysaattoreita käytetään kaappaamaan tietoverkoissa virtaavaa binääridataa, dekoodaamaan se ja parsimaan dekoodattu data jäsenneltyyn, luettavaan muotoon. Pakettianalysaattorit koostuvat protokollapilkkojista/dissektoreista, pienistä ohjelmistopaloista, jotka leikkelevät kaapatun datan erillisiin paketteihin ja kenttiin määriteltyjen protokollasääntöjen mukaisesti. Koska uusia protokollia kehitetään lakkaamatta ja analysaattori tarvitsee dissektorin jokaista protokollaa varten, jota sen on tarkoitus ymmärtää, on jatkuva tarve luoda dissektoreita. Niiden kirjoittaminen käsin on aikaavievää, vaatii perehtyneisyyttä kohdeanalysaattoriin, dissektoreiden rakenteeseen ja tietysti ohjelmointitaitoja. Sen vuoksi työkalu, joka automatisoisi varsinaisen dissektorinluomisprosessin, olisi hyödyllinen. Tässä diplomityössä tutkitaan pakettianalysaattoreita ja protokolladissektoreita. Pakettianalysaattoreiden toiminnallisuuksia ja tyypillisiä käyttötapoja tarkastellaan erityisesti tietoturvan näkökulmasta. Työssä kehitetään ja esitellään työkalu dissektoreiden tuottamiseksi Wireshark:lle, joka on erittäin suosittu tietoverkkopakettianalysaattori. Työkalulla on graafinen käyttöliittymä ja se luo dissektorit Lua-ohjelmointikielellä. Useat suoritetut testitapaukset erikoisprotokollilla ovat osoittaneet, että työkalu luo valideja Lua-tiedostoja, jotka toimivat asianmukaisesti protokolladissektoreina Wireshark:ssa. Käytetyt näytepaketit pilkotaan oikein työkalulla määriteltyjen protokollasääntöjen ja määritelmien mukaisesti. Sekä kiinteän että vaihtelevan pituisia kenttiä ja paketteja voidaan määritellä, ja sekä yli- että alidissektoreita voidaan luoda.
8

Asiakasvirtoihin reagoiva medianäyttöjärjestelmä

Kananen, A. (Antti) 17 February 2014 (has links)
Markkinointi ja mainonta ovat hyvin nopeasti digitalisoituneet erilaisten Internet-pohjaisten palveluiden ja verkkokauppojen kehittymisen myötä. Internetin haku- ja seurantapalveluiden avulla potentiaalisille asiakkaille kohdennetaan mainontaa ja viestintää. Kohdentaminen tapahtuu asiakkaiden hakutulosten sekä verkkokäyttäytymisen pohjalta. Perinteiset kauppaliikkeet ovat yrittäneet seurata asiakasvirtojen avulla asiakkaiden ostokäyttäytymistä, mutta tämä on tapahtunut aina jälkikäteen. Ostokäyttäytymisen analysointi on mahdollista vasta silloin, kun asiakkaat maksavat kassalla. Perinteisiltä kaupoilta on puuttunut keinot tunnistaa asiakkaansa verkkopalveluiden tavoin jo aulassa sekä seurata heitä kauppaliikkeen tiloissa. Tässä diplomityössä on kehitetty ja demonstroitu perinteisille kauppaliikkeille soveltuvaa medianäyttöteknologiaa, mikä tasoittaa tiedonkeruullista kilpailutasoa verkkokauppaan. Periaatteena on seurata asiakkaan liikkumista kauppaliikkeessä ja tunnistaa asiakkaan sukupuoli, ikä ja muut mahdolliset piirteet. Asiakkaiden liikkeiden seurannan ja ominaisuuksien tunnistamisen pohjalta on tarkoitus kohdentaa medianäyttöjen sisältöä asiakkaille sekä löytää keinoja parantaa kauppaliikkeen liiketoimintaa. Tavoitteena on ollut asiakkaiden ja asiakasryhmien kiinnostusten kohteiden selvittäminen heti kauppaliikkeen aulassa, mikä on symmetristä verkkopalveluiden kanssa. Keskeinen havainto on, että asiakkaiden huomio saadaan kiinnitettyä heitä kiinnostavan sisällön avulla. Tämä mahdollistaa asiakkaiden karakterisoinnin ja mainonnan kohdentamisen. Medianäyttöjärjestelmien sisältömateriaalit ja toiminnallisuudet on perusteltua suunnitella tältä pohjalta. / Marketing and advertising have been digitalized rapidly by the development of Internet-based services and web stores. With Internet search- and tracking services advertisements and messages are targeted to potential customers. Targeting is based on customers’ search results and online behavior. Traditional shops have tried to track customers’ shopping behavior by tracking customer flows, but this has always taken place afterwards. Analysis of the shopping behavior is possible only when customers pay at checkout. Traditional shops have lacked the ways to identify customers already in the lobby same way as web-services do, as well as to follow them in store’s premises. In the context of this Master’s thesis applied media screen technology balances out the competitive level of data collection compared to web stores. It has been developed and demonstrated for traditional shops. The principle is to track the movement of a customer in a shop and identify the customer’s gender, age and other possible features. Based on the identification of customer’s movements and characteristics the purpose is to target the content of media screens to the customer and find ways to improve shop’s business capacity. The goal has been to find out the objects of interests of customers and customer groups immediately in the store’s lobby which is symmetrical with web-services. A key finding is that the customers’ attention can be attracted with relevant content. This enables the characterization of the customers and the targeting of advertising. This can be used to justify the planning of media screen contents and functionalities.
9

Comparative analysis of fuzzing frameworks and techniques in terms of effectiveness and deployment

Kovalainen, V.-V. (Ville-Veikko) 02 June 2014 (has links)
Fuzz-testaus, eli fuzzaus, on ohjelmistotestauksen muoto, jossa testattavaa toteutusta jykevyystestataan altistamalla se odottamattomille tai osittain valideille syötteille. Fuzz-sovelluskehyksiä voidaan käyttää fuzz-testisarjojen kehittämiseen. Tässä työssä toteutettiin vertaileva analyysi erilaisille fuzz-sovelluskehyksille mukaanlukien kaksi ilmaista testikehystä ja yksi kaupallinen ratkaisu. Testikohteiksi valittiin kolme verkkoprotokollaa ja kokoelma niitä hyödyntäviä ohjelmistoja. Valitut protokollat olivat File Transfer Protocol (FTP), Locator/ID Separation Protocol (LISP) ja Session Initiation Protocol (SIP). Testikohteille rakennettiin omat testiympäristönsä. Fuzz-testikehyksien avulla kehitettiin fuzz-testisarjat valituille protokollille. Testisarjoja suoritettiin testikohteita vastaan ja tuloksia valvottiin tarkasti. Testaukselle määriteltiin joukko metriikoita, mukaanlukien tehokkuus löydettyjen kaatumisien muodossa, koodikattavuus ja ajonaikainen suorituskyky. Saadut tulokset osoittavat selvän eron testattujen fuzz-sovelluskehysten välillä. Kaupallinen ratkaisu tarjosi parhaan kattavuuden, löysi eniten kaatumisia ja oli kaiken kaikkiaan joustavin kehityksen ja käyttöönoton suhteen. Muut vaikuttivat myös lupaavilta, mutta jäivät jälkeen suorituskyvyssä tai tehokkuudessa, yleisessä laadussa ja osoittivat myös puutteita kehityksen ja käyttöönoton suhteen. / Fuzz testing, or fuzzing, is a form of software testing where the implementation under test is exposed to unexpected or semi-valid inputs in the interest of robustness testing. Fuzzing frameworks can be utilized to develop fuzzing test suites. In this thesis, a comparative analysis was performed on different fuzzing frameworks including two freely distributed frameworks and one commercial solution. Three network protocols and a collection of software implementations utilizing these protocols were chosen as test targets. The protocols were File Transfer Protocol (FTP), Locator/ID Separation Protocol (LISP), and Session Initiation Protocol (SIP). A set of test environments was constructed for all the test targets. Fuzzing test suites for the chosen protocols were developed with the fuzzing frameworks. The test suites were executed towards the test targets and the results monitored closely. A set of metrics for the tests was defined, including effectiveness in terms of found crashes, code coverage, and run-time performance. The obtained test results show a clear distinction between the tested frameworks. The commercial solution was proven to offer best coverage, found most crashes, and it was overall the most flexible in terms of development and deployment. The others showed promise as well, but lacked in performance or effectiveness, overall quality, and had some shortcomings in development and deployment.
10

Hengitysfunktion monitorointi etäisyyskameran avulla

Kananen, J. (Janne) 01 September 2014 (has links)
Tietotekniikan kehittyessä erilaisten sovellusten osuus jokapäiväisessä elämässä on kasvanut viime vuosien aikana nopeaa tahtia kaikkialla yhteiskunnassa. Tekniikan kehittyminen on myös luonut uusia keinoja ihmisten terveyden tarkkailemiseen, mittaamiseen ja valvomiseen niin henkilökohtaisella tasolla, kuin julkisessa terveydenhuollossa. Julkisen terveydenhuollon hoitoajoista kuluu paljon erilaiseen oheistoimintaan, eikä niinkään varsinaiseen potilaan hoitoon, mikä lisää kustannuksia. Tämän takia olisikin tärkeää, että pystyttäisiin hoitamaan potilaan seurantaa helposti, nopeasti ja mahdollisimman taloudellisesti. Hengitys ja sen seuranta on yksi osa-alue, jolla kustannuksia olisi mahdollista pienentää ja helpottaa tutkimusten suorittamista. Tässä diplomityössä on kehitetty uudenlainen menetelmä seurata potilaiden keuhkojen toimintaa helposti ja tarkasti. Kuvattu menetelmä on hankintahinnaltaan halpa ja potilasmukavuuden kannalta miellyttävä mahdollistaen näin paremman hoitomyöntyvyyden. Keuhkofunktion monitoroinnin perustana toimii kahdella etäisyyskameralla tapahtuva henkilön hengityksen seuranta. Etäisyyskameroina toimii tässä työssä kaksi Microsoftin Kinect-kameraa. Kahdella Kinect-kameralla toteutettuna ei hengityksen seurantaa ole aikaisemmin tehty. Tavoitteena on ollut luoda kahden kameran pistepilvet yhdistämällä laajempi ja tarkempi mittaus henkilön hengityksen liikkeistä. Mittaus suoritettiin muodostamalla yhdistetystä pistepilvestä kaksi virtuaalista hengitysvyötä rintakehän sekä vatsan seudulle ja tarkkailemalla näiden hengitysvöiden alueiden tilavuuden muutosta. Saatua tulosta verrattiin spirometriasta saatuun hengitysdataan. Työssä toteutetulla menetelmällä saavutettiin hyvät tulokset. Muodostettujen estimaattien hengityssyklien pituudet sekä tilavuudet todettiin korreloivan hyvin spirometrian vastaaviin arvoihin (R^2 = 0,9302). Tulokset osoittavat, että kuvatunlaista menetelmää voisi tulevaisuudessa olla mahdollista käyttää erilaisissa sovelluksissa. / With the development of computer science the usage of all kinds of applications has increased rapidly everywhere in the society. Development has also created new ways to monitor and measure health in personal as well as public healthcare level. In the public healthcare a lot of time is lost to non-essential tasks that aren’t actual treatment which increases costs. Consequently it would be important to be able to monitor the patient easily, quickly and cost-efficiently. Respiration monitoring is one opportunity to decrease the costs and to ease the examination. In this diploma thesis, a new way to monitor patients’ respiratory function easily, yet accurately is developed. The described method is cheap and convenient to patients, enabling better co-operation. The basis of monitoring respiratory function was produced by using two depth cameras for monitoring person’s chest movement. Two Kinect cameras from Microsoft were used as depth cameras. Respiration monitoring by using two Kinect cameras has not been done before. The aim of this project was to create a better measure of persons respiration movement by combining point clouds from two cameras. From this point cloud, two virtual respiration belts were formed to monitor volume changes of two different areas. The areas were the chest and the abdomen. The results obtained were compared to the respiratory data given by spirometry. With the proposed method good results were attained. Respiration cycle lengths and volumes of constructed estimates correlated well with the corresponding values of spirometry (R^2 = 0,9302). Results indicate that presented method could be used in different kinds of applications in the future.

Page generated in 0.1728 seconds