• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5226
  • 1022
  • 717
  • 26
  • 5
  • 1
  • 1
  • 1
  • Tagged with
  • 7056
  • 7056
  • 6931
  • 6929
  • 3962
  • 3962
  • 3039
  • 2965
  • 2965
  • 2965
  • 2965
  • 2965
  • 2965
  • 1156
  • 1156
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Finding third-party components with binary analysis

Väyrynen, A. (Antti) 20 April 2015 (has links)
The increased usage of open-source software (OSS) libraries as building blocks in the software industry has introduced numerous problems and vulnerabilities into many popular software suites. As more libraries are used, the risk of the whole software being exposed to the vulnerabilities inherent in these third-party components increases. Vulnerability management is the process of mitigating the impact of these vulnerabilities in software development. Another matter concerning OSS is license management. Violating OSS licenses can lead to legal issues and possibly harm a business. A few commercial tools can be used to manage vulnerabilities and licenses. The implementation introduced in this thesis is developed to improve Codenomicon AppCheck, which is one of these commercial tools. This thesis introduces a method for detecting software libraries in binary code. Each library is given a unique set of signatures. A signature is a sequence of bytes extracted from the read-only data section of the library. Two new methods are demonstrated for the signature extraction. The signatures are detected from the input binary data using the Aho-Corasick string matching algorithm. The algorithm allows the detecting to be done with a single pass over the input data. The found signatures are evaluated and used to decide which libraries are included in the input data. The implementation was tested using 14 OSS libraries and 8 OSS applications. Each of the libraries was included at least in one of the applications. For each application the expected libraries, which were supposed to be found, were determined by examining their source code. The found libraries were compared to ones expected to be found, and the accuracy was defined using F measure. The results showed that the new signature extraction methods were valid, and the implementation could detect OSS libraries in binary data. The new signature extraction methods were also able to extend the coverage of Codenomicon AppCheck.
12

Liikenteen visualisointi virtuaalimaailmasovelluksen avulla

Kuonanoja, M. (Matti) 17 May 2016 (has links)
Liikennettä mittaavien sensorijärjestelmien ja ajoneuvojen paikannusjärjestelmien yleistyessä ja teknisesti kehittyessä, liikenteestä kerättävä tiedon määrä kasvaa sekä määrällisesti että laadullisesti. Virtuaalimaailmat mahdollistavat informaation esittämisen todellisuuden kaltaisessa kolmiulotteisessa ympäristössä ja siten ne ovat eräs mahdollisuus liikenteestä kerätyn tiedon esittämiseen. Tässä työssä kehitettiin liikenteen visualisointijärjestelmä, joka luo yksittäisen ajoneuvon tarkkuudella kuvatun virtuaaliliikenteen analysoimalla eri lähteistä kerättyjä liikennettä kuvaavia aineistoja sovittamalla ne alueen tieverkkoa kuvaavaan tiemalliin. Virtuaaliliikenteen esittämiseksi toteutettiin realXtend-teknologiaan pohjautuvalle Tundra-alustalle virtuaalimaailmasovellus, joka ohjaa ajoneuvoja analysoinnin tuloksena syntyneiden ajoreittien mukaisesti aluetta kuvaavassa kolmiulotteisessa virtuaalimaailmassa. Sovellus tarjoaa käyttöliittymän simulaation hallintaan ja mahdollistaa erilaisten tehokeinojen valitsemisen visualisointituloksen parantamiseksi. Työn perusteella havaittiin, että virtuaalimaailmapohjainen esitystapa mahdollistaa aineiston keskeisimmän informaation nopean omaksumisen. Liikenteen visualisoinnin kannalta tärkeää on virtuaalimaailman todenmukaisuus sekä erilaisten liikenteen havainnointia helpottavien visualisointitehosteiden tarjoaminen. / As traffic monitoring sensor systems and vehicle tracking systems are becoming more common and technically advanced, the volume and quality of the produced information is increasing. Virtual worlds make it possible to present the information in a realistic, three dimensional virtual environment, and they are one option for presenting the traffic information. In this thesis, a traffic visualisation system was developed. It creates single vehicle precision virtual traffic by analysing traffic data from different sources and mapping the data to a street model of a local road network. A virtual reality solution for realXtend based Tundra platform was developed to present the virtual traffic. The solution controls vehicles in a three dimensional virtual world according to the routes produced by data analysis. The solution includes a user interface for simulation control, and offers a set of different kind of visualisation effects to improve the visualisation experience. It was noticed, that using virtual world based presentation systems allows a user to adapt quickly the essential information from a data set. For the good visualisation results, it is important to have a realistic virtual world and to provide a set of visualization effects to make it easier to observe traffic.
13

Graphical user interface for analyzing radiological data

Huotari, N. (Niko) 06 June 2016 (has links)
Brain research is increasingly focusing on critically sampled multimodal data. Due to the complexity of the brain multiple measures are analyzed simultaneously to bring forth a more comprehensive picture of brain functions. Furthermore the data has markedly increased in size, which places new demands for analysis tools. This master’s thesis presents a MRI-compatible multimodal measurement arrangement, a Hepta-scan concept and a toolbox (Nifty) for analyzing the measurements. The concept measures brain (MREG), non-invasive blood pressure (NIBP), electroencephalography (EEG), near infrared spectroscopy (NIRS) and anesthesia data in synchrony. Nifty combines several existing and newly developed software to create a simple access point for all available tools. It includes a database which holds information of a large amount of data obtained in the multimodal measurements. This thesis presents the software and hardware parts of the Hepta-scan concept and explains the workflow in it. Finally the Nifty toolbox design is presented and the functionality of it explained. / Aivotutkimus keskittyy entistä enemmän kriittisesti näytteistettyyn multimodaalisen dataan. Aivojen monimutkaisuus vaatii useiden mittareiden analysointia samanaikaisesti, jotta saadaan kattava kuva aivojen toiminnasta. Lisäksi aiempaa tarkempi kuvantaminen lisää datan määrää, mikä asettaa uusia vaatimuksia analyysityökaluille. Tämä diplomityö esittää MRI -yhteensopivan multimodaalisen mittausjärjestelmän, Hepta-scan konseptin ja työkalupaketin (Nifty) mittausten analysointiin. Konsepti mittaa aivoja (MREG), noninvasiivista verenpainetta (NIBP), aivosähkökäyrää (EEG), lähi-infrapunaspektroskopiaa (NIRS) ja anestesiadataa synkronoidusti. Nifty yhdistää useita olemassa olevia ja uusia kehitettyjä ohjelmia, jotka muodostavat yksinkertaisen käynnistyspisteen kaikille työkaluille. Se sisältää tietokantajärjestelmän, joka pitää yllä informaatiota multimodaalisista mittauksista. Tämä työ esittää ohjelmisto- ja laitteistopuolen Hepta-scan konseptista, ja selittää sen työnkulun. Lopuksi työkalupaketti, Niftyn rakenne esitetään, ja sen toiminnot selitetään.
14

Image fusion algorithm for a multi-aperture camera

Mustaniemi, J. (Janne) 19 September 2016 (has links)
Portable devices such as mobile phones have become thinner and smaller over the years. This development sets new challenges for the camera industry. Consumers are looking for high quality cameras with versatile features. Modern manufacturing technology and powerful signal processors make it possible to produce a small-sized multi-aperture camera with good image quality. Such a camera is worthy alternative to traditional Bayer matrix camera. In this master’s thesis, an image processing algorithm is designed and implemented for a four-aperture camera. The camera consists of four separate camera units, each having dedicated optics and color filter. Each camera unit has a slightly different viewpoint, which causes parallax error between the captured images. This error has to be corrected before the individual images are combined into a single RGB image. In practice, corresponding pixels are searched from each image using graph cuts method and mutual information similarity measure. Implemented algorithm also utilizes a trifocal tensor, which allows images to be processed together, instead of matching each image pair independently. Matching of corresponding pixels produces a disparity map (depth map) that is used to modify the input images. Moreover, the depth map was used for synthetic refocusing, which aims to change the image focus after capturing. The algorithm was evaluated by visually inspecting the quality of the output images. Images were also compared against the reference images captured by the same test camera system. The results show that the overall quality of the fused images is near the reference images. Closer inspection reveals small color errors, typically found near the object borders. Most of the errors are caused by the fact that some of the pixels are not visible in all images. Promising results were obtained when depth map was used for post-capture refocusing. Since the quality of the effect highly depends on the depth map, the above-mentioned visibility problem causes small errors to the refocused image. Future improvements, such as occlusion handling and sub-pixel accuracy would significantly increase the quality of fused and refocused images. / Kannettavat laitteet kuten matkapuhelimet ovat tulleet vuosi vuodelta pienemmiksi ja ohuemmiksi. Kyseinen kehitys on tuonut myös lisää haasteita kamerateollisuudelle. Kuluttajat odottavat kameralta hyvää kuvanlaatua ja monipuolisia kuvausominaisuuksia. Nykyaikaiset valmistustekniikat ja tehokkaat signaaliprosessorit mahdollistavat pienikokoisen sekä hyvälaatuisen moniaukkokameran toteuttamisen. Kamera on varteenotettava vaihtoehto tavanomaiselle Bayer-matriisikameralle. Tässä diplomityössä on tarkoitus suunnitella ja toteuttaa kuvankäsittelyalgoritmi neliaukkokameraan. Kamera koostuu neljästä erillisestä kamerayksiköstä, joilla kullakin on oma optiikkansa sekä värisuodatin. Koska jokaisella kamerayksiköllä on hieman erilainen kuvakulma, aiheutuu kuvien välille parallaksivirhettä. Tämä virhe tulee korjata, ennen kuin yksittäiset kuvat yhdistetään yhdeksi värikuvaksi. Käytännössä tämä tarkoittaa sitä, että jokaisesta kuvasta etsitään toisiaan vastaavat kuvapisteet. Apuna tähän käytetään graph cuts -menetelmää sekä keskinäisinformaatiota. Algoritmi käyttää hyväkseen myös trifokaalista tensoria, joka mahdollistaa useamman kuvan sovittamisen yhtäaikaisesti sen sijaan, että jokainen kuvapari sovitettaisiin erikseen. Vastinpisteiden sovittaminen tuottaa dispariteettikartan (syvyyskartta), minkä perusteella syötekuvia muokataan. Syvyyskarttaa käytetään myös kuvan synteettiseen uudelleen tarkennukseen, minkä tarkoituksena on muuttaa kuvan tarkennusta kuvan ottamisen jälkeen. Algoritmin suorituskykyä arvioitiin tarkastelemalla tuloskuvien visuaalista laatua. Kuvia verrattiin myös referenssikuviin, jotka otettiin samalla testikamerajärjestelmällä. Tulokset osoittavat, että fuusioitujen kuvien laatu on lähellä referenssikuvien laatua. Lähempi tarkastelu paljastaa pieniä värivirheitä, jotka sijaitsevat tyypillisesti kuvassa näkyvien kohteiden reunoilla. Suurin osa virheistä aiheutuu siitä, että kaikki kuvapisteet eivät ole näkyvillä jokaisessa kuvassa. Lupaavia tuloksia saatiin myös kun syvyyskarttaa käytettiin synteettiseen uudelleen tarkennukseen. Koska efektin laatu riippuu voimakkaasti syvyyskartasta, edellä mainittu katvealueongelma aiheuttaa pieniä virheitä tuloskuvaan. Lukuisat jatkokehitysmahdollisuudet, kuten katvealueiden käsittely ja alipikselitarkkuus parantaisivat huomattavasti sekä fuusioitujen että uudelleen tarkennettujen kuvien laatua.
15

Videon http-suoratoiston adaptiivinen hallinta matkapuhelimessa

Nevala, A. (Anton) 10 June 2014 (has links)
Tässä työssä tutkitaan HTTP-pohjaista suoratoistoa matalatehoisessa Nokia Asha -mobiilialustassa. Alustan alkuperäinen toteutus kärsii suoratoiston aloitusvaiheessa videon toiston pätkimisestä, kehysten tiputtamisesta sekä hidastuneesta kehysnopeudesta, mikä puolestaan vaikuttaa negatiivisesti laitteen käyttökokemukseen. Toteutukselle suoritetut mittaukset paljastavat ongelmien johtuvan siitä, että videon purkaminen ei saa riittävästi suoritusaikaa, koska TCP-dataliikenteen käsittely vaatii prosessorilta liikaa suorituskapasiteettia. Tämä työ esittelee kaksi mekanismia, jotka ratkaisevat yllä mainitun ongelman. Molemmat mekanismit rajoittavat tiedonsiirtonopeutta, jolla vastaanotettua videodataa siirretään TCP-puskurista videodatapuskuriin siitä hetkestä eteenpäin, kun videon purkaminen aloitetaan. Näin ollen TCP- dataliikenteen käsittelyn aiheuttama kuormitus laskee, ja vapautuneet resurssit hyödynnetään videon purkamisessa. Ensimmäinen mekanismi rajoittaa siirtonopeutta mukautuen toistettavan videon datanopeuden sekä vastaanotettavien TCP-segmenttien mukaan. Toinen mekanismi puolestaan rajoittaa siirtonopeutta kasvattamalla videodatapuskurin kokoa ennalta määritetyn ajan välein. Näitä kahta mekanismia ja alkuperäistä toteutusta verrataan toisiinsa prosessorikuormituksen, videodatan siirron, kehyksien tiputtamisen ja subjektiivisen loppukäyttäjä kokemuksen osalta. Molemmat mekanismit jakavat videodatan TCP-liikenteen pidemmälle aikavälille, jolloin videon purkaminen saa riittävästi suoritusaikaa toiston aloitusvaiheessa. Näin ollen suoratoisto ei kärsi toiston pätkimisestä, kehysten tiputtamisesta ja hidastuneesta kehysnopeudesta. Toteutettavaksi valitaan ensimmäinen mekanismi, koska se jakaa prosessoriin kohdistuneen kuormituksen tasaisemmin sekä suoriutuu hiukan paremmin kehyksien tiputtamisesta kuin toinen mekanismi. / This thesis studies HTTP video streaming in the resource constrained Nokia Asha product platform. The original implementation suffers from the freezing of the video, dropped frames and slower frame rate at the beginning of the streaming, which degrades user experience. Experimental measurements reveal that the problem is caused by the decoding of the incoming video not getting enough CPU time, due to the TCP socket created for transmitting the video data using too much CPU resources. The thesis proposes two mechanisms for solving the problem. Both mechanisms limit the rate at which video data is moved from the TCP buffer to the decoding buffer after the decoding of the video commences. This in turn limits the data transfer rate of the TCP transmission of the video data. Consequently, the TCP socket uses less CPU resources, which frees up CPU resources for decoding the video. The first mechanism adaptively limits the rate according to the target bit rate of the video and the arrival rate of TCP segments. The second mechanism limits the rate with fixed buffer increments at predetermined intervals. The two mechanisms and the original implementation are experimentally compared with each other with respect to their CPU load, video data I/O, frame drop rate and subjective user experience. Both mechanisms distribute the TCP transmission of the video data over a longer period of time, and the decoding of the video gets enough CPU time at the beginning of streaming. Consequently, streaming no longer suffers from freezing and slower frame rate, which improves user experience. The first mechanism is selected for productization as it provides more uniform distribution of the CPU load and slightly lower frame drop rate than the second mechanism.
16

Massadatan matalavasteaikainen analyysijärjestelmä

Salmi, M. (Miikka) 01 June 2015 (has links)
Ajoneuvoliikenteestä on kehittymässä eräs tulevaisuuden merkittävimmistä massadatan lähteistä. Näistä monimuotoisista datalähteistä puolestaan huomattavan osan muodostavat korkeanopeuksiset, suurikokoiset, jatkuvat datavuot. Uusien teknologioiden käyttöön valjastamista vaaditaankin kaiken tämän datan potentiaalin hyödyntämiseksi. Tässä opinnäytetyössä luodaan laaja katsaus massadata-analyysin eri vaiheisiin suunnattuihin hajautettuihin ohjelmistotyökaluihin. Lisäksi työssä suunnitellaan ja toteutetaan Amazonin EC2-pilvipalvelusta tilattuun tietokoneklusteriin massadata-analyysijärjestelmä, jolla pyritään vastaamaan erityisesti ajoneuvoliikenteen datavoiden asettamiin haasteisiin tähtäämällä reaaliaikaiseen hajautettuun laskentaan sekä matalan vasteajan ad hoc -kyselyihin. Järjestelmässä hyödynnetään Apache Hadoop-, Apache Flume-, Apache Spark- ja Cloudera Impala -ohjelmistoja, jotka on valittu näitä tavoitteita silmällä pitäen. Datavoiden hajautettu reaaliaikainen analysointi pyritään erityisesti toteuttamaan Spark-analyysijärjestelmän Spark Streaming -laajennoksella. Lopuksi järjestelmän suorituskykyä testataan ja analysoidaan. Sen toteutukseen valittujen ohjelmistojen suorituskykyä myös vertaillaan yleisimmin käytettyihin vastineihinsa. Testauksessa Spark Streamingilla toteutettu vuoanalyysi paljastui järjestelmän pullonkaulaksi, kun taas Sparkin eräajolaskennalla ja Impalan kyselymoottoreilla saavutettiin parempia tuloksia kuin niiden vaihtoehdoilla, Hadoopin MapReduce-kirjastolla ja Apache Hive -ohjelmistolla. / Vehicle traffic is about to develop to one of the most significant big data sources of the future. Of these various data sources, continuous high volume, high velocity data streams form a substantial part. All in all, harnessing new technologies is required to benefit from all the potential this data withholds. In this thesis, software tools directed at different phases of mass data analysis are widely studied. Additionally, a mass data analysis system is designed and implemented to a computer cluster hosted by Amazon EC2 cloud service, especially to respond to the challenges represented by the data streams of vehicle traffic, by aiming to reach capability for distributed real time analysis and low latency ad hoc queries. The system utilizes multiple software components including Apache Hadoop, Apache Flume, Apache Spark and Cloudera Impala, which have been selected in view of achieving these goals. Spark Streaming extension of Spark processing engine is especially used for implementation of distributed real time data stream analysis. Finally, the performance of the system is tested and analyzed. The performance of the software tools used in the implementation is compared to the performance of their most widespread counterparts. The testing revealed that the data stream analysis with Spark Streaming formed a bottleneck in the system. On the other hand, better results were achieved with batch computations of Spark and Impala query engine than with their alternatives, Hadoop MapReduce library and Apache Hive.
17

Automaattisen testausympäristön ja raportointityökalun kehitys ohjelmiston ylläpitotestaukseen

Karppinen, A. (Anne) 01 September 2014 (has links)
Maintenance testing is an important part of software testing. It tests software correction packages which will be delivered to the customer. Software maintenance is used to repair errors and test the functionality of the software. Some of these errors occur during testing and some during the customer use. Maintenance testing should be of high quality and effective to ensure functionality of the software. This work briefly reviews the LTE technology, the structure of the LTE base station, the Agile software development model and how it can be used in the software maintenance. Finally, the work introduces the properties of the good user interface. During this work the automated test environment and the reporting tool have been developed for the System support team of the Nokia Solutions and Networks. The purpose of the test environment was to have high-quality and efficient software testing by exploiting the Agile model. The reporting tool is developed by following the requirements of the good user interface and the purpose of the tool was to offer an easy and a fast way to check out the results of the tests, the quality of the software and the KPI values for a longer time period than has previously been possible. The work achieved its targets because it offered an effective way to test software with automation. Also, the KPI values and the results of the tests are easily available to users and, most of all according to the user’s feedback, the user interface of the reporting tool is user-friendly and clear. / Ylläpitotestaus on tärkeä osa ohjelmistotestausta. Se testaa ohjelmiston korjauspaketteja, jotka tullaan toimittamaan asiakkaalle. Ylläpidon tarkoituksena on korjata ohjelmistosta löytyneitä vikoja ja testata ohjelmiston toimivuutta. Osa vioista ilmenee testauksen ja osa asiakkaan käytön aikana. Ylläpitotestauksen tulee olla laadukasta ja tehokasta toimivan ohjelmiston varmistamiseksi. Tässä työssä käydään lyhyesti läpi LTE teknologia, LTE tukiaseman rakenne, ketterä ohjelmistonkehitysmalli ja kuinka sitä hyödynnetään ohjelmiston ylläpidossa. Lopuksi työssä esitellään hyvän käyttöliittymän ominaisuudet. Tämän työn aikana kehitetty automaattinen testausympäristö ja raportointityökalu on kehitetty Nokia Solutions and Networksin ohjelmiston ylläpidosta vastaavien henkilöiden käyttötarkoituksiin sopivaksi. Testausympäristön tarkoituksena oli mahdollistaa laadukkaampi ja tehokkaampi ohjelmiston testaaminen ketterää ohjelmistonkehitysmallia hyödyntäen. Raportointityökalu on kehitetty noudattaen hyvän käyttöliittymän vaatimuksia ja työkalun tarkoituksena oli tarjota helppo ja nopea tapa tarkistaa testien tulokset, ohjelmiston laatu ja KPI arvot hieman pidemmältäkin aikaväliltä kuin aiemmin on ollut mahdollista. Työssä saavutettiin sille asetetut tavoitteet sillä se tarjoaa tehokkaan tavan testata ohjelmistoa automaattisesti. Lisäksi KPI arvot ja testien tulokset ovat helposti käyttäjien saatavilla ja ennen kaikkea raportointityökalun käyttöliittymä on helppokäyttöinen ja selkeä käyttäjien antaman palautteen perusteella.
18

Test harness for web browser fuzz testing

Kettunen, A. (Atte) 20 April 2015 (has links)
Modern web browsers are feature rich software applications available for different platforms ranging from home computers to mobile phones and modern TVs. Because of this variety, the security testing of web browsers is a diverse field of research. Typical publicly available tools for browser security testing are fuzz test case generators designed to target a single feature of a browser on a single platform. This work introduces a cross-platform testing harness for browser fuzz testing, called NodeFuzz. In the design of NodeFuzz, test case generators and instrumentation are separated from the core into separate modules. This allows the user to implement feature specific test case generators and platform specific instrumentations, and to execute those in different combinations. During development, NodeFuzz was tested with ten different test case generators and six different instrumentation modules. Over 50 vulnerabilities were uncovered from the tested web browsers during the development and testing of NodeFuzz.
19

Ikääntyneille virikkeitä tarjoava NFC-sovellus

Komulainen, O. (Onni) 30 April 2013 (has links)
Tämän diplomityön tarkoituksena oli tutkia NFC-teknologian soveltuvuutta iäkkäille käyttäjille tarkoitettuihin sovelluksiin. Diplomityössä perehdyttiin vanhainkodissa käytettävään viriketoimintaan, vanhuksille suunnattujen digitaalisten sovellusten esteettömyysvaatimuksiin ja NFC-sovelluksiin. Osana diplomityötä toteutettiin ikääntyneille älyllistä viriketoimintaa tarjoava NFC-sovellus. Fyysinen käyttöliittymä toteutettiin NFC-lukijan sisältävällä matkapuhelimella ja korteilla, joihin NFC-tunnisteet oli liitetty. Sovelluksessa pyrittiin huomioimaan kohderyhmälle suunnattu esteettömyys ja kiinnostavuus. Tutkimus toteutettiin kokeellisena käytettävyystestauksena vanhainkodissa. Käytettävyyden arviointi tapahtui havainnoimalla käytettävyystestaukseen osallistuneita vanhuksia. Käyttäjäkokemusta arvioitiin haastattelemalla vanhuksia. Vanhainkodin hoitajille tehtiin kyselylomake, jolla pyrittiin selvittämään testatun sovelluksen sopivuutta vanhainkodin viriketoiminnassa. Työssä toteutettu sovellus onnistui tavoitteissaan. Se palautti muistoja henkilöistä ja tapahtumista testaukseen osallistuneiden vanhusten mieleen. Toisaalta se toimi myös muistia ja kognitiivisia kykyjä haastavana pelinä. Käytettävyystestaus osoitti, että ikääntyneet oppivat helposti hallitsemaan NFC- tunnisteiden koskettamiseen perustuvan sovelluksen käyttöliittymän ja että sen avulla on mahdollista toteuttaa vanhuksia kiinnostavia sovelluksia. / The purpose of this thesis was to research the suitability of NFC-technology in applications intended for elderly users. This study discusses stimulating activity in Finnish residential homes, digital application accessibility requirements for elderly users and NFC-applications. The study utilized NFC applications as a possible method for effecting intellectual stimulus in elderly users. The physical interface was realized with a mobile phone equipped with an NFC reader and with cards fitted with NFC tags. The application’s adapted accessibility and attractiveness with respect to elderly users was taken into account during the application design phase. The research was carried out via empirical usability testing at a residential house. Evaluation of usability was done by observing elderly users during testing. User experience was evaluated by interview. A questionnaire concerning the suitability of the tested application as a stimulating activity was made for nurses. The implemented application fulfilled its objectives. It provoked memories of past events and persons in the users that took part in the testing. Secondly it also functioned as a game requiring memory and cognitive skills. This study shows that aged user can easily learn to handle user interfaces that are based on touching NFC tags and with NFC technology it is possible to implement applications attractive to elderly.
20

UbiBroker:event-based communication middleware

Luojus, P. (Petri) 09 December 2013 (has links)
This thesis presents the UbiBroker, an event-based communication middleware for ubiquitous computing environments. The experimental computing environment used in the thesis is provided by the UBI-hotspots, a network of pervasive displays deployed around Oulu. The functional requirements for the UbiBroker are elicited from the long-term experience in developing and maintaining the middleware software layer for the UBI-hotspots, including support for distributed ad hoc applications triggered by user input and context events, interoperability with a wide range of computing platforms, stability, and simplicity to reduce the burden of application developers. The UbiBroker enables ad hoc composition of distributed applications by referential decoupling of communicating processes with a communication model based on events and topic-based publish/subscribe messaging paradigm. The UbiBroker is implemented using the open source RabbitMQ message broker that provides interoperability with a wide range of operating systems and programming languages. The UbiBroker is subjected to comprehensive evaluation, including heuristic assessment with the distributed systems taxonomy of Tanenbaum and Steen, experimental performance evaluations in a lab network and in the UBIhotspot network, long-term production deployment in the UBI-hotspot network, and the development of several prototype applications such as the distributed Ubidoku game deployed on the UBI-hotspots. The evaluations show that the UbiBroker enables easy development of distributed applications for the UBI-hotspots. Stability is demonstrated by the fact that a single broker instance has been serving the UBI-hotspot network for five months and so far there has not been a single incident of the broker crashing or becoming unstable. The performance evaluations reveal hard upper limits for the message delivery capacity of the proposed broker architecture and provide insight into optimizing the configuration of the broker for different operating environments.

Page generated in 0.2075 seconds