Spelling suggestions: "subject:"forminformation."" "subject:"informationation.""
311 |
Tiedettä politiikan tueksi, mutta miten?:lähtökohtia Suomen ilmastopaneelin roolille tieteen ja politiikan välisessä vuorovaikutuksessaHulkkonen, M. (Mira) 05 December 2013 (has links)
Tieteen ja politikan kohtauspinta tiedeviestinnän näkökulmasta muodostaa tutkielman kattoteeman. Tutkimuskohteena on Suomen ilmastopaneeli sekä erityisesti lähtökohdat sen roolille tieteen ja politiikan välisessä vuorovaikutuksessa. Tavoitteena on tunnistaa tutkijoista koostuvan ilmastopaneelin sekä ilmastopolitiikan toimijoiden välisen vuorovaikutuksen nykytilanne ja ominaispiirteet, onnistumisen edellytykset sekä kipupisteet. Tutkimus ajoittuu paneelin ensimmäiselle toimikaudelle: työn valottamia näkökulmia ja tuloksia voidaan hyödyntää sen toiminnan arvioinnissa ja kehittämisessä.
Tutkimusaineisto on kerätty kahdessa vaiheessa. Suomen ilmastopaneelin sisäisiä näkemyksiä ja toimintatapoja kartoitettiin paneelin jäsenten ryhmähaastattelulla. Vuorovaikutuksen toista osapuolta, eli ilmastopolitiikan toimijoita kuvaava aineisto kerättiin kyselytutkimuksella. Sen kohdejoukko rajautui ilmastopoliittista valmistelutyötä tekeviin ministeriöiden virkamiehiin ja erityisavustajiin. Tutkimuksessa valitut näkökulmat ja kysymykset pohjautuvat erityisesti (tiede)viestinnän ja ilmastopolitiikan tutkimuskirjallisuuteen. Tulokset johdettiin aineistoista sekä laadullisin että määrällisin menetelmin.
Tulosten mukaan Suomen ilmastopaneelin omakuva on selkeä perustavoitteen osalta: tieteellisestä materiaalista kootaan monitieteisen prosessin tuloksena selvityksiä päättäjien käyttöön. Asialähtöisyys korostuu paneelin työssä, ja monitieteinen asiantuntijayhteistyö on koettu toimivaksi. Tahto tiedon yleistajuistamisen suuntaan on olemassa, mutta paneelin sisältä siihen ei nähdä löytyvän valmiuksia.
Ilmastopoliittista valmistelutyötä tekevät virkamiehet mieltävät Suomen ilmastopaneelin ja sen käsittelemät teemat hyödyllisiksi. Toistaiseksi sektoritutkimus on ollut heidän keskeisimpiä tietolähteitään, mutta jos Suomen ilmastopaneeli onnistuu kehittämään viestintäänsä, on sillä tämän tutkimuksen tulosten perusteella potentiaalia nousta merkittäväksi virkamiesten hyödyntämäksi tietolähteeksi. Monipuolisuudessa, tiedon tulkittavuudessa ja vuorovaikutushalukkuudessa Suomen ilmastopaneeli arvioidaan korkeammalle kuin tutkijat yleensä, mikä on teorian perusteella odotettu tulos ja linjassa paneelin asettamisen yhteydessä määriteltyjen tavoitteiden kanssa.
Tulokset osoittavat, että hajontaa esiintyy sekä paneelin sisäisissä käsityksissä että vuorovaikutuksen toisen osapuolen odotuksissa koskien paneelin roolia ja viestinnän tyyliä. Paneeli pyrkii olemaan liikkuva ja mukautuva tehtävänannosta riippuen, mutta selkeämmän imagon luominen ja johdonmukaisuus kannanottojen tyylissä erityisesti informatiivisuuden / toimenpiteisiin suostuttelevuuden osalta voisi edesauttaa viestin vaikuttavuutta. Tarve aktiivisemmalle tiedottamiselle, näkyvyyden lisäämiselle, roolin selkeyttämiselle sekä viestinnän määrälliselle ja laadulliselle kehittämiselle on ilmeinen.
|
312 |
UbiBroker:event-based communication middlewareLuojus, P. (Petri) 09 December 2013 (has links)
This thesis presents the UbiBroker, an event-based communication middleware for ubiquitous computing environments. The experimental computing environment used in the thesis is provided by the UBI-hotspots, a network of pervasive displays deployed around Oulu. The functional requirements for the UbiBroker are elicited from the long-term experience in developing and maintaining the middleware software layer for the UBI-hotspots, including support for distributed ad hoc applications triggered by user input and context events, interoperability with a wide range of computing platforms, stability, and simplicity to reduce the burden of application developers.
The UbiBroker enables ad hoc composition of distributed applications by referential decoupling of communicating processes with a communication model based on events and topic-based publish/subscribe messaging paradigm. The UbiBroker is implemented using the open source RabbitMQ message broker that provides interoperability with a wide range of operating systems and programming languages. The UbiBroker is subjected to comprehensive evaluation, including heuristic assessment with the distributed systems taxonomy of Tanenbaum and Steen, experimental performance evaluations in a lab network and in the UBIhotspot network, long-term production deployment in the UBI-hotspot network, and the development of several prototype applications such as the distributed Ubidoku game deployed on the UBI-hotspots.
The evaluations show that the UbiBroker enables easy development of distributed applications for the UBI-hotspots. Stability is demonstrated by the fact that a single broker instance has been serving the UBI-hotspot network for five months and so far there has not been a single incident of the broker crashing or becoming unstable. The performance evaluations reveal hard upper limits for the message delivery capacity of the proposed broker architecture and provide insight into optimizing the configuration of the broker for different operating environments.
|
313 |
Tietokanta-arkkitehtuurin suunnittelu ja optimointi joukkoistamista hyödyntävään palveluunHuhtala, A. (Arto) 08 May 2014 (has links)
Tietokannat ovat tärkeä osa nyky-yhteiskuntaa. Niitä tarvitaan lähes kaikessa päivittäisessä liiketoiminnassa. Tietokantojen rivimäärät ovat kasvaneet niin suuriksi, että niitä pyörittävien levyjärjestelmien suorituskyky ei sellaisenaan riitä hakemaan tietoa riittävän nopeasti. Tietokannan huolellisella suunnittelulla ja suorituskyvyn virittämisellä on merkittävä rooli niiden tehokkaan toimintakyvyn kannalta.
Tämän diplomityön tavoitteena on tutkia ja valita sopivin tietokannan hallintajärjestelmä, sekä suunnitella tietokantarakenne joukkoistamispohjaiselle innovointipalvelulle. Tietokannan sisältö päivittyy jatkuvasti, ja päätöksiä varten tiedon haku tietokannasta tulee tapahtua mahdollisimman nopeasti.
Kirjallisuustutkimuksen perusteella sopivimmaksi tietokannan hallintajärjestelmäksi valikoitui avoimeen lähdekoodiin perustuva PostgreSQL. Tietokantarakenteen suunnittelun jälkeen indeksoinnin vaikutusta suorituskykyyn testattiin avoimen lähdekoodin ohjelmistokehyksellä joka tukee Python-ohjelmointikieltä. Ohjelmistokehys liitettiin Internetissä toimivaan kehitysympäristöön, jolloin testit voitiin suorittaa oikeassa verkkoympäristössä. Testiympäristöön ladattiin Python-komentosarjoilla eri kokoluokan tauluita, joiden satunnaisesti luotu data vastasi käytännön sisältöä. Testeillä todettiin indeksoinnin vaikutus hakunopeuksiin.
Tulosten perusteella tietokannan indeksoinnilla on merkittävä vaikutus tietokannan suorituskyvyn kannalta. Lisäksi voidaan todeta, että avoimen lähdekoodin tietokannan hallintajärjestelmät ovat yhtä päteviä päivittäisen liiketoiminnan ylläpitämiseen kuin kaupalliset tietokannan hallintajärjestelmät. / Databases are an important part of modern society. Most businesses utilize databases to maintain their daily operations. Databases have grown significantly large in size. Computer systems running these databases encounter performance issues regardless of their computing capacity. Careful planning of database structure and its indexing has tremendous impact on database performance.
The aim of this Master’s thesis is to research and choose the most suitable database management system for a crowd sourcing based innovation service and design its database structure. Data stored in database is highly volatile, and database queries must perform as quickly as possible to make further decisions.
PostgreSQL was chosen as the database management system. Open source database management systems have grown their popularity over the years. After the database was designed, the impact of indexing was tested using an open source web framework that is developed with Python. The framework was attached to a Web based development environment, which enabled testing in a live network. Test tables were filled with random data generated with Python scripts. Despite randomness the data corresponds to actual data used in the innovation service. Test tables were used to verify the impact of indexing.
Test results show that indexing has a significant role in database performance. Moreover, open source database management systems are equally competitive to leading commercial database management systems.
|
314 |
Datan visualisoinnin hyödyntäminen fuzz-testauksen valvonnassaVainio, J. (Jarmo) 27 May 2014 (has links)
Security vulnerabilities are a serious concern in today’s software development. Complex software applications and systems may contain flaws that can be exploited by a remote attacker to execute malicious code. One method of finding vulnerabilities and bugs is by using a method of robustness testing, fuzzing. Fuzzers are mostly automated tools that are used to find flaws and unexpected behavior in the system under test.
Nowadays it is not uncommon to have multiple fuzzers running simultaneously on different systems in order to find bugs more efficiently. Although the fuzz testing process is mostly automated, there can be value in providing information about the testing process and its results in a visual form.
This work studies the use of data visualization techniques in monitoring fuzz testing processes. This is accomplished by developing a network based monitoring system that collects and visualizes test data. The monitoring system is used to run test scenarios and simulations to study the usefulness of data visualization, and its different techniques in fuzz testing.
The results from the performed case studies show that two-dimensional visualization techniques can effectively provide useful information about the fuzz testing process. The results also indicate that interactive visualization techniques are especially useful for testing process monitoring scenarios. / Tärkeä osa nykypäivän ohjelmistokehitystä on mahdollisten tietoturva-aukkojen löytäminen ja paikkaaminen. Etenkin monimutkaiset ohjelmistot ja järjestelmät voivat sisältää virheitä, joita ulkopuolinen taho voi käyttää haitallisen toiminnan ajamiseen tietokoneella. Yksi keino tietoturva-aukkojen löytämiseen on fuzz-testauksen käyttäminen. Fuzzerit ovat enimmäkseen automatisoituja ohjelmia, joita käytetään löytämään tilanteita, joissa ohjelmisto kaatuu tai käyttäytyy odottamattomasti. Nykyään on yleistä käyttää useita fuzzereita rinnakkain eri järjestelmissä, jotta ohjelmistovirheitä löydettäisiin tehokkaammin. Fuzz-testauksen valvonta, varsinkin useiden järjestelmien tilanteissa, voi hyötyä testausprosessin tiedon esittämisestä visuaalisin keinoin.
Tässä työssä tutkitaan datan visualisoinnin tekniikoita fuzz-testauksen valvonnan yhteydessä. Työssä kehitetään verkkopohjainen valvontajärjestelmä, joka kerää ja visualisoi testidataa muilta järjestelmiltä. Valvontajärjestelmää käytetään visualisoimaan dataa sekä yksittäisestä fuzzerista, että laajemmista monen fuzzerin simulaatioista.
Saatujen tulosten perusteella nähdään, että kaksiulotteisten visualisointitekniikoiden avulla voidaan saada hyödyllistä ja helposti ymmärrettävää tietoa fuzzausprosessista. Tulosten mukaan erityisen hyödyllisiksi fuzzauksen valvonnassa osottautuivat visualisaatiot, jotka tarjoavat interaktiivisuutta käyttäjälle.
|
315 |
Japanin tiedettä, teknologiaa ja maahan liittyviä tutkimuskohteita käsittelevät tekstit Tiede-lehdessä vuosina 2005, 2006 ja 2010Nissinen, S. (Sanna) 17 November 2014 (has links)
Pro gradussa analysoidaan Tiede-lehden kirjoituksia, joissa kerrotaan Japanin tieteellisestä ja teknologisesta toiminnasta sekä erilaisista Japaniin liittyvistä tutkimuskohteista. Aineisto on kerätty vuosilta 2005, 2006 ja 2010. Tutkimuksen tarkoituksena on ollut selvittää mitä aiheita ja ihmisiä valituissa kirjoituksissa nostetaan esille. Näistä asioista ja ihmisistä on muodostettu niitä kuvaavia aiheluokkia, joiden suhteelliset osuudet aiheita koskevien mainintojen kokonaismäärästä on laskettu. Näitä suhteellisia osuuksia on myös verrattu toisiinsa, jotta aiheluokkien erot määrien suhteen on voitu selvittää. Toisaalta aiheluokissa olevat maininnat on laskettu yhteen, jonka jälkeen on selvitetty kunkin tutkimusvuoden mainintojen suhteellinen osuus mainintojen kokonaismäärästä tutkimusvuosien vertaamiseksi. Lisäksi on selvitetty saavatko aiheluokkiin liittyvät maininnat tekstissä ”päähuomion” vai ”maininnan”. Toisaalta tutkimuksen tarkoituksena on ollut selvittää, että minkälaisia representaatioita aineistosta löytyy tieteellisen ja teknologiseen tutkimukseen sekä sen tekijöihin että tuloksiin liittyen. Tässä analyysissa on analysoitu vuosien 2005 ja 2010 tekstejä. Representaatioita on verrattu muiden medioiden ja muissa tutkimuksissa esille tulleisiin representaatioihin samanlaisten representaatioiden löytämiseksi. Toisaalta tieteen tekemisen luonnetta selvittävistä teoksista on haettu selityksiä näille representaatioille. Lisäksi on selvitetty kirjoituksissa käytettyjen kuvien ja kuvatekstien suhdetta tekstien representaatioihin. Tutkimuksen ensimmäisessä osassa on hyödynnetty luokittelun metodia, johon on liitetty joitakin aineistolähtöisen analyysin ideoita. Luokittelua on luonnehdittu kvantitatiiviseksi analyysiksi sisällön teemoin. Täten tutkimuksessa on käytetty sekä kvalitatiivisia että kvantitatiivisia metodeja. Representaatioiden analyysissa on käytetty hyväksi Norman Faircloughin esittelemiä metodeja. Lisäksi kuvien osalta on tutkittu denaatiota. Aineistossa kerrotaan monipuolisesti Japanin tieteellisestä ja teknologisesta toiminnasta ja maahan liittyvistä tutkimuskohteista Siitä on eroteltavissa erilaisia tekijöitä, toiminnan muotoja ja tutkimuskohteita. Eniten kirjoitetaan ”lopputuloksista” ja vähiten ”tieteen populaaristamisesta”. Aiheiden jakaantumiseen tekstin sisällä liittyen on ilmeistä, että ”tekijät ”esiintyivät aineistossa aina ”mainintoina”, mutta ”toimintaan” liittyvät asiat ovat useimmiten ”päähuomion” kohteena. Sen sijaan ”tutkimuskohteet” ovat aina aineistossa ”päähuomion” kohteena. Aineistosta löytyy myös monenlaisia reprentaatioita. Osa näistä representaatioita löytyy myös muusta tutkimuskirjallisuudesta. Medioissa siis käytetään samoja representaatioita tieteestä ja teknologiasta kerrottaessa. Kysymykseen siitä, että onko aineistossa representaatiota, jonka mukaan olisi olemassa erilistä japanilaista ”toimintaa”, ei voitu antaa varmaa vastausta. Kuvissa ja kuvateksteissä esiintyy sekä tekstin mukaisia että siitä eroavia representaatioita. Toimenpidesuosituksia ei voida antaa, mutta tutkimus tuo esille monia uusia tutkimusaiheita.
|
316 |
RESTful clinical data management systemOkkonen, O. (Olli) 01 June 2015 (has links)
Elämme digitalisaation aikakautta, jolloin tietokoneiden avulla on mahdollista saavuttaa kustannustehokkuutta ja automaatio tiedonhallintaan. Kliiniset tutkimukset eivät ole onnistuneet pysymään mukana teknologiakehityksessä vaan turvautuvat yhä perinteisiin paperisiin keinoihin, mikä hidastaa ja vaikeuttaa tiedon hallintaa suurina määrinä viivästyttäen tutkimuksen loppuanalyysia. Suurimmat syyt tähän ovat olleen kehnot ohjelmistojen laadut, tietotaidon puute sekä epäonnistuneet käyttöönotot organisaation tasolla.
Tämä diplomityö esittelee Genesiksen, web-pohjaisen kliinisen tiedonhallintajärjestelmän tukemaan LIRA-tutkimuksen tarpeita Suomessa sekä Ruotsissa. Työssä esitellään kuinka Genesiksen kehityksessä on huomioitu tietoturva ja ketterän kehityksen periaatteet tarjoamaan ohjelmistolle vaivatonta käyttöä sekä lisäarvoa uudelleenkäytettävyydellä. Uudelleenkäytettävyyttä on tavoitettu ohjelmiston helpolla siirrettävyydellä tuleviin tutkimuksiin sekä yhteensopivuutta web-pohjaisten laitteiden kanssa yhtenäisellä rajapinnalla.
Lisäksi, työssä esitellään Genesiksen toteutus ja pohditaan järjestelmän tulevaisuutta. Alustavasti Genesiksen hyödyntämisestä on kiinnostunut myös maailman suurin tyypin-1 diabetes tutkimus. / In the era of digitalization, clinical trials have often been left behind in adoption of automation and cost-efficiency offered by computerized systems. Poor implementations, lack of technical experience, and inertia caused by overlapping old and new procedures have failed to prove the business value of data management systems. This has led into settling for inadequate tools for data management, leaving many studies struggling with traditional approaches involving heavy paper usage further complicating the management and drastically slowing preparations for final analysis.
This Master’s Thesis presents Genesis, a web-based clinical data management system development for the LIRA-study, which will take place in Finland and Sweden. Genesis has been developed to address the aforementioned obstacles with adopting information technology solutions in an agile manner with the integration of security concerns. Furthermore, Genesis has been designed to offer the long term value through reusability in terms of effortless portability for upcoming studies and interconnectability with web-enabled legacy system and handheld devices via a uniform interface.
In addition to representing the design, implementation and evaluation of Genesis, the future prospects of Genesis are discussed, noting the preliminary interest of utilizing Genesis in additional studies, including the world’s largest type-1 diabetes study.
|
317 |
Putt swing and hit measurement using a wrist deviceKäsmä, T. (Tommi) 13 October 2015 (has links)
Developing automated electronic training aids for sports has become more and more viable in recent years. Modern smartphones provide ubiquitously available computing resources. Combined with ever smaller, increasingly accurate and energy efficient motion measurement technologies, this has enabled the creation of automated systems able to offer feedback to people engaged in various sports, thus aiding them in their training.
In many sports, including golf, it is of interest to track the movement of the hands and arms to gain insight into the player’s technique. Wrist mounted devices, such as wrist watches, are widely used and accepted to be relatively unintrusive to wear in many sports. The wrist is also directly connected to the hands that control the used equipment, such as golf clubs.
Following a review of currently existing golf training aids, wrist device was chosen as a suitable compromise between user comfort and performance for measuring movement in golf. In the context of this thesis, a prototype device for measuring golf putts was designed and implemented. In addition, a simulation set-up was created for measuring acceleration data during golf putts performed by a human subject and a purpose-built human analogue. The resulting signals were analysed with a view towards use in algorithm development.
The implemented device proved able to produce data of sufficient quality and quantity to enable algorithm design and implementation. A preliminary test was performed to verify that detection of putts using this device was viable, thus laying the base for creating an automated system able to give instant feedback to the user. / Viime vuosina urheiluharjoittelua tukemaan on kehitetty sähköisiä apulaitteita. Älypuhelimien laskentaresurssit yhdistettynä yhä pienempiin, tarkempiin ja energiatehokkaampiin liikkeenmittausteknologioihin ovat mahdollistaneet automaattiset järjestelmät, jotka kykenevät palautteella tehostamaan eri urheilulajien harjoittelua.
Käsien ja käsivarsien tarkka seuraaminen on hyödyllistä monessa urheilulajissa, mukaan lukien golfissa. Tieto käsien liikkeestä voi auttaa ymmärtämään pelaajien tekniikkaa paremmin. Rannekellon tyylisten laitteiden koetaan olevan huomaamattomia käytössä. Ranteet ovat myöskin suorassa yhteydessä käsiin, joilla urheiluvälineitä usein hallitaan.
Tässä työssä tarkasteltiin tällä hetkellä olemassa olevia golfharjoittelun apuvälineitä. Rannelaitteen katsottiin olevan sopiva kompromissi käyttäjämukavuuden ja mittaussuorituskyvyn väliltä liikkeen mittausta varten golfissa.
Toteutetulla prototyyppilaitteella mitattiin puttien kiihtyvyysdataa. Putteja suoritti sekä testihenkilö, että mekaaninen aitoa puttiliikettä matkimaan rakennettu laite. Mitattuja signaaleja tarkasteltiin algoritmikehityksen kannalta. Laitteen todettiin käytännössä kykenevän tuottamaan määrällisesti ja laadullisesti riittävää dataa algoritmikehitystä varten. Alustavassa testauksessa varmistettiin, että puttien automaattinen tunnistaminen laitetta käyttäen on mahdollista. Tulokset ovat perusta automaattisesti palautetta antavan järjestelmän luomiselle.
|
318 |
BM3D image denoising using heterogeneous computing platformsSarjanoja, S. (Sampsa) 20 April 2015 (has links)
Noise reduction is one of the most fundamental digital image processing problems, and is often designed to be solved at an early stage of the image processing path. Noise appears on the images in many different ways, and it is inevitable. In general, various image processing algorithms perform better if their input is as error-free as possible. In order to keep the processing delays small in different computing platforms, it is important that the noise reduction is performed swiftly.
The recent progress in the entertainment industry has led to major improvements in the computing capabilities of graphics cards. Today, graphics circuits consist of several hundreds or even thousands of computing units. Using these computing units for general-purpose computation is possible with OpenCL and CUDA programming interfaces. In applications where the processed data is relatively independent, using parallel computing units may increase the performance significantly. Graphics chips enabled with general-purpose computation capabilities are becoming more common also in mobile devices. In addition, photography has never been as popular as it is nowadays by using mobile devices.
This thesis aims to implement the calculation of the state-of-the-art technology used in noise reduction, block-matching and three-dimensional filtering (BM3D), to be executed in heterogeneous computing environments. This study evaluates the performance of the presented implementations by making comparisons with existing implementations. The presented implementations achieve significant benefits from the use of parallel computing devices. At the same time the comparisons illustrate general problems in the utilization of using massively parallel processing for the calculation of complex imaging algorithms. / Kohinanpoisto on yksi keskeisimmistä digitaaliseen kuvankäsittelyyn liittyvistä ongelmista, joka useimmiten pyritään ratkaisemaan jo signaalinkäsittelyvuon varhaisessa vaiheessa. Kohinaa ilmestyy kuviin monella eri tavalla ja sen esiintyminen on väistämätöntä. Useat kuvankäsittelyalgoritmit toimivat paremmin, jos niiden syöte on valmiiksi mahdollisimman virheetöntä käsiteltäväksi. Jotta kuvankäsittelyviiveet pysyisivät pieninä eri laskenta-alustoilla, on tärkeää että myös kohinanpoisto suoritetaan nopeasti.
Viihdeteollisuuden kehityksen myötä näytönohjaimien laskentateho on moninkertaistunut. Nykyisin näytönohjainpiirit koostuvat useista sadoista tai jopa tuhansista laskentayksiköistä. Näiden laskentayksiköiden käyttäminen yleiskäyttöiseen laskentaan on mahdollista OpenCL- ja CUDA-ohjelmointirajapinnoilla. Rinnakkaislaskenta usealla laskentayksiköllä mahdollistaa suuria suorituskyvyn parannuksia käyttökohteissa, joissa käsiteltävä tieto on toisistaan riippumatonta tai löyhästi riippuvaista. Näytönohjainpiirien käyttö yleisessä laskennassa on yleistymässä myös mobiililaitteissa. Lisäksi valokuvaaminen on nykypäivänä suosituinta juuri mobiililaitteilla.
Tämä diplomityö pyrkii selvittämään viimeisimmän kohinanpoistoon käytettävän tekniikan, lohkonsovitus ja kolmiulotteinen suodatus (block-matching and three-dimensional filtering, BM3D), laskennan toteuttamista heterogeenisissä laskentaympäristöissä. Työssä arvioidaan esiteltyjen toteutusten suorituskykyä tekemällä vertailuja jo olemassa oleviin toteutuksiin. Esitellyt toteutukset saavuttavat merkittäviä hyötyjä rinnakkaislaskennan käyttämisestä. Samalla vertailuissa havainnollistetaan yleisiä ongelmakohtia näytönohjainlaskennan hyödyntämisessä monimutkaisten kuvankäsittelyalgoritmien laskentaan.
|
319 |
REST-tyylin ja ROA-arkkitehtuurin mukainen rajapinta pankkijärjestelmäänMäcklin, R. (Risto) 20 April 2015 (has links)
Palvelujen digitalisoituminen vaatii yrityksiltä ketteryyttä, jotta ne voivat menestyä kansainvälisessä kilpailussa. Palvelujen siirtyminen Internetiin on vaatinut pankkien tietojärjestelmien ja liiketoimintaprosessien voimakasta kehittämistä. Tietojärjestelmien tarjoamien palvelujen suunnittelussa ja toteutuksessa tavoitellaan ketteryyttä, laajennettavuutta ja skaalautuvuutta, johon modernit Internet-teknologiat antavat hyvät mahdollisuudet.
Tässä diplomityössä tehtiin resurssiorientoituneen arkkitehtuurin (ROA) ja Representational State Transfer (REST) -tyylin mukainen ohjelmointirajapinta pankkijärjestelmään. Rajapinnan suunnittelussa perehdyttiin SOA- ja ROA-arkkitehtuureihin ja esimerkkeihin niiden aiemmasta hyödyntämisestä pankkijärjestelmissä. Toteutettu ohjelmointirajapinta säilyttää palveluorientoituneen arkkitehtuurin (SOA) hyödyt ja esittää liiketoimintaprosessit ROA-arkkitehtuurin ja REST-tyylin mukaisesti. Ohjelmointirajapintaa arviointiin vertaamalla sitä kahteen muuhun toteutukseen kokeellisesti ja heuristisesti. Ohjelmistorajapinnan toteutustavan todettiin täyttävän pankkien tietojärjestelmien ketterän kehityksen vaatimukset. / The digitization of services requires companies to be agile so that they can thrive in international competition. The fact that services are moving to the Internet has required banks to heavily develop their information systems and business processes. The design and implementation of the services provided by the information systems pursues agility, extensibility and scalability, for which modern Internet technologies offer great opportunities.
This thesis contributed a REST and ROA compliant API for a banking system. The design of the API involved studying the SOA and ROA architectures and selected examples of their utilization in banking systems. The implemented API preserves the benefits of the SOA architecture and presents business processes according to the ROA architecture and REST style. The API was compared to two other implementations empirically and heuristically. The implementation of the API was found to fulfill the requirements of the agile development of banking information systems.
|
320 |
LTE evolution towards 5GPukari, V. (Ville) 08 April 2016 (has links)
The development of mobile telecommunication systems is a constant process and there is a high demand to add new features and further enhance the long term evolution advanced (LTE-A), also known as 4G. The development of telecommunication systems will continue with new, 5th generation (5G) radio technology. The latest enhancements and added features of the LTE will be inherited by the 5G. 5G technology is likely to satisfy different wireless communication user requirements concerning higher data rates, greater reliability, mobility, energy efficiency and security. This thesis will present the 5G requirements set by 3rd Generation Partnership Project (3GPP), as well as the most important enhancements and new features for the LTE which aim to partially fulfill these requirements. The key feature concepts shall be examined and their impacts on protocol layers 1 and 2 shall be analyzed briefly.
One of the biggest challenges for mobile telecommunication system is to minimize power consumption. 3GPP has introduced several methods to address this issue e.g. Discontinuous Reception (DRX). In this thesis, the power saving mode (PSM) feature implementation is presented based on the technology of 3GPP Release 12. The basic idea of this feature is to allow the user equipment (UE) to enter a power saving mode when there is no need for network communications. This expands total battery life and opens new use cases for similar LTE based devices, e.g. weather stations. The completed feature was validated with unit tests. The power consumption of the UE was measured with and without the PSM and the results were evaluated accordingly. UE can achieve even lower power consumption levels in PSM, than in normal idle mode and with appropriate PSM timer values standby time can stretch to several weeks or even years. / Mobiilien telekommunikaatiojärjestelmien kehitys on jatkuva prosessi ja tänä päivänä on paljon kysyntää lisätä uusia ominaisuuksia ja parannuksia kehittyneeseen pitkän aikavälin evoluutioon (Long Term Evolution Advanced, LTE-A), toisinsanoen 4G:hen. Telekommunikaatiojärjestelmien kehitys jatkuu uuden, viidennen sukupolven (5G) radioteknologialla ja uusimmat parannukset periytyvät LTE:stä osaksi 5G:tä. 5G-teknologian nähdään täyttävän monen eri langattoman viestinnän käyttäjäryhmän tarpeet esimerkiksi suurempien datanopeuksien, paremman luotettavuuden, liikkuvuuden, energiatehokkuuden ja turvallisuuden suhteen. Tämä työ esittelee 3rd Generation Partnership Projektin (3GPP) asettamat vaatimukset 5G:lle sekä tärkeimmät LTE-parannukset ja uudet ominaisuudet, joilla pyritään osittain täyttämään nämä vaatimukset. Tärkeimpien ominaisuuksien periaatteet selvitetään ja vaikutukset protokollatasoille 1 ja 2 analysoidaan lyhyesti.
Yksi suurimmista mobiilin tietoliikennejärjestelmäkehityksen haasteista on virrankulutuksen minimoiminen. 3GPP on esitellyt useita menetelmiä ongelman ratkaisemiseksi, kuten esimerkiksi epäjatkuvan vastaanoton (Discontinuous Reception, DRX) mekanismin. Tämä työ esittelee virransäästötilan (PSM) toteutuksen 3GPP release 12:sta perustuvalla LTE-mobiililaitteen prototyypillä. Tämän ominaisuuden perusideana on mahdollistaa mobililaitteen meneminen valmiustilaan silloin kun ei ole tarpeellista kommunikoida verkon kanssa. Tämä lisää akunkestoa ja avaa uusia käyttötapauksia, kuten esimerkiksi LTE-sääasemat. Valmis ominaisuus varmennettiin yksikkötesteillä. Virrankulutus mitattiin virransäästötila päällä sekä pois päältä ja tulokset arvioitiin. Virrankulutuksen huomattiin laskeavan virransäästötilassa alemmalle tasolle kuin tilanteessa, jossa verkkoa ei kuunnella ja sopivilla PSM-ajastinarvoilla valmiustilan kestoa voidaan pidentää viikoilla tai jopa vuosilla.
|
Page generated in 0.1091 seconds