• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28541
  • 11042
  • 7303
  • 1719
  • 1510
  • 1019
  • 758
  • 508
  • 452
  • 406
  • 356
  • 314
  • 281
  • 236
  • 230
  • Tagged with
  • 61527
  • 14045
  • 10849
  • 10834
  • 9818
  • 9255
  • 9149
  • 8566
  • 8369
  • 8367
  • 7360
  • 6330
  • 5731
  • 5726
  • 5652
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
281

Transsukupuolisten identiteetin rakentamiseen liittyvä informaatiokäyttäytyminen

Pohjanen, A. (Aira) 16 September 2013 (has links)
Tämä pro gradu-työ käsittelee transsukupuolisten identiteetin rakentamiseen liittyvää informaatiokäyttäytymistä. Tutkimuksen kohteena on suomalaiset transsukupuoliset. Heidän informaatiokäyttäytymistä ei ole tutkittu aiemmin, joten aiheen tutkiminen on tärkeää. Transsukupuoliset ovat yksi sukupuolivähemmistöistä. He ovat ihmisiä, jotka eivät koe kuuluvansa siihen sukupuoleen, johon heidät on syntymässä määritelty. Monet transsukupuoliset haluavat korjata kehonsa vastaamaan sitä sukupuolta, johon he kokevat kuuluvansa. Informaatiokäyttäytyminen liittyy siihen, kuinka ihmiset ovat tekemisissä informaation kanssa. Se sisältää sekä aktiivisen että passiivisen informaation etsinnän ja käytön. Tässä tutkimuksessa selvitettiin transsukupuolisten tiedontarpeita, niiden muuttumista, tiedonhankintaan käytettyjä lähteitä, vertaistuen merkitystä tiedon saamiselle, tiedon jakamista sekä ongelmia ja esteitä, joita tiedonhankintaan oli liittynyt. Tutkimuksessa haastateltiin kahtatoista transsukupuolista henkilöä. Tutkimusmenetelmänä käytettiin teemahaastattelua. Teemahaastattelu on laadullinen tutkimusmenetelmä, eikä sen avulla saadut tulokset ole yleistettävissä. Tutkimuksen avulla saatiin selville, että haastateltavat olivat tarvinneet transsukupuolisuutta ja sukupuolivähemmistöjä käsittelevää tietoa oman sukupuoli-identiteettinsä rakentamiseen. Alkuvaiheen tiedonhankinnassa sattumalla oli iso osuus tiedon saamisessa. Oman sukupuoli-identiteetin muodostuminen oli alkanut vasta, kun transsukupuolisuudesta oli saatu tietoa. Vertaistuella ja muilla transsukupuolisilla oli suuri merkitys tiedon saamiselle. Haastateltavien tiedontarpeet olivat heidän elämänsä aikana muuttuneet oman identiteetin muotouduttua. Osa haastateltavista ei enää hakenut tietoa transsukupuolisuudesta aktiivisesti. Transsukupuoliset olivat toimineet tiedon jakajina kertoen ilmiöstä siitä tietämättömille sekä jakaen tietoa ajankohtaisista asioista muille transsukupuolisille. Transsukupuolisuutta koskevaa tietoa ei ole helposti saatavilla ja tiedon saamiseen liittyy paljon esteitä. Esteitä tiedon saamisessa oli koettu etenkin tiedonhankinnan alkuvaiheessa, jolloin haastateltavilla ei ollut vielä sanoja, joilla hakea tietoa. Suurin osa esteistä johtui tiedonlähteiden ominaisuuksista. Tieto saattoi olla vaikeasti saatavilla tai se ei ollut luotettavaa. Myös sukupuolenkorjaushoitoja koskevaa tietoa oli vaikea saada. Tässä tutkimuksessa luotiin kolmen teorian (Wilsonin 1997; Williamsonin 1998; McKenzie 2003) pohjalta informaatiokäyttäytymisen ja tiedonhankinnan esteiden malli. Tämä malli kuvaa informaatiokäyttäytymistä ottaen huomioon informaatiokäyttäytymisen tavat ja ympäristöt sekä siihen vaikuttavat esteet. Mallia hyödynnettiin tämän tutkimuksen tutkimustulosten tarkastelussa.
282

A tool for generating protocol dissectors for Wireshark in Lua

Luomala, J. (Jarmo) 05 December 2013 (has links)
Packet analysis is an essential part of monitoring and understanding network traffic. Packet analyzers are used to capture binary data flowing inside networks, decode it, and parse the decoded stream into a structured, human-readable form. Packet analyzers consist of protocol dissectors, small pieces of software that dissect the captured data stream into separate packets and fields according to the specified protocol rules. Because new protocols are developed constantly and a dissector is needed for every protocol that an analyzer is supposed to understand, there is a continuous need to create dissectors. Manual writing of them is time-consuming, requires familiarity with the target analyzer, the structure of the dissectors, and of course programming skills. Therefore, a tool that would automate the actual dissector creation process would be useful. In this thesis, packet analyzers and protocol dissectors are studied. Functionalities and typical uses of packet analyzers are explored, especially from the information security point of view. In the empirical part, a tool for generating protocol dissectors for Wireshark, which is a very popular network packet analyzer, is implemented and introduced. The tool has a graphical user interface and it generates the dissectors in Lua programming language. Several executed test cases with custom protocols have proven that the tool generates valid Lua files which work properly as protocol dissectors in Wireshark. Used sample packets are dissected correctly according to the protocol rules and definitions specified with the tool. Both fixed and variable length fields and packets can be defined, and both parent dissectors and subdissectors can be created. / Pakettianalyysi on olennainen osa tietoverkkoliikenteen tarkkailua ja ymmärtämistä. Pakettianalysaattoreita käytetään kaappaamaan tietoverkoissa virtaavaa binääridataa, dekoodaamaan se ja parsimaan dekoodattu data jäsenneltyyn, luettavaan muotoon. Pakettianalysaattorit koostuvat protokollapilkkojista/dissektoreista, pienistä ohjelmistopaloista, jotka leikkelevät kaapatun datan erillisiin paketteihin ja kenttiin määriteltyjen protokollasääntöjen mukaisesti. Koska uusia protokollia kehitetään lakkaamatta ja analysaattori tarvitsee dissektorin jokaista protokollaa varten, jota sen on tarkoitus ymmärtää, on jatkuva tarve luoda dissektoreita. Niiden kirjoittaminen käsin on aikaavievää, vaatii perehtyneisyyttä kohdeanalysaattoriin, dissektoreiden rakenteeseen ja tietysti ohjelmointitaitoja. Sen vuoksi työkalu, joka automatisoisi varsinaisen dissektorinluomisprosessin, olisi hyödyllinen. Tässä diplomityössä tutkitaan pakettianalysaattoreita ja protokolladissektoreita. Pakettianalysaattoreiden toiminnallisuuksia ja tyypillisiä käyttötapoja tarkastellaan erityisesti tietoturvan näkökulmasta. Työssä kehitetään ja esitellään työkalu dissektoreiden tuottamiseksi Wireshark:lle, joka on erittäin suosittu tietoverkkopakettianalysaattori. Työkalulla on graafinen käyttöliittymä ja se luo dissektorit Lua-ohjelmointikielellä. Useat suoritetut testitapaukset erikoisprotokollilla ovat osoittaneet, että työkalu luo valideja Lua-tiedostoja, jotka toimivat asianmukaisesti protokolladissektoreina Wireshark:ssa. Käytetyt näytepaketit pilkotaan oikein työkalulla määriteltyjen protokollasääntöjen ja määritelmien mukaisesti. Sekä kiinteän että vaihtelevan pituisia kenttiä ja paketteja voidaan määritellä, ja sekä yli- että alidissektoreita voidaan luoda.
283

Asiakasvirtoihin reagoiva medianäyttöjärjestelmä

Kananen, A. (Antti) 17 February 2014 (has links)
Markkinointi ja mainonta ovat hyvin nopeasti digitalisoituneet erilaisten Internet-pohjaisten palveluiden ja verkkokauppojen kehittymisen myötä. Internetin haku- ja seurantapalveluiden avulla potentiaalisille asiakkaille kohdennetaan mainontaa ja viestintää. Kohdentaminen tapahtuu asiakkaiden hakutulosten sekä verkkokäyttäytymisen pohjalta. Perinteiset kauppaliikkeet ovat yrittäneet seurata asiakasvirtojen avulla asiakkaiden ostokäyttäytymistä, mutta tämä on tapahtunut aina jälkikäteen. Ostokäyttäytymisen analysointi on mahdollista vasta silloin, kun asiakkaat maksavat kassalla. Perinteisiltä kaupoilta on puuttunut keinot tunnistaa asiakkaansa verkkopalveluiden tavoin jo aulassa sekä seurata heitä kauppaliikkeen tiloissa. Tässä diplomityössä on kehitetty ja demonstroitu perinteisille kauppaliikkeille soveltuvaa medianäyttöteknologiaa, mikä tasoittaa tiedonkeruullista kilpailutasoa verkkokauppaan. Periaatteena on seurata asiakkaan liikkumista kauppaliikkeessä ja tunnistaa asiakkaan sukupuoli, ikä ja muut mahdolliset piirteet. Asiakkaiden liikkeiden seurannan ja ominaisuuksien tunnistamisen pohjalta on tarkoitus kohdentaa medianäyttöjen sisältöä asiakkaille sekä löytää keinoja parantaa kauppaliikkeen liiketoimintaa. Tavoitteena on ollut asiakkaiden ja asiakasryhmien kiinnostusten kohteiden selvittäminen heti kauppaliikkeen aulassa, mikä on symmetristä verkkopalveluiden kanssa. Keskeinen havainto on, että asiakkaiden huomio saadaan kiinnitettyä heitä kiinnostavan sisällön avulla. Tämä mahdollistaa asiakkaiden karakterisoinnin ja mainonnan kohdentamisen. Medianäyttöjärjestelmien sisältömateriaalit ja toiminnallisuudet on perusteltua suunnitella tältä pohjalta. / Marketing and advertising have been digitalized rapidly by the development of Internet-based services and web stores. With Internet search- and tracking services advertisements and messages are targeted to potential customers. Targeting is based on customers’ search results and online behavior. Traditional shops have tried to track customers’ shopping behavior by tracking customer flows, but this has always taken place afterwards. Analysis of the shopping behavior is possible only when customers pay at checkout. Traditional shops have lacked the ways to identify customers already in the lobby same way as web-services do, as well as to follow them in store’s premises. In the context of this Master’s thesis applied media screen technology balances out the competitive level of data collection compared to web stores. It has been developed and demonstrated for traditional shops. The principle is to track the movement of a customer in a shop and identify the customer’s gender, age and other possible features. Based on the identification of customer’s movements and characteristics the purpose is to target the content of media screens to the customer and find ways to improve shop’s business capacity. The goal has been to find out the objects of interests of customers and customer groups immediately in the store’s lobby which is symmetrical with web-services. A key finding is that the customers’ attention can be attracted with relevant content. This enables the characterization of the customers and the targeting of advertising. This can be used to justify the planning of media screen contents and functionalities.
284

Comparative analysis of fuzzing frameworks and techniques in terms of effectiveness and deployment

Kovalainen, V.-V. (Ville-Veikko) 02 June 2014 (has links)
Fuzz-testaus, eli fuzzaus, on ohjelmistotestauksen muoto, jossa testattavaa toteutusta jykevyystestataan altistamalla se odottamattomille tai osittain valideille syötteille. Fuzz-sovelluskehyksiä voidaan käyttää fuzz-testisarjojen kehittämiseen. Tässä työssä toteutettiin vertaileva analyysi erilaisille fuzz-sovelluskehyksille mukaanlukien kaksi ilmaista testikehystä ja yksi kaupallinen ratkaisu. Testikohteiksi valittiin kolme verkkoprotokollaa ja kokoelma niitä hyödyntäviä ohjelmistoja. Valitut protokollat olivat File Transfer Protocol (FTP), Locator/ID Separation Protocol (LISP) ja Session Initiation Protocol (SIP). Testikohteille rakennettiin omat testiympäristönsä. Fuzz-testikehyksien avulla kehitettiin fuzz-testisarjat valituille protokollille. Testisarjoja suoritettiin testikohteita vastaan ja tuloksia valvottiin tarkasti. Testaukselle määriteltiin joukko metriikoita, mukaanlukien tehokkuus löydettyjen kaatumisien muodossa, koodikattavuus ja ajonaikainen suorituskyky. Saadut tulokset osoittavat selvän eron testattujen fuzz-sovelluskehysten välillä. Kaupallinen ratkaisu tarjosi parhaan kattavuuden, löysi eniten kaatumisia ja oli kaiken kaikkiaan joustavin kehityksen ja käyttöönoton suhteen. Muut vaikuttivat myös lupaavilta, mutta jäivät jälkeen suorituskyvyssä tai tehokkuudessa, yleisessä laadussa ja osoittivat myös puutteita kehityksen ja käyttöönoton suhteen. / Fuzz testing, or fuzzing, is a form of software testing where the implementation under test is exposed to unexpected or semi-valid inputs in the interest of robustness testing. Fuzzing frameworks can be utilized to develop fuzzing test suites. In this thesis, a comparative analysis was performed on different fuzzing frameworks including two freely distributed frameworks and one commercial solution. Three network protocols and a collection of software implementations utilizing these protocols were chosen as test targets. The protocols were File Transfer Protocol (FTP), Locator/ID Separation Protocol (LISP), and Session Initiation Protocol (SIP). A set of test environments was constructed for all the test targets. Fuzzing test suites for the chosen protocols were developed with the fuzzing frameworks. The test suites were executed towards the test targets and the results monitored closely. A set of metrics for the tests was defined, including effectiveness in terms of found crashes, code coverage, and run-time performance. The obtained test results show a clear distinction between the tested frameworks. The commercial solution was proven to offer best coverage, found most crashes, and it was overall the most flexible in terms of development and deployment. The others showed promise as well, but lacked in performance or effectiveness, overall quality, and had some shortcomings in development and deployment.
285

Hengitysfunktion monitorointi etäisyyskameran avulla

Kananen, J. (Janne) 01 September 2014 (has links)
Tietotekniikan kehittyessä erilaisten sovellusten osuus jokapäiväisessä elämässä on kasvanut viime vuosien aikana nopeaa tahtia kaikkialla yhteiskunnassa. Tekniikan kehittyminen on myös luonut uusia keinoja ihmisten terveyden tarkkailemiseen, mittaamiseen ja valvomiseen niin henkilökohtaisella tasolla, kuin julkisessa terveydenhuollossa. Julkisen terveydenhuollon hoitoajoista kuluu paljon erilaiseen oheistoimintaan, eikä niinkään varsinaiseen potilaan hoitoon, mikä lisää kustannuksia. Tämän takia olisikin tärkeää, että pystyttäisiin hoitamaan potilaan seurantaa helposti, nopeasti ja mahdollisimman taloudellisesti. Hengitys ja sen seuranta on yksi osa-alue, jolla kustannuksia olisi mahdollista pienentää ja helpottaa tutkimusten suorittamista. Tässä diplomityössä on kehitetty uudenlainen menetelmä seurata potilaiden keuhkojen toimintaa helposti ja tarkasti. Kuvattu menetelmä on hankintahinnaltaan halpa ja potilasmukavuuden kannalta miellyttävä mahdollistaen näin paremman hoitomyöntyvyyden. Keuhkofunktion monitoroinnin perustana toimii kahdella etäisyyskameralla tapahtuva henkilön hengityksen seuranta. Etäisyyskameroina toimii tässä työssä kaksi Microsoftin Kinect-kameraa. Kahdella Kinect-kameralla toteutettuna ei hengityksen seurantaa ole aikaisemmin tehty. Tavoitteena on ollut luoda kahden kameran pistepilvet yhdistämällä laajempi ja tarkempi mittaus henkilön hengityksen liikkeistä. Mittaus suoritettiin muodostamalla yhdistetystä pistepilvestä kaksi virtuaalista hengitysvyötä rintakehän sekä vatsan seudulle ja tarkkailemalla näiden hengitysvöiden alueiden tilavuuden muutosta. Saatua tulosta verrattiin spirometriasta saatuun hengitysdataan. Työssä toteutetulla menetelmällä saavutettiin hyvät tulokset. Muodostettujen estimaattien hengityssyklien pituudet sekä tilavuudet todettiin korreloivan hyvin spirometrian vastaaviin arvoihin (R^2 = 0,9302). Tulokset osoittavat, että kuvatunlaista menetelmää voisi tulevaisuudessa olla mahdollista käyttää erilaisissa sovelluksissa. / With the development of computer science the usage of all kinds of applications has increased rapidly everywhere in the society. Development has also created new ways to monitor and measure health in personal as well as public healthcare level. In the public healthcare a lot of time is lost to non-essential tasks that aren’t actual treatment which increases costs. Consequently it would be important to be able to monitor the patient easily, quickly and cost-efficiently. Respiration monitoring is one opportunity to decrease the costs and to ease the examination. In this diploma thesis, a new way to monitor patients’ respiratory function easily, yet accurately is developed. The described method is cheap and convenient to patients, enabling better co-operation. The basis of monitoring respiratory function was produced by using two depth cameras for monitoring person’s chest movement. Two Kinect cameras from Microsoft were used as depth cameras. Respiration monitoring by using two Kinect cameras has not been done before. The aim of this project was to create a better measure of persons respiration movement by combining point clouds from two cameras. From this point cloud, two virtual respiration belts were formed to monitor volume changes of two different areas. The areas were the chest and the abdomen. The results obtained were compared to the respiratory data given by spirometry. With the proposed method good results were attained. Respiration cycle lengths and volumes of constructed estimates correlated well with the corresponding values of spirometry (R^2 = 0,9302). Results indicate that presented method could be used in different kinds of applications in the future.
286

Huimaava elämä:Menieren tautia sairastavan terveysinformaatiokäyttäytyminen

Nikola, R. (Ritva) 30 March 2015 (has links)
Tutkimuksen tavoitteena on lisätä ymmärrystä Menieren tautia sairastavien terveysinformaatiokäyttäytymisestä tarkastelemalla Meniere-potilaiden terveystiedontarpeita, -hankintaa, -lähteitä ja -käyttöä. Menieren tauti on krooninen, mutta ei hengenvaarallinen sairaus, jossa potilaalla on iso rooli sairauden päivittäisessä hoidossa. Tästä aiheesta ei ole aiempaa tutkimusta informaatiotutkimuksen tai -käyttäytymisen näkökulmasta. Laadullisena tutkimusmenetelmänä käytettiin teemahaastattelua. Haastateltavana oli 14 henkilöä. Aineisto analysoitiin sisällönanalyysillä. Tutkimuksessa ilmeni, että Menieren tautiin liittyvää tietoa haetaan aktiivisesti. Passiivisesti tietoa ei löydy. Tiedontarpeet ovat saman suuntaisia kuin muita tauteja sairastavilla. Terveystiedonhankinta on monipuolista sairauden alussa ja sairauden aktiivisessa vaiheessa. Tietoa hankitaan myös sairauden passiivisessa vaiheessa. Oma kokemus, Suomen Meniere-liiton ja toisten Meniere-potilaiden jakama informaatio sairaudesta ja vertaistuki nähtiin tärkeinä. Lääkäreiltä koetaan saatavan liian niukasti tietoa. Poikkeuksena ovat Menieren tautiin erikoistuneet korvalääkärit. Asiantuntevan tiedon saannilla voi olla suuri merkitys taudin hallinnan saavuttamisessa. Terveystiedonkäyttöön saadaan vaikutteita monista terveystiedonlähteistä, mutta lopulta kokemus omasta voinnista saa muuttamaan käyttäytymistä. Meniere-potilaiden tiedonsaantiin ja tiedonlähteille ohjaamiseen kannattaa kiinnittää diagnosointivaiheessa tarkempaa huomiota. Tutkimus antaa alustavan kuvan aiheesta. Tarvitaan lisätutkimuksia, jotka voivat antaa yleistettävää tietoa kroonista, ei-hengenvaarallista, mutta potilaan kannalta ikävää tautia sairastavien terveysinformaationkäyttäytymisestä.
287

Finding third-party components with binary analysis

Väyrynen, A. (Antti) 20 April 2015 (has links)
The increased usage of open-source software (OSS) libraries as building blocks in the software industry has introduced numerous problems and vulnerabilities into many popular software suites. As more libraries are used, the risk of the whole software being exposed to the vulnerabilities inherent in these third-party components increases. Vulnerability management is the process of mitigating the impact of these vulnerabilities in software development. Another matter concerning OSS is license management. Violating OSS licenses can lead to legal issues and possibly harm a business. A few commercial tools can be used to manage vulnerabilities and licenses. The implementation introduced in this thesis is developed to improve Codenomicon AppCheck, which is one of these commercial tools. This thesis introduces a method for detecting software libraries in binary code. Each library is given a unique set of signatures. A signature is a sequence of bytes extracted from the read-only data section of the library. Two new methods are demonstrated for the signature extraction. The signatures are detected from the input binary data using the Aho-Corasick string matching algorithm. The algorithm allows the detecting to be done with a single pass over the input data. The found signatures are evaluated and used to decide which libraries are included in the input data. The implementation was tested using 14 OSS libraries and 8 OSS applications. Each of the libraries was included at least in one of the applications. For each application the expected libraries, which were supposed to be found, were determined by examining their source code. The found libraries were compared to ones expected to be found, and the accuracy was defined using F measure. The results showed that the new signature extraction methods were valid, and the implementation could detect OSS libraries in binary data. The new signature extraction methods were also able to extend the coverage of Codenomicon AppCheck.
288

Semanttisen tiedon esittäminen virtuaalimaailmoissa

Kahelin, J. (Jari) 20 April 2015 (has links)
Internet on yksi keskeisimmistä teknologioista nykypäivänä. Se yhdistää ihmiset eri puolilla maapalloa toisiinsa ja on olennainen osa päivittäistä liiketoimintaa, kanssakäymistä ja tiedonhakua. Internet on nykyään murroksessa semanttisen Webin ja 3D-Internetin tehdessä tuloaan. Semanttinen Web tarjoaa koneelle keinot Web-sivujen sisällön ymmärtämiseksi, kun taas 3D-Internet haastaa nykyisen Internetin kaksiulotteisen käyttöliittymän virtuaalimaailmoista periytyvällä kolmiulotteisella käyttöliittymällä. Tämä diplomityö pyrkii viemään virtuaalimaailmoja askeleen lähemmäksi 3D-Internetiä semanttisen Webin keinoin. Diplomityön tavoitteena on luoda teoreettinen viitekehys, jonka avulla käyttäjät saataisiin osaksi metatiedon luomista virtuaalimaailmoissa. Kerätyn metatiedon avulla mahdollistetaan erilaisten palvelujen kehittäminen, joiden toteuttaminen on virtuaalimaailmoissa ollut haasteellista. Tällaisia palveluita ovat muun muassa erilaiset haku- ja navigointipalvelut, joiden avulla virtuaalimaailman käyttäjiä voidaan auttaa heitä kiinnostavien asioiden etsinnässä. Samalla käyttökokemuksesta tulee personoidumpi käyttäjien voidessa lisätä omaa metatietoaan virtuaalimaailman objekteihin. Teoreettinen viitekehys muodostettiin tutkimalla semanttisen Webin, 3D-Internetin ja virtuaalimaailmojen teknologioita. Viitekehystä tukemaan luotiin esimerkkitoteutus RealXtend-virtuaalimaailmaan. Esimerkkitoteutus todistaa, että on mahdollista toteuttaa järjestelmä, jonka avulla käyttäjät voivat helposti lisätä vapaamuotoista metatietoa virtuaalimaailman objekteihin itse käyttökokemuksen kärsimättä.
289

Oulun kaupunginkirjaston musiikkiosaston kevyen musiikin nuottikokoelman evaluointi

Lainetoja, S. (Sami) 01 June 2015 (has links)
Tutkielman kohteena on Oulun kaupunginkirjasto-maakuntakirjaston musiikkiosaston kevyen musiikin nuottiaineisto. Kokoelmaa tutkittiin sekä kvantitatiivisin että kvalitatiivisin menetelmin, jotka täydensivät toisiaan tuoden tutkimukseen erilaisia näkökulmia. Tutkimuksen tavoitteena on selvittää erityyppisten nuottien määrällistä esiintymistä Oulun kokoelmassa, nuottien lainauskäyttöä sekä kokoelman historiallista edustavuutta. Laajemman kokonaiskuvan saamiseksi suoritetaan vertailua Jyväskylän, Kööpenhaminan ja Rovaniemen kaupunginkirjastojen nuottikokoelmiin. Lisäksi tutkitaan lainatuimman nuottiaineiston erityispiirteitä Oulun kaupunginkirjastossa. Tutkimusmenetelminä toimivat tilastomenetelmä, lainaustutkimus, käyttöfaktorit, listamenetelmä, benchmarking sekä lainatuimpien nuottien laadullinen analyysi. Tilastomenetelmällä tutkitaan koko Oulun kaupunginkirjaston kevyen musiikin nuottikokoelman koostumusta. Lainaustutkimus kohdistuu satunnaisotannalla valittuun noin tuhannen nuottinimekkeen joukkoon, joka toimii myös käyttöfaktorien laskemisen havaintojoukkona. Lisäksi Oulun kaupunginkirjaston nuottikokoelman historiallista edustavuutta tutkitaan listamenetelmällä ja tuloksia vertaillaan kolmen muun kirjaston nuottikokoelmiin benchmarkingin avulla. Laadullisella analyysillä eritellään kokoelman eri osa-alueiden tyypillisiä piirteitä, erityisen kiinnostuksen kohdistuessa lainatuimpaan aineistoon. Tutkimuksen tulokset osoittavat että nuottiaineiston lainauskäyttö on melko tasaista. Yli kymmenen vuotta kokoelmassa olleiden nuottien lainamäärät alkoivat selvästi laskea. Kysyntä ei kohdistu uutuusaineistoon niin voimakkaasti kuin kirja-aineistossa. Eri instrumenteille suunnattujen nuottien kirjastokäytössä havaittiin hyvin merkittäviä eroja. Myös Oulun kaupunginkirjaston nuottiaineiston sisältö vaihteli erittäin paljon sen mukaan minkä instrumentin aineisto oli kyseessä. Kaikkien genrejen nuotit kiersivät kohtuullisen hyvin lainauskäytössä, laulelmamusiikkia lukuun ottamatta. Steadysellereitä löytyi eniten kitaralle suunnattujen rock- ja heavynuottien joukosta. Bestsellereiksi luokiteltavia nuotteja havaittiin paljon myös pop-, blues-, soul- ja viihdemusiikin aineistosta. Fastsellereitä havaittiin eniten pop- ja soulnuoteissa. Listatutkimuksen perusteella kokoelman historiallista edustavuutta voitaisiin parantaa hankkimalla vanhoja populaarimusiikin nuotteja 1910-luvulta 1940-luvulle, sekä lisää blues-, soul-, viihde-, country- ja folkmusiikin nuotteja näiden genrejen tunnetuilta klassikkoartisteilta. Lainatuimmat nuotit olivat tyypillisesti pop- ja rockmusiikin kokoelmanuotteja, ylivoimaisesti suosituimman kohdeinstrumentin ollessa kitara. Lainatuimmista nimekkeistä lähes kaikki olivat alkuperältään yhdysvaltalaista, iso-britannialaista tai suomalaista musiikkia. Tulevaisuudessa asiakkaiden profilointi on hyödyllinen keino saada lisää tietoa kokoelman käytöstä. Nuottikokoelman kehittämisen kannalta olisi kiinnostavaa tietää tarkemmin asiakaskunnan koostumuksesta ja heidän tiedontarpeistansa. Näihin seikkoihin voidaan hakea vastauksia haastattelututkimuksen avulla.
290

Miksi avointa dataa?:monitapaustutkimus Oulun alueen toimijoista

Romppainen, H. (Heidi) 19 October 2015 (has links)
Kymmenen vuoden kuluessa yhteiskuntamme tuottaman datan määrä tulee monikymmenkertaistumaan. Datan säilyttämiseen ja käsittelyyn käytetään paljon energiaa. Jotta tuo energia ei kuluisi turhaan, kannattaisi dataa myös hyödyntää. Avoin data on koneluettavassa muodossa olevaa jalostamatonta informaatiota, jota voi käyttää ilmaiseksi kuka tahansa. Tässä monitapaustutkimuksessa kysytään: ”Miksi avointa dataa?” Vastauksia etsittiin tutkimalla datan hyödyntämistä tieteen, julkishallinnon ja median näkökulmista. Tavoitteena oli selvittää, miksi dataa avataan juuri nyt yhteiskunnassa niin monella eri taholla. Eri näkökulmia tutkimuksessa edustivat Oulun yliopisto, Oulun kaupunki ja sanomalehti Kaleva. Aineistoa käsiteltiin esimerkkitapauksena avoimen datan hyödyntämiseen liittyvistä toimista. Tämän tiedeviestinnän maisteriohjelmassa tehdyn tutkimuksen pääpaino on tieteen näkökulmassa. Tutkimuksen päätavoitteena on ymmärryksen parantaminen avoimen datan hyödyntämisestä sekä sen tuomista mahdollisuuksista. Tutkimusmenetelmänä käytettiin teoriaohjaavaa sisällönanalyysia, jossa aikaisemman tiedon merkitys tavoittelee uusia ajatusmalleja. Teorian ja aineiston lisäksi tutkimuksessa perehdyttiin myös erilaisiin avoimeen dataan liittyviin lakeihin, säädöksiin ja hankkeisiin, jotka vaikuttavat avoimen datan hyödyntämiseen. Datan avaamisen hyödyt koetaan yhä useammin suuremmiksi kuin siihen liittyvät haitat, riskit ja kustannukset. Datojen avaaminen vaatii pitkäjänteisiä suunnitelmia, koska suurimmat hyödyt näkyvät välillisesti tai vasta pitkän ajan kuluttua. Avaaminen vaatii myös uusia toimintamalleja, joiden toteuttaminen ei onnistu ilman yhteistyötä ja ymmärrystä avaamisen merkityksestä.

Page generated in 0.103 seconds