• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28593
  • 11042
  • 7308
  • 1719
  • 1510
  • 1019
  • 760
  • 508
  • 452
  • 406
  • 356
  • 314
  • 281
  • 236
  • 230
  • Tagged with
  • 61597
  • 14046
  • 10886
  • 10851
  • 9870
  • 9257
  • 9151
  • 8566
  • 8419
  • 8372
  • 7411
  • 6334
  • 5731
  • 5726
  • 5652
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
341

Transmediatuotanto Docventures:tiedonvälitystä ja yleisön osallistamista

Vihervaara, V. (Veera) 04 May 2015 (has links)
Tässä pro gradu -tutkimuksessa perehdytään televisiosarja Docventuresin tuotantoprosessiin, journalistisiin valintoihin ja niihin tapoihin, joilla ohjelma pyrkii osallistamaan yleisön mukaan ohjelman aiheita koskevaan julkiseen keskusteluun. Työ on tapaustutkimus, joka keskittyy ohjelman ensimmäiseen tuotantokauteen. Tutkimusaineisto koostuu kahdesta haastattelusta sekä osallistuvan havainnoinnin menetelmällä kerätyistä tiedoista, joiden hankkimisen on mahdollistanut työharjoittelu ohjelman tuotannon parissa. Aineiston käsittelyssä on käytetty laadullisen sisällönanalyysin menetelmää. Docventuresin ohjelmakokonaisuus koostuu dokumenttielokuvasta ja televisiossa ja radiossa käytävästä keskusteluohjelmasta. Ohjelmaformaattiin kuuluu myös vahva sosiaalisen median kanavien hyödyntäminen, joten ohjelman tuotanto on transmedia-tarinankerrontaa hyödyntävä kokonaisuus, jonka sisältö levittyy moneen eri mediakanavaan. Sosiaalisen median hyödyntäminen televisio-ohjelman teossa on suhteellisen tuore ilmiö Suomessa ja Docventuresin ohjelmaformaatti on saanut tunnustusta sen yleisöä osallistavasta otteesta. Yleisöä kannustettiin aktiiviseen toimintaan erityisesti Facebookissa lanseerattujen ”Viikon aktivismien” kautta. Aktivismien kuten ”Lihaton lokakuu” ja ”Liity heti kirkkoon” tavoitteena oli pyrkiä motivoimaan ohjelman yleisöä yhteiskunnalliseen vaikuttamiseen konkreettisten tekojen avulla. Toinen tärkeä sosiaalisen median kanava oli Twitter, jonka aktiivisuus painottui ohjelman aikaiseen kommentointiin (live tweeting). Twitterin muodostaman yhteyden avulla ihmiset pääsivät keskustelemaan ohjelman sisällöstä, jakamaan mielipiteitään ja olemaan samalla osa yhteisöä ja ilmiötä. Katsojien kommentteja käytettiin osana ohjelman käsikirjoitusta ja Twitterin ja Facebookin kautta lähetettyjä viestejä näytettiin katsojille myös televisioruudulta. Docventuresin journalistisista valinnoista voimakkaimmin esille nousi ohjelman kantaaottavuus ja akateemisten asiantuntijoiden hyödyntäminen tiedon rakentamisen tukena. Ohjelman tekijät Tuomas Milonoff ja Riku Rantala ottivat selkeästi kantaa ohjelmassa käsiteltyihin teemoihin. Tutkijoiden asiantuntijuuden hyödyntäminen oli ohjelmassa tietoinen valinta, mutta se nosti esille myös haasteita, sillä keskustelu ulottui usein tieteellisiä näkökulmia laajempiin yhteiskunnallisiin teemoihin. Ohjelman tekijöiden mukaan asiantuntijoiden hyödyntämisessä ongelmaksi saattoi muodostua se, että heillä ei välttämättä aina ollut riittävästi esiintymiskokemusta tai halua ottaa osaa tutkimusalansa ulkopuolelle ulottuvaan laajempaan keskusteluun. Osittain tämän seikan takia Docventuresin vierasvalinnoissa tukeuduttiin myös henkilöihin, jotka olivat puhuneet aiheesta julkisuudessa jo aikaisemmin ja joiden asiantuntemus rakentui akateemisen osaamisen sijasta heidän omakohtaisten kokemustensa kautta. Docventuresin ohjelmakokonaisuus osoittaa, että internet ja televisio eivät ole kilpailevia medioita, vaan niiden tiiviillä yhteistyöllä yleisö voidaan sitouttaa ohjelmaan yhä vahvemmin. Useaa eri kanavaa hyödyntämällä Docventures onnistuu välittämään tietoa yhteiskunnallisista asioista tavoilla, jotka tavoittavat monia eri yleisöjä.
342

Helsingin kaupunginkirjaston kokoelmien ikärakenne kirjaston ikärakenneprojektin jälkeen:tapaustutkimus

Jääskeläinen, E. (Eeva) 12 December 2016 (has links)
Tässä tutkimuksessa luodaan näkemystä kirjastoaineiston karsinnasta iän perusteella ja karsinnan merkityksestä sekä kokoelmatyön riittävyydestä. Tutkimuksessa havaittiin tietokirjojen välillä eroja. Niistä löytyy hitaasti ja nopeasti vanhenevia aihealueita. Kaunokirjallisuus ei vanhene samalla tavoin kuin tietokirjat. Vanhemman kaunokirjallisuuden kysyntä vähenee, mutta se ei vanhene. Etenkin opiskelijat tarvitsevat vanhoja kaunokirjoja opiskelutarkoituksiin. Tietokirjojen vanheneminen vaihtelee huomattavasti aihealueesta riippuen. Uusien kaunokirjojen lisäksi uudet tietokirjat ovat kysyttyjä ja niistä molemmista muodostuu varausjonoja. Tämä tutkimus on luonteeltaan empiiristä tutkimusta ja vertailevana metodina on tulkitseva vertailu. Tutkimuksessa on käytetty apuna Helsingin kaupunginkirjaston tilastoja. Tutkimuksessa vertaillaan erityisesti pääkirjaston ja sivukirjasto Herttoniemen tilastotietoja suomen- ja ruotsinkielisen kokoelman osasta. Kirjaston koolla ei ole merkitystä aineiston kysynnän tai tarjonnan välillä. Etenkin kysyntä riippuu lähinnä asiakaskunnan ikäjakautumasta. Tutkimuksen tuloksena on oikein seulotut kokoelmat tilastojen mukaan. Tilastot kertovat paremmista aineiston kiertoluvuista ja tieto- ja kaunokirjojen yli 10-vuotiaiden kirjojen käytöstä. Aineiston lainaus nousee, kun vanhoja kirjoja karsitaan ja uudet kirjat näkyvät paremmin hyllyssä. Ruotsinkielistä aineistoa on vähemmän kuin suomenkielistä ja sitä on poistettu myös varovaisemmin verrattuna suomenkielisiin kirjoihin. Ruotsinkielistä aineistoa on myös vähemmän saatavilla kuin suomenkielistä. Tutkimuksen tuloksena näkyy karsinnan merkitys kokoelmatyön kannalta. Aineiston kiertonopeus paranee, kun kirjahyllyt eivät ole niin täysiä ja vanhempi aineisto vähenee. Asiakkaat etsivät ajankohtaista aineistoa. Kirjan ikä on lyhyt ja kirja on päiväkohtaisempi kuin aiemmin. Median tuloksena monet asiakkaat etsivät tieto- ja kaunokirjauutuuksia. 10 vuotta vanhempaa aineistoa lainataan uudempaan aineistoon verrattuna suhteellisen vähän.
343

Indoor location estimation using an NFC-based crowdsourcing approach for bootstrapping

Chaudhry, M. (Muhammad) 03 June 2013 (has links)
Indoor location estimation, the process of reckoning the location of a device in an indoor environment, remains a technical challenge due to the poor performance of GPS in such settings. While a substantial amount of work has been done in this context, particularly employing the Wi-Fi fingerprinting technique, the very approach has certain shortcomings. A major limitation is the need of time-and-labor-intensive fingerprint acquisition process. What is more, the costly fingerprint soon gets outdated because of the dynamic environment. The alternative, triangulation-based systems are not only complex to build because of the increased multipath signal propagation indoors, but also require prior knowledge of the location of Wi-Fi access points which is not always possible, or requires dedicated beacons which is not cost-effective. Here we present an indoor location estimation approach that employs an already deployed Wi-Fi network, without requiring any prior knowledge of the position of the access points, or the need for manually collecting the fingerprints, and with dynamic environmental adaptability. This is achieved by crowdsourcing the fingerprinting process using localized QR-Codes and NFC tags as reference points for bootstrapping this process. We have developed the complete system including the location estimation algorithm and a mobile mapping application to demonstrate that our approach can achieve 10-meter accuracy for 64% of the location estimations, and 98% accuracy in estimating the floor, using a reference tag density of 1 tag per 400 square meters. / Sisätilapaikannus, menetelmä laitteen paikantamiseksi sisätiloissa, on edelleen tekninen haaste GPS-paikannuksen sisätilan toimivuuden rajoitteiden vuoksi. Vaikka työtä on tehty paljon asian puitteissa, erityisesti käyttämällä Wi-Fi sormenjälkitekniikkaa, on lähestymistavassa tiettyjä puutteita. Merkittävin rajoitus on aika- ja työvaltainen sormenjälkien eli referenssipisteiden hankintaprosessi. Lisäksi nämä referenssipisteet vanhenevat nopeasti muuttuvassa ympäristössä. Vaihtoehtoinen kolmiomittauspohjainen järjestelmä ei ole pelkästään monimutkainen rakentaa monitiesignaalien lisääntyneen määrän vuoksi, mutta myös siksi, että se vaatii Wi-Fi-tukiasemien paikkojen tietämystä, joka ei ole aina mahdollista, tai erityisiä majakoita, jotka eivät ole kustannustehokkaita. Tässä työssä esitellään sisätilapaikannusmenetelmä, joka käyttää olemassa olevaa Wi-Fi-verkkoa ilman aiempaa tietoa tukiasemien paikasta, ja jossa ei ole tarvetta kerätä referenssipisteitä käsin, ja joka pystyy sopeutumaan muuttumaan ympäristön mukana. Tämä saavutetaan yhteisöllisellä referenssipisteiden keruulla, jossa käytetään tietyissä tunnetuissa paikoissa olevia QR-koodeja ja NFC-tunnisteita vertailukohtana. Tässä työssä kehitettiin paikannusalgoritmin lisäksi sitä käyttävä ohjelmisto. Testitulokset osoittavat, että tällä lähestymistavalla voidaan saavuttaa 10 metrin tarkkuus 64 % paikannusarvioista sekä 98 % kerrostarkkuus käytettäessä yhtä tunnistetta 400 neliömetriä kohti.
344

Integration of agile RF front end to FPGA development board

Rauhanummi, M. (Mikko) 01 November 2013 (has links)
Developing wireless communication standards and applications grows need for a flexible wireless testbed. Software defined radio platforms have programmable hardware and software, so they are easy to use for the rapid development of wireless communication algorithms. The software defined radios could be considered as the state-of-the-art wireless transceivers that can be used to run next-generation wireless applications. The scope of this thesis is to study the use of the Xilinx ML605 development platform and the Nutaq Radio420S radio card integration as the software defined radio platform. This work tries to combine the processing power of the ML605 Virtex-6 FPGA to the agile and the broadband RF front end of Nutaq Radio420S. This combined platform formed by these two can be used as a modern software defined radio solution for developing and testing the wireless communication algorithms in practice. This thesis represents an idea of the software defined radio, starting from the early adaptations to the today’s modern software defined radio platforms. The use of Xilinx ML605 and Nutaq Radio420S integration was studied in both aspects, a real-time and an offline data processing. As the offline solution, WARPLab made by Rice University, was ported to the new platform. The WARPLab concept is to pre- and post-process the real-time wirelessly transmitted data using Matlab. The implemented real-time applications that were an automatic gain control (AGC) and a spectrum sensing method called localization algorithm based on double-thresholding (LAD) with an adjacent cluster combining (ACC). The AGC was implemented for the future physical layer application development and the LAD ACC spectrum sensing method was implemented by thinking of the future cognitive radio solution that takes advantage of the opportunistic spectrum usage. During the implementation phase, the Xilinx tool set was used to create and modify the digital logic of the physical layer. The control software was written in C and the end-user’s client was made by using scripting language of the Matlab. The final design was verified with the real-life measurements. Each part of the implemented system were tested individually, to be sure that the system worked as expected. The future development and the possible improvements of platform and the implemented system were discussed based on the real-life measurements. / Tietoliikennestandardien ja sovellusten kehitystyö on kasvattanut tarpeen helppokäyttöiselle langattomalle testialustalle. Ohjelmistoradioissa on uudelleenohjelmoitava ohjelmisto ja laitteisto, joten ne soveltuvat hyvin langattomien tietoliikenne algoritmien kehitystyöhön. Ohjelmistoradiot ovat kehittyneimpiä langattoman tietoliikenteen lähetin-vastaanotin ratkaisuja, joita voidaan käyttää tulevaisuuden standardien ja sovellusten kehitys ja testaustyössä. Tässä työssä tutkitaan Xilinxin ML605 kehitysalustan ja Nutaqin Radio420S radiokortin käyttöä ohjelmistoradiona. Työn tarkoitus on yhdistää ML605:n Virtex-6 FPGA-piirin laskentatehokkuus Nutaqin Radio420S radiokortin laajakaistaiseen ja joustavaan RF-etupäähän. Tämä mahdollistaa alustan käytön nykyaikaisena ja modernina ohjelmistoradioratkaisuna, jonka avulla voidaan helposti kehittää ja testata langattomia tietoliikenne algoritmeja käytännössä. Tässä työssä esitellään ohjelmistoradion idea ja alustojen kehitys ensimmäisistä ohjelmistoradio ratkaisuista uusimpiin nykyaikaisiin ohjelmistoradio alustoihin. Xilinxin ML605:n ja Nutaqin Radio420S radiokortin käyttöä ohjelmistoradiona tutkitaan sekä reaaliaikaisen että jälkeenpäin tehdyn tiedonkäsittelyn kannalta. Jälkeenpäin tehdyn tiedonkäsittelyn tapauksessa Ricen Yliopiston kehittämä WARPLab kehitysympäristö sovitettiin ML605:n ja Radio420S:n muodostamalle alustalle. WARPLabia käytettiin muuntamaan uusi alusta ohjelmistoradioksi, joka käsittelee langattomasti siirretyn tiedon jälkikäteen Matlabia avuksi käyttäen. Reaaliaikaiset fyysisen kerroksen sovellukset jotka sovitettiin alustalle, olivat automatisoitu vahvistuksen säätö Nutaqin radiokortille, sekä kahta kynnystä käyttävä spektrinhavaitsemismenetelmä (localization algorithm based on double-thresholding, LAD) vierekkäisten ryhmien yhdistelmä (adjacent cluster combining, ACC) laajennuksella. Automaattinen vahvituksen säätö totetutettiin ajatellen tulevaa fyysisen kerroksen kehitystyötä alustalla ja LAD ACC spektrinhavaitsemismenetelmä toteutettiin taas ajatellen mahdollista oppurtunista spektrin käyttöä tukevaa ohjelmistoradio toteutusta. Työn toteutuksen aikana fyysisen kerroksen digitaalilogiikan suunnitteluun, muokkaukseen ja toteutukseen käytettiin Xilinxin tarjoamia työkaluja. Kontrolliohjelmisto kirjoitettiin käyttäen C-kieltä ja loppukäyttäjän rajapinta toteutettiin Matlabin komentosarjakielellä. Toteutuksen toimivuus varmistettiin lopulta tosielämän mittauksilla. Jokaisen toteutuksen osan toimivuus varmistettiin erikseen, omilla mittauksillaan, jotta voitiin olla varma että kukin toteutettu sovellus toimii oikein. Saatujen mittaustulosten pohjalta käytiin läpi alustan mahdollista jatkokehitystä ja esiteltiin parannusehdotuksia.
345

Pääosin ohjaamaton sanaston poiminta rakenteettomasta tekstistä

Mustonen, A. (Ari) 10 April 2014 (has links)
Sanaston kattavuudella on suuri merkitys monille luonnollista kieltä käsitteleville algoritmeille. Sanaston puute vaikeuttaa tällaisten algoritmien soveltamista esimerkiksi vähemmistökieliin liittyviin ongelmiin. Sanastojen tuottaminen ja laajentaminen perinteisin menetelmin on työlästä ja kallista, joten on tarve kehittää automaattisia, yleiskäyttöisiä ja kieliriippumattomia sanaston kerääjiä. Automaattisia sanaston kerääjiä on olemassa muutamia, mutta niiden yleiskäyttöisyyttä, laatua ja soveltamista useille kielille voidaan vielä parantaa. Kehittyneeseen sanaston keräämiseen voidaan soveltaa uusimpia ohjaamattomia sanojen erottelun, morfologian induktion, ja sanaluokan induktion menetelmiä. Monet kiinnostavimmista menetelmistä hyödyntävät Bayesin menetelmää. Tässä diplomityössä toteutettiin pääosin ohjaamaton, useaa kieltä tukeva sanaston kerääjä. Se otti syötteenä merkitsemättömän korpuksen ja tuotti listan sanoja ja niiden sanaluokkia. Järjestelmän kaikki tärkeimmät osat pohjautuivat ei-parametriseen Bayesin menetelmään: sanojen erottelu ja morfologian induktio toteutettiin hierarkkisella Pitman-Yor-prosesseilla ja sanaluokan induktio Pitman-Yor-prosessin mikstuurimallilla. Toteutus saavutti 16%:n tarkkuuden suomenkielisten sanojen perusmuotojen poiminnassa, kun sanaluokkatietoa ei huomioitu. Sanojen perusmuotojen ja sanaluokkien yhdistelmien poiminnassa tarkkuus oli 3%:a. Toiminnan arvioitiin olevan samaa tasoa englannilla ja japanilla. Ratkaisun eri aliosien suorituskyvyt olivat heikkoja vastaavien osien uusimpiin toteutuksiin verrattuna. Etenkin morfologian ja sanaluokan induktion suorituskykyä voitaisiin kehittää huomattavasti. Parempia tuloksia voitaisiin saavuttaa myös sulauttamalla järjestelmän aliosia tiiviimmin yhteen. / The coverage of the lexicon has great implications on the performance of a number of natural language processing algorithms. Insufficient vocabulary complicates the application of these algorithms on problems that involve, for example, minority languages. Producing and extending lexicons with traditional means is both slow and expensive so there is a need to develop automatic, generic purpose, language independent lexicon acquisition systems. Automatic lexicon acquisition systems exist in small numbers, but there is room to improve their flexibility, quality and applicability to multiple languages. Advanced lexicon acquisition systems can be developed by applying the state-of-the-art methods from word segmentation, morphology induction, and part-of-speech induction to the problem. Many of the most interesting methods are based on the Bayesian approach. In this Master’s thesis, a mostly-unsupervised, multilingual lexicon acquisition system was developed. It accepted as an input an unannotated corpus and generated a list of words and their part-of-speech tags. All the important parts of the system relied on non-parametric Bayesian methods: word segmentation and morphology induction used nested Pitman-Yor processes and part-of-speech induction used a Pitman-Yor process mixture model. The implementation achieved 16% precision in the acquisition task of base forms of Finnish words without part-of-speech tags. With finnish base form and part-of-speech tag combinations, the precision was 3%. The results were estimated to be of the same quality in English and Japanese. The individual parts of the system had poor performance compared to the state-of-the-art. Especially morfology and part-of-speech induction could be improved significantly. Better results could also be improved by integrating the parts of the system more deeply with each other.
346

Sähkökirjojen kokoelmahallinnan mallin soveltuvuus evaluointiin:tapaustutkimus Oulun yliopiston kirjaston sähköisestä kurssikirjakokoelmasta

Nätynki, M. (Mari) 11 May 2015 (has links)
Tutkimuksen aihe ja tavoite: Tutkimuksen päämäärä on testata Vasileiou, Rowley ja Hartleyn (2012) sähkökirjako­koelmahallinnan mallin soveltuvuutta sähköisen kurssikirjakokoelman evaluointiin. Mallin soveltuvuutta tarkastellaan soveltamalla sen osa-alueita Oulun yliopiston kirjaston sähköisen kurssikirjakokoelman evaluointiin. Tutkimusmenetelmät ja -aineistot: Tutkimus on tapaustutkimus Oulun yliopiston kirjaston sähköisen kurssikirjakokoelman hallinnasta ja tilasta. Tutkimuksessa on käytetty menetelmä- ja aineistotriangulaatiota. Kvalitatiivisista menetelmistä on käytetty sisällönanalyysia haastattelu-, dokumentti-, ja tilastoaineiston analysointiin. Kvantitatiivisista menetelmistä on käytetty tilastomenetelmää ja käyttötutkimusta kirjaston sähköisen kurssikirjakokoelman luetteloaineiston ja saatavilla olevien jakelijoiden käyttötilastojen analysointiin. Keskeiset tutkimustulokset: Sähköisen kurssikirjakokoelman tilastollinen tarkastelu osoitti, että kokoelma on painottunut englanninkielisiin, alle 15 vuotta vanhoihin, aine- ja syventäviin opintoihin kuuluviin nimekkeisiin sekä perinteisesti monografiapainotteisille aloille. Sähköisten kurssikirjojen käyttö kohdistuu humanistisiin ja kasvatustieteellisiin aloihin ja opintojen loppupäähän kuuluviin uudempiin englanninkielisiin nimekkeisiin. Tulokset tukevat aiempien tutkimusten tuloksia. Johtopäätökset, toimenpidesuositukset ja jatkotutkimusehdotukset: Tutkimuksen tulosten perusteella Vasileiou, Rowley ja Hartleyn (2012) sähkökir­jakokoelmahallinnanmallia voidaan soveltaa evaluointiin. Mallin avulla voidaan saada kattava kuva kirjaston sähköisen kurssikirjakokoelman hallinnasta. Toimenpidesuositukseni koskevat sähköisten kurssikirjojen markkinoinnin lisäämistä ja ostojen kohdentamista tasaista käyttöä saaviin ja paljon opiskelijoita sisältäviin luonnontieteellisiin ja teknillisiin aloihin. Jatkotutkimukseksi ehdotan Oulun yliopiston kirjaston pidempiaikaista tai vertailevaa useiden yliopistokirjastojen sähköisten kokoelmien evaluointia.
347

Joustavasti dokumentoitava formaatti kouluympäristössä:mallia täsmentävä tuotetutkimus tuotteen elinkaaren hallinnan ja multimodaalisen viestinnän näkökulmasta

Oja, H. (Hanna) 21 May 2015 (has links)
Tutkimuksessa tarkastellaan Lukuinto-ohjelmaan osallistuneiden pilottiryhmien kehittämiä toimintamalleja tuotenäkökulmasta. Toimintamalleihin sovitetaan formaatin mallia. Formaatti on tuote, joka on tuttu tv-ohjelmista tai formalisoiduista asiantuntijapalveluista. Tutkimuksen päämääränä on lisätä tietoa formaatin käyttöalueesta ja erityispiirteistä koulujen kontekstissa jaeltavana tuotteena. Tutkimus on mallia täsmentävä tuotetutkimus, jossa on tarkoitus tunnistaa ja hahmottaa tuotteita sekä kerätä mallin täsmentämiseksi tietoa tuotteiden kontekstissa vaikuttavista asioista. Tuotenäkökulma perustuu formaattien ja tuotteen elinkaaren hallinnan teoriaan. Aineistona ovat kolmen pilottiryhmän haastattelut sekä heiltä saatu dokumentaatio. Aineisto on analysoitu teorialähtöisesti. Tutkimuksen tuloksena on joustavasti dokumentoitava formaatin malli. Täsmennetyssä mallissa on ideana, että sitä voi soveltaa joustavasti lisäämällä ja tarkentamalla tuotteen elementtejä. Mallissa otetaan huomioon kontekstin dokumentointi- ja innovaatiotavat, multimodaalisen viestinnän vaikutus opettamisen dynamiikkaan sekä tuotteen elinkaaren hallinnan piirteet, kuten modulaarisuus ja nimikkeiden luominen. Mallin pohjalta voi arvioida dokumentoinnin riittävyyttä, arvioida formaatin etuja sekä perustella tuotteeseen lisättäviä elementtejä. Malli on luonteeltaan yleinen ja teoreettinen. Myös taustateoriakehitelmä on tutkimuksen kontribuutio, sillä sen avulla toimintamalleja voi katsoa tuotenäkökulmasta. Tutkimus avaa näkökulman tulevaisuuden oppimateriaalien tuottamiseen sekä uusien sisältömuotojen tutkimiseen. Tutkimuksen haastattelujen määrä ja muu dokumenttiaineisto oli suppea. Yleistettävämpien ja tarkempien tulosten saamiseksi tutkimuksia on jatkettava laajemmilla aineistoilla, kartoittaen mutta myös konstruktiivisella tutkimusotteella.
348

Improving software quality with software error prediction

Taipale, T. (Taneli) 12 December 2015 (has links)
Today’s agile software development can be a complicated process, especially when dealing with a large-scale project with demands for tight communication. The tools used in software development, while aiding the process itself, can also offer meaningful statistics. With the aid of machine learning, these statistics can be used for predicting the behavior patterns of the development process. The starting point of this thesis is a software project developed to be a part of a large telecommunications network. On the one hand, this type of project demands expensive testing equipment, which, in turn, translates to costly testing time. On the other hand, unit testing and code reviewing are practices that improve the quality of software, but require large amounts of time from software experts. Because errors are the unavoidable evil of the software process, the efficiency of the above-mentioned quality assurance tools is very important for a successful software project. The target of this thesis is to improve the efficiency of testing and other quality tools by using a machine learner. The machine learner is taught to predict errors using historical information about software errors made earlier in the project. The error predictions are used for prioritizing the test cases that are most probably going to find an error. The result of the thesis is a predictor that is capable of estimating which of the file changes are most likely to cause an error. The prediction information is used for creating reports such as a ranking of the most probably error-causing commits. Furthermore, a line-wise map of probability of an error for the whole project is created. Lastly, the information is used for creating a graph that combines organizational information with error data. The original goal of prioritizing test cases based on the error predictions was not achieved because of limited coverage data. This thesis brought important improvements in project practices into focus, and gave new perspectives into the software development process. / Nykyaikainen ketterä ohjelmistokehitys on monimutkainen prosessi. Tämä väittämä pätee varsinkin isoihin projekteihin. Ohjelmistokehityksessä käytettävät työkalut helpottavat jo itsessään kehitystyötä, mutta ne myös säilövät tärkeää tilastotietoa. Tätä tilastotietoa voidaan käyttää koneoppimisjärjestelmän opettamiseen. Tällä tavoin koneoppimisjärjestelmä oppii tunnistamaan ohjelmistokehitystyölle ominaisia käyttäytymismalleja. Tämän opinnäytetyön lähtökohta on ohjelmistoprojekti, jonka on määrä toimia osana laajaa telekommunikaatioverkkoa. Tällainen ohjelmistoprojekti vaatii kalliin testauslaitteiston, mikä johtaa suoraan kalliiseen testausaikaan. Toisaalta yksikkötestaus ja koodikatselmointi ovat työmenetelmiä, jotka parantavat ohjelmiston laatua, mutta vaativat paljon ohjelmistoammattilaisten resursseja. Koska ohjelmointivirheet ovat ohjelmistoprojektin edetessä väistämättömiä, on näiden työkalujen tehokkuus tunnistaa ohjelmointivirheitä erityisen tärkeää onnistuneen projektin kannalta. Tässä opinnäytetyössä testaamisen ja muiden laadunvarmennustyökalujen tehokkuutta pyritään parantamaan käyttämällä hyväksi koneoppimisjärjestelmää. Koneoppimisjärjestelmä opetetaan tunnistamaan ohjelmointivirheet käyttäen historiatietoa projektissa aiemmin tehdyistä ohjelmointivirheistä. Koneoppimisjärjestelmän ennusteilla kohdennetaan testausta painottamalla virheen todennäköisimmin löytäviä testitapauksia. Työn lopputuloksena on koneoppimisjärjestelmä, joka pystyy ennustamaan ohjelmointivirheen todennäköisimmin sisältäviä tiedostomuutoksia. Tämän tiedon pohjalta on luotu raportteja kuten listaus todennäköisimmin virheen sisältävistä tiedostomuutoksista, koko ohjelmistoprojektin kattava kartta virheen rivikohtaisista todennäköisyyksistä sekä graafi, joka yhdistää ohjelmointivirhetiedot organisaatiotietoon. Alkuperäisenä tavoitteena ollutta testaamisen painottamista ei kuitenkaan saatu aikaiseksi vajaan testikattavuustiedon takia. Tämä opinnäytetyö toi esiin tärkeitä parannuskohteita projektin työtavoissa ja uusia näkökulmia ohjelmistokehitysprosessiin.
349

Automated port scanning and security testing on a single network host

Keski-Korsu, P. (Pasi) 09 May 2016 (has links)
Black-box security testing is divided into five phases: reconnaissance, scanning, exploitation, post exploitation and reporting. There are many tools and methods to perform security testing in the exploitation and post-exploitation phases. Therefore, the first two steps are crucial to execute properly to narrow down different options to do security testing. In the scanning phase, the penetration tester’s goal is to gather as much information as possible from the system under test. One task is to discover open network ports and used network protocols. Nmap is a port scanning tool to check network port states and what network protocols target host supports. Nmap’s different port scanning techniques should be used to obtain comprehensive results of port states. The results from different scanning techniques have to be combined so that port state assignments have to be allocated to trusted and untrusted assignments. After port scanning has been executed, the actual software security testing can begin. This testing can be automated to begin right after port scanning. Automated tests are started of services that run behind open ports that have been discovered in port scanning. The Nmap scripting engine also has a module to execute general scripts to gather more information on the system under test. Another tool, Nikto, is implemented to test services that use Hypertext Transfer Protocol (HTTP). Port scanning and automated testing is time consuming, when scanning and testing is executed comprehensively. Sometimes it is crucial to obtain results in a short time, so there should be options on broadness of scanning and testing. Comprehensive scanning and testing may produce large amounts of scattered information so reporting of the results should be brief and clear to help penetration tester’s work. The performance of the scanning and testing implementation is evaluated by testing a single network host and flexibility is validated by running the scanning and testing on other network hosts. / Black-box-tietoturvatestaus on jaettu viiteen vaiheeseen: tiedustelu, skannaus, hyödyntäminen, hyödyntämisen jälkeiset toimet ja raportointi. On olemassa paljon työkaluja ja metodeja tietoturvatestauksen tekemiseen hyödyntämisvaiheessa ja hyödyntämisen jälkeisissä toimissa. Tämän vuoksi kaksi ensimmäistä vaihetta on tärkeä suorittaa huolellisesti, jotta eri tietoturvatestausvaihtoehtoja voidaan vähentää. Skannausvaiheessa tietoturvatestaajan päämäärä on kerätä mahdollisimman paljon tietoa testikohteesta. Yksi tehtävä tässä vaiheessa on löytää avoimia verkkoportteja ja käytettyjä IP-protokollia. Nmap on porttiskannaustyökalu, jonka avulla voidaan selvittää verkkoporttien tilat sekä käytetyt verkkoprotokollat. Nmap sisältää erilaisia porttiskannaustekniikoita, joita tulee käyttää kattavien skannaustulosten saamiseksi. Eri skannaustekniikoista pitää yhdistellä tuloksia, joten skannaustekniikoiden antamat luokitukset tulee jakaa luotettaviin ja ei-luotettaviin tuloksiin. Kun porttiskannaus on suoritettu, varsinainen tietoturvatestaus voi alkaa. Testauksen voi automatisoida alkamaan heti porttiskannauksen jälkeen. Automaatiotestit ajetaan palveluihin, jotka toimivat avoimien porttien takana. Avoimet portit on tutkittu porttiskannausvaiheessa. Nmapin skriptityökalu sisältää myös moduulin, joka suorittaa yleisiä testejä testikohteeseen, millä saadaan lisätietoa testattavasta kohteesta. Toinen testaustyökalu, Nikto, on implementoitu testaamaan palveluja, jotka käyttävät Hypertext Transfer Protokollaa (HTTP). Porttiskannaus ja automatisoitu tietoturvatestaus vie aikaa, kun skannaus ja testaus suoritetaan kokonaisvaltaisesti. Joskus on kuitenkin tärkeää saada tuloksia lyhyessä ajassa, joten testaajalla tulisi olla eri laajuisia skannaus- ja testausvaihtoehtoja. Kokonaisvaltainen skannaus ja testaus voi tuottaa suuren määrän hajallaan olevaa tietoa, joten tulokset pitää raportoida lyhyesti ja selkeästi, jotta penetraatiotestaajan työ helpottuu. Skannaus- ja testausohjelman toimintakyky arvioidaan skannaamalla yksittäinen verkkolaite ja joustavuus muihin ympäristöihin varmistetaan skannaamalla ja testaamalla useampi verkkolaite.
350

Ultrasound analysis of the flow-mediated dilation of human arteries

Karvonen, T. (Tuukka) 05 May 2014 (has links)
The topic of this work was to realize a software-based approach for semiautomatic analysis of flow-mediated dilation (FMD) from ultrasound B-mode image sequences. The work is a continuation of a previous software project, in which B-mode ultrasound image and blood flow / ECG signal extraction, as well as the capability for manual analysis, was made possible. On this base, functionality for the semiautomatic assessment of FMD was built. The result was a software that could be used for the aforementioned analysis. To validate this, functional testing was done. In addition, measurements of FMD were carried out using the software. These measurements were compared against those made by hand, as well as those received from another, commercially available software. / Tämän työn tavoitteena oli toteuttaa veren virtauksen säätelemän verisuonen laajenemisen (FMD) analysoimiseen tarkoitettu sovellustyökalu. Sovelluksen tuli ottaa syötteenä duplex-ultraääni-mittausdataa, ja antaa puoliautomaattisen analysoinnin jälkeen tuloksena FMD-prosentti. Työ tehtiin lisäkomponenttina aiemmin valmistetulle sovellukselle, joka mahdollisti edellämainitun manuaalisen analyysin. Tuloksena saatiin sovellus, joka pystyi yllämainittuun analyysiin. Sovelluksen toiminnallisuus todennettiin erinäisin funktionaalisin testein, sekä tekemällä sillä mittauksia, joita verrattiin sekä käsintehtyihin, että kaupallisen sovelluksen tuottamiin mittauksiin.

Page generated in 0.1398 seconds