301 |
Metoder for automatisert oppmåling av flater i nærfotogrammetri / Methods for automated surface measurement in close-range photogrammetryMalum, Anders Hveem January 2005 (has links)
<p>Denne masteroppgaven beskriver metoder for automatisert måling av mange punkt på 3-dimensjonale overflater. Hovedfokus er på anvendelse innen nærfotogrammetri. Bakgrunnsteori for generelle bildematchingsteknikker presenteres. Dette inkluderer en detaljert beskrivelse av ulike interesseoperatorer for objektbasert matching. To programmer har blitt utviklet. Det ene inkluderer implementasjon av to ulike interesseoperatorer og en enkel matching av punktobjekter basert på krysskorrelasjon. Det andre programmet beregner modellkoordinater for punktobjekter dersom orienteringsparameterene til de to bildene er kjent. Det gis eksempler på mulig videre arbeid med modellkoordinater, inkludert triangulering av overflaten. En tredje interesseoperator, SIFT-deskriptoren, har også blitt testet. Implementasjonen av SIFT inkluderer matching av punktobjektene ved hjelp av minste kvadraters metode. Til slutt i rapporten gis konklusjoner i forhold til hvilke matchingsalgoritmer og interesseoperatorer som er best egnet for automatisk flategenerering. Det gis også en oversikt over mulig videre arbeid med programvare og teori. All kildekode og alle testbilder er tilgjengelig på CD-ROM.</p>
|
302 |
Brukbarhet ved benyttelse av fri programvare i systemutvikling - en praktisk studie / Brukbarhet ved benyttelse av fri programvare i systemutvikling - en praktisk studieOrmestøyl, Tarjei Eriksen, Rognstad, Anders Kløvrud January 2010 (has links)
<p>Bruk av åpen kildekode fører med seg mange fordeler og blir mer og mer utbredt i programvareutvikling. Utviklingstiden til prosjekter som tar i bruk ferdigkomponenter blir relativt kort sammenlignet med systemer som utvikles fra grunnen av, og man vil raskt ha et system oppe å kjøre. En ser dog at brukbarhet ofte ikke har høyeste prioritet i åpen kildekode-prosjekter. I mange tilfeller er den tiltenkte brukergruppen ekspertbrukere eller utviklerne selv og prosjektenes natur fører til at tradisjonelle brukbarhetsmetoder blir vanskelige å gjennomføre. I dette prosjektet har vi sett på hvilke brukbarhetsutfordringer som gjør seg gjeldende ved bruk av åpen kildekode-komponenter i systemutvikling, og hvordan slike utfordringer kan reduseres. Vi har utviklet et nettbasert egenomsorgssystem for overvektige og brukt dette som et systemutviklingscase. I forbindelse med denne casen ble det gjennomført to brukbarhetstester på systemet. Ut ifra resultatene fra disse testene, samt våre erfaringer fra utviklingsprosessen, kan vi si oss enige i at utbyttet er stort ved bruk av fri programvare. Blant problemene vi fant var at komponentene vi benyttet oss av hadde svakheter og brudd innenfor brukbarhetsheuristikker som 'Konsistens og standarder' og 'Estetisk og minimalistisk design'. Vi ser også at de fleste brukbarhetsproblemene var knyttet til enkeltkomponenter, og færre til integrasjon av komponentene. Likevel fant vi at tilfredsheten og anvendbarheten til systemet var tilstrekkelig, selv om det grafiske brukergrensesnittet kunne holdt en høyere standard. Våre erfaringer og relevant litteratur tyder på at mye kan gjøres underveis i utviklingsprosessen med tanke på å redusere brukbarhetsproblemer. Spesielt bør en tidlig vurdering og integrering av aktuelle komponenter gjennomføres for å avdekke risikomomenter og for å legge til rette for brukbarhetsevaluering på et tidlig stadium.</p>
|
303 |
Nytteverdi av øyesporing i brukbarhetstesting : En kvalitativ studie / Eyetracking: Can it give Added Value in Usability Testing? : A qualitative approachStandal, Elin January 2010 (has links)
<p>I denne rapporten retter vi søkelyset mot bruken av øyesporing som del av brukbarhetstesting. Mange lurer nok på om det er verdt å investere i slikt utstyr, og denne masteroppgaven er et forsøk på å finne ut mer om hvilken nytteverdi øyesporing kan ha når det gjelder brukbarhetstesting i systemutvikling. Jeg vil poengtere at jeg her ikke har prøvd å gjøre noen beregninger når det gjelder økonomiske aspekter, men konsentrert meg om å utforske hvilke områder man kan finne en nytteverdi i bruk av øyesporing. For å få svar på dette har jeg gjennomført en brukbarhetstest med øyesporing og sett på hvilke problemer vi oppdaget uten å ta hensyn til øyesporingsdata, og deretter sammenlignet med hva slags tilleggsinformasjon vi fikk utfra øyesporingen. I forskningen benyttet jeg meg av et case, et systemutviklingsprosjekt iverksatt av Amnesty Norge for å fornye nettsidene deres, og testet brukbarheten på disse nettsidene. Jeg hadde så et møte med utviklingsgruppen der hvor jeg presenterte funnene fra brukbarhetstesten. Samtidig benyttet jeg anledningen til å se om resultatene fra øyesporingen hadde noen nytteverdi i forhold til kommunikasjonen mellom meg som brukbarhetstester og Amnesty som kunde. I tillegg til dette har jeg gjort et intervju med Thor Fredrik Eie fra NetLife Research, som benytter øyesporing i brukbarhetstesting ofte, for å finne ut hvilken nytteverdi de som jobber med dette opplever. Til slutt har jeg også trukket fram noen av de praktiske og metodiske utfordringene vi har kommet over i løpet av denne studien når det gjelder bruken av øyesporing i brukbarhetstesting. Når det gjelder hva øyesporingen bidro med for å bedømme brukbarheten av nettsiden vi testet, så fant vi hovedsaklig tre områder hvor øyesporing var til hjelp. For det første var det med på å avdekke et problem med designet hvor brukeren ikke oppdaget et viktig element, ved at vi fikk se hvor han rettet oppmerksomheten sin. Øyesporingen var også til hjelp for å bekrefte og forsterke teorier om problemer vi hadde gjort oss på forhånd, og vi fikk en bedre forståelse for hvor brukerne forventet at ting skulle være på nettsiden, ved at vi kunne se hvilke menyvalg de vurderte før de klikket. Fra intervjuet mitt med Thor Fredrik Eie kom det fram at øyesporing kan ha nytteverdi som et hjelpevertøy under gjennomføringen av testen også, på den måten at det er enklere for testleder å tilpasse spørsmål til brukeren når man kan se hvor brukeren fester blikket. I tillegg er data fra øyesporing et kraftig verktøy når det gjelder kommunikasjonen mellom kunder og brukbarhetstestere. Jeg opplevde at kunden fikk større forståelse for problemene når de fikk se med egne øyne hvor brukerne så hen. Det er også med på å gi argumentene man kommer med større tyngde og troverdighet når man kan vise bilder og videoer med øyesporing. Men her må man huske på at slike visuelle framstillinger av data kan gi inntrykk av å være viktigere enn de er, da det er lett å lage noe som ser stilig ut, men ikke egentlig forteller deg noe viktig. Man må også være klar over at problemer med utstyr og programvare kan oppstå med jevne mellomrom. Heller ikke alle typer mennesker kan benyttes når man gjør brukbarhetstester med øyesporing, for eksempel kan bruk av briller være problematisk.</p>
|
304 |
Dynamic Management of Software Components in a Ubiquitous Collaborative EnvironmentKristiansen, Yngvar January 2010 (has links)
<p>The key motivation of this thesis is to find innovative solutions for facilitating the deployment of ubiquitous systems, with the purpose of making technology supported collaboration an easier task. Users, being in a ubiquitous environment, continuously encounter new resources that might provide some value. As the number of these resources increase, the management of them will be a central task in a ubiquitous computing system. The problems and challenges discussed in this thesis are related to continuous and unpredictable changes in the ubiquitous environment, which makes it difficult for users to retrieve appropriate software for utilizing resources. We also discuss the challenge of managing resources, and sharing them between users. The research questions in this thesis are: RQ-1: How can we extend existing service management architectures to support user-centered and community-based service management? RQ-2: What technologies, architectures and platforms are the most suitable for implementing user-centered and community-based service management? RQ-3: How can we evaluate the usability and utility of user-centered and community-based service management? What are the most compelling scenarios? The contributions in this thesis are, correspondingly: C1: We have made a solution proposal and an implementation of an improved service management system, which is based on earlier works of the Ubicollab platform. C2: Four items were found suitable: 1. The deployment model used by distribution platforms for mobile applications (such as AppStore and Android Market), 2. OSGi, 3. R-OSGi, and 4. HTTP-based communication using Java Servlets. C3: The evaluation of such systems can be done using a three-step process that includes: 1. Examining the system's fulfillment its requirement specification. 2. Compare the system's functionality with that of a scenario-described ideal system. 3. Create applications that demonstrate the utility of the system.</p>
|
305 |
Design and Evaluation of an Personalized Mobile Tourist ApplicationWium, Magnar January 2010 (has links)
<p>Mobile applications supporting tourists with travel information can make use of information about the user's location, time and personal preferences to provide personalized recommendations. This could be a solution to the problem of displaying information and navigating on small mobile devices, as it allow tourists to receive information that fit very well with their current situation and needs. However, filtering of information introduce new challenges in terms of facilitating user control and transparency. In this thesis we have developed and evaluated a personalized mobile tourism applications based on collaborative filtering that have tried to meet these challenges. The design of this application is based on experience from similar projects and research on interaction design in recommender systems. The user evaluation of our system suggests that our approach is feasible, but more research must be done to predict the acceptance of this application among tourists.</p>
|
306 |
Distributed NetFlow Processing Using the Map-Reduce ModelMorken, Jan Tore January 2010 (has links)
<p>We study the viability of using the map-reduce model and frameworks for NetFlow data processing. The map-reduce model is an approach to distributed processing that simplifies implementation work, and it can also help in adding fault tolerance to large processing jobs. We design and implement two prototypes of a NetFlow processing tool. One prototype is based on a design where we freely choose an approach that we consider optimal with regard to performance. This prototype functions as a reference design. The other prototype is based on and makes use of the supporting features of a map-reduce framework. The performance of both prototypes is benchmarked, and we evaluate the performance of the framework based prototype against the reference design. Based on the benchmarks we analyse and comment the differences in performance, and make a conclusion about the suitability of the map-reduce model and frameworks for the problem at hand.</p>
|
307 |
Sharing in Collaborative Systems : A Set of Patterns for Information Sharing between Co-located UsersAasgaard, Terje Svenkerud, Skjerdal, Åsmund January 2010 (has links)
<p>Technological advances, specifically within the field of mobile and ubiquitous technologies, hold the promise to support collaboration in work and educational environments in new ways. Within collaborative systems, it is possible to use ubiquitous technology to provide users with services to interact - for instance share information - with other users in a given environment. Over the course of this project, the authors have created a set of design principles for co-located information sharing in collaborative systems, using a structured method called patterns. The aim of these patterns is to provide support for designers and developers of collaborative systems to take advantage of mobile and ubiquitous technology when designing and implementing support for co-located sharing. The patterns were based on a set of re-occurring problems identified as important for co-located information sharing between users. These problems were identified by performing a review of relevant literature, research and existing solutions on the subject. An initial set of patterns were created based on this review. The patterns themselves are written on an abstraction level that targets the human-computer interaction part of sharing information between co-located users. The patterns where then evaluated by three experts within system engineering and collaborative systems, in an iterative process. The overall aim of these evaluations were to ensure that the patterns were easy to understand, and that they provided the information that was relevant for the problem and the domain, in order to be useful in the development process of collaborative systems. The result of these evaluations culminated in a final set of patterns for co-located information sharing. These patterns describe guidelines for: (1) How users can specify the information they wish to share and the receiver(s) of that information, (2) how users can be aware of the potential for collaboration, (3) how situated displays can be used to share information, (4) how user privacy should be protected and (5) how information should be available when the user needs it. The final set of patterns is given in chapter 6 of the thesis.</p>
|
308 |
Parallel query evaluation on multicore architecturesLilleengen, Ulf January 2010 (has links)
Multicore processors are common in server systems sold today. Writingapplication software that takes advantage of such systems, not to mentionadopting existing software to the parallel domain, is complex. Workloads such asweb servers, database servers and search engines are easy to parallelize,because each incoming client may be handled in a separate thread of execution.However, as as cache coherence schemes on multicore processors do not scale withthe number of cores, new ways of scaling existing applications may be needed tomake better use of the cache hierarchy.This study evalutes an alternative method of running search engine queries in asearch engine core developed by Yahoo! Technologies Norway. The method seeks tolower query latencies and average memory access times of the search core bymaking better use of multicore processor caches. Through the study of Vespa, thesearch engine platform used at Yahoo!, and techniques for using processor cachesas good as possible, an alternative design based on parallel query evaluation isproposed. The design is evaluated in a simulator of the search engine core andtested in different configurations. The performance of the alternative designdepends highly on the workload. However, the alternative design can beconfigured to act as the existing design, which makes it possible to get thebest of both worlds.
|
309 |
Operating system directed power reduction on EFM32Tverdal, Martin January 2010 (has links)
Power consumption has become a major concern of embedded systems.Currently FreeRTOS wastes a power waking up regularly to keep track of time.In this work FreeRTOS is modified to sleep when there is no work for the CPU to be done.Timekeeping while sleeping is done by a low frequency oscillator, consuming very little power.Drivers for peripherals have been developed, in order to optimise power consumption even more. Battery life time has been increased from 56 hours to 1867 hours for a simple self made benchmark.The goal is to get the changes into the official FreeRTOS distribution, but it has not been accepted yet.However, a customer of Energy Micro has started to develop an application based on this design.
|
310 |
Predicting Stock Prices Using Technical Analysis and Machine LearningLarsen, Jan Ivar January 2010 (has links)
Historical stock prices are used to predict the direction of future stock prices. The developed stock price prediction model uses a novel two-layer reasoning approach that employs domain knowledge from technical analysis in the first layer of reasoning to guide a second layer of reasoning based on machine learning. The model is supplemented by a money management strategy that use the historical success of predictions made by the model to determine the amount of capital to invest on future predictions. Based on a number of portfolio simulations with trade signals generated by the model, we conclude that the prediction model successfully outperforms the Oslo Benchmark Index (OSEBX).
|
Page generated in 0.5155 seconds