• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 113
  • 52
  • Tagged with
  • 165
  • 165
  • 101
  • 101
  • 100
  • 94
  • 64
  • 64
  • 10
  • 10
  • 7
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

3d visualisering av konseptkart / 3d Visualisation Of Conceptmaps

Hvaale, Ole Kristian January 2006 (has links)
I denne oppgaven er målsetningen å utvikle en metode for å organisere og visualisere en rekke med dokumenter (tradisjonelle dokumenter, læringsobjekt og kunnskapsobjekt) I oppgaven framhever jeg at automatisk genererte konseptkart er en god måte å representere kunnskap på, jeg visualiserer derfor kunnskapen i et konseptkart. Konseptene i kartet beskrives ved hjelp av merkelapper. Relasjonene og konseptenes plassering beregnes ved hjelp av metoder fra informasjonsgjenfinning. Dette automatisk genererte konseptkartet må visualiseres, selve visualiseringen bygger på teori fra informasjonsvisualiseringssystemer. I beskrivelsen av hvordan kunnskap kan representeres diskuteres konsepter, forskjellige typer kunnskap, og måter å presentere kunnskap på. Kunnskapen som kan vises som konsepter kan være tradisjonelle dokumenter eller læringsobjekter, oppgaven beskriver hva et læringsobjekt er i denne sammenheng. I evalueringen av konseptkartet gjenomgås det prototypens egenskaper til å visualisere kunnskapen på en god og oversiktlig måte, det evalueres også hvor stor mengde med kunnskap som prototypen kan håndtere. Jeg mener at resultatene viser at det tredimensjonale konseptkartet er et meget nyttig og pedagogisk hjelpemiddel for organisering og presentasjon av kunnskap.
142

Automatisk temainndeling / Automatic Topic

Reite, Toril Ormberg January 2006 (has links)
I dagens informasjonssamfunn har man enkel tilgang til store mengder informasjon, dette fører ofte til at man finner mye mer informasjon enn man trenger og det blir vanskelig å finne det man leter etter. I min masteroppgave skal jeg prøve å finne en metode som automatisk angir tema til tekster. Ved å få angitt et tema, er det forhåpentlig enklere å se om teksten innholder relevant informasjon. Utgangspunktet for oppgaven var en idé om at det er mulig å finne tema for en tekst ved å bruke tittelen og sammendrag (abstract) som grunnlag. Dette testes ved å dele en samling dokumenter opp i flere deler og trene en del ved å la forhåndsbestemte tema for denne delen bli satt som utgangspunkt for sammenligninger med resten av samlingen. For å løse denne oppgaven har jeg gjennomført en litteraturstudie, tatt i bruk lovende teknologier for høsting av metadata og laget en prototyp som tester hvor godt metoden fungerer i praksis. For å høste metadata ble Open Archives Initiative’s standard for høsting av metadata valgt som løsning for høsting av data. Arc, en åpen kildekode programvare, ble brukt for selve høstingen og MySQL ble valgt som datalager for innhøstede data. Det viste seg at metoden i de fleste tilfeller traff feil tema, sammenligner man med de fem temaene som blir foreslått er treffprosenten 11 prosent i gjennomsnitt. Dette gir for dårlig resultat til at metoden kan taes i bruk slik den er i dag. Det har underveis blitt oppdaget en mulig feilkilde i selve samlingen som er brukt for testformålet, da dokumentene i samlingen er fordelt slik at like tema ligger nært hverandre. Ved testing på et utvalg av samlingen på de 100 første dokumentene blir resultatet vesentlig bedre enn for hele samlingen. Temafordelingen i denne delen av samlingen er også mer jevnt fordelt enn resten av samlingen, dette indikerer at det er samlingen som er problemet og ikke metoden. Jeg konkluderte med at metoden mest sannsynlig virker og at den kan brukes til å angi tema for tekstlige dokumenter. Det må imidlertid testes på blant annet om resultatet blir bedre dersom man stokker dokumentene, eller bruker en annen dokumentsamling. Dersom resultatet blir at treffprosenten nærmer seg hundre prosent er det etter min mening mulig å bruke metoden i stor skala på internett for å angi tema til dokumenter.
143

Sikkerhetsfallgruver og forholdsregler i Web 2.0 med AJAX / Security Pitfalls and Measures in Web 2.0 with AJAX

Eggum, Thomas Johan January 2007 (has links)
Asynchronous JavaScript and XML (AJAX) er en samling med teknologier, som muliggjør utvikling av webapplikasjoner med interaktive brukergrensesnitt. Sikkerheten i slike webapplikasjoner kan svekkes på grunn av kompleksiteten som AJAX tilfører. Ved å fokusere på funksjonelle krav fremfor sikkerhet, kan det introduseres en rekke fallgruver og angrepstyper under utviklingen. Det blir i oppgaven undersøkt slike fallgruver og angrepstyper, med eksempler på hvordan de kan utnyttes av ondsinnede. Ved å ta forskjellige forholdsregler, kan det utvikles sikre AJAX-baserte webapplikasjoner, og det er derfor undersøkt et aktuelt utvalg av disse. Det finnes rammeverk for å systematisere og effektivisere arbeidet til utviklere. Oppgaven tar for seg rammeverkene Direct Web Remoting, Ruby on Rails og Microsoft ASP.NET. Disse er alle gode kandidater til verktøy for å utvikle AJAX-baserte webapplikasjoner, med hensyn til tid og sikkerhet. Rammeverkene har innebygde mekanismer som hevder å støtte enkelte av forholdsreglene undersøkt. For å teste disse rammeverkene og deres sikkerhetsmekanismer, blir det utviklet en AJAX-basert webapplikasjon i hvert av rammeverkene. Testingen viser at de fleste mekanismene i rammeverkene må aktiveres manuelt, før de bidrar til økt sikkerhet. Det blir også avslørt en feil i en av sikkerhetsmekanismene til rammeverket DirectWeb Remoting. Feilen blir rapportert til utviklerne av rammeverket, sammen med forslag til hvordan denne bør rettes.
144

Skalering av leseoperasjoner med Apache Derby / Scaling queries with Apache Derby

Visnes, Snorre January 2007 (has links)
Oppgaven tar for seg hvordan det er mulig å lage et cluster basert på Derby som støtter et høyt volum av lesetransaksjoner. Skriving er ikke i fokus ytelsesmessig, men er mulig gjennom Derbys støtte for XA. Det faktum at XA er et verktøy for å gjennomføre 2-fase commit, ikke replisering, gjør at skriving kun er mulig for administrator. Hovedsakelig grunnet manglende sekvensering av transaksjoner, samt mangel på automatisk opprydning etter feilede transaksjoner. Testing viser at skaleringsgraden for et slikt system er på 100%. Det er ingen sammenkobling mellom servernoder, og dermed ingen øvre grense for antall noder. Det at det ikke er noen sammenkobling mellom servernoder gjør at disse kan spres geografisk. Sammen med en fail-over mekanisme i klienten kan dette systemet oppnå høy tilgjengelighet ved lesing.
145

Apache Derby som MMDB / Apache Derby as MMDB

Solem, Knut Magne January 2007 (has links)
Apache Derby er en Open Source-database utviklet i Java. Den er designet som en tradisjonell diskbasert database og er optimalisert for diskaksess. Målet med denne oppgaven er å finne måter å øke ytelsen på databaser der vi antar at hele databasen får plass i minnet. Vi ønsker å optimalisere for aksessering av data i minnet istedenfor på disken og på den måten gjøre databasen mer lik MMDB(Main Memory DataBase)-databaser. Dette har vi gjort ved å identifisere og erstatte flere disk-spesifikke moduler i Derby med nye moduler optimalisert for minneaksessering. Samtidig bruker vi eksisterende moduler for å oppnå persistens av dataene. Resultatene viser at ytelsen på leseaksesser i siste stabile versjon av Derby (10.2.2.0) kan økes med 70-200% og skriveaksesser med 20-100% avhengig av hvor mange klienter som benytter databasen samtidig.
146

Metric Indexing in Time Series / Metric Indexing in Time Series

Rekdal, Espen Ekornes January 2008 (has links)
Sammenligner LAESA, List of Cluster og Piecewise Constant Aggregation i henhold til utelse målt via hvor mange objekt sammenligninger som blir utført.
147

Distributed NetFlow Processing Using the Map-Reduce Model

Morken, Jan Tore January 2010 (has links)
We study the viability of using the map-reduce model and frameworks for NetFlow data processing. The map-reduce model is an approach to distributed processing that simplifies implementation work, and it can also help in adding fault tolerance to large processing jobs. We design and implement two prototypes of a NetFlow processing tool. One prototype is based on a design where we freely choose an approach that we consider optimal with regard to performance. This prototype functions as a reference design. The other prototype is based on and makes use of the supporting features of a map-reduce framework. The performance of both prototypes is benchmarked, and we evaluate the performance of the framework based prototype against the reference design. Based on the benchmarks we analyse and comment the differences in performance, and make a conclusion about the suitability of the map-reduce model and frameworks for the problem at hand.
148

Geographical Location of Internet Hosts using a Multi-Agent System

Thorvaldsen, Øystein Espelid January 2006 (has links)
This thesis focuses on a part of Internet forensics concerned with determining the geographic location of Internet hosts, also known as geolocation. Several techniques to geolocation exist. A classification of these techniques, and a comparative analysis of their properties is conducted. Based on this analysis several novel improvements to current techniques are suggested. As part of an earlier designed Multi-Agent Framework for Internet Forensics (MAFIF), an application implementing two active- measurement geolocation techniques is designed, implemented and tested. Experiments with the application are performed in the Uninett network, with the goal of identifying the impact of different network properties on geolocation. What most clearly set this thesis apart from earlier work, in addition to the use of a multi-agent system, is the analysis of the impact of IPv6 on geolocation, and the introduction of multi-party computation to geolocation. The extensive focus on delay measurements, although not bringing anything new to the field of networking in general, is also new to geolocation as far as we know.
149

Managing Index Repartitioning

Karevoll, Njål January 2011 (has links)
Careful architectural decisions are required in order to create a highly available and scalable search system. This requires an in-depth analysis and understanding of the architecture and context of each deployment. Different requirements placed upon the system by different deployments mean different solutions provide the best case by case result, thus benchmarks provide an invaluable source of information.This thesis provides an overview of common components and important aspects of a distributed search system. It then gives an overview of different partitioning techniques before going into the details of repartitioning and rebalancing in a document-partitioned full-text search system.A processing framework that draws inspiration from flow-based programming literature is introduced, which is shown a valuable tool in creating custom tailored search solutions. The implementation is used to benchmark different repartitioning and rebalancing strategies.In conclusion, the techniques mentioned in the thesis show great promise in creating custom, maintainable and flexible partitions. The processing framework enables each specific deployment to easily compare different partitioning schemes and associated manageability and maintenance costs to determine the best fit for any given situation.
150

Keyword Search on Spatial Network Databases : Road network indexing for efficient query processing

Carlsson, Øystein Egeland January 2011 (has links)
Given a spatial location and a set of keywords, a spatial keyword query locates spatio-textual objects based on both the location of the objects, and the textual relevance of the query keywords to the description of the objects. Spatial keyword queries can be used to answer challenging questions such as finding the nearest spatio-textual object relevant for the query keywords "restaurant sushi".Our focus in this project is on a new type of spatial keyword query that takes a road network into account during query processing. These queries are based on the fact that the distance between two objects in the real-world are constrained by the pre-defined paths that comprise the road network. Different from traditional spatial keyword queries that employ the Euclidean distance, the spatial keyword query on road networks assumes the shortest path between the query location and the objects. Unfortunately, no approach currently exists that supports processing of spatial keyword queries on road networks.In this thesis we address the challenging problem of locating spatio-textual objects in a road network given a spatial location and a set of keywords. We first propose a baseline framework that combines existing state-of-the-art approaches to support processing of keyword-based spatial queries such as range and k-nearest neighbour on road networks. Then, we present a novel framework termed Road Network Indexing (RNI) that permits efficient processing of such queries by indexing the spatio-textual objects in each road segment using inverted files.Moreover, we present algorithms to evaluate keyword k-nearest neighbour and keyword range queries on both the baseline and the RNI framework.Finally, we show through an experimental evaluation using real-world datasets, that our RNI framework performs nearest neighbour queries on road networks in around one order of magnitude faster than the baseline approach in terms of response time and I/O.

Page generated in 0.1147 seconds