• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1879
  • 978
  • 10
  • 10
  • 7
  • 6
  • 3
  • 3
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 2895
  • 2759
  • 611
  • 592
  • 557
  • 498
  • 498
  • 459
  • 415
  • 381
  • 379
  • 378
  • 339
  • 314
  • 301
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
611

Referanseimplementering av Checkpoint Service API ved bruk av Heartbeat / Checkpoint Service Reference Implementation Using Heartbeat

Lund, Ingunn, Lønningen, Anja Karense January 2005 (has links)
<p>Det eksisterer per i dag ingen implementasjon av standard grensesnitt for å tilby høytilgjengelige systemer i kombinasjon med standard maskinvareplattformer, mellomvare og tjenesteapplikasjoner. Dette medfører at programvaren må tilpasses ulike plattformer og ressurser som er tilgjengelige. Individuell tilpasning resulterer i økte kostnader og tidsforbruk, samt større usikkerhet i forbindelse med utvikling. Service Availibilty Forum presenterer Application Interface Specification (AIS) som er et standard grensesnitt for høytilgjengelige løsninger. Rapporten beskriver en prøveimplementasjon av Checkpoint Service, som er en del av AIS standarden. Det er også vektlagt hvordan clusterprogramvaren Heartbeat kan benyttes for å oppnå høytilgjengelighet i et distribuert system. Rapporten beskriver først høytilgjengelige systemers natur, i tillegg til at begreper som feiltoleranse og clusterløsninger introduseres og diskuteres. Deretter beskrives noe av den høytilgjengelige programvaren som eksisterer på markedet i dag. Behovene for en standard diskuteres, og rapporten gir en oversikt over delvise implementasjoner av AIS som foreligger per i dag. Rapporten presenterer så en oversikt over AIS med hovedfokus på Checkpoint Service, som er den delen av standarden prosjektet implementerer. Det gis en innføring i entitetene knyttet til Checkpoint Service, samt at de viktigste egenskapene ved tjenesten beskrives. Videre gir rapporten en kort oversikt over de ulike teknologiene som er benyttet i prosjektet, før den utførte implementasjonen presenteres. Det er kun Checkpoint Service spesifikke metoder og datastrukturer forbundet med disse som her er beskrevet, samt eventuelle begrensninger ved implementasjonen. Deretter følger en oversikt over testutførelsen, før resultatene fra de gjennomførte testene fremlegges og diskuteres. Rapporten konkluderer med at løsningen realiserer basisfunksjonene som inngår i Checkpoint Service, og at den fungerer på en tilfredsstillende måte. Det er foretatt målinger av både checkpointtider og takeovertider. Resultatene fra disse målingene er meget gode, og tilsier at applikasjonen imøtekommer kravene til høy tilgjengelighet. Det gjenstår imidlertid noe videre arbeid for å få implementasjonen til å fungere med en tilfeldig applikasjon. Dette inkluderer implementasjon av flere funksjoner samt en viss generalisering av løsningen som foreligger.</p>
612

Læringsrom i nett / Learning rooms on the web

Berg, Arnstein, Wehus, Håvar January 2005 (has links)
<p>Denne oppgaven tar for seg temaet e-læring, og spesielt samarbeidslæring over internett. Gjennom å utvikle store deler av et komplett e-læringssystem, har vi sett på teknologbruk og funksjoner i praksis. Den aller største delen av prosjektet har vært å implementere dette systemet, men i den forbindelse har vi også brukt mye tid på planlegging og refleksjon. Dette har gitt oss mange erfaringer med hvordan e-læring kan og bør legges opp. Vi har spesielt fokusert på å ta i bruk teknologier som i liten grad er utnyttet i e-læring i dag. Samarbeidsfunksjoner har stått mye i fokus, og vi har sett på måter å gjøre både elev-lærer- og elev-elev-interaksjonen over internett bedre. Særlig gjelder dette bruk av synkron kommunikasjon. Vi har også sett en del på personlige verktøy og systemet vårt som en helhetlig IT-løsning for skoler. Det har samtidig vært et mål for oppgaven å øke bredden i e-læring gjennom å forsøke å tilpasse systemet til flere forskjellige undervisningstyper og aldersgrupper. Systemet vårt ble som en del av oppgaven vist frem til et lite utvalg personer, for å få noen tilbakemeldinger på e-læringssystemet vårt. Formålet var å gjennomføre et case study, der vi ser hvordan de løsningene vi har diskutert oss frem til, ble mottatt av andre. Studien er utført i veldig liten skala, og kan i liten grad brukes til å generalisere holdninger til e-læring. Den kan derimot være et utgangspunkt for videre forskning, gjennom å se på de momentene vi prøvde ut og hvilke reaksjoner vi mottok. Resultatet fra testpersonene var overordnet positivt, og vi fikk spesielt god tilbakemelding på at synkron kommunikasjon var ønskelig. Vi har ikke hatt anledning til å legge inn særlig avanserte synkrone funksjoner, men det lille vi hadde med vakte stor interesse. Synkrone kommunikasjonsmetoder ser ut til å være avgjørende for hvor lett det er å samarbeide med andre i systemet. Her er det viktig å føle at det er noen i den andre enden, og den følelsen gir ikke asynkrone metoder i så stor grad. Studien viste videre at vi ikke hadde klart å tilpasse systemet vårt så godt til alle aldersgrupper som vi hadde håpet. Vi ser imidlertid at ved å bruke mer tid på å utvikle det, kan man forholdsvis enkelt forbedre brukervennligheten. Dersom man bare er villig til å ta i bruk det nyeste av teknologi i dag, er det få begrensninger i forhold til hva slags informasjon man kan overføre.</p>
613

Evaluering av ytelsen til aksessmetoder for main memory databaser / Evaluation of the performance of main memory database access methods

Nielsen, Arne Eirik January 2005 (has links)
<p>Den publiserte forskningen om samtidige aksessmetoder for main memory databaser gir ingen entydige svar på hvilke aksessmetoder som yter best. Hovedårsaken til dette er usikkerhet knyttet til tidsforbruket til de nødvendige synkroniseringsmekanismene for samtidighetskontroll. Nyere ytelsesmålinger viser at tidsforbruket knyttet til synkroniseringsmekanismene kan være lavere enn først antatt. Vi har i denne rapporten simulert flere samtidighetsalgoritmer for aksessmetodene B-trær og T-trær. Simuleringene er foretatt under ulike realistiske omgivelser med varierende prosessorantall. Resultatene viser at algoritmene for T-trær, som setter èn lås i treet, yter bedre enn eller like godt som algoritmene for B-trær under alle omgivelser. Det eneste unntaket er når det anvendes mange prosessorer og en stor andel av operasjonene gjør innsettinger. I slike omgivelser yter B-trær best. Det er også utført simuleringer hvor tidsforbruket knyttet til synkroniseringsprimitivene er variert. Resultatene viser at ved lavt tidsforbruk er det effektivitet med tanke på prosessorbruk som har mest å si for ytelsen, mens ved høyt tidsforbruk er det antall låser som avgjør ytelsen. Ved tilstrekkelig mange samtidige operasjoner i aksessmetodene oppstår det, i alle de simulerte algoritmene, en flaskehals som skyldes en delt ressurs ved inngangen til aksessmetoden. Denne flaskehalsen fører til at det ikke oppnås høyere gjennomstrømning av operasjoner ved bruk av flere prosessorer. Det presenteres løsninger på dette problemet som er anvendbare på alle algoritmene. Simuleringer av algoritmer som anvender løsningene viser at man kan oppnå tilnærmet lineær skalering av ytelsen opp til minst $32$ prosessorer for alle algoritmene.</p>
614

Reduksjon av bildedata ved identifisering av menneskeskapte objekter / Reduction of image data by identification of man-made objects

Nordseth, Tor January 2005 (has links)
<p>Algoritmen i oppgaven bruker egenskapsidentifisering til å finne deler av landskapsbilder som inneholder menneskeskapte objekter. Bildene er tatt i det infrarøde spekteret og viser varmestrålingen fra landskapet. Ut ifra testdata ble det manuelt identifisert fire egenskaper som for det meste tilhørte menneskeskapte objekter. Fem delealgoritmer for egenskapsidentifisering er utviklet og testet (hvorav to identifiserer den samme egenskapen): 1) Lyse områder definert ved statisk terskel Denne gav poeng for områder som hadde høyere stråling enn normalt for generell bakgrunn. 2) Lyse områder definert ved dynamisk terskel Denne gjorde det samme som den forrige, men ved å tilpasse terskelen gav den poeng til flere menneskeskapte objekter og færre naturlige områder. 3) Markante rette kanter Denne gav poeng til områder med rette kanter som var sterkere enn en fastsatt terskel. 4) Parallelle linjer Denne gav poeng til områder med par av kanter som var parallelle. 5) Uniforme arealer ved rette kanter Denne gav poeng til områder med rette kanter liggende inntil uniforme flater. Den første delealgoritmen for egenskapsidentifisering ble forkastet fordi den andre delealgoritmen gjorde tilsvarende nytte, men med bedre resultater. Den fjerde delealgoritmen for egenskapsidentifisering ble forkastet fordi den ikke klarte å skille mellom antydninger til parallelle linjer i områder med bakgrunn og i tilfeller ved menneskeskapte objekter. Det er brukt et representativt utvalg av bilder med forskjellige egenskaper for å vise at algoritmen skilte godt ut områder med menneskeskapte objekter og forkastet mye uinteressant bildedata. Som følge av de egenskapene det er valgt å bruke, er algoritmen avhengig av at de menneskeskapte objektene enten stråler mye varme eller inneholder rette kanter lange nok til å skille seg fra støy i bakgrunnen. De menneskeskapte objektene som ikke gjenkjennes av algoritmen som menneskeskapte er derfor små og med liten varmestråling.</p>
615

Løsing av IQ-tester ved hjelp av kunstig intelligens / Solving IQ tests by use of artificial intelligence

Fredriksen, Anders Lund January 2005 (has links)
<p>IQ-tester har blitt brukt i en årrekke til å teste hvor intelligente mennesker er. Selv om det lenge har vært et mål å gjøre datamaskiner intelligente finnes det ingen lignende test for å sammenligne hvor langt utviklingen har kommet innen kunstig intelligens. Vi ønsker derfor å bruke IQ-tester laget for mennesker til å finne ut hvor godt en datamaskin løser slike oppgaver. Hvor bra en datamaskin gjør det på en IQ-test er dermed et mål for hvor kunstig intelligent denne er. Ved å kjøre en lignende test igjen om noen år vil man kunne se hvordan utviklingen har vært innenfor de områdene som testen dekker. IQ-tester inneholder svært varierte oppgaver innen områder som logikk, hukommelse og språkferdigheter, og ulike oppgavetyper krever ulike teknikker for å løses. Blant annet viser denne rapporten hvordan genetisk programmering kan brukes til å løse ulike oppgaver innenfor logikk. Denne teknikken er brukt til å løse to oppgavetyper, en der man skal finne det neste tallet i en tallrekke og en der man skal finne den neste figuren i en figurrekke. Kjøringene av implementasjonene viser strålende resultater, og bekrefter dermed at genetisk programmering er velegnet til å løse en del oppgaver som krever gode logiske evner. For en rekke andre oppgaver inneholder rapporten en detaljert beskrivelse av hvordan disse kan løses. Blant annet er kunnskaper om naturlig språk og oppslag i ordbøker viktige elementer.</p>
616

Stedfestet lyd i modeller for virtuell virkelighet / Spatialized sound in models for virtual reality

Fallan, Bård Terje January 2005 (has links)
<p>Ulike metoder for å gjengi stedfestet lyd er gjennomgått og vurdert. Dessuten er det sett på ulike måter å benytte disse teknikkene i den eksisterende Sverresborgapplikasjonen. En metode er valgt og implementert som viser at dette er mulig uten å gjøre dyptgående endringer i strukturen til systemet som finnes i dag. Hensikten med dette har vært å øke realismen av opplevelsen til brukeren under demonstrasjoner av modellen i egnede omgivelser. Det har dessuten parallelt med dette vært et nært samarbeid med Sverresborg Trøndelag Folkemuseum om en utstilling sommeren 2005. Dette samarbeidet har resultert i en guidet animasjon på borgen, med tilhørende stedfestede lydeffekter.</p>
617

Automatisk Trafikkanalyse / Automatic Traffic Analysis

Henrichsen, Thor Marius, Sund, Erik Åldstedt January 2005 (has links)
<p>Videoovervåkning av veistrekninger i reguleringsøyemed blir stadig mer vanlig. Registrering av objektbevegelse, svingemønster og dermed også konfliktsituasjoner gjøres idag manuelt. Automatisering av dette er interessant både ut i fra et økonomisk og sikkerhetsmessig synspunkt. Mens tradisjonelle sensorteknologier bare registrerer begrensede aspekter ved scenen, registrerer man med video all visuell informasjon. På denne måten kan skjulte mønstre identifiseres og kvaliteten i avviklingen forbedres. Denne rapporten beskriver prototyp implementasjoner for automatisk uttrekning og gjenfinning av relevant informasjon i slike overvåkningssekvenser. Implementasjonen er primært ment å behandle informasjon om kjøretøys bevegelser og svingemønster gjennom veikryss. Analysesystemet, X-Analyzer, inkluderer moduler for bevegelsessegmentering, skyggefjerning, klassifisering, objektfølging og datalagring. Systemet er generisk i den forstand at det kan anvendes på videomateriale fra vilkårlige veistrekninger. Brukeren definerer selv scenen i form av interessante regioner. Scenedefinisjonen danner grunnlaget for lagring i en romlig-temporal datamodell som legger til rette for gjenfinning av interessante situasjoner og sekvenser. Gjenfinningssystemet, X-Retriever, gir mulighet til å spesifisere konfigurasjoner som definerer konfliktsituasjoner i krysset. Vi mener vi har lykktes med å implementere ideen presentert i oppgavebeskrivelsen. Vår prototyp for automatisk analyse opererer effektivt og implementerer all funksjonaliteten i vår målsetning. Gjenfinningssystemet returnerer de datafragmentene som samsvarer med brukerens spørringer. Vi konkluderer rapporten med at implementasjonen var vellykket, men ytterligere testing og videre utvikling vil være nødvendig dersom systemet skal benyttes i praksis.</p>
618

Digital rettighetsstyring i IPTV : En transparent metode for ende-til-ende beskyttelse av IPTV. / Digital Rights Management in IPTV : A transparent method for end-to-end protection of IPTV.

Andersen, Christian, Moe, Lars January 2005 (has links)
<p>Denne rapporten beskriver en metode og et prototypesystem for beskyttelse av IPTV. Utgangspunktet for oppgaven er et konkret behov for beskyttelse i et eksisterende IPTV-system. Behovet er basert på krav fra rettighetshaverne om tilstrekkelig beskyttelse av deres intellektuelle eiendom (i form av filmer, TV-serier og -programmer) mot uautorisert tilgang og kopiering. Ved hjelp av en prototype viser vi en transparent metode for ende-til-ende beskyttelse av IPTV. Løsningen er uavhengig av videoavspiller, mediaserver og innholdsformat. Den innholdsagnostiske egenskapen ved løsningen begrenser muligheten for å benytte spesialiserte metoder for videokryptering. Vi baserer oss derfor på den standardiserte krypteringsalgoritmen AES i CTR-modus, med mulighet for å velge alternative algoritmer. Det foreslås også en enkel selektiv krypteringsalgoritme for å begrense mengden av videodata som krypteres. Disse krypteringsmetodene tar hensyn til behovet for distribusjon av videodata med unicast- og multicast. Løsningen benytter sanntidsbytte av krypteringsnøkler. Denne nøkkeldistribusjonen er implementert ved å bruke en sikker unicast-kanal mellom klientapplikasjonen og serveren.</p>
619

Konseptekstraksjon fra store dokumentsamlinger / Concept extraction from documentcollections

Løkse, Svein Ola January 2005 (has links)
<p>Konseptekstraksjon er ingen ny teknologi. Den har eksistert helt siden 60-tallet, da man først begynte å digitalisere tekstlig informasjon for lagring og gjenfinning. I de siste årene har det oppstått fornyet interesse for faget da vi i dag har en litt annen situasjon. Det finnes i dag en overflod av dokumenter på digitalform. Informasjon må filtreres og ekstraheres for at vi ikke skal ”drukne” i dem. Overfloden av tekstlig informasjon finner spesielt sted på internett, men også i større bedrifter og organisasjoner. I denne oppgaven blir det sett på anvendelser av konseptekstraksjon slik det foregår i dag, og hvordan man kan ta fatt på problemene rundt den voksende mengden av digital informasjon. Det er implementert en komponent for en lingvistisk arbeidsbenk som utfører lingvistiske operasjoner på dokumentsamlinger. Resultatene fra disse operasjonene kan igjen brukes for å trekke ut konsepter fra dokumentsamlingene.</p>
620

Tolkning av fotballreferater / Interpretation of soccer summaries

Strand, Stian Junge January 2005 (has links)
<p>”Tolkning av fotballreferater” er en Diplomoppgave utarbeidet ved NTNU og Institutt for Datateknikk og Informasjonsvitenskap. Oppgaven er gitt av Jon Atle Gulla som også fungerer som veileder. Vi har i dette prosjektet utviklet et system, SoccerFinder, som analyserer setninger fra et fotballreferat. Vi tar utgangspunkt i referater som publiseres på nett av VG, mer spesifikt et referat fra kampen Skottland - Norge. Slike fotballreferater er skrevet av en som følger kampen direkte, og de inneholder derfor en del dårlig norsk samt ufullstendige setninger. Dette kompliserer arbeidet vårt, og vi er blant annet vært nødt til å skrive om en del setninger. Informasjonen vi ønsker å ta vare på er hendelser som for eksempel dueller, utdeling av kort, tidspunkt for eventuelle bytter samt hvor mange cornere og frispark en kamp hadde. For å analysere setninger bruker vi i prosjektet vårt et lingvistisk søkeverktøy, HoG, som er plassert på Dragvoll. Vi sender setninger til HoG ved å bruke XML-RPC, og får tilbake resultater i form av RMRS representasjoner på XML format. RMRS er en teknikk for å representere semantiske strukturer der elementære predikasjoner knyttes til begivenheter. RMRS er komplekse representasjoner, og det har vært en tidkrevende prosess å sette seg inn og forså disse. Vi filtrerer ut ifra en RMRS, informasjon som for oss er interessant å ta vare på. Dette gjør vi ved å bruke XSLT, et stilsett som henter ut data fra XML dokumenter. Den filtrerte informasjonen legger vi så inn i en databasetabell, og kan seinere kjøre spørringer mot denne for å hente fram informasjonen. Systemet vårt er en Java-Servlet som kjøres fra en Tomcat webserver. Vi har her enkle websider der vi velger om vi vil sende en setning til analysering, eller om vi ønsker å kjøre en spørring mot informasjon i en database. Ved å utvikle et system som SoccerFinder vil vi være i stand til å hente fram aggregert informasjon fra et eller flere referater. Dette er det som hovedsakelig skiller oss fra dagens søkeverktøy, som for eksempel Google, der vi hovedsakelig vil kunne søke oss fram til forekomster av ord. Arbeidet med denne oppgaven er utført våren 2005 og er en avslutning på Masterutdanningen i Datateknikk.</p>

Page generated in 0.036 seconds