• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 144
  • 116
  • 4
  • Tagged with
  • 260
  • 256
  • 251
  • 181
  • 129
  • 129
  • 129
  • 125
  • 64
  • 51
  • 51
  • 51
  • 10
  • 10
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

ArtDev3D: An Artificial Development System

Høye, Johan January 2006 (has links)
Evolutionary algorithms (EAs) are a class of population-based stochastic search algorithms which have proven themselves to be powerful tools in optimization problems where the search space is complex, contains many local optima, and is so large that an exhaustive search is not possible. An application area where EAs have great potential is in the design of electronic circuits. However, for this type of task such a large representation is typically required for each of the proposed solutions that using an EA approach is not feasible because of the immense computational power this would require. This limitation of EAs is known as the scalability problem: EAs perform well when dealing with problems requiring a small solution representation, but when the required size for these representations increases the EAs quickly become too computationally expensive to be useful. Numerous approaches for dealing with the scalability problem have been proposed. One of the more promising approaches is inspired by the way nature copes with scaling: the process of an organism growing from a single fertilized cell and into a multi-cellular being, called development. By adapting some of the mechanisms of development to a computer program, the EA can evolve a relatively small genome which when developed i.e. decompressed, using this program will represent a solution. There are, however, some problems regarding this approach. One issue is that biological development is such a complex process that implementing it in all its detail is neither feasible nor desired, meaning a decision regarding which mechanisms to implement and which ones to leave out must be made. Another issue is the increased difficulty to evolve a good solution. This occurs because EAs depend on a gradual refinement of the solution to be effective, but with this approach a small change in the genome may lead to a large change in the corresponding solution. This is because in this approach there is no longer a direct correspondence between the genotype space and the solution space, so that what is adjacent in the genotype space may be far apart in the solution space. This means that even though gradual refinement is achieved in genotype space, the changes in the corresponding solution space may appear to be more or less random A novel artificial development system, designed and implemented from scratch, is presented in this thesis. A novel system was built because, although a number of other such system already have been implemented, they are all in the experimental stage, and this system is though to be a useful supplement to the existing ones, providing more material to base the understanding of what may be useful in an artificial development system on. An explorative approach was taken where the implemented system was put through a number of tests to investigate its capabilities. First the systems ability to develop a varied set of different shapes was investigated. Secondly, four parameters were tested for their effect on the system's ability to develop good solutions: the initial number of neighbours, the number of chemical types used (both part of a precondition), the number of cell types available to the system, and the degree of symmetry in the target shapes. The experiments performed showed that the system is able to develop a number of shapes. For the four investigated parameters, indications were found that each has a profound effect on the systems ability to develop a given target.
122

Auto-tunable GPU BLAS

Lien, Geir Josten January 2012 (has links)
In this paper, we present our implementation of an Auto tuning system, written in C++, which incorporate the use of OpenCL kernels. We deploy this approach on different GPU architectures, evaluating the performance of the approach. Our main focus is to easily generate tuned code, that would otherwise require a large amount of empirical testing, and then run it on any kind of device. This is achieved through the auto tuning framework, which will create different kernels, compile and run them on the device and output the best performing kernel on the given platform.BLAS is much used in performance critical applications, and is a good candidate for execution on GPUs due to its potential performance increase. Our implementation was benchmarked on various of test environments, with different GPUs, where we achieved comparable results to the ViennaCL library. We also tested against the native vendor specific BLAS libraries from AMD and NVIDIA.
123

Threats to Bitcoin Software

Kateraas, Christian H January 2014 (has links)
Collect and analyse threat models to the Bitcoin ecosystem and its software. The create misuse case, attack trees, and sequence diagrams of the threats. Create a malicious client from the gathered threat models. Once the development of the client is complete, test the client and evaluate its performance. From this, assess the security of the Bitcoin software.
124

Emnetilknytting av ustrukturert sykepleiedokumentasjon i elektronisk pasientjournalsystem gjennom tradisjonelle tekstgjenfinningsteknikker, klassifisering og rammeverk / Association of topics to unstructured nursing records in Electronic Patient Record-systems through traditional Information Retrieval techniques and nursing classification frameworks

Østby, Asbjørn Eidevik January 2005 (has links)
<p>Oppgaven ser på et område som det i dag er implementert lite støtte for i eksisterende EPJ-systemer (Elektronisk Pasientjournal), knytting av emner til ustrukturert sykepleiedokumentasjon ved hjelp av tradisjonelle søketeknikker og rammeverk. Søking og navigering er dårlig utviklet i mange EPJ-systemer, spesielt for ustrukturert dokumentasjon. Knytning av emner til denne typen dokumentasjon kan derfor lette sykepleiernes hverdag, og metoden som presenteres i denne oppgaven kan være et verktøy i denne sammenhengen. Automatisk klassifisering er knyttet til mange usikkerhetsfaktorer. Disse usikkerhetsfaktorene forsøkes belyst ved vise til sykepleiedokumentasjonens natur og sprikende struktur, noe som vanskeliggjør en regelbasert tilnærming. Oppgaven argumenterer for at man kan tolerere feilkilder så lenge man er klar over at disse eksisterer, og at nytteverdien av å søke på emner fremfor enkelttermer er større enn problemene disse usikkerhetsfaktorene gir. Bruk av eksisterende rammeverk fremfor egendefinerte klassifiseringssystemer er en naturlig innfallsvinkel til en slik problemstilling. Oppgaven forsøker å vise ett prinsipp, mer enn en favorisering av ett spesielt rammeverk. Likevel vil ett rammeverk, Sabaklass versjon 2.0N, bli mer omtalt enn andre på grunn av at det har vært benyttet i implementasjonen av en prototyp i forbindelse med oppgaven. Oppgaven viser hvordan slik emnetilknytning kan foregå ved hjelp av en prototyp som er blitt utviklet for formålet. Prototypen benytter vektorrommodellen (VSM) sammen med en ordliste knyttet til rammeverket for å klassifisere ustrukturert sykepleiedokumentasjon. Valget av vektormodellen fremfor andre, tradisjonelle tekstgjenfinningsteknikker, er gjort ut ifra modellens egenskaper til å rangere delvise treff. De konkrete resultatene av prototypingen kan være diffuse. Dette er i stor grad knyttet til konstruksjonen av ordlisten, og vanskeligheter knyttet til å skaffe en god testsamling. Likevel peker de foreløpige resultatene i favør for en slik søkemetodikk, fordi den kan benyttes sammen med eksisterende søkemetodikker, og den representerer en fordel ved ukjent dokumentasjon.</p>
125

Funksjonsbuffer i maskinvare / Functioncache in hardware

Fredriksen, Tord Andreas January 2005 (has links)
<p>Rekonfigurerbar maskinvare har i den siste tiden vist seg å være et særdeles nyttig verktøy i forbindelse med akselerasjon av forskjellige algoritmer. Spesielt gjelder dette algoritmer som enkelt lar seg parallellisere. Et av hovedproblemene med bruk av rekonfigurerbar maskinvare er at det tar relativt lang tid å rekonfigurere selve maskinvaren for en gitt algoritme-implementasjon (modul). Hvis en bruker flere forskjellige slike implementasjoner etter hverandre kan dette bli et veldig stort problem. Partiell rekonfigurering har lettet litt på dette problemet. Dette fordi partiell rekonfigurering gjør det enkelt å ha flere moduler lastet inn i maskinvaren samtidig. I tillegg er det mulig å ''skjule'' rekonfigureringstiden ved å rekonfigurere deler av maskinvaren mens resten jobber med en oppgave. Flere moduler på samme brikke betyr også at det er større sjanse for at en ikke trenger å rekonfigurerer maskinvaren før en gitt oppgave, siden det er en sjanse for at modulen allerede ligger konfigurert. I denne oppgaven presenterer vi et system som har mulighet til å ha 4 forskjellige moduler konfigurert til enhver tid. Denne oppgaven ser på muligheten til å benytte temporær lokalitet i bruksmønstret til de forskjellige modulene, til å avgjøre hvor i maskinvaren en ny modul skal lagres. Med dette mener vi å implementere et system som holder rede på hvor ofte de forskjellige modulene blir brukt. Denne informasjonen blir så benyttet til å bestemme hvilke moduler som skal få ligge i maskinvaren og hvilke som skal kastes ut når det blir nødvendig å laste inn en ny modul. Til dette benyttes en enkel LRU- (least recently used) algoritme, og systemets virkemåte har mange likhetstrekk med hvordan hurtig-buffer for minne fungerer på en vanlig PC. Med dette håper en å redusere antall rekonfigureringer og på denne måten redusere den totale rekonfigurasjonsforsinkelsen. Vi ser også på muligheten til å stokke om på rekkefølgen oppgavene blir sendt inn i, for å prøve å minimere antall rekonfigureringer. Systemet består av en programvaredel som holder rede på bruksmønsteret og tar avgjørelse om fordelingen av modulene. I tillegg så inneholder systemet også en maskinvaredel som tar seg av kommunikasjon mellom modulene og programvaren. Modulene ligger på egne datafiler som blir lest inn ved behov av brukerprogrammet. Brukeren sender inn oppgaver til systemet ved å spesifisere hvilken modul han/hun ønsker å benytte og hvilke data som skal sendes inn til den.</p>
126

IKT og Lovverket - Omstillinger og økende integrasjon i offentlig forvaltning / ICT and the legal framework - Innovations and increasing integration in the public administration

Ovell, Jonas January 2005 (has links)
<p>I denne masteroppgaven har jeg tatt for meg hvilken betydning det har å integrere lovverket i IT-systemer, og sett dette i sammenheng med endrings- og moderniseringsprosesser i offentlig velferdsforvaltning. Spørsmålet som har stått sentralt for oppgven er hvilke konsekvenser og føringer en integrasjon av lovverket i IT-systemer får. I en saksbehandlingshverdag er en av konsekvensene av å integrere lovverket, at man får en saksbehandlingsprosess som i større grad er styrt. I en teknologi støttet saksbehandling hvor teknologien har en helt sentral rolle i hverdagen, vil dette knytte lovverket sterkere til teknologien, noe som vil føre til en definering av hvordan saksbehandling kan gjøres. En integrasjon vil derimot ikke få noen betydning for utøvelse av skjønn i forhold til lovverket. For etatene er det i en hverdag med krav til kvalitet og effektivitet, og hvor det samtidig eksisterer et stort press på hver enkelt saksbehandler, krevende å forholde seg til teknologien og lovverket. Det teoretiske perspektivet har vist at en integrasjon av lovverket ikke er uproblematisk å gjennomføre. Endring av teknologien vil med bakgrunn i dette være et sammensatt fenomen. Dette fordi det er viktig å forstå at en endringer skjer som en konsekvens av et samspill mellom organisasjon, teknologien og lovverket. Dette har belyst en gjensidig sammensatt situasjon, hvor samspillet mellom teknologi, organisasjon og lovverk definerer mulighetene for endring. Samtidig skaper dette en større kompleksitet, hvor endringsprosesser som et resultat av dette blir vanskeligere å styre, og det kan dermed oppstå uventede sideeffekter som resultat av en prosess som er ute av kontroll. Det er derfor slik at selv om det er ønskelig med økende integrasjon for å drive fram effektivitet, er det viktig å være klar over at dette skaper nye typer former for risiko forskjellig fra de som gjelder når man snakker om tradisjonelle uavhengige informasjonssystemer.</p>
127

Integrasjon av brukersentrerte designmetoder i Rational Unified : Process: et Case studie / Integrating user-centered design methods in the Rational Unified : Process: A Case Study

Reitan, Ronny January 2005 (has links)
No description available.
128

Å spille med åpne kort : En studie i kunnskapsflyt blant "Open Source"-utviklere / To play with an open hand

Myrbostad, Kyrre January 2006 (has links)
<p>"Open Source"-utvikling kan sees på som elektroniske praksisnettverk, der ulike mekanismer for overføring av taus kunnskap er en viktig del av utviklingsarbeidet – samt bidrar til å holde nettverket samlet. For at nettverket skal kunne balansere godt mellom anarki og kontroll, bør man ta i bruk både de uformelle og de mer formelle kanalene for kommunikasjon, ettersom disse understøtter ulike former for kunnskapsoverføring. Her er det viktig at de mest aktive bidragsyterne går foran med et godt eksempel i den reelle bruken av kanalene.</p>
129

Innføring av NIS-system sett i et kunnskapsperspektiv : En casestudie ved Nord-Trøndelag Elektrisitetsverk / Implementing a NIS-system in a Knowledge Perspective : A case study at Nord-Trøndelag Elektrisitetsverk

Johansson, Bente Thuy Nguyen January 2006 (has links)
<p>Med stadig økende krav til innovasjon og konkurransedyktighet, vil organisasjoners evne til å utnytte kunnskap bli en viktig egenskap for å overleve. Kunnskap ''flyter'' rundt i organisasjonen og er en viktig kilde til at arbeid blir utført. Derfor vil det å kunne utnytte intellektuell kapital til vekst og utvikling bli sett på som et konkurransefortrinn. I dag forsøker en rekke organisasjoner å få oversikt over sine kunnskapsressurser, slik at de raskere kan lære og utnytte sin kunnskap enn sine konkurrenter. I lys av dette satses det på IT-systemer som kan hjelpe bedriftene å samle inn og ta vare på kunnskapsressursene. Kunnskapssystemer er avhengig av at riktig og nøyaktige data blir samlet inn slik at de fremstår som komplette og nyttige. Utfordringen er å forstå bedriftens egentlige behov for kunnskap og kunnskapsoverføring viktig. Ettersom det i mange tilfeller ikke er overensstemmelse mellom rutiner og det faktiske arbeidet, er det essensielt å skjønne hvordan arbeid blir utført for å kunne beskrive behovet. Masteroppgaven bygger på en casestudie ved Nord-Trøndelag Elektrisitetsverk for å bedre forstå deres behov for kunnskap og kunnskapsoverføring ved innføring av et NIS-system. Caset belyser hvordan informasjon blir til praktisk anvendelig kunnskap gjennom arbeid og interaksjon med omgivelser, og hvilke utfordringer man møter ved innføring av et slikt system. Det legges vekt på at det er viktig å ta hensyn til menneskelige behov så vel som tekniske funksjoner. %Teori legges til grunn for å vurdere ulike faktorer og aspekt ved dette. Mine funn og observasjoner tilsier at det bør fokuseres på bruk og brukernes behov i en innføringsfase mer enn det som ofte gjøres. I mange tilfeller legges det for mye vekt på tekniske funksjoner. Dersom brukere involveres mer skapes motivasjon og forståelse for teknologien, samtidig som det øker mulighet til å kartlegge hvilke arbeidsprosesser som må støttes i brukernes arbeid og hvilke behov de har. Dette er nødvendig for å forstå hvordan informasjon blir til praktisk anvendelig kunnskap.</p>
130

Implikasjoner ved bruk av IKT i erfaringsoverføring / Implications in the Use of Informationtechnology in Experiencetransfer

Ovesen, Arne Kristian January 2006 (has links)
<p>Oljereservene på den norske sokkelen begynner å tørke ut, og spesielle tiltak som sørger for at oljefelt skal være utnyttbare også etter år 2020 er satt i gang. Nye måter å lete og produsere olje på må bli funnet for å utvide levetiden til oljefeltene. Det å forvalte kunnskap blir viktigere og viktigere for å få mer olje ut av hver brønn. Denne oppgaven beskriver og evaluerer en prototyp som skal hjelpe til med erfaringsoverfø-ring fra boring til planlegging av nye brønner. Gjennom en sammenlikning av teori og beskrivelse av prototypen i Statoil, konkluderes det med at det er viktig å se på orga-nisasjonskontekst når erfaringer skal overføres fra et fagområde til et annet.</p>

Page generated in 0.0511 seconds