• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 384
  • 128
  • Tagged with
  • 512
  • 502
  • 399
  • 396
  • 177
  • 95
  • 93
  • 69
  • 50
  • 44
  • 40
  • 40
  • 38
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Dataintrång En studie av IT-säkerhet och IT-brott / Computer Trespass Study of IT-security and IT-crime

Bartels, Anna, Shenavar, Shahla January 2004 (has links)
Detta är en B-uppsats inom datasäkerhet och datajuridik. Uppsatsen består av först en litteraturstudie. Där tar vi upp vilka hot som finns mot information som hanteras med hjälp av datorer. Med hjälp av olika säkerhetsverktyg ökar man skyddet mot hoten. Vi beskriver de vanligaste verktygen som företag och även privatpersoner använder sig av. Ämnet dataintrång förklaras samt en beskrivning av externt- och interntdataintrång. I och med IT-utvecklingens snabba framväxt och förändringar på samhället ger det nya tillfällen till brott, ökningen av brott kan bero på att det finns en ökad skicklighet hos förövarna samtidigt som skyddet är svagt. Vad lagen säger om IT-brott och vilken lag som hanterar dataintrång tas upp. I empiridelen har vi studerat olika rättsfall för att se hur dataintrång har skett i verkligheten, samt några olika tidningsartiklar som berättar om olika databrott. Uppsatsen avslutas med diskussion, där vi kopplar ihop teorin och empirin med varandra för att få en helhetssyn över valt ämne. Problemet dataintrång är komplicerat och det finns ingen enkel lösning för att motverka att sådana brott sker För att komma åt dem som utför brotten lagen ses över och vad gäller den svaga säkerheten så får datoranvändarna se över skyddet. / This is an essay within computer security and data law. First the essay contains a literature study. There we take up what kind of threats there are against information that handles with the help of computers. With help from different security tools you increase the protection against the threats. We describe the most common tools that companies use and also private persons use. The subject computer-trespass explains and describes internal and external computer-trespass. As the IT-development fast growth and changes on the society it gives new opportunity to crimes, the increase of crime may due on the fact that there is an increased skill within the perpetrators at the same time the protection is weak. What the law says about IT- crime and witch law who handles computer-trespass brings up. In the Empire part we have studying different cases of how computer-trespass has been done in reality, and some different news-articles who tells about different computer-crimes. The essay ends with a discussion, in which we connect theory with empire to get a whole point of view over chosen subject. The problem computer-trespass is complicated and has no simple solution to counteract that those crime happens. To catch those who carry out the crimes the law should be looked over and what concern the weak protection the computer- user must revise the protection.
172

Dynamisk webbprogrammering : Varför väljer systemutvecklande organisationer ASP.NET? / Dynamic Web Programming : Why Do System Developing Organizations Choose ASP.NET?

Blom, Jan, Ljung, Jörgen January 2004 (has links)
Vi har i vår studie tittat på dynamisk webbprogrammering med fokus på Microsofts senaste teknik ASP.NET. Studien syftar till att ta reda på varför systemutvecklande organisationer infört ASP.NET, vilka förväntningar de har på tekniken och vilka utvecklingsverktyg som används. Vi har arbetat enligt ett hermeneutiskt synsätt för att få kvalitativ förståelse och ett helhetsperspektiv. Vi har valt semistrukturerade intervjuer för datainsamling och för analysen har vi valt en anpassad variant av Grundad teori. Vårt resultat visar att några av anledningarna till införandet av ASP.NET hos organisationerna i studien beror dels på att de vill ligga långt fram i användandet av nya tekniker, dels upplever de att krav ställs på dem att de ska tillhandahålla och behärska de senaste utvecklingsteknologierna. Få uttalade förväntningar fanns på ASP.NET vid införandet och som utvecklingsverktyg används uteslutande Microsoft Visual Studio.NET som anses vara ett kraftfullt verktyg. Microsofts licensavtal och dominans på marknaden har också påverkat. Några av slutsatserna blir att konkurrensfördelar kan erhållas genom en övergång till ASP.NET. Systemintegration blir enklare, vilket kan attrahera nya kundgrupper. Bättre möjligheter till struktur i programmeringen gör projekt lättare att planera och system lättare att underhålla. / In our research we have studied dynamical Web programming with the latest technology from Microsoft, ASP.NET. The purpose of the study is to find out why system developing organizations have introduced ASP.NET, what expectations of the technology they have and which development tools they use. We have worked according to a hermeneutical approach in order to get a qualitative understanding and a comprehensive view. We have chosen semi structured interviews for data acquisition and for analyze we have chosen an adapted variant of Grounded Theory. Our result shows that some reasons to why the organizations in the study have introduced ASP.NET are that they will be in the frontline regarding the use of new technologies. They also feel that there is an expectation of them to use and know the latest of development technologies. There weren’t much explicit expectations of ASP.NET during the introduction. All of the organizations in the research used Microsoft Visual Studio.NET as development tool, because it is a powerful tool. The license agreement with Microsoft and its dominance on the market has also influenced them. Some of our conclusions are that the organizations could have some competitive advantages if they introduce ASP.NET. System integration will be easier, which can attract new groups of customers. The possibilities to structure in the programming will make projects easier to plan and the maintaining of systems will be simpler.
173

A Signal Processing Approach to Practical Neurophysiology : A Search for Improved Methods in Clinical Routine and Research

Hammarberg, Björn January 2002 (has links)
<p>Signal processing within the neurophysiological field is challenging and requires short processing time and reliable results. In this thesis, three main problems are considered.</p><p>First, a modified line source model for simulation of muscle action potentials (APs) is presented. It is formulated in continuous-time as a convolution of a muscle-fiber dependent transmembrane current and an electrode dependent weighting (impedance) function. In the discretization of the model, the Nyquist criterion is addressed. By applying anti-aliasing filtering, it is possible to decrease the discretization frequency while retaining the accuracy. Finite length muscle fibers are incorporated in the model through a simple transformation of the weighting function. The presented model is suitable for modeling large motor units.</p><p>Second, the possibility of discerning the individual AP components of the concentric needle electromyogram (EMG) is explored. Simulated motor unit APs (MUAPs) are prefiltered using Wiener filtering. The mean fiber concentration (MFC) and jitter are estimated from the prefiltered MUAPs. The results indicate that the assessment of the MFC may well benefit from the presented approach and that the jitter may be estimated from the concentric needle EMG with an accuracy comparable with traditional single fiber EMG.</p><p>Third, automatic, rather than manual, detection and discrimination of recorded C-fiber APs is addressed. The algorithm, detects the Aps reliably using a matched filter. Then, the detected APs are discriminated using multiple hypothesis tracking combined with Kalman filtering which identifies the APs originating from the same C-fiber. To improve the performance, an amplitude estimate is incorporated into the tracking algorithm. Several years of use show that the performance of the algorithm is excellent with minimal need for audit.</p>
174

A Signal Processing Approach to Practical Neurophysiology : A Search for Improved Methods in Clinical Routine and Research

Hammarberg, Björn January 2002 (has links)
Signal processing within the neurophysiological field is challenging and requires short processing time and reliable results. In this thesis, three main problems are considered. First, a modified line source model for simulation of muscle action potentials (APs) is presented. It is formulated in continuous-time as a convolution of a muscle-fiber dependent transmembrane current and an electrode dependent weighting (impedance) function. In the discretization of the model, the Nyquist criterion is addressed. By applying anti-aliasing filtering, it is possible to decrease the discretization frequency while retaining the accuracy. Finite length muscle fibers are incorporated in the model through a simple transformation of the weighting function. The presented model is suitable for modeling large motor units. Second, the possibility of discerning the individual AP components of the concentric needle electromyogram (EMG) is explored. Simulated motor unit APs (MUAPs) are prefiltered using Wiener filtering. The mean fiber concentration (MFC) and jitter are estimated from the prefiltered MUAPs. The results indicate that the assessment of the MFC may well benefit from the presented approach and that the jitter may be estimated from the concentric needle EMG with an accuracy comparable with traditional single fiber EMG. Third, automatic, rather than manual, detection and discrimination of recorded C-fiber APs is addressed. The algorithm, detects the Aps reliably using a matched filter. Then, the detected APs are discriminated using multiple hypothesis tracking combined with Kalman filtering which identifies the APs originating from the same C-fiber. To improve the performance, an amplitude estimate is incorporated into the tracking algorithm. Several years of use show that the performance of the algorithm is excellent with minimal need for audit.
175

Systemutveckling och användbarhet -Att utnyttja användbarhetstester i systemutvecklingsprocessen / Systems development and usability -Using methods for testing usability during the system development process

Forsberg, Per, Klasson, Isak January 2002 (has links)
<p>Den här rapporten behandlar frågeställningen om hur man kan anpassa systemutvecklingav ett informationssystem enligt livscykelmodellen till att inkludera användbarhetstester. </p><p>Frågeställningen grundar sig i att god användbarhet inte är ett explicit uttryckt mål i Andersens beskrivning av livscykelmodellen. För att besvara frågeställningen har vi utvecklat och testat ett bokningssystem åt en mindre verksamhet. Utvecklingsarbetet har bedrivits enligt en egen anpassning av livscykelmodellen. Testerna har utförts enligt metoden c<i>ooperativ evaluation. </i></p><p>Frågeställningen besvaras genom att vi presenterar hur vi har gått tillväga för att inbegripa testerna i utvecklingsprocessen. De delar av informationssystemet som vi utvärderat beskrivs i rapporten. </p><p>Testerna hjälpte till att identifiera problem i systemets gränssnitt som annars troligen inte skulle ha upptäckts förrän slutanvändarna fått tillgång till systemet. </p><p>Slutsatserna är att det är möjligt, och dessutom önskvärt ur användbarhetssynpunkt, att innefatta användbarhetstester i utveckling av informationssystem. </p> / <p>This reports regards the question of how one can adjust system development according to the Systems Development Life Cycle (SDLC) to include usability testing. </p><p>The question is based on the fact that usability isn’t an explicit goal in Andersen description of the SDLC. To answer this question we have developed and tested an information system for a small business. The development has been carried on according to an own adaptation of the SDLC. The testings have been performed in accordance with the Cooperativ evaluation method. </p><p>The question is answered by the presentation of our adaptation to include the tests in the development process. The parts of the information system we have evaluated are described in the report. </p><p>The tests helped to identify problems in the user interface which otherwise probably would not have been discovered until the end user gotten access to the system. </p><p>The conclusions are that it is possible, and furthermore desirable from a usability point of view, to include usability testing duringthe development of information systems.</p>
176

Parameter and State Estimation with Information-rich Signals

Evestedt, Magnus January 2007 (has links)
<p>The complexity of industrial systems and the mathematical models to describe them increases. In many cases, point sensors are no longer sufficient to provide controllers and monitoring instruments with the information necessary for operation. The need for other types of information, such as audio and video, has grown. These are examples of information-rich signals for which suitable applications range in a broad spectrum from micro-electromechanical systems and bio-medical engineering to paper making and steel production.</p><p>Recursive parameter estimation algorithms are employed to identify parameters in a mathematical model from measurements of input and output signals. For accurate parameter estimation, the input signal must be <i>persistently exciting, i.e.</i> such that important features of the modelled system are reflected in the output over a sufficient period of time.</p><p>The Stenlund-Gustafsson (SG) algorithm, a Kalman filter based method for recursive parameter estimation in linear regression models, that does not diverge under lack of excitation, is studied. The stationary properties of the algorithm and the corresponding Riccati equation are formulated in terms of the excitation space spanned by the regressor vectors.</p><p>Furthermore, it is shown that the Riccati equation of the studied algorithm can be solved element-wise. Convergence estimates for the elements of the solution to the Riccati equation are provided, directly relating convergence rate to the signal-to-noise ratio in the regression model. An element-wise form of the parameter update equation is also given, where the connection to specific elements of the solution to the Riccati equation is apparent.</p><p>The SG-algorithm is employed for two applications with audio signals. One is in an acoustic echo cancellation setting where its performance is shown to match that of other well-known estimation techniques, such as the normalized least mean squares and the Kalman filter. When the input is not sufficiently exciting, the studied method performs best of all considered schemes.</p><p>The other application is the Linz-Donawitz (LD) steel converter. The converter consists of a vessel with molten metal and foam is produced to facilitate chemical reactions. A common problem, usually referred to as slopping, arises when the foam rises above the limits of the vessel and overflows. A warning system is designed, based on the SG-algorithm and change detection methods, to give alarms before slopping occurs. A black-box model relates different sensor values of which one is the microphone signal picked up in the area above the converter. The system detected slopping correctly in 80% of the blows in field studies at SSAB Oxelösund.</p><p>A practical example of a vision-based system is provided by cavity form estimation in a water model of the steel bath. The water model is captured from the side by a video camera. The images together with a non-linear model are used to estimate important process parameters, related to the heat and mass transport in the LD-converter.</p>
177

You´ve got m@il : en studie om sambandet mellan e-post och effektiv kommunikation i en IT-intensiv organisation / You’ve got m@il : a study concerning the relationship between electronic post and effective communication in an organization with a high intensity of Information-technology

Andersson, Helena, Eriksson, Kristina January 2004 (has links)
Användningen av elektroniska kommunikationsmedel ökar ständigt och många organisationer byggersin verksamhet på ett starkt informationsberoende. Verksamheterna har blivit allt mer informationsbaserade och informationsteknologin är en oumbärlig del för organisationers infrastrukturer. Därför är utgångspunkten för denna studie att utveckla ny kunskap om hur individer uppfattar effektiv kommunikation i en IT-intensiv organisation. Arbetet undersöker även aspekter som medverkar eller motverkar den upplevda effektiviteten vid användandet av e-post i IT-intensiva organisationer och hur e-post kombineras med andra kommunikationsverktyg för att uppnå önskad effektivitet. Den empiriska grunden till studien är en organisation, där tio kvalitativa intervjuer gjorts. Studien har hermeneutisk inriktning eftersom den bygger på informanternas tolkningar, uppfattningar och åsikter. Arbetet undersöker empirisk data, intervjuer, vilket har mynnat ut i ett resultat, vilket är ett induktivt förhållningssätt. Vid intervjutillfällena har gruppmedlemmarnas intention varit att få så mycket information som möjligt, om organisationen och deras arbetssätt med elektroniska kommunikationsmedel för att sedan behandla det mest relevanta. Studiens resultat påvisar att e-post är ett väsentligt arbetsredskap och ett villkor för effektiv kommunikation i en IT-intensiv organisation. E-post kan ses som en del av en stor verktygslåda där olika verktyg kompletterar varandra. Det är medarbetaren själv som väljer vilket verktyg som är mest lämpat i olika situationer. Resultatet visar även att informations- och uppgiftsmängden ständigt ökar med den elektroniska kommunikationen. Vilket leder till tyngre arbetsbörda och stress för medarbetarna. / The use of electronic communication devices is ever increasing and now many organizations are dependent on information technology, which is now an indispensable part of organizations infrastructures. The point of this study is to develop new knowledge about how individuals perceive efficient communication in an organization that is dependent on information-technology. This study also examines aspects that contribute to, or counteract, the experienced efficiency in the use of e-mail in organizations with a high dependence on Information-technology and how e-mail is combined with other communication tools to obtain desirable efficiency. The empirical foundation to this study is derived from an organisation’s study where ten qualitative interviews took place. This study has a hermeneutic alignment because it is based on an interviewee’s interpretation, perceptions and opinions. This study scrutinises empirical data and interviews that have led to results that are inductive in stance. During the interviews, our main concerns have been to assimilate as much information as possible concerning the organisation and their way of working with electronic communication tools with the intentions of eventually unveiling the most relevant facts. The result of this study establishes that e-mail is an essential tool for the work place and that it is a condition for efficient communication in an organization with a high reliance on information-technology. E-mail can be seen as a tool in a large toolbox in which the different tools complement each other. It is the co-workers themselves who choose which tool is most suitable for different situations. The result shows, too, that the quantity of information and tasks is constantly rising with the use of electronic communication. This, in turn, leads to a heavier workload and subsequently greater stress for the co-workers.
178

Kunskapsöverföring mellan förstudie och analys i systemutvecklingsprocessen / Knowledge Transfer between Feasibility Study and Analysis in System Development Process

Böckert, Patrik, Kjell, Stenåke January 2003 (has links)
Kunskapsöverföring är en nödvändig förutsättning för att säkerställa organisationers existens och framåtskridande. Utgångspunkt för denna uppsats är förstudiens roll i mjukvaruprojekt och dess betydelse för den fortsatta systemutvecklingsprocessen. Fokus liggerpå kunskap som genereras under förstudien, samt hur och i vilken omfattning kunskapen förs vidare till analysfasen i systemutvecklingsprocessen. Resultatet visar att förstudien utgör ett viktigt beslutsunderlag och är en nödvändig förutsättning för att gå vidare i systemutvecklingsprocessen. Kunskapsöverföring genom dokumentation och via muntliga föredragningar är otillräcklig, eftersom det finns ett ”filter” som innebär att erfarenhetsbaserad kunskap inte överförs mellan förstudie och analys via dokument eller via muntliga föredragningar. Därför måste personer som deltar i förstudien finnas med senare i utvecklingsprocessen, för att artikulera den ”tysta” erfarenhetsbaserade kunskapen till explicita former. Vi drar slutsatserna att kunskapsöverföring via dokument är bra, men räcker inte enligt vår mening. Då det mesta av kunskapen är implicit, det vill säga tyst och/eller ordlös, kommer den inte med i en skriftlig rapport. Kompletteras rapporten med muntliga föredragningar, kommer man ytterligare ett steg närmare en optimal kunskapsöverföring, men det räcker fortfarande inte, då den tysta kunskapen alltjämt utgör ett hinder. Kunskapsöverföring måste ske genom personer, som finns med både i förstudie- och analysfasen, men det måste tillskapas arenor för kunskapsomvandling och kommunikation. Genom en arena för kunskapsomvandling kan den tysta kunskapen göras kommunicerbar. En arena för kommunikation utgör sen den sista byggstenen på väg mot en effektiv kunskapsöverföring. Kunskapsöverföring måste "organiseras". Vi lämnar därför ett förslag till en kunskapsöverföringsmodell. / Knowledge transfer is necessary condition to guarantee the existence and progress of organisations. The starting-point for this paper is the role of the feasibility study in a software project and it’s significance for the subsequent system development process. The focus is on knowledge, which is generated under the feasibility study, and how and in which dimension knowledge is bringing on to the analysis in the system development process. The result shows that the feasibility study is an important base of decision and a necessary condition of the future system development process. Knowledge transfer by documentation and by oral presentation of reports is insufficient, because there is a"filter"which means that knowledge of experience not will be transferred between feasibility study and analysis by documentation and by oral presentation. Furthermore must persons who are involved in the feasibility study occur even later in the development process, to articulate the "silence" knowledge of experience into explicit forms. We draw the conclusions that knowledge transfer by documents is good, but not enough in our opinion. Because most of the knowledge is implicit, which means silent and/or without words, it will not been in the report. If the report will be completed with oral presentations, you will came further one step near an optimal knowledge transfer, but it’s still not enough, because the silent knowledge still is an obstruction. Knowledge transfer must be done by persons, who’s in both the feasibility study and analysis, but there must be an arena for knowledge transformation and communication. Through an arena for knowledge transformation the silent knowledge can be communicative. An arena for communication is then the last stone of building an effective knowledge transfer. Knowledge transfer must be "organised". We therefore present a proposal to a model of knowledge transfer.
179

Utveckling av dokumentdatabas / Development of Document Database

Lorentzon, Marie, Lindstrand, Anders January 2002 (has links)
Denna rapport beskriver ett examensarbete inom Programmet för Användarinriktad Systemutveckling vid Linköpings universitet, Campus Norrköping. Resultatet är en databasapplikation som är utvecklad specifikt för C.N.S. Systems AB i Linköping. I uppgiften ingår analys, utformning, realisering, implementering, dokumentation samt i viss mån även förvaltning och drift. Utvecklingsarbetet har skett i nära samarbete med företaget som har tillhandhållit arbetsplatser och datorutrustning. Applikationen är ett dokumentregistreringssystem där information om företagets interna och externa dokument lagras. Tidigare har motsvarande uppgifter lagrats i Excel. Den färdiga databasapplikationen har främst gjort det lättare att registrera och söka ett dokument vilket också var ett av de uppsatta målen. Själva databasen är utvecklad i Access och gränssnittet i Visual Basic. Kopplingen mellan dessa är skapad med ActiveX Data Objects 2.0 (ADO). Rapporten ger inledningsvis en närmare presentation av utgångsläge och förutsättningar. Därefter beskrivs teorin bakom det arbetssätt som använts. I resultatdelen presenteras applikationen översiktligt, valda delar lite mer ingående. Och slutligen, i diskussionsavsnittet, görs en subjektiv bedömning av resultatet och utvecklingsarbetet. / This report is based on a project within ”User oriented System development Program”, ASP, at the University of Linköping, Campus Norrköping, Sweden. The result is a database application developed for C.N.S. Systems AB in Linköping. The report describes analysis, design, implementation, documentation and in some extent maintenance of the system. The development work has been done in collaboration with the company at their office in Linköping. The application handles and stores information about internal and external documents. The purpose of the database is to improve registration and searching of documents. The system is designed with MS Access 2000 connected to Visual Basic with ActiveX Data Objects 2.0(ADO).
180

Jämförelse av GPGPU-ramverk och AES-metoder : Jämförelse av GPGPU-ramverk och AES-metoder för att besvara vilka GPGPU-ramverk och vilken AES-metod som bör rekommenderas för AES-kryptering med GPGPU

Berggren, Emil, Gustafson, Tobias January 2017 (has links)
Sammanfattning Bakgrund - Dagens processorer börjar närma sig gränsen för hur höga klockfrekvenser de kan köras i. Detta har lett till att processorer har fått fler kärnor för att kunna exekvera flera processer parallellt med flertrådade applikationer. Det finns dock ofta en stor mängd oanvänd beräkningskraft under långa perioder då datorn är igång som ligger i grafikprocessorn, GPU. Då en GPU kan köra tusentals många fler trådar på samma gång än en CPU har ramverk för att göra mer generella beräkningar på GPU utvecklats, dessa kallas för GPGPU-ramverk. Då varje kärna på en GPU inte är lika stark som på en CPU ligger vinsten i att använda algoritmer som går bra att parallellisera. En sådan algoritm är krypteringsalgoritmen AES som är en av de säkraste och vanligaste krypteringsalgoritmerna som används idag. Syfte – Med hjälp av GPU-accelerering kan man kryptera med AES snabbare än med en traditionell CPU-lösning. För att göra GPU-accelereringen så effektiv som möjligt undersöker detta examensarbete vilken AES-metod samt vilket GPGPU-ramverk man bör välja. Metod – För att undersöka vilken/vilka AES-metoder samt vilka GPGPU-ramverk som var lämpliga att använda för denna undersökning gjordes två litteraturstudier. Utifrån data som litteraturstudierna gav genomfördes experiment för att jämföra de valda GPGPU-ramverken med den valda AES-metoden som ansågs vara mest lämpliga. Resultat – Från litteraturstudierna kom det fram att OpenCL och CUDA blir de rekommenderade GPGPU-ramverken och att CTR blir den rekommenderade AES-metoden för AES-kryptering med GPGPU-programmering. Utifrån experimenten som genomförts kunde det konstateras att CUDA är ett effektivare GPGPU-ramverk än OpenCL för AES-CTR på det testade grafikkortet, GTX 560. Implikationer – CUDA är snabbare vid större filer för att OpenCL begränsas mer av dataöverföringshastigheten än CUDA på ett GTX 560. Begränsningar – Experimenten genomfördes endast på ett grafikkort från Nvidia. Eftersom Nvidia inte har något intresse i att optimera för andra GPGPU-ramverk så kunde inte testresultaten från OpenCL verifieras med externa verktyg. Detta p.g.a. att Nvidias verktyg inte längre stödjer debugging eller profiling för OpenCL. Nyckelord – Processorer, GPGPU, AES, CTR, OpenCL, CUDA, GPGPU-ramverk / Abstract Background - Processors today are approaching the limit for how high clockfrequences they can run. This has led to that instead of trying to make them run faster they are instead made with multiple cores so they can utilize parallelization by running several threads in parallel. However aside from the CPU there is still the graphics card which has a large amount of unused computing power for long durations of time while the computer is active. While a GPU might not have as quick processors it instead has several thousands of them at the same time than a CPU which have led to the development of GPGPU-frameworks to use that potential parallelization. The profit in this lies in using algorithms and code functions that got high potential parallelization, one of which is the AES encryption algorithm. AES is one of the most widely used encryption algorithms today and also considered to be one of the most secure. Purpose – By using GPGPU-acceleration the encryption speed of AES is higher than by using a traditional CPU approach. To make the GPU-acceleration as effective as possible this study looks into which AES-method and which GPGPU-framework that should be chosen during development. Method – This study makes two literature studies to determine which AES-methods and which GPGPU-frameworks that are viable for GPU-acceleration of AES. Afterwards this study conducts experiments to determine which of these GPGPU-frameworks are the most effective. Findings – The conclusion drawn from the literature study is that the CTR-method among the AES-methods is preferable due to its parallelization potential and high security measures. Among the current GPGPU-frameworks only two frameworks satisfies the criteria determined from the literature study and those are CUDA and OpenCL. From the experiment the conclusion is thereafter drawn that of the two GPGPU-frameworks CUDA is more effective due to the bandwidth limits that OpenCL have compared to CUDA. This conclusion is valid on at least the tested graphics card, GTX 560. Implications – CUDA is faster at larger file sizes than OpenCL due to limited data transfer speed in OpenCL on a GTX 560. Limitations – The experiments were only conducted on one graphics card from Nvidia due to hardware constraints in that CUDA can only be run on Nvidia hardware. Due to this hardware constraint and Nvidia’s lack of support in their tools for debugging and profiling of OpenCL the results from the testing of OpenCL couldn’t be verified using external tools. Keywords – Processor, GPGPU, AES, CTR, OpenCL, CUDA, GPGPU-framework

Page generated in 0.0638 seconds