• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1261
  • 687
  • 2
  • Tagged with
  • 1952
  • 1948
  • 1946
  • 203
  • 200
  • 188
  • 174
  • 156
  • 141
  • 139
  • 122
  • 111
  • 94
  • 93
  • 83
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
571

Övervakning : av servermiljöer

Knutsson, Joakim, Malm, Gustav January 2015 (has links)
Övervakning används för att granska IT-infrastrukturen, för att hitta och varna på de fel som kan uppstå i systemen. Allt för att minimera den ständiga risken att det kan sluta fungera. Dagens verksamheter blir allt mer beroende av sin IT och många företag står helt stilla idag om deras IT-system inte fungerar, detta kan leda till stora kostnader och förlorad intäkt. Utredningsdelen innehåller fyra stora delar. Delarna innefattar vad övervakning är, varför övervakning används, vad som övervakas och hur övervakningen går till. För att samla mer information samt att bekräfta utredandeavsnittet ställdes ett antal frågor till Idenet AB, Högskolan Kristianstad, LanGate System AB och QSi Sweden AB i form av intervjuer. Intervjuerna ligger till grund för genomförandedelen av arbetet. Genomförandeavsnittet sammanställer informationen från varje intervju. I ett avslutande avsnitt jämförs informationen samt bra, respektive dåliga resultat och tips från intervjuerna samlas i en kortare punktform.
572

Servervirtualisering och migrering

Pettersson, Jim, Bengtsson, Andreas January 2015 (has links)
Servervirtualisering har blivit en allt vanligare syn inom IT-världen och särskilt för de som har stora serverparker eller för verksamheter som är ute efter att effektivisera och skära ner på sina kostnader. Eftersom att virtualisering tillåter konsolidering av hårdvara leder detta till en lägre energiförbrukning och behovet av stora lokaler minskar. Med servervirtualisering går det att köra samma arbetsbelastning på mindre antal servrar än det behövdes innan bytet till servervirtualisering. Då det kan vara svårt att hålla reda på vad ett virtualiseringssystem har för egenskaper och funktioner har vi i denna studie valt att göra en jämförelse mellan tre marknadsledande hypervisors från: VMware, Microsoft och Citrix. Innan jämförelsen redovisas i studiens tabeller presenteras en övergripande teoridel kring servervirtualisering och sedan en genomgång av de kategorier som ligger i fokus för jämförelsen. Studien kommer också att visa på hur en P2V-migrering går till med två av studiens virtualiseringssystem. En fysisk server med Windows Server 2012 som har webbserverollen installerad migrerades utan problem till en virtuell maskin på respektive virtualiseringssystem. Därefter testades webbservern på den virtuella maskinen utan att några större problem uppstod. Migreringen utfördes med respektive migreringsverktyg för vSphere och Hyper-V. När jämförelserna var klara kom vi fram till att det inte var stora skillnader på de tre virtualiseringssystemen baserat på de kategorier som valdes ut för jämförelse i undersökningen. De största skillnaderna låg tyvärr bortom den här studiens omfång då leverantörerna oftast använder sina virtualiseringssystem tillsammans med andra produkttyper som kompletterar deras hypervisors.
573

Utvinning av volatil-data : En jämförelse av olika verktygs påverkan på Windows XP och 7 vid en volatil-data-utvinning

Jorlöv, David January 2013 (has links)
Examensarbetet går ut på att utreda vad verktyg vid volatil-data-utvinning (Reeve & Shipley, 2006) orsakar för förändringar på ett datasystem. Volatil-data är information som försvinner när datasystemet stängs av och kan vara nödvändig t.ex. när man försöker läsa en krypterad hårddisk, då krypteringsnyckeln (Casey, et al., 2011) kan finnas i (Random Access Memory) RAM-minnet som är volatilt. I IT-brottslighetens barndom utvecklades (Brown, 2009) metoder för att påverkan på ett datasystem vid ett beslag skulle bli så liten som möjligt. Detta gjordes för att beviset man får från datasystemet skulle hålla i en rättgång och gick ofta ut på att slå av strömmen på datasystemet. I dagsläget är detta inte alltid möjligt då viktig volatil information kan gå förlorad som t.ex. en krypteringsnyckel från RAM-minnet. Därför är det viktigt att (Blyth, et al., 2008) veta vad verktygen som används vid en volatil-data-utvinning orsakar för förändringar på datasystemet, för att man ska kunna använda sig av det verktyget som orsakar minst förändringar på datasystemet. Dessutom kan man i en rättegång tala om vilka förändringar verktyget orsakade.I examensarbetet har 14 verktyg analyserats på operativsystemen Windows XP och Windows 7. De med samma funktion jämfördes med varandra för att ta reda på vilka som orsakar minst förändringar i datasystemet. Från analysen av verktyg vid volatil-data-utvinning kan man konstatera att verktygen med ett grafiskt gränssnitt skrev betydligt mer till Windowsregistret än kommandoradsbaserade verktyg.
574

A platform for third-party applications on the web

Abrahamsson, Marcus January 2013 (has links)
A trend seen on the web today is to create a platform where externally developed applications can run inside some kind of main application. This is often done by providing an API to access data and business logic of your service and a sandbox environment in which third-party applications can run. By providing this, it is made possible for external developers to come up with new ideas based on your service. Some good examples on this are Spotify Apps, Apps on Facebook and SalesForce.com. Ipendo Systems AB is a company that develops a web platform for intellectual properties. Currently most things on this platform are developed by developers at Ipendo Systems AB. Some interest has though risen to enable external developers to create applications that will in some way run inside the main platform. In this thesis an analysis of already existing solutions has been done. These solutions were Spotify Apps and Apps on Facebook. The two have different approaches on how to enable third-party applications to run inside their own service. Facebook’s solution builds mainly on iframe embedded web pages where data access is provided through a web API. Spotify on the other hand hosts the third-party applications themselves but the applications may only consist of HTML5, CSS3 and JavaScript. In addition to the analysis a prototype was developed. The purpose of the prototype was to show possible ways to enable third-party applications to run inside your own service. Two solutions showing this were developed. The first one was based on Facebook’s approach with iframing of external web pages. The second was a slightly modified version of Spotify’s solution with only client-side code hosted by the main application. To safely embed the client side code in the main application a sandboxing tool for JavaScript called Caja was used. Of the two versions implemented in the prototype was the Iframe solution considered more ready to be utilized in a production environment than Caja. Caja could be seen as an interesting technique for the future but might not be ready to use today. The reason behind this conclusion was that Caja decreased the performance of the written JavaScript as well as adding complexity while developing the third-party applications.
575

Measuring Accurancy of Vulnerability Scanners : An Evaluation with SQL Injections / Mätning av noggrannhet bland sårbarhetsskannrar : En utvärdering med SQL injektioner

Norström, Alexander January 2014 (has links)
Web application vulnerabilities of critical are commonly found in web applications. The arguably most problematic class of web application vulnerabilities is SQL injections. SQL injection vulnerabilities can be used to execute commands on the database coupled to the web application, e.g., to extract the web application’s user and passwords data. Black box testing tools are often used (both by system owners and their adversaries) to discover vul- nerabilities in a running web application. Hence, how well they perform at discovering SQL injection vulnerabilities is of importance. This thesis describes an experiment assessing de- tection capability for different SQL injection vulnerabilities under different conditions. In the experiment the following is varied: SQL injection vulnerability (17 instances allowing tautologies, piggy-backed queries, and logically incorrect queries), scanners (four products), exploitability (three levels), input vector (POST/GET), and time investment (three levels). The number of vulnerabilities detected is largely determined by the choice of scanner (30% to 77%) and the input vector (71% or 38%). The interaction between the scanner and input vector is substantial since two scanners cannot handle the POST-vector at all. Substantial differences are also found between how well different SQL injection vulnerabilities are de- tected and the more exploitable variants are detected more often, as expected. The impact of time spent with the scan interacts with the scanner - some scanners required considerable time to configure and other did not – and as a consequence the relationship between time investments to detection capabilities is non-trivial.
576

Scene analysis using Tensorflow & YOLO algorithms on Raspberry pi 4

Marmayohan, Nivethan, Farah, Abdirahman January 2021 (has links)
Objektdetektion är en av de viktigaste mjukvarukomponenterna i nästa generation trafikövervakning. Deep learnings-algoritmer för objektdetektion, exempelvis YOLO (You Only Look Once), är snabba och noggranna algoritmer i realtid. Realtidsdetektion och igenkänning av objekt är viktiga uppgifter för bildbehandling.  I denna studie presenteras ett inbäddat system för detektion och igenkänning av objekt i normal videohastighet (realtid). Indata är följaktligen en videoström som härstammar från en trafikmiljö i Halmstad. Hårdvaran  är Raspberry pi 4 i vilken programvarupaketen Tensorflow, YOLO  samt  träningskonceptet ”Transfer learning” har implementerats. Resultaten presenteras i form av kvantifiering av realtidskörning på FPS (frames per second), detektion  noggrannhet, CPU-temperatur och CPU-frekvens i olika experiment. En slutsats är att Raspberry pi 4 kan utföra objektklassificering och detektion med hög noggrannhet i en del scenarier för trafikövervakning med YOLO-algoritmer. Ett scenario för att klassificera objekt med långsam hastighet till exempel gående, skulle det vara genomförbar med att klassificera och detektera med en högnoggrannhet. För objekt med höghastighet som bilar och cyklister så har Raspberry pi 4 svårt att detektera och klassificera objekter. / Object detection is one of the essential software components in the next generation of traffic monitoring. Real-time detection and recognition of objects are essential tasks for image processing. Therefore, deep learning algorithms for object detection such as YOLO (You Only Look Once) are increasingly used in image analysis, since they run in normal video frame rate (real-time)  and are reasonably accurate. This study presents an embedded system and its results for detecting and recognizing objects in real-time. Results are based on a video stream originating from a traffic environment in the city of  Halmstad (Sweden). The embedded system is implemented in Raspberry pi 4 using the software Tensorflow and different deep learning algorithms of the YOLO software package. Real-time analyses on frames per second, accuracy in mean average precision, CPU temperature, and CPU frequency are reported for experiments comprising transfer learning. A main conclusion is that Raspberry pi 4 can perform object classification and detection with high accuracy in certain scenarios for traffic monitoring with YOLO algorithms. For example, classifying objects with the speed of a pedestrian would be feasible with classifying and detecting with high accuracy. On the other hand, with high-speed objects such as cars and cyclists, it is a more challenging task for Raspberry pi 4 to detect and classify objects.
577

Undersökning av 802.11ax och förslag på implementation på skola

Hedberg, Mårten January 2021 (has links)
Denna rapport innefattar en genomgång av den nya 802.11ax (WIFI6)-standarden med djupdykning och förklaringar på de nya funktionerna BSS Coloring, Target Wake Time och OFDMA med flera. Frågeställningen som presenteras är om det är en bra investering av små företag och hem-användareatt uppgradera sin utrustning till WIFI 6 kompatibel sådan.Efter genomgång av protokollet och de nya funktionerna så rekommenderas inte detta medmotiveringen att tekniken är för ny och antal enheter som mobil och laptops med standarden är iskrivande stund inte så många och de som finns kan kosta mycket att köpa och byta ut.Det görs även en undersökning av Medlefors Folkhögskola och där så upptäcks att kanalplaneringenär bristfällig och att det finns accesspunkter från två tillverkare som sänder samtidigt i lokalerna. Därför ges det ett förslag på uppgradering av samtliga enheter till WIFI 6-kompatibel sådan. Utrustningen som föreslås är av märket Ubiquiti och samtliga enheter föreslås att bytas ut.Slutligen diskuteras summeringen med att ytterligare tester på större nätverk måste göras för attfullt ut se att det som låter så bra i teorin också ska fungera vid skarp implementation på stora arenorfullsatt med folk, vilket framtiden får utvisa.
578

Users Perceptions on Computer Intrusion

Mohajer Soltani, Aria January 2016 (has links)
This thesis is built on the hypothesis that the average computer user has very little understanding regarding computer intrusion. Due to the prevalence of computers in our day and age, the prospect of users lacking even basic knowledge regarding something a user is at risk of encountering almost daily is worrying. This thesis presents the discrepancies between how computer intrusion occurs and how the average user believes computer intrusion occurs. It does this by conducting a series of qualitative interviews with interviewees having wide ranges of experience and knowledge regarding computer intrusion, quantifying their answers, and comparing the data to existing statistics on the topic. This thesis found that the average user does indeed understand very little about computer intrusion. When asked how they believe it occurs, they in general either gave very vague answers and were unable to elaborate, or gave answers that correspond to a movie or TV show stereotype of computer hacking, with nerdy hackers rapidly tapping on their keyboards causing their computer screens to flash with bright colors and fancy graphics. Furthermore, this thesis also found that even in users who had extensive experience working within IT or with computing, a clear lack of knowledge in many areas could be observed. Additionally, this thesis also managed to reach some additional interesting conclusions based on the data gathered that were not originally the goal of the survey, such as the fact that many users seem to be far more susceptible to phising on social media as compared to email, and that users completely misunderstand the motives of people who perform computer intrusion.
579

A comparison of classification algorithms in session-to-session generalisation in brain pattern recognition

Klaesson, Eric, Dahlin, Victor January 2014 (has links)
A brain computer interface (BCI) is a system to interpret a user’s intentionthrough using the users brain activity. The system is todayforemost used for research for disabled people. Electroencephalography(EEG) is the most common method used by BCI to record the brainactivity of the user, where the relevant information is read from thebeta and mu waves in the brain. These brain waves are from the partof the brain that is activated when user are doing problem solving orimagining moving a part of the body.This report will investigate EEG-data taken from test subjects imaginingto move left or right arm. To investigate the data from the EEG,two of the most common classification models, Multi-Layer Perceptron(MLP) and Support Vector Machines (SVM), will be used. The investigationwill show how well the models performs in session-to-sessiongeneralisation, which means we will evaluate the performance of theclassifier when testing the it on data from another session than the sessionit was trained on.The tests shows that the SVM, with the Gaussian Radial BasisFunction (RBF) as kernel, yielded the best results. For every personthere is three sessions, EEG data required at three separate occasions,that were used in the tests and, for the SVM, it is clear that trainingon the first two sessions combined and testing on the last session gavethe best classification of the EEG data. However, for the MLP thedifferences in results, from training on one session or two, smaller.
580

Manage Organization Data

Nygård, Marcus January 2022 (has links)
This report explicates the work in this project that has been done at the company Learn2Esport, which has a platform to help educate esport called Gameplan. The goal of this project have been to help the company create a new page on their platform on which administrators can get an overlook of their organizations and teams. The development of this page has been done in React and the code have been written in Typescript. Previously, administrators have had to go into each individual organization or team to find information about how the organization is doing. The work in this project have simplified this by collecting all this information on the same page, where administrators easily can choose an organization and extensive information about all the teams in this organization will be displayed in a table. This table is divided into 5 different parts which displays different areas of the team with both text and implemented charts. The table also shows statistics from a current time span that can be changed by the user. / Denna rapport tar upp det arbete som gjorts under detta projektarbete som har utförts hos företaget Learn2Esport, som har en plattform för utbildning inom esport kallad Gameplan. Målet med detta projekt har varit att hjälpa företaget att skapa en ny sida på plattformen där administratörer kan se statistik över sina organisationer och föreningar. Utvecklingen av detta arbete har gjorts i React och koden som skrivits har skrivits i Typescript. Administratörer har tidigare behövt gå in på varje enskild organisation eller förening för att hitta information om hur det går för respektive organisation. Detta arbete har samlat all denna information på ett och samma ställe där det enkelt går att välja en organisationsgrupp där sedan alla föreningar i denna organisationen visas i sidans tabell. Tabellen består av 5 olika delar som utgör omfattande statistik om varje förening och på ett tydligt sätt visar data för olika områden med både text och grafer. Tabellen visar också statistik från ett utvalt tids spann samt hur denna statistik såg ut och har förändrats från föregående tids spann.

Page generated in 0.0818 seconds