• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 3
  • Tagged with
  • 9
  • 5
  • 4
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Studieteknik : Vilka studietekniker använder sig eleverna av?

Wallin, Cajsa January 2014 (has links)
Denna uppsats handlar om studieteknik, om hur 15-16 åringar använder sig av studieteknik när de ska läsa och bearbeta en faktatext. Studieteknik behöver eleverna kunna eftersom det hjälper dem att veta hur man ska studera. Syftet med undersökningen är att visa hur 15-16 åriga elever arbetar med studieteknik när de läser och bearbetar en faktatext i inför en instuderingsuppgift. Metoden som används är läslogg, vilket innebär att eleverna för en logg över hur de läser och bearbetar en faktatext. I läsloggarna kunde man finna sju olika studietekniker som eleverna använde sig av, pärm till pärm, att skriva ord, att skriva frågor, repetera, mindmapping, snabbläsning och över- och understrykning.  Undersökningen visar att det fanns fem sätt som eleverna bearbetade sin text på, den mest vanliga studieteknik var att skriva med ord, det vill säga att man antigen skrev i marginalen, skrev stödord eller sammanfatta texten.
2

Visualizing audit log events at the Swedish Police Authority to facilitate its use in the judicial system / Visualisering av spårbarhetslogg hos Polismyndigheten för att underlätta dess användning inom rättssystemet

Michel, Hannes January 2019 (has links)
Within the Swedish Police Authority, physical users’ actions within all systems that manage sensitive information, are registered and sent to an audit log. The audit log contains log entries that consist of information regarding the events that occur by the performing user. This means that the audit log continuously manages massive amounts of data which is collected, processed and stored. For the police authority, the audit log may be useful for proving a digital trail of something that has occurred. An audit log is based upon the collected data from a security log. Security logs can collect datafrom most of the available systems and applications. It provides the availability for the organizationto implement network surveillance over the digital assets where logs are collected in real-time whichenables the possibility to detect any intrusion over the network. Furthermore, additional assets thatlog events are generated from are security software, firewalls, operating systems, workstations,networking equipment, and applications. The actors in a court of law usually don’t possess the technical knowledge required to interpret alog events since they can contain variable names, unparsed data or undefined values. Thisemphasizes the need for a user-friendly artifact of the audit log events that facilitates its use. Researching a way of displaying the current data format and displaying it in an improvedpresentable manner would be beneficial as an academic research by producing a generalizablemodel. In addition, it would prove useful for the internal investigations of the police authority sinceit was formed by their needs.
3

System Monitor : Ett felsökningssystem för Paperline

Strömgren, Calle, Storm, Marcus January 2014 (has links)
When an error occurs in an IT system that is vital for the production of a major industry, the consequences can be great. To quickly identify and correct errors is important as a stop in a system can lead to a break in production, which is costly for the industry. Our task in this thesis has been to develop a system for ÅF that facilitates the debugging process of the system Paperline. The system's target audience is ÅF-call personnel that provides support for Paperline 24 hours a day if something goes wrong. The system consists of a Windows service, a database and a web application and is developed mainly with the techniques C#.NET, MVC 5, Google Charts, Javascript, HTML, CSS, and Entity Framework. The result of the thesis is a deployed system that facilitates the debugging process by retrieving, interpreting and presenting the log messages that PaperLine produces. The system is used by the call personnel at ÅF to easily perform troubleshooting work in Paperline. / När ett fel inträffar i ett IT-system som är vitalt för produktionsprocessen i en stor industri kan följderna vara stora. Att snabbt identifiera och åtgärda felen är viktigt eftersom ett stillastående system kan innebära stillastående produktion vilket är kostsamt för industrin. Vår uppgift i detta exjobb har varit att, för ÅF, utveckla ett system som underlättar felsökningsarbetet av systemet Paperline. Systemets målgrupp är ÅFs jourpersonal som 24 timmar om dygnet ansvarar för support av Paperline då något går fel. Systemet består av en Windows-tjänst, en databas och en webbapplikation och är utvecklat huvudsakligen med teknikerna C#.NET, MVC 5, Google Charts, Javascript, HTML, CSS och Entity Framework. Resultatet av exjobbet är ett driftsatt system som underlättar felsökningsarbetet genom att hämta, tolka och presentera de logginlägg som Paperline producerar. Systemet används av jourgruppen på ÅF för att enkelt utföra felsökningsarbete i Paperline.
4

Logghantering : En undersökning av logghantering och logghanteringssystem

Flodin, Anton January 2016 (has links)
This research includes a review of the log management of the company Telia. The research has also included a comparison of the two log management sys- tems Splunk and ELK. The review of the company’s log management shows that log messages are being stored in files on a hard drive that can be accessed through the network. The log messages are system-specific. ELK is able to fetch log messages of different formats simultaneously, but this feature is not possible in Splunk where the process of uploading log messages has to be re- peated for log messages that have different formats. Both systems store log messages through a file system on a hard drive, where the systems are installed. In networks that involve multiple servers, ELK is distributing the log messages between the servers. Thus, the workload to perform searches and storing large amounts of data is reduced. Using Splunk in networks can also reduce the workload. This is done by using forwarders that send the log messages to one or multiple central servers which stores the messages. Searches of log messages in Splunk are performed by using a graphical interface. Searches in ELK is done by using a REST-API which can be used by external systems as well, to retrieve search results. Splunk also has a REST-API that can be used by external sys- tems to receive search results. The research revealed that ELK had a lower search time than Splunk. However, no method was found that could be used to measure the indexing time of ELK, which meant that no comparison could be made with respect to the indexing time for Splunk. For future work there should be an investigation whether there is any possibility to measure the indexing time of ELK. Another recommendation is to include more log management sys- tem in the research to improve the results that may be suitable candidates for the company Telia. An improvement suggestion as well, is to do performance tests in a network with multiple servers and thereby draw conclusions how the performance is in practice. / Denna undersökning har innefattat en granskning av logghanteringen som exi- sterar hos företaget Telia och en jämförelse av två logghanteringssystem: Splunk och ELK. Undersökningen visar att loggmeddelanden hos företaget har olika format och lagras i filer på en hårddisk som nås genom nätverket. Både ELK och Splunk kan hantera loggmeddelanden med olika format. ELK kan läsa in loggmeddelanden av olika format samtidigt, men detta är inte möjligt i Splunk då inläsningsprocessen måste repeteras för loggmeddelanden som har olika format. Båda systemen lagrar loggmeddelanden genom ett filsystem på en servers hårddisk där systemen är installerad. I nätverk som involverar flera servrar arbetar ELK distributivt genom att distribuera loggmeddelanden mellan dessa servrar. Följder av distribuering av loggmeddelanden ger en lägre arbets- börda för varje server i nätverket. I nätverk där Splunk används kan forwarders användas som skickar vidare loggmeddelanden till en eller flera central server som lagrar loggmeddelanden, därmed kan arbetsbördan för sökningar och in- dexering av data minskas. Sökningar av loggmeddelanden i Splunk utförs ge- nom att använda ett grafiskt gränssnitt. Sökningar i ELK sker genom att använ- da ett REST-API som finns i systemet som även används av externa system för att hämta sökresultat. Splunk har också ett REST-API inkluderat som kan an- vändas för att exportera sökresultat. Undersökningen visade att ELK hade en lägre söktid än Splunk. För undersökningen fanns ingen metod att använda för att mäta indexeringstiden för ELK vilket innebar att ingen jämförelse kunde gö- ras med avseende på indexeringstid. För framtida arbete rekommenderas bland annat att undersöka om det finns någon möjlighet att mäta indexeringstiden för ELK. En annan rekommendation är att låta fler logghanteringssystem ingå i un- dersökningen för att förbättra resultatet som kan vara lämpliga kandidater för företaget Telia. Ett förbättringsförslag är att utföra prestandatester för ett nät- verk med flera servrar för att därmed dra slutsatser för hur prestandan är i praktiken.
5

Samling, sökning och visualisering av loggfiler från testenheter

Rosenqvist, Fredrik, Henriksson, Thomas January 2015 (has links)
Idag genererar företag stora mängder av loggfiler vilket gör det svårt att hitta och undersöka felmeddelanden i alla loggfiler. En loggsamlare med Logstash, Elasticsearch och Kibana som bas har implementerats hos Ericsson Linköping. Loggsamlarens syfte är att samla loggar från testenheter och möjliggöra sökning och visualisering av dem. En utvärdering av Elasticsearch har genomförts för att se i vilken grad söktiden för sökfrågor ökar med ökad datamängd. Utvärderingen gav en indikation om att söktiden i värsta fallet är linjär.
6

Multipla loggar för ökad programförståelse : Hur multipla loggar kan bidra till programutveckling och programförståelse / Multiple traces for increased program comprehension : How multiple traces can contribute to software development and program comprehension

Hejderup, Jacob January 2018 (has links)
För att utveckla eller underhålla mjukvara krävs en viss nivå av programförståelse. För att underlätta denna förståelse används olika typer av verktyg. Denna studie fokuserar på två olika verktyg som använder sig av dynamisk analys: enkla och multipla loggar. Studiens syfte är att undersöka om multipla loggar kan bidra till en ökad programförståelse vid programutveckling. Eclipse är en utvecklingsmiljö som används för att visa programmets källkod. Trace Compass är ett verktyg som används för att inspektera loggar. Denna studie utfördes i två moment: experiment och intervjuer. Experimentet bestod av 10 typiska förståelseuppgifter i ett program-utvecklingssammanhang. Efter experimentet utfördes en intervju med samtliga deltagare.  Resultatet av undersökningen blev att multipla loggar skulle kunna vara lämpligare att använda vid problem som var relaterade till två eller fler komponenter i ett system.  En av begränsningarna i denna studie var att studien hade för få deltagare för ett generellt ställningstagande. / To develop or maintain a piece of code requires a certain level of comprehension of the developed or maintained software itself. To achieve this goal the developer uses a set of different tools. This report will focus on two types of debug tools: single trace and multiple traces. The purpose of the study is to examine how multiple traces can contribute to an improved program comprehension. The study was carried out through experiments and interviews. The experiment consisted of 10 typical comprehension tasks in a development context. Eclipse and Trace Compass were used to display the logs. Eclipse is a development environment that shows the source code. Trace Compass is a tool for inspecting traces.  After the experiment, an interview was carried out with the subjects of the experiment. The results of this study indicated that multiple traces could have an advantage over a single trace when the task is to understand the interactions between code components in a software system. One of the limitations of the study was due to the limited number of subjects taken part in the study and cannot be used to draw a more general conclusion.
7

Supervised Failure Diagnosis of Clustered Logs from Microservice Tests / Övervakad feldiagnos av klustrade loggar från tester på mikrotjänster

Strömdahl, Amanda January 2023 (has links)
Pinpointing the source of a software failure based on log files can be a time consuming process. Automated log analysis tools are meant to streamline such processes, and can be used for tasks like failure diagnosis. This thesis evaluates three supervised models for failure diagnosis of clustered log data. The goal of the thesis is to compare the performance of the models on industry data, as a way to investigate whether the chosen ML techniques are suitable in the context of automated log analysis. A Random Forest, an SVM and an MLP are generated from a dataset of 194 failed executions of tests on microservices, that each resulted in a large collection of logs. The models are tuned with random search and compared in terms of precision, recall, F1-score, hold-out accuracy and 5-fold cross-validation accuracy. The hold-out accuracy is calculated as a mean from 50 hold-out data splits, and the cross-validation accuracy is computed separately from a single set of folds. The results show that the Random Forest scores highest in terms of mean hold-out accuracy (90%), compared to the SVM (86%) and the Neural Network (85%). The mean cross-validation accuracy is the highest for the SVM (95%), closely followed by the Random Forest (94%), and lastly the Neural Network (85%). The precision, recall and F1-score are stable and consistent with the hold-out results, although the precision results are slightly higher than the other two measures. According to this evaluation, the Random Forest has the overall highest performance on the dataset when considering the hold-out- and cross-validation accuracies, and also the fact that it has the lowest complexity and thus the shortest training time, compared to the other considered solutions. All in all, the results of the thesis demonstrate that supervised learning is a promising approach to automatize log analysis. / Att identifiera orsaken till en misslyckad mjukvaruexekvering utifrån logg-filer kan vara en tidskrävande process. Verktyg för automatiserad logg-analysis är tänkta att effektivisera sådana processer, och kan bland annat användas för feldiagnos. Denna avhandling tillhandahåller tre övervakade modeller för feldiagnos av klustrad logg-data. Målet med avhandlingen är att jämföra modellernas prestanda på data från näringslivet, i syfte att utforska huruvida de valda maskininlärningsteknikerna är lämpliga för automatiserad logg-analys. En Random Forest, en SVM och en MLP genereras utifrån ett dataset bestående av 194 misslyckade exekveringar av tester på mikrotjänster, där varje exekvering resulterade i en stor uppsättning loggar. Modellerna finjusteras med hjälp av slumpmässig sökning och jämförs via precision, träffsäkerhet, F-poäng, noggrannhet och 5-faldig korsvalidering. Noggrannheten beräknas som medelvärdet av 50 datauppdelningar, och korsvalideringen tas fram separat från en enstaka uppsättning vikningar. Resultaten visar att Random Forest har högst medelvärde i noggrannhet (90%), jämfört med SVM (86%) och Neurala Nätverket (85%). Medelvärdet i korsvalidering är högst för SVM (95%), tätt följt av Random Forest (94%), och till sist, Neurala Nätverket (85%). Precisionen, träffsäkerheten och F-poängen är stabila och i enlighet med noggrannheten, även om precisionen är något högre än de andra två måtten. Enligt den här analysen har Random Forest överlag högst prestanda på datasetet, med hänsyn till noggrannheten och korsvalideringen, samt faktumet att denna modell har lägst komplexitet och därmed kortast träningstid, jämfört med de andra undersökta lösningarna. Sammantaget visar resultaten från denna avhandling att övervakad inlärning är ett lovande tillvägagångssätt för att automatisera logg-analys.
8

Applikation för sökning i databaslogg samt design av databas / Application for Searching a Database Log and Design for a Database

Håkansson, Gunnar January 2012 (has links)
Den här rapporten behandlar ett system som använder en databas som lagringsplats för loggar. En bra metod för att hämta ut dessa loggar saknades och databasdesignen behövde förbättras för sökningar i loggarna. En applikation för att hämta och söka i loggposter från databasen skapades. En undersökning om hur databasdesignen kunde förbättras genomfördes också. Båda delarna gjordes i ett projekt för att de hörde ihop. Applikationen skulle använda databasen. Då jag inte kunde göra vilka ändringar jag ville i databasen gjordes relativt begränsade ändringar i den. Större ändringar utreddes teoretiskt. Applikationen gjordes mot den existerande databasdesignen, med ett undantag: en vy lades till. Rapporten undersöker index och andra metoder att göra sökningar i en databas snabbare. En metod för att hämta data inom ett intervall i en databas utvecklades och den beskrivs i rapporten. Metoden söker efter all data som har värden på en kolumn som faller inom ett intervall och där databasen är ordnad, eller nästan ordnad, på den kolumnen. Metoden ger oexakta svar om databasen är nästan ordnad på den kolumnen. Den är snabbare än en motsvarande exakt sökning. / This report considers a system where a database is used as the back-end storage for logging. A suitable method for extracting information from the logs was missing and the database design needed an improvement for log searching. An application for extracting and filtering the logs was created. An evaluation of how the database could be improved was also performed. Both parts were done in one project since they were heavily connected. The application would use the database. Since I couldn’t make arbitrary changes to the database only relatively limited changes were made in practice. Larger changes were evaluated theoretically. The application was made against the existing database, with one exception: a view was added. The report handles indexes and other methods for speeding up database searches. A method for fetching data inside an interval in a database was developed and is described in the report. The method searches for all data where the value of a column is inside an interval and the database is ordered, or almost ordered, on that column. The method gives inexact answers if the database is almost ordered on that column. It is faster than a corresponding exact search.
9

Evaluation of Target Tracking Using Multiple Sensors and Non-Causal Algorithms

Vestin, Albin, Strandberg, Gustav January 2019 (has links)
Today, the main research field for the automotive industry is to find solutions for active safety. In order to perceive the surrounding environment, tracking nearby traffic objects plays an important role. Validation of the tracking performance is often done in staged traffic scenarios, where additional sensors, mounted on the vehicles, are used to obtain their true positions and velocities. The difficulty of evaluating the tracking performance complicates its development. An alternative approach studied in this thesis, is to record sequences and use non-causal algorithms, such as smoothing, instead of filtering to estimate the true target states. With this method, validation data for online, causal, target tracking algorithms can be obtained for all traffic scenarios without the need of extra sensors. We investigate how non-causal algorithms affects the target tracking performance using multiple sensors and dynamic models of different complexity. This is done to evaluate real-time methods against estimates obtained from non-causal filtering. Two different measurement units, a monocular camera and a LIDAR sensor, and two dynamic models are evaluated and compared using both causal and non-causal methods. The system is tested in two single object scenarios where ground truth is available and in three multi object scenarios without ground truth. Results from the two single object scenarios shows that tracking using only a monocular camera performs poorly since it is unable to measure the distance to objects. Here, a complementary LIDAR sensor improves the tracking performance significantly. The dynamic models are shown to have a small impact on the tracking performance, while the non-causal application gives a distinct improvement when tracking objects at large distances. Since the sequence can be reversed, the non-causal estimates are propagated from more certain states when the target is closer to the ego vehicle. For multiple object tracking, we find that correct associations between measurements and tracks are crucial for improving the tracking performance with non-causal algorithms.

Page generated in 0.0389 seconds