• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • Tagged with
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Vem äger berättelsen om brottet? : En kognitionspsykologisk studie av den misstänktes utredningsmöjligheter i brottmål

Rosvall, Sara January 2016 (has links)
No description available.
2

Deepfakes inom social engineering och brottsutredningar

Björklund, Christoffer January 2020 (has links)
”Deepfake” är en förkortning av ”deep learning” och ”fake”. Deepfakes är syntetisk audiovisuell media som använder sig av maskininlärning för att generera falska videoklipp, bilder och/eller ljudklipp. Detta projekt fokuserar på deepfakes inom förfalskat videomaterial, där en persons ansikte i en video är utbytt mot en annan persons ansikte. Fokuset för den här rapporten är att undersöka hur enkelt det är att göra en egen deepfake med grundläggande kunskap. Detta är gjort med ett experiment som avser att mäta kvantitativa och kvalitativa resultat från intervjuer. Intervjuobjekten har tittat på två videor där de försökt identifiera författarens egna förfalskade videoklipp blandade med legitima videoklipp. Experimentet visar på att det är möjligt och relativt enkelt att skapa övertygande högkvalitativa deepfakes gjorda för social engineering. Det är däremot svårare, men fortfarande möjligt, att förfalska audiovisuellt material i bildbevis. Vidare undersöks vad det finns för typer av preventiva forensiska verktyg och metoder som utvecklas till att upptäcka deepfakes inom förfalskat videomaterial. I nuläget finns det många tekniker som föreslagits som metoder för att identifiera deepfakes. Denna rapport granskar även deepfakes gjorda för social engineering. Deepfakes anses bli ett av de större hoten i framtiden där de kan användas till att effektivt sprida propaganda och desinformation. Nyhetsmedia står inför stora utmaningar framöver på grund av misstro från konsumenter av audiovisuellt nyhetsmaterial. Utifrån de kvantitativa och kvalitativa resultaten, föreslår författaren att nyhetsmedia och social media kan informera om vad deepfakes är och hur sådana förfalskade videoklipp typiskt ser ut. / ’Deepfake’ is an abbreviation of ’deep learning’ and ’fake’. Deepfakes are synthetical audiovisual media that uses machine learning to create fake videos, images and/or audio clips. This project is focused on deepfakes within forged videos, where one person’s face is swapped with another person’s face. This technique is usually referred to as ’face swapping’. However, deepfakes goes beyond what usual face swaps can achieve. The focus for this project is to investigate how easy it is to forge your own deepfakes with basic technical knowledge. This is achieved through an experiment that measures result from fourteen interviews. The interviewees watched two different videos, where each person tried to identify the writers’ own deepfaked video clips, that were mixed with legitimate video clips. The experiment shows that it is possible and relatively easy to create convincing deepfakes aimed at social engineering. It is also possible, but harder, to create deepfakes to forge videos within criminal investigations. This report examines the potential forensic techniques and tools that exists and are developed to identify deepfakes. Furthermore, this report also examines deepfakes made for social engineering. Deepfakes are considered being one of the more significant threats in the future and could be used to effectively spread propaganda and misinformation. The results generated from the experiment in this report, lead to a proposition from the writer that news outlets and social media platforms could aim at an informative approach towards deepfakes. This approach means informing their consumers on what deepfakes are, how they typically look and what consumers can do themselves to identify them.
3

Ansiktsigenkänning i brottsutredningar : Risker och möjligheter med ansiktsigenkänning i svenska brottsutredningar

Brennicke, Tindra, Lidzell, Alice January 2023 (has links)
AI är ett ämne vars framsteg i dagsläget diskuteras flitigt. En liten funktion av fenomenet AI utgörs av ansiktsigenkänning, något som även det på senaste tiden implementerats på fler områden i vårt samhälle. Då tekniken i sig är relativt ny är polismyndighetens användning av verktyget likaså. Denna studie ämnar att undersöka vilka risker och möjligheter användningen av ansiktsigenkänning i svenska brottsutredningar har. Studien bygger på semistrukturerade intervjuer med personer tillhörande de två särskilt intressanta yrkesgrupperna AI-forskare och poliser. Detta för att frambringa två olika perspektiv. I analysen av empirin knyts de framtagna konsekvenserna an med teorin sociomaterialitet. Studien presenterar ett antal risker och möjligheter som bekräftar redan identifierade konsekvenser i litteraturen. Risker och möjligheter som identifierades var relaterade till integritet, lagstiftning, bias i databaser, övertro och misstro, effektivisering, trygghetsskapande, noggrannhet och arbetsmiljö. Studien avslutas med förslag på framtida forskning. / AI is a technology which development is frequently discussed. A small part of the phenomena AI is constituted by facial recognition, a technology which is rapidly implemented in an increasing number of societal functions. Since facial recognition itself is relatively new, the utilization of it within the police authority is as well. This study intends to investigate which risks and possibilities the utilization of facial recognition has in Swedish criminal investigations. The study is based on semi-structured interviews with people divided into one of two different interesting groups: AI-scientists and employees at the Swedish police authority. This, with the intention to capture two different perspectives. In the analysis of the empirical data the identified consequences are linked to the theory sociomateriality. The study presents a number of risks and possibilities which confirm already identified consequences in literature. The risks and possibilities identified related to integrity, laws and regulations, bias in databases, over-reliance and disbelief, efficiency, security enhancing, accuracy and working environment. The study concludes with suggestions for future research.

Page generated in 0.0577 seconds