• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 2
  • Tagged with
  • 12
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Jakten på den rätta kompetensen : En kvalitativ studie om subjektivitetens roll i rekryteringssammanhang

Flod, Evanja, Hög, Anna, Thelin, Jenny January 2017 (has links)
Att rekrytera rätt kompetens till rätt plats är lättare sagt än gjort. I sökandet efter rätt kompetens för en tjänst finns det utrymme för att subjektivitet och kategorisering präglar rekryteringsprocessen, vilket föranleder att arbetssökande riskerar att väljas bort på felaktiga grunder. Vi ville genom en kvalitativ studie öka vår förståelse för rekryteringsprocessen och undersöka om och i så fall hur en anonymisering i rekryteringen kan förändra subjektivitetens roll i processen och därmed även den homosociala reproduktionen. Med detta i åtanke ville vi undersöka ett företag som utger sig använda en omvänd kompetensbaserad rekryteringsmetod med tester i urvalsprocessen och som bortser från allt som inte är relevant för en tjänst. Detta genomfördes i form av semistrukturerade intervjuer med individer från två perspektiv. Två representanter intervjuades från vårt fallföretag som arbetar med rekrytering, medan fyra representanter intervjuades från olika kundföretag. Vi fann att rekryteringsprocessen alltid kommer präglas av subjektivitet så länge valet av kandidat görs av människor. Det är därför en fråga om att senarelägga subjektiviteten för att möjliggöra eliminering av den negativa effekt som riskerar att medföra att den bäst lämpade kandidaten väljs bort på felaktiga grunder. Denna senareläggning kan möjliggöras genom anonymisering av en arbetssökandes identitet och på så sätt kan även den negativa effekten av homosocial reproduktion förändras.
2

Anonymiserade databaser : Kan sui generis-skyddet av anonymiserade personuppgifter öka användningen av data i unionen? / Anonymised databases : Can the sui generis protection of anonymised personal data increase the use of data in the Union?

Thelin, Albin January 2022 (has links)
Data har beskrivits som en av hörnstenarna i dagens ekonomi och Europeiska unionen har i flera decennier antagit rättsakter som syftat till att skapa en informationsmarknad i unionen. Men flera problem har tornat upp på den inre marknaden. Bland annat har data tenderat att inte användas i tillräckligt hög grad och det har varit svårt för datainnehavare att tillgängliggöra sin data samtidigt som de måste respektera unionens regler om dataskydd. I centrum finns därför två motstående intressen av värdeskapande användning av data och skydd av personuppgifter.  Det här examensarbetet undersöker om användningen av databasdirektivets sui generis-skydd och användningen av dataskyddsförordningens reglering om anonymisering kan vara en lämplig lösning på unionens problem. Den första halvan av examensarbetet undersöker dataskyddsförordningens centrala definitioner om vad som är en personuppgift och hur den kan anonymiseras för att undvika förordningens tillämpningsområde. Den andra halvan av examensarbetet behandlar hur man kan skydda de avidentifierade personuppgifterna efter anonymiseringen med en tillämpning av databasdirektivets sui generis-skydd.  Examensarbetets huvudslutsats är att det inte framstår som lämpligt att i nuläget förlita sig på anonymisering som ett rättsligt verktyg för att tillgängliggöra data för vidareanvändning i unionen. Delslutsatserna om anonymisering är för det första att identifieringsrekvisitet i personuppgiftsdefinitionen är relativt och inte absolut i dataskyddsförordningen. För det andra att det är tveksamt om Europeiska dataskyddsstyrelsens krav på att man inte ska kunna dra en slutsats om någon efter anonymisering täcks av rekvisiten i förordningen, och om det därför inte finns berättigade förväntningar att följa deras riktlinjer i den delen. Delslutsatserna om databasdirektivet är för det första att anonymiserade personuppgifter kan skyddas av sui generis och för det andra att en databasproducent kan använda sig av reglerna om normalt bruk och oberättigat kränker legitima intressen för att skydda anonymiseringen när databasen med anonymiserade personuppgifter har tillgängliggjorts.
3

Personuppgifter, anonymisering och pseudonymisering: En kritisk analys av begreppsbildningen i GDPR / Personal data, anonymization and pseudonymization: A critical definitional analysis of the GDPR

Coleman, Itai January 2019 (has links)
No description available.
4

Klassificeringsalgoritmer vs differential privacy : Effekt på klassificeringsalgoritmer vid användande av numerisk differential privacy / Classification algorithms vs differential privacy : Effect of using numerical differential privacy on classification algorithms

Olsson, Mattias January 2018 (has links)
Data mining är ett samlingsnamn för ett antal tekniker som används för att analysera datamängder och finna mönster, exempelvis genom klassificering. Anonymisering innefattar en rad tekniker för att skydda den personliga integriteten. Den här studien undersöker hur stor påverkansgrad anonymisering med tekniken differential privacy har på möjligheten att klassificera en datamängd. Genom ett experiment undersöks ett antal magnituder av anonymisering och vilken effekt de har på möjligheten att klassificera data. Klassificering av den anonymiserade datamängden jämförs mot klassificering av den råa datamängden. Liknande studier har genomförts med k-anonymitet som anonymiseringsteknik där möjligheten att klassificera förbättrades genom generalisering. Resultatet från den här studien å andra sidan visar att möjligheten att klassificera sjunker något, vilket beror på att differential privacy sprider ut informationen i datamängden över ett bredare spektrum. Detta försvårar generellt för klassificeringsalgoritmerna att hitta karakteriserande mönster i datamängden och de lyckas därmed inte få lika hög grad av korrekt klassificering.
5

Balansgången mellan användbarhet och GDPR - en fallstudie av systemet SafeSite

Strömberg, Axel, Tunudd, Joel January 2021 (has links)
I och med GDPR har det blivit mycket viktigt för företag att anonymisera personuppgifter dådet finns en risk för böter om lagen skulle brytas. Denna studie ämnade att förstå hurkommunikationssystemet SafeSite skulle kunna få fler användare att följa GDPR-lagen ochhur en sådan lösning på detta problem skulle påverka användbarheten på sidan. För att ta redapå det förstnämnda genomfördes intervjuer med användare av systemet. De ansåg bland annatatt informationen om GDPR på sidan var lätt att missa och att informationen inte riktigt vartillräcklig. Med intervjuerna som grund skapades därefter en enkel mockup på hur det nyasystemet skulle kunna se ut. I mockupen gavs ytterligare information om GDPR sompresenterades, till skillnad från nuvarande systemet, i en popup-ruta. Användarna ombadssedan att besvara en enkät som avsåg att avgöra vilken av den ursprungliga versionen ochmockupen som var bättre i avseende att förmedla information om GDPR och att få användareatt bättre följa lagen. I enkäten användes frågor från System Usability Scale (SUS), ettväletablerat användbarhetstest för att utvärdera hur användbarheten. Resultatet av enkäternavisade att användare med större sannolikhet skulle efterfölja GDPR med det nyadesignförslaget utan att den upplevda användbarheten försämras.
6

Utveckling av en anonymiseringsprototyp för säker interaktion med chatbotar

Hanna, John Nabil, Berjlund, William January 2024 (has links)
I denna studie presenteras en prototyp för anonymisering av känslig information itextdokument, med syfte att möjliggöra säker interaktion med stora språkmodeller(LLM:er), såsom ChatGPT. Prototypen erbjuder en plattform där användare kanladda upp dokument för att anonymisera specifika känsliga ord. Efter anonymiseringkan användare ställa frågor till ChatGPT baserat på det anonymiserade innehållet.Prototypen återställer de anonymiserade delarna i svaren från ChatGPT innan de visas för användaren, vilket säkerställer att känslig information förblir skyddad underhela interaktionen.I studien används metoden Design Science Research in Information Systems (DSRIS). Prototypen utvecklas i Java och testas med påhittade dokument, medan enkätsvar samlasin för att utvärdera användarupplevelsen.Resultaten visar att prototypens funktioner fungerar väl och skyddar känslig information vid interaktionen med ChatGPT. Prototypen har utvärderats med hjälp av svarfrån enkäten som dessutom tar upp förbättringsmöjligheter.Avslutningsvis visar studien att det är möjligt att anonymisera textdokument effektivt och samtidigt få korrekt och användbar feedback från ChatGPT. Trots vissa begränsningar i användargränssnittet på grund av tidsramen visar studien på potentialför säker datahantering med ChatGPT. / This study presents a prototype for anonymizing sensitive information in text documents, with the aim of enabling secure interactions with large language models(LLMs) such as ChatGPT. The prototype offers a platform where users can uploaddocuments to anonymize specific sensitive words. After anonymization, users canpose questions to ChatGPT based on the anonymized content. The prototype restores the anonymized parts in the responses from ChatGPT before they are displayed to the user, ensuring that sensitive information remains protected throughoutthe entire interaction.The study uses the Design Science Research in Information Systems (DSRIS)method. The prototype is developed in Java and tested with fabricated documents,while survey responses were collected to evaluate the user experience.The results show that the prototype's functionalities work well and protect sensitiveinformation during interaction with ChatGPT. The prototype has been evaluated using survey responses that also highlight opportunities for improvement.In conclusion, the study demonstrates that it is possible to effectively anonymizetext documents while obtaining accurate and useful feedback from ChatGPT. Despite some limitations in the user interface due to the timeframe, the study showspotential for secure data handling with ChatGPT.
7

Rekryterares uppfattning av anonymisering : Tankar kring ett första urval

Ekstrand, Jonathan, Hallberg, Oscar January 2019 (has links)
Uppsatsen syftar till att studera verksamma HR(Human resources)-praktiker inom rekryteringsområdets uppfattning gentemot användningen av ett anonymiserat första urval i rekryteringsprocessen. För att studera detta formuleras frågeställningar kring hur ett anonymiserat urval uppfattas av dessa praktiker samt vilka negativa och positiva aspekter de kan identifiera med ett sådant arbetssätt. Studien ämnar att undersöka detta via en kvalitativ studie med en induktiv ansats. Datainsamlingen sker via semistrukturerade intervjuer där praktikernas uppfattningar kring ämnet skiljer sig markant. Anonymisering ses som ett gynnsamt verktyg för kandidater där de får en mer rättvis chans att avancera i rekryteringsprocesser på bekostnad av rekryteraren som får en större arbetsbelastning. Studien mynnar ut i att rekryteringsförfarandet präglas av en situationsbetingad paradigm där olika organisationer är i behov av olika åtgärder. Således kan ett anonymiserat urval anses behövligt i organisationer där diskriminering förekommer medan organisationer med redan standardiserade och beprövade processer kan anse det som överflödigt.
8

Bluetooth-enheter i offentliga rummet och anonymisering av data

Nilsson, Mattias, Olsson, Sebastian January 2015 (has links)
Internet of Things (IoT) ger stora möjligheter att samla in data för olika syfte som till exempel att estimera antalet personer för att styra värmen i ett rum. Vidare så kan IoT-system automatisera uppgifter som kan hjälpa oss människor. Den här studien syftar till vilken typ av data som kan vara intressant att samla in för att kunna estimera antalet personer på en offentlig plats. Det handlar även om hur känslig data som samlas in kan anonymiseras. För att göra detta så valdes det att undersöka hur MAC-adresser från Bluetooth-enheter skulle fungerar för att uppskatta antalet personer. För att samla in MAC-adresser så utvecklades ett proof of concept-system där en Android-applikation samlade in MAC-adresser som anonymiserades innan de lagrades i en databas. Applikationen anonymiserar den unika MAC-adressen enligt tre nivåer med olika säkerhet. Fältstudier gjordes där antalet personer räknades visuellt sedan gjordes anonymiserade insamlingar av MAC-adresser. Slutsatsen var att Bluetooth blir svårt att använda för att estimera antal personer eftersom alla inte har Bluetooth på. Applikationen som utvecklats påvisar att data kan samlas in säkert och på så sätt inte kränka integritet. / Internet of Things (IoT) provides great opportunities to collect data for different purposes such as to estimate the number of people to control the heat in a room. Furthermore, IoT systems can automate tasks that can help us humans. This study is aimed at the type of data that can be interesting to gather in order to estimate the number of people in a public place. It is also about how sensitive data can be anonymized when gathered. To do this, Bluetooth devices was chosen for investigating how the MAC addresses would work to estimate the number of people. For collecting MAC addresses a proof of concept system was developed, where an Android application was used to collect MAC addresses. These MAC addresses were anonymized before being stored in a database. The application anonymize the unique MAC address according to three levels of security. Field studies were conducted as the number of people were counted visually then anonymous collection of MAC addresses were made. The conclusion was that Bluetooth will be difficult to use for estimating the number of people because not everyone has Bluetooth on. The application developed demonstrates that data can be collected safely and thus does not violate privacy.
9

Balansgången mellan skydd av personlig integritet och skydd för företagshemligheter : Med särskilt fokus på forskning om AI-teknik inom sjukvård

Yücel, Aysun January 2019 (has links)
Sammanfattning Vi lever i en alltmer digitaliserad värld där utvecklad teknik kan bidra till att lösa flertalet samhällsproblem. Till exempel är intresset av avancerad AI-teknik inom sjukvård alltmer efterfrågat. AI-teknik har stor potential att stödja sjukvårdspersonal och individer, förkorta köer och förbättra vården. Tekniken bygger på insamlandet av stora mängder data som ska programmeras till att härma intelligent beteende. Åtskilliga känsliga personuppgifter behandlas i och med insamlandet av denna data. Inom ramen för den pågående debatten om personlig integritet skapas samtidigt en potentiell konfliktyta där företagshemligheter riskerar att avslöjas när information lämnas ut vid utövandet av enskildas dataskyddsrättigheter.  Konfliktytan aktualiseras till exempel om registerutdraget inkluderar delar av företags affärsplaner, arbetsmetodik och teknikens uppbyggnad. Ett annat exempel rör systematiskt utlämnande av personuppgifter efter begäran från en mängd registrerade, där sammanställningen i sig kan betraktas som företagshemligheter. Hur ser gränsdragningen ut för dessa motstående intressen? Hur förhåller man sig till balansgången mellan skydd av personlig integritet och skydd för företagshemligheter?  En adekvat intresseavvägning möjliggör för företag att skydda företagshemligheter samtidigt som enskildas personliga integritet inte äventyras. Hur denna intresseavvägning ska se ut är dock fortfarande oklart, vilket ligger till grund för denna uppsats. / Abstract We live in an increasingly digitized world where technology can help solve many societal challenges. For example, the interest in advanced AI technology in healthcare is increasingly in demand. AI technology has great potential to support healthcare professionals as well as individuals, shorten queues and improve healthcare. The technology is based on the collection of large amounts of data to be programmed to mimic intelligent behaviour. A great number of sensitive personal data are processed when such data is collected. Within the framework of the ongoing debate on personal integrity, a potential conflict area arises at the same time, where trade secrets risk being disclosed while information is provided as individual data protection rights are exercised.  The conflict area is raised, for instance, in cases where the register extract includes parts of the company’s business plans, work methodology and the structure of the technology. Another example concerns systematic disclosure of personal data upon request from a great number of registered persons, where the compilation itself can be regarded as trade secrets. What will the boundaries of these opposing interests be like? How does one relate to the balance between the protection of privacy and the protection of trade secrets?  An adequate balance of interests enables companies to protect trade secrets while not compromising individual privacy. However, how this balance of interests should be framed is still unclear, which has given rise to this thesis.
10

Kodanonymisering vid integration med ChatGPT : Säkrare ChatGPT-användning med en kodanonymiseringsapplikation / Code anonymization when integrating with ChatGPT : Safer ChatGPT usage with a code anonymization application

Azizi, Faruk January 2023 (has links)
Denna avhandling studerar området av kodanonymisering inom programvaruutveckling, med fokus på att skydda känslig källkod i en alltmer digitaliserad och AI-integrerad värld. Huvudproblemen som avhandlingen adresserar är de tekniska och säkerhetsmässiga utmaningarna som uppstår när källkod behöver skyddas, samtidigt som den ska vara tillgänglig för AI-baserade analysverktyg som ChatGPT. I denna avhandling presenteras utvecklingen av en applikation vars mål är att anonymisera källkod, för att skydda känslig information samtidigt som den möjliggör säker interaktion med AI. För att lösa dessa utmaningar har Roslyn API använts i kombination med anpassade identifieringsalgoritmer för att analysera och bearbeta C#-källkod, vilket säkerställer en balans mellan anonymisering och bevarande av kodens funktionalitet. Roslyn API är en del av Microsofts .NET-kompilatorplattform som tillhandahåller rika funktioner för kodanalys och transformation, vilket möjliggör omvandling av C#-källkod till ett detaljerat syntaxträd för inspektion och manipulering av kodstrukturer. Resultaten av projektet visar att den utvecklade applikationen framgångsrikt anonymiserar variabel-, klass- och metodnamn, samtidigt som den bibehåller källkodens logiska struktur. Dess integration med ChatGPT förbättrar användarupplevelsen genom att erbjuda interaktiva dialoger för analys och assistans, vilket gör den till en värdefull resurs för utvecklare. Framtida arbete inkluderar utvidgning av applikationen för att stödja fler programmeringsspråk och utveckling av användaranpassade konfigurationer för att ytterligare förbättra användarvänligheten och effektiviteten. / This thesis addresses the area of code anonymization in software development, with a focus on protecting sensitive source code in an increasingly digitized and AI-integrated world. The main problems that the thesis addresses are the technical and security challenges that arise when source code needs to be protected, while being accessible to AI-based analysis tools such as ChatGPT. This thesis presents the development of an application whose goal is to anonymize source code, in order to protect sensitive information while enabling safe interaction with AI. To solve these challenges, the Roslyn API has been used in combination with customized identification algorithms to analyze and process C# source code, ensuring a balance between anonymization and preservation of the code's functionality. The Roslyn API is part of Microsoft's .NET compiler platform that provides rich code analysis and transformation capabilities, enabling the transformation of C# source code into a detailed syntax tree for code structure inspection and manipulation.The results of the project show that the developed application successfully anonymizes variable, class, and method names, while maintaining the logical structure of the source code. Its integration with ChatGPT enhances the user experience by providing interactive dialogues for analysis and assistance, making it a valuable resource for developers. Future work includes extending the application to support more programming languages and developing customized configurations to further improve ease of use and efficiency.

Page generated in 0.0746 seconds