• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 104
  • 45
  • Tagged with
  • 149
  • 66
  • 51
  • 50
  • 39
  • 39
  • 38
  • 33
  • 24
  • 24
  • 20
  • 19
  • 18
  • 18
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Development of a Framework for Genetic Algorithms / Utveckling av ett ramverk för genetiska algoritmer

Wååg, Håkan January 2009 (has links)
Genetic algorithms is a method of optimization that can be used tosolve many different kinds of problems. This thesis focuses ondeveloping a framework for genetic algorithms that is capable ofsolving at least the two problems explored in the work. Otherproblems are supported by allowing user-made extensions.The purpose of this thesis is to explore the possibilities of geneticalgorithms for optimization problems and artificial intelligenceapplications.To test the framework two applications are developed that look attwo distinct problems, both of which aim at demonstrating differentparts. The first problem is the so called Travelling SalesmanProblem. The second problem is a kind of artificial life simulator,where two groups of creatures, designated predator and prey, aretrying to survive.The application for the Travelling Salesman Problem measures theperformance of the framework by solving such problems usingdifferent settings. The creature simulator on the other hand is apractical application of a different aspect of the framework, wherethe results are compared against predefined data. The purpose is tosee whether the framework can be used to create useful data forthe creatures.The work showed how important a detailed design is. When thework began on the demonstration applications, things were noticedthat needed changing inside the framework. This led to redesigningparts of the framework to support the missing details. A conclusionfrom this is that being more thorough in the planning, andconsidering the possible use cases could have helped avoid thissituation.The results from the simulations showed that the framework iscapable of solving the specified problems, but the performance isnot the best. The framework can be used to solve arbitrary problemsby user-created extensions quite easily.
122

Att återkoppla eller inte återkoppla, det är frågan! : Matematikbokens förmedling av tidigare kunskaper med fokus på skriftliga beräkningsmetoder

Skår Lunneland, Katharina January 2021 (has links)
Bakgrund: Vi är nu för tiden vana vid att använda oss av digitala hjälpmedel vid matematiska beräkningar. Detta tycks ha trängt undan behovet av standardalgoritmerna och andra skriftliga beräkningsmetoder. Är det så att dessa traditionella beräkningsmetoder har gått ur tiden? Kan digitala hjälpmedel ersätta alla delar som dessa metoder har bidragit till om vi ser till utvecklandet av matematisk förståelse? Min uppfattning är att det inte är så, utan att algoritmer och andra skriftliga beräkningsmetoder fortfarande har en viktig roll att spela i elevers utveckling av den matematiska förståelsen.  Syfte: Att undersöka hur man presenterar och återkopplar till skriftliga beräkningsmetoder och standardalgoritmer i matematikböcker från förskoleklass till gymnasiet. Metod: Studien är konstruerad utifrån en läroboksanalys där både en kvalitativ och en kvantitativ undersökning gjorts för att inringa både de övergripande strukturer som funnits i materialet, samt för att kunna se mer svåråtkomliga inslag, överlappningar och brister i det analyserade materialet. Tidigare forskning och litteratur inom området har beskrivits och löpande analyserats för att ge en bild av vad som sticker ut respektive överlappar åsikts- och resultatmässigt i de valda studierna och texterna. Resultat: Studien visar på en brist i matematikböckernas återkoppling till tidigare kunskaper. De kunskaper som främst är i fokus är de som rör standardalgoritmer och andra skriftliga beräkningsmetoder, men liknande brister går att se även inom andra matematiska områden. Bristen på återkoppling förekommer i merparten av de analyserade matematikböckerna och ger ett intryck av att fokus har förskjutits från algoritmkunskap till att eleven skall arbeta med digitala hjälpmedel. Det blir dock tydligt att även denna kunskap, om digitala hjälpmedel, inte heller prioriteras högt. Detta kan man se genom att beskrivningar av användning av digitala hjälpmedel förekommer mycket sparsamt i de analyserade matematikböckerna. Slutsats:Slutsatsen som kan dras av denna studie är att de analyserade matematikböckerna saknar den röda tråd som fås genom återkoppling och som skulle behövas för att ge bättre förutsättningar att skapa god matematisk förståelse. / Background: Nowadays digital tools, like calculators, are what we mainly use in our mathematical calculations. This has, seemingly, pushed away our need for other methods of calculation. We appear not to be in need of standard algorithms and other written calculating processes. Does this mean that these calculating processes are a thing of the past? Can digitals tools replace all parts contributed by the traditional methods from the perspective of development ofmathematical understanding? My point of view is that this is not the case. Instead, I believe that these “out of time” methods are highly important in the development of mathematical understanding. Purpose: To examine the way books of mathematics from first year of school all the way through the Swedish gymnasium courses, presents and reconnect to knowledge of written calculating methods and standard algorithms. Method: This study is constructed through an analysis of books of mathematics where both a qualitative and a quantitative part are included to cover both the overall structures of knowledge mediation in the analysed books and to find the more subtle elements, like knowledge overlaps or knowledge faults in the analysed books. Prior research and literature on the subject have been described and continuously analysed with the purpose to find opinions that stands out and also to find overlapping opinions or results, when comparing the chosen studies and texts. Result: The study points to a lack of reconnection to earlier knowledge in the analysed books. Foremost this concerns knowledge of standard algorithms and other types of written calculating methods, but a similar lack of reconnection is also seen within other areas of mathematics in the analysed books. The lack of reconnection occurs in most of the analysed books which gives an impression of focus being shifted from knowledge of algorithms and other written calculating methods to the advantage of digital tools. It does, however, also become clear that knowledge of how to use digital tools is equally not prioritized, since such information is sparsely presented in the analysed books. Conclusion: The conclusion that can be drawn from this study is that the analysed books of mathematicslack the common thread of knowledge that we get from reconnecting to earlier knowledge, and which would be needed to give better chances to create good mathematical understanding.
123

Algorithms for Multidimensional Persistence / Algoritmer för Multidimensionell Persistens

Gäfvert, Oliver January 2016 (has links)
The theory of multidimensional persistence was introduced in a paper by G. Carlsson and A. Zomorodian as an extension to persistent homology. The central object in multidimensional persistence is the persistence module, which represents the homology of a multi filtered space. In this thesis, a novel algorithm for computing the persistence module is described in the case where the homology is computed with coefficients in a field. An algorithm for computing the feature counting invariant, introduced by Chachólski et al., is investigated. It is shown that its computation is in general NP-hard, but some special cases for which it can be computed efficiently are presented. In addition, a generalization of the barcode for persistent homology is defined and conditions for when it can be constructed uniquely are studied. Finally, a new topology is investigated, defined for fields of characteristic zero which, via the feature counting invariant, leads to a unique denoising of a tame and compact functor. / Teorin om multidimensionell persistens introduserades i en artikel av G. Carlsson och A. Zomorodian som en generalisering av persistent homologi. Det centrala objektet i multidimensionell persistens är persistensmodulen, som representerar homologin av ett multifilterat rum. I denna uppsats beskrivs en ny algoritm för beräkning av persistensmodulen i fallet där homologin beräknas med koefficienter i en kropp. En algoritm för beräkning av karaktäristik-räknings-invarianten, som introducerade av Chachólski et al., utforskas och det visar sig att dess beräkning i allmänhet är NP-svår. Några specialfall för vilka den kan beräknas effektivt presenteras. Vidare definieras en generalisering av stäckkoden för persistent homologi och kraven för när den kan konstrueras unikt studeras. Slutligen undersöks en ny topologi, definierad för kroppar av karaktäristik noll, som via karaktäristik-räknings-invarianten leder till en unik avbränning.
124

Det moderna zappandet : En flermetodisk studie om kortformsmedievanor hos unga vuxna / The modern zapping : A multi-method study on short-form media habits in young adults

Jonsson, Olle, Aronsson, Viktor January 2022 (has links)
Due to increased data caps, revolutions in mobile camera technology and a hyperconnected generation, video-centric social media services are rapidly becoming one of the most popular ways of consuming digital media. These services allow users to view, share and produce short-form media content at any time. The content viewed is provided algorithmically and will adapt based on the user's interactions. The platform will therefore entertain regular users more effectively, further increasing the likelihood of continuous use. This study aims to understand young adults' use, non-use, and attitude towards video-centric social media applications. Further questions regarding risks of addiction as well as possibilities for content creators are also explored. Analyzing the results using the Uses & Gratifications theory, video-centric social media services met "play/fun", "responsiveness", "ownness", "community building", "purpose" and "coolness" gratifications. Furthermore, the study found differences in usage patterns depending on the user's age. Comparably, non-users expressed fear of addiction and low-quality content as the main deterrents for usage.
125

Machine Learning for Classification of Temperature Controlled Containers Using Heavily Imbalanced Data / Maskininlärning för klassificering av temperatur reglerbara containrar genom användande av extremt obalanserad data

Ranjith, Adam January 2022 (has links)
Temperature controllable containers are used frequently in order to transport pharmaceutical cargo all around the world. One of the leading manufacturing companies of these containers has a method for detecting containers with a faulty cooling system before making a shipment. However, the problem with this method is that the model tends to miss-classify containers. Hence, this thesis aims to investigate if machine learning usage would make classification of containers more accurate. Nonetheless, there is a problem, the data set is extremely imbalanced. If machine learning can be used to improve container manufacturing companies fault detection systems, it would imply less damaged and delayed pharmaceutical cargo which could be vital. Various combinations of machine learning classifiers and techniques for handling the imbalance were tested in order to find the most optimal one. The Random Forest classifier when using oversampling was the best performing combination which performed about equally as good as the company’s current method, with a recall score of 92% and a precision score of 34%. Earlier there were no known papers on machine learning for classification of temperature controllable containers. However, now other manufacturing companies could favourably use the concepts and methods presented in this thesis in order to enhance the effectiveness of their fault detection systems and consequently improve the overall shipping efficiency of pharmaceutical cargo. / Temperatur reglerbara containrar används frekvent inom medicinsk transport runt om i hela världen. Ett ledande företag som är tillverkare av dessa containrar använder sig av en metod för att upptäcka containrar med ett felaktigt kylsystem redan innan de hunnit ut på en transport. Denna metod är fungerande men inte perfekt då den tenderar att felaktigt klassificera containrar. Detta examensarbete är en utredande avhandling för att ta reda på om maskininlärning kan användas för att förbättra klassificeringen av containrar. Det finns dock ett problem, data setet är extremt obalanserat. Om maskininlärning kan användas för att förbättra felsökningssystemen hos tillverkare av temperatur reglerbara containrar skulle det innebära mindre förstörda samt mindre försenade medicinska transporter vilket kan vara livsavgörande. Ett urval av kombinationer mellan maskininlärnings modeller och tekniker för att hantera obalanserad data testade för att avgöra vilken som är optimal. Klassificeraren Random Forest ihop med över-sampling resulterade i best prestanda, ungefär lika bra som företagets nuvarande metod. Tidigare har det inte funnits några kända rapporter om användning av maskininlärning för att klassificera temperaturer reglerbara containrar. Nu kan dock andra tillverkare av containrar använda sig av koncept och metoder som presenterades i avhandlingen för att optimera deras felsökningssystem och således förbättra den allmänna effektiviteten inom medicinsk transport.
126

A Study on Algorithmic Trading / En studie om algoritmisk aktiehandel

Hägg, Philip January 2023 (has links)
Algorithms have been used in finance since the early 2000s and accounted for 25% of the market around 2005. In this research, algorithms account for approximately 85% of the market. The challenge faced by many investors and fund managers is beating the Swedish market index OMXS30. This research investigates publicly available algorithms and their potential for implementation and modification to outperform the market. There is a lot of research done on the subject and most of the research found was mostly at a high academic level. Although few algorithms were found in the search, some algorithms that managed to beat other markets caught interest. The market data for this research was obtained from Nordnets closed API, specifically the historical price data of various financial securities. The algorithms use the historical price data to generate buy and sell signals which represents a trade. These trades were then used to calculate performance metrics such as the geometric mean and the sharpe ratio. The performance metrics are used to measure and compare performance with the OMXS30 using a quantitative method. On average, the algorithms did not perform well on the chosen securities, although some securities stood out in all cases. Beating the market is considered a difficult task, and this research reflects some of the challenges involved. The chosen method highlights the importance of the stocks the algorithms trade, emphasizing that stocks cannot be chosen randomly. Building a fully automated unsupervised trading system is challenging and requires extensive work. Some strategies tend to require human supervision to maximize returns and limit losses, while others yield low returns for low risk. / Algoritmer har använts inom finans sedan början av 2000-talet och utgjorde cirka 25% av marknaden runt 2005. När detta arbete utförs står algoritmer för cirka 85% av marknadsvolymen. Utmaningen som många investerare och fondförvaltare står inför är att slå den svenska marknadsindexet OMXS30. Detta arbete undersöker offentligt tillgängliga algoritmer och deras potential att implementeras och modifieras för att överträffa marknaden. Det finns mycket forskning gjord inom ämnet och majoriteten av denna forskning är på en hög akademisk nivå. Trots att få algoritmer hittades i sökningen, fanns det ett fåtal algoritmer som lyckats slå andra marknadsindex. Marknadsdata för denna forskning erhölls från Nordnets slutna API, specifikt historisk prisdata från olika finansiella värdepapper. Algoritmerna använder den historiska prisdatan för att generera köp- och säljsignaler. Dessa köp och säljsignaler användes sedan för att beräkna prestandamått som geometrisk medelvärde och riskjusterad avkastning. Prestandamåtten används för att mäta och jämföra prestanda med OMXS30 genom en kvantitativ metod. I genomsnitt presterade algoritmerna inte väl på de valda värdepappren, även om vissa värdepapper utmärkte sig i alla fall. Att slå marknaden anses vara en svår uppgift och denna forskning speglar några av de utmaningar som är involverade. Den valda metoden belyser vikten av de aktier som algoritmerna handlar med och betonar att aktier inte kan väljas slumpmässigt. Att bygga ett helt automatiserat obevakat handelssystem är utmanande och kräver omfattande arbete. Vissa strategier visade sig vara i behov av mänsklig övervakning för att maximera avkastningen och begränsa förluster, medan andra gav låg avkastning för låg risk.
127

Algoritmer och filterbubblors påverkan på sociala plattformars politiska innehåll : Hur ser filterbubblans livscykel ut? / Algorithms and filterbubbles effect on the political content of social platforms : What does the filter bubble life cycle look like?

Brynjarsson, Aron Már, Hallberg Wotango, Lucas January 2022 (has links)
På senare år har filterbubblor blivit ett välkänt begrepp som syftar på de bubblor av innehåll som användare slängs in i på sociala medier. I dessa bubblor finns en oro för att inlägg är ensidiga och kan stänga in oss i bland annat politiska åsikter. Filterbubblor anses därför av många bidra till en ökad polarisering, inte bara på grund av de inlägg som faktiskt visas för oss, utan även de inlägg som algoritmen väljer att inte visa på vårt nyhetsflöde. Trots att medvetenheten kring filterbubblor ökat, finns inte många studier på hur vägen mot en filterbubbla ser ut. För det första förser vi i denna rapport genom ett kvantitativt experiment, användare av sociala plattformar med en tydligare bild av hur filterbubblans livscykel ser ut, det vill säga hur lång tid det tar att hamna i en filterbubbla, och hur användare kan ta sig ur den. För det andra testar vi de teorier och de metodologiska svårigheterna i tidigare forskning kring hur användare potentiellt kan ta sig ur, eller byta filterbubbla. Vårt resultat visar att det går snabbt att komma in i en filterbubbla, medans att ta sig ur filterbubblan eller byta filterbubbla visa sig vara svårare än vad vi trodde och därför kräver mer tid. Eftersom det inte finns tidigare forskning på hur en filterbubbla ser ut eller när man kan räkna det som en filterbubbla så har vi  utifrån vårt egna experiments resultat, skapat ett mått för just detta. / In recent years, filter bubbles have become a well-known concept that refers to the bubbles of content that users throw in on social media. In these bubbles there is a concern that posting is one-sided and can shut us down in, among other things, political opinions. Filter bubbles are therefore considered by many to contribute to increased polarization, not only because of the posts that are actually displayed to us, but also the posts that the algorithm chooses not to display on our news feed. Although awareness of filter bubbles has increased, there are not many studies on what the path to a filter bubble looks like. Firstly, in a quantitative experiment, we provide users of social platforms with a clearer picture of what the filter bubble's life cycle looks like, i.e. how long it takes to end up in a filter bubble, and how users can get out of it. Secondly, we test the theories and methodological difficulties in previous research on how users can potentially get out, or change the filter bubble. Our results show that it is easy to get into a filter bubble, but getting out of the filter bubble or changing the filter bubble turns out to be more difficult than we thought and requires more time. Since there is no previous research on what a filter bubble looks like or when you can count it as a filter bubble we have based on the results of our own experiment created a measure for just this.
128

Deep Learning Models for Route Planning in Road Networks

Zhou, Tianyu January 2018 (has links)
Traditional shortest path algorithms can efficiently find the optimal paths in graphs using simple heuristics. However, formulating a simple heuristic is challenging under the road network setting since there are multiple factors to consider, such as road segment length, edge centrality, and speed limit. This study investigates how a neural network can learn to take these factors as inputs and yield a path given a pair of origin and destination. The research question is formulated as: Are neural networks applicable to real-time route planning tasks in a roadnetwork?. The proposed metric to evaluate the effectiveness of the neural network is arrival rate. The quality of generated paths is evaluated by time efficiency. The real-time performance of the model is also compared between pathfinding in dynamic and static graphs, using theabove metrics. A staggered approach is applied in progressing this investigation. The first step is to generate random graphs, which allows us to monitor the size and properties of the training graph without caring too many details in a road network. The next step is to determine, as a proof of concept, if a neural network can learn to traverse simple graphs with multiple strategies, given that road networks are in effect complex graphs. Finally, we scale up by including factors that might affect the pathfinding in real road networks. Overall, the training data is optimal paths in a graph generated by a shortest path algorithm. The model is then applied to new graphs to generate a path given a pair of origin and destination. The arrival rate and time efficiency are calculated and compared with that of the corresponding optimal path. Experimental results show that the effectiveness, i.e., arrival rate ofthe model is 90% and the path quality, i.e., time efficiency has a medianof 0.88 and a large variance. The experiment shows that the model has better performance in dynamic graphs than in static graphs. Overall, the answer to the research question is positive. However, there is still room to improve the effectiveness of the model and the paths generated by the model. This work shows that a neural network trained to make locally optimal choices can hardly give a globally optimal solution. We also show that our method, only making locally optimal choices, can adapt to dynamic graphs with little performance overhead. / Traditionella algoritmer för att hitta den kortaste vägen kan effektivt hitta de optimala vägarna i grafer med enkel heuristik. Att formulera en enkel heuristik är dock utmanande för vägnätverk eftersom det finns flera faktorer att överväga, såsom vägsegmentlängd, kantcentralitet och hastighetsbegränsningar. Denna studie undersöker hur ett neuralt nätverk kan lära sig att ta dessa faktorer som indata och finna en väg utifrån start- och slutpunkt. Forskningsfrågan är formulerad som: Är neuronnätverket tillämpliga på realtidsplaneringsuppgifter i ett vägnät?. Det föreslagna måttet för att utvärdera effektiviteten hos det neuronnätverket är ankomstgrad. Kvaliteten på genererade vägar utvärderas av tidseffektivitet. Prestandan hos modellen jämförs också mellan sökningen i dynamiska och statiska grafer, med hjälp av ovanstående mätvärden. Undersökningen bedrivs i flera steg. Det första steget är att generera slumpmässiga grafer, vilket gör det möjligt för oss att övervaka träningsdiagrammets storlek och egenskaper utan att ta hand om för många detaljer i ett vägnät. Nästa steg är att, som ett bevis på konceptet, undersöka om ett neuronnätverk kan lära sig att korsa enkla grafer med flera strategier, eftersom vägnätverk är i praktiken komplexa grafer. Slutligen skalas studien upp genom att inkludera faktorer som kan påverka sökningen i riktiga vägnät. Träningsdata utgörs av optimala vägar i en graf som genereras av en algoritm för att finna den kortaste vägen. Modellen appliceras sedan i nya grafer för att hitta en väg mellan start och slutpunkt. Ankomstgrad och tidseffektivitet beräknas och jämförs med den motsvarande optimala sökvägen. De experimentella resultaten visar att effektiviteten, dvs ankomstgraden av modellen är 90% och vägkvaliteten dvs tidseffektiviteten har en median på 0,88 och en stor varians. Experimentet visar att modellen har bättre prestanda i dynamiska grafer än i statiska grafer. Sammantaget är svaret på forskningsfrågan positivt. Det finns dock fortfarande utrymme att förbättra modellens effektivitet och de vägar som genereras av modellen. Detta arbete visar att ett neuronnätverk tränat för att göra lokalt optimala val knappast kan ge globalt optimal lösning. Vi visar också att vår metod, som bara gör lokalt optimala val, kan anpassa sig till dynamiska grafer med begränsad prestandaförlust.
129

Unga vuxnas attityder gentemot Instagrams algoritm och funktioner / Young adults’ attitudes toward Instagram’s algorithm and features

Rodén, Alicia, Eneqvist, Clara January 2023 (has links)
A well digitalized world has contributed, in many ways, to a simpler and more communicative everyday life among people, both privately and through work. However, this societal structure of constantly being connected and active on social media has not only had a positive impact on people and their everyday lives. As the cues for appointments within healthcare, hospitals and psychiatric wards are increasing and the number of mental illnesses drastically increases, many studies have investigated the connection between social media and mental illness. Based on previous knowledge, the purpose of this study is to investigate how users' attitudes towards Instagram's algorithms and functions relate to the use of the application, and if there’re technical measures that could promote the users' experience on the platform and work to counteract the beauty obsession on social media, mainly in this study, Instagram. There is a clear pattern around social media and self-achievement, where the individual strives to gain interactions and affirmation on these various platforms. There is also a technical aspect where the apps' algorithm triggers a dependency on the users to continue scrolling as well as notifications that ring, which also makes it more difficult to completely disconnect from the application. In order to carry out the study and answer the question, a quantitative survey and qualitative interviews were conducted with influencers active in the social media industry, as well as the study's target group: young adults. The result of the study shows that the attitude the users have created towards the platform Instagram is that it comes with feelings of self-criticism and body dissatisfaction to a certain extent. There is also a pronounced dependence on the application, which further creates a feeling of inadequacy in the users. / Den globala digitaliseringen, som skett och sker dagligen världen över, har på många sätt bidragit till en enklare och mer kommunikativ vardag för människor. Att konstant vara uppkopplad och aktiv på sociala medier har dock inte endast för med sig positiva effekter. I takt med att köerna till vården blir längre och att den psykiska ohälsan drastiskt ökar, har flera studier undersökt sambandet mellan sociala medier och psykisk ohälsa. Med förankring i tidigare vetskap är denna studies syfte att undersöka unga svenska kvinnors attityder gentemot Instagrams algoritmer och funktioner samt hur det påverkar den upplevda skönhetshetsen. Även ifall det finns tekniska åtgärder som skulle kunna främja användarnas upplevelse på plattformen och arbeta för att motverka kroppshetsen på Instagram. Det finns ett tydligt samband mellan sociala medier och självpresentation, där den enskilda individen strävar efter att få interaktioner och bekräftelse på dessa olika plattformar. Det finns även en teknisk aspekt där Instagrams algoritmer och utformning framkallar ett beroende hos användarna till att fortsätta scrolla, samt notifikationer som är riktade mot den specifika användaren, vilket gör det svårt att helt koppla bort sig från applikationen. För att genomföra studien och besvara frågeställningen har en kvantitativ enkätundersökning och kvalitativa intervjuer genomförts med kreatörer som är verksamma i sociala medier-branschen, samt studiens målgrupp, unga kvinnor. Resultatet av studien visar att attityden användarna utvecklat gentemot plattformen Instagram är att den i viss utsträckning för med sig känslor av självkritik och kroppsmissnöje. Det finns även ett uttalat beroende av applikationen som framkallar en känsla av otillräcklighet hos användarna.
130

A comparative analysis of database sanitization techniques for privacy-preserving association rule mining / En jämförande analys av tekniker för databasanonymisering inom sekretessbevarande associationsregelutvinning

Mårtensson, Charlie January 2023 (has links)
Association rule hiding (ARH) is the process of modifying a transaction database to prevent sensitive patterns (association rules) from discovery by data miners. An optimal ARH technique successfully hides all sensitive patterns while leaving all nonsensitive patterns public. However, in practice, many ARH algorithms cause some undesirable side effects, such as failing to hide sensitive rules or mistakenly hiding nonsensitive ones. Evaluating the utility of ARH algorithms therefore involves measuring the side effects they cause. There are a wide array of ARH techniques in use, with evolutionary algorithms in particular gaining popularity in recent years. However, previous research in the area has focused on incremental improvement of existing algorithms. No work was found that compares the performance of ARH algorithms without the incentive of promoting a newly suggested algorithm as superior. To fill this research gap, this project compares three ARH algorithms developed between 2019 and 2022—ABC4ARH, VIDPSO, and SA-MDP— using identical and unbiased parameters. The algorithms were run on three real databases and three synthetic ones of various sizes, in each case given four different sets of sensitive rules to hide. Their performance was measured in terms of side effects, runtime, and scalability (i.e., performance on increasing database size). It was found that the performance of the algorithms varied considerably depending on the characteristics of the input data, with no algorithm consistently outperforming others at the task of mitigating side effects. VIDPSO was the most efficient in terms of runtime, while ABC4ARH maintained the most robust performance as the database size increased. However, results matching the quality of those in the papers originally describing each algorithm could not be reproduced, showing a clear need for validating the reproducibility of research before the results can be trusted. / ”Association rule hiding”, ungefär ”döljande av associationsregler” – hädanefter ARH – är en process som går ut på att modifiera en transaktionsdatabas för att förhindra att känsliga mönster (så kallade associationsregler) upptäcks genom datautvinning. En optimal ARH-teknik döljer framgångsrikt alla känsliga mönster medan alla ickekänsliga mönster förblir öppet tillgängliga. I praktiken är det dock vanligt att ARH-algoritmer orsakar oönskade sidoeffekter. Exempelvis kan de misslyckas med att dölja vissa känsliga regler eller dölja ickekänsliga regler av misstag. Evalueringen av ARH-algoritmers användbarhet inbegriper därför mätning av dessa sidoeffekter. Bland det stora urvalet ARH-tekniker har i synnerhet evolutionära algoritmer ökat i popularitet under senare år. Tidigare forskning inom området har dock fokuserat på inkrementell förbättring av existerande algoritmer. Ingen forskning hittades som jämförde ARH-algoritmer utan det underliggande incitamentet att framhäva överlägsenheten hos en nyutvecklad algoritm. Detta projekt ämnar fylla denna lucka i forskningen genom en jämförelse av tre ARH-algoritmer som tagits fram mellan 2019 och 2022 – ABC4ARH, VIDPSO och SA-MDP – med hjälp av identiska och oberoende parametrar. Algoritmerna kördes på sex databaser – tre hämtade från verkligheten, tre syntetiska av varierande storlek – och fick i samtliga fall fyra olika uppsättningar känsliga regler att dölja. Prestandan mättes enligt sidoeffekter, exekveringstid samt skalbarhet (dvs. prestation när databasens storlek ökar). Algoritmernas prestation varierade avsevärt beroende på indatans egenskaper. Ingen algoritm var konsekvent överlägsen de andra när det gällde att minimera sidoeffekter. VIDPSO var tidsmässigt mest effektiv, medan ABC4ARH var mest robust vid hanteringen av växande indata. Resultat i nivå med de som uppmättes i forskningsrapporterna som ursprungligen presenterat varje algoritm kunde inte reproduceras, vilket tyder på ett behov av att validera reproducerbarheten hos forskning innan dess resultat kan anses tillförlitliga.

Page generated in 0.0605 seconds