• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 497
  • 202
  • Tagged with
  • 699
  • 699
  • 431
  • 425
  • 292
  • 193
  • 168
  • 161
  • 148
  • 135
  • 134
  • 121
  • 114
  • 113
  • 105
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Fuskande fiende eller hjälpande hand? : En studie om gymnasieelevers attityder till användningen av ChatGPT i skolan / Fraudulent Foe or Helping Hand? : A Study on Secondary School Students' Attitudes Towards the Use of ChatGPT in School

Peltokangas, Sara, Wilzén, Karl January 2023 (has links)
Syftet med denna studie är att undersöka gymnasieelevers attityder till användningen av ChatGPT i skolan utifrån följande frågeställningar: - Hur stor andel av de tillfrågade gymnasieeleverna känner till ChatGPT och hur vanligt är det att de använder chattboten i skolarbeten? - Hur använder eleverna ChatGPT i skolarbetet? - Vilka är elevernas attityder till användningen av ChatGPT i skolan? - Vilken inställning har gymnasieelever till användning av ChatGPT i uppgifter som bedöms? Data har samlats in genom en så kallad "mixed-method-design" bestående av en online-enkät och semistrukturerade intervjuer. Som grund för analysarbetet har ett fenomenologiskt perspektiv tillämpats. Resultatet visar på stora olikheter vad beträffar elevers kunskaper om och användning av ChatGPT. Några elever var väl bekanta med teknologin och använde den ofta, medan andra elever hade ytterst liten kännedom om den. Överlag var majoriteten av eleverna positiva till användning av ChatGPT i undervisningen, så länge som det sker på ett sätt som är förenligt med lärande och rättvis bedömning. Däremot menade flera elever att ChatGPT inte bör användas för att skriva hela texter eller i ämnen som svenska där språket bedöms. Det framkom även att elever hade skilda uppfattningar om vad fusk innebär och huruvida det är acceptabelt att ägna sig åt fusk. Under samtalen framkom en distinktion mellan fusk och orättvisa och några elever menade att ChatGPT kan främja likvärdighet och motverka orättvisa.
192

Framtidens copywriter är AI - eller? : En experimentell studie som undersöker relationen mellan generativ artificiell intelligens och copywritingkompetensen inom kommunikatörsprofessionen / The copywriter of the future is AI - or is it? : An experimental study investigating the relationship between generative artificial intelligence and copywriting skills in the communication profession

Andersson, Amelia, Engström, Åsa January 2024 (has links)
The purpose of the study was to examine whether it was possible to discern any effect on the perception of the content of a copytext in terms of credibility and conviction, depending on whether the writer was ChatGPT or a human copywriter, and whether it was possible to discern any effect on the perception of the writer in terms of creativity and professionalism. To achieve the purpose of the study, the following questions were formulated: 1. How credible is an AI-generated text perceived compared to a text written by a human copywriter? 2. How convincing is an AI-generated text compared to a text written by a human copywriter? 3. How credible is ChatGPT compared to a human copywriter? 4. Is there a connection between the attitude towards AI and the perception of the content? The theoretical framework of the study consisted of theory and previous research regarding generative artificial intelligence (GAI), recommendations for writing a prompt, attitudes towards AI, the copywriting competence and recommendations for writing an effective copytext. The theoretical concepts of credibility and persuasion are two central concepts of the study that have been operationalised into competencies and recommended content as well as unique selling proposition (USP), call to action (CTA), rhetoric and storytelling. The results show that those who read the AI-generated copy text had a more positive perception of the content and the writer than those who read the human-written copy text. However, the results show that the creativity of the writer was perceived equally by both experimental groups. Overall, there were no statistically significant relationships between the perception of the content and the attitude towards AI. Based on the significance of the results and their mean values, the study's conclusions are that the text written by ChatGPT is perceived to be more credible in terms of competence and recommended content than the text written by the human copywriter and that the text written by ChatGPT is perceived to be more convincing in terms of USP, CTA, rhetoric and storytelling than the text written by the human copywriter. We can also conclude that ChatGPT is perceived to be more credible in terms of competence operationalised to professionalism, than the text written by the human copywriter, which, however, could be due to chance as the result was not statistically significant. The result of the study shows that ChatGPT threatens copywriting skills. However, it is not the AI tool itself that threaten the professional role, as it currently still requires human involvement. Instead, it is the competence in prompt engineering that threatens the profession, as this knowledge, according to the study, is crucial for achieving a credible and convincing AI-generated copytext. / Syftet med studien var att undersöka om det gick att urskilja någon effekt på upplevelsen av innehållet i en copytext i form av trovärdighet och övertygelse, beroende på om skribenten var ChatGPT eller en mänsklig copywriter, samt om det gick att urskilja någon effekt på upplevelsen av skribenten i form av kreativitet och professionalitet. För att uppnå studiens syfte formulerades följande frågeställningar: 1. Hur trovärdig upplevs en AI-genererad text jämfört med en text skriven av en mänsklig copywriter? 2. Hur övertygande upplevs en AI-genererad text jämfört med en text skriven av en mänsklig copywriter? 3. Hur trovärdig upplevs ChatGPT jämfört med en mänsklig copywriter? 4. Finns det ett samband mellan attityden till AI och upplevelsen av innehållet? Studiens teoretiska ramverk bestod av teori och tidigare forskning gällande generativ artificiell intelligens (GAI), rekommendationer för att skriva en prompt, attityder till AI, copywritingkompetensen och rekommendationer för att skriva en effektiv copytext. De teoretiska begreppen trovärdighet och övertygelse är två centrala begrepp för studien som har operationaliserats till kompetens och rekommenderat innehåll samt unique selling proposition (USP), call to action (CTA), retorik och historieberättande. Resultaten visar att de som fick läsa den AI-genererade copytexten hade en mer positiv upplevelse av innehållet och skribenten än de som fick läsa den mänskligt skrivna copytexten. Resultaten visar däremot att kreativiteten hos skribenten upplevdes lika hög av de båda experimentgrupperna. Det fanns överlag inga statistiskt signifikanta samband mellan upplevelsen av innehållet och attityden till AI. Utifrån resultatens signifikans och dess medelvärden landar studiens slutsatser i att texten skriven av ChatGPT upplevs vara mer trovärdig i form av kompetens och rekommenderat innehåll, än texten skriven av den mänskliga copywritern och att texten skriven av ChatGPT upplevs vara mer övertygande i form av USP, CTA, retorik samt historieberättande, än texten skriven av den mänskliga copywritern. Vi kan även konstatera att ChatGPT upplevs vara mer trovärdig i form av kompetens som operationaliserats till professionalitet, än texten skriven av den mänskliga copywritern, vilket däremot skulle kunna bero på slumpen då resultatet inte var statistiskt signifikant. Sammanfattningsvis kan vi utifrån studiens resultat dra slutsatsen att ChatGPT hotar copywritingkompetensen. Däremot är det inte AI-verktyget i sig som hotar yrkesrollen, då det i nuläget fortfarande kräver mänsklig involvering. Det är i stället kompetensen inom prompt engineering som hotar yrkesrollen, då denna kunskap enligt studien är avgörande för att åstadkomma en trovärdig och övertygande AI-genererad copytext.
193

Effekten av AI på den digitala personaliserade marknadsföringen: möjligheter och utmaningar : En kvalitativ studie kring hur AI påverkar den digitala personaliserade marknadsföringen ur ett företagsperspektiv. / The Impact of AI on Digital Personalized Marketing: Opportunities and Challenges. : A qualitative study on how AI affects digital personalized marketing from a business perspective.

Lindström, Sophie, Blomqvist, Julia, Köhl, Julia January 2024 (has links)
SAMMANFATTNING  Datum: 2024-01-11  Nivå: Kandidatuppsats i Företagsekonomi, 15 hp   Institution: Akademin för Ekonomi, Samhälle och Teknik, Mälardalens Universitet   Författare: Julia Blomqvist                 Julia Köhl                           Sophie Lindström                            02/04/16                         97/07/16                                  00/06/10  Titel: Effekten av AI på den digitala personaliserade marknadsföringen: möjligheter och utmaningar. - En studie kring hur AI påverkar den digitala personaliserade marknadsföringen ur ett företagsperspektiv.  Handledare: Pejvak Oghazi Nyckelord: Digital marknadsföring, Personaliserad marknadsföring, CRM, Köpprocess, Artificiell intelligens Forskningsfrågor: Vilka är de främsta möjligheterna som kan identifieras vid implementeringen av AI-baserad personaliserad marknadsföring för att förbättra kundengagemang? Vilka utmaningar kan företag stöta på när de implementerar AI-baserad personaliserad marknadsföring för att förhöja kundengagemanget? På vilket sätt kan marknadsförare effektivt bemöta och hantera de specifika utmaningar som uppstår vid användandet av AI för personaliserad marknadsföring? Syfte: Studien ämnar identifiera och adressera eventuella möjligheter, utmaningar och risker associerade med implementeringen av AI-baserad marknadsföring, samt utforska effektiva metoder för att hantera utmaningarna. Syftet med denna studie är att undersöka tillämpningen av AI-baserad personaliserad marknadsföring. Metod: I studien användes en kvalitativ metod där det genomfördes semistrukturerade intervjuer med nio marknadsföringsexperter. Därefter applicerades en tematisk analys för att systematiskt organisera datan, vilket möjliggjorde identifiering av olika koder och teman. Slutsats: AI-baserad personaliserad marknadsföring öppnar dörrar för skräddarsydda kundupplevelser, men det medför även utmaningar kring över-personalisering. Studiens resultat visar på utmaningar gällande etiska aspekter som cybersäkerhet och integritetsproblem. Ytterligare visar studien att det finns en avsaknad av ett komplett ramverk för AI vilket skapar svårigheter kring implementeringen. Marknadsförare behöver balansera teknisk expertis med etisk medvetenhet och lagliga bestämmelser för att hantera dessa utmaningar effektivt. Vidare visar studien på möjligheter gällande effektivitet, automatisering, ekonomiska aspekter och ökad kreativitet.
194

Att använda AI för att detektera bröstcancer : En explorativ studie kring användning av bildanalys inom svensk sjukvård / Using AI to detect breast cancer : An explorative study on the usage of image analysis in Swedish healthcare

Klingberg, Hanna, Olofsson, Filippa January 2021 (has links)
Breast cancer is the most common form of cancer for women around the world. In an attempt to decrease the mortality, women in Sweden between the ages of 40-74 years are called to regular mammography screenings to detect the disease as early as possible. Despite this, around 1400 die from the disease every year in Sweden. Every mammography image has to be analyzed by two radiologists. Despite this and regular screening, there are cases that go unnoticed. The factors that lessen the effectiveness of the system are that some cases go unnoticed and analyzing the mammography images is time consuming. This paper has investigated whether AI can be used to help solve these issues. Earlier research examines both of these aspects. Algorithms performing at approximately the same level of accuracy as radiologists and lessening the workload for examining radiologists has been developed [1]. This paper examined how to develop a similar simplified algorithm, how it can be implemented in healthcare and what the consequences of that would be. Hopefully, usage of similar technology will lead to a decrease in mortality and more accurate assessments. The study was conducted by interviewing two experts within the subject, and an attempt to develop an algorithm that through image analysis can classify tumours from mammography images.  The result shows that there is a big potential for using AI within healthcare, and by that enabling more accurate diagnosis and reducing mortality. During development of the algorithm a deeper understanding of the difficulties was given, such as the need for adequate processing power, processing and organization of image databases and the complexity in developing such a ML-algorithm for image analysis. The developed algorithm performed slightly better than random when detecting breast cancer on mammography images. / Bröstcancer är den vanligaste cancern bland kvinnor i världen. För att minska dödligheten kallas kvinnor i Sverige mellan 40-74 år regelbundet till mammografiscreening, i syfte att upptäcka tumörer i tid. Trots detta avlider ca. 1400 av sjukdomen varje år. Varje mammografibild granskas av två läkare. Trots detta och regelbunden screening finns det fall som missas. De faktorer som gör att systemet inte fungerar optimalt idag är att viss cancer inte upptäcks i tid samt att analysering av mammografibilderna är tidskrävande. Det här arbetet har undersökt huruvida användning av AI kan bidra till att lösa dessa problem. I tidigare forskning undersöks även båda dessa aspekter. Det har utvecklats AI-algoritmer som presterar ungefär i nivå med radiologer samt minskar arbetsbördan för undersökande radiologer [1]. I detta arbete undersöktes hur utvecklandet av en liknande algoritm går till, hur den faktiskt kan implementeras i sjukvården samt vilka konsekvenser detta kan ha. Förhoppningsvis kan tillämpning av liknande teknik leda till minskad dödlighet och säkrare bedömning. Studien genomfördes med intervjuer av två experter inom området, samt försök att utveckla en förenklad algoritm som genom bildanalys kan klassificera tumörer från mammografibilder. Resultatet visade att det finns stor potential för att använda AI inom sjukvården och med hjälp av detta uppnå säkrare bedömning och färre dödsfall. Under utvecklingen av algoritmen gavs en djupare förståelse för de svårigheter som uppkommer i utvecklandet av en sådan algoritm; såsom de krav på tillgänglig processorkraft, behandling och organisering av bilddatabaser och komplexiteten i att utveckla en maskininlärningsalgoritm för bildanalys. Algoritmen som utvecklades presterade något bättre än slumpen i detektion av tumörer på mammografier.
195

Rätten till ditt eget ansikte? : En rättsutredning av fenomenet deepfakes

Westberg, Frida January 2021 (has links)
This thesis aims to investigate the phenomenon of deepfakes and the right to one’s own face. The phenomenon is only a couple of years old when this essay is written. A deepfake is an AI-generated video that often depicts a natural person. A deepfake can have different purposes and violate a person’s privacy at various degrees. As the technology for generating deepfakes becomes more common, the pros and cons become increasingly clear.    In order to create an understanding of what the right to privacy really means, the essay will account for the personality law. Personality law is a broad concept that encompasses physical and personal privacy as well as other rights linked to the person, such as copyright. In personality law, there is scope for different perspectives and theories about the right to privacy. The perspectives that this essay will highlight are the right to be left alone, a moral ownership of the self, the right to classified information, control over one’s own data and intimacy.    An analysis of the right to privacy guaranteed by Article 8 ECHR will then take place. It is followed by a review of Swedish law in order to answer the question of which legal figures a deepfake can update. In Swedish law there is no general provision guaranteeing the right to privacy between individuals. Instead, the Swedish legislator has chosen to regulate special situations in order to guarantee the right and not to restrict freedom of expression in an unjustified way. Copyright is central to the petition and is followed by a review of the Law on Name and Image in Advertising, the Marketing Act, the Trademark Act and the Criminal Code. It can be concluded that Swedish law is not comprehensive. The legislation is something of a patchwork. The nature of the deepfake determines which law becomes applicable, if any. The question is whether it is compatible with Article 8 ECHR. The European Court of Human Rights has ruled that the protection of privacy is extensive and, in any case, guarantees individuals the right not to have their image published unless there is a public interest. Swedish law cannot be said with certainty to guarantee the right to privacy in regard to the relation between individuals.
196

Ethical Risk Analysis of the Use of AI in Music Production

Reje, Alexandra January 2022 (has links)
With the growing use of AI within new fields, the ethical problems that arise with AI have become a more prominent topic. Multiple ethical guidelines and frameworks have been proposed to aid companies and researchers to develop ethical products, but it is still lacking in execution. This project is a study into the ethical risks that are prevalent when AI is used for music production tools. The study was done by interviewing five different start-up companies about aspects of their company policies and products from an ethics point of view. The interviews were analysed, and six areas of interest were found. A final risk analysis was then done based on an existing ethical guideline, the Ethics Guidelines for Trustworthy AI by AI HLEG. Multiple risk areas were discovered, the largest ones being in connection to Diversity, Bias, Explainability, and Privacy. Another discovery was that multiple companies do not currently have an ethical framework, but that it was something that they were positive about implementing in the future. / Med den växande användningen av AI inom nya områden har de etiska problem som uppstår med AI blivit ett stort diskussionsämne. Flera förslag på riktlinjer som företag och forskare kan använda för att utveckla etiska produkter har lagts fram, men de är sällan implementerade. Detta projekt är en studie av de etiska risker som förekommer vid användningen av AI för musikproduktionsverktyg. Studien gjordes genom att intervjua fem olika startups om deras företagspolicys och produkter utifrån en etisk synvinkel. Intervjuerna analyserades och sex intresseområden hittades. En slutgiltig riskanalys gjordes sedan utifrån en befintlig etisk riktlinje, Ethics Guidelines for Trustworthy AI av AI HLEG. Flera riskområden relaterade till Diversity, Bias, Explainability och Privacy upptäcktes. Ytterligare en upptäckt var att flera företag för närvarande inte använder ett etiskt ramverk, men att de var positiva till att implementera ett i framtiden.
197

AI som medskapare : En designvetenskaplig och visuell etnografisk studie

Backlund, Yrla January 2023 (has links)
Denna studie undersöker vad som kan bedömas som positiva och negativa aspekter med användningen av AI i skapandet av ett audiovisuellt verk. Den undersöker specifikt hur AI kan vara till hjälp för en medieproduktionsstudent utan tidigare erfarenhet av AI. Syftet är att bidra med nya metoder inom skapandet av digital konst och att tillföra ny kunskap till området. Produktionen utfördes av författaren själv med stöd från utvalda AI-tjänster. I studien behandlas tidigare forskning som diskuterar fenomenet uncanny valley, programmeringens roll inom konstskapande samt etiska aspekter i användningen av AI. Två kvalitativa forskningsmetoder tillämpades: designvetenskap och visuell etnografi. Resultaten visar att användningen av AI kan bedömas positivt när det kommer till stöd i den kreativa processen, men mindre gynnsam när det kommer till direkt kreativt skapande genom AI, vilket indikerar potential för fortsatt utveckling. Studien föreslår framtida forskning inom området, med fler deltagare och en mer strukturerad metodik.
198

MCTS, Minimax och brädspelet Fyra i rad : Jämförelseanalys i prestation av algoritmerna Monte Carlo Tree Search & Minimax

Ågren, Sofia January 2022 (has links)
Monte Carlo tree search (MCTS) och Minimax är två sökalgoritmer som används inom artificiell intelligens och två-spelar-spel. I denna studie implementeras Minimax och MCTS som två AI-agenter för brädspelet Fyra i rad. Studien innehåller olika experiment i form av spelturneringar för att jämföra algoritmernas prestation. Algoritmerna beror på olika parametrar; Minimax har ett sökdjup och MCTS har en betänketid. Dessa parametrar undersöktes och ändrades för de olika turneringarna. Spelbräde utökades succesivt för att jämföra algoritmerna under olika förhållanden. Resultatet av studien visar att MCTS presterar bättre och vinner flest matcher på stora spelbräden och Minimax presterar bäst och vinner flest matcher på små spelbräden. Denna studie är ett bidrag till att få ytterligare förståelse för hur algoritmerna presterar och möjlighet till att utveckla de till mer avancerade och optimala algoritmer.
199

Artificiell intelligens i projektledning : Projektledares inställning till AI:s potentiella applikationsområde / Artificial intelligence in project management : Project managers' stance on AI's potential application area

Dahllöf, Oskar January 2022 (has links)
Artificiell intelligens(AI) är en bred term som består av flera delområden av datorer och system. Dessa datorer och system skapar algoritmer för att utföra uppgifter som annars kräver någon form av mänskligt intellekt och tänkande. Sedan AI:s tillkomst har teknik inom AI ökat i användning och tillämpning, exempelvis genom att automatisera repetitiva uppgifter. Syftet med denna studie är att undersöka IT-projektledares inställning och tankar om artificiell intelligens i projektarbetet för att vidare undersöka om projektledning är ett passande applikationsområde för AI. För att uppnå studiens syfte har kvalitativa, semistrukturerade intervjuer genomförts för att samla empiri gällande projektledarens arbetssätt och inställning kring AI. Denna empiri har analyserats gentemot samlad teori i en tematisk analys. Resultatet från den tematiska analysen tyder på att AI kan appliceras för att stötta projektledararbetet genom att automatisera det administrativa arbetet. Av det administrativa arbetet är det främst projektuppföljning och estimeringar som ska automatiseras för att stötta projektledare, då dessa är tidskrävande uppgifter. AI kan även appliceras för att underlätta beslutsfattandeprocessen för projektledare, genom att generera data från tidigare projekt. Resultatet visar även att projektledare ställer sig positivt till artificiell intelligens i relation till deras arbete. Projektledare anser dock att mänskliga aspekter är en viktig del av projektledning, och att projektledarrollen därmed inte bör bytas ut mot AI. Alternativt föredrar projektledare ett samarbete mellan maskin och människa där ledningen och den mänskliga kontakten uteslutande sköts av projektledaren, medan det administrativa arbetet utförs av en AI.
200

Auditing the Moral Bounds of Al Systems : An Implementation of the Glass-box's Observation Stage / Revision av de moraliska gränserna för Al-system : En implementering av Glass-boxens observationsstadium

Byrd Victorica, Mauricio January 2022 (has links)
Automated and assisted decision-making has become prevalent across a myriad of domains, often including sensitive and critical tasks where guarantees regarding the operation of artificially intelligent systems from an ethical standpoint become essential. Different parties have made efforts to develop guidelines to establish general ethical requirements these systems should comply with. The translation from moral values to norms and then into precise system requirements is not trivial. The Glass-box framework is an approach meant to address the challenge of auditing autonomous systems' adherence to ethical values. It offers a two-stage process: an interpretation stage, where translation from ethical values into system requirements is performed; and an observation stage, where the adherence of an autonomous system to the desired values is tested using the system's inputs and outputs. The Glass-box approach allows for great flexibility in implementation, and its disregard for the inner mechanisms of the observed systems enable its application over a wide range of contexts, however its concrete practical implementation can be challenging. Prior work has addressed the formalisation of the Glass-box; covering the logical implementation of the reasoning involved in both the interpretation and observation stages. Yet, implementing the testing mechanisms required to translate input-output pairs into logical statements within the observation stage, remains an uncharted territory.  This thesis presents an implementation of the Glass-box's observation stage, considering also its further extension to not only audit the system under observation, but also to intervene it when adherence to the relevant moral bounds is not achieved. By making use of Bayesian generalized linear models, propositional logic, and formal argumentation, an implementation capable of handling a relevant class of scenarios in the audit of autonomous systems is presented; showcasing the generality-granularity trade-offs, the challenges of translating input-output pairs into logical statements, and the extension of the Glass-box approach to handle intervention via human-on-the­loop approaches. The implementation is validated through the case study of auditing a binary classifier's adherence to the value of fairness in the context of predicting criminal recidivism. The necessary loss of generality of the Glass-box framework to allow for its practical implementation is discussed, and directions for future work are proposed. / Automatiserat och assisterat beslutsfattande är numera vanligt förekommande inom en mängd olika områden, ofta i samband med känsliga och kritiska uppgifter där etiska garantier för hur artificiellt intelligenta system fungerar är av yttersta vikt. Olika parter har ansträngt sig för att utveckla riktlinjer, principer och lagstiftning, för att fastställa generella etiska krav som dessa system ska uppfylla. Att översätta moraliska värderingar till normer och sedan till exakta systemkrav ar inte trivialt. Ramverket Glass-box ar ett tillvägagångssätt som är avsett att bemöta den utmanande uppgiften att granska autonoma systems efterlevnad av etiska värderingar. Det erbjuder en tvåstegsprocess: tolkning, där översättning från etiska värderingar till systemkrav utförs, och observation, där ett autonomt systems efterlevnad av de önskade värdena testas med hjälp av systemets in- och utgångar. Glass­box-metoden tillåter stor flexibilitet rörande dess utförande och metodens oberoende av de observerade systemens inre mekanismer gör att den kan tillämpas i manga olika sammanhang, men att implementera den kan vara utmanande. Tidigare arbeten har behandlat formaliseringen av Glass-box­metoden, vilket omfattar det logiska genomförandet av de resonemang som ingår i både tolknings- och observationsfaserna. Genomförandet av de testmekanismer som krävs för att översatta input-output-par till logiska påståenden i observationsfasen har dock förblivit ett outforskat område.  I denna avhandling presenteras en implementation av Glass-boxens observationsstadium, som även innefattar dess ytterligare utvidgning för att utöver granskning av det observerade systemet också möjliggöra ingripande när systemet inte håller sig inom de relevanta moraliska gränserna. Genom att använda Bayesianska generaliserade linjära modeller, satslogik och formell argumentation presenteras en implementering som kan hantera en relevant klass av scenarier för granskning av autonoma system. Den exemplifierar nödvändiga avvägningar mellan generalitet och granularitet, utmaningarna med att översatta inmatnings- och utmatningspar till logiska påståenden och utvidgningen av Glass-box-metoden för att hantera ingripanden via mänskliga metoder i loopen. Implementationen valideras med hjälp av en fallstudie som granskar en binär klassificerares efterlevnad av rättvisevärden i samband med förutsägelser av återfall i brottslig verksamhet. Den nödvändiga reduktionen av generalitet i Glass-box-ramen för att möjliggöra ett praktiskt genomförande diskuteras, och riktlinjer för framtida arbete föreslås.

Page generated in 0.0888 seconds