461 |
Designprocessen och maskininlärning: Framtiden för användarcentrerad designGärdhammar, Lisa Marie Karin January 2024 (has links)
Artificiell intelligens (AI) och i synnerhet maskininlärning (ML) har inom UX-design visat potential att förbättra designprocessen genom att exempelvis identifiera användargrupper från stora datamängder, effektivisera idégenerering och automatisera repetitiva uppgifter. Det råder dock oenighet kring hur tekniken kan integreras i designprocessen. En viktig del av en designers arbete är att konsekvent prioritera användarbehov och därigenom förbättra användartillfredsställelsen. Därför försöker designers empatiskt sätta sig in i användarnas situation genom att identifiera deras behov och noggrant utforska potentiella problemområden. En visualiseringsteknik som ofta används av designers för att utveckla och förstå användarupplevelsen är journey mapping (JM). JM är dock en mycket resurskrävande process då den förutsätter nära samarbete mellan olika avdelningar och team. Trots detta visar forskning att de flesta designers inte integrerar element relaterade till insikter i sina kartor, vilka ofta är avgörande för att omvandla JM från visuell berättelse till handlingsplan. Integreringen av ML i JM-processen skulle potentiellt kunna möjliggöra en snabbare, mer datadriven och anpassningsbar designprocess som fokuserar mer på användarnas behov och önskemål. Utmaningen ligger i att smidigt integrera tekniken utan att förlora mänskliga perspektiv och tolkningar, vilka är grundläggande för användarcentrerad design. Denna studie fokuserar på att utforska sätt att integrera ML i delar av designprocessen för att möta utmaningarna som uppstår vid strävan efter användarcentrerad design i en resurskrävande miljö. För att uppnå en djupgående och strukturerad förståelse av samspelet mellan designprocessen, empatiskapande samt ML valdes en systematisk litteraturgranskning som den primära datainsamlingsmetoden samt tematisk analys som dataanalysmetod för denna studie. Målet är att utifrån detta resultat presentera praktiska rekommendationer, baserat på sammanställning av befintlig forskning, för hur JM-processen kan omformas och göras mer ML-driven. Genom en omfattande litteratursökning inhämtades data, vilken genomgick kvalitetsbedömning. Därefter genomfördes en inkludering- och exkluderingsprocess i enlighet med förutbestämda kriterier. Detta resulterade i 13 utvalda dokument, från vilka mönster och teman extraherades genom en tematisk analys. Resultatet visade på vikten av samskapande mellan människa och maskin för att möjliggöra en ansvarsfull designprocess. I resultaten presenteras även tekniska möjligheter och dilemman, där ML exempelvis kan automatisera repetitiva uppgifter och möjliggöra kontinuerlig övervakning och utvärdering av användarupplevelsen över tid. Dock kräver detta omfattande och representativa träningsdataset för att konstruera ML-modeller med hög generaliseringsförmåga gentemot nya och komplexa data. Resultaten belyser också bristen på förståelse för ML bland UX-designers och betonar vikten av samarbete med datavetare för att skapa en effektiv designprocess. Utifrån dessa resultat presenteras rekommendationer för en ML-driven JM-process. Även om UX-rollen troligtvis behöver omdefinieras, framhåller resultaten att kulturen inom UX-designprocessen snarare är "dataaktiverad" än helt datadriven. Detta perspektiv understryker det fortsatta behovet av mänsklig intuition och förståelse trots den ökade inriktningen på datadrivna metoder. Slutligen diskuteras hur framtida forskning skulle kunna inrikta sig på att utvärdera rekommendationernas praktiska tillämpbarhet. / Artificial Intelligence (AI), particularly Machine Learning (ML), has demonstrated potential within UX design to enhance the design process by identifying user groups from extensive datasets, streamlining idea generation, and automating repetitive tasks. However, there is ongoing debate about the integration of this technology in the design process. A crucial aspect of a designer's work is consistently prioritizing user needs to enhance user satisfaction. Designers strive to empathetically understand user situations by identifying their needs and meticulously exploring potential problem areas. One commonly used visualization technique employed by designers to develop and understand user experiences is Journey Mapping (JM). However, JM is a resource-intensive process, requiring close collaboration across different departments and teams for extensive data collection. Despite this, research indicates that most designers do not integrate elements related to insights into their maps, crucial for transforming JM from a visual narrative to an actionable plan. Integrating ML into the JM process could potentially enable a faster, more data-driven, and adaptable design process, effectively focusing on user needs and desires. The challenge lies in seamlessly integrating the technology without losing the human perspectives and interpretations fundamental to user-centered design. This study focuses on exploring ways to integrate ML into parts of the design process to address challenges in pursuing user-centered design in a resource-intensive environment. A systematic literature review was chosen as the primary data collection method, with thematic analysis employed as the data analysis method. The aim was to present practical recommendations based on a compilation of existing research on the design process, making the JM process more MLdriven. Through an extensive literature search, data was gathered and subjected to quality assessment. Subsequently, an inclusion and exclusion process were conducted according to predetermined criteria, resulting in 13 selected documents. Patterns and themes were extracted through thematic analysis. The results emphasize the importance of co-creation between humans and machines to enable a responsible design process. Technical possibilities and dilemmas are also presented, highlighting ML's ability to automate repetitive tasks and facilitate continuous monitoring and evaluation of user experience over time. However, this requires comprehensive and representative training datasets to construct ML models with high generalization ability to new and complex data. The results also underscore the lack of ML understanding among UX designers and emphasize the importance of collaboration with data scientists for an efficient design process. Recommendations for an ML-driven JM process are presented based on these findings. While the UX role may need redefinition, the results emphasize a "data-activated" culture within the UX design process rather than being entirely data-driven. This perspective underscores the ongoing need for human intuition and understanding despite the increased focus on data-driven methods. Finally, the discussion explores how future research could evaluate the practical applicability of the recommendations.
|
462 |
Designers Krav på Midjourney : En Studie om Integrationen av Bildgenererande AI i Grafiska Formgivares Arbetsprocess / Designers Requirements for Midjourney : A Study about the Integration of Image-Generating AI in Graphic Designers Work ProcessBruhn, Lukas, Algelin, Max January 2024 (has links)
Text-to-image generation is one of the most significant technological advancements in artificial intelligence (AI) during recent years, with the software Midjourney being amongst the most popular tools for this purpose. There is however some uncertainty about how tools like Midjourney will impact and integrate with creative professions, such as graphic design. To successfully integrate graphic designers with image-generating software, it is necessary for the tools to be designed according to the needs of their design process. This study, therefore, examines the requirements graphic designers have for Midjourney to be integrated into the idea generation phase of their design process. Requirements were gathered through interviews, which were then prioritized through surveys. A comprehensive list of requirements was formulated based on these findings. An analysis of the results was also conducted to analyze the prioritization of each individual requirement. The results highlight areas of improvement in Midjourney, with a focus on control and usability. The discussion explores factors that could have influenced the validity of the results, along with a reflection on the study's implementation. Finally, the conclusion of the study outlines the key improvements needed for Midjourney according to the results and suggests directions for future research within the research area.
|
463 |
Counterfactual and Causal Analysis for AI-based Modulation and Coding Scheme Selection / Kontrafaktisk och orsaksanalys för AI-baserad modulerings- och kodningsvalHao, Kun January 2023 (has links)
Artificial Intelligence (AI) has emerged as a transformative force in wireless communications, driving innovation to address the complex challenges faced by communication systems. In this context, the optimization of limited radio resources plays a crucial role, and one important aspect is the Modulation and Coding Scheme (MCS) selection. AI solutions for MCS selection have been predominantly characterized as black-box models, which suffer from limited explainability and consequently hinder trust in these algorithms. Moreover, the majority of existing research primarily emphasizes enhancing explainability without concurrently improving the model’s performance which makes performance and explainability a trade-off. This work aims to address these issues by employing eXplainable AI (XAI), particularly counterfactual and causal analysis, to increase the explainability and trustworthiness of black-box models. We propose CounterFactual Retrain (CF-Retrain), the first method that utilizes counterfactual explanations to improve model performance and make the process of performance enhancement more explainable. Additionally, we conduct a causal analysis and compare the results with those obtained from an analysis based on the SHapley Additive exPlanations (SHAP) value feature importance. This comparison leads to the proposal of novel hypotheses and insights for model optimization in future research. Our results show that employing CF-Retrain can reduce the Mean Absolute Error (MAE) of the black-box model by 4% while utilizing only 14% of the training data. Moreover, increasing the amount of training data yields even more pronounced improvements in MAE, providing a certain level of explainability. This performance enhancement is comparable to or even superior to using a more complex model. Furthermore, by introducing causal analysis to the mainstream SHAP value feature importance, we provide a novel hypothesis and explanation of feature importance based on causal analysis. This approach can serve as an evaluation criterion for assessing the model’s performance. / Artificiell intelligens (AI) har dykt upp som en transformativ kraft inom trådlös kommunikation, vilket driver innovation för att möta de komplexa utmaningar som kommunikationssystem står inför. I detta sammanhang spelar optimeringen av begränsade radioresurser en avgörande roll, och en viktig aspekt är valet av Modulation and Coding Scheme (MCS). AI-lösningar för val av modulering och kodningsschema har övervägande karaktäriserats som black-box-modeller, som lider av begränsad tolkningsbarhet och följaktligen hindrar förtroendet för dessa algoritmer. Dessutom betonar majoriteten av befintlig forskning i första hand att förbättra förklaringsbarheten utan att samtidigt förbättra modellens prestanda, vilket gör prestanda och tolkningsbarhet till en kompromiss. Detta arbete syftar till att ta itu med dessa problem genom att använda XAI, särskilt kontrafaktisk och kausal analys, för att öka tolkningsbarheten och pålitligheten hos svarta-box-modeller. Vi föreslår CF-Retrain, den första metoden som använder kontrafaktiska förklaringar för att förbättra modellens prestanda och göra processen med prestandaförbättring mer tolkningsbar. Dessutom gör vi en orsaksanalys och jämför resultaten med de som erhålls från en analys baserad på värdeegenskapens betydelse. Denna jämförelse leder till förslaget av nya hypoteser och insikter för modelloptimering i framtida forskning. Våra resultat visar att användning av CF-Retrain kan minska det genomsnittliga absoluta felet för black-box-modellen med 4% samtidigt som man använder endast 14% av träningsdata. Dessutom ger en ökning av mängden träningsdata ännu mer uttalade förbättringar av Mean Absolute Error (MAE), vilket ger en viss grad av tolkningsbarhet. Denna prestandaförbättring är jämförbar med eller till och med överlägsen att använda en mer komplex modell. Dessutom, genom att introducera kausal analys till de vanliga Shapley-tillsatsförklaringarna värdesätter egenskapens betydelse, ger vi en ny hypotes och tolkning av egenskapens betydelse baserad på kausalanalys. Detta tillvägagångssätt kan fungera som ett utvärderingskriterium för att bedöma modellens prestanda.
|
464 |
Optimization of the Cloud-Native Infrastructure using Artificial Intelligence / Optimering av den molnbaserade infrastrukturen med hjälp av artificiell intelligensSingh, Animesh January 2023 (has links)
To test Cloud RAN applications, such as the virtual distributed unit (vDU) and centralized virtual unit (vCU), a test environment is required, commonly known as a “test bed” or “test channel”. This test bed comprises various cloudnative infrastructures, including different hardware and software components. Each test bed possesses distinct capacities for testing various features, leading to varying costs. With the increasing number of cloud applications, additional test beds are necessary to ensure thorough testing before releasing these applications to the market. To optimize the creation process of a Cloud-native test bed, leveraging artificial intelligence and machine learning approaches can be beneficial. This thesis presents, applies, and evaluates an AI-based approach for optimizing the construction of Cloud-native test beds. The proposed solution’s feasibility is assessed through an empirical evaluation conducted in the Telecom domain at Ericsson AB in Sweden. / För att testa Cloud RAN-applikationer, såsom en virtuell distribuerad enhet (vDU) och en centraliserad virtuell enhet (vCU), kan en testmiljö behövas, som också kallas för ”testbädd” eller ”testkanal”. En testbädd inkluderar vanligtvis olika molnbaserade infrastrukturer såsom olika hårdvaru- och mjukvarukomponenter. Varje testbädd kan ha olika kapaciteter som används för att testa olika funktioner och därigenom ha olika kostnader. I takt med att antalet molnapplikationer ökar kan det krävas fler testbäddar för att testa molnapplikationernas funktioner innan de släpps på marknaden. Genom att använda olika artificiell intelligens och maskininlärningsmetoder kan vi optimera byggprocessen av en molnbaserad testbädd. I denna avhandling introducerar, tillämpar och utvärderar vi en AI-baserad metod för att optimera byggprocessen av molnbaserade testbäddar. Genomförbarheten av den föreslagna lösningen studeras genom en empirisk utvärdering som har utförts inom telekomområdet på Ericsson AB i Sverige.
|
465 |
Möjligheter och utmaningar med elevers användning av generativ AI i filosofi / Possibilities and Challenges with Pupils’ Use of Generative AI in PhilosophyFritzson, Fritz-Anton January 2024 (has links)
I detta arbete undersöks och analyseras några möjligheter och utmaningar med elevers användning av generativa AI-verktyg såsom ChatGPT ur filosofilärarens perspektiv med fokus på filosofiämnet i gymnasieskolan. Bland möjligheterna avhandlas individanpassning av undervisningen och bland utmaningarna källkritik och kritiskt tänkande och hur läraren säkrar tillförlitligheten vid examinationer i ljuset av fenomenet generativ AI. En kvalitativ undersökning har utförts bestående av intervjuer med ett litet antal gymnasielärare i filosofi kring hur de förhåller sig till elevers användning av AI-verktyg. Frågor om lärares förhållningssätt till elevers (faktiska eller potentiella) användning av generativ AI och vilka eventuella nya överväganden som AI-verktyg aktualiserar för läraren utreds och diskuteras samt hur filosofiläraren möter de nya utmaningar och realiserar de nya möjligheter som AI aktualiserar. Några goda och dåliga sätt på vilka elever kan använda AI inom filosofi identifieras och förutsättningar för en god elevanvändning analyseras. Filosofiämnet kan bidra till att stärka förutsättningarna för en god användning av AI genom att träna eleverna i förmågor som kritiskt tänkande, att formulera frågor och värdera information samt fördjupning av insikter om centrala begrepp som kunskap och sanning.
|
466 |
On the impact of geospatial features in real estate appraisal with interpretable algorithms / Om påverkan av geospatiala variabler i fastighetsvärdering med tolkbara algoritmerJäger, Simon January 2021 (has links)
Real estate appraisal is the means of defining the market value of land and property affixed to it. Many different features determine the market value of a property. For example, the distance to the nearest park or the travel time to the central business district may be significant when determining its market value. The use of machine learning in real estate appraisal requires algorithm accuracy and interpretability. Related research often defines these two properties as a trade-off and suggests that more complex algorithms may outperform intrinsically interpretable algorithms. This study tests these claims by examining the impact of geospatial features on interpretable algorithms in real estate appraisal. The experiments use property transactions from Oslo, Norway, and adds relative and global geospatial features for all properties using geocoding and spherical distance calculations. Such as the distance to the nearest park or the city center. The experiment implements three intrinsically interpretable algorithms; a linear regression algorithm, a decision tree algorithm, and a RuleFit algorithm. For comparison, it also implements two artificial neural network algorithms as a baseline. This study measures the impact of geospatial features using the algorithm performance by the coefficient of determination and the mean absolute error for the algorithm without and with geospatial features. Then, the individual impact of each geospatial feature is measured using four feature importance measures; mean decrease impurity, input variable importance, mean decrease accuracy, and Shapley values. The statistically significant results show that geospatial features improve algorithm performance. The improvement of algorithm performance is not unique to interpretable algorithms but occurs for all algorithms. Furthermore, it shows that interpretable algorithms are not axiomatically inferior to the tested artificial neural network algorithms. The distance to the city center and a nearby hospital are, on average, the most important geospatial features. While important for algorithm performance, precisely what the geospatial features capture remains for future examination. / Fastighetsvärdering är ett sätt att bestämma marknadsvärdet på mark och egendom som anbringas på den. Flera olika variabler påverkar marknadsvärdet för en fastighet. Avståndet till närmaste park eller restiden till det centrala affärsdistriktet kan till exempel vara betydande när man bestämmer ett marknadsvärde. Användningen av maskininlärning vid fastighetsvärdering kräver noggrannhet och tolkbarhet hos algoritmer. Relaterad forskning definierar ofta dessa två egenskaper som en kompromiss och föreslår att mer komplexa algoritmer kan överträffa tolkbara algoritmer. Den här studien testar dessa påståenden genom att undersöka påverkan av geospatiala variabler på tolkbara algoritmer i fastighetsvärdering. Experimentet använder fastighetstransaktioner från Oslo i Norge, och lägger till relativa och globala geospatiala variabler för alla fastigheter med hjälp av geokodning och sfäriska avståndsberäkningar. Såsom avståndet till närmaste park eller stadens centrum. Experimentet implementerar tre tolkbara algoritmer; en linjär regressionsalgoritm, en beslutsträdalgoritm och en RuleFit-algoritm. Som jämförelse implementerar den också två artificiella neuronnätsalgoritmer som en baslinje. Studien mäter påverkan av geospatiala variabler med algoritmprestanda genom determinationskoefficienten och det genomsnittliga absoluta felet för algoritmen med och utan geospatiala variabler. Därefter mäts den individuella påverkan av varje geospatial variabel med hjälp av fyra mått på variabelbetydelse; mean decrease impurity, input variabel importance, mean decrease accuracy och Shapley-värden. De statistiskt signifikanta resultaten visar att geospatiala variabler förbättrar algoritmers prestanda. Förbättringen av algoritmprestanda är inte unik för tolkningsbara algoritmer utan sker för alla algoritmer. Dessutom visar resultatet att tolkningsbara algoritmer inte är sämre än de testade artificiella neuronnätsalgoritmerna. Avståndet till stadens centrum och det närmaste sjukhuset är i genomsnitt de viktigaste geospatiala variablerna. Även om de geospatial variablerna är viktiga för algoritmprestanda, kvarstår frågan om vad exakt de betyder för framtida granskning.
|
467 |
Exploring attribution methods explaining atrial fibrillation predictions from sinus ECGs : Attributions in Scale, Time and Frequency / Undersökning av attributionsmetoder för att förklara förmaksflimmerprediktioner från EKG:er i sinusrytm : Attribution i skala, tid och frekvensSörberg, Svante January 2021 (has links)
Deep Learning models are ubiquitous in machine learning. They offer state-of- the-art performance on tasks ranging from natural language processing to image classification. The drawback of these complex models is their black box nature. It is difficult for the end-user to understand how a model arrives at its prediction from the input. This is especially pertinent in domains such as medicine, where being able to trust a model is paramount. In this thesis, ways of explaining a model predicting paroxysmal atrial fibrillation from sinus electrocardiogram (ECG) data are explored. Building on the concept of feature attributions, the problem is approached from three distinct perspectives: time, scale, and frequency. Specifically, one method based on the Integrated Gradients framework and one method based on Shapley values are used. By perturbing the data, retraining the model, and evaluating the retrained model on the perturbed data, the degree of correspondence between the attributions and the meaningful information in the data is evaluated. Results indicate that the attributions in scale and frequency are somewhat consistent with the meaningful information in the data, while the attributions in time are not. The conclusion drawn from the results is that the task of predicting atrial fibrillation for the model in question becomes easier as the level of scale is increased slightly, and that high-frequency information is either not meaningful for the task of predicting atrial fibrillation, or that if it is, the model is unable to learn from it. / Djupinlärningsmodeller förekommer på många håll inom maskininlärning. De erbjuder bästa möjliga prestanda i olika domäner såsom datorlingvistik och bildklassificering. Nackdelen med dessa komplexa modeller är deras “svart låda”-egenskaper. Det är svårt för användaren att förstå hur en modell kommer fram till sin prediktion utifrån indatan. Detta är särskilt relevant i domäner såsom sjukvård, där tillit till modellen är avgörande. I denna uppsats utforskas sätt att förklara en modell som predikterar paroxysmalt förmaksflimmer från elektrokardiogram (EKG) som uppvisar normal sinusrytm. Med utgångspunkt i feature attribution (särdragsattribution) angrips problemet från tre olika perspektiv: tid, skala och frekvens. I synnerhet används en metod baserad på Integrated Gradients och en metod baserad på Shapley-värden. Genom att perturbera datan, träna om modellen, och utvärdera den omtränader modellen på den perturberade datan utvärderas graden av överensstämmelse mellan attributionerna och den meningsfulla informationen i datan. Resultaten visar att attributioner i skala- och frekvensdomänerna delvis stämmer överens med den meningsfulla informationen i datan, medan attributionerna i tidsdomänen inte gör det. Slutsatsen som dras utifrån resultaten är att uppgiften att prediktera förmaksflimmer blir enklare när skalnivån ökas något, samt att högre frekvenser antingen inte är betydelsefullt för att prediktera förmaksflimmer, eller att om det är det, så saknar modellen förmågan att lära sig detta.
|
468 |
Deep Bayesian Neural Networks for Prediction of Insurance Premiums / Djupa Bayesianska neurala nätverk för prediktioner på fordonsförsäkringarOlsgärde, Nils January 2021 (has links)
In this project, the problem concerns predicting insurance premiums and particularly vehicle insurance premiums. These predictions were made with the help of Bayesian Neural Networks (BNNs), a type of Artificial Neural Network (ANN). The central concept of BNNs is that the parameters of the network follow distributions, which is beneficial. The modeling was done with the help of TensorFlow's Probability API, where a few models were built and tested on the data provided. The results conclude the possibility of predicting insurance premiums. However, the output distributions in this report were too wide to use. More data, both in volume and in the number of features, and better-structured data are needed. With better data, there is potential in building BNN and other machine learning (ML) models that could be useful for production purposes. / Detta projekt grundar sig i möjligheten till att predikera försäkringspremier, mer specifikt fordonsförsäkringspremier. Prediktioner har gjorts med hjälp av Bayesianska neurala nätverk, vilket är en typ av artificiella neurala nätverk. Det huvudsakliga konceptet med Bayesianska neurala nätverk är att parametrarna i nätverket följer distributioner vilket har vissa fördelar och inte är fallet för vanliga artificiella neurala nätverk. Ett antal modeller har konstruerats med hjälp av TensorFlow Probability API:t som tränats och testats på given data. Resultatet visar att det finns potential att prediktera premier med hjälp av de egenskapspunkter\footnote[2]{\say{Features} på engelska} som finns tillgängliga, men att resultaten inte är tillräckligt bra för att kunna användas i produktion. Med mer data, både till mängd och egenskapspunkter samt bättre strukturerad data finns potential att skapa bättre modeller av intresse för produktion.
|
469 |
The Role of Conversational Interfaces in the Future of Digitaland TechnologyGersil, Tuna, Hilal, Ismail January 2020 (has links)
Conversational interfaces (CIs) have been a trending topic in recent years. As of the last decade, CIs have emerged with the aim of simplifying human-machine interactions and found a wide use case in the market. For example, Siri and Google Assistant are some of the most well-known CIs developed by the tech giants Apple and Google. The digital landscape has evolved from web, to mobile apps, to recently CIs. Nowadays, CIs, in particular chatbots and voicebots, are becoming increasingly common. Whether navigating the web or messaging on a phone, it is likely that CIs have been confronted offering the user help.However, CIs have not managed to reach a large-scale use. Furthermore, the reasons regarding the challenges faced by CIs as well as their usability are not greatly explored. In this thesis, we explore the most relevant uses of CIs and the reasons hindering a widespread use of CIs. Our goal is to provide an insight into CIs’ uses and list the reasons regarding the challenges faced by CIs. The research study followed a mixed method approach connecting an explorative qualitative literature study, a survey and an interview. The data was collected by using a systematic mapping approach for it being more suitable for conducting an effective literature review. The survey and the interview were conducted in order to confirm the findings.According to our research, it was found that the most common use cases of CIs were in customer service, sales, travel and bookings, education, healthcare and as voice assistants. The most prominent challenges faced by CIs were poor usability, language processing and understanding, speech recognition and natural language generation and security and privacy. As a conclusion, the future looks promising for CIs, however, they need to be furher researched and developed in order to help them reach a widespread use in the future. / Konversation Gränssnitt (CIs) har varit ett trendande ämne de senaste åren. Sedan det senaste decenniet har CIs kommit fram i syfte att förenkla interaktioner mellan människor och maskiner och har hittat ett brett användningsfall på marknaden. Det digitala landskapet har utvecklats från webb, till mobila appar till nyligen CI. Numera blir CIs, i synnerhet chatbots och voicebots, allt vanligare. Vare sig du navigerar på webben eller meddelanden i en telefon, är det troligt att CIs har konfronterats med att erbjuda användaren hjälp.CIs har dock inte lyckats uppnå storskalig användning. Dessutom är orsakerna till de utmaningar som CIs står inför och deras användbarhet inte utforskas i hög grad. I den här avhandlingen undersöker vi de mest relevanta användningarna av CIs och orsakerna till en utbredd användning av CIs. Vårt mål är att ge en inblick i CI: s användningar och lista orsakerna till de utmaningar som CIs står inför. Forskningsstudien följde en blandad metodstrategi som ansluter en utforskande kvalitativ litteraturstudie, en undersökning och en intervju. Uppgifterna samlades in med hjälp av en systematisk kartläggningsätt för att göra dem mer lämpliga för att genomföra en effektiv litteraturgranskning. Undersökningen och intervjun genomfördes för att bekräfta resultaten.Enligt vår forskning konstaterades att de vanligaste användningsfallen för CIs var kundservice, försäljning, resor och bokningar, utbildning, sjukvård och som röstassistenter. De mest framstående utmaningarna för CIs var dålig användbarhet, språkhantering och förståelse, taligenkänning och naturlig språkgenerering och säkerhet och integritet. Sammanfattningsvis ser framtiden lovande ut för CIs, men de måste undersökas och utvecklas ytterligare för att hjälpa dem att uppnå utbredd användning i framtiden.
|
470 |
The impact of integrating Artificial Intelligence into the video games industry. : A case study. / Inverkan av att integrera artificiell intelligens i spelindustrin. : En fallstudie.Bonn, Nele January 2023 (has links)
Artificial Intelligence (AI) possesses the potential to profoundly reshape numerous established industries, including the video games industry. This transformative potential arises from algorithms that operate not only on a technical level, but also on a creative and artistic level, particularly with the advent of generative AI. To elucidate the current role of AI within the video game industry and identify potential trajectories for development, structured interviews were conducted with programmers, AI experts, and video game professionals. Moreover, the study aimed to discern the areas in which generative AI will have the most significant impact. The primary findings indicate that AI should function as an assistant, offering suggestions rather than making decisions. Furthermore, AI facilitates increased diversity and accessibility within the industry through enhanced representation. Urgent discussions regarding the protection of artists and the ethical implications of these advancements are crucial for timely legislation development. The study also revealed that AI currently assumes a supportive role, augmenting human labor efficiency. It is employed for tasks such as balancing gameplay, matchmaking, debugging, anti-cheat mechanisms, and non-player character (NPC) dialogue. Human input remains indispensable, particularly in the creative domain and quality assurance processes. Lastly, the report underscores the opportunities and challenges presented by these technical advancements and proposes potential solutions. The findings contribute to a comprehensive comprehension of the implications of AI and generative AI within the industry and offer recommendations for their responsible and ethical utilization. / Artificiell intelligens (AI) har potentialen att på ett djupgående sätt omforma flera etablerade branscher, inklusive spelindustrin. Denna transformerande potential uppstår från algoritmer som inte bara fungerar på en teknisk nivå, utan även på en kreativ och konstnärlig nivå, särskilt med framväxten av generativ AI. För att belysa den nuvarande rollen för AI inom spelindustrin och identifiera potentiella utvecklingsriktningar genomfördes strukturerade intervjuer med programmerare, AI-experter och spelbranschens yrkesverksamma. Dessutom syftade studien till att fastställa de områden där generativ AI kommer att ha störst påverkan. De primära resultaten indikerar att AI bör fungera som en assistent och erbjuda förslag istället för att fatta beslut. Dessutom underlättar AI ökad mångfald och tillgänglighet inom branschen genom förbättrad representation. Brådskande diskussioner om skyddet av konstnärer och de etiska konsekvenserna av dessa framsteg är avgörande för en tidig lagstiftningsutveckling. Studien visade också att AI för närvarande antar en stödjande roll genom att öka effektiviteten hos mänskligt arbete. Den används för uppgifter som att balansera gameplay, matchmaking, felsökning, fuskförebyggande mekanismer och dialog för icke-spelarkaraktärer (NPC). Mänsklig input förblir oumbärlig, särskilt inom den kreativa domänen och kvalitetssäkringsprocesser. Slutligen understryker rapporten de möjligheter och utmaningar som dessa tekniska framsteg medför och föreslår potentiella lösningar. Resultaten bidrar till en omfattande förståelse av konsekvenserna av AI och generativ AI inom branschen och erbjuder rekommendationer för deras ansvarsfulla och etiska användning.
|
Page generated in 0.0601 seconds