Spelling suggestions: "subject:"cocial chatbot"" "subject:"cocial chatbots""
1 |
Kan man bli vän med en chatbot? : Snapchat:s My AIPurnell Söderberg, Sara January 2024 (has links)
Dagens digitaliserade medieliv har inneburit radikala förändringar gentemot hur människor tar emot, upplever, tolkar och interagerar med medieteknologi. Utvecklingen av artificiell intelligens i kombination med människors medieanvändning har bidragit till att sociala chatbots blivit en alltmer integrerad del i vår vardag. Denna kvalitativa forskningsstudie syftar till att ge en fördjupad förståelse om Snapchat:s sociala chatbot My AI och dess domesticeringsprocess ur ett medielivsperspektiv. Studien undersöker hur Snapchat-användare interagerar, tolkar och definierar relationen till My AI, samt hur detta kan förstås med hjälp av domesticeringsteorin och affordance teorin. Studiens resultat baseras på tidigare forskning inom området, samt intervjuer och skärmdumpar från deltagarna. Resultaten indikerar att majoriteten av deltagarna använder My AI för att få tips och söka information, men att integrationen till deras vardagsliv är begränsad.Affordance teorin bidrar till nya insikter kring medieanvändares tolkningar och upplevelser, samt hur imagined affordance spelar en avgörande roll i deras interaktion med My AI. Avslutningsvis presenterar studien sitt kunskapsbidrag, limitationer ochförslag på ytterligare forskning inom området.
|
2 |
Identifying & Evaluating SystemComponents for Cognitive Trustin AI-Automated Service Encounters : Trusting a Study- & Vocational ChatbotEklund, Joakim, Isaksson, Fred January 2019 (has links)
The intensifying idea that AI soon will be a part of our everyday life allows for dreams about the complex relationship we one day could have with non-biological social intelligence. However, establishing societal and individual acceptance of AI-powered autonomy in disciplines built upon to the reliance to human competence raises a number of pressing challenges. One of them being, what system components will engender respectively counteract cognitive trust in socially oriented AI-automated processes? This masters thesis tackles the seemingly ambiguous concept of trust in automation by identifying and evaluating system components that affect trust in a confined and contextualised setting. Practically, we design, construct and test an AI-powered chatbot, Ava, that contains socially oriented questions and feedback about study- and vocational guidance. Through a comparative study of different system versions, including both quantitative and qualitative data, we contribute to the framework for identifying and evaluating human trust in AI-Automated service encounters. We show how targeted alterations to design choices constituting the system components transparency, unbiasses and system performance, identified to affect trust, has consequences on the perception of the cognitive trust concepts integrity, benevolence and ability. Our results display a way of conduct for practitioners looking to prioritise and develop trustworthy autonomy. More specifically, we account for how cognitive trust is decreased when system opacity is increased. Moreover, we display even more concerning effects on trust due to micking contextual bias in the conversation agent.
|
Page generated in 0.0512 seconds