• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 968
  • 480
  • 294
  • 27
  • 17
  • 13
  • 10
  • 7
  • 7
  • 6
  • 4
  • 2
  • 2
  • 2
  • 1
  • Tagged with
  • 1994
  • 644
  • 640
  • 494
  • 433
  • 342
  • 337
  • 308
  • 298
  • 297
  • 296
  • 289
  • 229
  • 221
  • 172
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

“Nej, jag är inte skraj för ny teknik” : En kvalitativ studie om rekryterares känslomässiga upplevelse av AI inomrekrytering

Elf, Filippa, Bende, Elina January 2024 (has links)
The rapid development of artificial intelligence has initiated debates regarding its eventual threats and opportunities in the labor market. There is currently an ongoing discussion about which jobs, within the HR-business, that could potentially be replaced by AI, with the recruiting profession being suggested as replaceable by AI. The sociological relevance of the study´s subjects lies in the intersection of human and technology. The purpose of the study is to examine how professionals in the field of recruitment experience AI. By studying this, emotions arising in relation to technological development can be elucidated with the aim of understanding the intersection between humans and technology. Latest research has shown that development of new technology may raise apprehension among people. The theoretical framework of this study is based on Blumers (1986) ideas about sense-making within symbolic interactionism and Technology Acceptance Model (Davis, 1989). Blumers ideas are used to understand how recruiters' sense-making process affects their feelings towards AI. Technology Acceptance Model are used in purpose to understand recruiters potential for acceptance of AI. In this study, qualitative interviews were conducted with recruiters working at recruitment and staffing agencies. The study's results indicate that recruiters have a positive attitude towards using AI in their work, despite having difficulty understanding what AI is. The findings suggest that recruiters do not perceive AI as a threat to their occupational roles, as AI lacks the human capabilities required by their job roles. / Den snabba utvecklingen av artificiell intelligens (AI) har väckt diskussioner om dess potentiella hot och möjligheter på arbetsmarknaden. Just nu pågår en diskussion om vilka jobb inom HR som skulle kunna ersättas av AI, i vilken rekryteringsyrket framförs som ersättbart av AI. Den sociologiska relevansen i studiens ämne är mötet mellan människa och teknik och syftet med studien är att undersöka hur yrkesprofessionella inom rekrytering upplever AI. Genom att studera detta kan känslor som uppkommer i relation till teknikens utveckling synliggöras i syfte att förstå mötet mellan människa och teknik. Tidigare forskning visar exempelvis att ny teknik kan skapa oro hos människor. Studiens teoretiska ramverk utgår från Blumers (1986) teorier om meningsskapande inom symbolisk interaktionism och Technology Acceptance Model (Davis, 1989). Blumers teorier används för att förstå hur rekryterares meningsskapande process påverkar deras känslor gentemot AI. Technology Acceptance Model används för att förstå rekryterares möjlighet till acceptans av AI. I denna studie har kvalitativa intervjuer genomförts med rekryterare som arbetar på rekryterings- och bemanningsföretag. Studiens resultat visar att rekryterarna har en positiv attityd till att använda AI i sitt arbete trots att de har svårt att greppa vad AI är. Studiens resultat visar att rekryterarna inte upplever AI som någonting som kan hota deras yrkesroll, på grund av att AI saknar den mänskliga förmågan som deras yrkesroll kräver.
272

Undervisning under transformation : En studie om hur gymnasielärare i företagsekonomi upplever arbetet med AI / Teaching undergoing transformation

Hjertonsson, Susanna January 2024 (has links)
Den här studiens syfte är att undersöka hur gymnasielärare i företagsekonomi upplever arbetet med AI, vilka möjligheter och utmaningar de identifierar samt vilket stöd de efterfrågar. Studien har genomförts via kvalitativa intervjuer med fem gymnasielärare i företagsekonomi. Lärarna representerar olika kön, olika lång erfarenhet av läraryrket samt tre olika gymnasieskolor i två olika regioner i Sverige. Studien visar att lärarna som kollektiv ger uttryck för en tro på en framtid där AI-verktygen kommer att vara en naturlig del i företagsekonomiutbildningen till följd av utvecklingen i näringslivet och samhället i stort där AI får en allt mer central roll. De intervjuade lärarna ser möjligheter i form av effektivisering och stöd i sitt eget arbete och identifierar även områden inom företagsekonomiämnet där AI kan bidra till att ge eleverna en ökad förståelse. Huvudsakliga utmaningar som lärarna ringar in innefattar att upptäcka och förhindra AI-fusk, att bedöma elevers prestationer samt stötta eleverna i att utveckla källmedvetenhet och kritiskt tänkande. De ser en utveckling där deras arbete förändras till att handla mer om validering av information och kunskaper. Samtidigt signalerar de att många frågetecken finns kring hur arbetet kommer att påverkas i förhållande till styrdokumenten och efterfrågar stöd i form av kompetensutveckling inom AI-området samt riktlinjer från Skolverket.
273

THE EFFECT OF PREOVULATORY CONCENTRATION OF ESTRADIOL AND LENGTH OF PROESTRUS ON PREGNANCY RATE TO TIMED AI AND EMBRYO TRANSFER IN BEEF CATTLE

Cruppe, Leandro Henrique 15 May 2015 (has links)
No description available.
274

Tools and Methods for Companies to Build Transparent and Fair Machine Learning Systems / Verktyg och metoder för företag att utveckla transparenta och rättvisa maskininlärningssystem

Schildt, Alexandra, Luo, Jenny January 2020 (has links)
AI has quickly grown from being a vast concept to an emerging technology that many companies are looking to integrate into their businesses, generally considered an ongoing “revolution” transforming science and society altogether. Researchers and organizations agree that AI and the recent rapid developments in machine learning carry huge potential benefits. At the same time, there is an increasing worry that ethical challenges are not being addressed in the design and implementation of AI systems. As a result, AI has sparked a debate about what principles and values should guide its development and use. However, there is a lack of consensus about what values and principles should guide the development, as well as what practical tools should be used to translate such principles into practice. Although researchers, organizations and authorities have proposed tools and strategies for working with ethical AI within organizations, there is a lack of a holistic perspective, tying together the tools and strategies proposed in ethical, technical and organizational discourses. The thesis aims to contribute with knowledge to bridge this gap by addressing the following purpose: to explore and present the different tools and methods companies and organizations should have in order to build machine learning applications in a fair and transparent manner. The study is of qualitative nature and data collection was conducted through a literature review and interviews with subject matter experts. In our findings, we present a number of tools and methods to increase fairness and transparency. Our findings also show that companies should work with a combination of tools and methods, both outside and inside the development process, as well as in different stages of the machine learning development process. Tools used outside the development process, such as ethical guidelines, appointed roles, workshops and trainings, have positive effects on alignment, engagement and knowledge while providing valuable opportunities for improvement. Furthermore, the findings suggest that it is crucial to translate high-level values into low-level requirements that are measurable and can be evaluated against. We propose a number of pre-model, in-model and post-model techniques that companies can and should implement in each other to increase fairness and transparency in their machine learning systems. / AI har snabbt vuxit från att vara ett vagt koncept till en ny teknik som många företag vill eller är i färd med att implementera. Forskare och organisationer är överens om att AI och utvecklingen inom maskininlärning har enorma potentiella fördelar. Samtidigt finns det en ökande oro för att utformningen och implementeringen av AI-system inte tar de etiska riskerna i beaktning. Detta har triggat en debatt kring vilka principer och värderingar som bör vägleda AI i dess utveckling och användning. Det saknas enighet kring vilka värderingar och principer som bör vägleda AI-utvecklingen, men också kring vilka praktiska verktyg som skall användas för att implementera dessa principer i praktiken. Trots att forskare, organisationer och myndigheter har föreslagit verktyg och strategier för att arbeta med etiskt AI inom organisationer, saknas ett helhetsperspektiv som binder samman de verktyg och strategier som föreslås i etiska, tekniska och organisatoriska diskurser. Rapporten syftar till överbrygga detta gap med följande syfte: att utforska och presentera olika verktyg och metoder som företag och organisationer bör ha för att bygga maskininlärningsapplikationer på ett rättvist och transparent sätt. Studien är av kvalitativ karaktär och datainsamlingen genomfördes genom en litteraturstudie och intervjuer med ämnesexperter från forskning och näringsliv. I våra resultat presenteras ett antal verktyg och metoder för att öka rättvisa och transparens i maskininlärningssystem. Våra resultat visar också att företag bör arbeta med en kombination av verktyg och metoder, både utanför och inuti utvecklingsprocessen men också i olika stadier i utvecklingsprocessen. Verktyg utanför utvecklingsprocessen så som etiska riktlinjer, utsedda roller, workshops och utbildningar har positiva effekter på engagemang och kunskap samtidigt som de ger värdefulla möjligheter till förbättringar. Dessutom indikerar resultaten att det är kritiskt att principer på hög nivå översätts till mätbara kravspecifikationer. Vi föreslår ett antal verktyg i pre-model, in-model och post-model som företag och organisationer kan implementera för att öka rättvisa och transparens i sina maskininlärningssystem.
275

Kan generativ AI skriva militära ordrar?

Turzik, Sofia January 2024 (has links)
Artificiell intelligens är ett ämne som vuxit anmärkningsvärt mycket de senaste åren. Det forskas på ämnet i både den civila och den militära sektorn. Flera olika länder forskar på hur AI kan användas militärt, på olika sätt och nivåer. Även Sverige forskar på hur AI kan användas militärt. Syftet med denna uppsats är att undersöka om generativ AI kommer att kunna skriva egna, militära ordrar när programvaran blir matad med tillräcklig information. Frågeställningen blir således huruvida generativ AI kan ersätta militära ledare och chefer gällande orderskrivning, med tillfredsställande kvalitet.  Kunskapsluckan som detta arbete vill fylla är kopplingen mellan beslutsfattande och AI. Det finns tidigare forskning om både hur AI kan likna mänskligt skrivande, och hur AI kan användas för att bearbeta militär underrättelse. Det som fattas är följaktligen forskning som kopplar ihop detta, för att generativ AI ska kunna användas för att skriva militära ordrar. För att undersöka huruvida detta går skedde en jämförande fallstudie där en människoproducerad order jämfördes med en AI-alstrad order. Dessa två ordrar jämfördes sedan utifrån en teoretisk ram. Det teoretiska ramverk som använts i detta arbete är grundat i handböcker som är fastställda av Försvarsmakten.  Resultatet visar att generativ AI inte når upp till en tillräcklig kvalitet för att kunna mäta sig med mänskliga ordrar idag. AI är inte tillräckligt införstådd med den militära strukturen eller nomenklaturen. Detta kan dock variera mellan olika sorters AI. Resultatet är även påverkat av givna instruktioner. / Artificial intelligence is a subject that has grown remarkably in the last couple of years. Both the military and the civilian sectors are researching this subject. Several different countries are researching how AI could be used in the military, in different ways and levels. Furthermore, Sweden is also researching how AI could be used in the military. The purpose of this thesis is to investigate whether generative AI will be able to write its own orders when fed with the right amount of information. Thus gives us the question whether generative AI could replace human officers in writing military orders, with satisfying quality.  The knowledge gap that this work aims to fill is the connection between decision-making and AI. There is previous research about how AI can mimic human writing, and how AI could be used to process military intelligence. Consequently, the missing part is connecting these two together, so that generative AI could write its own military orders.  To investigate whether this works, a comparative case study took place, where an order written by a human was compared to an order produced by AI. These two orders were compared based on a theoretical framework. The theoretical framework in this thesis is based on established literature from the Swedish Armed Forces. The result shows that generative AI does not reach a sufficient quality to be able to measure up to human orders today. AI is not familiar enough with the military structure or nomenclature. However, this may vary between different kinds of AI. Furthermore, the result is also influenced by given instructions.
276

Narrative Maps: A Computational Model to Support Analysts in Narrative Sensemaking

Keith Norambuena, Brian Felipe 08 August 2023 (has links)
Narratives are fundamental to our understanding of the world, and they are pervasive in all activities that involve representing events in time. Narrative analysis has a series of applications in computational journalism, intelligence analysis, and misinformation modeling. In particular, narratives are a key element of the sensemaking process of analysts. In this work, we propose a narrative model and visualization method to aid analysts with this process. In particular, we propose the narrative maps framework—an event-based representation that uses a directed acyclic graph to represent the narrative structure—and a series of empirically defined design guidelines for map construction obtained from a user study. Furthermore, our narrative extraction pipeline is based on maximizing coherence—modeled as a function of surface text similarity and topical similarity—subject to coverage—modeled through topical clusters—and structural constraints through the use of linear programming optimization. For the purposes of our evaluation, we focus on the news narrative domain and showcase the capabilities of our model through several case studies and user evaluations. Moreover, we augment the narrative maps framework with interactive AI techniques—using semantic interaction and explainable AI—to create an interactive narrative model that is capable of learning from user interactions to customize the narrative model based on the user's needs and providing explanations for each core component of the narrative model. Throughout this process, we propose a general framework for interactive AI that can handle similar models to narrative maps—that is, models that mix continuous low-level representations (e.g., dimensionality reduction) with more abstract high-level discrete structures (e.g., graphs). Finally, we evaluate our proposed framework through an insight-based user study. In particular, we perform a quantitative and qualitative assessment of the behavior of users and explore their cognitive strategies, including how they use the explainable AI and semantic interaction capabilities of our system. Our evaluation shows that our proposed interactive AI framework for narrative maps is capable of aiding users in finding more insights from data when compared to the baseline. / Doctor of Philosophy / Narratives are essential to how we understand the world. They help us make sense of events that happen over time. This research focuses on developing a method to assist people, like journalists and analysts, in understanding complex information. To do this, we introduce a new approach called narrative maps. This model allows us to extract and visualize stories from text data. To improve our model, we use interactive artificial intelligence techniques. These techniques allow our model to learn from user feedback and be customized to fit different needs. We also use these methods to explain how the model works, so users can understand it better. We evaluate our approach by studying how users interact with it when doing a task with news stories. We consider how useful the system is in helping users gain insights. Our results show that our method aids users in finding important insights compared to traditional methods.
277

Explainable Interactive Projections for Image Data

Han, Huimin 12 January 2023 (has links)
Making sense of large collections of images is difficult. Dimension reductions (DR) assist by organizing images in a 2D space based on similarities, but provide little support for explaining why images were placed together or apart in the 2D space. Additionally, they do not provide support for modifying and updating the 2D space to explore new relationships and organizations of images. To address these problems, we present an interactive DR method for images that uses visual features extracted by a deep neural network to project the images into 2D space and provides visual explanations of image features that contributed to the 2D location. In addition, it allows people to directly manipulate the 2D projection space to define alternative relationships and explore subsequent projections of the images. With an iterative cycle of semantic interaction and explainable-AI feedback, people can explore complex visual relationships in image data. Our approach to human-AI interaction integrates visual knowledge from both human mental models and pre-trained deep neural models to explore image data. Two usage scenarios are provided to demonstrate that our method is able to capture human feedback and incorporate it into the model. Our visual explanations help bridge the gap between the feature space and the original images to illustrate the knowledge learned by the model, creating a synergy between human and machine that facilitates a more complete analysis experience. / Master of Science / High-dimensional data is everywhere. A spreadsheet with many columns, text documents, images, ... ,etc. Exploring and visualizing high-dimensional data can be challenging. Dimension reduction (DR) techniques can help. High dimensional data can be projected into 3d or 2d space and visualized as a scatter plot.Additionally, DR tool can be interactive to help users better explore data and understand underlying algorithms. Designing such interactive DR tool is challenging for images. To address this problem, this thesis presents a tool that can visualize images to a 2D plot, data points that are considered similar are projected close to each other and vice versa. Users can manipulate images directly on this scatterplot-like visualization based on own knowledge to update the display, saliency maps are provided to reflect model's re-projection reasoning.
278

Reproductive performance of Holstein cows treated with prostaglandin F2a, gonadotropin releasing hormone, and recombinant bovine Somatotropin

Pickin, Charles Benjamin 14 October 2004 (has links)
The objective of this study was to examine the effects of presynchronization and recombinant bovine somatotropin (rbST) on conception rates following a timed insemination (TAI) protocol in lactating dairy cows. A further objective included the evaluation of the efficacy of the Early Conception Factor (ECF) test kit. Recombinant bST may offer some benefit when used in conjunction with estrus synchronization and TAI. Presynchronization treatment consisted of two injections of PGF2α given 14 d apart, with the second dose administered 14 d prior to the initiation of a TAI protocol. A total of 216 lactating Holstein cows were presynchronized with PGF2α and then received GnRH (100μg) at 67 ± 7 d post partum (PP), administration of PGF2α (25 mg) 7 d later, another GnRH (100μg) administration 2 d after PGF2α, and were inseminated 8-18h later (OvSynch). First service conception rate (CR) was determined by rectal palpation at 42 ± 7 d after artificial insemination (AI). Treated cows (n=113) received rbST 67 ± 7 d PP whereas control cows (n = 113) were presynchronized without rbST. The cycling status of all cows was determined by paired milk P4 levels at 53 and 67 ± 7 d PP. No differences (P > 0.10) in conception rate were observed between control and rbST treated cows (44.7 and 40.7% respectively), nor was there any interaction of cyclicity and rbST. Milk samples were collected 7 d following AI for use in ECF test kit evaluation. Samples were stored at -20ºC (n=216) and at 5ºC (n=113) until assayed. Test results for frozen and refrigerated samples were compared to conception rates determined by rectal palpation at 42 ± 7 d after AI. The rate of false positive and negative results for frozen milk samples were 36.1 and 14.8% respectively, and 40.7 and 7.1% for refrigerated milk samples. Treatment with rbST at the time of the first GnRH injection of an OvSynch protocol did not significantly alter first service conception rates. Additionally, an acceptable 92.9% accuracy of the ECF test for the detection of open cows 7 d after AI using milk samples stored at 5ºC was obtained. / Master of Science
279

An Interview – or an Exercise in External Self-Reflection

Andersson, Mattias January 2024 (has links)
As an exercise in self reflection, I created an AI version of myself using HuggingFace, an open source AI model, and conducted an interview with it about two manuscripts from my works.
280

Konversations-AI från ett användarperspektiv : En kvalitativ studie om hur CAI kan stödja dokumentation inom sjukvården / Conversational AI from a user perspective : A qualitative study on how CAI can support documentation in healthcare

Gustavsson, Elias, Jonasson, Otto January 2024 (has links)
Användningen av artificiell intelligens (AI) inom hälso- och sjukvården har potential att minska den administrativa bördan och förbättra patientvården genom att effektivisera dokumentationsprocesser. Trots dessa fördelar kvarstår utmaningar som bristande integration och tung arbetsbelastning för vårdpersonal. Denna studie undersöker hur AI, särskilt konversations AI (CAI), kan användas för att förbättra dokumentationen i vården och stödja vårdpersonalens dagliga arbete. Syftet är att identifiera viktiga faktorer som påverkar användarnas upplevelse samt hur de bör utformas för att stötta vårdpersonalen vid dokumentation med hjälp av CAI För att uppnå detta genomfördes semistrukturerade intervjuer med vårdpersonal, kompletterat med konceptbilder för att stimulera diskussioner och förståelse. Data analyserades med både deduktiva och induktiva analysmetoder. Resultaten visar att viktiga faktorer för utformning av CAI-system inkluderar anpassningsbara konversationsgränssnitt, möjligheter för användaren att ge feedback och transparenta förklaringar av systemets beslut. Dessutom framhävdes vikten av att CAI-system kan integreras sömlöst med befintligaarbetsflöden och att de kan anpassa sig efter individuella användarbehov. Andra viktiga aspekter är att systemet ska vara intuitivt, tillförlitligt och stödja en effektiv arbetsmiljö. Studien bekräftar att flera faktorer är avgörande för att utforma effektiva förklaringar iAI-system, men ytterligare forskning behövs för att utforska hur dessa riktlinjer påverkar tillit och förståelse över tid. / The use of artificial intelligence (AI) in healthcare has the potential to reduce administrative burdens and improve patient care by streamlining documentation processes. Despite these benefits, challenges such as lack of integration and heavy workloads for healthcare staff persist. This study explores how AI, particularly conversational AI (CAI) can be utilized to enhance healthcare documentation and support the daily tasks of healthcare professionals. The aim is to identify key factors that are important for user experience and how CAI-systems should be designed to support healthcare staff in documentation. To achieve this, semi-structured interviews with healthcare professionals were conducted, supplemented with concept images to stimulate discussions and understanding. Data were analyzed using both deductive and inductive methods. The results indicate that key factors for designing CAI-systems include customizable converational interfaces, opportunities for user feedback, and transparent explanations of the system's decisions. Additionally, the importance of seamless integration of CAI-systems with existing workflows and their adaptability to individual user needs was emphasized. Other critical aspects are that the system should be intuitive, reliable, and support an efficient work environment. The study confirms that several factors are crucial for designing effective CAI-systems in healthcare. However, further research is needed to explore how these guidelines affect trust and understanding over time.

Page generated in 0.0589 seconds