• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • 1
  • 1
  • Tagged with
  • 4
  • 4
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Dohled, technologie a umělá inteligence / Surveillance, Technology and Artificial Intelligence

Červenka, Tomáš January 2020 (has links)
This master thesis deals with the topic of surveillance while focusing on its technological extensions. Particular focus will be primarily on the topic of artificial intelligence, which is currently one of the most important technologies in the field of computer science. My intention for this work will be to introduce artificial intelligence and to offer an insight into its application in surveillance studies and thus combine theoretical and technological thesis together. The thesis will be divided into five parts - the first part introduces research questions, methodology and division of the whole work, the second part will briefly introduce surveillance and its study, the third part will introduce artificial intelligence, its history, present and, above all, the outlook for the future, and the fourth part will link those two fields together.The last, fifth, part offers a reflection and answer to the question of what future awaits us in the proces of implementation of artificial intelligence in the field of surveillance.
2

Detektering av fusk vid användning av AI : En studie av detektionsmetoder / Detection of cheating when using AI : A study of detection methods

Ennajib, Karim, Liang, Tommy January 2023 (has links)
Denna rapport analyserar och testar olika metoder som syftar till att särskiljamänskligt genererade lösningar på uppgifter och texter från de som genereras avartificiell intelligens. På senare tid har användningen av artificiell intelligens setten betydande ökning, särskilt bland studenter. Syftet med denna studie är attavgöra om det för närvarande är möjligt att upptäcka fusk från högskolestudenterinom elektroteknik som använder sig av AI. I rapporten testas lösningar påuppgifter och texter genererade av programmet ChatGPT med hjälp av en generellmetod och externa AI-verktyg. Undersökningen omfattar områdena matematik,programmering och skriven text. Resultatet av undersökningen tyder på att detinte är möjligt att upptäcka fusk med hjälp av AI i ämnena matematik ochprogrammering. Dock när det gäller text kan i viss utsträckning fusk vidanvändning av en AI upptäckas. / This report analyzes and tests various methods aimed at distinguishinghuman-generated solutions to tasks and texts from those generated by artificialintelligence. Recently the use of artificial intelligence has seen a significantincrease, especially among students. The purpose of this study is to determinewhether it is currently possible to detect if a college student in electricalengineering is using AI to cheat. In this report, solutions to tasks and textsgenerated by the program ChatGPT are tested using a general methodology andexternal AI-based tools. The research covers the areas of mathematics,programming and written text. The results of the investigation suggest that it is notpossible to detect cheating with the help of an AI in the subjects of mathematicsand programming. In the case of text, cheating by using an AI can be detected tosome extent.
3

Проблемы установления моральных взаимоотношений с искусственным агентом : магистерская диссертация / Problems of establishing a moral relationship with an artificial agent

Андреева, Е. В., Andreeva, E. V. January 2018 (has links)
В условиях того, что в современном мире научные достижения влияют и все в большей степени определяют человеческое существование, представляется, что созданный искусственный интеллект не будет исключением. Существуют основания полагать, что искусственный разум окажет наиболее сильное, до сих пор невиданное влияние на развитие социума. В связи с этим ученые и философы посвящают свои труды рассмотрению экзистенциальных рисков, связанных с созданием искусственного интеллекта и вырабатывают стратегии, предотвращающие возникновения таковых рисков. Однако не менее важно заниматься анализом того, какое место автономный искусственный агент способен занять в нашем мире, какую ценность, помимо инструментальной, он может нести в себе. Возможно ли признать за искусственным агентом личность, и способен ли искусственный интеллект на построение моральных отношений. Объектом исследования является теория искусственного интеллекта. Предметом исследования является морально-этический аспект теории искусственного интеллекта. Цель работы – установить, может ли ИИ в теоретическом плане обладать морально-личностной ценностью и проанализировать, в каких случаях достаточно оставить за ИИ инструментальную ценность. Методы, применяемые в исследовании: анализ, сравнение, герменевтический метод. Новизна данной диссертационной работы заключается в том, что в ней освящен вопрос о возможностях установления отношений морально-личностного уровня с ИИ. В результате исследования установлено, что искусственный интеллект в теоретическом плане может обладать морально-личностной ценностью. Искусственный интеллект, наделенный не только теоретическим, но и практическом разумом, обладающий автономией в решениях действовать, имеющий рациональные основания для поступков и способный нести за них ответственность был назван искусственным интеллектом морально-личностного уровня (ИИМЛУ). Кроме того, было установлено, что как в случае слабого ИИ, так и в случае сверхразума не имеет смысла говорить о морально-личностной ценности ИИ. Данные виды ИИ способны обладать лишь инструментальную ценность в человеческом обществе. / In the context of the fact that in the modern world scientific achievements influence and increasingly determine human existence, it seems that the created artificial intelligence will not be an exception. There are reasons to believe that the artificial intelligence will have the strongest, so far unseen influence on the development of the society. In this regard, scientists and philosophers devote their works to the consideration of existential risks associated with the creation of artificial intelligence and develop strategies that prevent the occurrence of such risks. However, it is equally important to analyze the place that an autonomous artificial agent can occupy in our world, what value, in addition to the instrumental, it can carry in itself. Is it possible to recognize a person in an artificial agent, and is artificial intelligence capable of building moral relations. The object of research work is the theory of artificial intelligence. The subject of the research work is the moral and ethical aspect of the theory of artificial intelligence. The purpose of the research work is to establish whether AI can theoretically possess moral and personal value and analyze in which cases it is enough to leave instrumental value for AI. The methods used in the research work: analysis, comparison, hermeneutic method. The novelty of this research work is that it discusses the question of the possibilities of establishing relations of moral and personal level with AI. As a result of the research it was established that artificial intelligence in the theoretical plan can have moral and personal value. Artificial intelligence, endowed with not only theoretical but also practical intelligence, possessing autonomy in decisions to act, having rational bases for actions and capable of being responsible for them, was called the artificial intellect of the moral-personal level (AIMPL). In addition, it was found that, as in the case of weak AI, and in the case of a superintelligence, it makes no sense to talk about the moral-personal value of AI. These types of AI can only have instrumental value in human society.
4

AI-paradoxen / The AI Paradox

Ytterström, Jonas January 2022 (has links)
Derek Parfit är kanske en av vår tids mest kända moralfilosofer. Parfit inleder sin första bok Reasons and Persons med att ställa frågan: vad har vi mest skäl att göra? Hans fråga berör vad som egentligen har betydelse, en fråga som han fortsätter att beröra i sin andra bok On What Matters. Filosofen Toby Ord argumenterar i sin bok The Precipice för att den utmaning som definierar vår tid, och bör ha en central prioritering, är utmaningen att skydda mänskligheten emot så kallade existentiella risker. En existentiell risk är en typ av risk som hotar att förstöra, eller förhindra, mänsklighetens långsiktiga potential. Ord menar att vi idag befinner oss vid en kritisk tidpunkt i mänsklighetens historia som kan vara helt avgörande för om det ens kommer existera en framtid för mänskligheten. Men om vi bör skydda mänskligheten emot existentiella risker, så kan en lämplig följdfråga vara i vilken ordning vi bör prioritera olika existentiella risker. Den svenske filosofen Nick Bostrom har liksom Ord länge förespråkat att existentiella risker bör tas på allvar. Han menar att preventiva åtgärder bör vidtas. I sin bok Superintelligens argumenterar Bostrom, både omfattande och väl, för att den existentiella risk som kan te sig som mest brådskande, och kanske allvarligast, är artificiell intelligens. Bostrom menar att vi har goda skäl att tro att utveckling av artificiell intelligens kan eskalera till den grad att mänsklighetens öde kan hamna bortom vår egen kontroll. Det han syftar på är att människan just nu är den dominerande agenten på jorden och därför innehar en stor kontroll, men att så inte alltid behöver vara fallet. Bostroms tes kunde te sig som okonventionell då den presenterades, men kan även te sig så idag vid en första anblick. Han har dock fått explicit medhåll av personer som Bill Gates, Stephen Hawking, Elon Musk, Yuval Noah Harari och Max Tegmark, som antingen håller med eller resonerar i liknande banor. Även jag själv finner Bostroms antaganden välgrundade. Slutsatsen som många drar är därför att vi bör betrakta artificiell intelligens som en existentiell risk som ska prioriteras högt. Jag kommer dock i denna text att argumentera för tesen att vi inte bör betrakta artificiell intelligens som en existentiell risk. Tesen följer från en invändning som jag kommer att kalla för AI-paradoxen. Det tycks enligt invändningen som att artificiell intelligens inte kan leda till en existentiell katastrof givet vissa premisser som flera i debatten om artificiell intelligens tycks acceptera. Texten i uppsatsen är strukturerad på följande sätt. I avsnitt 2 kommer jag att återge det övergripande argumentet som cirkulerar i debatten om artificiell intelligens som ett hot. I avsnittet kommer jag också förklara några viktiga termer och begrepp. I avsnitt 3 börjar jag med att titta på den första premissen i argumentet, samt resonera om dess rimlighet. I avsnitt 4 går jag sedan vidare till den andra premissen i argumentet och gör samma sak med den. Väl i avsnitt 5 så väljer jag att presentera min egen idé som jag kallar för AI-paradoxen, vilket är en invändning mot argumentet. I avsnitt 6 diskuterar jag sedan AI-paradoxens implikationer. Avslutningsvis, i avsnitt 7, så ger jag en övergripande sammanfattning och en slutsats, samt några sista reflektioner. / Derek Parfit is perhaps one of the most famous moral philosophers of our time. Parfit begins his first book Reasons and Persons by asking the question: what do we have most reason to do? His question touches upon what really matters, a question he continues to touch upon in his second book On What Matters. The philosopher Toby Ord argues in his book The Precipice that the challenge that defines our time, and should have a central priority, is the challenge of safeguarding humanity from so-called existential risks. An existential risk is a type of risk that threatens to destroy, or prevent, humanity’s longterm potential. Ord means that today we are at a critical time in the history of humanity that can be absolutely decisive for whether there will even exist a future for humanity. But if we are to safeguard humanity from existential risks, then an appropriate question may be in what order we should prioritize different existential risks. The Swedish philosopher Nick Bostrom, like Ord, has long advocated that existential risks should be taken seriously. He believes that preventive measures should be taken. In his book Superintelligence Bostrom argues, both extensively and well, that the existential risk that may seem most urgent, and perhaps most severe, is artificial intelligence. Bostrom believes that we have good reason to believe that the development of artificial intelligence can escalate to the point that the fate of humanity can end up beyond our own control. What he is referring to is that humans are currently the dominant agent on earth and therefore has great control, but that this does not always have to be the case. Bostrom's thesis may have seemed unconventional when it was presented, but it can also seem so today at first glance. However, he has been explicitly supported by people like Bill Gates, Stephen Hawking, Elon Musk, Yuval Noah Harari and Max Tegmark, who either agree or reason similarly. I myself also find Bostrom's assumptions well-founded. The conclusion that many draw is therefore that we should regard artificial intelligence as an existential risk that should be given a high priority. However, in this text I will argue for the thesis that we should not regard artificial intelligence as an existential risk. The thesis follows from an objection of my own, which I call the AI ​​paradox. According to the objection, it seems that artificial intelligence cannot lead to an existential catastrophe given certain premises that many in the debate about artificial intelligence as a threat seem to accept. The text in the essay is structured as follows. In section 2 I will present the main argument circulating in the debate about artificial intelligence as a threat. In the section I will also explain some important terms and concepts. In section 3 I begin by looking at the first premise in the argument, and also reason about its plausibility. In section 4 I proceed to the second premise in the argument and examine it similarly. Once in section 5 I choose to present my own idea, which I call the AI ​​paradox, which is an objection to the argument. In section 6 I discuss the implications of the AI ​​paradox. Finally, in section 7, I give an overall summary and a conclusion, as well as some last reflections.

Page generated in 0.015 seconds