• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1
  • 1
  • 1
  • Tagged with
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

The Morse Code Room: Applicability of the Chinese Room Argument to Spiking Neural Networks

Brinz, Johannes 24 February 2023 (has links)
The Chinese room argument (CRA) was first stated in 1980. Since then computer technologies have improved and today spiking neural networks (SNNs) are “arguably the only viable option if one wants to understand how the brain computes.” (Tavanei et.al. 2019: 47) SNNs differ in various important respects from the digital computers the CRA was directed against. The objective of the present work is to explore whether the CRA applies to SNNs. In the first chapter I am going to discuss computationalism, the Chinese room argument and give a brief overview over spiking neural networks. The second chapter is going to be considered with five important differences between SNNs and digital computers: (1) Massive parallelism, (2) subsymbolic computation, (3) machine learning, (4) analogue representation and (5) temporal encoding. I am going to finish by concluding that, besides minor limitations, the Chinese room argument can be applied to spiking neural networks.:1 Introduction 2 Theoretical background 2.I Strong AI: Computationalism 2.II The Chinese room argument 2.III Spiking neural networks 3 Applicability to spiking neural networks 3.I Massive parallelism 3.II Subsymbolic computation 3.III Machine learning 3.IV Analogue representation 3.V Temporal encoding 3.VI The Morse code room and its replies 3.VII Some more general considerations regarding hardware and software 4 Conclusion / Das Argument vom chinesischen Zimmer wurde erstmals 1980 veröffentlicht. Seit dieser Zeit hat sich die Computertechnologie stark weiterentwickelt und die heute viel beachteten gepulsten neuronalen Netze ähneln stark dem Aufbau und der Arbeitsweise biologischer Gehirne. Gepulste neuronale Netze unterscheiden sich in verschiedenen wichtigen Aspekten von den digitalen Computern, gegen die die CRA gerichtet war. Das Ziel der vorliegenden Arbeit ist es, zu untersuchen, ob das Argument vom chinesischen Zimmer auf gepulste neuronale Netze anwendbar ist. Im ersten Kapitel werde ich den Computer-Funktionalismus und das Argument des chinesischen Zimmers erörtern und einen kurzen Überblick über gepulste neuronale Netze geben. Das zweite Kapitel befasst sich mit fünf wichtigen Unterschieden zwischen gepulsten neuronalen Netzen und digitalen Computern: (1) Massive Parallelität, (2) subsymbolische Berechnung, (3) maschinelles Lernen, (4) analoge Darstellung und (5) zeitliche Kodierung. Ich werde schlussfolgern, dass das Argument des chinesischen Zimmers, abgesehen von geringfügigen Einschränkungen, auf gepulste neuronale Netze angewendet werden kann.:1 Introduction 2 Theoretical background 2.I Strong AI: Computationalism 2.II The Chinese room argument 2.III Spiking neural networks 3 Applicability to spiking neural networks 3.I Massive parallelism 3.II Subsymbolic computation 3.III Machine learning 3.IV Analogue representation 3.V Temporal encoding 3.VI The Morse code room and its replies 3.VII Some more general considerations regarding hardware and software 4 Conclusion
2

Проблемы установления моральных взаимоотношений с искусственным агентом : магистерская диссертация / Problems of establishing a moral relationship with an artificial agent

Андреева, Е. В., Andreeva, E. V. January 2018 (has links)
В условиях того, что в современном мире научные достижения влияют и все в большей степени определяют человеческое существование, представляется, что созданный искусственный интеллект не будет исключением. Существуют основания полагать, что искусственный разум окажет наиболее сильное, до сих пор невиданное влияние на развитие социума. В связи с этим ученые и философы посвящают свои труды рассмотрению экзистенциальных рисков, связанных с созданием искусственного интеллекта и вырабатывают стратегии, предотвращающие возникновения таковых рисков. Однако не менее важно заниматься анализом того, какое место автономный искусственный агент способен занять в нашем мире, какую ценность, помимо инструментальной, он может нести в себе. Возможно ли признать за искусственным агентом личность, и способен ли искусственный интеллект на построение моральных отношений. Объектом исследования является теория искусственного интеллекта. Предметом исследования является морально-этический аспект теории искусственного интеллекта. Цель работы – установить, может ли ИИ в теоретическом плане обладать морально-личностной ценностью и проанализировать, в каких случаях достаточно оставить за ИИ инструментальную ценность. Методы, применяемые в исследовании: анализ, сравнение, герменевтический метод. Новизна данной диссертационной работы заключается в том, что в ней освящен вопрос о возможностях установления отношений морально-личностного уровня с ИИ. В результате исследования установлено, что искусственный интеллект в теоретическом плане может обладать морально-личностной ценностью. Искусственный интеллект, наделенный не только теоретическим, но и практическом разумом, обладающий автономией в решениях действовать, имеющий рациональные основания для поступков и способный нести за них ответственность был назван искусственным интеллектом морально-личностного уровня (ИИМЛУ). Кроме того, было установлено, что как в случае слабого ИИ, так и в случае сверхразума не имеет смысла говорить о морально-личностной ценности ИИ. Данные виды ИИ способны обладать лишь инструментальную ценность в человеческом обществе. / In the context of the fact that in the modern world scientific achievements influence and increasingly determine human existence, it seems that the created artificial intelligence will not be an exception. There are reasons to believe that the artificial intelligence will have the strongest, so far unseen influence on the development of the society. In this regard, scientists and philosophers devote their works to the consideration of existential risks associated with the creation of artificial intelligence and develop strategies that prevent the occurrence of such risks. However, it is equally important to analyze the place that an autonomous artificial agent can occupy in our world, what value, in addition to the instrumental, it can carry in itself. Is it possible to recognize a person in an artificial agent, and is artificial intelligence capable of building moral relations. The object of research work is the theory of artificial intelligence. The subject of the research work is the moral and ethical aspect of the theory of artificial intelligence. The purpose of the research work is to establish whether AI can theoretically possess moral and personal value and analyze in which cases it is enough to leave instrumental value for AI. The methods used in the research work: analysis, comparison, hermeneutic method. The novelty of this research work is that it discusses the question of the possibilities of establishing relations of moral and personal level with AI. As a result of the research it was established that artificial intelligence in the theoretical plan can have moral and personal value. Artificial intelligence, endowed with not only theoretical but also practical intelligence, possessing autonomy in decisions to act, having rational bases for actions and capable of being responsible for them, was called the artificial intellect of the moral-personal level (AIMPL). In addition, it was found that, as in the case of weak AI, and in the case of a superintelligence, it makes no sense to talk about the moral-personal value of AI. These types of AI can only have instrumental value in human society.
3

AI-paradoxen / The AI Paradox

Ytterström, Jonas January 2022 (has links)
Derek Parfit är kanske en av vår tids mest kända moralfilosofer. Parfit inleder sin första bok Reasons and Persons med att ställa frågan: vad har vi mest skäl att göra? Hans fråga berör vad som egentligen har betydelse, en fråga som han fortsätter att beröra i sin andra bok On What Matters. Filosofen Toby Ord argumenterar i sin bok The Precipice för att den utmaning som definierar vår tid, och bör ha en central prioritering, är utmaningen att skydda mänskligheten emot så kallade existentiella risker. En existentiell risk är en typ av risk som hotar att förstöra, eller förhindra, mänsklighetens långsiktiga potential. Ord menar att vi idag befinner oss vid en kritisk tidpunkt i mänsklighetens historia som kan vara helt avgörande för om det ens kommer existera en framtid för mänskligheten. Men om vi bör skydda mänskligheten emot existentiella risker, så kan en lämplig följdfråga vara i vilken ordning vi bör prioritera olika existentiella risker. Den svenske filosofen Nick Bostrom har liksom Ord länge förespråkat att existentiella risker bör tas på allvar. Han menar att preventiva åtgärder bör vidtas. I sin bok Superintelligens argumenterar Bostrom, både omfattande och väl, för att den existentiella risk som kan te sig som mest brådskande, och kanske allvarligast, är artificiell intelligens. Bostrom menar att vi har goda skäl att tro att utveckling av artificiell intelligens kan eskalera till den grad att mänsklighetens öde kan hamna bortom vår egen kontroll. Det han syftar på är att människan just nu är den dominerande agenten på jorden och därför innehar en stor kontroll, men att så inte alltid behöver vara fallet. Bostroms tes kunde te sig som okonventionell då den presenterades, men kan även te sig så idag vid en första anblick. Han har dock fått explicit medhåll av personer som Bill Gates, Stephen Hawking, Elon Musk, Yuval Noah Harari och Max Tegmark, som antingen håller med eller resonerar i liknande banor. Även jag själv finner Bostroms antaganden välgrundade. Slutsatsen som många drar är därför att vi bör betrakta artificiell intelligens som en existentiell risk som ska prioriteras högt. Jag kommer dock i denna text att argumentera för tesen att vi inte bör betrakta artificiell intelligens som en existentiell risk. Tesen följer från en invändning som jag kommer att kalla för AI-paradoxen. Det tycks enligt invändningen som att artificiell intelligens inte kan leda till en existentiell katastrof givet vissa premisser som flera i debatten om artificiell intelligens tycks acceptera. Texten i uppsatsen är strukturerad på följande sätt. I avsnitt 2 kommer jag att återge det övergripande argumentet som cirkulerar i debatten om artificiell intelligens som ett hot. I avsnittet kommer jag också förklara några viktiga termer och begrepp. I avsnitt 3 börjar jag med att titta på den första premissen i argumentet, samt resonera om dess rimlighet. I avsnitt 4 går jag sedan vidare till den andra premissen i argumentet och gör samma sak med den. Väl i avsnitt 5 så väljer jag att presentera min egen idé som jag kallar för AI-paradoxen, vilket är en invändning mot argumentet. I avsnitt 6 diskuterar jag sedan AI-paradoxens implikationer. Avslutningsvis, i avsnitt 7, så ger jag en övergripande sammanfattning och en slutsats, samt några sista reflektioner. / Derek Parfit is perhaps one of the most famous moral philosophers of our time. Parfit begins his first book Reasons and Persons by asking the question: what do we have most reason to do? His question touches upon what really matters, a question he continues to touch upon in his second book On What Matters. The philosopher Toby Ord argues in his book The Precipice that the challenge that defines our time, and should have a central priority, is the challenge of safeguarding humanity from so-called existential risks. An existential risk is a type of risk that threatens to destroy, or prevent, humanity’s longterm potential. Ord means that today we are at a critical time in the history of humanity that can be absolutely decisive for whether there will even exist a future for humanity. But if we are to safeguard humanity from existential risks, then an appropriate question may be in what order we should prioritize different existential risks. The Swedish philosopher Nick Bostrom, like Ord, has long advocated that existential risks should be taken seriously. He believes that preventive measures should be taken. In his book Superintelligence Bostrom argues, both extensively and well, that the existential risk that may seem most urgent, and perhaps most severe, is artificial intelligence. Bostrom believes that we have good reason to believe that the development of artificial intelligence can escalate to the point that the fate of humanity can end up beyond our own control. What he is referring to is that humans are currently the dominant agent on earth and therefore has great control, but that this does not always have to be the case. Bostrom's thesis may have seemed unconventional when it was presented, but it can also seem so today at first glance. However, he has been explicitly supported by people like Bill Gates, Stephen Hawking, Elon Musk, Yuval Noah Harari and Max Tegmark, who either agree or reason similarly. I myself also find Bostrom's assumptions well-founded. The conclusion that many draw is therefore that we should regard artificial intelligence as an existential risk that should be given a high priority. However, in this text I will argue for the thesis that we should not regard artificial intelligence as an existential risk. The thesis follows from an objection of my own, which I call the AI ​​paradox. According to the objection, it seems that artificial intelligence cannot lead to an existential catastrophe given certain premises that many in the debate about artificial intelligence as a threat seem to accept. The text in the essay is structured as follows. In section 2 I will present the main argument circulating in the debate about artificial intelligence as a threat. In the section I will also explain some important terms and concepts. In section 3 I begin by looking at the first premise in the argument, and also reason about its plausibility. In section 4 I proceed to the second premise in the argument and examine it similarly. Once in section 5 I choose to present my own idea, which I call the AI ​​paradox, which is an objection to the argument. In section 6 I discuss the implications of the AI ​​paradox. Finally, in section 7, I give an overall summary and a conclusion, as well as some last reflections.

Page generated in 0.0179 seconds