1 |
"Jag kanske låter elak..." : En kvalitativ intervjustudie av uppfattningar hos gymnasieflickor i Eskilstuna om hur kön görs i ett sammanhang av klimat och miljöKarlsson, Linnea January 2019 (has links)
Syftet med denna studie är att genom ett genusperspektiv undersöka gymnasieflickors upplevelser av miljö och maskuliniteter i ett urval hämtat från tre gymnasieskolor i Eskilstuna. Genom denna studie vill jag bidra till en förståelse av hur kön görs i ett sammanhang av miljö och klimat. För att nå studiens syfte har åtta samtalsintervjuer genomförts med gymnasieflickor i åldrarna 16–19 år. De medverkande var från tre olika gymnasieskolor i Eskilstuna. Resultatet visade att maskulinitet anses i första hand vara en traditionell manlighet men utmanas av en i andra hand mjukare manlighet som dessutom får stöttning av flickorna. Kopplingarna mellan maskulinitet och miljö och klimat görs genom att beroende på dominerande mansideal legitimeras också visst typ av miljöengagemang. Den traditionella manligheten kopplas ihop med industrimodern maskulinitet och med mjukare mannen kopplas ihop med den ekomoderna maskuliniteten. Femininiteten görs i sammanhanget till ett ansvarstagande för djur och natur. Uppoffringar som att sluta att äta kött och förändrat bilbeteende ”trendar” hos flickorna, men inte hos pojkarna.
|
2 |
Berättelsen om antropogena klimatförändringar : Hur påverkar framing människors intention och motivation att agera klimatvänligt? / The story of anthropogenic climate change : How does framing affect people's intention and motivation to act climate-friendly?Friberg, Rasmus E., Opperdoes, Åsa January 2023 (has links)
Antropogena klimatförändringar, förkortat AK, är ett av nutidens stora miljöproblem. För att hantera AK är människors motivation och intention att agera klimatvänligt viktigt, eftersom avsaknad motivation och intention att adressera AK kan bringa negativa konsekvenser för samhället. Individers motivation och intention att agera klimatvänligt kan influeras av framing, vilket syftar till att betona specifika delar av verkligheten. Vilken framing som används kan vara avgörande ifall individer agerar klimatvänligt eller inte. Den konventionella framing som dominerar samhället grundas i att betona fakta och de negativa effekterna av AK. AK framställs som en inkräktande katastrof vilken bör hanteras via uppoffringar, förluster och kostnader. Konventionella klimatkommunikationen kan leda till passivitet hos individer och en önskan att undvika ämnet. Eftersom motivation och intention att agera klimatvänligt är betydande uppstår behovet att skapa en icke-konventionell framing som tar människors psykologiska barriärer i åtanke. Syftet med studien var att applicera Stoknes (2015) teori om de fem psykologiska barriärerna som hindrar en effektiv klimatkommunikation och hur dessa barriärer kan tas i åtanke för att uppnå en mer effektiv klimatkommunikation. Två olika framing alternativ i form av berättelser var fokus för studien. Frågeställningen var: Hur påverkar konventionell respektive icke-konventionell framing individers motivation och intention att agera klimatvänligt? För att testa berättelserna utfördes ett kontrollerat experiment och en sluten enkät utgjorde mätinstrument för att kvantifiera motivation och intention. Data från enkäten analyserades med Mann-Whitney U test och Cohen’s d test. En viss ökning av motivation och intention ägde rum, men det fanns inte en statistisk signifikant skillnad i motivation och intention att agera klimatvänligt efter deltagarna utsatts för en berättelse. Data antyder förändringar i motivation och intention skett för gruppen som tog del av icke-konventionella framing alternativet, och därmed bör fortsättningsstudier genomföras med normalfördelad population av betydligt större skala. Vidare kan potentiellt en annan vetenskapsteoretisk utgångspunkt nyttjas, specifikt flermetodsforskning. / Anthropogenic climate change, abbreviated ACC, is a major environmental problem. People’s motivation and intention to act climate-friendly is important in addressing ACC since lacking motivation and intention to address ACC can have dire consequences for society and the environment. Individuals’ motivation and intention to act climate-friendly can be influenced by framing, which refers to the practice of emphasizing certain aspects of reality. What type of framing is being utilized can be crucial regarding individuals acting climate-friendly. The conventional framing dominating society is based on emphasizing facts and negative consequences of ACC. ACC is portrayed as an encroaching disaster managed via sacrifices, losses, and costs. However, this can lead to passivity and a desire to avoid the topic. Since motivation and intention to act climate-friendly is important, the need for a non-conventional framing arises. The study's purpose was to create a framing that took psychological barriers into account based on Stoknes (2015) theories regarding climate communication and to investigate how it affected motivation and intention to act climate-friendly. The research question was: How do conventional framing and non-conventional framing affect individuals’ motivation and intention to act climate-friendly? Two framing alternatives made up of stories about ACC were tested during a controlled experiment, and motivation and intention were quantified utilizing a closed-ended questionnaire. Data were analyzed using the Mann-Whitney U test and Cohen’s d test. A slight increase in motivation and intention was measured, but no statistically significant difference existed in motivation and intention to act climate-friendly after the participants had been subjected to a framing alternative. Data suggests changes in motivation and intention to act climate-friendly occurred for the group subjected to the non-conventional framing, and thus further research should be conducted with a normally distributed population of a significantly larger scale. Furthermore, future studies could pursue mixed methods research.
|
3 |
AI-paradoxen / The AI ParadoxYtterström, Jonas January 2022 (has links)
Derek Parfit är kanske en av vår tids mest kända moralfilosofer. Parfit inleder sin första bok Reasons and Persons med att ställa frågan: vad har vi mest skäl att göra? Hans fråga berör vad som egentligen har betydelse, en fråga som han fortsätter att beröra i sin andra bok On What Matters. Filosofen Toby Ord argumenterar i sin bok The Precipice för att den utmaning som definierar vår tid, och bör ha en central prioritering, är utmaningen att skydda mänskligheten emot så kallade existentiella risker. En existentiell risk är en typ av risk som hotar att förstöra, eller förhindra, mänsklighetens långsiktiga potential. Ord menar att vi idag befinner oss vid en kritisk tidpunkt i mänsklighetens historia som kan vara helt avgörande för om det ens kommer existera en framtid för mänskligheten. Men om vi bör skydda mänskligheten emot existentiella risker, så kan en lämplig följdfråga vara i vilken ordning vi bör prioritera olika existentiella risker. Den svenske filosofen Nick Bostrom har liksom Ord länge förespråkat att existentiella risker bör tas på allvar. Han menar att preventiva åtgärder bör vidtas. I sin bok Superintelligens argumenterar Bostrom, både omfattande och väl, för att den existentiella risk som kan te sig som mest brådskande, och kanske allvarligast, är artificiell intelligens. Bostrom menar att vi har goda skäl att tro att utveckling av artificiell intelligens kan eskalera till den grad att mänsklighetens öde kan hamna bortom vår egen kontroll. Det han syftar på är att människan just nu är den dominerande agenten på jorden och därför innehar en stor kontroll, men att så inte alltid behöver vara fallet. Bostroms tes kunde te sig som okonventionell då den presenterades, men kan även te sig så idag vid en första anblick. Han har dock fått explicit medhåll av personer som Bill Gates, Stephen Hawking, Elon Musk, Yuval Noah Harari och Max Tegmark, som antingen håller med eller resonerar i liknande banor. Även jag själv finner Bostroms antaganden välgrundade. Slutsatsen som många drar är därför att vi bör betrakta artificiell intelligens som en existentiell risk som ska prioriteras högt. Jag kommer dock i denna text att argumentera för tesen att vi inte bör betrakta artificiell intelligens som en existentiell risk. Tesen följer från en invändning som jag kommer att kalla för AI-paradoxen. Det tycks enligt invändningen som att artificiell intelligens inte kan leda till en existentiell katastrof givet vissa premisser som flera i debatten om artificiell intelligens tycks acceptera. Texten i uppsatsen är strukturerad på följande sätt. I avsnitt 2 kommer jag att återge det övergripande argumentet som cirkulerar i debatten om artificiell intelligens som ett hot. I avsnittet kommer jag också förklara några viktiga termer och begrepp. I avsnitt 3 börjar jag med att titta på den första premissen i argumentet, samt resonera om dess rimlighet. I avsnitt 4 går jag sedan vidare till den andra premissen i argumentet och gör samma sak med den. Väl i avsnitt 5 så väljer jag att presentera min egen idé som jag kallar för AI-paradoxen, vilket är en invändning mot argumentet. I avsnitt 6 diskuterar jag sedan AI-paradoxens implikationer. Avslutningsvis, i avsnitt 7, så ger jag en övergripande sammanfattning och en slutsats, samt några sista reflektioner. / Derek Parfit is perhaps one of the most famous moral philosophers of our time. Parfit begins his first book Reasons and Persons by asking the question: what do we have most reason to do? His question touches upon what really matters, a question he continues to touch upon in his second book On What Matters. The philosopher Toby Ord argues in his book The Precipice that the challenge that defines our time, and should have a central priority, is the challenge of safeguarding humanity from so-called existential risks. An existential risk is a type of risk that threatens to destroy, or prevent, humanity’s longterm potential. Ord means that today we are at a critical time in the history of humanity that can be absolutely decisive for whether there will even exist a future for humanity. But if we are to safeguard humanity from existential risks, then an appropriate question may be in what order we should prioritize different existential risks. The Swedish philosopher Nick Bostrom, like Ord, has long advocated that existential risks should be taken seriously. He believes that preventive measures should be taken. In his book Superintelligence Bostrom argues, both extensively and well, that the existential risk that may seem most urgent, and perhaps most severe, is artificial intelligence. Bostrom believes that we have good reason to believe that the development of artificial intelligence can escalate to the point that the fate of humanity can end up beyond our own control. What he is referring to is that humans are currently the dominant agent on earth and therefore has great control, but that this does not always have to be the case. Bostrom's thesis may have seemed unconventional when it was presented, but it can also seem so today at first glance. However, he has been explicitly supported by people like Bill Gates, Stephen Hawking, Elon Musk, Yuval Noah Harari and Max Tegmark, who either agree or reason similarly. I myself also find Bostrom's assumptions well-founded. The conclusion that many draw is therefore that we should regard artificial intelligence as an existential risk that should be given a high priority. However, in this text I will argue for the thesis that we should not regard artificial intelligence as an existential risk. The thesis follows from an objection of my own, which I call the AI paradox. According to the objection, it seems that artificial intelligence cannot lead to an existential catastrophe given certain premises that many in the debate about artificial intelligence as a threat seem to accept. The text in the essay is structured as follows. In section 2 I will present the main argument circulating in the debate about artificial intelligence as a threat. In the section I will also explain some important terms and concepts. In section 3 I begin by looking at the first premise in the argument, and also reason about its plausibility. In section 4 I proceed to the second premise in the argument and examine it similarly. Once in section 5 I choose to present my own idea, which I call the AI paradox, which is an objection to the argument. In section 6 I discuss the implications of the AI paradox. Finally, in section 7, I give an overall summary and a conclusion, as well as some last reflections.
|
Page generated in 0.0747 seconds