Moralisk agens hos djur, AI och andra icke-människor

Bild: Eli Leo Ydén
Den 12 januari försvarade Dorna Behdadi sin avhandling i praktisk filosofi vid Göteborgs universitet. Här ger hen en sammanfattning av avhandlingen.
Dorna Behdadi

Kan icke-mänskliga djur eller maskiner och system som använder artificiell intelligens (AI) handla moraliskt rätt eller fel? Är det möjligt att moraliskt klandra någon annan än människor?

Inom filosofin har det länge varit en etablerad uppfattning att endast vuxna människor har de egenskaper som krävs för moralisk agens, såsom fri vilja eller förmåga till reflektion. I min avhandling ifrågasätter jag detta: I stället för att hålla fast vid det traditionella synsättet, där moralisk agens anses vara förbehållet de som har särskilda individuella egenskaper eller förmågor, så förespråkar jag en praktikorienterad ansats.

Moralisk agens anses här i stället realiseras genom kompetent deltagande i sociala praktiker där beröm, klander, och andra former av moraliskt ansvar både utdelas och bemöts. Jag menar att ett synsätt som centrerar sociala interaktioner kan belysa bristerna hos de traditionella kriterierna för moralisk agens på ett sätt som öppnar upp för en utvidgning av vilka som omfattas av begreppet.

Tänk dig att du står i kö för att betala i mataffären. Plötsligt känner du en knuff i knävecket som får dig att vackla till och tappa varukorgen i golvet. Förvånad och irriterad vänder du dig om för att ta reda på vad som hänt och eventuellt ställa någon till svars. Men hur du reagerar, och bör reagera, mot personen som knuffade dig är inte självklart. Det verkar till exempel vara en väsentlig skillnad om den du möter är en person som flinar och filmar dig med sin mobilkamera, eller en person som ligger nedslagen med gipsat ben och kryckor.

Medan den första personen verkar ha knuffat dig med flit och visat illvilja, verkar den andra personen ha råkat stöta till dig av misstag. Det vore därför lämpligt att klandra och hålla den första personen ansvarig, men olämpligt att göra detsamma mot den senare. På detta sätt kan våra attityder och beteenden kring moraliskt ansvar belysa de förhållanden där klander är lämpligt och befogat, samt när omständigheterna ursäktar en person från moraliskt ansvar.

Men huruvida någon är lämplig att klandras och hållas till svars för sina handlingar beror i en mer grundläggande mening på vilken typ av agent hen är. Antag att du – när du vänder dig om i kassakön – i stället möts av en tvååring. Här verkar moraliskt klander inte lämpligt över huvud taget. Du slänger kanske en fordrande blick på vårdnadshavaren men släpper sedan det hela. Tvååringen är undantagen moraliskt ansvar eftersom små barn inte anses vara moraliska agenter. Av samma skäl brukar icke-mänskliga entiteter, som skator och hundar, eller AI-baserade program och avancerade robotar, anses vara undantagna moraliskt ansvar.

AI och avancerade robotars beslut och handlingar är resultat av mänsklig programmering och design. Många hävdar därför att maskiner inte kan ”författa” värderingar, mål eller beslut, utan agerar alltid utifrån (om än inte alltid i enlighet med) mänskliga avsikter och mål.

De filosofiska skäl som framförs för varför djur och maskiner är undantagna skiljer sig dock åt beroende på vilken av de två grupperna som avses. Skeptiker till artificiell moralisk agens menar exempelvis att maskiner bland annat saknar den kontroll som krävs för att kunna hållas moraliskt ansvariga. AI och avancerade robotars beslut och handlingar är resultat av mänsklig programmering och design. Många hävdar därför att maskiner inte kan ”författa” värderingar, mål eller beslut, utan agerar alltid utifrån (om än inte alltid i enlighet med) mänskliga avsikter och mål. Därför är AI och robotar bara avancerade verktyg som inte kan tillskrivas egna värderingar, beslut eller avsikter.

När det gäller icke-mänskliga djur, framhåller skeptiker delvis andra skäl. Medan djur tillskrivs medvetande, och därmed anses ha subjektiva mentala tillstånd, som känslor, menar skeptiker att de saknar förmåga till moralisk reflektion. De kan därför inte fundera över vad som vore moraliskt rätt eller fel, utan agerar utifrån impulser och begär. Därför är varken icke-mänskliga djur eller artificiella entiteter moraliska agenter och kan vare sig klandras eller berömmas för sina handlingar eller karaktärsdrag.

Jag menar att mycket av den skepsis som framförs mot icke-mänsklig moralisk agens bygger på uppfattningar som inte speglar de omständigheter och egenskaper som är centrala för när, hur och varför människor faktiskt håller varandra moraliskt ansvariga.

Men genom att utgå från människors sociala ansvarspraktiker, och empirisk data om mänsklig psykologi, i stället för ogrundade idéer om mänsklig rationalitet och kontroll, kan vi säkerställa kriterier som återspeglar faktiska och allmänna egenskaper hos den vedertagna måttstocken: vuxna människor.

I stället verkar en hel del argument bygga på så kallad antropofabulering: den mänskliga tendensen att utgå från överdrivna eller falska antaganden om mänsklig psykologi och beteende för att fastställa kriterier och gränsdragningar. Men genom att utgå från människors sociala ansvarspraktiker, och empirisk data om mänsklig psykologi, i stället för ogrundade idéer om mänsklig rationalitet och kontroll, kan vi säkerställa kriterier som återspeglar faktiska och allmänna egenskaper hos den vedertagna måttstocken: vuxna människor. Det, i sin tur, har fördelen att möjliggöra relevanta och rättvisa bedömningar av moralisk agens hos andra än vuxna människor.

I min avhandling visar jag att de vanligaste argumenten mot att AI och djur är moraliska agenter bygger på just antropofabulering. Till exempel visar det praktikorienterade synsättet att vi håller andra människor moraliskt ansvariga när vi uppfattar att de genom sina handlingar eller underlåtelser uppvisar illvilja, likgiltighet eller bristande hänsyn gentemot oss och andra.

Bristande kontroll är relevant endast i den mån det kan säga oss något om huruvida en agents handlingar (eller underlåtelser) är tecken på illvilja, bristande hänsyn eller likgiltighet gentemot andra. Dessutom, eftersom alla människor är produkter av arv och miljö, är även våra drivkrafter, attityder och värderingar i en mening ”programmerade” av arvsmassa och formade av de olika miljöer vi befinner oss i.

Sammantaget är det därför obefogat att hävda att maskiner automatiskt är diskvalificerade från moraliskt ansvar för att de är tillverkade av människor eller programmerade att bete sig på ett givet sätt eller enligt givna riktlinjer. Det krävs andra argument för att stödja tesen att människor, men inte AI eller robotar, har en typ av kontroll som är relevant för moralisk agens.

Kravet på förmåga till moralisk reflektion tycks också vara ett exempel på antropofabulering. Att tala högt i mobilen klockan halv tolv en vardagskväll på spårvagnen är en handling som vanligtvis anses uttrycka bristande hänsyn. Det hjälper inte att personen i fråga ursäktar sig med att hen inte tänkte på att det satt andra i vagnen, för det är just det – att hen inte uppmärksammade sina medpassagerare – som gör oss irriterade eller ledsna. På motsvarande sätt tycker vi att en person är moraliskt berömvärd när hen, utan att hinna reflektera, kastar sig i vattnet för att rädda någon från att drunkna.

En agents handling värderas därmed utifrån vilka attityder och värderingar handlingen ger uttryck för snarare än hens förmåga att reflektera och resonera om rätt och fel. Därför är det inte självklart att moralisk reflektion bör utgöra ett kriterium för moraliskt ansvar. Följaktligen bör inte icke-mänskliga djur nekas moralisk agens på grundval av att de skulle sakna förmåga att reflektera moraliskt.

En annan konsekvens av det praktikorienterade synsättet är att det synliggör att moralisk agens är mer mångfacetterat än vad man tidigare har trott. Traditionella kriterier brukar utgå från en förståelse där moralisk agens är detsamma som att agenten är lämplig att berömmas, klandras och på andra sätt hållas ansvarig.

Men givet att deltagande i ansvarspraktiker innefattar både en part som är föremål för beröm eller klander och en annan part som berömmer eller klandrar, behöver våra begrepp och kriterier spegla även den senare rollen. En entitet skulle kunna hålla andra ansvariga även om den inte är (fullt) lämplig att själv hållas ansvarig. Sådana nyanseringar av moralisk agens kan sedan användas för att undersöka konsekvenserna av och önskvärdheten i att tillskriva moralisk agens till fler än vuxna människor.

För att kunna uppfylla våra skyldigheter gentemot icke-mänskliga djur menar jag att det därför finns goda skäl att erkänna, och möjliggöra, dem som potentiella klandrare i våra ansvarspraktiker.

Eftersom både djur och AI alltmer förekommer i sociala sammanhang tillsammans med människor så skulle en utvidgning av vem som är moralisk agent kunna leda till en rad möjliga konsekvenser som är viktiga att beakta. Till exempel verkar vissa moralpsykologiska fynd peka på att vi människor är mer benägna att bry oss om och beakta dem vi ser som potentiella klandrare.

Icke-mänskliga djur, som kor, fiskar, höns, och katter, har moralisk status och implicerar därför att människor har moraliska skyldigheter gentemot dem. För att kunna uppfylla våra skyldigheter gentemot icke-mänskliga djur menar jag att det därför finns goda skäl att erkänna, och möjliggöra, dem som potentiella klandrare i våra ansvarspraktiker.

Däremot tror jag att det finns skäl att vara mycket mer restriktiv när det kommer till maskiner. AI och avancerade robotar är agenter vars egenskaper och roller i dagsläget till stor del avgörs av människor. Givet att det inte vore önskvärt att människor börjar se och behandla maskiner som moraliska agenter, menar jag att vi bör vara försiktiga med att utveckla och placera AI i sociala sammanhang och roller där människor riskerar att tillskriva dem moralisk agens.


Behdadi, D. (2023). Nonhuman Moral Agency: A Practice-Focused Exploration of Moral Agency in Nonhuman Animals and Artificial Intelligence. Acta Universitatis Gothoburgensis.

Avhandlingen är fritt tillgänglig och kan laddas ner från Göteborgs universitets elektroniska arkiv.

  • Doktor i praktisk filosofi vid Göteborgs universitet.

Bidra till att främja filosofins roll och närvaro i samhället.

Foto: Javier Miranda/Unsplash
Vad vår planet tål sätter gränser för vad vi människor får göra. Planetär etik erbjuder ett etiskt ramverk där jorden, snarare än människan, står i centrum för moraliska överväganden.
Silvana Hultsch
Foto: Manta X/Unsplash.
Hur förhåller sig logiken, filosofins mest abstrakta underavdelning, till etiken och samhällsvetenskaperna? Olli Lagerspetz presenterar här Peter Winch tankesätt på logiken, etiken och samhällsfilosofin som sammanvävda.
Olli Lagerspetz
Den 12 september 2025 försvarade Melina Tsapos sin avhandling i teoretisk filosofi vid Lunds universitet. Här sammanfattar hon dess innehåll, ansats och syfte.
Melina Tsapos
Foto: Mathieu Stern/Unsplash
Är rikedom och snygghet nyckeln till lycka? Pauliina Remes visar att antika filosofer kan lära oss hur vi omdirigerar våra begär till något mer genuint gott.
Pauliina Remes
Foto: National Cancer Institute/Unsplash
Den moderna vetenskapen närmar sig möjligheten att skapa barn helt syntetiskt, utan biologiskt tillskott från verkliga människor. Vad betyder det för mänskligheten? Vilka etiska frågor väcker tekniken?
Daniela Cutas
Foto: Vince Fleming/Unsplash
Både idéhistoriker och filosofihistoriker ägnar sig åt historiska filosofiska tankar. Men de gör det på olika sätt, och med olika syften. Här diskuterar Victoria Fareld vad som skiljer ämnena åt.
Victoria Fareld
Foto: Alexandr Kornienko/Unsplash
Vad händer med vår kreativitet när generativ AI producerar texter, bilder och musik på några sekunder? AI-forskaren Oliver Li reflekterar över mänsklig kreativitet som relationer, processer och meningsskapande.
Oliver Li
Foto: Birmingham Museums Trust
Figurer i den antika litteraturen uppträder ofta som hänsynslösa mördare – utan att deras beteende fördöms eller ens kommenteras av berättaren. Varför väcker vissa moraliska överträdelser i fiktionen vårt motstånd, medan andra passerar obemärkta förbi? Eric Cullhed skriver om hur Iliadens moral alltid fått översättare att vilja rädda diktaren från sig själv.
Eric Cullhed
Foto: Nicholas Green/Unsplash
Om flera personer får rösta om ett faktapåstående, och var och en gör sin egen bedömning, så ökar chansen att gruppen som helhet har rätt ju fler som röstar. Men tänk om personerna i gruppen har förutfattade meningar om exempelvis kön eller etnicitet. Vad betyder det för resultatet?
Katharina Berndt
Foto: Niklas Garnholz/Unsplash
Finns det idéer som är farliga i sig själva? Aaron Goldman förklarar idén bakom internetvärldens ökända tankeexperiment "Rokos Basilisk" och visar att liknande tankegångar finns i äldre filosofiska teser om tro och motiv.
Aaron Goldman