Moralisk agens hos djur, AI och andra icke-människor

Bild: Eli Leo Ydén
Den 12 januari försvarade Dorna Behdadi sin avhandling i praktisk filosofi vid Göteborgs universitet. Här ger hen en sammanfattning av avhandlingen.
Dorna Behdadi

Kan icke-mänskliga djur eller maskiner och system som använder artificiell intelligens (AI) handla moraliskt rätt eller fel? Är det möjligt att moraliskt klandra någon annan än människor?

Inom filosofin har det länge varit en etablerad uppfattning att endast vuxna människor har de egenskaper som krävs för moralisk agens, såsom fri vilja eller förmåga till reflektion. I min avhandling ifrågasätter jag detta: I stället för att hålla fast vid det traditionella synsättet, där moralisk agens anses vara förbehållet de som har särskilda individuella egenskaper eller förmågor, så förespråkar jag en praktikorienterad ansats.

Moralisk agens anses här i stället realiseras genom kompetent deltagande i sociala praktiker där beröm, klander, och andra former av moraliskt ansvar både utdelas och bemöts. Jag menar att ett synsätt som centrerar sociala interaktioner kan belysa bristerna hos de traditionella kriterierna för moralisk agens på ett sätt som öppnar upp för en utvidgning av vilka som omfattas av begreppet.

Tänk dig att du står i kö för att betala i mataffären. Plötsligt känner du en knuff i knävecket som får dig att vackla till och tappa varukorgen i golvet. Förvånad och irriterad vänder du dig om för att ta reda på vad som hänt och eventuellt ställa någon till svars. Men hur du reagerar, och bör reagera, mot personen som knuffade dig är inte självklart. Det verkar till exempel vara en väsentlig skillnad om den du möter är en person som flinar och filmar dig med sin mobilkamera, eller en person som ligger nedslagen med gipsat ben och kryckor.

Medan den första personen verkar ha knuffat dig med flit och visat illvilja, verkar den andra personen ha råkat stöta till dig av misstag. Det vore därför lämpligt att klandra och hålla den första personen ansvarig, men olämpligt att göra detsamma mot den senare. På detta sätt kan våra attityder och beteenden kring moraliskt ansvar belysa de förhållanden där klander är lämpligt och befogat, samt när omständigheterna ursäktar en person från moraliskt ansvar.

Men huruvida någon är lämplig att klandras och hållas till svars för sina handlingar beror i en mer grundläggande mening på vilken typ av agent hen är. Antag att du – när du vänder dig om i kassakön – i stället möts av en tvååring. Här verkar moraliskt klander inte lämpligt över huvud taget. Du slänger kanske en fordrande blick på vårdnadshavaren men släpper sedan det hela. Tvååringen är undantagen moraliskt ansvar eftersom små barn inte anses vara moraliska agenter. Av samma skäl brukar icke-mänskliga entiteter, som skator och hundar, eller AI-baserade program och avancerade robotar, anses vara undantagna moraliskt ansvar.

AI och avancerade robotars beslut och handlingar är resultat av mänsklig programmering och design. Många hävdar därför att maskiner inte kan ”författa” värderingar, mål eller beslut, utan agerar alltid utifrån (om än inte alltid i enlighet med) mänskliga avsikter och mål.

De filosofiska skäl som framförs för varför djur och maskiner är undantagna skiljer sig dock åt beroende på vilken av de två grupperna som avses. Skeptiker till artificiell moralisk agens menar exempelvis att maskiner bland annat saknar den kontroll som krävs för att kunna hållas moraliskt ansvariga. AI och avancerade robotars beslut och handlingar är resultat av mänsklig programmering och design. Många hävdar därför att maskiner inte kan ”författa” värderingar, mål eller beslut, utan agerar alltid utifrån (om än inte alltid i enlighet med) mänskliga avsikter och mål. Därför är AI och robotar bara avancerade verktyg som inte kan tillskrivas egna värderingar, beslut eller avsikter.

När det gäller icke-mänskliga djur, framhåller skeptiker delvis andra skäl. Medan djur tillskrivs medvetande, och därmed anses ha subjektiva mentala tillstånd, som känslor, menar skeptiker att de saknar förmåga till moralisk reflektion. De kan därför inte fundera över vad som vore moraliskt rätt eller fel, utan agerar utifrån impulser och begär. Därför är varken icke-mänskliga djur eller artificiella entiteter moraliska agenter och kan vare sig klandras eller berömmas för sina handlingar eller karaktärsdrag.

Jag menar att mycket av den skepsis som framförs mot icke-mänsklig moralisk agens bygger på uppfattningar som inte speglar de omständigheter och egenskaper som är centrala för när, hur och varför människor faktiskt håller varandra moraliskt ansvariga.

Men genom att utgå från människors sociala ansvarspraktiker, och empirisk data om mänsklig psykologi, i stället för ogrundade idéer om mänsklig rationalitet och kontroll, kan vi säkerställa kriterier som återspeglar faktiska och allmänna egenskaper hos den vedertagna måttstocken: vuxna människor.

I stället verkar en hel del argument bygga på så kallad antropofabulering: den mänskliga tendensen att utgå från överdrivna eller falska antaganden om mänsklig psykologi och beteende för att fastställa kriterier och gränsdragningar. Men genom att utgå från människors sociala ansvarspraktiker, och empirisk data om mänsklig psykologi, i stället för ogrundade idéer om mänsklig rationalitet och kontroll, kan vi säkerställa kriterier som återspeglar faktiska och allmänna egenskaper hos den vedertagna måttstocken: vuxna människor. Det, i sin tur, har fördelen att möjliggöra relevanta och rättvisa bedömningar av moralisk agens hos andra än vuxna människor.

I min avhandling visar jag att de vanligaste argumenten mot att AI och djur är moraliska agenter bygger på just antropofabulering. Till exempel visar det praktikorienterade synsättet att vi håller andra människor moraliskt ansvariga när vi uppfattar att de genom sina handlingar eller underlåtelser uppvisar illvilja, likgiltighet eller bristande hänsyn gentemot oss och andra.

Bristande kontroll är relevant endast i den mån det kan säga oss något om huruvida en agents handlingar (eller underlåtelser) är tecken på illvilja, bristande hänsyn eller likgiltighet gentemot andra. Dessutom, eftersom alla människor är produkter av arv och miljö, är även våra drivkrafter, attityder och värderingar i en mening ”programmerade” av arvsmassa och formade av de olika miljöer vi befinner oss i.

Sammantaget är det därför obefogat att hävda att maskiner automatiskt är diskvalificerade från moraliskt ansvar för att de är tillverkade av människor eller programmerade att bete sig på ett givet sätt eller enligt givna riktlinjer. Det krävs andra argument för att stödja tesen att människor, men inte AI eller robotar, har en typ av kontroll som är relevant för moralisk agens.

Kravet på förmåga till moralisk reflektion tycks också vara ett exempel på antropofabulering. Att tala högt i mobilen klockan halv tolv en vardagskväll på spårvagnen är en handling som vanligtvis anses uttrycka bristande hänsyn. Det hjälper inte att personen i fråga ursäktar sig med att hen inte tänkte på att det satt andra i vagnen, för det är just det – att hen inte uppmärksammade sina medpassagerare – som gör oss irriterade eller ledsna. På motsvarande sätt tycker vi att en person är moraliskt berömvärd när hen, utan att hinna reflektera, kastar sig i vattnet för att rädda någon från att drunkna.

En agents handling värderas därmed utifrån vilka attityder och värderingar handlingen ger uttryck för snarare än hens förmåga att reflektera och resonera om rätt och fel. Därför är det inte självklart att moralisk reflektion bör utgöra ett kriterium för moraliskt ansvar. Följaktligen bör inte icke-mänskliga djur nekas moralisk agens på grundval av att de skulle sakna förmåga att reflektera moraliskt.

En annan konsekvens av det praktikorienterade synsättet är att det synliggör att moralisk agens är mer mångfacetterat än vad man tidigare har trott. Traditionella kriterier brukar utgå från en förståelse där moralisk agens är detsamma som att agenten är lämplig att berömmas, klandras och på andra sätt hållas ansvarig.

Men givet att deltagande i ansvarspraktiker innefattar både en part som är föremål för beröm eller klander och en annan part som berömmer eller klandrar, behöver våra begrepp och kriterier spegla även den senare rollen. En entitet skulle kunna hålla andra ansvariga även om den inte är (fullt) lämplig att själv hållas ansvarig. Sådana nyanseringar av moralisk agens kan sedan användas för att undersöka konsekvenserna av och önskvärdheten i att tillskriva moralisk agens till fler än vuxna människor.

För att kunna uppfylla våra skyldigheter gentemot icke-mänskliga djur menar jag att det därför finns goda skäl att erkänna, och möjliggöra, dem som potentiella klandrare i våra ansvarspraktiker.

Eftersom både djur och AI alltmer förekommer i sociala sammanhang tillsammans med människor så skulle en utvidgning av vem som är moralisk agent kunna leda till en rad möjliga konsekvenser som är viktiga att beakta. Till exempel verkar vissa moralpsykologiska fynd peka på att vi människor är mer benägna att bry oss om och beakta dem vi ser som potentiella klandrare.

Icke-mänskliga djur, som kor, fiskar, höns, och katter, har moralisk status och implicerar därför att människor har moraliska skyldigheter gentemot dem. För att kunna uppfylla våra skyldigheter gentemot icke-mänskliga djur menar jag att det därför finns goda skäl att erkänna, och möjliggöra, dem som potentiella klandrare i våra ansvarspraktiker.

Däremot tror jag att det finns skäl att vara mycket mer restriktiv när det kommer till maskiner. AI och avancerade robotar är agenter vars egenskaper och roller i dagsläget till stor del avgörs av människor. Givet att det inte vore önskvärt att människor börjar se och behandla maskiner som moraliska agenter, menar jag att vi bör vara försiktiga med att utveckla och placera AI i sociala sammanhang och roller där människor riskerar att tillskriva dem moralisk agens.


Behdadi, D. (2023). Nonhuman Moral Agency: A Practice-Focused Exploration of Moral Agency in Nonhuman Animals and Artificial Intelligence. Acta Universitatis Gothoburgensis.

Avhandlingen är fritt tillgänglig och kan laddas ner från Göteborgs universitets elektroniska arkiv.

  • Doktor i praktisk filosofi vid Göteborgs universitet.

Bidra till att främja filosofins roll och närvaro i samhället.

Foto: Matthew Henry/Unsplash
Filosofi och ekonomi kan låta som två helt skilda världar. Joakim Sandberg är professor i både filosofi och ekonomi och hans forskning handlar ofta om skärningspunkten mellan dessa ämnen. Här berättar han mer om hur han brottats med denna motsättning.
Joakim Sandberg
Foto: Laura Clark. Modifierad bild.
Nyttan kanske är stor, men vad går vi miste om när användandet av AI blir mer och mer utbrett? Och varför har AI-användade denna effekt på våra liv? Sven Nyholm diskuterar här detta betydelsefulla tema inom AI-etik.
Sven Nyholm
Foto: Federico Di Dio/Unsplash
Genom historien har filosofin knoppat av sig den ena akademiska disciplinen efter den andra. Ett av de senaste ämnena är kognitionsvetenskap. Peter Gärdenfors diskuterar här hur separationen från filosofin gick till och hur kognitionsvetenskapen utvecklats därefter.
Peter Gärdenfors
Foto: Pavan Trikutan/Unsplash
Christian Munthe brukar förklara för de som frågar om hans filosofiska verksamhet att han jobbar mycket tvärvetenskapligt. Men vad innebär det? Och på vilka sätt kan filosofin användas tvärvetenskapligt? Det beror delvis på vad man menar med tvärvetenskap, delvis på vad som räknas som filosofi.
Christian Munthe
Den fjärde oktober 2025 försvarade Jiwon Kim sin avhandling i praktisk filosofi vid Lunds universitet. Här ger hon en sammanfattning och introduktion till varför moralisk rådgivning är så intressant.
Jiwon Kim
Foto: Adrien Converse/Unsplash
En gyllene nyckel som låser upp många nya vägar framåt. Så beskriver Karl Bergman det filosofiska system som filosofen Ruth Millikans tänkande utgör.
Karl Bergman
Foto: Florian Krumm/Unsplash
Vad är egentligen filosofins uppgift, till skillnad från sociologins, politikens eller aktivismens uppgift? Ellen Davidsson visar hur frågan allt mer ställs på sin spets inom socialontologi.
Ellen Davidsson
Frits Gåvertsson skriver om moralfilosofins relation till idéer om det goda livet och skiftet från frågan 'hur bör jag leva?' till 'vad bör jag göra i en given situation?'.
Frits Gåvertsson
Foto: Javier Miranda/Unsplash
Vad vår planet tål sätter gränser för vad vi människor får göra. Planetär etik erbjuder ett etiskt ramverk där jorden, snarare än människan, står i centrum för moraliska överväganden.
Silvana Hultsch
Foto: Manta X/Unsplash.
Hur förhåller sig logiken, filosofins mest abstrakta underavdelning, till etiken och samhällsvetenskaperna? Olli Lagerspetz presenterar här Peter Winch tankesätt på logiken, etiken och samhällsfilosofin som sammanvävda.
Olli Lagerspetz