Kan icke-mänskliga djur eller maskiner och system som använder artificiell intelligens (AI) handla moraliskt rätt eller fel? Är det möjligt att moraliskt klandra någon annan än människor?
Inom filosofin har det länge varit en etablerad uppfattning att endast vuxna människor har de egenskaper som krävs för moralisk agens, såsom fri vilja eller förmåga till reflektion. I min avhandling ifrågasätter jag detta: I stället för att hålla fast vid det traditionella synsättet, där moralisk agens anses vara förbehållet de som har särskilda individuella egenskaper eller förmågor, så förespråkar jag en praktikorienterad ansats.
Moralisk agens anses här i stället realiseras genom kompetent deltagande i sociala praktiker där beröm, klander, och andra former av moraliskt ansvar både utdelas och bemöts. Jag menar att ett synsätt som centrerar sociala interaktioner kan belysa bristerna hos de traditionella kriterierna för moralisk agens på ett sätt som öppnar upp för en utvidgning av vilka som omfattas av begreppet.
Tänk dig att du står i kö för att betala i mataffären. Plötsligt känner du en knuff i knävecket som får dig att vackla till och tappa varukorgen i golvet. Förvånad och irriterad vänder du dig om för att ta reda på vad som hänt och eventuellt ställa någon till svars. Men hur du reagerar, och bör reagera, mot personen som knuffade dig är inte självklart. Det verkar till exempel vara en väsentlig skillnad om den du möter är en person som flinar och filmar dig med sin mobilkamera, eller en person som ligger nedslagen med gipsat ben och kryckor.
Medan den första personen verkar ha knuffat dig med flit och visat illvilja, verkar den andra personen ha råkat stöta till dig av misstag. Det vore därför lämpligt att klandra och hålla den första personen ansvarig, men olämpligt att göra detsamma mot den senare. På detta sätt kan våra attityder och beteenden kring moraliskt ansvar belysa de förhållanden där klander är lämpligt och befogat, samt när omständigheterna ursäktar en person från moraliskt ansvar.
Men huruvida någon är lämplig att klandras och hållas till svars för sina handlingar beror i en mer grundläggande mening på vilken typ av agent hen är. Antag att du – när du vänder dig om i kassakön – i stället möts av en tvååring. Här verkar moraliskt klander inte lämpligt över huvud taget. Du slänger kanske en fordrande blick på vårdnadshavaren men släpper sedan det hela. Tvååringen är undantagen moraliskt ansvar eftersom små barn inte anses vara moraliska agenter. Av samma skäl brukar icke-mänskliga entiteter, som skator och hundar, eller AI-baserade program och avancerade robotar, anses vara undantagna moraliskt ansvar.
De filosofiska skäl som framförs för varför djur och maskiner är undantagna skiljer sig dock åt beroende på vilken av de två grupperna som avses. Skeptiker till artificiell moralisk agens menar exempelvis att maskiner bland annat saknar den kontroll som krävs för att kunna hållas moraliskt ansvariga. AI och avancerade robotars beslut och handlingar är resultat av mänsklig programmering och design. Många hävdar därför att maskiner inte kan ”författa” värderingar, mål eller beslut, utan agerar alltid utifrån (om än inte alltid i enlighet med) mänskliga avsikter och mål. Därför är AI och robotar bara avancerade verktyg som inte kan tillskrivas egna värderingar, beslut eller avsikter.
När det gäller icke-mänskliga djur, framhåller skeptiker delvis andra skäl. Medan djur tillskrivs medvetande, och därmed anses ha subjektiva mentala tillstånd, som känslor, menar skeptiker att de saknar förmåga till moralisk reflektion. De kan därför inte fundera över vad som vore moraliskt rätt eller fel, utan agerar utifrån impulser och begär. Därför är varken icke-mänskliga djur eller artificiella entiteter moraliska agenter och kan vare sig klandras eller berömmas för sina handlingar eller karaktärsdrag.
Jag menar att mycket av den skepsis som framförs mot icke-mänsklig moralisk agens bygger på uppfattningar som inte speglar de omständigheter och egenskaper som är centrala för när, hur och varför människor faktiskt håller varandra moraliskt ansvariga.
I stället verkar en hel del argument bygga på så kallad antropofabulering: den mänskliga tendensen att utgå från överdrivna eller falska antaganden om mänsklig psykologi och beteende för att fastställa kriterier och gränsdragningar. Men genom att utgå från människors sociala ansvarspraktiker, och empirisk data om mänsklig psykologi, i stället för ogrundade idéer om mänsklig rationalitet och kontroll, kan vi säkerställa kriterier som återspeglar faktiska och allmänna egenskaper hos den vedertagna måttstocken: vuxna människor. Det, i sin tur, har fördelen att möjliggöra relevanta och rättvisa bedömningar av moralisk agens hos andra än vuxna människor.
I min avhandling visar jag att de vanligaste argumenten mot att AI och djur är moraliska agenter bygger på just antropofabulering. Till exempel visar det praktikorienterade synsättet att vi håller andra människor moraliskt ansvariga när vi uppfattar att de genom sina handlingar eller underlåtelser uppvisar illvilja, likgiltighet eller bristande hänsyn gentemot oss och andra.
Bristande kontroll är relevant endast i den mån det kan säga oss något om huruvida en agents handlingar (eller underlåtelser) är tecken på illvilja, bristande hänsyn eller likgiltighet gentemot andra. Dessutom, eftersom alla människor är produkter av arv och miljö, är även våra drivkrafter, attityder och värderingar i en mening ”programmerade” av arvsmassa och formade av de olika miljöer vi befinner oss i.
Sammantaget är det därför obefogat att hävda att maskiner automatiskt är diskvalificerade från moraliskt ansvar för att de är tillverkade av människor eller programmerade att bete sig på ett givet sätt eller enligt givna riktlinjer. Det krävs andra argument för att stödja tesen att människor, men inte AI eller robotar, har en typ av kontroll som är relevant för moralisk agens.
Kravet på förmåga till moralisk reflektion tycks också vara ett exempel på antropofabulering. Att tala högt i mobilen klockan halv tolv en vardagskväll på spårvagnen är en handling som vanligtvis anses uttrycka bristande hänsyn. Det hjälper inte att personen i fråga ursäktar sig med att hen inte tänkte på att det satt andra i vagnen, för det är just det – att hen inte uppmärksammade sina medpassagerare – som gör oss irriterade eller ledsna. På motsvarande sätt tycker vi att en person är moraliskt berömvärd när hen, utan att hinna reflektera, kastar sig i vattnet för att rädda någon från att drunkna.
En agents handling värderas därmed utifrån vilka attityder och värderingar handlingen ger uttryck för snarare än hens förmåga att reflektera och resonera om rätt och fel. Därför är det inte självklart att moralisk reflektion bör utgöra ett kriterium för moraliskt ansvar. Följaktligen bör inte icke-mänskliga djur nekas moralisk agens på grundval av att de skulle sakna förmåga att reflektera moraliskt.
En annan konsekvens av det praktikorienterade synsättet är att det synliggör att moralisk agens är mer mångfacetterat än vad man tidigare har trott. Traditionella kriterier brukar utgå från en förståelse där moralisk agens är detsamma som att agenten är lämplig att berömmas, klandras och på andra sätt hållas ansvarig.
Men givet att deltagande i ansvarspraktiker innefattar både en part som är föremål för beröm eller klander och en annan part som berömmer eller klandrar, behöver våra begrepp och kriterier spegla även den senare rollen. En entitet skulle kunna hålla andra ansvariga även om den inte är (fullt) lämplig att själv hållas ansvarig. Sådana nyanseringar av moralisk agens kan sedan användas för att undersöka konsekvenserna av och önskvärdheten i att tillskriva moralisk agens till fler än vuxna människor.
Eftersom både djur och AI alltmer förekommer i sociala sammanhang tillsammans med människor så skulle en utvidgning av vem som är moralisk agent kunna leda till en rad möjliga konsekvenser som är viktiga att beakta. Till exempel verkar vissa moralpsykologiska fynd peka på att vi människor är mer benägna att bry oss om och beakta dem vi ser som potentiella klandrare.
Icke-mänskliga djur, som kor, fiskar, höns, och katter, har moralisk status och implicerar därför att människor har moraliska skyldigheter gentemot dem. För att kunna uppfylla våra skyldigheter gentemot icke-mänskliga djur menar jag att det därför finns goda skäl att erkänna, och möjliggöra, dem som potentiella klandrare i våra ansvarspraktiker.
Däremot tror jag att det finns skäl att vara mycket mer restriktiv när det kommer till maskiner. AI och avancerade robotar är agenter vars egenskaper och roller i dagsläget till stor del avgörs av människor. Givet att det inte vore önskvärt att människor börjar se och behandla maskiner som moraliska agenter, menar jag att vi bör vara försiktiga med att utveckla och placera AI i sociala sammanhang och roller där människor riskerar att tillskriva dem moralisk agens.
Behdadi, D. (2023). Nonhuman Moral Agency: A Practice-Focused Exploration of Moral Agency in Nonhuman Animals and Artificial Intelligence. Acta Universitatis Gothoburgensis.
Avhandlingen är fritt tillgänglig och kan laddas ner från Göteborgs universitets elektroniska arkiv.