Hösten 2020 fick jag ett uppdrag: att bygga en moralisk robot. Vid det laget var jag ganska trött på filosofi och sugen på att göra något mer konkret – bygga något. Förutsättningarna var inte så dumma. Min handledare, Christian Balkenius, har byggt olika slags robotar i över 30 år, och på vår institution i Lund finns det till och med ett robotlabb, bara tio meter från mitt kontor.
Den 26 april 2025 försvarade jag min doktorsavhandling How to build nice robots: ethics from theory to machine implementation. Men jag lyckades aldrig ta mig till labbet. Tvärtom har de tio metrarna bara känts längre och längre.
Trots misslyckandet har jag ändå lärt mig mycket – både om maskiner, moral och hur de möjligtvis kan förenas. I avhandlingen har jag försökt sammanfatta detta som en receptbok. Vissa delar innehåller ingredienser – tekniska komponenter såsom algoritmer och AI-metoder som kan användas i bygget. Andra delar fokuserar på mer teoretiska frågor, om hur moral kan förstås utifrån ett maskin-perspektiv och vad det egentligen innebär att vara en moralisk agent. Och vissa delar fungerar mer som tips på saker att tänka på innan man ens sätter igång med sitt bygge.
En utmaning är att filosofer och ingenjörer ofta har helt olika sätt att tänka och prata om moral.
Det går att dela in receptboken i två delar. Den första delen är mer teknisk: Hur vi med diverse datametoder kan konstruera maskiner som på ett eller annat sätt gör det som är moraliskt rätt.
Det kanske låter enkelt: Om du som ingenjör har en tydlig idé om vad som ärmoraliskt rätt kan du helt enkelt programmera in det, och voilà, vår maskin är moralisk. Men i min avhandling fokuserar jag på en rad svårigheter som gör detta mycket mer komplicerat, och hur vi kan hantera dessa.
En utmaning är att filosofer och ingenjörer ofta har helt olika sätt att tänka och prata om moral. Vissa är duktiga på att bygga utan att ifrågasätta. Andra är duktiga på att ifrågasätta byggnationer, med mer eller mindre förståelse för byggnadskonsten.
Resultatet? De missförstår varandra. Det leder till motstridiga visioner om hur moraliska maskiner kan och bör byggas. Min lösning är att de helt enkelt måste lära sig att prata med varandra, och detta kan de göra genom att förstå hur den andre förstår, skapar och tillämpar kunskap.
En annan lösning som jag förespråkar är att vända sig till dygdetik. I stället för att programmera in strikta instruktioner om hur maskiner ska agera så kan vi ge dom förutsättningarna att lära sig goda karaktärsdrag (dygder), vilket kan förstås som en benägenhet att göra det rätta i olika praktiska kontexter.
Detta, menar jag, rimmar bättre med hur människor är som moraliska varelser – hur de tänker, känner och lär sig. Jag visar hur detta kan modelleras med modern AI-teknik och presenterar dataexperiment där ”artificiella dygdiga agenter” lär sig att möta och anpassa sig till olika moraliska dilemman utifrån kontext.
En annan fråga jag utforskar är: Vilka moraliska problem kan maskiner faktiskt lösa? För detta har jag använt beräkningskomplexitet, där man definierar svårigheten hos problem utifrån hur mycket resurser (till exempel tid och minne) de kräver för att lösas. Ta till exempel Sudoku. Det finns ingen instruktionsbok eller algoritm som effektivt kan lösa en Sudoku på en gång – en människa liksom en maskin måste fortfarande utforska en mängd olika svarslösningar för att lösa den.
Resultatet är entydigt: Etik är jättesvårt!
Jag analyserar just hur svåra olika moraliska problem är – problem som att identifiera den bästa konsekvensen, följa den rätta regeln eller lära sig vad man bör göra.
Resultatet är entydigt: Etik är jättesvårt! Mer specifikt, om moraliska beslut innefattar planering, ofullständig information, taktiskt resonemang, logik eller inlärning så förutsätter det lösningar på beräkningsmässigt svåra problem.
Men trots begränsade resurser tycks ändå både maskiner och människor kunna hantera moraliska problem på något sätt. Hur?
Genom förenklingar och genvägar. Men är dessa förenklingar och genvägar berättigade? Leder de till tillräckligt bra lösningar utifrån våra etiska ideal?
Jag föreslår att vi bör studera moralkognition för maskiner liksom människor utifrån just sådana frågor, vilket ger nya insikter om hur moralkognition fungerar – möjliggörs, begränsas och kan göras bättre – i skärpunkten av praktik och ideal.
I andra halvan av receptboken går jag mer filosofiskt till väga och frågar: Vad är egentligen en moralisk agent? Här utforskar jag två olika sätt att tänka.
Det första fokuserar på kapaciteter vi har på ”insidan”: En agent måste ha saker som fri vilja, förnuft och medvetande för att vara moralisk. Det andra sättet utgår från vår ”externa” sociala praktik: Vi behandlar varandra som moraliskt ansvariga aktörer, inte för att vi först analyserar varandras inre, utan för att det ingår i hur vi lever tillsammans.
För människor är klyftan mellan dessa synsätt inte så tydlig – våra kapaciteter och vår praktik går ofta hand i hand. Vi har en vilja, ett förnuft, ett inre liv, och vi förutsätter att andra människor i våra sociala liv också har det.
Men hur ska vi förhålla oss till maskinerna?
Här går åsikterna skilda vägar. Vissa menar att maskiner inte är moraliska agenter då de saknar de rätta kapaciteterna (vilja, förnuft, medvetande). Andra menar att de kan vara moraliska agenter utifrån deras plats i våra sociala liv.
Vi har inte levt med maskiner tillräckligt länge, eller på rätt sätt, för att kunna tillskriva dom moralisk agens.
Jag föreslår att vi bör se dom som två sammanflätade sidor av ett och samma mynt, där våra (mänskliga) inre förmågor har formats i samspel med våra sociala praktiker över miljoner år av naturhistoria, millennium av kultur och vår uppfostran – och fortsätter omformas dagligen.
Utifrån detta perspektiv menar jag att vi inte levt med maskiner tillräckligt länge, eller på rätt sätt, för att kunna tillskriva dom moralisk agens; i alla fall inte om vi använder människan som måttstock.
Men det betyder inte att det är för all framtid omöjligt, eller att vi måste använda just människan som måttstock.
Detta var några exempel på saker ni kan läsa om i min avhandling. Jag hoppas den kommer vara till nytta för två sorters människor. För dom som vill försöka göra det jag misslyckades med: Att ta sig hela vägen till robotlabbet, och våga möta alla de hinder som finns på vägen dit.
Och för dom som vill ta ett steg tillbaka och ställa fler frågor: Varför tänker, känner och handlar vi som vi gör? Och varför bör vi bete oss mot varandra på vissa sätt snarare än andra? När vi närmar oss dessa frågor ur en maskinbyggares perspektiv upptäcker vi nya sätt att besvara dem – vägar som annars kanske skulle förbli osynliga.
Stenseke, Jakob (2025). How to build nice robots. Ethics from theory to machine implementation. Doktorsavhandling, Lunds universitet.
Avhandlingen är fritt tillgänglig och kan laddas ner från Lunds universitets forskningsportal.