Hur bygger man moraliska robotar?

Den 26 april försvarade Jakob Stenseke framgångsrikt sin avhandling, trots att den misslyckades med vad den ämnade göra. Här sammanfattar han sitt arbete och visar varför komplicerade frågor, som förblir obesvarade, är såväl nödvändiga som intressanta att ställa.
Jakob Stenseke

Hösten 2020 fick jag ett uppdrag: att bygga en moralisk robot. Vid det laget var jag ganska trött på filosofi och sugen på att göra något mer konkret – bygga något. Förutsättningarna var inte så dumma. Min handledare, Christian Balkenius, har byggt olika slags robotar i över 30 år, och på vår institution i Lund finns det till och med ett robotlabb, bara tio meter från mitt kontor.

Den 26 april 2025 försvarade jag min doktorsavhandling How to build nice robots: ethics from theory to machine implementation. Men jag lyckades aldrig ta mig till labbet. Tvärtom har de tio metrarna bara känts längre och längre.

Trots misslyckandet har jag ändå lärt mig mycket – både om maskiner, moral och hur de möjligtvis kan förenas. I avhandlingen har jag försökt sammanfatta detta som en receptbok. Vissa delar innehåller ingredienser – tekniska komponenter såsom algoritmer och AI-metoder som kan användas i bygget. Andra delar fokuserar på mer teoretiska frågor, om hur moral kan förstås utifrån ett maskin-perspektiv och vad det egentligen innebär att vara en moralisk agent. Och vissa delar fungerar mer som tips på saker att tänka på innan man ens sätter igång med sitt bygge.

En utmaning är att filosofer och ingenjörer ofta har helt olika sätt att tänka och prata om moral.

Det går att dela in receptboken i två delar. Den första delen är mer teknisk: Hur vi med diverse datametoder kan konstruera maskiner som på ett eller annat sätt gör det som är moraliskt rätt.

Det kanske låter enkelt: Om du som ingenjör har en tydlig idé om vad som ärmoraliskt rätt kan du helt enkelt programmera in det, och voilà, vår maskin är moralisk. Men i min avhandling fokuserar jag på en rad svårigheter som gör detta mycket mer komplicerat, och hur vi kan hantera dessa.

En utmaning är att filosofer och ingenjörer ofta har helt olika sätt att tänka och prata om moral. Vissa är duktiga på att bygga utan att ifrågasätta. Andra är duktiga på att ifrågasätta byggnationer, med mer eller mindre förståelse för byggnadskonsten.

Resultatet? De missförstår varandra. Det leder till motstridiga visioner om hur moraliska maskiner kan och bör byggas. Min lösning är att de helt enkelt måste lära sig att prata med varandra, och detta kan de göra genom att förstå hur den andre förstår, skapar och tillämpar kunskap.

En annan lösning som jag förespråkar är att vända sig till dygdetik. I stället för att programmera in strikta instruktioner om hur maskiner ska agera så kan vi ge dom förutsättningarna att lära sig goda karaktärsdrag (dygder), vilket kan förstås som en benägenhet att göra det rätta i olika praktiska kontexter.

Detta, menar jag, rimmar bättre med hur människor är som moraliska varelser – hur de tänker, känner och lär sig. Jag visar hur detta kan modelleras med modern AI-teknik och presenterar dataexperiment där ”artificiella dygdiga agenter” lär sig att möta och anpassa sig till olika moraliska dilemman utifrån kontext.

En annan fråga jag utforskar är: Vilka moraliska problem kan maskiner faktiskt lösa? För detta har jag använt beräkningskomplexitet, där man definierar svårigheten hos problem utifrån hur mycket resurser (till exempel tid och minne) de kräver för att lösas. Ta till exempel Sudoku. Det finns ingen instruktionsbok eller algoritm som effektivt kan lösa en Sudoku på en gång – en människa liksom en maskin måste fortfarande utforska en mängd olika svarslösningar för att lösa den.

Resultatet är entydigt: Etik är jättesvårt!

Jag analyserar just hur svåra olika moraliska problem är – problem som att identifiera den bästa konsekvensen, följa den rätta regeln eller lära sig vad man bör göra.

Resultatet är entydigt: Etik är jättesvårt! Mer specifikt, om moraliska beslut innefattar planering, ofullständig information, taktiskt resonemang, logik eller inlärning så förutsätter det lösningar på beräkningsmässigt svåra problem.

Men trots begränsade resurser tycks ändå både maskiner och människor kunna hantera moraliska problem på något sätt. Hur?

Genom förenklingar och genvägar. Men är dessa förenklingar och genvägar berättigade? Leder de till tillräckligt bra lösningar utifrån våra etiska ideal?

Jag föreslår att vi bör studera moralkognition för maskiner liksom människor utifrån just sådana frågor, vilket ger nya insikter om hur moralkognition fungerar – möjliggörs, begränsas och kan göras bättre – i skärpunkten av praktik och ideal.

I andra halvan av receptboken går jag mer filosofiskt till väga och frågar: Vad är egentligen en moralisk agent? Här utforskar jag två olika sätt att tänka.

Det första fokuserar på kapaciteter vi har på ”insidan”: En agent måste ha saker som fri vilja, förnuft och medvetande för att vara moralisk. Det andra sättet utgår från vår ”externa” sociala praktik: Vi behandlar varandra som moraliskt ansvariga aktörer, inte för att vi först analyserar varandras inre, utan för att det ingår i hur vi lever tillsammans.

För människor är klyftan mellan dessa synsätt inte så tydlig – våra kapaciteter och vår praktik går ofta hand i hand. Vi har en vilja, ett förnuft, ett inre liv, och vi förutsätter att andra människor i våra sociala liv också har det.

Men hur ska vi förhålla oss till maskinerna?

Här går åsikterna skilda vägar. Vissa menar att maskiner inte är moraliska agenter då de saknar de rätta kapaciteterna (vilja, förnuft, medvetande). Andra menar att de kan vara moraliska agenter utifrån deras plats i våra sociala liv.

Vi har inte levt med maskiner tillräckligt länge, eller på rätt sätt, för att kunna tillskriva dom moralisk agens.

Jag föreslår att vi bör se dom som två sammanflätade sidor av ett och samma mynt, där våra (mänskliga) inre förmågor har formats i samspel med våra sociala praktiker över miljoner år av naturhistoria, millennium av kultur och vår uppfostran – och fortsätter omformas dagligen.

Utifrån detta perspektiv menar jag att vi inte levt med maskiner tillräckligt länge, eller på rätt sätt, för att kunna tillskriva dom moralisk agens; i alla fall inte om vi använder människan som måttstock.

Men det betyder inte att det är för all framtid omöjligt, eller att vi måste använda just människan som måttstock.

Detta var några exempel på saker ni kan läsa om i min avhandling. Jag hoppas den kommer vara till nytta för två sorters människor. För dom som vill försöka göra det jag misslyckades med: Att ta sig hela vägen till robotlabbet, och våga möta alla de hinder som finns på vägen dit.

Och för dom som vill ta ett steg tillbaka och ställa fler frågor: Varför tänker, känner och handlar vi som vi gör? Och varför bör vi bete oss mot varandra på vissa sätt snarare än andra? När vi närmar oss dessa frågor ur en maskinbyggares perspektiv upptäcker vi nya sätt att besvara dem – vägar som annars kanske skulle förbli osynliga.


Stenseke, Jakob (2025). How to build nice robots. Ethics from theory to machine implementation. Doktorsavhandling, Lunds universitet.

Avhandlingen är fritt tillgänglig och kan laddas ner från Lunds universitets forskningsportal.

Bidra till att främja filosofins roll och närvaro i samhället.

Foto: Manta X/Unsplash.
Hur förhåller sig logiken, filosofins mest abstrakta underavdelning, till etiken och samhällsvetenskaperna? Olli Lagerspetz presenterar här Peter Winch tankesätt på logiken, etiken och samhällsfilosofin som sammanvävda.
Olli Lagerspetz
Den 12 september 2025 försvarade Melina Tsapos sin avhandling i teoretisk filosofi vid Lunds universitet. Här sammanfattar hon dess innehåll, ansats och syfte.
Melina Tsapos
Foto: Mathieu Stern/Unsplash
Är rikedom och snygghet nyckeln till lycka? Pauliina Remes visar att antika filosofer kan lära oss hur vi omdirigerar våra begär till något mer genuint gott.
Pauliina Remes
Foto: National Cancer Institute/Unsplash
Den moderna vetenskapen närmar sig möjligheten att skapa barn helt syntetiskt, utan biologiskt tillskott från verkliga människor. Vad betyder det för mänskligheten? Vilka etiska frågor väcker tekniken?
Daniela Cutas
Foto: Vince Fleming/Unsplash
Både idéhistoriker och filosofihistoriker ägnar sig åt historiska filosofiska tankar. Men de gör det på olika sätt, och med olika syften. Här diskuterar Victoria Fareld vad som skiljer ämnena åt.
Victoria Fareld
Foto: Alexandr Kornienko/Unsplash
Vad händer med vår kreativitet när generativ AI producerar texter, bilder och musik på några sekunder? AI-forskaren Oliver Li reflekterar över mänsklig kreativitet som relationer, processer och meningsskapande.
Oliver Li
Foto: Birmingham Museums Trust
Figurer i den antika litteraturen uppträder ofta som hänsynslösa mördare – utan att deras beteende fördöms eller ens kommenteras av berättaren. Varför väcker vissa moraliska överträdelser i fiktionen vårt motstånd, medan andra passerar obemärkta förbi? Eric Cullhed skriver om hur Iliadens moral alltid fått översättare att vilja rädda diktaren från sig själv.
Eric Cullhed
Foto: Nicholas Green/Unsplash
Om flera personer får rösta om ett faktapåstående, och var och en gör sin egen bedömning, så ökar chansen att gruppen som helhet har rätt ju fler som röstar. Men tänk om personerna i gruppen har förutfattade meningar om exempelvis kön eller etnicitet. Vad betyder det för resultatet?
Katharina Berndt
Foto: Niklas Garnholz/Unsplash
Finns det idéer som är farliga i sig själva? Aaron Goldman förklarar idén bakom internetvärldens ökända tankeexperiment "Rokos Basilisk" och visar att liknande tankegångar finns i äldre filosofiska teser om tro och motiv.
Aaron Goldman
Foto: Brecht Corbeel/Unsplash
Pornografiska deepfakes – hyperrealistiska AI-genererade videor eller bilder, ofta med kvinnor som offer – är djupt oetiska. Men att förklara exakt vad som gör dem moraliskt fel är både komplext och kontroversiellt.
Nils-Hennes Stear