Kants djuretik och superintelligent AI

Den tyske 1700-talsfilo­sofen Immanuel Kant under­kände idén att vi skulle kunna ha moraliska skyldigheter gentemot (icke-mänskliga) djur. Som argument anförde han att djur saknar rationellt tänkande, något han menade är nödvändigt för att besitta moraliska rättigheter. Ändå hävdade han att det är fel att exempelvis tortera en hund. Den som gör det begår dock enligt Kant inte något fel mot hunden, utan mot sig själv, till följd av att beteendet riske­rar att erodera ens allmänna moraliska dygdighet. I för­längningen kan detta leda till att man beter sig illa även mot andra människor.

Kants tankegång är intres­sant, även om dagens moral­filosofer oftast menar att den egenskap som ger en individ moralisk rätt att slippa utstå tortyr nog inte är det ratio­nella tänkandet; ett vanligare och rimligare förslag är med­vetandet och förmågan till li­dande. Huruvida djur besitter medvetande vet vi inte säkert, men tills vidare förefaller det rimligt att anta att de faktiskt gör det – åtminstone i fallet med hundar (men måhända inte lika uppenbart i fallet insekter).

Intressant är också re­ligionsfilosofen Oliver Lis artikel Vänlig AI – eller vänliga människor? (Sans 4, 2022), som lyfter idén att ett resone­mang liknande Kants skulle kunna vara applicerbart på vårt agerande i förhållande inte bara till djur, utan även till robotar och artificiell intel­ligens (AI). Precis som i fallet med djur vet vi inte huruvida en AI besitter medvetande: för de AI-system som finns i dag är svaret troligen nej, men för framtida mer avancerad AI är saken betydligt mindre klar, och i takt med dagens snabba tekniska utveckling på AI-om­rådet börjar frågan bli alltmer brännande. Li menar dock att även under antagandet att AI-medvetande är omöjligt, så är frågan om mänskligt be­teende gentemot robotar och AI viktig, på liknande vis som Kant ansåg vårt beteende mot djur moraliskt relevant.

Frågan om hur interaktion med AI kan komma att påver­ka en persons allmänna be­teende och moraluppfattning behandlas förtjänstfullt av Li, som särskilt fokuserar på vän­lighet i samtal och andra väx­elspel mellan människa och AI. Det är dock viktigt att vara klar över att den sortens fråga bara är en bland många inom det snabbt växande området AI-etik. Andra viktiga frågor rör exempelvis risken för bias i AI-assisterat beslutsfattande, integritet och massövervak­ning, AI-algoritmernas polari­serande effekter i sociala me­dier, arbetsmarknadseffekter av AI-driven automatisering och militära användningar. I min bok Tänkande maskiner tar jag upp dessa och en lång rad andra frågor som aktua­liseras av den accelererande AI-utvecklingen.

Den enda egentliga kritik jag vill rikta mot Oliver Lis artikel är att han ger sina re­sonemang om vänlighet en in­ramning som blir missvisande genom dess förminskning av både omfång och allvar i detta bredare spektrum av frågor om AI och dess sociala konsekvenser. Redan i inled­ningsstyckets tal om AI »som närmar sig eller rentav uppnår mänsklig intelligens« ges det vilseledande intrycket att mänsklig nivå på intelligens skulle utgöra ett slags tak för hur kraftfull en AI kan bli. Så är emellertid inte fallet, och några av AI-etikens allra vik­tigaste frågeställningar hand­lar om vad som händer den dag vi lyckats skapa så kallad superintelligent AI, definierad som en AI som vida överträf­far människan vad avser alla relevanta kognitiva förmågor. Redan 1951 varnade datave­tenskapens fader Alan Turing för att maskinerna i ett sådant läge sannolikt skulle gripa kontrollen, med oöverskådliga konsekvenser för mänsklig­heten.

I samma inledningsstycke nämner Li också att idén om vänlig AI »redan för fjorton år sedan [framfördes] av den amerikanske systemteore­tikern Eliezer Yudkowsky «. Det är förvisso sant att Yud­kowsky i en banbrytande text från 2008 införde begreppet friendly AI, vilket ibland har översatts med »vänlig AI«, men Lis påstående är ändå vilseledande eftersom hans bruk av begreppet är väsens­skilt från Yudkowskys mer metaforiska användning. Medan Li behandlar frågor om artighet och upprätt­hållande av trivsel i samtal mellan människa och AI, så är den fråga som Yudkowsky framför allt intresserar sig för av en annan dignitet: hur ser vi till att den första superin­telligenta AI:n har mål och värderingar som är tillräckligt kompatibla med våra för att inte leda till rask utplåning av arten Homo sapiens?

Allra mest drastisk blir begreppsförväxlingen när Li tar upp ett exempel med AI ombord på en bemannad rymdsond och därvid fram­håller att frågan om vänlig AI i detta fall inte är av avgö­rande betydelse eftersom »en astronaut är utvald för att ha en stabil läggning och säker­ligen [skulle] kunna hantera en icke-vänlig AI«. Om vi läser denna passage med Yudkowskys begreppsapparat i åtanke blir frågan om astro­nautens psykologiska lägg­ning ett bisarrt kategorifel, för om vi misslyckas med att i tid lösa friendly AI-problemet är vi alla exakt lika katastrofalt illa ute, oavsett läggning.

För att undvika detta slags begreppsförvirring har forskningsområdet friendly AI på senare år oftare i stäl­let benämnts AI alignment. Området har sedan 2008 vuxit kraftigt, men är likväl fortfarande väldigt litet jäm­fört med AI-forskningen som helhet. Till en början var en stötesten för expansionen att forskningsinriktningen i bre­dare kretsar framstod som lite för avvikande och science fic­tion-artad för att tas på allvar, men på senare år omtalas den allt oftare med respekt såväl i bredare vetenskapliga sam­manhang som i mainstream­medier. Det är bra, för det förbättrar utsikterna att ex­pandera AI alignment-forsk­ningen ytterligare, något som i sin tur ökar möjligheterna att vinna kapplöpningen mot den forskning som enbart fokuserar på att göra AI så kraftfull som möjligt. Utgång­en av denna kapplöpning kan mycket väl visa sig bli avgörande för mänsklighetens framtid.

Text: Olle Häggström

Ta del av samtalet! Bli prenumerant och
få Sans direkt hem i brevlådan.

Böcker