Kants djuretik och superintelligent AI
Den tyske 1700-talsfilosofen Immanuel Kant underkände idén att vi skulle kunna ha moraliska skyldigheter gentemot (icke-mänskliga) djur. Som argument anförde han att djur saknar rationellt tänkande, något han menade är nödvändigt för att besitta moraliska rättigheter. Ändå hävdade han att det är fel att exempelvis tortera en hund. Den som gör det begår dock enligt Kant inte något fel mot hunden, utan mot sig själv, till följd av att beteendet riskerar att erodera ens allmänna moraliska dygdighet. I förlängningen kan detta leda till att man beter sig illa även mot andra människor.
Kants tankegång är intressant, även om dagens moralfilosofer oftast menar att den egenskap som ger en individ moralisk rätt att slippa utstå tortyr nog inte är det rationella tänkandet; ett vanligare och rimligare förslag är medvetandet och förmågan till lidande. Huruvida djur besitter medvetande vet vi inte säkert, men tills vidare förefaller det rimligt att anta att de faktiskt gör det – åtminstone i fallet med hundar (men måhända inte lika uppenbart i fallet insekter).
Intressant är också religionsfilosofen Oliver Lis artikel Vänlig AI – eller vänliga människor? (Sans 4, 2022), som lyfter idén att ett resonemang liknande Kants skulle kunna vara applicerbart på vårt agerande i förhållande inte bara till djur, utan även till robotar och artificiell intelligens (AI). Precis som i fallet med djur vet vi inte huruvida en AI besitter medvetande: för de AI-system som finns i dag är svaret troligen nej, men för framtida mer avancerad AI är saken betydligt mindre klar, och i takt med dagens snabba tekniska utveckling på AI-området börjar frågan bli alltmer brännande. Li menar dock att även under antagandet att AI-medvetande är omöjligt, så är frågan om mänskligt beteende gentemot robotar och AI viktig, på liknande vis som Kant ansåg vårt beteende mot djur moraliskt relevant.
Frågan om hur interaktion med AI kan komma att påverka en persons allmänna beteende och moraluppfattning behandlas förtjänstfullt av Li, som särskilt fokuserar på vänlighet i samtal och andra växelspel mellan människa och AI. Det är dock viktigt att vara klar över att den sortens fråga bara är en bland många inom det snabbt växande området AI-etik. Andra viktiga frågor rör exempelvis risken för bias i AI-assisterat beslutsfattande, integritet och massövervakning, AI-algoritmernas polariserande effekter i sociala medier, arbetsmarknadseffekter av AI-driven automatisering och militära användningar. I min bok Tänkande maskiner tar jag upp dessa och en lång rad andra frågor som aktualiseras av den accelererande AI-utvecklingen.
Den enda egentliga kritik jag vill rikta mot Oliver Lis artikel är att han ger sina resonemang om vänlighet en inramning som blir missvisande genom dess förminskning av både omfång och allvar i detta bredare spektrum av frågor om AI och dess sociala konsekvenser. Redan i inledningsstyckets tal om AI »som närmar sig eller rentav uppnår mänsklig intelligens« ges det vilseledande intrycket att mänsklig nivå på intelligens skulle utgöra ett slags tak för hur kraftfull en AI kan bli. Så är emellertid inte fallet, och några av AI-etikens allra viktigaste frågeställningar handlar om vad som händer den dag vi lyckats skapa så kallad superintelligent AI, definierad som en AI som vida överträffar människan vad avser alla relevanta kognitiva förmågor. Redan 1951 varnade datavetenskapens fader Alan Turing för att maskinerna i ett sådant läge sannolikt skulle gripa kontrollen, med oöverskådliga konsekvenser för mänskligheten.
I samma inledningsstycke nämner Li också att idén om vänlig AI »redan för fjorton år sedan [framfördes] av den amerikanske systemteoretikern Eliezer Yudkowsky «. Det är förvisso sant att Yudkowsky i en banbrytande text från 2008 införde begreppet friendly AI, vilket ibland har översatts med »vänlig AI«, men Lis påstående är ändå vilseledande eftersom hans bruk av begreppet är väsensskilt från Yudkowskys mer metaforiska användning. Medan Li behandlar frågor om artighet och upprätthållande av trivsel i samtal mellan människa och AI, så är den fråga som Yudkowsky framför allt intresserar sig för av en annan dignitet: hur ser vi till att den första superintelligenta AI:n har mål och värderingar som är tillräckligt kompatibla med våra för att inte leda till rask utplåning av arten Homo sapiens?
Allra mest drastisk blir begreppsförväxlingen när Li tar upp ett exempel med AI ombord på en bemannad rymdsond och därvid framhåller att frågan om vänlig AI i detta fall inte är av avgörande betydelse eftersom »en astronaut är utvald för att ha en stabil läggning och säkerligen [skulle] kunna hantera en icke-vänlig AI«. Om vi läser denna passage med Yudkowskys begreppsapparat i åtanke blir frågan om astronautens psykologiska läggning ett bisarrt kategorifel, för om vi misslyckas med att i tid lösa friendly AI-problemet är vi alla exakt lika katastrofalt illa ute, oavsett läggning.
För att undvika detta slags begreppsförvirring har forskningsområdet friendly AI på senare år oftare i stället benämnts AI alignment. Området har sedan 2008 vuxit kraftigt, men är likväl fortfarande väldigt litet jämfört med AI-forskningen som helhet. Till en början var en stötesten för expansionen att forskningsinriktningen i bredare kretsar framstod som lite för avvikande och science fiction-artad för att tas på allvar, men på senare år omtalas den allt oftare med respekt såväl i bredare vetenskapliga sammanhang som i mainstreammedier. Det är bra, för det förbättrar utsikterna att expandera AI alignment-forskningen ytterligare, något som i sin tur ökar möjligheterna att vinna kapplöpningen mot den forskning som enbart fokuserar på att göra AI så kraftfull som möjligt. Utgången av denna kapplöpning kan mycket väl visa sig bli avgörande för mänsklighetens framtid.
Text: Olle Häggström
Ta del av samtalet! Bli prenumerant och
få Sans direkt hem i brevlådan.
Böcker

Tänkande maskiner
Olle Häggström
Detaljer
- 422 sidor