Fritanke Fritanke
Kundvagn (0)
Till Kassan
Din kundvagn är tom
Meny

Medvetna maskiner i framtiden?

Om framtida maskiner kan uppleva lycka, är det kanske ingen större förlust om vi människor försvinner.

Text: Lars Bergström

Konstgjort tänkande – artificiell intelligens – finns i viss mening redan. Det finns datorprogram som klarar vissa kvalificerade arbetsuppgifter betydligt bättre än de flesta människor. Redan nu kan robotar och datorer göra mycket som många människor inte kan, exempelvis besegra världsmästaren i schack, köra bil och diagnostisera sjukdomar. Men är de verkligen »intelligenta»? Och kan de bli medvetna? Vet de ens vad de gör?

En vanlig miniräknare kan göra en hel del, även om det är på ett mycket begränsat område. Den kan svara på frågor av typen »Vad blir nitton gånger tjugosju?», »Vad är arton minus fyra?», och så vidare. Man skulle kunna utrusta den med en mikrofon, i vilken man kan tala in frågorna, och en högtalare, ur vilken en mänsklig röst levererar svaren. Då kunde man konversera på vanligt talspråk med miniräknaren. Men bara om vissa saker.

Om man dessutom lägger in fördröjningar av svaren på matematiska problem som en vanlig människa inte klarar så fort, och kanske några slumpmässiga misstag här och var, så skulle man – om den befinner sig i ett annat rum – inte kunna vara säker på om man talar med en miniräknare eller med en människa. Därmed skulle miniräknaren klara en sorts enkelt »Turingtest». Men endast på sitt specialområde.

Den brittiske matematikern Alan Turing (1912–1954) ansåg att det inte finns någon principiell skillnad mellan mänsklig intelligens, eller mänskligt tänkande, å ena sidan och vissa datorers beräkningsförmåga å den andra. Kan vi inte märka någon skillnad, så har datorn klarat testet. Men detta kräver då en generell artificiell intelligens hos maskinen. Kompetens på många områden.

Ingen skulle nog säga att miniräknaren tänker. Och ett riktigt Turingtest klarar den ju inte, ty så fort man börjar fråga den om sådant som går utanför dess begränsade matematiska kompetens, så har den inget vettigt att säga och konversationen kollapsar. Då lurar den ingen.

 

ARGUMENT EMOT AI

Frågan är alltså om man kan utvidga miniräknarens kompetens och mångsidighet så mycket att den klarar ett verkligt Turingtest. Anta att det går. Man skulle kanske ändå vilja förneka att maskinen har ett medvetande som kan innehålla upplevelser av glädje, sorg, obehag och smärta, eller förväntningar, förhoppningar, misstankar och farhågor. Däremot kan man väl säga att den »tänker» och eventuellt att den är »intelligent». Åtminstone inom citationstecken.

Men dess intelligens är kanske ändå inte riktigt mänsklig. Ett klassiskt argument mot generell artificiell intelligens framfördes av den brittiske filosofen John Lucas (1929–) år 1961. Flera filosofer har haft invändningar mot Lucas resonemang, men en sentida efterföljare till Lucas, Oxfordmatematikern Roger Penrose (1931–), argumenterade 1989 på ett liknande sätt.

Lucas och Penrose utgår från den österrikiske logikern Kurt Gödels (1906–1978) berömda teorem från 1931 om formella systems ofullständighet. Det säger ungefär att inom varje motsägelsefritt (och någorlunda omfattande) formellt axiomsystem finns det en sats som en människa kan inse vara sann, men som varken kan bevisas eller motbevisas inom systemet. Annorlunda uttryckt: för varje datorprogram gäller att en människa kan veta något som detta datorprogram inte kan veta. Detta kan tyckas tyda på att människans tänkande inte kan ersättas eller simuleras av ett datorprogram.

Hos Roger Penrose preciseras argumentet så att huvudvikten läggs vid människans förmåga att direkt inse att vissa steg i ett bevis är korrekta, det vill säga sanningsbevarande. En matematiker som finner ett nytt bevis kan inte förlita sig på en mekanisk procedur för att avgöra om beviset håller. Han eller hon måste kunna inse eller ha en direkt känsla av att de olika stegen i beviset är korrekta. Det kan människor, men kanske inte maskiner.

En vanlig invändning mot generell artificiell intelligens är annars att maskiner, som på vissa områden kan imitera eller till och med överglänsa mänskligt tänkande, egentligen inte gör det själva. De kan ju inte låta bli. De gör ju bara det som de är programmerade att göra – vilket bland annat kan innebära att de inhämtar och hanterar information, samt att de lär sig att göra det som de ska göra på ett mer effektivt och kanske helt nytt sätt. Det som de är programmerade att göra kan ju te sig mycket förnuftigt och framgångsrikt, men de har ju egentligen inget val. De lyder bara order.

Ett problem med denna invändning är förstås att något liknande tycks kunna sägas om människor. Många människor har visserligen en känsla av att ha kontroll över sitt tänkande, men denna känsla är förmodligen illusorisk. Tankarna dyker ju bara upp, utan att vi har valt eller avsett att de ska göra det.

Man får väl anta att tankarna dyker upp eftersom – eller i och med – att något händer med nervcellerna i hjärnan. Och vad som händer med de över hundra miljarderna celler i hjärnan är såvitt man vet bestämt av naturlagarna i kombination med omgivningen och hjärnans tidigare tillstånd – möjligen med något spelrum även för slumpen, om det nu skulle finnas någon slump, vilket kan betvivlas.

Så om det finns ett datorprogram som kan få en maskin att imitera det som händer enligt naturlagarna – vilket i princip borde vara möjligt – så skulle en sådan maskin kunna tänka. Däremot kan man betvivla att vi någonsin kommer att kunna konstruera ett sådant program.

Man kan också undra om en maskin kan varsebli något. Den kan förstås vara utrustad med en kamera, som tar emot och reagerar på signaler från omgivningen. Men det är inte detsamma som att tolka signalerna på det konstruktiva sätt som en varseblivning innebär för en medveten människa.

En kamera registrerar och dokumenterar inkommande signaler, men den vet inte vad den ser. Den har ingen uppfattning, ingen teori, om det den ser. Den förstår exempelvis inte att det den ser har en baksida som den inte ser. Men i princip borde en maskin kunna lära sig enklare tolkningar av detta slag.

Människans förmåga att tolka sinnesintryck – och därmed skaffa sig en mer sammanhängande och begriplig bild av verkligheten – har emellertid också en motsvarighet i vår förmåga att uppfinna nya teoretiska förklaringar av mer eller mindre disparata fakta. Sådant kräver fantasi och kan inte så lätt läras in.

Tanken att man skulle kunna skriva ett datorprogram som kan uppfinna originella och framgångsrika vetenskapliga hypoteser i stil med Einsteins relativitetsteorier förefaller väldigt orealistisk.

Att sådana datorprogram i princip nog måste finnas, någonstans i Platons idévärld, är en sak. Men att hitta dem är antagligen en oöverstiglig uppgift såväl för människor som för program skapade av människor. Antalet möjliga program är oändligt. Att hitta en nål i en höstack är en barnlek i jämförelse med att hitta ett datorprogram som efterliknar Einsteins hjärna.

Att konstruera ett program som spelar schack bättre än de flesta människor är å andra sidan fullt möjligt. Det har redan gjorts. Men i schack finns det bara ett ändligt och i princip överskådligt antal alternativa drag i varje läge. Här kan en dators beräkningskraft vara till stor hjälp. Men när det gäller att hitta en ny teoretisk förklaring av ett givet fenomen finns det ingen bestämd lista över alternativ. Här krävs verklig kreativitet och kanske någon sorts intuition.

 

MASKINER MED UPPLEVELSER

Sedan har vi då frågan om huruvida maskiner – eller kanske snarare de program som utförs av maskiner – kan vara medvetna. Kan de ha upplevelser, exempelvis upplevelser av glädje och smärta, eller förmåga till empati med oss människor.

Det som talar för att andra människor har upplevelser och empatiförmåga är att de i så hög grad liknar oss själva. Men maskiner är än så länge mycket olika oss – vilket förstås är anledningen till att de i ett Turingtest ska befinna sig utom synhåll. Även om de på ytan kan se levande ut, så är de mycket annorlunda inuti. Det gör att vi inte tillskriver dem ett inre liv. Det känns förmodligen inte på något särskilt sätt att vara en maskin, tror de flesta av oss. Inte ens om den är mycket duktig. Detta förklarar varför vi inte tror oss ha några moraliska förpliktelser mot maskiner.

Men å andra sidan är ju våra upplevelser och vår empatiförmåga något som orsakas av fysikaliska och kemiska processer i våra hjärnor och nervsystem. Vi vet visserligen inte hur, men varifrån skulle de annars komma?

Så varför skulle sådana processer inte kunna uppstå även i andra maskiner, andra kombinationer av fysikaliska komponenter, som programmeras på lämpligt sätt?

Ja, i princip borde maskiner kunna ha upplevelser. Det borde finnas något program som åstadkommer det, eftersom vi som också enbart består av materia har upplevelser. Men problemet är att vi aldrig kan veta om ett program har denna egenskap. Vi kan inte testa om maskinen har upplevelser, om den är medveten. Det är omöjligt att veta om den känner något.

Egentligen finns det inte heller något experiment som visar att andra människor har upplevelser, men i det fallet utgår vi från att de har det, eftersom de liknar oss i så hög grad. Kanske är vi också genetiskt programmerade att tro det.

I fråga om maskiner har vi inget motsvarande skäl att tro att de har ett inre liv. Att en maskin klarar ett Turingtest, och vältaligt försäkrar oss om att den har upplevelser av precis samma sort som vi har, är uppenbarligen inget bevis alls. Hela poängen med ett Turingtest är ju för övrigt att lura oss och att vi inte ska kunna avgöra om vi är lurade.

Om maskinerna kan ha upplevelser, så är vi väldigt illa ute. Om de till exempel kan känna smärta, så borde vi försöka förhindra det. Såvitt vi vet kan ju deras lidande i så fall vara alldeles fasansfullt. Men vi har inte någon möjlighet att bedöma graden av deras lidande. Redan att bedöma lidande hos andra människor och andra däggdjur kan vara svårt, men där tror vi oss ändå kunna få ledtrådar från våra kroppsliga likheter.

Hur det känns för fiskar och insekter är förstås ännu svårare. Vilket inte hindrar oss från att tro – utan bevis – att de inte lider särskilt mycket.

Om maskiner kan känna smärta, så är det nog bäst att helt avstå från alla försök att skapa maskiner som kan klara Turingtestet. Kanske ska man också vara mer försiktig när man handskas med miniräknare.

Å andra sidan, om maskiner kan känna lycka, så kan de kanske också vara mycket lyckligare än vi. I så fall behövde det inte vara någon katastrof om mänskligheten gick under och ersattes av sådana lyckliga maskiner. Tvärtom. Maskinerna är kanske så klyftiga att de inte begår alla våra dumheter. Och de är kanske mindre skurkaktiga.

Lars Bergström är professor em. i praktisk filosofi, Stockholms universitet. Intresseområden bl.a. moralfilosofi och värdeteori. Senaste bok: Varats dunkla skrymslen.

 

Varats dunkla skrymslen

Av Lars Bergström

Thales 2018

Vill du läsa om vetenskapens och samhällsdebattens frontlinjer? Beställ en prenumeration på tidskriften Sans, fyra nummer för endast 365 kr!

Kassa

Artiklar

Önskelista

Här är böckerna som ligger i din önskelista.

Anmäl din epostadress om du vill få uppdateringar och erbjudanden om de böcker som ligger i din önskelista. Vi lämnar aldrig ut din epostadress.
Din epostadresss är knuten till din önskelista så att du kan få uppdateringar och erbjudanden om böcker som ligger i här.
Jag är säker på att jag vill ta bort min epostadress

Meddelande

Meddelande text

Arbetar...