UTAN VAL. För ett par veckor sedan djupdök Rabbe Kurtén i skillnaderna mellan en robot och en människa. Nu återkommer han med en längre text om robotarnas känsloliv.
Varför har robotar inga känslor? Mitt korta svar är att robotar inte har som sin primära uppgift att hålla sig själva vid liv och i inre balans. Ett något längre svar är att de forskare som konstruerar robotarnas artificiella intelligens inte är vare sig biologer eller neuropsykologer utan ingenjörer och datavetare. Ett tredje och mer utförligt svar kommer nedan.
Asimovs “Etik för robotar” i romanerna från 50-talet
På femtiotalet skrev Science Fiction-författaren Isaac Asimov ett antal romaner och noveller om en framtida värld där man utvecklat intelligenta, människolika robotar. Ett återkommande inslag i dessa berättelser var robotarnas förundran över människors oförmåga att handla rationellt, de frågade sig varför människorna ständigt lät sig styras av känslor.
Asimovs robotar speglade den tidens syn på förhållandet mellan förnuft och känsla. Fortfarande på femtiotalet och ännu långt in i vår tid har man i den västerländska tanketraditionen utgått ifrån att det är förnuftet som skiljer oss från djuren. Känslor är något vi har kvar från vår animala förhistoria, något som evolutionen ännu inte lyckats befria oss ifrån. Robotarna i Asimovs berättelser har följaktligen inga känslor. I den meningen representerar de ett ”intelligensens högre utvecklingsstadium”. För att de inte skulle ta över världen med sitt högre, obegränsade förnuft behövde man man, enligt författaren, programmera in fasta moraliska regler i deras artificiella “positron”-hjärnor.
De tre etiska robotlagar Asimov försåg sina robotar med löd i korthet som följer: 1. En robot får aldrig skada en människa eller, genom att inte ingripa, tillåta att en människa kommer till skada; 2. En robot ska lyda tillsägelser från en människa förutsatt att befallningen inte strider mot den första lagen; 3. En robot bör skydda sin egen existens så länge detta inte kommer i konflikt med någon av de två första lagarna.
Vänlig Artificiell Intelligens
De tre robotlagarna var ett tidigt försök att formulera regler som skulle trygga människan i en värld där den artificiella intelligensen (AI) var överlägsen människans. Frågan om vänlig AI är fortfarande aktuell bland forskarna på området. Hur ska man förhindra att intelligenta maskiner vänder sig mot människan och kanske förslavar henne när maskinernas intelligens utvecklats till att vida överträffa människans. Mer konkret: Om man ger en intelligent maskin målet att trygga jordens fortsatta existens som en fungerande miljö för biologiskt liv och om maskinen då kommer fram till att det största hotet mot livsmiljön är människan själv; vad hindrar då den intelligenta maskinen från att utplåna mänskligheten för att uppnå målet?
Vad är då intelligens? I boken LIV 3.0 definierar Max Tegmark intelligens som förmågan att självständigt förverkliga komplexa mål. Kan maskiner lära sig detta, gör de inte bara vad de är programmerade att göra?
När jag under min yrkesverksamma tid konstruerade program för datorer kunde det hända att ett program jag arbetade med inte bar sig åt som jag förväntade mig. Frustrerad letade jag efter felet, ”buggen”, i programmet. Min frustration berodde på att jag med säkerhet visste att datorn bara gjorde precis vad jag hade instruerat den att göra, men att instruktionerna samtidigt var så komplexa att jag inte omedelbart såg vad jag gjort för fel, vilken liten detalj i programmet som fick datorn att spåra ur eller bete sig på ett sätt som inte var avsett.
Datorn vann till slut över mänskliga spelare.
På samma traditionella sätt fungerade de första artificiellt intelligenta maskinerna, de gjorde vad de var programmerade att göra. Fördelen med dem var bara att de mycket snabbare än en människa kunde hantera mycket stora datamängder. I en dator som skulle lära sig spela schack programmerade man in de bästa motdragen för alla de situationer man kunde föreställa sig. Allt eftersom nya situationer visade sig under nya spel kompletterade man programmet med nya strategier. Datorn vann till slut över mänskliga spelare genom att den var så mycket snabbare, den kunde räkna igenom och testa fler strategier och parera fler tänkta motståndardrag än vad en mänsklig motståndare hann med.
När man ville programmera en dator att spela GO använde man till en början motsvarande strategi.
Det kinesiska spelet GO är trots de enkla reglerna betydligt mer komplext än schack. Två spelare lägger turvis ut en sten på spelplanen. Målsättningen är att erövra mark genom att stänga in motståndarens stenar. Mängden möjliga spelsituationer är här så stor att man omöjligt på förhand kan programmera in alla tänkbara situationer och ange bästa drag för datorn. I stället har man fått utnyttja att moderna AI-system kan programmeras att fungera självinstruerande.
Man lät ett program i en dator spela ett mycket stort antal spelomgångar mot ett annat program, och lät datorerna registrera spelförloppet och resultatet. För varje vunnen match gav den vinnande datorn sig belöningspoäng. Uppgiften var att samla så många belöningspoäng som möjligt. Snabbt lärde sig systemen vilka strategier som leder till förlust och som därför skulle undvikas och vilka situationer som är vinnande. Ju fler matcher datorsystemen spelar, desto mer sofistikerade blir strategierna. Efter ett tag ger datorn intrycket att ha skaffat sig intuition eller en känsla för vilka drag som i olika lägen leder till framgång och vilka ställningar som ska undvikas; de uppträder på ett sätt som påminner om hur en skicklig mänsklig spelare fungerar. I dag besegrar erfarna GO-spelande AI-system även mycket skickliga och erfarna mänskliga spelare. Olika AI-systemen får spela GO mot varandra. Det har visat sig att de GO-spelande AI-systemen hittat vinnande strategier som ingen människa någonsin kommit på, trots att människor spelat GO i tusentals år.
Här måste man fråga sig hur komplexa mål man kan ge ett AI-system och förvänta sig att det ska klara av det. Enligt Tegmark finns det inga begränsningar alls, särskilt om man överlämnar initiativet till AI-systemen och ger dem uppgiften att själva utveckla och skapa allt mer intelligenta, nya AI-system.
En robot med känslor
I en modern robotroman, Ian McEwans Maskiner som jag, låter författaren den ”mänskliga” roboten påstå sig ha känslor – den berättar att den har förälskat sig i en kvinna.
Av någon anledning känner man som läsare att robotens känslor är löst påklistrade; roboten påstår sig vara kär men vad det betyder hänger i luften. Roboten har genomfört ett samlag: teknikaliteterna förklaras, den redovisar sina moraliska funderingar kring att ha förfört den kvinna som den bästa, mänskliga vännen levde i en relation med, men hur den upplevde själva samlaget har den inga ord för. Förälskelsen kommer över den utan vidare förklaringar ungefär som man ibland skildrar mänsklig förälskelse, som en oemotståndlig kraft – ett flygande spöke från ingenstans – som invaderar människan och blir bestämmande för det fortsatta livet.
Vad upplever en robot?
Den fråga som stannar kvar hos läsaren är vad det skulle kunna innebära att en konstruerad, människoliknande varelse med ett AI-system som hjärna säger sig ha känslor. Vad upplever en robot? Hur upplever den sig själv och allt som händer? Hur upplever den sin omgivning? Kan de belöningspoäng som den GO-spelande datorn fick för varje vunnen match kallas en känsla av tillfredsställelse, upplevas som en känsla? Kan den förälskelse roboten säger sig uppleva vara en programmerad belöning för att den lyckats förföra en mänsklig kvinna?
Vad betyder ordet “upplever” i robotsammanhang?
Robotmoralen
Låt oss mot den bakgrunden se närmare på Asimovs tre robotlagar.
De två första framstår som tämligen triviala, entydigt definierade etiska regler, även om de på sin tid gav upphov till en mångfald historier byggda på potentiella moraliska konflikter inom de tre lagarnas räckvidd.
Här finns redan i tillämpningen av den första lagen en variant på det klassiska moraliska dilemmat kring att offra en för att rädda flera. Får roboten rädda tre banarbetare på spåret undan ett framrusande tåg genom att lägga om växeln så att tåget i stället krossar en ensam person på ett sidospår? Eller rent av genom att knuffa en oskyldig förbipasserande framför tåget så att det stannar och inte kör över de tre banarbetarna.
En robot som bara har den första lagen att tillgå ställs här inför inför en olöslig konflikt, den kan inte lyda den första lagen hur den än handlar. Minst en människa kommer alltid till skada. Man kan föreställa sig att roboten i den situationen hamnar i en påtvingad passivitet, pendlande mellan två omöjliga alternativ och därmed genom underlåtenhet orsakar fler människors död; den kanske blir “psykotisk”.
En mer utvecklad robot kan ha den första lagen utvidgad med ett enkelt utilitaristiskt tillägg; det är ett mindre ont att en människa dör än att flera gör det. Med ett rent rationellt räknande kan den utilitaristiska roboten komma fram till att den måste offra en för att rädda flera. För den rationella roboten spelar det i motsats till för en människa ingen roll om den lägger om växeln eller rent fysiskt knuffar en människa framför tåget, resultatet blir detsamma. Eventuella psykiska återverkningar på roboten själv kommer inte in i bilden, roboten har ju inga känslor.
En sådan vidareutveckling av robotens intelligens i utilitaristisk riktning kan drivas hur långt som helst. Människor kunde klassificeras och indelas i grupper och betraktas som mer eller mindre viktiga; deras liv kan ges olika värden. Roboten kan då genom en ren räkneprocess avgöra vem som ska offras i en konkret situation. Det moraliska avgörandet har redan träffats av den som programmerade in det graderade människovärdet i robotmoralen. Roboten handlar fortfarande bara helt rationellt enligt inprogrammerade statiska regler.
Tillämpningen av den första robotlagen blir betydligt mer komplicerad när man försöker väga in vad som ligger i ordet “skada”. Hur ska en utilitaristisk robot kunna avgöra hur mycket en människa skadas av något roboten gör när den inte har egna känslor eller förmåga till empati, det vill säga inte kan känna igen mänskliga känslor genom att fråga sig själv hur det skulle kännas att utsättas för motsvarande behandling. Hur ska den skenbart “kännande” roboten i Ian McEwans roman kunna avgöra hur mycket den skadar sin mänskliga vän genom att förföra/låta sig förföras av vännens flickvän när dess eventuella känslor bara är inlagda i robotens hjärna i form av en tabell att slå upp i? Kan den svara på frågan om skadan den tillfogar vännen uppvägs av den njutning den ger flickvännen?
Att bygga in en etik av fasta regler i en robot som saknar känslor och tolkar alla regler bokstavligt visar sig innebära komplikationer redan i det enkla fallet att en robot inte får skada en människa.
Även tillämpningen av den andra lagen kan realiseras genom en rationellt kalkyl, inte heller här behövs några känslor. Naturligtvis är lagen i sin abstrakta form alltför mångtydig, den måste förtydliga vilka mänskliga kommandon som har företräde. En robot kan vara en slav som måste lyda sin ägares befallningar. Den kan vara anställd i ett företag och måste beakta företagets interna hierarkier. Man kan bygga in regler som säger att roboten ska lyda befallningar som ges av nära vänner framom befallningar från helt okända personer. Inte heller här behövs några känslor.
Mänskliga kommandon inför dock en helt ny nivå av komplexitet för roboten. Om den ska vara intelligent ska den kunna lyda betydligt med komplexa kommandon än ”hämta tidningen” och servera mig min kvällsdrink.
Åter till boken Liv 3.0 och Max Tegmark. Han definierar alltså intelligens som förmågan att uppnå uppställda komplexa mål. En intelligent robot ska kunna lyda befallningar av typen ”i dag vill jag ha ugnsstekt braxen till middag” varvid roboten inventerar skafferiet, beställer hem vad som behövs, tillreder maten enligt ordergivarens favoritrecept och serverar middagen med alla erforderliga tillbehör. Den sortens befallningar som innebär ett uppställt mål utan förklaring för hur målet ska uppnås kan bli hur komplexa som helst och kan då leda till svåra prioriteringar och inbyggda konflikter.
Dock gäller att så länge robotmoralen kan begränsas till fasta levnadsregler och övergripande principer kan tillämpningen av de etiska reglerna ske genom rationella beräkningar utan inblandning av känslor. Det förutsätter att robotens regelsystem täcker in alla tänkbara situationer som kan uppstå eller att roboten är intelligent nog att lära sig av egna erfarenhet, att den genom en tankemässig simulering kan föreställa sig konsekvenserna av olika handlingsalternativ innan den utför dem, ungefär som när den spelar schack.
Uppmaningen att bli en oslagbar mästare i att spela GO är ett exempel på en sådan komplex uppmaning som kräver att roboten/AI-systemet har förmågan att själv utveckla och förbättra sina prestationer.
Viljan att överleva
Asimovs tredje lag innebär något kvalitativt annorlunda i robotmoralen; en inbyggd självbevarelsedrift, ett värnande om den egna existensen.
För levande organismer tycks det egna överlevandet ha en mycket hög prioritet när det gäller vad som styr beteendet. Det gäller även människan.
I vår vardagliga tillvaro tar arbetet att bevara det egna livet en stor plats och kräver omfattande insatser. Att leva är att föra en ständig kamp för att upprätthålla en ordning som gör livet möjligt. Kampen förs på alla plan, som ett beteende för organismen som helhet men också som ett “beteende” för alla de miljarder levande celler som bygger upp en organism, ja kampen förs till och med i de kemiska reaktioner som definierar cellerna och skapar deras “beteende”. Kampen för överlevnad är ett fascinerande exempel på samarbetets möjligheter när strukturen är sådan att den enskildes intressen sammanfaller med den gemensamma helhetens intresse. Varje cell försöker överleva genom att göra det den är bra på, får material och förväntningar av sina grannar och levererar i sin tur resultat åt grannarna. Att upprätthålla en sådan ordning kräver energi. Cellerna måste hela tiden utföra ett arbete som motverkar naturens strävan efter oordning och ökad entropi. Utan de livsuppehållande arbetsprocesserna dör cellerna och helheten, organismen, ruttnar och återgår till att vara en osorterad blandning av ingående beståndsdelar.
Robotar har inte som övergripande mål att till varje pris överleva.
Robotar har inte som övergripande mål att till varje pris överleva. Frågan är om vi någonsin kommer att våga ge robotar ett sådant övergripande mål. I Asimovs tappning är robotens självbevarelsedrift reaktiv; en robot ska skydda sig själv och sin existens, inte aktivt arbeta för sin egen överlevnad. Någon utanför roboten ansvarar för service och överlevnad. En gräsklipparrobot som uppsöker sin laddstation enligt en förprogrammerad rutt upplever knappast sin kritiskt låga batteriladdning som hunger även om beteendet i någon mån kunde sägas vara känslostyrt, det styrs av tillståndet i den egna kroppen. En robot-gräsklippare som fått som uppgift att spara en viss sällsynt blomma i gräsmattan är kanske – likt en människa i motsvarande situation – fokuserad på att upptäcka just den växten för att undvika att klippa ner den, men frågan är om detta fokus kan kallas ett känslotillstånd. Kan man påstå att roboten upplever en särskild tillfredsställelse när den ser och undviker att klippa den utpekade blomman?
Robotarna i McEwans moderna robotfiktion har dock en viss “överlevnadsinstinkt” som inte verkar vara medvetet ditsatt. De är alla försedda med en avstängningsknapp någonstans i bakhuvudet för att människan ska kunna behålla kontrollen över dem. I berättelsen inser de intelligenta robotarna snabbt hur knappen fungerar och lär sig att oskadliggöra den. I sin förtvivlan inför detta blir den mänskliga ägaren tvungen att krossa robotens huvud, det vill säga “mörda” roboten, när den inte längre gör vad den mänsklig ägaren vill och avstängningen inte längre fungerar.
Samtidigt utbryter en självmordsepidemi bland robotarna, De frustreras av att helt vara i händerna på sina mänskliga ägare. Det antyder en vilja till överlevnad och en upplevelse av sin egen “levande” identitet.
Frågan går alltså återigen tillbaka till vad ordet “uppleva” kan innebära.
Vad innebär det att vara en robot?
Vad behöver en robot veta om sig själv? Vi kan anta att en ambition med robotarna är att robotarna ska klara det så kallade
Turingtestet även när det handlar om känslor. Det betyder att roboten ska kunna samtala med en ovetande människa utan att avslöja sig som icke-mänsklig; alla tänkbara frågor ska besvaras på ett sätt som inte märkbart skiljer sig från hur en människa skulle ha svarat.
Vilka frågor brukar då journalister ställa när de intervjuar folk som till exempel varit med om en olycka? Vad behöver en robot “veta” för att på ett trovärdigt sätt kunna besvara frågan ”Hur känns det nu?” Det kan också handla om frågor av en helt annan typ som till exempel på museum: ”Vad tycker du om den här tavlan?” ”Vilken tyckte du bäst om?” Eller ytterligare frågor av typen: ”Vad vill du göra nu?”, en fråga som även många människor kan ha svårt att svara på.
I de här fallen kanske det inte alls handlar om att roboten ska förses med verkliga ”känslor”, den behöver bara ges tillräckliga kunskaper om mänskligt beteende för att framgångsrikt kunna imitera en människa. Kanske räcker det att robotarna får göra ett förprogrammerat individuellt urval ur en sammanställning av samlat mänskligt beteendet för att de ska ge sken av en personlig identitet och därmed smälta in i ett mänskligt sammanhang.
Hur känns det att vara en robot?
Vill man å andra sidan ge robotarna en personlighet som gör att de kan svara på frågan om hur det känns att vara en robot, den fråga som filosofen Thomas Nagel försöker diskutera i sin uppsats ”Vad innebär det att vara en fladdermus?”, så krävs något mycket mer. Då handlar det inte om att roboten ska försöka imitera en människa och dölja att den är en programmerad maskin, då handlar det om den existentiella frågan: ”Vad innebär det att vara en robot?”. Hur känns det?
Vad behöver en robot veta om sig själv, om omgivningen och om sin situation för att kunna besvara sådana frågor. Inte alla filosofer håller med Nagel om att alla levande organismer behöver en sådan självinsikt eller ska vi kalla det självkänsla .
Vad är känslor?
Mitt fortsatta resonemang här är inspirerat av Lisa Feldman Barretts tankar i boken How Emotions are made.
Ett av problemen med att förse en robot med känslor är att känslor är analoga medan en robothjärna och robotens inre värld är och sannolikt alltid kommer att förbli digital.
Grundkänslan i levande organismer kan beskrivas som en upplevelse från yttersta obehag till maximalt välbefinnande med normaltillståndet någonstans i mitten i form av “oreflekterat acceptabelt”. Överlagrat på detta finns något som talar om hur angeläget det är att uppmärksamma tillståndet. Kräver välbefinnandet någon aktivitet för att det ska kunna bibehållas eller eventuellt ytterligare förstärkas? Kräver obehaget åtgärder för att organismen skall befria sig från det obehagliga tillståndet, är det akut och livshotande? Sin slutliga form får känslorna av sammanhanget, av kombinationen av det egna tillståndet, situationen i omgivningen, och inte minst av egna intentioner och förhoppningar.
Den första källan till känslor är tillståndet i den egna kroppen. En levande kropp består av miljarder levande celler som alla aktivt meddelar sig med varandra och gemensamt till den samordnande hjärnan. Dessa kollektiva signaler bildar grunden för känslorna. En robot som är konstruerad av människor och inte innehåller “levande” komponenter utan har ett digitalt styrsystem kan inte förvänta sig ett sådan spontant informationsflöde, de olika delarna i en robot lever inte, de bara utför vad de är konstruerade att utföra. Den samordnande “hjärnan” måste i stället regelbundet skanna av ett antal kritiska mätpunkter för att hålla koll på sig själv; mår jag bra, finns det några skador som måste åtgärdas, behöver lederna smörjas, måste jag läggas in för service, håller batteriet på att bli urladdade och så vidare. Sammantaget skapar en sådan skanning en helhetsbild av robotens grundtillstånd som kanske kan sammanfattas i en tabell över tillståndet i de olika delarna. Vid vissa kritiska tillstånd i någon del kan självbevarelsedriften enligt den tredje robotlagen motivera roboten att spontant uppsöka en servicestation (“robotsjukhus”) eller en laddstation för sina batterier (“matställe”).
En andra källa till känslor är omgivningen och robotens plats i tillvaron sådan den förmedlas av robotens sinnesorgan, syn, hörsel, lukt, känsel och eventuella andra sinnen som roboten försetts med. Är jag på rätt plats, måste jag ändra på något i omgivningen, måste jag ta mig härifrån är frågor som sinnesorganen ska ge svar på i kombination med robotens inre tillstånd och inprogrammerade uppgift. Här kan det räcka med självbevarandet för att kombinationen av sinnesintryck ska få roboten att agera. Om en robot upptäcker att den håller på att brinna upp måste den antingen försöka släcka elden eller snabbt ta sig därifrån.
Vad roboten ”vill” i den aktuella situationen ger också incitament till handlingar. Vad roboten vill kan vara eventuella uppdrag som roboten enligt den andra lagen är förpliktigad att utföra. Det kan också vara den övergripande målsättningen att skydda människorna enligt robotetikens första lag. Avsökningen av omgivningen kan ju visa att någon människa där ute är utsatt för en fara som roboten kan avvärja och som därför gör det till en plikt för den att ingripa.
I en modern värld får man anta att en människoliknande robot har tillgång till all världens samlade vetande och erfarenhet. Trådlös internetuppkoppling ger roboten möjlighet att söka i all världens databaser, den behöver inte spara sina individuella erfarenheter lokalt. Sökningar kan dock ta tid, därför är det rimligt att roboten förser sig med ett lokalt närminne av kunskaper och erfarenheter som den behöver för aktuella uppgifter och som finns tillgängliga i reell tid när de behövs.
Slutligen finns frågan om hur en robot ska kunna prioritera mellan olika uppgifter när plikterna kolliderar. I avsnittet ovan om hur man fick en artificiell GO-spelande robot att utveckla sin förmåga framgick att man gav roboten ett övergripande mål, att maximera sina ”belöningspoäng”. Olika uppgifter kan ges olika belöningspoäng, kanske till och med olika belöningstabeller som bidrar med varierande tyngd till den sammantagna belöningen. Då kan roboten alltid välja de handlingsalternativ som kan beräknas ge högst belöningspoäng.
Vi är tillbaka i den fundamentala skillnaden att “robothjärnor” är digitala och extremt snabba medan hjärnorna i levande organismer är långsamma och samtidigt ska försörja en myriad av samverkande delar (celler). Därför behöver levande hjärnor att informationen från de olika källorna smällts samman i analoga sammanfattningar för att hjärnan ska hinna med. Dessa analoga sammanfattningar utgör grunden för människors känslor.
Naturligtvis skulle vi kunna införa ett språk som förutsatte robotarnas känsloliv. Robotar kunde säga ”jag är hungrig” när de menar att batterierna behöver laddas. Man kunde programmera robotar att svara ”jag mår bra” när robotens interna avsökning av det egna tillståndet visade att där inte fanns några otillfredsställda behov, inga leder som behövde smörjas, inga fysiska skador som krävde service och så vidare. Den kunde säga ”jag ser att misshandel pågår där borta på gatan, jag känner att jag måste ingripa”.
Men allt detta skulle inte göra någon egentlig skillnad. Så länge vetenskapen inte har löst frågan om vad upplevelser är och robotmakarna därmed inte har kunnat förse sina robotar med upplevelsemekanismer kommer talet om robotars känslor att bara vara kosmetik.
Jag vågar mig därför på följande sammanfattande svar på rubrikens fråga.
Robotar har inga känslor därför att de inte behöver dem. De hinner med ändå även om de programmerats att ta hänsyn till sitt eget tillstånd och till sin plats i omgivningen. De kan därför få tro att de fungerar rationellt när de utför sina uppdrag formulerade av människor. De känner inte till något annat och har därför inget val.