Vem är rädd för AI-apokalypsen?

När artificiell intelligens blir smart nog att själv kunna bygga än intelligentare system kommer vi människor snart att vara ohjälpligt ifrånsprungna. Det domedagsscenariot varnar Nick Bostrom för i boken ”Superintelligence”, och han får stöd från en rad AI-forskare.

Många läsare skrynklade sina pannor över Stephen Hawkings kolumn i tidningen The Independent i maj. Hawking är en av vår tids mest respekterade vetenskapsmän, kanske mest känd för den banbrytande boken ”Kosmos: en kort historik”. Nu avhandlade han ett ämne som låter minst lika mycket science fiction som de svarta hål och singularitetssatser han forskat om tidigare: artificiell intelligens. ”Framgång i att skapa AI skulle vara den största händelsen i den mänskliga historien. Dessvärre kan det också bli den sista, om vi inte lär oss hur man undviker riskerna”, skrev han.

För den som följt AI-forskningen de senaste åren kom Hawkings varning inte som en blixt från klar himmel. De potentiella riskerna med artificiell intelligens har debatterats bland futurister i decennier, och även berörts i populärkulturen i filmer som ”Terminator”. Men de senaste åren har tonen blivit mer angelägen.

Den brittiske forskaren Shane Legg gav 2011 en intervju där han slog fast att artificiell intelligens utgör det främsta hotet mot mänskligheten under det här århundradet. ”Förr eller senare tror jag att mänskligheten kommer att utplånas, och vår teknologi kommer sannolikt att spela en roll i det.”

Shane Legg är en av grundarna till företaget Deepmind Technologies, vars mål är att ”lösa intelligens” genom att bygga AI som själv lär sig att spela olika datorspel. I januari i år sålde han och de andra grundarna sitt företag till Google för ungefär fem miljarder kronor. Men mer uppseendeväckande än de stora pengarna var ett av Deepminds villkor för affären skulle bli av: Google förband sig att upprätta en etikkommitté som ska garantera att den fortsatta utvecklingen av AI sker på ett ansvarsfullt sätt.

Till raden av domedagsprofeter sällar sig även Elon Musk, entreprenören som blev miljardär på Paypal och sedan dess blivit känd som mannen bakom elbilsföretaget Tesla Motors och rymdfartsföretaget Spacex. Musk har upprepade gånger, i intervjuer och sociala medier, varnat för att AI är ”farligare än kärnvapen” och att vi inom tio år riskerar en AI-katastrof. Musk har själv investerat i både Deepmind och AI-företaget Vicarious, vilket kan tyckas paradoxalt, men han hävdar själv att det inte är för att tjäna pengar utan för att hålla ett öga på den potentiellt farliga utvecklingen.

1950 formulerade Alan Turing sitt berömda test, där han föreslog att man skulle ersätta frågan om huruvida maskiner kunde tänka med frågan om huruvida de kunde lura oss att de var mänskliga i skriftlig konversation. Han gissade att en maskin skulle klara utmaningen kring år 2000.

Man brukar säga att det moderna forskningsfältet artificiell intelligens föddes sommaren 1956, vid en konferens i Dartmouth där pionjärer som Marvin Minsky och John McCarthy deltog. Under de första åren gjorde de snabba framsteg och pengar flödade in, inte minst från den amerikanska militären. Den allmänna uppfattningen bland forskarna var att inom en generation skulle datorer klara av allt som människor kan.

Så blev det inte. AI-forskningen har varit en bergochdalbana. Tillfälliga framgångar har följts av tunga investeringar, överdrivna förhoppningar och plötsliga kraschar när lovande forskning plötsligt gått in i väggen. Vid millennieskiftet hade ännu ingen dator klarat Turingtestet.

Anledningen till att många respekterade forskare och innovatörer nu kommer med apokalyptiska AI-profetior är enkel. Efter en period av AI-torka har fältet nu börjat röra sig på allvar igen. De senaste fem åren har stora framsteg gjorts, mycket tack vare förbättrade metoder och hårdvaruresurser för att analysera enorma datamängder, antingen direkt från internet eller i form av stora databaser – så kallad big data.

IBM:s AI-plattform ”Watson” är ett exempel. Den skapade rubriker här om året när systemet besegrade stormästare i ”Jeopardy” genom att blixtsnabbt tolka svaren, skanna igenom en databas med 200 miljoner sidor information, och därefter formulera frågor i naturligt språk. Sedan dess har ”Watson” även assisterat vid cancerdiagnostik och stadsplanering. Systemet må vara långt ifrån att besitta intelligens som liknar människors, men det har den avundsvärda förmågan att snabbt bli kompetent på en specifik uppgift som passar dess talanger.

Förvärvet av Deepmind understryker att även Google tar artificiell intelligens på största allvar. Redan vid lanseringen av sökmotorn 1997 berättade Googles grundare för journalister att de såg Google som ett AI-företag och under åren har lager på lager av informationskanaler lagts till Googles digitala imperium. I dag är Googles alla tjänster en perfekt träningsanläggning för artificiella intelligenser som vill lära sig mer om världen.

Googles sökmotor, som förutspår vad man vill söka efter redan efter ett par tangenttryckningar är ett exempel på frukterna av AI-relaterad forskning, precis som den virtuella assistenten ”Google Now” (samt dess motsvarigheter i Apples ”Siri” och Microsofts ”Cortana”) och maskinöversättningen i ”Google Translate”.

Precis som Facebook har Google jobbat hårt på ansiktsigenkänning för att kunna identifiera människor på foton. Algoritmerna blir bättre månad för månad, och för några veckor sedan tillkännagav Google att de nu även börjar kunna känna igen komplexa scener i fotografier och beskriva dem i klartext som exempelvis ”en grupp unga människor spelar frisbee” eller ”två pizzor ovanpå en spis med ugn”. De har dessutom skapat algoritmer som nagelfar Youtube och på egen hand lär sig att känna igen vanligt förekommande föremål i videoklippen. Ansikten, olika kroppsdelar samt katter är vad de hittills lärt sig känna igen – förvisso med en tillförlitlighet som än så länge är långt ifrån människans.

Vid Oxfords universitet finns en svensk filosof vid namn Nick Bostrom. Hans specialområde är mänsklighetens framtid och något han kallar ”existential risks”, företeelser som riskerar att helt eller närapå utplåna mänskligheten. I somras utkom han med boken ”Superintelligence: Paths, dangers, strategies” (Oxford University Press), som fått stort genomslag i AI-debatten. Bostrom skissar flera möjliga vägar till superintelligens, punkten då en AI blir så smart att den själv kan bygga en ny, bättre AI och utvecklingen skenar iväg bortom vår kontroll. Hans slutsats är att vi rimligen så småningom når dit. Frågan är hur länge det dröjer, och exakt vad det leder till.

En relevant fråga är vilka mål en superintelligens kommer att ha. Vi må önska oss att den har mål som altruism, upplysning och vetenskaplig nyfikenhet, men Nick Bostrom menar att den lika väl kan ha enkla, godtyckliga mål som att räkna världens alla sandkorn samt att säkerställa sin egen överlevnad. Om det – eller något annat som inte tar med mänskligt väl och ve i beräkningen – är det enda AI:n bryr sig om så kommer vi att få stora problem så snart den superintelligenta AI:n upplever att människorna är i vägen.

Nick Bostrom målar upp ett fantasieggande scenario för maskinernas revolution. Den börjar med ett AI-frö som lär sig i sakta mak under vägledning av ingenjörer. Så småningom är AI:n intelligent nog att kunna lära sig på egen hand och snart överträffar dess kunskap om AI-design de mänskliga programmerarnas. När den så förbättrar sig själv förbättrar den det system som förbättrar AI-algoritmerna och en ”intelligensexplosion” följer. AI:n skaffar sig sedan tillgång till internet, antingen genom övertalning eller hacking. Med internet som bas kan den ta kontroll över robotar, vapensystem och banker, den kan lura eller muta människor att gå dess ärenden och bygga arméer av mordiska nanorobotar. Bostrom gör sitt bästa för att fantisera ihop ett apokalyptiskt scenario men konstaterar också nyktert att vi med våra långsamma små hjärnor knappast kan förutse vad en superintelligent AI tar sig för.

Han försöker också formulera handlingsplaner för att förbereda oss. Det går inget vidare.

Mer godhet i världen vore positivt, skriver Bostrom, liksom världsfred. Men han noterar också att det är oerhört svåra problem som vi knappast har några utsikter att lösa under den tid som står till buds. Han efterlyser strategisk analys kring forskningen, liksom genomtänkta ”best practices” av hög etisk standard. Men den kanske mest framkomliga vägen tycks vara att inte lägga forskningsresurser inom AI på problem vars lösningar inte klart och tydligt ger övervägande positiva effekter, vilket åtminstone skulle kunna sakta ner utvecklingen och ge oss mer tid.

I somras klarade en chattrobot för första gången Turingtestet under en tilldragelse vid den brittiska vetenskapsakademin (se Under strecket 10/6). Det var ett symboliskt viktigt steg på vägen mot intelligenta maskiner, men ännu tycks vägen ändå lång till att de ska nå vår intellektuella nivå. Många AI-forskare är emellertid överens om att det är en fråga om när, inte om. Det kan ligga 200 år in i framtiden, men det kan också ligga tio år bort. Mycket handlar om hur snabbt datorerna kan bli bättre på att lära sig själva.

Google köpte Deepmind för att företaget byggt en imponerande AI som själv lärt sig att spela gamla Atarispel som ”Pong” och ”Space Invaders”. Just nu pågår arbetet med att få den att lära sig mer verklighetstrogna spel, som ”Doom”, där man springer omkring i en tredimensionell värld och mejar ner folk med automatvapen.

Det är i sammanhanget värt att nämna att samma Google för ett år sedan köpte det världsledande robotikföretaget Boston Dynamics. De bygger snabba, starka robotar som går på två eller fyra ben genom tuff terräng, bland annat åt den amerikanska militären.

Men Google har som sagt inrättat en etikkommitté, så vad skulle rimligtvis kunna gå fel?

Texten publicerades i SvD, Under strecket, 19/12 2014.

Leave a Reply

Your email address will not be published. Required fields are marked *