PATRIK ENGELLAU: Blir människan för smart för sitt eget bästa?

Tanken att människan skulle kunna förödas av sina egna framgångar, i det här fallet särskilt av sina tekniska innovationer, har nog funnits med oss ganska länge. I början av 1800-talet, när man i England började använda ångmaskiner för att driva tåg, varnade medicinare för att folk skulle bli vansinniga av att resa fortare än ungefär trettio kilometer i timmen. Arbetarrörelsen Ludditerna slängde som sabotage sina träskor i textilmaskinerna för att slippa förlora jobben till de mekaniska vävarna. Oron att människan genom att missbruka sitt förnuft till skadliga uppfinningar och på så vis beröva sig livsuppehället har legat och gnagt åtminstone sedan upplysningstiden.

I varje fall låg den och gnagde år 1996, det vet jag med säkerhet, ty jag skrev då en bok som hette Berättelsen om jobben i vilken ett kapitel handlade just om vad det skulle bli av marknadsekonomin om den fick ett så våldsamt anfall av artificiell intelligens att allt kunde göras av maskiner och det inte fanns jobb kvar till en enda människa. Jag publicerade det kapitlet för tre år sedan på dessa sidor och tänker göra det i morgon igen, ty aktuella händelser har uppenbarat nya perspektiv.

Ett märkvärdigt faktum är att oron för vad den artificiella intelligensen skulle kunna ställa till med, en ängslan som alltså långt ifrån är ny, bara under de senaste månaden tycks ha fått en bejublad nypremiär med flera artiklar i The Wall Street Journal (till exempel den här alarmistiska texten av Peggy Noonan plus ett antal lika uppskrämda artiklar i Dagens Nyheter och Svenska Dagbladet just den andra april).

Om jag inte varit så skeptisk mot konspirationsteorier hade jag lätt kunnat läsa in en konspiration i detta skeende. Femtio tusen personer varav åtskilliga är synnerligen framstående inom akademi och näringsliv – vad sägs om Elon Musk och Applegrundaren Wozniak och israelen Yuval Noah Harari som författat en tjock flygplatsbestseller om saker man inte har tänkt på? – har skrivit ett öppet brev som även du kan skriva på om du är lagd åt det hållet. Att detta nästan kvalar till en fullvärdig konspirationsteori beror för det första på att nyheten om brevet gått som en raket genom världens media och för det andra på att brevets budskap är tvärtemot vad man hade väntat sig. Budskapet från dessa människor som allihop verkar djupt insyltade i privata företag som arbetar inom artificiell intelligens-branschen är att artificiell intelligens troligen är farligt för människor och att staten därför snabbt och beslutsamt bör ta kontrollen över hela verksamheten. Det är det sista jag väntat mig att få höra och därför skulle det sitta bra med en konspirationsteori som förklaring eftersom sådana teorier är gjorda för att enkelt förklara det som är oförklarligt.

De femtiotusen brevskrivarna frågar sig följande:

Ska vi automatisera bort alla jobb, inklusive dem som fyller oss med glädje? Ska vi utveckla icke-mänskliga sinnen som så småningom kan bli fler än vi, överlista oss, göra oss föråldrade och ersätta oss? Ska vi riskera att förlora kontrollen över vår civilisation?

Sådana beslut får inte delegeras till icke-valda teknikledare… 

Därför uppmanar vi alla AI-laboratorier att omedelbart pausa i minst 6 månader träningen av AI-system som är kraftfullare än GPT-4. Denna paus bör vara offentlig och kontrollerbar och omfatta alla nyckelaktörer. Om en sådan paus inte kan antas snabbt bör regeringarna gå in och införa ett moratorium…

Parallellt måste AI-utvecklare arbeta med beslutsfattare för att dramatiskt påskynda utvecklingen av robusta AI-styrningssystem. Dessa bör åtminstone omfatta följande: nya och kapabla tillsynsmyndigheter som ägnar sig åt AI; tillsyn och spårning av AI-system med hög kapacitet och stora pooler av beräkningskapacitet; proveniens- och vattenmärkningssystem för att hjälpa till att skilja verkliga från syntetiska och för att spåra modelläckor; ett robust ekosystem för revision och certifiering; ansvar för AI-orsakad skada; robust offentlig finansiering av teknisk AI-säkerhetsforskning och institutioner med goda resurser för att hantera de dramatiska ekonomiska och politiska störningar (särskilt för demokratin) som AI kommer att orsaka.

De ber kort sagt att staten ska gå in och styra, bestämma, reglera, bygga fler kontrollerande myndigheter och, inte minst, finansiera (”robust offentlig finansiering”).

Vad för slags vinstmaximerade privata företag beter sig så? Jo oligopol, sådana som tryggt vill vila i den statliga famnen och slippa den obehagliga, fria konkurrensen, som inte vill ta några risker utan vara garanterade statlig immunitet mot stämningar och annat krångel och framför allt erhålla statlig finansiell protektion. Jag tror att vi här ser en amerikansk motsvarighet till det svenska Hybrit, en i första hand statlig inrättning som jobbar med obevisad teknik och för vilken bara ensak är nästan alldeles säker, nämligen att det kommer att behövas mycket statliga pengar framöver.

Det finns emellertid även en troligtvis mycket begåvad kommentar till hela spelet och det är en artikel av Henry Kissinger. (En länk till artikeln ligger i Noonans text.) Imponerande att Musk och hans medhjälpare lyckats mobilisera geronten till att författa en artikel! Jag skriver ”troligtvis” eftersom Kissinger delvis är oklar ehuru på det diplomatiska sätt som döljer otydligheter man för tillfället vill hålla borta från uppmärksamheten utan att man för den skull behöver tappa ansiktet. Hade Kissinger nått sin position utan denna avundsvärda egenskap? Men eftersom Kissinger faktiskt har denna egenskap måste jag nöja mig med att redogöra för vad jag tror att han menar.

Det hela är filosofiskt. Den grundläggande frågan är hur människan reagerar när hon konfronteras av ny, överlägsen kunskap vare sig denna uppstår med hjälp av artificiell intelligens eller genom en Isaac Newtons snille eller James Watts ångmaskiner som skulle få människorna att tappa förståndet om de tordes uppleva farten. ”Processen skapar en klyfta mellan mänsklig kunskap och mänsklig förståelse”, förklarar Kissinger med en typiskt dimmig men upphöjd formulering.

Faktum är att dagens AI-maskiner talar ungefär som Kissinger. Han ger själv ett exempel genom att fråga maskinen om den kan förutspå framtiden. Den svarar:

Nej. Jag kan bara ge information och svara på frågor baserat på de data som jag har utbildats på. Jag har inga personliga erfarenheter eller medvetande, så jag kan inte göra förutsägelser eller prognoser om framtida händelser.

Till och med Kissinger tycker att svaret är nebulöst:

För den naiva användaren verkar tekniken som en snabb och välartikulerad och högt bildad bibliotekarie. Den underlättar sammanfattningen av världens kunskap mycket effektivare än något befintligt tekniskt eller mänskligt gränssnitt, och det gör det med unik omfattning. Dess förmåga att integrera flera kunskapsdomäner och härma flera aspekter av mänskligt tänkande gör det överlägset någon grupp av människor på högsta nivå. Alla dessa egenskaper uppmuntrar obestridlig acceptans av vad GPT genererar och en slags magisk atmosfär för deras verksamhet. Men samtidigt har den en förmåga att vilseleda sina mänskliga användare med felaktiga uttalanden och direkta påhitt.

Här ligger, enligt Kissinger, risken med ny teknik. Den förtar människornas tankeförmåga och handlingskraft och får dem att slänga träskorna i maskinerna i stället för att utnyttja sin mänskliga överlevnadsförmåga på nya kreativa sätt. De underkastar sig skräckfyllt tekniken. Och just detta är attityden, läs exempelvis Noonan, hos alla dem jag här citerat i frågan om artificiell intelligens. (Även människorna i den framtidsstudie jag publicerar i morgon uppför sig som ett slags väluppfostrade och resonabla ludditer.)

Om det är Kissingers tes att människan inte måste underkasta sig ny teknik utan i stället kan välja att övervinna den och göra den till sin tjänare så håller jag med. Frågan kvarstår, säger Kissinger: ”Kan vi lära oss, tillräckligt snabbt, att utmana snarare än att lyda? Eller kommer vi i slutändan att vara skyldiga att underkasta oss?”

Patrik Engellau