Hoogleraar AI: ‘Als de overheid niet snel ingrijpt, gaan we in de komende twaalf maanden de consequenties voelen’

Stuart Russell is al sinds augustus niet meer thuis geweest. De professor Informatica aan de Universiteit van Berkeley in Californië kan ineens overal zijn verhaal kwijt. De afgelopen week in het Verenigd Koninkrijk. Daarna Dublin. Dan Rome.

Het went, vertelt Russell, afgelopen zaterdagochtend in een videogesprek van een uur vanuit zijn hotelkamer in Londen. De stress die hij aanvankelijk had voor live televisie – „kan ik dit wel?” – is omgeslagen in routine. „Ik ben vooral blij dat de wereld eindelijk aandacht heeft voor mijn onderwerp.”

De 61-jarige Brit, die als tiener in de jaren zeventig al zijn eigen schaakcomputer bouwde, doet meer dan veertig jaar onderzoek naar artificiële intelligentie (AI). 37 jaar daarvan werkt hij aan Berkeley en inmiddels is hij een van de meest prominente wetenschappers ter wereld op zijn vakgebied. Zijn boeken Artificial Intelligence: a Modern Approach (1995) en Human Compatible (2019) zijn verplichte kost voor iedereen die probeert om kunstmatige intelligentie te begrijpen.

In films is de mens slimmer dan de machines. Maar zo werkt het niet

Russell was in het Verenigd Koninkrijk vanwege de AI Safety Summit. Hier kwamen vorige week tientallen landen, topwetenschappers en bestuurders van grote techbedrijven twee dagen samen om over de veiligheid van kunstmatige intelligentie te spreken.

Lees ook Zo grappig is Grok, de nieuwe chatbot van Musk, niet

De nieuwe chatbot van Elon Musk mag dan humoristisch proberen te zijn, kunstmatige intelligentie neemt de multimiljardair bloedserieus.

Alan Turing

De conferentie werd georganiseerd in Bletchley Park, de plek waar de Britse computerwetenschapper Alan Turing tijdens de Tweede Wereldoorlog de Enigma-machine kraakte, waarmee de nazi’s hun militaire communicatie versleutelden.

Sinds de opkomst van ChatGPT, nu bijna een jaar geleden, gaat de ontwikkeling van AI zó hard, dat overheden dreigen de grip te verliezen op de techbedrijven die de systemen bouwen. Op de top waarschuwden de landen – waaronder ook de VS, China en de EU – in een gezamenlijke verklaring voor „in potentie ernstige, zelfs catastrofale schade” die AI-systemen kunnen veroorzaken. Denk aan het uitvoeren van cyberaanvallen en het maken van nepnieuws.

De Britse premier Rishi Sunak (l) en de Italiaanse premier Giorgia Meloni op de AI-veiligheidstop in het Verenigd Koninkrijk.
Foto Leon Neal

De avond voor de top, vorige week dinsdag, sprak Russell voor een volle zaal in Wilton Hall in Bletchley Park over deze risico’s. In de receptiezaal, met groene vloerbedekking en kroonluchters, werden tijdens de Tweede Wereldoorlog feesten georganiseerd voor de Enigma-codekrakers. Naar Turing, die na de Tweede Wereldoorlog zou waarschuwen dat machines „uiteindelijk de macht overnemen” werd in Bletchley Park regelmatig verwezen.

In Wilton Hall wees Russell op de potentie van AI, mits overheden nu de juiste beslissingen nemen. „Denk aan een wereld waar gezondheidszorg voor elk individu helemaal geoptimaliseerd is. Digitale onderwijzers die beter, en geduldiger zijn dan mensen”, zei hij. „Of wetenschappelijke doorbraken die we nu nog niet kunnen bevatten.”

Lees ook ‘Of we dit overleven hangt af van hoe goed we voor onszelf zorgen’

De Britse premier Rishi Sunak met X- en Tesla-topman Elon Musk, deze week in Bletchley Park op de AI-top.

Maar risico’s zijn er ook, vertelde Russell. Desinformatie. Ongelijkheid. Cyberaanvallen. Militaire wapensystemen, waarbij computers beslissingen nemen over leven en dood. En, vroeg Russell zich af: „Wat doen mensen nog als computers straks alles kunnen waar wij nu voor betaald worden?”

Totaal omgedraaid

Vier dagen later kijkt Russell, vanuit zijn hotelkamer in Londen, met tevredenheid terug op de top. „Begin dit jaar zei de Britse overheid nog: we hoeven niet te reguleren. Laten we vol voor innovatie gaan. Dat is totaal omgedraaid.”

Deel van de reden hiervoor is dat, volgens Russell, politici zelf met ChatGPT hebben ervaren hoe indrukwekkend een AI-systeem in de praktijk kan zijn. „Ze snappen het nu en dat is ook logisch”, zegt hij. „Iedereen begrijpt dat iets wat slimmer is dan jij moeilijk te controleren is.”

Het belangrijkste resultaat van de top is dat er onafhankelijke instituten komen in de VS en het VK, die de veiligheid van AI-systemen controleren. Gaat dit werken?

„Dat ligt eraan wat ze precies gaan doen. Ik vind het absoluut niet de taak van de overheid om te controleren of producten van een bedrijf veilig zijn. De overheid is er ook niet voor om medicijnen te testen. Farmabedrijven testen medicijnen zelf en worden vervolgens geacht aan de overheid het bewijs te leveren dat een medicijn veilig is. Zo zou het ook met AI moeten zijn.”

Maar deze techbedrijven zeggen: ‘Meneer Russell, dit gaat niet werken. We kunnen niet jaren wachten tot de overheid ons toestemming geeft. We brengen iets uit en passen ons product aan. Zo werken start-ups.’

„Accepteren we dat van een farmaceutisch bedrijf? We verkopen onze medicijnen aan miljoenen mensen voordat we zeker weten of het veilig is? Nee, natuurlijk niet. Ik snap het niet als bedrijven zeggen: ‘Ik wil rijk worden, dus mag ik de mensheid aan allerlei risico’s blootstellen.’ Het is een belachelijk argument.”

Er wordt binnen AI veel gespeculeerd over wat er gaat gebeuren als computers ons in intelligentie overtreffen. Wat weten we zeker?

„Als de overheid niet ingrijpt, gaan we in de komende twaalf tot achttien maanden de consequenties serieus voelen. Denk aan grote desinformatiecampagnes die met behulp van AI zijn ontworpen om verkiezingen te beïnvloeden. Of terroristen die met behulp van AI-systemen biologische of chemische wapens produceren of cyberaanvallen uitvoeren. Dat zijn behoorlijk realistische scenario’s.

Stemmen namaken moet direct verboden worden

„Als we nu niet ingrijpen zie ik twee mogelijkheden. Of er vindt een medium sized ramp plaats, ons financieel systeem wordt platgelegd bijvoorbeeld, en daarna worden we ineens serieus over regulering. Zoals wat Tsjernobyl heeft gedaan voor hoe we omgaan met kernenergie. Of het gaat totaal mis, we raken de controle kwijt over onze systemen en er valt helemaal niks meer te reguleren. In films is de mens uiteindelijk altijd slimmer dan de slimste machines. Dat zal niet werken. Zij zijn dan slimmer dan wij.”

U pleit voor het verplicht stellen van een ‘kill switch’, een fysieke knop waarmee een AI-systeem altijd kan worden uitgeschakeld. Is dat de oplossing?

„Het is heel belangrijk, omdat het bedrijven dwingt na te denken over de vraag: hoe bouwen wij een veilig AI-systeem dat altijd uit te schakelen is? Om aan te kunnen tonen dat een ‘kill switch’ ook echt werkt, zal een bedrijf moeten aantonen dat een systeem daar niet omheen kan werken. Op dit moment hebben techbedrijven echt geen enkel idee waarom AI-systemen bepaald gedrag vertonen.”

Critici zeggen: het idee dat AI de laatste uitvinding is die de mens ooit zal doen is allemaal marketing van techbedrijven, die zichzelf belangrijker maken dan ze zijn. Wat vindt u daarvan?

„Dat argument slaat nergens op. Alan Turing waarschuwde in 1951 al dat we het risico lopen dat de machines het overnemen. Had hij aandelen in Google? Kijk naar de wetgeving die nu voorligt over AI in de VS en de EU [de AI Act]. Daar wordt helemaal niet over ‘existentieel risico’ gesproken. Ik vind juist dat we het er te weinig over hebben.”

foto Valerie Kuypers

Het moment dat machines slimmer worden dan wij komt met de dag dichterbij, zei u eerder. Waar staan we nu?

„Dat is een moeilijke vraag. Het blijft speculeren. We zien nu dat systemen in een gigantisch tempo groter en groter worden met meer en meer data. De volgende generatie AI-systemen zal volgend jaar al tien keer krachtiger zijn dan GPT-4 [het model achter ChatGPT] nu is. We weten niet precies wat het gaat doen. Het lijkt alsof natuurkundigen verrijkt uranium gewoon op een grote stapel verzamelen en zeggen: ik vraag me af wat er gebeurt als ik deze stapel groter en groter maak. En laten we hem steeds groter maken totdat er iets geweldigs gebeurt. Dat is niet bepaald verantwoord gedrag.”

U zegt vaker: we moeten AI gebruiken voor ‘onvervulde behoeften’. Wat bedoelt u daarmee?

„Als we AI inzetten om werk te doen dat nu door mensen wordt gedaan, zal de opkomst van AI leiden tot enorme werkloosheid. Zeker voor de korte termijn is dat een verkeerde aanpak. De onvervulde behoefte is de plek waar je als je AI toepast juist nieuwe banen creëert. Bijvoorbeeld door AI te gebruiken om nieuwe medicijnen te ontwikkelen.”

Elon Musk zei tijdens de AI Summit: in de toekomst zal AI alle banen kunnen doen verdwijnen. Alleen wie nog wil werken, hoeft te werken. Wat denkt u als u zoiets hoort?

„Hij heeft gelijk. Uiteindelijk kan, verwacht ik, AI alles wat wij mensen nu kunnen. Waar zal dat toe leiden? Of we bedenken een ander type werk, of we stoppen met het idee dat mensen überhaupt moeten werken. En dat zal vreselijk moeilijk zijn, want werk geeft ons ook een zekere status. Een gevoel dat we iets bijdragen in de samenleving.”

Is dat het echte existentiële risico: dat we ons straks nutteloos gaan voelen?

„Ik noem dit het enfeeblement risk [het ‘risico op verzwakking’]. Niet dat we ons nutteloos voelen, maar daadwerkelijk nutteloos zijn. Wat als we stoppen met het overdragen van kennis, omdat het gewoonweg niet meer nodig is? Waarom zou je twintig jaar studeren om dokter te worden als AI dat in twintig seconden kan? Dat is een gigantisch probleem.”

Wat moeten we doen om dit te voorkomen?

„We moeten toe naar een ander type werk, waarbij de mens een voordeel heeft ten opzichte van een machine. Kijk, wij mensen begrijpen elkaar, zijn goed in staat elkaar te helpen en zullen op allerlei momenten liever een mens tegenover ons hebben dan een machine, zoals bijvoorbeeld bij de psycholoog. Dat zijn de beroepen die de toekomst hebben.”

Hoe voorkomen we dat AI zijn eigen doelen gaat nastreven?

„Dat is de million, billion, quintillion dollar question. Hoe zorgen we ervoor dat AI veilig blijft en in ons voordeel werkt? Met de schaakcomputer was het eenvoudig: die gaven we een simpel doel mee. Namelijk: zet je tegenstander schaakmat. Het probleem nu is dat we met de huidige AI-systemen niet precies weten welk doel ze eigenlijk dienen. Bedrijven die experimenteren met zelfrijdende auto’s ontdekken dat zelfs bij zoiets specifieks als autorijden het heel moeilijk is het doel van het systeem juist te programmeren. Want dat is meer dan gewoon simpelweg naar een bestemming rijden.”

Dus het risico is niet dat de machines hun eigen doelen gaan nastreven, maar dat wij ze de verkeerde doelen meegeven?

„Exact. Kijk nu naar de taalmodellen van ChatGPT. Die hebben überhaupt geen doelen, of wel? Misschien wel, maar we hebben geen idee wat ze zijn, want de bedrijven geven dit niet prijs. Taalrobots zijn feitelijk machines die menselijk gedrag imiteren. Hoe een bedrijf als OpenAI nu werkt, is dat het uitkomsten van ChatGPT achteraf corrigeert, door het systeem bepaalde beperkingen op te leggen of door mensen te laten modereren. De vraag is of dat houdbaar is naarmate het systeem slimmer wordt. Dit is de technologie die we nu toegang geven tot het internet, tot onze bankgegevens, onze militaire systemen.”

Wat zouden we nu onmiddellijk moeten doen? Wat zijn de eerste stappen?

„Het namaken van stemmen of beelden van mensen moet direct verboden worden. Dat is echt het laaghangende fruit. Er wordt zo veel schade berokkend met stemklonen en deepfakeporno. Dat zijn gewoon hulpmiddelen voor criminelen, die we niet nodig hebben. Zo’n verbod dient een tweeledig doel. Het herinnert de overheid er ook aan dat ze daadwerkelijk techbedrijven kunnen aanpakken. Want de overheid is duidelijk vergeten hoe dat ook alweer moest.”

En daarna?

„We zullen met elkaar moeten bepalen wat een ‘veilig’ AI-systeem precies is, door techbedrijven een aantal harde voorwaarden op te leggen. Ik noem dat ‘rode lijnen’. Een systeem mag zichzelf niet kopiëren. Ook mag het niet inbreken in andere computersystemen. En het mag geen advies geven bij het bouwen van biologische of chemische wapens. We moeten bedrijven opleggen dat ze aantonen dat ze in hun systemen hebben ingebouwd dat ze deze rode lijnen niet kunnen overtreden, voor ze hun producten uitbrengen. Het moet verder gaan dan: ‘Ik heb een paar slimme mensen aangenomen, die hebben een paar testen uitgevoerd en het loopt allemaal wel los.’”

Slaapt u nog wel?

„Misschien ben ik van nature een optimist, maar ik heb altijd het gevoel dat er een weg vooruit is. Mijn collega Geoffrey Hinton [prominente AI-wetenschapper, die onlangs vertrok bij Google] heeft dat niet. Echt een geweldige vent, maar hij heeft het min of meer opgegeven. Hij heeft zoiets van: ‘Ik stop ermee, want we hebben niet veel tijd meer over.’ Weet u wat p(doom) betekent?”

Nee?

„Dat staat voor de probability of doom [de kans op het einde der tijden]. Mensen vragen me vaak : wat is jouw p(doom)? Ik houd er niet van. Het is fout om iemand als doomer weg te zetten. AI is als een enorm rotsblok op de weg. En de doomers zijn de mensen die zeggen: pas op, stuur naar links! Zo voorkomen we een ongeluk.”

Lees ook De volgende Einstein kan een computer zijn, maar hoelang duurt dat nog?

De volgende Einstein kan een computer zijn, maar hoelang duurt dat nog?