Het is nu duidelijk hoe Europa AI aan banden wil leggen (en daarmee wereldwijd een norm stelt)

Als de moeite waarmee het AI-akkoord tot stand kwam illustratief is voor de grote politieke en commerciële belangen erachter, kun je constateren: die zijn reusachtig.

Na marathonsessies van in totaal 36 uur onderhandelen, bereikte de Europese Unie vrijdagavond een akkoord over de zogeheten AI Act.

Het betekent dat Europa nu voorop loopt met het reguleren van kunstmatige intelligentie, iets waar prominente AI-deskundigen wereldwijd al tijden om roepen. In een verklaring loofde voorzitter van de Europese Commissie Ursula von der Leyen de wet die „op de mens gerichte, transparante en verantwoorde […] AI in de EU” stimuleert, maar daarnaast ook „substantieel bijdraagt aan de ontwikkeling van mondiale vangrails voor betrouwbare AI”.

Nog niet alle details over het gesloten akkoord zijn bekend en ook moeten het Europarlement en EU-lidstaten zich nog een keer over het eindresultaat uitspreken. Maar de kaders zijn wel duidelijk bepaald, en daarmee wordt duidelijk hoe Europa AI in de komende jaren aan banden wil gaan leggen en daarmee wereldwijd een norm wil stellen.

Lees ook Hoe ziet de wereld er in 2040 uit als de mensheid AI zonder regulering toelaat?

Hoe ziet de wereld er in 2040 uit als de mensheid AI zonder regulering toelaat?

Hoe groter de risico’s, hoe strenger de regels

Uitgangspunt van de wet is dat hoe groter de risico’s bij een AI-systeem zijn, hoe strenger de regels zijn. Het betekent een verbod op systemen met een onaanvaardbaar risico, bijvoorbeeld zogeheten ‘sociale scoresystemen’ door overheden, die burgers categoriseren op basis van persoonlijke kenmerken of gedrag, en het gebruik van emotieherkenningssoftware door werkgevers of onderwijsinstellingen. Op aandringen van het Europarlement wordt het ook verboden te voorspellen of een individu de fout in zal gaan op basis van persoonsgegevens – iets wat een rol speelde in de Toeslagenaffaire in Nederland.

Maar in de wet zitten ook uitzonderingen, waarvan soms nog onduidelijk is hoe verstrekkend ze zijn. EU-lidstaten drongen in de onderhandelingen fel aan op ruime AI-mogelijkheden voor veiligheids- en opsporingsdiensten. Het absolute verbod op real time-gezichtsherkenning dat het Europarlement wilde, komt er om die reden niet: bij de opsporing van onder meer moordverdachten en het voorkomen van terreurdaden mogen overheidsdiensten zulke systemen wel inzetten.

Teleurstellend, vindt onder meer Amnesty International, dat in een verklaring benadrukte dat een „absoluut verbod echt noodzakelijk is” omdat „geen enkele waarborg de schade die gezichtsherkenning toebrengt aan de mensenrechten kan voorkomen.

‘Het was een enorme strijd’

Europarlementariër Kim van Sparrentak, die voor GroenLinks een van de hoofdonderhandelaars was, spreekt van een „enorme strijd” die op dit punt moest worden geleverd met EU-overheden. „Ik had echt meer gewild, maar ben tegelijk blij dat we het gebruik streng hebben kunnen beperken.” Ze wijst erop dat bijvoorbeeld gezichtsherkenning alleen in heel specifieke gevallen gericht op één verdachte mag worden ingezet, waarbij een rechter vooraf altijd toestemming moet geven.

Minstens zo groot was ook de strijd om het reguleren van de meest krachtige AI-modellen, ook wel ‘general purpose AI’ (GPAI) genoemd, waaronder ook de bekende chatbot ChatGPT. Onder druk van een sterke techlobby bepleitten Duitsland, Frankrijk en Italië de afgelopen weken het uit de wet halen van deze modellen, om ze slechts ‘zelfregulering’ op te leggen. Belangrijkste argument: te strenge regels zouden innovatie in Europa hinderen.

Die lobby is niet (volledig) geslaagd: ook de GPAI-modellen vallen straks onder de wet. Het betekent dat achterliggende bedrijven onder meer transparant moeten zijn over de gegevens waarmee de modellen getraind zijn. Ook moeten ze voldoen aan de Europese auteursrechtenwetgeving en bij gegenereerde tekst, afbeeldingen of geluid duidelijk maken dat ze met AI tot stand kwamen.

Voor de grootste systemen, waaronder waarschijnlijk ChatGPT, worden de regels nog strenger: die moeten onder meer ook regelmatig controles uitvoeren over hun mogelijke maatschappelijke impact, eventuele risico’s verplicht beperken en over hun energieverbruik rapporteren.

Tegelijk zijn ook hier uitzonderingen, specifiek voor systemen die ‘open source’ zijn, wat inhoudt dat iedereen de technologie kan inzien en gebruiken om een eigen model te trainen. Omdat deze systemen van nature al transparanter zijn, krijgen deze minder verplichtingen. Tenzij ze als ‘hoog risico’ worden gekwalificeerd, een definitie die nog niet heel duidelijk is.

Het betekent dat Europese AI-bedrijven die de afgelopen weken het hardst tegen de regelgeving lobbyden, het Duitse Aleph Alpha en het Franse Mistral AI, als open-source-bedrijven waarschijnlijk voor een deel buiten schot blijven.

Het kon niet verhinderen dat de techlobby lauwtjes op het akkoord reageerde. Belangrijkste lobbyclub DigitalEurope sprak in een verklaring zorgen uit over hoe lastig het wordt voor bedrijven om aan de regels te voldoen, waardoor ze „meer moeten gaan besteden aan advocaten, in plaats van het inhuren van nieuwe AI-ontwikkelaars”.

Geen ‘regelboek’, maar een ‘springplank’

Het duidt op een gevoelig punt in de discussie over de AI-wetgeving, namelijk het verwijt dat wetten en regels innovatie zouden hinderen. In een eerste verklaring op X was Eurocommissaris Thierry Breton (Interne Markt) die kritiek al voor, door te benadrukken dat de wet niet alleen een „regelboek” is, maar ook „een springplank voor EU-start-ups en onderzoekers om de mondiale AI-race te leiden”.

De hoop is in Europa dat de regels, zoals eerder ook gebeurde met die rond privacy, uiteindelijk mondiaal (deels) zullen worden overgenomen. Maar of dat zal gebeuren is onzeker. Vast staat al wel dat de EU in de wereldwijde race om AI nog flink achterloopt bij de Verenigde Staten en China. De grootste modellen die met de strengste regels te maken krijgen zullen daarom misschien wel uitsluitend buiten Europa ontwikkeld zijn. Het kan de verdenking van protectionisme aanwakkeren. Tegelijk klinkt in Brussel dat de extra administratieve last voor dit soort grootschalige modellen in het niet valt bij de miljoenen die dit soort grote techbedrijven – zoals OpenAI of Google – toch al investeren.

Komend voorjaar moeten Europarlementariërs en EU-lidstaten nog een keer over het eindvoorstel stemmen, waarna de implementatiefase start. Verboden gelden dan al na een half jaar, maar het overgrote deel van de rest van de wetgeving treedt pas twee jaar later in werking: vermoedelijk in 2026.

Leeslijst