Dit betekent de AI Act voor Europese burgers: watermerken bij nepvideo’s, gezichtsherkenning alleen onder strenge voorwaarden

Mag de politie nog camera’s met gezichtsherkenning gebruiken om een voortvluchtige moordenaar te vinden? En is een bedrijf dat kunstmatige intelligentie (AI) gebruikt om video’s of stemgeluid te maken strafbaar als voor de gebruiker niet duidelijk is dat de stemmen en video’s niet echt zijn?

Na 36 uur non-stop onderhandelen bereikte de EU afgelopen weekend een akkoord over de AI Act. Met de wet, waarvan de details nog moeten worden ingevuld, hoopt Europa een wereldwijde norm te stellen voor hoe bedrijven en overheden AI gaan inzetten.

Er komen nieuwe regels voor ‘foundational models’, de krachtige taalmodellen van onder meer Google en OpenAI die het afgelopen jaar een grote vlucht hebben genomen. De makers van de meest risicovolle AI-systemen moeten als de AI Act van kracht wordt, waarschijnlijk in 2026, verantwoording afleggen aan een onafhankelijke toezichthouder. Zij moeten daar onder meer aantonen dat hun AI-systemen geen schade toebrengen aan burgers. Ook moeten ze transparant zijn over het energieverbruik en aangeven met welke gegevens de modellen precies getraind zijn.

Wat betekent de AI Act verder concreet voor Europese burgers? Een overzicht van de belangrijkste onderdelen van de wet en wat er straks wel en niet meer kan.

Gezichtsherkenning

Een van de belangrijkste discussiepunten was het gebruik van gezichtsherkenning. Het Europarlement hoopte op een algeheel verbod op de technologie. Zo ver kwam het niet. Wat zijn straks de regels?

Dit mag niet: afgesproken is dat gezichtsherkenning in de EU in principe verboden wordt. Dat betekent dat de politie het niet mag inzetten om bijvoorbeeld deelnemers van een demonstratie te identificeren. Een voetbalclub die gezichtsherkenning gebruikt om rellende supporters te identificeren is onder de nieuwe wet waarschijnlijk niet meer toegestaan. Ook wordt het verzamelen van foto’s van het internet om een gezichtendatabase aan te leggen verboden.

Dit mag nog wel: er is een uitzondering op deze regel. Voor opsporingsdiensten blijft het onder specifieke omstandigheden toegestaan om gezichtsherkenningstechnologie te gebruiken. Mits het wordt gebruikt om één persoon op te sporen, die wordt verdacht van een ernstig misdrijf (terrorisme, verkrachting, moord, et cetera). Een rechter moet daarvoor toestemming geven. Het gevolg hiervan is dat Europese overheden alsnog „systemen voor algehele gezichtsherkenning kunnen opzetten”, volgens Daniel Mügge, hoogleraar politieke arithmetiek aan de Universiteit van Amsterdam. „Denk aan camera’s die ons overal kunnen registreren. Zodat de overheid het ook kan gebruiken als het nodig is.”

Herkenning van emoties

In de AI Act werd opgenomen dat de EU systemen gaan verbieden die „emoties herkennen op de werkplek en in het onderwijs”.

Dit mag niet: het gebruik van ‘emotieherkenningssoftware’ wordt aan banden gelegd. Deze technologie wordt bijvoorbeeld in Amerikaanse callcenters al actief ingezet. Stem, gezichtsuitdrukking en typgedrag van personeel wordt door werkgevers in de gaten gehouden, zodat werknemers hun productiviteit hoog houden. Ook technologie die, bijvoorbeeld via camera-opnames of screenshots, bijhoudt hoe goed leerlingen op school opletten, wordt in de EU verboden.

Dit mag nog wel: voor veiligheid op de werkplek wordt een uitzondering gemaakt. „Denk aan een vrachtwagenbedrijf dat software wil gebruiken om te monitoren of chauffeurs wel wakker zijn”, zegt Mügge. Een bedrijf dat van de uitzonderingspositie gebruik wil maken zal zich bij een nog op te richten Europese AI-toezichthouder moeten verantwoorden.

Een AI-watermerk

De lidstaten spraken af dat het voor elke burger straks duidelijk moet zijn of een foto, video, tekst of stem van een mens of een computer afkomstig is. Onduidelijk is hoe de EU dit denkt te kunnen handhaven.

Dit mag niet: audiobedrijven zoals het Amerikaanse ElevenLabs maken het mogelijk iemands stem binnen een paar seconden te klonen. Als ElevenLabs in de EU beschikbaar wil blijven, zal het bedrijf verplicht elk geluidsfragment moeten voorzien van een disclaimer. Dat geldt ook voor beelden die door beeldgenerator Dall-E zijn gemaakt. „Bij tekst van bijvoorbeeld ChatGPT wordt dit wel heel ingewikkeld”, zegt Mügge. „Hoe ga je dat controleren?”

Dit mag nog wel: een verbod op stemklonen of deepfakes (nepvideo’s), waar veel experts op aandrongen, komt er niet. Dat betekent dat de technologie ook in de toekomst kan worden gebruikt, bijvoorbeeld om stemmen van politici te imiteren of satirische video’s te maken. Mits dus duidelijk is dat het om een nagemaakte stem of video gaat.

Lees ook ‘Mam! Help! Kun je snel geld overmaken?’

‘Mam! Help! Kun je snel geld overmaken?’

Sociale-scoresystemen

De EU zegt geen systemen te willen die een „sociale score” bijhouden van haar burgers. Daarmee probeert Europa vooral een alternatieve visie te geven op het Europese angstbeeld van China, waar burgers met een lage sociale score bijvoorbeeld geen bedrijf mogen beginnen. Een Chinese burger kan een lagere score krijgen als hij of zij zich bijvoorbeeld kritisch uit over de Chinese overheid op sociale media of rekeningen te laat betaalt.

Dit mag niet: een sociaal kredietsysteem waarbij de overheid van een Europees land het gedrag van burgers permanent monitort en beoordeelt. Volgens Mügge is deze bepaling in de AI Act meer een statement, dan het echt concreet aanpassen van regels. „De EU zegt hiermee vooral: wij willen geen dystopische staat.” Ook wordt het Europese overheden verboden op basis van persoonsgegevens te voorspellen of een individu de fout in zal gaan, iets wat een rol speelde in de Toeslagenaffaire.

Dit mag nog wel: bepaalde scoresystemen voor burgers die Europa wél heeft, maar die niks met AI te maken hebben, blijven gewoon bestaan. Denk aan een BKR-registratie, waar de kredietwaardigheid van Nederlandse burgers wordt bijgehouden.

Leeslijst