“We pleiten voor een snelle afronding en invoering van de Europese wet over kunstmatige intelligentie (AI), die onze mensenrechten beschermt [...] We willen een Europese autoriteit die toeziet op AI in de EU. [Nederland] ijvert voor de totstandkoming van internationale normen. Streefdoel is een bindend wereldwijd verdrag.”

Verkiezingsprogramma GroenLinks-PvdA 2023, pagina 84, onder het kopje ‘Een solidair en daadkrachtig Europa'.

Het valt niet te ontkennen: we zitten midden in een AI-hype. Sinds de lancering van ChatGPT in 2022 raken kranten noch talkshows uitgepraat over de mogelijke toepassingen én gevaren van de nieuwe technologie. Het is vrij onmogelijk om LinkedIn te openen zonder dat iemand je iets probeert te vertellen over ‘innovatieve AI-oplossingen’ voor je al dan niet bestaande eenmanszaak. 

Maar AI is niet alleen een hype. Er zijn ook serieuze vraagstukken aan verbonden, niet in het minst voor politici. Namelijk: wat voor beleid hebben we nodig om de toepassingen van kunstmatige intelligentie in goede banen te leiden? Wat staat er op het spel als we dat niet doen? En hoe verschilt de Europese aanpak van die van China of Amerika?

Afbeelding bij artikel kunstmatige intelligentie, AI
Illustratie: 6eo tech. CC BY 2.0

Noodzaak van regulering

Waarom zouden we kunstmatige intelligentie moeten reguleren? Volgens Mark Brakel, hoofd Beleid van het Future of Life Institute, zijn de risico’s van kunstmatige intelligentie onder te verdelen in drie categorieën: misbruik, controleverlies en extreme concurrentie. Onder misbruik valt “het gebruik van kunstmatige intelligentie om verkiezingen te beïnvloeden en kritieke infrastructuur lam te leggen”, aldus Brakel. “Maar ook voor het ontwikkelen van biologische wapens.” 

Hij noemt als voorbeeld een recent experiment van het Oostenrijkse Spiez-laboratorium. Een algoritme dat normaal wordt gebruikt om geneesmiddelen te ontwikkelen, werd bij wijze van demonstratie ingezet om chemische wapens te ontwerpen. Binnen een paar uur lagen er veertigduizend blauwdrukken. “Zo maakt AI bepaalde kennis toegankelijk voor groepen die er eerst geen toegang toe hadden.”   

De tweede categorie van risico’s is controleverlies: “Dat zien we in het klein op sociale media. Het systeem dat aanbevelingen genereert op je tijdlijn is een simpele vorm van kunstmatige intelligentie. Maar dat systeem kan onbedoelde consequenties met zich meebrengen, zoals de bestorming van het Capitool in de Verenigde Staten.” Experts wijzen inderdaad op de centrale rol die sociale media speelden in aanloop naar en tijdens de revolte op 6 januari 2021. Die eindigde met vijf doden en honderden gewonden. Een onwerkelijke couppoging die overal ter wereld live op televisie was te volgen.

“ Concurrentie leidt tot overdracht van steeds meer besluitvorming aan AI ”

Brakel: “De derde categorie ontstaat als mensen, bedrijven of landen onder druk van extreme concurrentie beslissingen overdragen aan AI. Als een land begint met het uitbesteden van militair-strategische beslissingen aan kunstmatige intelligentie – bijvoorbeeld door de lancering van z’n atoomwapens te laten automatiseren – prikkelt het andere landen om dat ook te gaan doen. Concurrentie leidt dan tot het vrijwillig overdragen van steeds meer besluitvorming aan AI. Daar wil je als mensheid ook regels over afspreken, die bepalen hoe ver je wilt en kunt gaan.”

Europese AI-wet 

De in het verkiezingsprogramma genoemde Europese wet over kunstmatige intelligentie is op 1 augustus in werking getreden. Brakel vertelt dat de wet een risicogerichte benadering gebruikt, waarbij de regels strenger worden naarmate het risico op het schenden van mensenrechten groter wordt. Aanvankelijk maakte de wet onderscheid tussen onaanvaardbaar, hoog en laag risico. AI-systemen met een onaanvaardbaar risico zijn verboden. Hieronder valt bijvoorbeeld het gebruik van kunstmatige intelligentie voor sociale kredietsystemen. Dat zijn systemen waarbij burgers scores krijgen op basis van hun gemonitorde gedrag, waardoor ze bepaalde maatschappelijke privileges en rechten krijgen of verliezen. 

Hoog-risico-toepassingen van AI zijn legaal binnen de EU-wetgeving, zegt Brakel: “Maar ze vereisen veel documentatie om te bewijzen dat de gebruikte data vrij zijn van vooringenomenheid. Denk hierbij aan het gebruik van kunstmatige intelligentie bij het beoordelen van uitkeringsaanvragen.”

De laag-risico-categorie omvat het gros van de AI. “Als iets niet verboden is en niet op de hoog-risico-lijst staat, dan zijn er geen regels. Wil netbeheerder TenneT bijvoorbeeld de hoogspanningsmasten controleren op kapotte kabels via een geautomatiseerde drone, dan kan dat zonder dat de AI-wet eisen oplegt.”

Effecten

Brakel denkt dat deze risico-aanpak in principe goed is, maar hij waarschuwt dat het model wel erg is toegespitst op relatief specifieke toepassingen van AI. “Terwijl er ook systemen zijn die heel veel verschillende toepassingen hebben en daarom aan het begin van de waardeketen staan. Als zo’n model een probleem heeft, verspreid dat zich naar alle systemen die dat model gebruiken.” Het CrowdStrike-incident van afgelopen zomer illustreert bijvoorbeeld hoe gevaarlijk het is als heel veel systemen afhankelijk zijn van één kwetsbaarheid. Complete vliegvelden en ziekenhuizen liepen wereldwijd vast door een knullige software-update.

Volgens Brakel is hier in Brussel wel naar gekeken: “Er is een hoofdstuk aan de wet toegevoegd waarbij modellen boven een bepaald niveau van rekenkracht ook aan risico-identificatie en -mitigatie moeten doen. Het nieuwe AI-kantoor in Brussel controleert dat.” Het Future of Life Institute, waar Brakel werkzaam is, pleit ervoor dat er over het algemeen meer verantwoordelijkheid bij de grote AI-aanbieders moet komen te liggen, in plaats van alleen bij de gebruikers van hun systemen.

Hoe dan ook is de wet volgens Brakel een mijlpaal: “Zij laat zien dat het überhaupt mogelijk is om AI te reguleren. Geen enkele markt van een soortgelijke omvang heeft dat eerder gedaan.” Daarbij heeft Europa volgens hem geleerd van het verleden en met name van de invoering van de Algemene verordening gegevensbescherming (AVG, de Europese privacywet). “Daarin staat nog dat de bescherming van gegevens van burgers gehandhaafd moet worden in de lidstaat binnen de EU waar het hoofdkantoor van een bedrijf zit. 

Om die reden hebben alle big tech-bedrijven hun hoofdkantoor in Ierland, waar de toezichthouder zwak is. De andere 26 lidstaten staan hierdoor buitenspel. Dit is onder de nieuwe wet onmogelijk: het AI-kantoor in Brussel heeft de macht om zelf handhavend op te treden.”

Kritiek

Dit kantoor lijkt op de AI-autoriteit waar GroenLinks en PvdA in hun gezamenlijke verkiezingsprogramma voor pleiten. Overigens is het geen zelfstandig agentschap, maar een afdeling van de Europese Commissie. De reden dat het agentschap er niet van is gekomen, is volgens Brakel vooral budgettair. “Kortzichtig”, noemt hij dit. “Het Verenigd Koninkrijk trekt honderd miljoen pond uit voor hun veiligheidsinstituut. Dat zijn bedragen waar Europa nog naar op zoek is. Het is heel belangrijk dat we in de volgende begroting van de EU – of zo snel mogelijk – meer middelen vinden.”

Andere vaak genoemde kritiek is dat Europa achterloopt bij het reguleren van de militaire toepassingen van kunstmatige intelligentie. “Verreweg het grootste gat in de wet”, aldus Brakel. De wet benadrukt expliciet dat het gebruik van AI-technologie voor defensie en nationale veiligheid vrijgesteld is van regelgeving. Dat is vanuit de geschiedenis van de EU heel verklaarbaar; defensiebeleid laten we immers over aan de lidstaten. 

Brakel: “Maar dat is aan het veranderen: we krijgen een Eurocommissaris voor Defensie en kopen gezamenlijk munitie in voor Oekraïne. Juist nu de wereld geopolitiek zo verandert en je ziet dat het gebruik van AI en autonome wapens ook de manier waarop we oorlog voeren gaat veranderen, zouden duidelijke richtlijnen van de EU een normerend effect kunnen hebben. Ze kunnen een basis leggen voor mogelijke toekomstige internationale afspraken.”

“ Wat gebeurt er zodra een autonoom wapensysteem een oorlogsmisdaad begaat? ”

Hij betoogt dat landen zich wel degelijk zorgen maken. Want wat gebeurt er zodra een autonoom wapensysteem een oorlogsmisdaad begaat? “Je kunt dan niet duidelijk een link leggen met de soldaat die daar opdracht toe heeft gegeven. Daarbij is de vraag hoe je omgaat met systemen die handelen op basis van verkeerde signalen. Denk bijvoorbeeld aan een zonnestraal die wordt geïnterpreteerd als een afgevuurde kogel, waarop een tegenaanval wordt ingezet. Dat kan een onbedoelde oorlog veroorzaken.”

Nederland zit te slapen

De oplopende spanningen tussen het Westen en China de afgelopen jaren doen analisten nerveus kijken naar wat Beijing nou precies uitspookt. De Amerikaanse Nationale Veiligheidscommissie voor Kunstmatige Intelligentie noemde China maar liefst 699 keer in haar eindrapport, meer dan elke andere geopolitieke rivaal of bondgenoot.

Brakel beschrijft het Chinese AI-beleid als “deels geënt op het voorkómen van vrijheid van meningsuiting, en op de vraag hoe modellen kunnen worden ingezet om bepaalde ideeën in de samenleving te verspreiden”. Het is volgens hem goed dat de Amerikaanse president Biden en zijn Chinese tegenhanger Xi elkaar afgelopen jaar hebben ontmoet in San Francisco en daarbij specifiek spraken over de militaire toepassingen van AI. Maar hij plaatst ook een kanttekening: “We moeten ons ervan bewust zijn dat het grootste risico momenteel uit de Verenigde Staten komt. De technologie loopt daar zeker twee jaar voor op die van China, terwijl er geen enkele wet- of regelgeving is.”

“ Nederland heeft een belangrijk stuk van de AI-waardeketen ”

Nederland zit volgens Brakel nog te veel te slapen. “Landen moeten beseffen dat er gigantische ontwikkelingen plaatsvinden. Ze moeten gaan bijdragen aan de discussie over hoe we als wereld de nieuwe technologie moeten vormgeven. Nederland behoort tot een heel beperkte groep landen die een belangrijk stuk van de AI-waardeketen hebben, namelijk chipmachinefabrikant ASML.”

Dat strategisch belang zou beter ingezet kunnen worden. Brakel had in het nieuwe kabinet graag een bewindspersoon voor Informatisering en Digitale Zaken gezien, in plaats van het dossier onder te brengen bij een staatssecretaris die ook Koninkrijksrelaties doet. Ook pleit hij ervoor om meer onderzoek te doen aan universiteiten. “Die hebben nu niet de middelen om zelf rekenkracht aan te schaffen. Dat kan niet in Nederland worden opgelost, dat moet minimaal op Europees niveau. Het pleidooi van Stuart Russell, een bekend computerwetenschapper, is dat bijvoorbeeld de EU, Canada en Japan hun krachten bundelen om gezamenlijk rekenkracht in te kopen. Zo kunnen we eigen modellen ontwikkelen en onderzoeken hoe we de modellen van bedrijven beheersbaar houden.”

Filosofische vraag

Wat gebeurt er met de wereld op het moment dat intelligentie niet meer voorbehouden is aan biologische wezens? Een filosofische vraag, die steeds relevanter wordt. Brakel vertelt over de voorzitter van de Future of Life Institute, Max Tegmark, die graag de vergelijking maakt met het uitsterven van de zwarte neushoorn. “Wisten die dieren wat er aan de hand was? Wisten ze dat men dacht dat hun hoorn erectieproblemen kon verhelpen? Waarschijnlijk niet. Maar ze stierven wél uit. Op het moment dat je eenmaal te maken hebt met intelligentie die de onze honderdmaal overstijgt, kun je niet heel veel zinnige discussies meer voeren over wat precies het risico is. Laat staan over hoe je dat risico moet aanpakken.”

Discriminerende algoritmen 

Samaa Mohammad-Ulenberg is voormalig digital ethics specialist bij Alliander, oprichter van de Dutch AI Ethics Community en bestuurder bij Algorithm Audit

Samaa: “Bias, oftewel vooringenomenheid, draait om kunstmatige intelligentie die beslissingen neemt op basis van vooroordelen. Het is belangrijk om te beseffen dat dit niet altijd slecht is: AI heeft, net zoals mensen, vooringenomenheid nodig om beslissingen te kunnen maken. We spreken over ‘slechte bias’ als AI systematisch en oneerlijk discrimineert tegen bepaalde personen of groepen, ten gunste van anderen. Bias kan op verschillende manieren ontstaan. Een veelvoorkomende oorzaak is de over- of ondervertegenwoordiging van bepaalde groepen mensen in de trainingsdata van AI. 

Dit leidt tot een scheve weergave van de werkelijkheid. Neem vrouwen in de gezondheidszorg, die historisch gezien ondergediagnosticeerd zijn voor bepaalde ziektes, zoals hartaanvallen. Dit komt doordat onderzoeksdata voornamelijk onder mannen waren verzameld. Stel dat er een AI voor hartaanval-diagnoses wordt ingezet op basis van deze data, dan resulteert dat in minder accurate diagnoses voor vrouwen.

De risicocategorieën die Brakel noemt zijn belangrijk, maar de meeste algoritmen die tot nu toe wegens discriminerende of andere schadelijke effecten in het nieuws zijn gekomen, zijn niet in deze categorieën te delen. De ‘hoog risico'-categorie uit de Europese AI-wet omvat maar een fractie van alle risicovolle algoritmen die worden gebruikt. De wet zal dus niet garanderen dat onze algoritmen en AI-systemen in de toekomst vrij zullen zijn van discriminatie. 

We kunnen werken aan het verminderen van vooringenomenheid door diverse en representatieve data te gebruiken. Ook kunnen we proberen AI-ontwikkelaars bewuster te maken van de manieren waarop bias AI-modellen binnen kan sluipen. Dan kunnen ze hun systemen erop aanpassen. Bewustzijn onder eindgebruikers is ook belangrijk. Hoe zorgen we ervoor dat algoritmische discriminatie beter herkend wordt door burgers, zodat ze kunnen opkomen voor hun rechten? De politiek moet ze hierbij ondersteunen en het voortouw nemen.”