Brakel: “De derde categorie ontstaat als mensen, bedrijven of landen onder druk van extreme concurrentie beslissingen overdragen aan AI. Als een land begint met het uitbesteden van militair-strategische beslissingen aan kunstmatige intelligentie – bijvoorbeeld door de lancering van z’n atoomwapens te laten automatiseren – prikkelt het andere landen om dat ook te gaan doen. Concurrentie leidt dan tot het vrijwillig overdragen van steeds meer besluitvorming aan AI. Daar wil je als mensheid ook regels over afspreken, die bepalen hoe ver je wilt en kunt gaan.”
Europese AI-wet
De in het verkiezingsprogramma genoemde Europese wet over kunstmatige intelligentie is op 1 augustus in werking getreden. Brakel vertelt dat de wet een risicogerichte benadering gebruikt, waarbij de regels strenger worden naarmate het risico op het schenden van mensenrechten groter wordt. Aanvankelijk maakte de wet onderscheid tussen onaanvaardbaar, hoog en laag risico. AI-systemen met een onaanvaardbaar risico zijn verboden. Hieronder valt bijvoorbeeld het gebruik van kunstmatige intelligentie voor sociale kredietsystemen. Dat zijn systemen waarbij burgers scores krijgen op basis van hun gemonitorde gedrag, waardoor ze bepaalde maatschappelijke privileges en rechten krijgen of verliezen.
Hoog-risico-toepassingen van AI zijn legaal binnen de EU-wetgeving, zegt Brakel: “Maar ze vereisen veel documentatie om te bewijzen dat de gebruikte data vrij zijn van vooringenomenheid. Denk hierbij aan het gebruik van kunstmatige intelligentie bij het beoordelen van uitkeringsaanvragen.”
De laag-risico-categorie omvat het gros van de AI. “Als iets niet verboden is en niet op de hoog-risico-lijst staat, dan zijn er geen regels. Wil netbeheerder TenneT bijvoorbeeld de hoogspanningsmasten controleren op kapotte kabels via een geautomatiseerde drone, dan kan dat zonder dat de AI-wet eisen oplegt.”
Effecten
Brakel denkt dat deze risico-aanpak in principe goed is, maar hij waarschuwt dat het model wel erg is toegespitst op relatief specifieke toepassingen van AI. “Terwijl er ook systemen zijn die heel veel verschillende toepassingen hebben en daarom aan het begin van de waardeketen staan. Als zo’n model een probleem heeft, verspreid dat zich naar alle systemen die dat model gebruiken.” Het CrowdStrike-incident van afgelopen zomer illustreert bijvoorbeeld hoe gevaarlijk het is als heel veel systemen afhankelijk zijn van één kwetsbaarheid. Complete vliegvelden en ziekenhuizen liepen wereldwijd vast door een knullige software-update.
Volgens Brakel is hier in Brussel wel naar gekeken: “Er is een hoofdstuk aan de wet toegevoegd waarbij modellen boven een bepaald niveau van rekenkracht ook aan risico-identificatie en -mitigatie moeten doen. Het nieuwe AI-kantoor in Brussel controleert dat.” Het Future of Life Institute, waar Brakel werkzaam is, pleit ervoor dat er over het algemeen meer verantwoordelijkheid bij de grote AI-aanbieders moet komen te liggen, in plaats van alleen bij de gebruikers van hun systemen.
Hoe dan ook is de wet volgens Brakel een mijlpaal: “Zij laat zien dat het überhaupt mogelijk is om AI te reguleren. Geen enkele markt van een soortgelijke omvang heeft dat eerder gedaan.” Daarbij heeft Europa volgens hem geleerd van het verleden en met name van de invoering van de Algemene verordening gegevensbescherming (AVG, de Europese privacywet). “Daarin staat nog dat de bescherming van gegevens van burgers gehandhaafd moet worden in de lidstaat binnen de EU waar het hoofdkantoor van een bedrijf zit.
Om die reden hebben alle big tech-bedrijven hun hoofdkantoor in Ierland, waar de toezichthouder zwak is. De andere 26 lidstaten staan hierdoor buitenspel. Dit is onder de nieuwe wet onmogelijk: het AI-kantoor in Brussel heeft de macht om zelf handhavend op te treden.”
Kritiek
Dit kantoor lijkt op de AI-autoriteit waar GroenLinks en PvdA in hun gezamenlijke verkiezingsprogramma voor pleiten. Overigens is het geen zelfstandig agentschap, maar een afdeling van de Europese Commissie. De reden dat het agentschap er niet van is gekomen, is volgens Brakel vooral budgettair. “Kortzichtig”, noemt hij dit. “Het Verenigd Koninkrijk trekt honderd miljoen pond uit voor hun veiligheidsinstituut. Dat zijn bedragen waar Europa nog naar op zoek is. Het is heel belangrijk dat we in de volgende begroting van de EU – of zo snel mogelijk – meer middelen vinden.”
Andere vaak genoemde kritiek is dat Europa achterloopt bij het reguleren van de militaire toepassingen van kunstmatige intelligentie. “Verreweg het grootste gat in de wet”, aldus Brakel. De wet benadrukt expliciet dat het gebruik van AI-technologie voor defensie en nationale veiligheid vrijgesteld is van regelgeving. Dat is vanuit de geschiedenis van de EU heel verklaarbaar; defensiebeleid laten we immers over aan de lidstaten.
Brakel: “Maar dat is aan het veranderen: we krijgen een Eurocommissaris voor Defensie en kopen gezamenlijk munitie in voor Oekraïne. Juist nu de wereld geopolitiek zo verandert en je ziet dat het gebruik van AI en autonome wapens ook de manier waarop we oorlog voeren gaat veranderen, zouden duidelijke richtlijnen van de EU een normerend effect kunnen hebben. Ze kunnen een basis leggen voor mogelijke toekomstige internationale afspraken.”