Kan Europa AI beteugelen?
Kunstmatige intelligentie en de Europese Unie
Kunstmatige intelligentie (of: artificiële intelligentie, AI) is een handig hulpmiddel, maar elk hulpmiddel kan worden misbruikt. Kwaadwillenden kunnen het bijvoorbeeld gebruiken om ons te misleiden. Of de techniek zelf kan ‘kwaadwillend’ worden. Moeten we AI beteugelen? En kan dat eigenlijk wel? De Europese Unie doet momenteel een goede eerste poging.
‘Ach, dat is voor de verre toekomst’ zullen velen hebben gedacht. Maar de Europese Commissie – ondanks alle kritiek die we soms op deze organisatie hebben - begon al in 2018 met richtlijnen voor AI-ethiek.1 Achteraf gezien bleek dat verstandig. Want zo lag er al een compleet EU-wetsvoorstel om AI in goede banen te leiden, toen dit voorjaar programma’s als ChatGPT en Midjourney opdoken en de wereld verbaasden over hun mogelijkheden. Die programma’s lijken inmiddels amateuristisch. Concurrenten presenteerden al snel nog betere software voor gesprekken, beslissingen, nepvideo’s en meer.
Deze ontwikkelingen stellen ons voor ingrijpende vragen: Hoe moeten we AI reguleren? Hoe verhoudt dit alles zich tot de SGPvisie op de EU, op ondernemerschap en op maakbaarheid?
Uiteraard heeft AI grote potentiële voordelen. Van zelfsturende auto’s tot algoritmes, geautomatiseerde besluitvormingssystemen die voorspellingen kunnen doen en machine learning techniques: AI maakt ons leven een stuk makkelijker.
Voor ondernemers is het interessant omdat ze meer werk kunnen automatiseren: 14 procent van de banen in OECD-landen (een economisch samenwerkingsverband van voornamelijk welvarende, westerse landen) kunnen geautomatiseerd worden. Wie werkt, kan dat sneller en beter doen met AI. Zelf een formulier invullen, een email schrijven of route uitzoeken: het wordt iets van vervlogen tijden. De arbeidsproductiviteit kan dankzij AI ten opzichte van 2020 toenemen met 11 tot 37 procent in 2035, volgens de EP Think Tank.2
Bedreigingen Van AI
Er liggen dus mooie kansen, maar tegelijk vormt AI ook een bedreiging. Zoals elk handig hulpmiddel, kan dit verkeerd worden gebruikt of ongewenste bijwerkingen hebben. Zo dook in mei een foto op van een explosie nabij het Amerikaanse ministerie van Defensie, het Pentagon. De aandelenkoersen kelderden in een paar minuten. Het bleek een nepfoto, gemaakt met AI. Het was de eerste keer dat een nepfoto een beursdip veroorzaakte.3 Dat maakte duidelijk hoe groot de risico’s zijn voor misleiding van een publiek.
Hetzelfde geldt voor nepvideo’s, de zogeheten deepfakes. Zijn de tv-toespraken van de Russische president Poetin wel echt? Echt en nep zijn bijna niet meer te onderscheiden voor een doorsnee burger. Dat is een enorm risico in onze democratie, waarin videobeelden grote invloed hebben.
Dan zijn er nog de gevaren voor onze privacy. Bijvoorbeeld als het gaat over biometrische camerasystemen die ‘real time’ opnames kunnen maken van bijvoorbeeld stadionbezoekers. Of over observatie van kerkbezoekers, zoals in China al gebeurt. Overheden die ‘real-time’ biometrische identificatiesystemen op afstand in openbare ruimtes inzetten, schenden daarmee de rechten van de burger. Het gebruik van deze camera’s met gezichtsherkenning in openbare ruimtes moet daarom verboden worden, net als massale surveillance van burgers. En hoe zit het met auteursrechten van al die teksten, waarmee software als ChatGPT zichzelf voedt om nieuwe antwoorden te geven? Daar is nog geen antwoord op gegeven.
Dan heb ik het nog niet eens over de risico’s door bewuste of onbewuste fouten door de techniek zelf. Wie is aansprakelijk als de chatbox verkeerde informatie geeft? Of een jonge internetter aanmoedigt om zelfmoord te plegen? Dit is geen absurd scenario; het is inmiddels al gebeurd. Een Belgische vader van een jong gezin heeft zich van het leven beroofd na lange gesprekken met chatbot Eliza. De Vlaamse krant De Standaard probeerde de chatbottechnologie uit, en stelde zelf vast dat die inderdaad kan aanzetten tot zelfdoding.4
Of stel dat een AI-programma zich keert tegen een bepaalde bevolkingsgroep. Het vereist niet veel fantasie wat een Palestijnse AI-chatbox zou antwoorden over Joden of Israël. Of wat er met de informatie over Oekraïne zou gebeuren als een Russische organisatie investeert in het bedrijf achter een ‘Big Tech’ AI-programma. De mogelijkheden tot manipulatie en haat zaaien zijn letterlijk onbegrensd.
Reguleren, JA!
Deze lange opsomming van risico’s toont de noodzaak tot regulering. De bedreigingen zijn zó ingrijpend – zij het soms subtiel – dat we niet van de burger mogen verwachten dat die zelf echt van nep kan onderscheiden.
Maar wie moet dan reguleren? De IT-bedrijven menen dat ze onderling zelf wel afspraken kunnen maken.5 Volgens bedrijven zoals Google en Microsoft is AI zo ingewikkeld dat alleen zijzelf het nog kunnen begrijpen. En ze menen dat we eerst maar moeten af-wachten of ergens schade ontstaat door AI. Zelfregulering kan goed werken op sommige terreinen. Maar in dit geval vind ik de argumenten niet sterk. Dat AI ingewikkeld is, mag geen reden zijn. Dat de risico’s voor burgers en samenleving enorm zijn, is juist een reden voor verplichte regulering door de overheid. AI is gewoon te belangrijk om over te laten aan een handjevol ondernemers.
De eerste ervaringen met een soort gedragscode zijn ondertussen niet gunstig. Veertig bedrijven hadden Brussel vrijwillig toegezegd aan te geven wanneer een foto is gemaakt met AI. Maar de afspraken zijn te vrijblijvend. Zo heeft Twitter aangegeven zich er niets van aan te trekken.6
Het is dus aan de overheid om de ontwikkeling in goede banen te leiden. Dan is de vraag: welke overheid? Nederland is te klein om ons deel van het wereldwijde web apart te regelen. De EU heeft een grotere omvang en ruimere ervaring. De EU heeft bovendien een interne markt van circa 450 miljoen inwoners en is daarmee zelfs een groter economisch blok dan de Verenigde Staten.
Vanuit Brussel zijn al krachtige regels opgelegd aan IT-bedrijven als Microsoft, Facebook en Apple. Niet alleen over hun dominante marktpositie, maar ook over het bestrijden van desinformatie. De Europese privacyrechten van gebruikers zijn de wereldstandaard geworden. In mei kreeg Facebook-moederbedrijf Meta Platforms nog een recordboete van 1,2 miljard euro: het bedrijf had gegevens van Europese Facebookgebruikers doorgestuurd naar de Verenigde Staten, zonder waarborg voor de privacy.
Dat zijn boetes die Meta-topman Mark Zuckerberg ongetwijfeld probeert te vermijden.
SGP-Visie
Een EU-regeling over AI past in de SGP-visie op de EU. We zijn voor samenwerking tussen landen, zeker op thema’s als interne markt of innovatie. De logische samenbundeling van krachten kan enig tegenwicht bieden tegen de mega-IT-multinationals. Zolang Nederland aan de EU-tafel meebeslist en redelijke invloed heeft, zie ik daar vooralsnog voordelen in. Het zou anders worden als de EU de AI zou aangrijpen voor nog meer eigen bevoegdheden en budgetten: de vorming van een federale EU-superstaat heeft geen voordelen voor Nederland. We moeten dus wel opletten.
Eigenlijk kun je je zelfs afvragen of de EU wel groot genoeg is om AI te regelen. Moeten we niet nog een niveau hoger? Kunstmatige intelligentie is immers een techniek die de hele wereld beïnvloedt.
Hoogleraar informatica Frits Vaandrager van de Nijmeegse Radboud Universiteit pleitte in augustus voor een internationaal agentschap op het gebied van kunstmatige intelligentie, vergelijkbaar met het Internationale Atoomenergie Agentschap. Die zou strengere wetgevende regels moeten afspreken, wegens de risico’s dat grote techbedrijven AI gebruiken alleen voor eigen gewin.7 Vaandrager heeft een punt. Een organisatie als de Verenigde Naties heeft al een Internet Governance Forum (IGF). Dat brengt overheden, bedrijven en betrokkenen bij elkaar. Het voornaamste doel van het IGF is echter dat meer mensen toegang krijgen tot internet. Een nobel streven, maar de organisatie heeft nu (nog) geen echte macht. Dat is waarschijnlijk ook niet op korte termijn te veranderen, wat met de huidige snelheid van ontwikkelingen wel nodig is. Voorlopig moeten we de AI dus regelen op EU-niveau, wellicht ooit via verdragen samen met andere machtsblokken in de wereld.
De AI Act
Juist toen de AI-programma’s bij een groot publiek opzien baarden, kon het Europees Parlement in juni stemmen over de ‘AI Act’: het voorstel van de Europese Commissie om de zaak een klein beetje in goede banen te leiden.8 Het EU-parlement was daarmee het eerste parlement ter wereld dat stemde over een AI-wet.9
Wat is de inhoud van het aangenomen voorstel? De wet op de artificiële intelligentie wil “mensgerichte en betrouwbare artificiële intelligentie” introduceren en bevorderen. Doel is de burger, politiek en het bedrijfsleven te beschermen tegen schadelijke effecten van artificiële intelligentiesystemen, en tegelijk de innovatie bevorderen. Het voorstel betreft vooral de gebieden veiligheid, grondrechten, gezondheid, democratie en rechtsstaat.
De wet verdeelt de AI-systemen in vier risicogroepen. De allergevaarlijkste systemen krijgen een verbod: denk aan een systeem dat realtime de gezichten van voorbijgangers filmt en koppelt aan databanken, bijvoorbeeld voor een puntensysteem van burgers, zoals China hanteert. Zoiets wordt onaanvaardbaar geacht. De Europese Commissie had een hele lijst met uitzonderingen opgesteld, voor gevallen wanneer het gebruik van biometrische systemen voor de identificatie van personen wel toegestaan zou moeten zijn. Maar het Europees Parlement heeft die uitzonderingen verwijderd en het gebruik van biometrische systemen in “realtime” volledig verboden.
De tweede groep wordt gevormd door de ‘hoog risico’-systemen, zoals zelfrijdende auto’s of robotchirurgen. Die programma’s zijn alleen toegestaan als ze aan strenge voorwaarden voldoen. Bij AI met een beperkt risico (denk aan chatbots) gelden voorwaarden over transparantieverplichtingen: duidelijk moet zijn wat de bron is van de teksten die de bots genereren. Burgers, politici en ook het bedrijfsleven hebben er recht op om te weten waar door AI gegenereerde informatie, diensten of producten vandaan komen, en of het om bijvoorbeeld echte of neppe beelden gaat. Programma’s met een minimaal risico, zoals spamfilters of videospelletjes, worden toegestaan.
Positief is dat de bedrijven zelf kunnen testen of de techniek aan de EU-regels voldoet, nog voordat ze een programma op de markt brengen. Ze kunnen dat uitvinden in beveiligde testomgevingen, zogenaamde sandboxes, die onder direct toezicht en begeleiding staan van de autoriteiten.
AI Staat Nog In De Kinderschoenen
Namens de SGP in het Europees Parlement heb ik ingestemd met dit Europese voorstel. Het is een goed begin om burgers en bedrijven te helpen beschermen. We laten immers ook niet elk nieuw model auto op de weg, zonder dat het type technisch is gecontroleerd en goedgekeurd.
Maar we leven in de wetenschap dat AI waarschijnlijk nog maar in de kinderschoenen staat. De wetgeving zal moeten meegroeien met de mogelijkheden. Mijn zorg is of de wetgevers de technische ontwikkelingen wel kunnen bijhouden. Kijk naar het tijdrovende EU-besluitvormingsproces: na de stemming in juni begon het Europarlement te onderhandelen met de gezamenlijke EU-landen over een compromis. Zodra dat compromis is bereikt en goedgekeurd, begint een overgangstermijn van twee jaar. Tegen die tijd zijn vermoedelijk al updates nodig van de wet.
Een andere zorg is of de Europese Commissie de toekomstige AI-wetgeving niet aangrijpt om onnodig veel bevoegdheden van EU-landen naar zich toe te trekken. Daar moeten de regeringen van Nederland en andere lidstaten alert op zijn. Zorgen zijn er ook over andere gevolgen voor onze samenleving, zoals het milieu. De supercomputers en datacenters ten behoeve van AI-toepassingen vereisen enorm veel elektriciteit: in hoeverre is dat in deze woelige tijden nog verantwoord?
Nieuwsgierig zou ik ook zijn naar mogelijkheden voor christelijke AI-programma’s. De huidige chatbots blijken de Bijbel lang niet altijd goed uit te leggen. Wees voorzichtig hiermee, was het commentaar van de hoofdredactie van het Reformatorisch Dagblad in juni.10 Is er dan plaats voor een ‘kloppende’ christelijke chatbot over de Bijbel?
Conclusie
Kortom, We Zullen vermoedelijk nog vaak spreken over kunstmatige intelligentie en alle mogelijkheden en bijwerkingen daarvan. Het is een goede zaak dat de overheid AI in goede banen probeert te leiden, wegens de grote risico’s. De EU heeft een goed begin gemaakt, maar het is vermoedelijk nog lang niet genoeg. Het beteugelen van de techniek zal een permanente bezigheid blijven. We mogen nooit en te nimmer onze intelligentie – laat staan onze wijsheid – uitbesteden aan computerprogramma’s, en zeker niet aan techbedrijven.
Bronnen
1 https://digital-strategy.ec.europa. eu/en/policies/european-approachartificial-intelligence
2 https://www.europarl.europa. eu/news/nl/headlines/society/20200918STO87404/artificiele-intelligentie-kansen-engevaren
3 https://nos.nl/artikel/2476098-nepfoto-van-explosie-bij-pentagonveroorzaakt-korte-beursdip
4 https://www.standaard.be/cnt/dmf20230328_93202168
5 https://www.agconnect.nl/artikel/euen-google-werken-aan-voorlopigezelfregulering-ai
6 https://nos.nl/artikel/2478884-europees-parlement-is-het-eensover-regels-voor-chatgpt-enandere-ai
7 https://www.nd.nl/nieuws/nederland/1182856/nemen-robotshet-straks-over-hoogleraarbezorgd-over-snelle-o)
8 https://www.europarl.europa. eu/news/en/headlines/society/20230601STO93804/euai-act-first-regulation-on-artificialintelligence
9 https://www.vrt.be/vrtnws/nl/2023/06/14/europees-parlementartificiele-intelligentie-goedgekeurdai/
10 https://www.rd.nl/artikel/1023074-wees-voorzichtig-met-chatbotdie-bijbel-uitlegt; https://www.rd.nl/artikel/1024307-hoe-gevaarlijk-iskunstmatige-intelligentie-ai-vooreen-christen
Deze tekst is geautomatiseerd gemaakt en kan nog fouten bevatten. Digibron werkt
voortdurend aan correctie. Klik voor het origineel door naar de pdf. Voor opmerkingen,
vragen, informatie: contact.
Op Digibron -en alle daarin opgenomen content- is het databankrecht van toepassing.
Gebruiksvoorwaarden. Data protection law applies to Digibron and the content of this
database. Terms of use.
Bekijk de hele uitgave van donderdag 26 oktober 2023
Zicht | 100 Pagina's