Digibron cookies

Voor optimale prestaties van de website gebruiken wij cookies. Overeenstemmig met de EU GDPR kunt u kiezen welke cookies u wilt toestaan.

Noodzakelijke en wettelijk toegestane cookies

Noodzakelijke en wettelijk toegestane cookies zijn verplicht om de basisfunctionaliteit van Digibron te kunnen gebruiken.

Optionele cookies

Onderstaande cookies zijn optioneel, maar verbeteren uw ervaring van Digibron.

Bekijk het origineel

“Je moet leren kritisch met nieuwe technieken om te gaan”

Bekijk het origineel

+ Meer informatie

“Je moet leren kritisch met nieuwe technieken om te gaan”

De invloed van ChatGPT op het onderwijs en de samenleving

15 minuten leestijd

Een van de toepassingen van artificiële intelligentie (AI) die momenteel furore maakt, is tekstgenerator ChatGPT. Leerlingen en studenten kunnen het gebruiken om met één druk op de knop opstellen te genereren. Dit laat zien dat de opkomst van AI ook voor het onderwijs en de bredere samenleving forse implicaties heeft. Over deze gevolgen praat ik door met prof. José van Dijck, hoogleraar Media en digitale samenleving aan de universiteit Utrecht

Kunt u om te beginnen een voorbeeld uit uw eigen ervaring geven van de manier waarop technieken als ChatGPT het onderwijs beïnvloeden?

“Het is vrij onzichtbaar, maar ondertussen gebeurt er al heel veel. Veel studenten gebruiken het al. Zij hebben het veel eerder geïntegreerd in hun dagelijkse praktijk dan dat wij als docenten kunnen komen met andere technieken om daar mee om te gaan.

Mijn standpunt is dat je studenten er vooral mee moet leren omgaan. Je moet het niet verbieden in het onderwijs. Dat is een slecht uitgangspunt, want dan gaan ze het toch gebruiken. En wij zijn er op de universiteit ook om te leren om kritisch om te gaan met technologieën. Dat hebben we ook gedaan bij het internet, bij de opkomst van zoekmachines. En als je verder teruggaat kregen we begin jaren ‘80 ook de rekenmachine op school. Daar hebben we ook mee leren omgaan.

Ik denk wel dat dit een heel fundamentele technologie is, dus het is niet zonder meer vergelijkbaar met de rekenmachine. Deze technologie wordt namelijk overal ingebouwd, ook in het onderwijs. We zien nu bijvoorbeeld dat ChatGPT ingebouwd wordt in de zoekmachine Bing. En dat wordt weer ingebouwd in allerlei softwareprogramma’s, die op basis van gepersonaliseerde profielen kinderen oefeningen laten maken die helemaal op het kennisniveau van het betreffende kind aangepast zijn. Straks heb je in het onderwijs geen keus meer omdat alles ingebouwd wordt. Dus we moeten echt bezig zijn met hoe de technische infrastructuur van ons onderwijs eruit komt te zien, want die wordt steeds belangrijker voor de inhoud van het leren.”

Enige tijd geleden sprak u zich uit tegen een algeheel verbod op de ontwikkeling en toepassing van technieken als ChatGPT.1 Waarom?

“Ten eerste ontken je dan dat de wetenschap al heel lang bezig is met de grote taalmodellen, op basis waarvan onder andere Chat-GPT functioneert. En als je een algehele stop op zoiets zet, verbied je ook dat onderzoek, terwijl dat juist nodig is om richting te kunnen geven aan deze ontwikkelingen. Vooral voor grote bedrijven die in onderlinge competitie zijn zou het gunstig zijn om een verbod te hebben, dan kunnen zij doorontwikkelen.

Daarnaast vind ik het raar om aan AI een soort mythische eigenschappen toe te kennen. Natuurlijk gaat het heel veel veranderen. Maar je moet niet doen alsof dit de hele wereld in een klap gaat veranderen en we dan niet meer zonder kunnen. Je moet juist demystificeren. Het gaat inderdaad veel impact hebben, maar zorg dan dat je het goed reguleert.

Denk bijvoorbeeld aan de manier waarop de onderliggende algoritmes van tekstgeneratoren als ChatGPT getraind worden. Het wordt gepresenteerd als een blackbox, van hier heb je wat het kan, maar hoe het precies werkt is onduidelijk. ChatGPT wordt wel eens beschreven als een stochastische papegaai. Dat is een papegaai die van alles uitspuugt op basis van wat het eerder aan teksten gezien heeft, maar niet kan redeneren en begrijpen. Of als een soort orakel van Delphi. Dat moeten we vooral demystificeren. Want het is geen orakel, het is gewoon technologie die opgebouwd is uit allerlei laagjes. En wij proberen die gelaagdheid transparant te maken. Hoe worden de taalmodellen getraind, op basis van welke datasets, met welke bedoelingen, wat voor filters zitten daarop? Dan kun je bij elk van die laagjes zeggen wat je ermee moet doen, of waar je moet kunnen ingrijpen.”

U bent dus niet voor het verbannen van technieken als ChatGPT uit het onderwijs. Hoe kan het dan op een goede manier geïntegreerd worden in het onderwijs?

“Ik ben overigens wel voor het verbannen van mobieltjes uit de klas. Maar die zijn van een heel andere orde, want die verstoren de concentratie van leerlingen. Dat betekent echter nog niet dat ik tegen technologie in de klas als zodanig ben. Dat zijn twee hele verschillende dingen. Het is juist heel belangrijk dat kinderen met ChatGPT leren werken en er kritisch mee leren omgaan als instrument. Ze moeten ook leren om daar op te reflecteren. Want we willen niet dat onze kinderen alles geloven wat door een systeem als GhatGPT uitgespuugd wordt zonder dat ze de fouten er uit kunnen halen.

In de klaslokalen zou ik dus de opdracht geven om bijvoorbeeld alle bronnen die uit ChatGPT komen te checken. Ik heb dat zelf geprobeerd en een derde van de weergegeven bronnen bestond helemaal niet. Dat is dus al een mooie test om te laten zien hoe je hier kritisch op kunt reflecteren. Het is als met de rekenmachine: die ging je voor sommige dingen gebruiken en als je dat goed beheerste, kon je ook echt een ander niveau van rekenen behalen. Maar je moet nog steeds ook leren hoofdrekenen, want dat heeft ook een functie.”

Dus leerlingen moeten nog steeds opstellen leren schrijven, ook al kun je die inmiddels laten genereren door ChatGPT?

“Absoluut. Want als je helemaal afhankelijk wordt van technologie, moet je ook beseffen: alles wat eruit komt moet er eerst in gegaan zijn. Dus als een mens ophoudt creatief te zijn of te schrijven, dan komt er nooit meer iets origineels uit zo’n tekstgenerator. Die werken namelijk volledig op basis van bestaande teksten. Ik denk dat het maken van samenvattingen dan ook de geijkte toepassing wordt, naast het genereren van ideeën. Dan gebruik je het als een soort geavanceerde zoekmachine, om feiten op te zoeken en om ideeën op te doen. En de vertaaltoepassingen van deze technologieën zijn natuurlijk erg handig.”

Als we breder, naar de hele samenleving kijken, wat zijn dan de vaardigheden die de burgers, journalisten en politici nodig hebben in een samenleving waarin AItoepassingen zoals ChatGPT een steeds grotere rol gaan spelen?

“Het gaat om vier typen vaardigheden. Ten eerste de technische vaardigheden. Weet je met zo’n techniek als ChatGPT om te gaan en de juiste zoekopdrachten te geven? Dat kunnen veel studenten al. Maar wat ik veel relevanter vind, zijn de reflectieve vaardigheden. Als je bijvoorbeeld bronnen gevonden hebt, is het belangrijk dat je ze ook kunt wegen. En dat vraagt om beoordelingsvermogen, waarin je echt moet kunnen beredeneren of iets wel of niet klopt.

Daarnaast heb je contextuele vaardigheden nodig. Want ChatGPT genereert wel heel snel een vlotte tekst, maar als jij de inhoud daarvan niet in een context kunt plaatsen, kun je eigenlijk niet schrijven. Schrijven leer je door contexten te wegen. Er zijn testen met studenten gedaan, waaruit bleek dat leerlingen totaal niet zagen dat een bron gewoon een verzonnen bron of gesponsorde bron was. ChatGPT kan hallucineren: totale onzin verspreiden vermomd als betrouwbare informatie. Dat moeten we kunnen opmerken.

Ten slotte komen daar de kritische vaardigheden nog bij. We noemen dat ‘tool criticism’, je moet ook de instrumenten waarmee je onderzoek doet en waarmee je leert schrijven en leren, kritisch kunnen bekijken. Als je niet kunt ontdekken wat die goed en fout doen, kun je eigenlijk geen wetenschappelijke arbeid verrichten.”

Hoe kan dit kritisch vermogen aangeleerd worden aan leerlingen, burgers en beleidsmakers?

“Aan de universiteit kennen we dat vak al jaren als academische vaardigheden. Daar leer je ook hoe je bronnen verwerkt, dat je niet mag plagiëren en transparant moet zijn. Voor heel veel burgers, of niet-ervaren gebruikers is ChatGPT nog wel een orakel van Delphi. Het gaat om het besef dat iets niet meteen waar is als ChatGPT het zegt. Net als dat we iets dat op Facebook staat niet zomaar als serieuze bron aannemen. Dat is een soort geletterdheid die we in het algemeen ook van burgers mogen verwachten. Die digitale geletterdheid komt nog eens boven op gewone leesvaardigheid en spreekvaardigheid. Daar moet al op de lagere school mee begonnen worden.”

Een van de gevaren van ChatGPT is dat het gepersonaliseerde antwoorden geeft, die ertoe kunnen leiden dat de gebruiker in een ‘echokamer’ terechtkomt waarin hij alleen zijn eigen mening terughoort. Dit zien we ook bij platforms als YouTube en Twitter. Het kritisch vermogen van de gebruiker lijkt dan weinig soelaas meer te bieden omdat hij alleen nog maar zijn eigen mening terughoort. Wat is hieraan te doen?

“Naar die echokamers in Youtube en Twit-ter is inmiddels al behoorlijk wat onderzoek gedaan. Wat daar het antwoord op moet zijn is nogmaals dat ‘tool criticism’: Je moet weten hoe de aanbevelingsalgoritmes van bijvorbeeld YouTube werken om te begrijpen dat je terugkrijgt wat je erin stopt; dat er dus sprake is van een echo en je daarmee gemanipuleerd kunt worden. Overigens is dat helemaal niet nieuw, want manipulatie van informatiekanalen en propaganda is van alle tijden. Mijn antwoord daarop is dat de publieke instituties in onze samenleving - scholen, bibliotheken, gezondheidsinstituties, enzovoorts - ervoor moeten zorgen dat er goede, betrouwbare informatie laagdrempelig beschikbaar is. Scholen moeten beoordelingsvermogen aanleren bij kinderen. In de wetenschap moeten we altijd zorgen dat die betrouwbaarheid getoetst kan worden. Dat is onze verantwoordelijkheid.

En de politiek is terecht heel beducht voor de discriminatie en het haatzaaien dat op sociale media plaatsvindt. Ook daarin moeten we alert zijn dat dit niet een zelfversterkend mechanisme wordt. Mijn grootste angst is dat wat we nu al zien op sociale media, met die echokamers, hate speech en discriminatie, exponentieel toeneemt door AI, omdat AI nog eens een keer versterkt wat al op sociale media gebeurt. En vooral als grote taalmodellen gebruikt kunnen worden door kleine groeperingen die daar allerlei manipulatieve elementen aan toevoegen. Dat zijn uitwassen die we heel snel moeten beteugelen, en waar we bij sociale media eigenlijk te laat mee waren.

Maatschappelijke instituties moeten die publieke waarden integreren in de manier waar-op ze systemen gebruiken. Alleen op die manier kunnen we de kwade gevolgen uit onze samenleving weren.”

Er is inmiddels ook software die zelf afbeeldingen kan genereren. Deze kunstmatig gefabriceerde afbeeldingen zijn niet met het blote oog van ‘echte’ foto’s of afbeeldingen te onderscheiden. In hoeverre valt het kritisch vermogen van mensen hier op te trainen? Wordt het niet voorbijgestreefd door de technologie?

“Dat is een netelig probleem. Zelfs experts waarschuwen dat zij binnenkort synthetisch (door AI) gegenereerde foto’s ook niet meer van ‘echte’ kunnen onderscheiden. Daar kun je een paar dingen tegenover zetten. We kunnen ook geautomatiseerde systemen bedenken die kunnen achterhalen of een afbeelding door AI gegenereerd is. Maar je kunt daar ook weer een tegentechnologie voor ontwikkelen, zoals het toevoegen van een watermerk aan authentieke foto’s.

Uiteindelijk blijven wij als samenleving en de instituties daarbinnen, verantwoordelijk voor het opstellen van regels over wanneer het onderscheid in welke context relevant is. Kunstenaars vinden AI fantastisch en willen overal de kunstmatig gegenereerde foto’s voor gebruiken, terwijl journalisten dat niet mogen. En dat is nu precies wat institutionele verantwoordelijkheid inhoudt. Journalisten moeten de grenzen tussen waarheid en niet-waarheid bewaken; kunstenaars mogen daarmee spelen. Als een journalist een foto maakt en dat beeld wordt in de krant opgenomen, dan moet ik er als lezer vanuit kunnen gaan dat de journalistieke code garandeert dat dat een ‘echte’ foto is, niet één die door AI gegenereerd is.

Dit is ook gebeurd met allerlei photoshop-technieken, daar werden op een gegeven moment ook regels voor gemaakt. De institutionele context is hier heel belangrijk om dat onderscheid tussen echt en onecht, betrouwbaar en onbetrouwbaar te maken. En dat zit hem dus niet zozeer alleen in de technologie, maar juist in de vangrails die daar door instituties omheen geplaatst worden.”

U hebt al iets gezegd over de instituties, zijn er volgens u nog specifieke overheidsmaatregelen nodig om de (negatieve) gevolgen van toepassingen als ChatGPT (in het onderwijs) te beteugelen?

“Ik denk dat je in ieder geval niet in paniek moet raken. Maar we moeten wel goed kijken naar wetgeving en regulering. We hebben bijvoorbeeld ook ooit genetisch modificeerbare gewassen gereguleerd. Toen dat net nieuw was, in de jaren ’70, was ook iedereen eerst erg bezorgd en dacht vooral in nachtmerriescenario’s. Maar daar zijn we vrij snel en systematisch een soort vangrails voor gaan maken. Zoiets moet je hier ook doen. Je moet per sector nagaan wat de impact van deze technologie is. Die is voor journalistiek heel anders dan voor onderwijs, of voor de kunstfotografie, of voor de reclamebranche.

Als het gaat om de regulering van de onderliggende technologie, zou ik dat op Europees niveau beleggen. Dit is namelijk een te grote en algemene technologie om per land te reguleren. Je moet dan uitgaan van Europese publieke waarden, zoals dat wij als Europeanen heel erg gehecht zijn aan privacy. Niet al onze gegevens moeten voor bedrijven beschikbaar zijn. Op dit moment wordt er ook gewerkt aan de eerste Europese AI-regelgeving.”

De ontwikkeling van artificiële intelligentie en technische toepassingen daarvan wordt soms in een sfeer van onvermijdelijkheid naar voren gebracht. Artificiële intelligentie zal onze maatschappij diepgaand gaan beïnvloeden, of we nu willen of niet. Hoe ‘onvermijdelijk’ is de toenemende invloed van (A.I.-)technologie op de maatschappij, en hoeveel hangt er af van politieke keuzes?

“Uiteindelijk zijn veel dingen niet zo onvermijdelijk als ze lijken. Als je maar blijft benadrukken dat iets onvermijdelijk is en we er niet onderuit kunnen, weet je zeker dat het komt. Vaak zit er dan een commercieel discours achter, en zijn er commerciële belangen om het zo snel mogelijk uit te rollen. Zoiets zagen we ook bij de eerste zelfrijdende auto’s. Toen was iedereen ervan overtuigd dat onze auto’s binnenkort allemaal zelf zouden rijden. Ik heb ze nog niet gezien, althans niet in bedrijf in het gewone verkeer. Dat komt omdat wat de mens in de praktijk kan, altijd een beetje achterloopt bij de fantasieën die we hebben. En dat is maar goed ook. Het gaat bij zo’n nieuwe technologie om de vragen wie het nodig heeft, en waarvoor het nodig is. Technologie is een raar ding, het is niet stuurloos en ook niet sturend. Het is niet goed, niet slecht, maar ook niet neutraal. En daarmee kom ik op mijn punt: politieke keuzes liggen wel degelijk ten grondslag aan hoe je een bepaalde technologie ontwikkelt. Daarin zijn geen dingen onvermijdelijk, maar kun je sturen. Dat moet ook de norm zijn vind ik, dat we ons niet neerleggen bij het idee dat we nu eenmaal geen vat hebben op technologische ontwikkelingen en maar moeten afwachten wat daar de uitkomsten van zijn.”

De dichter J.C. Bloem (1887-1966) schreef ooit: ‘Iedere verandering is een verslechtering, zelfs een verbetering’. Toegepast op een techniek als ChatGPT zou je kunnen zeggen: alhoewel er op zichzelf sprake is van technische verbeteringen en innovaties, levert het voor de mens vooral nadelen op. Hoe denkt u hierover?

“Ik vind dat een mooi citaat. Mijn antwoord is dat het niet óf óf is, maar én én. Je moet de voordelen zien van een toepassing als Chat-GPT, maar tegelijkertijd ook over de risico’s nadenken. Het wordt heel vaak gepresenteerd als een keuze: je bent of heel positief, of heel negatief. Nee, je kunt heel kritisch zijn op een technologie, maar wel proberen de positieve toepassingen ervan in goede banen te leiden. Heel vaak kijken we te snel naar de lange termijn en te weinig naar de directe gevolgen nu. De milieu-impact van nieuwe technieken is daar een voorbeeld van. We vinden het nu alleen maar leuk om ChatGPT te gebruiken, maar ik heb laatst een berekening gezien, van de gevolgen wat betreft energiegebruik als we op deze manier doorgaan met het gebruik van ChatGPT en het overal inbouwen. Over twee jaar zou al 20% van onze energietoename liggen in het gebruik van AI-technologie in allerlei apparaten. Daar moeten we natuurlijk bij stilstaan. Als we zo doorgaan maken we iets waarvan we aan de ene kant denken dat het ons tijd bespaart, of efficiënter is (ja waarvoor?!) en tegelijkertijd zijn we daarmee zoveel energie aan het gebruiken, dat het helemaal niet duurzaam is. We moeten dus veel breder daarover denken. Dat geldt ook wat betreft efficiëntie. Mensen wijzen er nu bijvoorbeeld op dat dokters straks op een heel efficiënte wijze een diagnose kunnen stellen, zonder na te gaan of dat ook echt wenselijk is. Dat is de mentaliteit van ‘I can now do in one hour what I never had to do before’. Je gaat opeens denken dat je dingen moet doen, omdat er een techniek is die dat mogelijk maakt. Maar misschien hoef je die dingen die je eerst niet kon ook wel helemaal niet te doen.

Als samenleving moet je je nooit volledig richten op wat technologie allemaal kan, maar op wat de doelen en gedeelde waarden van die samenleving zijn en hoe technologie kan helpen die te versterken. Je moet die doelen goed voor ogen houden en met elkaar bespreken -dat is ten slotte ook het democratisch ideaal- en je moet de gevolgen op de korte en lange termijn afwegen, en dan de juiste keuzes maken over hoe technologie daarin mogelijk kan helpen. Uiteindelijk ben ik het dan ook niet eens met het citaat van Bloem, maar het stemt wel tot nadenken.”


Bronnen

1 Zie de technische briefing ‘Masterclass ChatGPT’ in de Tweede Kamer van 19 april 2023 (https://debatgemist.tweedekamer.nl/debatten/masterclass-chatgpt-deevolutie-van-slimme-chatbots-ende-gevolgen-voor-het-onderwijsen).


Curriculum vitae

Prof. dr. J. (José) van Dijck (1960) is hoogleraar Media en digitale samenleving aan de universiteit Utrecht. Ze doet onderzoek naar media en wetenschap en de rol van digitale platformen in de samenleving. Van 2015 tot 2018 was ze president van de Koninklijke Nederlandse Akademie van Wetenschappen. In 2016 publiceerde ze het boek De platformsamenleving. Strijd om publieke waarden in een online wereld.

Dit artikel werd u aangeboden door: Wetenschappelijk Instituut voor de Staatkundig Gereformeerde Partij

Deze tekst is geautomatiseerd gemaakt en kan nog fouten bevatten. Digibron werkt voortdurend aan correctie. Klik voor het origineel door naar de pdf. Voor opmerkingen, vragen, informatie: contact.

Op Digibron -en alle daarin opgenomen content- is het databankrecht van toepassing. Gebruiksvoorwaarden. Data protection law applies to Digibron and the content of this database. Terms of use.

Bekijk de hele uitgave van donderdag 26 oktober 2023

Zicht | 100 Pagina's

“Je moet leren kritisch met nieuwe technieken om te gaan”

Bekijk de hele uitgave van donderdag 26 oktober 2023

Zicht | 100 Pagina's