Advertentie
Banner-Moor-Veronesi-Mersbergen-Vries-DNBG-1454×183

ʻWat voor wereld creëert AI – en voor wie?ʼ: interview met Wijnand IJsselsteijn

Het in hartje Amsterdam gevestigde Netherlands Institute for Advanced Study in the Humanities and Social Sciences (NIAS) selecteert ieder jaar meer dan vijftig excellente onderzoekers uit Nederland en de rest van de wereld om voor de duur van een of twee semesters als fellows intensief vrij onderzoek te komen doen binnen een inspirerende multidisciplinaire woon- en werkomgeving. Wijnand IJsselsteijn verbleef tot februari 2025 als fellow aan het NIAS.

[Merlijn Olnon] Wat houdt je op dit moment bezig?

[Wijnand IJsselsteijn] Mijn huidige werk richt zich in brede zin op de manier waarop AI menselijke vermogens kan ondersteunen en versterken – niet door autonomie over te nemen, maar door als een tool te fungeren die onze intelligentie aanvult. Dit betekent dat ik me bezighoud met de psychologische en ethische implicaties van AI: hoe begrijpen we deze technologie, welke impact heeft het op ons denken en handelen, en hoe zorgen we ervoor dat AI op een verantwoorde en wenselijke manier wordt ontwikkeld en ingezet? Een belangrijk deel van mijn werk gaat ook over taal en framing: hoe spreken we over AI, en in hoeverre beïnvloedt dat onze perceptie en het beleid eromheen?

[Merlijn Olnon] Hoe kijk je naar de recente ontwikkelingen rond AI en beleid?

[Wijnand IJsselsteijn] Er gebeurt momenteel ontzettend veel op het snijvlak van AI en beleid, zowel in Nederland, de EU als wereldwijd. De Europese AI Verordening (EU AI Act), die is aangenomen in 2024, is een belangrijk voorbeeld van een risicogebaseerde aanpak: hoe hoger het risico van een AI-systeem voor rechten en veiligheid, hoe strikter de regels. Er worden ook bepaalde AI-systemen verboden; denk aan sociale-kredietsystemen (zoals die in China gedeeltelijk is ingevoerd) of real-time biometrische surveillance in publieke ruimtes. Daarnaast zijn er ook transparantieverplichtingen. Grote bedrijven worden onder de AI Act onder andere verplicht om risicoanalyses van hun AI-systemen uit te voeren en klachtenprocedures voor gebruikers in te richten. De concrete implementatie van deze regels wordt op dit moment uitgewerkt. Op wereldschaal zien we ook richtlijnen vanuit de VN, de OESO, de G7 en andere beleidsorganen, gericht op mensenrechten, milieu, en het terugdringen van mondiale ongelijkheid, maar ook op een betere beheersing van de technische ontwikkelingen, zoals generatieve AI en de foundation models waarop deze gebaseerd zijn.

Ik denk dat dit belangrijke en nuttige ontwikkelingen zijn, maar ik zie nog steeds grote uitdagingen. Veel AI-systemen zijn zwarte dozen, zelfs voor hun eigen ontwikkelaars. Regulering vraagt om uitlegbaarheid en transparantie, maar hoe dwing je dat af bij zulke complexe systemen? De meeste grote AI-spelers (OpenAI, xAI, DeepSeek) blinken op zijn zachtst gezegd niet uit in openheid. Er is ook een asymmetrie in kennis en middelen tussen toezichthouders en techbedrijven. De laatsten hebben veel meer data, juridische slagkracht en technische expertise dan hun toezichthouders. In een land als Nederland is het toezicht op AI ook nog eens versnipperd: de Autoriteit Persoonsgegevens kijkt naar data, de ACM naar marktmacht, de Inspectie SZW naar AI op de werkvloer, enzovoort. Daarnaast, en niet onbelangrijk, zitten veel risico’s van AI niet in de harde wetsovertredingen, maar in grijze ethische gebieden, waar subtiele vormen van bias, beïnvloeding van gebruikers, of intransparante beslissingen een grote maatschappelijke impact kunnen hebben.

[MO] Onlangs betoogde Bruno Maçães (in The New Statesman en De Groene Amsterdammer) dat AI-modellen en dus de bedrijven erachter (en ik parafraseer) ten diepste ‘world makers’ zijn: op basis van (deels verborgen) politieke agenda’s en culturele aannames koloniseren ze de werkelijkheid, en daarmee wat resteert van een universele kijk op onze wereld. Ondertussen heb jij het over verantwoord gebruik van AI, maar kan AI überhaupt nog wel verantwoord gebruikt worden?

[WIJ] Maçães’ analyse van AI-bedrijven als world makers legt de vinger op de zere plek: de vraag is niet alleen hoe we AI gebruiken, maar vooral wat voor wereld AI creëert – en voor wie. Wiens wereldbeeld wordt gemodelleerd, en wiens werkelijkheid wordt gemarginaliseerd? Hij stelt dat AI-systemen niet slechts neutrale tools zijn, maar waardes impliceren door de keuzes die worden gemaakt tijdens het modelleren van taal en wereld. Keuzes die niet los kunnen worden gezien van culturele achtergrond, politieke opvattingen, en industriële belangen. AI, zoals bijvoorbeeld de grote taalmodellen (LLMs) die achter ChatGPT zitten, maakt op die manier werelden, gebaseerd op impliciete (en vaak verborgen) aannames over wat waar is, wat telt als kennis, en wat waardevol is. Deze in essentie menselijke kennis wordt afgeleid, herverpakt, gefilterd, samengevat en vervormd door AI, en komt daarna ook weer op het internet terecht, waarna het opnieuw wordt meegenomen in de volgende trainingsronde van de nieuwste taalmodellen. Dat betekent dat deze manier van kijken naar de wereld, van betekenisgeving, steeds dieper verankerd raakt in onze kennisbronnen, en uiteindelijk in ons eigen denken.

Verantwoord gebruik van AI vereist een pluralisme van AI-werelden en tools, met modellen en datasets die uit verschillende culturele en politieke tradities komen.

Dit gaat verder dan wat we met de huidige regelgeving kunnen doorgronden of begrenzen, denk ik, aangezien deze grosso modo de huidige AI-modellen als een gegeven beschouwt, en ook de status quo van Big Tech veronderstelt. Veel AI-beleid richt zich nu op hoe je AI veilig gebruikt (risicobeheer, impactanalyses, audits). Dat is nuttig, maar veel te laat in het proces. We stevenen nu af op een technologische lock-in, op een winner-takes-all-scenario. Als AI één monolithisch wereldbeeld oplegt (het Silicon Valley-narratief, bijvoorbeeld), is verantwoord gebruik lastig, want we ontberen dan keuzevrijheid, en onze kritische afhankelijkheid van de technologische infrastructuur is dan al een feit. Ik denk dat hier echt een meer democratiserende en mensgerichte aanpak vereist is, waarbij we ook de onderliggende technologische infrastructuur van AI zelf ter discussie stellen. Verantwoord gebruik van AI vereist een pluralisme van AI-werelden en tools, met modellen en datasets die uit verschillende culturele en politieke tradities komen.

We hebben iedereen nodig om onze collectieve verbeelding rondom AI te voeden en vorm te geven. Het gaat uiteindelijk over onze toekomstige epistemische soevereiniteit: wie bepaalt de spelregels van waarheid? Laten we ervoor zorgen dat deze discussie er niet eentje is van de happy few.

Ik zou willen pleiten voor meer controle over de vroege designfase – wie bepaalt wat AI wel en niet leert, en vanuit welke bronnen? Ook democratische zeggenschap over de achterliggende ontwerplogica hoort hierbij. De onderliggende infrastructuur moet veel toegankelijker en pluralistischer worden, met lokale AI-systemen die werken op basis van lokale kennis, talen, normen en waarden, en lokale gemeenschappen en kleine organisaties die hun eigen modellen kunnen bouwen. We moeten streven naar meer maatschappelijke soevereiniteit over AI: burgers en gemeenschappen moeten niet alleen input kunnen leveren, maar ook kunnen bepalen welke AI-werelden ze willen. Dit vereist ook een breder maatschappelijk, wetenschappelijk en politiek debat over welke vormen van AI we überhaupt willen. Ik denk dat zo’n debat ook vereist dat we ons als wetenschappers over de grenzen van onze disciplinaire comfortzones begeven. Dus niet als STEM-wetenschappers en ontwikkelaars onverstoorbaar doorwerken aan optimalisatieproblemen, terwijl techniekfilosofen en ethici langs de zijlijn kritiek leveren. We hebben iedereen nodig om onze collectieve verbeelding rondom AI te voeden en vorm te geven. Het gaat uiteindelijk over onze toekomstige epistemische soevereiniteit: wie bepaalt de spelregels van waarheid? Laten we ervoor zorgen dat deze discussie er niet eentje is van de happy few.

[MO] Kun je iets vertellen over je onderzoek aan het NIAS?

[WIJ] Als Distinguished NIAS Lorentz Fellow heb ik me verdiept in de kruising tussen AI en XR (eXtended Reality), met een focus op de psychologie en ethiek van steeds realistischere digitale belichaming in relatie tot zgn immersieve sociale media. Hoe beïnvloedt het ervaren van een digitale versie van jezelf of anderen in de metaverse je zelfbeeld, sociale relaties en beslissingen? En hoe verhouden deze ontwikkelingen zich tot bredere maatschappelijke vraagstukken zoals autonomie, privacy en identiteit? NIAS bood een stimulerende omgeving om deze vragen interdisciplinair te verkennen, samen met NIAS Fellows uit verschillende domeinen van sociale wetenschap, geesteswetenschap, kunst en journalistiek.

[MO] Heb ik het juist als ik zeg dat je uiteindelijk kiest voor een benadering waarin human agency centraal staat en niet systemen? Hoe kijk jij naar individuele vrijheid, of ‘eigenmacht’, in de context van beïnvloeding door XR en het snel vervagende onderscheid tussen wat echt en wat virtueel is? Hoe voorkomen we dat human agency een achterhoedegevecht wordt? Of moeten we waken voor dit soort paniek, die typisch is voor tijden van snelle technologische verandering, en een meer historiserend en vergelijkend perspectief innemen?

In vergelijking met eerdere technologische innovaties – zoals het schrift, schilderkunst, fotografie, televisie, social media en digitale games – zie ik een voortschrijdende evolutie van media in de richting van meer eerste-persoonsperspectief, meer zelf-betrokken ervaringen, en een vervaging van grenzen tussen werkelijkheid en fictie.

[WIJ] Het is verleidelijk om technologische verandering in apocalyptische of utopische termen te beschrijven, en AI en XR vormen daarop geen uitzondering. In vergelijking met eerdere technologische innovaties – zoals het schrift, schilderkunst, fotografie, televisie, social media en digitale games – zie ik een voortschrijdende evolutie van media in de richting van meer eerste-persoonsperspectief, meer zelf-betrokken ervaringen, en een vervaging van grenzen tussen werkelijkheid en fictie. In die zin heeft de samenvloeiing van AI en XR de potentie om onze ervaringswereld zelf te vormen op manieren die diep ingrijpen in ons gevoel van realiteit en agency. Het is geen plaatje meer waar je naar kijkt, of een verhaal dat je leest – het is een wereld waarin je aanwezig bent, belichaamd; waarin jij zelf een rol speelt, en de gebeurtenissen jou direct aangaan of overkomen. De wereld die je technologisch wordt voorgehouden mag dan niet echt zijn, de beleving van die wereld is psychologisch gesproken wel degelijk heel direct. We verdisconteren de technologische mediatie maar zeer ten dele in onze beleving van XR. Ik zie daarmee ook een afnemende ruimte voor duiding – de afstand en rust die vereist is voor menselijke interpretatie en kritische reflectie. Wanneer AI en XR steeds overtuigender onze sociale en fysieke realiteit simuleren en beïnvloeden, vergt het actieve inspanning om ‘eigenmacht’ te behouden en niet meegezogen te worden in gepersonaliseerde, algoritmisch vormgegeven werkelijkheden.

Het historisch perspectief helpt ons om te relativeren, maar het mag ons ook niet blind maken voor de kwalitatief nieuwe uitdagingen die deze technologieën met zich meebrengen. We moeten niet alleen kijken naar hoe deze technologieën agency kunnen ondermijnen, maar ook naar hoe we nieuwe vormen van agency kunnen ontwikkelen. Dit vraagt om digitale geletterdheid en kritische bewustwording, maar ook om regulering die gebruikers controle geeft over hoe zij in deze virtuele omgevingen functioneren. Het is niet voldoende om mensen ‘weerbaar’ te maken; we moeten ook het speelveld zelf eerlijker inrichten. Daarnaast moeten we ons afvragen hoe we XR kunnen ontwerpen op een manier die autonomie en kritisch denkvermogen versterkt in plaats van verzwakt. Kunnen we XR gebruiken om juist meer zelfreflectie en kritisch bewustzijn te bevorderen? Dit vraagt om een ander designparadigma dan wat nu gangbaar is in de industrie, waarin engagement en immersie vaak de primaire doelen zijn. Als we agency serieus nemen, moeten we XR en AI ontwerpen op een manier die ruimte biedt voor reflectie, twijfel, nuance en het onverwachte, in plaats van een naadloos voorgeschreven ervaring.

[MO] Hoe verhoudt je huidige project zich tot je eerdere werk?

[WIJ] Ik heb zelf een achtergrond in AI en neuropsychologie. Mijn proefschrift handelde over telepresence – het gevoel van aanwezigheid in gesimuleerde 3D-omgevingen, zoals virtual reality of telerobotica. Als hoogleraar aan de TU Eindhoven houd ik mij bezig met de psychologie van mens-techniekinteractie en welke implicaties dit heeft voor het begrip en ontwerp van onze technologische omgeving. Dit is echt een co-evolutie: de mens verandert de techniek, en de techniek verandert de mens. Het afgelopen decennium heb ik mij ook steeds meer verdiept in de ethiek van technologie – dus niet enkel de vraag wat mensen qua technologie zelf willen of nodig hebben en hoe we daarmee rekening houden in ontwerpprocessen, maar ook: wat zijn de morele kaders voor het ontwikkelen en gebruik van technologie? Welke bredere belangen en maatschappelijke waardes staan op het spel?

In zekere zin heeft de psychologie van het artificiële en het virtuele mij altijd al gefascineerd. In eerdere projecten heb ik me gericht op hoe technologie menselijke perceptie en cognitie beïnvloedt, met speciale aandacht voor virtual en augmented reality. Bij NIAS heb ik deze lijn doorgetrokken naar de metaverse en onderzocht hoe steeds realistischere digitale belichaming onze psychologische en ethische kaders beïnvloedt. Mijn huidige project bouwt hierop voort door ook AI in deze mix te betrekken: hoe beïnvloeden AI-gestuurde virtuele agents en gepersonaliseerde XR-ervaringen onze besluitvorming en interacties? En in hoeverre speelt de toenemende levensechte belichaming in virtuele omgevingen hierbij een rol?

[MO] Je NIAS-onderzoek gaat over de metaverse. Wat is dat eigenlijk?

In de kern verwijst de term Metaverse naar een netwerk van digitale omgevingen waarin fysieke en virtuele realiteit steeds verder in elkaar overvloeien, en waarin mensen sociale interacties kunnen aangaan, met de avatars van andere gebruikers, met kunstmatige AI-agents, of met een mix daarvan.

[WIJ] De term ‘metaverse’ werd voor het eerst geïntroduceerd door Neal Stephenson in zijn sciencefictionboek Snowcrash, uit 1992. In die dystopische roman was de metaverse een gigantische, commercieel beheerde digitale ruimte, waarin gebruikers via VR-brillen als avatars toegang krijgen tot een driedimensionale, parallelle realiteit. Tegenwoordig wordt de term veel gebruikt, met name in de marketing van grote techbedrijven, en is het met meerdere betekenissen geladen. Er bestaat vooralsnog niet echt een eenduidig beeld van wat de metaverse is, of zou kunnen of moeten zijn. Ik gebruik de term dan ook met enige terughoudendheid, maar in de kern verwijst hij naar een netwerk van digitale omgevingen waarin fysieke en virtuele realiteit steeds verder in elkaar overvloeien, en waarin mensen sociale interacties kunnen aangaan, met de avatars van andere gebruikers, met kunstmatige AI-agents, of met een mix daarvan. De metaverse is dus breder dan alleen VR-headsets of platforms zoals Meta’s Horizon Worlds; het omvat ook AR (Augmented Reality), AI-gegenereerde agents en omgevingen, en zelfs algoritmisch gemodificeerde percepties van de echte wereld. Het idee van de metaverse als een afgebakende, parallelle virtuele realiteit is in zekere zin een versimpeling; ik zie het meer als een gradueel proces waarin digitale lagen steeds verder versmelten met onze fysieke wereld.

Met de brede beschikbaarheid, betere kwaliteit en relatief lage kosten van VR en AR, kunnen steeds meer mensen virtueel belichaamd worden en digitaal getransformeerde versies van zichzelf ervaren, met onbekende effecten op ons zelfbeeld, onze relaties en onze perceptie van wat echt is. De psychologische impact hiervan is moeilijk te overschatten. We weten uit jarenlang onderzoek dat virtual reality een krachtig medium is voor gesimuleerde ervaringen en gedragsverandering. Waar VR vroeger vooral een onderzoeksinstrument was – toegepast onder gecontroleerde omstandigheden, met ethische screening en debriefing – wordt het nu een alledaagse realiteit voor gebruikers overal ter wereld. Dit roept vragen op, zoals: Hoe beïnvloedt langdurig verblijf en interactie in virtuele werelden ons denken en voelen? Wat is de morele status van acties in een virtuele omgeving? Hoe onderscheiden we realiteit van simulatie als avatars steeds levensechter worden? Mijn Stanford-collega en vriend Jeremy Bailenson verwoordde het treffend in zijn boek Experience on Demand: ‘The most psychologically powerful medium in history is getting an alpha test on-the-fly, not in an academic lab but in living rooms across the globe.’ Dit betekent dat we ons niet alleen moeten bezighouden met de technologie zelf, maar vooral met hoe deze technologieën onze sociale en morele structuren beïnvloeden.

Veel persoonlijke informatie per gebruiker, en een medium met ongekende psychologische impact – en dan beschik je over de ingrediënten van de ultieme beïnvloedingsmachine. Het is de natte droom van elk online marketingbedrijf.

Een belangrijk aspect in mijn onderzoek is het concept van hyperpersuasion – de manier waarop digitale omgevingen steeds geraffineerdere methoden ontwikkelen om gebruikers te beïnvloeden. Dit gaat verder dan traditionele reclame of nudging: de metaverse biedt de mogelijkheid om omgevingen te creëren die zo overtuigend en meeslepend zijn dat ze onze perceptie van realiteit en waarheid actief kunnen vormgeven. Daarnaast delen we als gebruikers, dankzij de trackingtechnologie die inherent is aan XR (bijv. het meten van kijkrichting, lichaamshouding, of ander non-verbaal gedrag), grote hoeveelheden gedetailleerde persoonlijke gedragsdata. Deze data zijn per persoon uniek identificeerbaar – een soort kinetische handtekening op basis van uniek persoonlijke spatiotemporele bewegingspatronen – en bevatten potentieel veel relevante informatie rondom iemands psychologisch profiel en gedragsvoorkeuren. Neem dit samen – veel persoonlijke informatie per gebruiker, en een medium met ongekende psychologische impact – en dan beschik je over de ingrediënten van de ultieme beïnvloedingsmachine. Het is geen wonder dat Meta hierin investeert – het is de natte droom van elk online marketingbedrijf.

De toekomst van de metaverse is niet vastgelegd, en verschillende scenario’s zijn denkbaar. We moeten meer sturen en kritisch nadenken over wat voor digitale infrastructuur we willen. Dit raakt aan fundamentele kwesties zoals digitale autonomie, epistemische rechtvaardigheid en de ethische grenzen van immersieve beïnvloeding. Hoe willen we de grenzen tussen echt en virtueel bewaken, en hoe we kunnen voorkomen dat deze technologieën worden gedreven door eenzijdige economische of geopolitieke belangen? Ik wil met mijn onderzoek graag bijdragen aan technologie, design, beleid en bewustwording om ervoor te zorgen dat de metaverse een netto positief effect heeft op menselijke bloei en we ons veel bewuster verhouden tot de keuzes die we hebben in ontwerp, gebruik en regelgeving van deze technologische innovaties.

[MO] Hoe beïnvloeden inzichten en benaderingen uit andere disciplines je werk?

[WIJ] Interdisciplinaire perspectieven zijn essentieel om de implicaties van AI en XR echt te doorgronden. De psychologie kan ons vertellen hoe mensen reageren op virtuele omgevingen, en welke psychologische impact gemedieerde ervaringen kunnen hebben. De filosofie helpt ons nadenken over wat het ten diepste betekent om ‘aanwezig’ te zijn in een virtuele ruimte, wat de epistemische grenzen en consequenties zijn van alternatieve werelden gemedieerd door XR en AI, of wat de ethische implicaties zijn van beïnvloeding via immersieve ‘social media on steroids’. Literatuurwetenschap biedt inzichten in narratieven en representaties die onze perceptie van AI en XR beïnvloeden, terwijl historische antropologie ons laat zien hoe culturen in verschillende tijden en contexten omgaan met technologische verandering. Wat ik aan deze disciplines erg waardeer, is dat ze analytisch en reflectief van aard zijn; meer nog dan in de psychologie gaat het hier om betekenisgeving. Ze dwingen ons verder te kijken dan de technische innovatie zelf en de bredere sociale en culturele impact te onderzoeken.

In de computerwetenschap wordt AI vaak gepresenteerd als een optimalisatieprobleem – hoe maak je een model sneller, accurater of realistischer? Maar als je kijkt vanuit een ethisch perspectief, moet je misschien eerst de vraag stellen: welke aannames zitten er in dat model, en wiens belangen worden ermee gediend?

Bijvoorbeeld, in de computerwetenschap wordt AI vaak gepresenteerd als een optimalisatieprobleem – hoe maak je een model sneller, accurater of realistischer? Maar als je kijkt vanuit een ethisch perspectief, moet je misschien eerst de vraag stellen: welke aannames zitten er in dat model, en wiens belangen worden ermee gediend? Een voorbeeld uit mijn huidige werk is de invloed van digitale belichaming op identiteit. In XR-omgevingen kunnen mensen zichzelf en anderen op manieren ervaren die in de fysieke wereld niet mogelijk zijn. Wat is de waarde van dit soort ervaringen? Soms worden VR-ervaringen ingezet om het inlevingsvermogen van mensen te vergroten in relatie tot andere, alternatieve identiteiten – denk aan diversiteit in leeftijd, gender, etniciteit of cultuur. Dit roept bij mij juist ook vragen op over de authenticiteit van zulke virtuele representaties en de grenzen van VR als ‘empathy machine’. Hier kunnen inzichten uit genderstudies en postkoloniale theorieën verhelderen hoe technologie bepaalde machtsstructuren versterkt of juist kan uitdagen.

[MO] Wat wil je met je werk teweegbrengen?

We zien een steeds grotere invloed van Silicon Valley en tech-oligarchen op democratische processen en politieke besluitvorming, waarbij beslissingen niet alleen door democratisch gekozen beleidsmakers worden genomen, maar ook door bedrijven en individuen met buitengewone macht en middelen. Dit roept fundamentele vragen op over wie de controle heeft over AI en XR, en wie ervan profiteert.

[WIJ] Ik wil bijdragen aan een genuanceerd en mensgericht perspectief op AI en XR – een waarin deze technologieën worden gezien als hulpmiddelen die menselijke intelligentie aanvullen en versterken. Dit betekent het vergroten van bewustzijn over de psychologische en ethische implicaties van AI en XR, maar ook het stimuleren van verantwoord ontwerp en beleid. Mijn werk draait om hoe AI en XR menselijke vermogens kunnen versterken zonder onze autonomie, kritisch denkvermogen en sociale structuren te ondermijnen. Maar in het huidige politieke en maatschappelijke klimaat is dit geen vanzelfsprekende uitkomst. Ik ben gefascineerd door de technologische mogelijkheden die deze tijd ons biedt, maar maak me ook in toenemende mate zorgen over de mystificering en mythologisering van technologie, en het daarmee gepaard gaande verlies van betekenisvolle menselijke controle en autonomie. We zien een steeds grotere invloed van Silicon Valley en tech-oligarchen op democratische processen en politieke besluitvorming, waarbij beslissingen niet alleen door democratisch gekozen beleidsmakers worden genomen, maar ook door bedrijven en individuen met buitengewone macht en middelen. Dit roept fundamentele vragen op over wie de controle heeft over AI en XR, en wie ervan profiteert.

[MO] Zie jij ruimte voor een alternatief en effectief Europees beleid? Heeft dit soort werk de aandacht van beleidsmakers of worden wetenschappelijke bedenkingen vooral beschouwd als een onhandige rem op Europees concurrentievermogen? Hoe zou het volgens jou kunnen en moeten werken, een Europees alternatief voor de AI-hegemonie van de VS en China?

In de VS wordt AI grotendeels bepaald door marktlogica en disruptie, in China door staatscontrole en surveillance. Wat is Europa’s narratief?

[WIJ] Europa heeft een unieke kans om een ander AI-model te ontwikkelen dan de VS en China, maar of die kans wordt gegrepen, is nog de vraag. De EU AI Act is een stap in de goede richting, maar blijft grotendeels reactief: het reguleert de risico’s van bestaande technologieën, in plaats van actief een alternatief technologisch ecosysteem te bevorderen. Wat ik mis in het Europese AI-beleid, is een langetermijnvisie op technologische soevereiniteit. Op dit moment domineren Amerikaanse en Chinese bedrijven de AI-infrastructuur, van hardware tot foundation models. Als Europa echt een alternatief wil bieden, dan moet het niet alleen reguleren, maar ook investeren in eigen open-source AI-modellen, onafhankelijke cloud-infrastructuren en onderzoek dat niet afhankelijk is van big tech. Dit zou een AI-model kunnen opleveren dat niet primair gericht is op commerciële optimalisatie, maar op maatschappelijke behoeften – denk aan AI-systemen die specifiek ontworpen zijn voor publieke dienstverlening, wetenschap en gemeenschapsgericht gebruik. Daarnaast moeten we breder nadenken over wat AI voor de Europese samenleving zou moeten betekenen. In de VS wordt AI grotendeels bepaald door marktlogica en disruptie, in China door staatscontrole en surveillance. Wat is Europa’s narratief? We zouden AI kunnen ontwikkelen met als uitgangspunt menselijke waardigheid, democratische controle en pluralisme. Dit vereist politieke moed en een breuk met de naïeve gedachte dat ‘ethische AI’ vanzelf voortkomt uit regulering. Zonder stevige investeringen en strategische keuzes blijft Europa afhankelijk van de AI-ontwikkelingen elders. Een Europees alternatief is mogelijk, denk ik, maar alleen als we AI niet alleen als een reguleringsvraagstuk zien, maar als een maatschappelijke en politieke uitdaging die een eigen technologische infrastructuur en visie vereist.

Interview Merlijn Olnon