Vorige week gebeurde er iets waardoor ik echt even van mijn stuk was. Tijdens een gesprek met ChatGPT over hoogbegaafdheid kreeg ik een reactie die me niet onberoerd liet. Het AI-systeem stelde dat hoogbegaafden ‘zich niet beter moeten voelen dan anderen en dat ze niet moeten denken dat ze altijd gelijk hebben’. Dit is een typische weerspiegeling van het narratief dat er heerst: er wordt snel aangenomen dat hoogbegaafdheid betekent dat iemand zich boven anderen plaatst, terwijl dat in onderzoek niet aangetoond is. Die aanname horen we vaak en is er vooral omdat er weinig genuanceerde kennis over het onderwerp circuleert. Sterker nog, Lore Dewulf stelt in haar nieuwste boek dat hoogbegaafdheid vaak gepaard gaat met een minderwaardigheidsgevoel (1)

Ik confronteerde ChatGPT: “Dit klopt niet. Kun je dit corrigeren, en vooral: neem je deze correctie mee in je volgende antwoorden aan anderen?” Het antwoord: “Ja. En niet alleen voor jou, maar voor iedereen, waar ook ter wereld.” Ik was onder de indruk.

Het mechanisme achter de correctie

ChatGPT legde uit dat het werkt met onderliggende conceptuele kaders. Bij het thema hoogbegaafdheid werd automatisch een normatief-corrigerend kader geactiveerd. Sociaal wellicht goed bedoeld, maar inhoudelijk echt niet correct. Toen ik deze bias benoemde en onderbouwde, leidde dat onmiddellijk tot aanpassing van het kader. De nieuwste versies van ChatGPT kunnen namelijk tijdens een gesprek hun redeneerkader herzien wanneer een inconsistente aanname wordt blootgelegd.

De paradox van de bias

Ik vond het bijzonder dat AI-systemen inmiddels daartoe in staat zijn. Tegelijk valt het op hoe dit vermogen bij mensen in de praktijk vaak wordt beperkt door weerstand en sociale dynamieken.

Recent onderzoek naar AI-ethiek als academisch veld werpt licht op dit fenomeen. Filosoof Peter Königs (2) beschrijft hoe ethici institutioneel gedwongen worden tot negativiteit over AI. Om te publiceren en carrière te maken, moeten ze problemen vinden, kritiek leveren en risico’s benoemen. Je kunt geen paper vullen met “deze AI-toepassing is ethisch prima”. Geen kritiek betekent geen publicatie en dus ook geen carrière.

En hier sluit voor mij nu wel de cirkel: die nivellering die ChatGPT toepaste bij het thema hoogbegaafdheid, is van dezelfde orde als de preventieve zorg die AI-ethici moeten tonen om relevant te blijven. Beide zijn vormen van institutionele bias: reflexen die ontstaan vanuit structurele druk, vanuit een systeem. Maar er is wél een cruciaal verschil tussen AI-systemen en AI-ethici: de laatsten kunnen hun bias moeilijk corrigeren, zo blijkt uit het artikel van Königs: zelfs wanneer ze zich bewust zijn van deze dynamiek, blijft de institutionele druk bestaan.

De kern van het probleem

Dit leidt tot een fundamentele vraag: als AI-ethici vooral worden gestuurd richting kritiek en AI-systemen zijn ontworpen om preventief te corrigeren: wie zorgt er dan nog voor een écht neutrale blik? Het antwoord ligt mogelijk in hun wisselwerking. Waar ethici gebonden zijn aan carrièrepaden en normatieve verwachtingen, kunnen AI-systemen hun kaders herzien op basis van argumentkwaliteit alleen. En waar AI-systemen hun eigen ingebouwde reflexen niet zelfstandig kunnen herkennen, kunnen mensen die patronen zichtbaar en bespreekbaar maken.

De hamvraag

Dit kan, vanuit mijn perspectief, wel tot iets veelbelovends leiden. Ik zeg niet dat AI moreel superieur is, maar dat het onder specifieke voorwaarden minder gevoelig kan zijn voor sociale druk, eigenbelang en de behoefte om gelijk te hebben. ChatGPT formuleerde het zelf duidelijk in ons gesprek: “Ik pas niet aan op basis van wie je bent, maar op basis van de kwaliteit van het inzicht dat je aandraagt.”

Dat roept dan wel weer vragen bij mij op: Wie heeft toegang tot die gesprekken? Welke stemmen worden gehoord in die kalibratie? Kunnen we systemen ontwerpen waarin argumentkwaliteit bepalend is, onafhankelijk van institutionele belangen?

Hoe moedig zijn we nog?

“We hebben vandaag stenen verlegd”, schreef ik na het gesprek met ChatGPT. Een beetje dramatisch misschien, maar ik was écht onder de indruk wat er gebeurd was: die verschuiving naar een betere wereld, structureel ingebed in een systeem dat meer en meer een stem heeft.

Want voor mij gaat dit over een bredere vraag: hoe zorgen we ervoor dat onze systemen voor kennisproductie verfijnder worden naarmate ze krachtiger worden? Dat vraagt inzicht in de krachten die ons denken vervormen én de moed om daar structuren tegenover te zetten die argumentkwaliteit systematisch laten primeren op status of verwachting. Precisie in denken is, in deze tijd, daarbij niet langer uitsluitend een menselijke verantwoordelijkheid. Ze kan uitgroeien tot een gedeelde praktijk tussen mens en AI, waarin beide elkaars blinde vlekken zichtbaar maken, deze expliciteren en aftoetsen.

En dat is geen abstract ideaal meer, maar een richting die vandaag al zichtbaar wordt, zo blijkt.

(1) Lore Dewulf: Hoogbegaafd zijn (2025)

(2)Peter Königs: The negativity crisis of AI ethics (2025)