- Assessment & Development
- Assessment Services
- Coaching & Development
- Outplacement
- Loopbaanontwikkeling
- Reward Management
- Salarisstudies
- Reward Consulting
- Performance & Development
- Job Design & Job Grading
Generatieve AI-tools zoals ChatGPT, Copilot en Gemini veranderen razendsnel hoe we werken. Ze schrijven teksten, analyseren data en ondersteunen beslissingen. Maar hoe meer AI kan, hoe belangrijker het wordt dat wij als mensen kritisch blijven nadenken. Want AI denkt niet écht. U wél.
De opkomst van generatieve AI heeft de manier waarop we werken fundamenteel veranderd. Tools zoals ChatGPT, Copilot en Gemini nemen steeds meer taken over, van tekst- en beeldproductie tot programmeren, data-analyse en het ondersteunen van beslissingen.
Nu AI steeds meer kan, rijst de vraag of menselijke redeneervaardigheden nog wel nodig zijn.
“Als AI toch al het ‘denkwerk’ doet, wat is dan nog de meerwaarde van menselijk redeneren?”
Bij Hudson geloven we resoluut in die meerwaarde. Sterker nog: cognitieve vaardigheden zoals verbaal, abstract en numeriek redeneren zijn vandaag relevanter dan ooit. In deze blog leggen we uit waarom, en hoe het meten van de klassieke cognitieve vaardigheden een cruciale rol blijft spelen in het selecteren van ‘AI-ready’ talent.
AI kan razendsnel informatie genereren, structureren en presenteren. Maar het mist iets fundamenteels: echt begrip. AI werkt op basis van patronen en statistiek, niet op basis van context, ethiek of ervaring. De meeste gebruikers weten ondertussen dat de output van AI zeer overtuigend kan klinken, maar tegelijkertijd toch foutieve redeneringen en conclusies kan bevatten.
Daarom is menselijke beoordeling (een “human in the loop”) essentieel om AI-output te interpreteren, evalueren en corrigeren. Dat vraagt om cognitieve vaardigheden die AI zelf niet bezit.
AI-tools kunnen indrukwekkende teksten genereren, maar ze zijn niet feilloos. De gegenereerde teksten kunnen soms onlogisch zijn, bias of zelfs regelrechte hallucinaties bevatten. Verbaal redeneren stelt gebruikers van AI in staat om die fouten te herkennen en te corrigeren.
AI herkent patronen, maar mist het vermogen om nieuwe concepten te creëren of onverwachte verbanden te leggen. Abstract redeneren stelt mensen in staat om AI-output te integreren in bredere denkkaders, om strategisch te denken en om complexe problemen op te lossen. Het helpt ook bij het omgaan met volledig nieuwe of ambigue soorten informatie en problemen. In strategische functies is dit essentieel: AI kan input leveren, maar het is de mens die de volledige context begrijpt, verbanden kan leggen met andere domeinen en uiteindelijk de juiste beslissingen neemt.
AI kan data analyseren, maar niet altijd correct interpreteren. Denk bijvoorbeeld aan een AI-dashboard dat een stijgende lijn toont, maar is deze stijging echt betekenisvol? Kan dit een causaal verband zijn of niet? In dit soort situaties maakt numeriek redeneren het verschil tussen blind vertrouwen en geïnformeerd handelen.
Een recent artikel in De Standaard stelt dat hoewel AI sommige taken toegankelijker maakt voor minder ervaren werknemers, het toch vooral de hooggeschoolde professionals zijn die AI slim kunnen aansturen. In hun teams is daarom vaak minder uitvoerende hulp nodig. Dit betekent dat er waarschijnlijk banen verdwijnen, wat een toenemende vraag naar bijscholing en omscholing met zich meebrengt.
Een ding is zeker: wie cognitief sterk is, blijft relevant. Wie AI efficiënt kan aansturen, beoordelen, corrigeren en strategisch inzetten, wordt waardevoller voor werkgevers. Cognitieve vaardigheden zijn dus niet overbodig geworden door AI; ze zijn juist een hefboom voor duurzame inzetbaarheid.
Soms horen we de vraag naar tests die AI-vaardigheden evalueren. Dat is begrijpelijk: AI is alomtegenwoordig, en het lijkt logisch om te willen meten hoe goed jobkandidaten ermee kunnen werken. Toch is het belangrijk om stil te staan bij de beperkingen van een specifieke AI-skills test.
De ontwikkeling van een betrouwbare en valide (selectie)test vereist uitgebreid onderzoek: conceptualisatie, inhoudelijke ontwikkeling, pilootstudies, normering, bias-analyse, betrouwbaarheidsonderzoek, enzovoort. Dit proces neemt al gauw 12 maanden of meer in beslag. Tegen de tijd dat een AI-skills test klaar is voor gebruik in ‘high-stakes’ procedures (i.e. selectieprocedures met belangrijke gevolgen voor de kandidaat), kan de technologie waarop ze gebaseerd is alweer veranderd zijn.
Wat op dit moment een relevante AI-vaardigheid is, kan binnen enkele maanden verouderd zijn. Het AI-landschap evolueert razendsnel, en de tools die nu dominant zijn, kunnen morgen vervangen worden door nieuwe technologieën. Daarom is een test die vandaag ontwikkeld wordt, tegen publicatie mogelijk al achterhaald.
Wat wel stabiel blijft, zijn de onderliggende cognitieve vaardigheden die nodig zijn om met élke AI-tool te werken: kritisch denken, inductief redeneren, abstractie en evaluatie. Deze vaardigheden zijn niet gebonden aan één specifieke technologie, en zijn dus future-proof.
Kortom: zelfs als de AI-technologie en de bijbehorende interfaces veranderen, blijven de evaluatieve en kritische vaardigheden die nodig zijn om ermee te werken grotendeels dezelfde. Klassieke redeneertests meten precies die vaardigheden. Ze zijn wetenschappelijk onderbouwd, breed inzetbaar en duurzaam in een snel veranderende wereld.
Cognitieve vaardigheden vormen de basis voor AI-geletterdheid. Daarom blijven psychometrische redeneertests een essentieel instrument in selectie.
Wil je weten hoe je kandidaten selecteert die klaar zijn voor de AI-toekomst? Neem vrijblijvend contact op. Wij helpen je graag verder.
Samen vinden we de beste oplossing voor uw organisatie! Onze consultants staan klaar om u te helpen en nemen zo snel mogelijk contact met u op.