- Reward Management
- Etudes Salariales
- Consultance en Rémunération
- Gestion de la Performance
- Classification de Fonctions
Imaginez deux collègues : Sarah et Tom.
Sarah commence à expérimenter dès que son équipe reçoit un outil d'IA générative et, en quelques jours, elle a déjà regardé tous les tutoriels. Elle maîtrise les bases du « prompting » et montre à ses collègues comment cet outil peut leur faire gagner du temps dans leur travail quotidien. Tom, membre de la même équipe, se sent dépassé. Il prétend qu'il « n’a pas le temps de jouer », affirme que « l'IA fait trop d'erreurs » et déclare qu'il ne l'utilisera que « si cela devient obligatoire ». Après un premier essai maladroit, il laisse tomber l’outil d’IA.
La même organisation. Les mêmes outils. Le même accès. Et pourtant, une approche totalement différente. Ce n'est pas un hasard. La rapidité avec laquelle une nouvelle technologie est adoptée peut varier considérablement d'un employé à l'autre. Ce n'est pas une question d'âge, de formation ou même de motivation générale au travail : la plupart des gens reconnaîtront en eux des traits de Sarah comme de Tom. Il est important de ne pas interpréter ces différences comme un fossé entre ceux qui « savent » et ceux qui ne « savent pas » travailler avec l'IA. Elles reflètent plutôt des points de départ différents : l’accès à l’IA est ouvert à tous, mais tout le monde ne l’aborde pas de la même façon.
Bien que les compétences techniques jouent un rôle, la recherche scientifique confirme que ce que nous sommes (notre personnalité) (Seibert et al., 2021) et la rapidité avec laquelle nous traitons l'information (nos capacités cognitives) (Grassini et al., 2025) sont de puissants indicateurs d'une adoption réussie des technologies.
Cherchant à identifier les talents adéquats, certaines organisations se tournent vers des outils permettant de tester les compétences acquises en IA, comme le « prompting ». Cependant, cette approche revient à viser une cible mouvante. Les compétences acquises évoluent si rapidement que les tests de compétences en IA constituent rarement une base stable pour des décisions stratégiques à long terme. Au moment où un test spécifique à l'IA est pleinement validé, la technologie ainsi que les compétences associées sont souvent déjà obsolètes.
Ce qui reste stable, en revanche, ce sont les caractéristiques psychologiques sous-jacentes. Nous pouvons les mesurer de manière fiable grâce aux tests psychométriques classiques. Les Tools for Talent de Hudson combinent les résultats de différents outils (tels qu'un questionnaire de personnalité et des tests de raisonnement) de manière intelligente et pondérée. Ils permettent ainsi de définir quatre domaines clés essentiels qui, ensemble, constituent la Digital Learning Agility d'un individu. Les personnes qui obtiennent des scores élevés dans ces domaines possèdent la capacité d'adopter les nouvelles technologies rapidement et efficacement, tandis que ceux qui obtiennent des scores plus bas auront probablement besoin de plus de temps, de conseils et d'un soutien structuré.
Explorez avec nous les quatre domaines clés qui constituent le fondement du modèle Digital Learning Agility de Hudson, ainsi que leurs bases scientifiques.
Tout commence par la capacité cognitive pure : la Learning Ability. L’apprentissage réussi de nouvelles technologies va de pair avec le traitement et l’implémentation de nouveaux concepts. Ce processus est fortement influencé par les aptitudes cognitives de l’individu, telles que la mémoire de travail et la vitesse de traitement (Grassini et al., 2025). Dans notre modèle, nous mesurons cela via le Raisonnement Abstrait. Les systèmes d’IA sont souvent complexes et mystérieux. Les collaborateurs ont besoin de cette "puissance cognitive" pour reconnaître des schémas, comprendre des résultats ambigus et les intégrer dans leur travail.
L'agilité numérique naît de la curiosité pour l'inconnu et de l'adhésion au changement. Dans notre modèle, nous définissons cela comme l'Agile Thinking.
La recherche démontre que des traits tels que l'Amabilité (Agreeableness) sont souvent liés à l'acceptation des technologies établies. En revanche, l'Ouverture, l'un des facteurs de personnalité du Big Five, est le prédicteur le plus fort d'une attitude positive spécifiquement envers l'IA (Grassini et al., 2025). L'IA représente ici une frontière disruptive claire. Les professionnels obtenant un score élevé en Ouverture possèdent naturellement une mentalité tournée vers l'innovation et le changement : ils abordent l'IA comme un instrument à explorer plutôt que comme une menace (Kovbasiuk et al., 2025).
Une idée reçue courante veut que la confiance en l’IA soit synonyme de foi aveugle en la machine : en réalité, une telle approche ne mène qu’à la déception. C’est pourquoi nous identifions comme troisième domaine clé le Critical Thinking : la combinaison d'une personnalité critique et d'une solide capacité de raisonnement logique trace la voie vers une adoption réussie des nouvelles technologies.
La recherche montre que les employés accordent davantage de confiance aux systèmes d’IA lorsqu'ils découvrent activement par eux-mêmes les limites des outils, telles que les hallucinations ou les contraintes techniques (Übellacker, 2025). L'expérience pratique des frontières du système s'avère ici essentielle : pour accorder une confiance effective à l'IA, les utilisateurs doivent non seulement comprendre ce que l'outil peut faire, mais aussi ce qu'il ne peut pas faire (Glikson & Woolley, 2020). De cette manière, les utilisateurs évoluent d'une dépendance aveugle vers des attentes réalistes.
L'adoption de l'IA s'accompagne nécessairement d'obstacles : c'est là que le Growth Mindset (état d'esprit de croissance) devient crucial. Nos recherches montrent que la Stabilité Émotionnelle joue un rôle clé dans le maintien de cet état d'esprit.
Des niveaux élevés de névrosisme (l'opposé de la stabilité émotionnelle) sont systématiquement corrélés au « technostress » et à « l’anxiété liée à l’IA » (Symasek et al., 2025), tandis que le sentiment d'auto-efficacité (Self-Efficacy) offre une protection contre ces incertitudes (Montag et al., 2023). Les professionnels dotés d'une grande stabilité émotionnelle possèdent la résilience nécessaire pour faire face à l'imprévisibilité de l'IA. Lorsqu'un prompt échoue, ils ne paniquent pas ; ils persévèrent.
Le framework Digital Learning Agility de Hudson offre une base solide pour dépasser l’approche "one-size-fits-all" de la transformation numérique. En appliquant ces perspectives, les organisations peuvent élaborer des stratégies de talent sur mesure, tant pour le recrutement que pour le développement interne.
Lors de la sélection, ce framework offre un point d'appui clair pour identifier les talents prêts pour l'avenir. En se concentrant sur les individus présentant une Digital Learning Agility élevée, les organisations peuvent attirer leurs "AI champions" — ces "Sarah" qui assument un rôle de pionnier, servent de mentors à leurs collègues et stimulent l'implémentation organique de nouveaux outils grâce à leur curiosité naturelle et leur agilité cognitive.
Pour les équipes existantes, ces perspectives permettent de dessiner une feuille de route de soutien sur mesure. Un résultat en retrait sur une compétence spécifique n'est en rien une sentence finale, mais plutôt un indicateur pour ajuster l'approche. De même, les early adopters ont besoin d'un cadre approprié pour canaliser leur enthousiasme et maximiser leur impact.
Bien que l’état de préparation à l’IA de l’organisation — incluant la stratégie, l’alignement métier et l’infrastructure technologique — soit un pilier vital, cela ne constitue qu'une partie de l'équation. En effet, il existe des disparités majeures entre les employés quant à l’enthousiasme et la rapidité avec lesquels ils adoptent l’IA.
Comprendre ces différences individuelles ne consiste pas à décider qui a sa place ou non dans le futur du travail, mais à s'assurer que chacun dispose d'un parcours accessible pour y parvenir.
Curieux de savoir comment ces perspectives peuvent transformer votre stratégie de talent ? Contactez-nous sans engagement.
Glikson, E. and Woolley, A. W. (2020). Human trust in artificial intelligence: Review of empirical research. Academy of Management Annals, 14 (2):627–660.
Grassini, S., Oltedal Thorp, S., Sævild Ree, A., Sevic, A., & Cipriani, E. (2025). Distinct predictors of positive attitudes toward artificial intelligence and general technology: big five traits, gender, and age. Behaviour & Information Technology.
Kovbasiuk, A., Triantoro, T., Przegalińska, A., Sowa, K., Ciechanowski, L., & Gloor, P. (2025). The personality profile of early generative AI adopters: a big five perspective. Central European Management Journal, 33 (2), 252-264.
Montag, C., Kraus, J., Baumann, M., & Rozgonjuk, D. (2023). The propensity to trust in (automated) technology mediates the links between technology self-efficacy and fear and acceptance of artificial intelligence. Computers in Human Behavior Reports, 11.
Seibert, D., Godulla, A., & Wolf, C. (2021). Understanding How Personality Affects the Acceptance of Technology: A Literature Review. Working paper.
Symasek, L., Yeazitzis, T., Weger, K., & Mesmer, B. (2025). Recent Developments in Individual Difference Research to Inform the Adoption of AI Technology. Systems, 13 (3), 156.
Übellacker, T. (2025). Making sense of AI limitations: how individual perceptions shape organizational readiness for AI adoption. arXiv preprint.
Soumettez-nous votre défi RH. Ensemble, nous examinerons comment nous pouvons vous aider.
Anonyme
Hainaut - A proximité de 7500
Anonymous
Brabant Wallon - A proximité de 1300
Thales Belgium
Brabant Wallon - 1480
Sodexo
Luxembourg - 6900