L’interview tech et innovation
Questions - réponses pour comprendre l’actualité de la technologie, de l’intelligence artificielle et de l’innovation
Pour que les collaborateurs “gardent la main” quand ils utilisent l’IA dans leur travail, Laurence Breton-Kueny a expérimenté la rédaction d’une charte interne à l’Afnor. Un cadre “éthique et humain” où le respect du droit d’auteur, l’esprit critique et la responsabilité individuelle sont essentiels. Docteure en sciences de gestion, elle dirige le département des ressources humaines de l’entreprise Afnor, soit 1000 collaborateurs en France, 300 à l’international, 2000 formateurs et auditeurs. Influencée par les politiques québécoises en matière de travail, elle est aussi vice-présidente de l’association ANDRH, une communauté de plus de 6000 experts RH.
Comment abordez-vous la question de l’intelligence artificielle au travail ?
C’est un sujet central, à la fois stratégique, éthique et opérationnel. Le groupe Afnor a participé à l’élaboration de la toute première norme internationale de management de l’intelligence artificielle, ISO 42001. Cette norme propose un cadre de gouvernance pour aider les organisations à déployer l’IA de manière responsable, sécurisée, transparente. Nous avons aussi été le premier organisme à certifier un algorithme conforme à l’IA Act européen (UE Artificial Intelligence Act)
Quels sont les enjeux de l'IA pour les DRH ?
C’est un virage majeur pour nos métiers, mais ce n’est ni une baguette magique, ni un substitut à l’humain. Dans notre groupe, on parle plutôt d’intelligence augmentée : l’IA est là pour accompagner, pas pour remplacer. Elle peut soulager certaines tâches répétitives, aider à la prise de décision, mais elle ne doit jamais déposséder les collaborateurs de leur esprit critique ni de leur responsabilité.
Vous parlez d’intelligence augmentée plutôt que d’intelligence artificielle. Pourquoi cette nuance ?
Parce que l’humain garde la main, l’IA ne le remplace pas. Elle est là pour le soutenir, pour alléger les tâches, mais jamais pour penser à notre place. Au sein du groupe nous avons développé notre propre IA interne, nommée Félix, et défini un cadre très clair pour son usage.
Comment ce cadre s’organise-t-il concrètement ?
Nous avons mis en œuvre une charte de l’IA depuis plus d’un an, charte qui sera prochainement annexée à notre règlement intérieur. Elle repose sur trois piliers : le respect du droit d’auteur, la nécessité de faire preuve d’esprit critique et la responsabilité individuelle de la production de l’IA. Par exemple, si un salarié utilise Félix pour générer un mail et que ce contenu est inapproprié ou erroné, il en assume l’entière responsabilité. L’IA ne pourra jamais servir d’excuse pour se dédouaner de sa responsabilité.
Vous parlez beaucoup d’éducation à l’usage. Est-ce une priorité RH aujourd’hui ?
Absolument. Nous avons mis en place un programme de formation IA pour tous les salariés du groupe. Et plus largement, nous menons différentes actions de sensibilisation : sur l’impact environnemental de l’IA, sur les biais algorithmiques, sur les fakes générés par les IA … Cela relève de la responsabilité sociale de l’entreprise, au même titre que la prévention des risques ou la santé au travail.
Quel lien établissez-vous entre IA et qualité de vie au travail ?
L’IA peut être un levier d’amélioration de la qualité de vie au travail si elle est bien utilisée. Elle peut contribuer à prévenir les risques, faciliter certaines tâches, ou encore mieux suivre la santé mentale au travail. Mais elle peut aussi générer des nouvelles formes d’addictions, comme le scroll infini, la surcharge informationnelle, ou une perte de lien social. D’où l’importance d’un cadre éthique et humain.
Vous évoquez la santé mentale comme un enjeu central. Pourquoi ?
Parce qu’on observe une fragilisation croissante des individus, parfois liée à un isolement social, à une absence de repères, ou à une hyper-connexion. L’IA n’est pas le problème en soi, c’est l’usage qui en est fait. C’est pourquoi, dans notre travail sur les normes internationales – notamment celles liées à la santé mentale et à la promotion de la santé en entreprise –, nous insistons sur la nécessité de préserver le lien, le sens et la responsabilité dans le travail.
Quel rôle doivent jouer les DRH dans ce contexte ?
Un rôle essentiel. Lors de notre dernière université d’été de l’ANDRH, l’experte Aurélie Jean a eu cette formule que je reprends souvent : « Les deux métiers les plus importants par rapport à l’IA sont les journalistes et les DRH. » Les premiers pour alerter, les seconds pour anticiper les mutations des compétences. C’est notre devoir d’éviter une fracture entre ceux qui sauront s’adapter et ceux qui seront exclus. À condition, bien sûr, de ne jamais céder à la paresse de l’IA.
Et pour les petites structures qui n’ont les moyens des ETI et des groupes ?
Il ne faut pas rester seul. Il existe des formations, des financements, des réseaux. À l’ANDRH, nous comptons aussi des RH de TPE ou PME. Il faut cultiver la curiosité intellectuelle, lire, se former, s’entourer. L’IA est déjà là. La question n’est pas de la subir ou non, mais de choisir comment on veut l’utiliser.

Journaliste
Journaliste de presse écrite et animatrice de conférences, Valérie Ravinet s’intéresse aux sujets sociétaux aux croisement de la connaissance, de la…