Recrutée au LaborIA dans le cadre d’une convention avec la Direction générale de la cohésion sociale (DGCS), Stéphanie Hemairia-Clerc, docteur en sciences de gestion, travaille sur les effets de l’intelligence artificielle dans le travail social. Pour la chercheuse, l’enjeu n’est pas uniquement de réussir l’introduction d’une nouvelle technologie, mais de comprendre en quoi l’IA peut répondre, concrètement, aux besoins du terrain.
Vous travaillez sur l’impact de l’IA dans le travail social au LaborIA. Dans quel cadre s’inscrivent vos recherches ?
Je travaille au LaborIA depuis 2025 en tant qu’ingénieure de recherche en sciences humaines et sociales. Depuis plusieurs années, je m’intéresse à l’impact des outils de gestion et des technologies sur le travail et sur la santé au travail. C’est dans ce prolongement que j’en suis venue à travailler sur les systèmes d’intelligence artificielle et, plus précisément ici, sur leurs effets dans le secteur du travail social. Je mène ces travaux avec Anne-Sophie Maillot, docteure en ergonomie et psychologie du travail, dont l’approche a beaucoup compté dans la méthodologie de la recherche.
Pourquoi ce sujet est-il devenu si important dans le travail social ?
À l’origine, il y a un constat porté par la DGCS, qui pointe les transformations que traverse le travail social. Le secteur souffre d’une perte d’attractivité, les pratiques ont été fortement bousculées par le numérique, et une partie des professionnels se retrouve encore confrontée à des difficultés liées à ces évolutions. L’idée était donc d’éviter de “subir” l’arrivée de l’IA comme le secteur a vécu l’entrée du numérique. Autrement dit, il s’agissait d’anticiper, d’ouvrir le débat avant que les usages ne s’imposent sans réflexion collective.
Comment avez-vous travaillé pour documenter ces évolutions liées à l’IA ?
Nous avons déployé trois études. La première, que nous appelons la “convention professionnelle”, visait à faire émerger les grands enjeux de l’introduction de l’IA dans le travail social. Nous avons réuni 25 participants issus du secteur afin de construire un cadre de confiance et de réfléchir ensemble à ce qui paraît acceptable, souhaitable ou non.
La deuxième étude portait sur les usages déjà existants. Elle s’appuie sur 30 entretiens exploratoires, puis sur un questionnaire diffusé plus largement, qui a recueilli plus de 650 réponses. L’objectif était de comprendre qui utilise déjà l’IA générative, pour quoi faire, qui s’y projette, et pourquoi certains refusent de l’utiliser.
Enfin, la troisième étude, réalisée par Juana Torres-Cierpe, sociologue au LaborIA, s’intéresse aux établissements de formation en travail social, notamment aux instituts régionaux du travail social (IRTS). Nous avons mené 16 entretiens auprès de directions, de responsables pédagogiques, de formateurs et d’étudiants, pour analyser leur rapport à l’IA et la manière dont cette question entre, ou non, dans les dispositifs pédagogiques.
Qu’est-ce qui ressort de ces études ?
À ce stade, je parle de premières observations, les analyses sont encore en cours. Ce que nous notons d’abord, c’est que les usages repérés concernent surtout l’IA générative. Les professionnels l’utilisent d’abord comme un moteur de recherche, en lieu et place d’un moteur de recherche classique, pour accéder plus vite à une information utile : une actualisation juridique, la liste de bailleurs sociaux dans une autre région, un renseignement pratique à transmettre rapidement à une personne accompagnée… L’outil peut également servir à faire ressortir les points clés d’un rapport long, par exemple sur l’hébergement d’urgence ou l’insertion professionnelle, afin de gagner du temps dans l’appropriation du document. Enfin, il y a un usage d’assistance rédactionnelle : obtenir un premier jet de mail, reformuler un texte selon le destinataire, ou encore aider à organiser des idées dispersées avant la rédaction. Mais, sur ce point, les professionnels posent vite des limites.
Justement, jusqu’où l’IA est-elle jugée acceptable dans l’écriture professionnelle ?
La limite est claire : on peut s’en servir pour la forme, mais pas pour le fond. C’est l’un des points les plus nets qui ressort des échanges. Dans le travail social, l’écriture n’est pas seulement une formalité. Elle aide à analyser une situation, à prendre du recul, à construire un jugement professionnel. Les participants disent donc clairement qu’une IA peut éventuellement aider à reformuler, à structurer, à démarrer un texte, mais qu’elle ne doit pas se substituer au discernement de la personne qui écrit. Il y a une volonté forte de garder la main.
Quels sont les risques qui reviennent le plus souvent dans vos observations ?
Le premier sujet, c’est la protection des données et c’est même l’un des principaux motifs de refus d’utilisation de l’IA. Dans le travail social, pseudonymiser ne suffit pas toujours : les professionnels savent qu’une situation peut rester identifiable à travers son contexte. Cette question est donc centrale.
Le deuxième point, c’est le biais et, plus largement, la fiabilité des réponses. Le fameux “gain de temps” est à nuancer. Oui, on obtient une réponse plus vite, mais il faut ensuite vérifier, corriger, reformuler, parfois reprendre entièrement ce qui a été produit. Le temps économisé n’est donc pas si évident.
Enfin, il y a la crainte d’écrits trop lisses, trop standardisés, qui feraient disparaître la singularité des personnes accompagnées. Or le travail social repose justement sur le cas par cas, sur l’attention aux trajectoires, aux contextes, à ce qui ne rentre pas parfaitement dans des catégories. À cela s’ajoute, chez certains, la question de l’impact environnemental.
En quoi le travail social présente-t-il des spécificités face à l’IA ?
Ce qui me frappe, c’est l’importance donnée à la singularité de la personne. Dans d’autres secteurs, la critique des productions standardisées existe aussi, bien sûr, mais elle paraît particulièrement forte ici. Le travail social ne consiste pas à appliquer mécaniquement une règle. Les professionnels exercent un pouvoir d’appréciation parce qu’ils ont affaire à des situations humaines toujours singulières.
C’est pourquoi la prudence vis-à-vis des systèmes d’aide à la décision est forte. Dès lors qu’un système produit un score, une recommandation ou une orientation, la question devient : est-ce que je peux encore défendre un avis différent ? Est-ce que je comprends suffisamment le fonctionnement de l’outil pour préserver mon autonomie professionnelle ? Dans ce secteur, cette question est décisive.
Y a-t-il des éléments qui vous ont particulièrement surprise dans les premières analyses ?
Oui. D’abord, l’étendue des usages, dont une partie relève de ce qu’on appelle “shadow AI”, c’est-à-dire des usages informels de l’IA, parfois même clandestins. Mais je ne le lis pas uniquement comme une transgression, j’y vois aussi un révélateur : quand les conditions de travail sont dégradées et que les ressources manquent, certains professionnels cherchent des solutions pour faire face et absorber une partie de la charge.
L’autre point qui m’a marquée, c’est la créativité de certains usages. Ils restent minoritaires, donc il ne faut surtout pas généraliser, mais ils existent. J’ai vu des professionnels détourner l’outil non pour automatiser leur travail, mais pour enrichir la relation avec une personne accompagnée, capter l’attention d’un jeune en lui montrant des images, ou encore montrer à quelqu’un comment rédiger un courrier afin de lui redonner du pouvoir d’agir. Dans ces cas-là, l’outil n’est pas utilisé pour remplacer la relation, mais pour la soutenir.
L’IA peut-elle alors représenter un progrès pour le travail social ?
Oui, mais à une condition stricte : il faut qu’elle améliore réellement l’accompagnement. Si c’est pour demander aux professionnels de faire plus, plus vite, avec davantage d’indicateurs et sans gain de qualité, alors ce n’est pas un progrès. Dans un secteur déjà éprouvé par la dégradation des conditions de travail, le turnover et la fatigue, ajouter un outil qui intensifie encore le travail ne ferait qu’aggraver les difficultés.
En revanche, si l’outil permet de mieux accompagner, de dégager du temps utile, de soutenir la qualité du travail plutôt que la seule logique quantitative, alors la discussion peut s’ouvrir. La question centrale, au fond, n’est pas “faut-il de l’IA ?”, mais “à quel besoin cela répond-il, et au bénéfice de qui ?”
Quelles conditions vous paraissent indispensables pour qu’un déploiement soit pertinent ?
Il faut partir du terrain. C’est, pour moi, la condition première. On ne peut pas imposer un outil depuis les directions en espérant qu’il trouvera ensuite son utilité. Il faut identifier les besoins réels avec les professionnels, les discuter dans le cadre du dialogue professionnel, puis associer les travailleurs, les managers et même les personnes accompagnées à la conception. C’est ce que nous appelons la co-conception.
Il faut aussi reconnaître que ces systèmes ne sont jamais neutres. Ils embarquent toujours des choix, des priorités, des valeurs. Dans le travail social, cela oblige à poser la question des valeurs métiers que l’on veut préserver : la relation, la singularité, l’autonomie, le jugement professionnel. Sans cela, on risque de fabriquer des outils techniquement efficaces mais socialement inadaptés.
Propos recueillis par Valérie Ravinet
ITW tech & inno
Les interviews d’experts et d’expertes qui permettent de comprendre comment l’intelligence artificielle et l’innovation transforment le monde du travail. Dialogue social, droit, formation, égalité femmes-hommes, santé mentale, métiers : chaque entretien éclaire un enjeu clé des révolutions technologiques.