L’interview tech et innovation
Questions - réponses pour comprendre l’actualité de la technologie, de l’intelligence artificielle et de l’innovation
Pour le philosophe de l'innovation Thierry Menissier, responsable de la chaire Éthique et IA de l’Institut interdisciplinaire pour l'intelligence artificielle (MIAI) de Grenoble, la préoccupation en matière d’IA n’est plus la transformation du travail mais “l’absence de limites à cette transformation”. Il s'interroge sur l'impact de l'intelligence artificielle dans nos vies professionnelles et sociales. Selon lui, il manque en France un vrai débat démocratique sur l’IA. Il est convaincu qu’il existe des alternatives à "l'innovation sauvage”, celle qui nous place devant le fait accompli, sans pouvoir en discuter.
Comment abordez-vous la question de l’intelligence artificielle appliquée au travail ?
Je pense qu’on ne peut plus penser la société sans y intégrer les outils numériques et algorithmiques. Le travail est une catégorie loin d’être évidente, elle est façonnée par des habitudes intellectuelles forgées par des pratiques. Quand on parle de « travail », on désigne à la fois la tâche, sa pénibilité mais aussi ses expressions, ses conditions et ses conséquences socio-économiques. Or, avec l’IA, tous ces éléments se transforment à une échelle inédite. Je défends l’hypothèse, certes maximaliste, qu’il n’y a pas de limite à cette transformation. Ce n’est pas l’IA qui remplace l’humain : c’est l’IA qui exécute des tâches jusqu’ici réservées aux humains, ce qui est très différent… La préoccupation n’est plus la transformation du travail mais l’absence de limites à cette transformation.
Faut-il revoir notre réflexion sur cette transformation du travail ?
Oui. Le dialogue entre humains et machines doit être renouvelé, branche par branche, par les corps intermédiaires comme les syndicats. L’Agence nationale pour l’amélioration des conditions de travail (ANACT) parle de « dialogue social technologique ». C’est une clé pour éviter de mauvaises surprises. Je suis un philosophe formé à la pensée de Machiavel. Derrière les transformations techniques, il y a des intérêts industriels, financiers, politiques… L’administration publique, par exemple, est poussée vers une « bureaucratie sans bureaucrates », avec des systèmes algorithmiques capables d’assurer l'efficacité d’un service. On perd alors quelque chose de l’ordre de la sacralité.
Vous parlez aussi d’une forme d’«algorithmisation du management ». Qu’entendez-vous par là ?
C’est la tendance à gérer l’activité humaine par des algorithmes, avec une logique d’optimisation. L’humain devient une ressource comme une autre. Ce modèle oublie des variables essentielles comme le hors-travail, les échanges informels, la motivation, la relation humaine... Cela mène à une abstraction du travail que j’appelle maltraitance algorithmique. Prenez l’exemple du soin hospitalier : si un système détermine un temps défini par tâche, on néglige la variabilité humaine, la complexité des situations. Derrière cette rationalisation, il y a souvent une défiance implicite envers l’humain. Je milite pour une confiance retrouvée, pour redonner aux professionnels une capacité d’action.
Vous soulignez aussi la nécessité d’une éthique enracinée dans les usages. De quoi s’agit-il ?
On demande à l’IA, en termes éthiques, ce qu’on n’a jamais demandé à aucune technologie avant elle. C’est une bonne nouvelle. Mais cette éthique ne peut pas être seulement celle des informaticiens, autour des notions de transparence ou d’explicabilité. Il est indispensable de construire une éthique de l’usage, une éthique vertueuse qui suppose un débat contradictoire : ce qui est acceptable ou non dans une profession dépend de son ancrage, de ses valeurs, de ses réalités. Il ne faut pas avoir peur de ce débat. L’éthique commence quand il y a discussion.
Vous parlez également d’IA sociale. Est-ce une façon de dépasser la vision strictement technologique ?
Absolument. L’IA est sociale depuis le début. Dès les années 1950, on a vu comment les humains projettent du sens, de la relation, dans un système qui ne fait que formuler des questions. L’IA n’est pas qu’un objet scientifique : elle crée du lien, elle entre dans la culture, dans l’organisation du travail, dans l’intime même. C’est pourquoi j’avance que l’informatique doit être pensée comme une science sociale. Tant qu’on la confiera uniquement à des profils formés en mathématiques, on manquera l’essentiel : les usages, les effets, les dépendances qu’elle crée.
Face à ce pouvoir, vous appelez à un sursaut démocratique ?
Oui. Le vrai problème n’est pas éthique, mais politique. Il manque un débat démocratique sur l’IA. En France, on ne débat pas des grands choix technologiques. Le modèle reste celui du fait accompli, de l’innovation sauvage. Je milite pour des alternatives : des IA « décolonisées », par exemple, entraînées avec des langues minoritaires ou d’autres savoirs. L’IA est un miroir qui nous invite à interroger ce que nous voulons faire du travail, de la relation, de la société. Mais encore faut-il qu’on ose le regarder.

Journaliste
Journaliste de presse écrite et animatrice de conférences, Valérie Ravinet s’intéresse aux sujets sociétaux aux croisement de la connaissance, de la…