Retour

  4 mins

 

Article - Intelligence artificielle

Vérifier la conformité juridique des systèmes d’IA, un enjeu pour les valeurs démocratiques

photo de Jessica Eynard qui fixe la caméra

ITW tech & inno

Regards croisés sur l’impact de l’IA et de l’innovation sur le travail et la société

L’enseignante chercheuse Jessica Eynard travaille avec des mathématiciens à des méthodes d’audit afin de vérifier la conformité juridique des systèmes d’IA. Elle défend un cadre européen fondé sur la transparence et la protection des droits fondamentaux. Entretien.

Jessica Eynard, vous êtes juriste. Quel sont votre rôle et votre terrain de recherche aujourd’hui ?

Je suis maîtresse de conférences à l’Université Toulouse Capitole, co-responsable de la mention Droit du numérique et du parcours Droit numérique & IA. Côté recherche, je travaille sur l’encadrement juridique des systèmes d’IA, dans le cadre d’une chaire « Synergie » au sein de l’Institut interdisciplinaire d'intelligence artificielle de Toulouse (ANITI) aux côtés de mathématiciens. Le cœur de nos travaux consiste à déterminer des méthodes d’audit pour vérifier qu’un système d’IA est conforme aux textes applicables.

D’où vient votre intérêt pour l’IA?

J’ai consacré ma thèse aux questions portant sur la protection des données personnelles, avant même l’essor du RGPD, et j’ai d’ailleurs reçu un prix de la CNIL pour ces travaux. Dans les entreprises comme dans le milieu académique, beaucoup de juristes qui s’occupent aujourd’hui d’IA ont suivi ce parcours, ils ont commencé à s’intéresser à la mise en conformité au RGPD, avant de glisser vers les défis lancés par l’encadrement juridique de l’IA. C’est une continuité logique.

Vous collaborez étroitement avec des mathématiciens. À quoi ressemble ce travail interdisciplinaire ?

C’est d’abord un apprentissage respectif de nos modes d’expression, car nous ne parlons pas le même langage ! Les mathématiciens ont besoin de connaitre les règles (discrimination, transparence, sécurité, etc.) pour modéliser des tests, qu’ils évaluent en termes de taux d’erreur, de détection de biais ou de robustesse. Notre objectif commun est de savoir si, au vu des résultats, le système peut être considéré conforme juridiquement. Nous avançons pas à pas, avec moins d’équations au tableau, plus d’exemples juridiques et un vocabulaire partagé.

Concrètement, quel est votre objectif commun ?

Il s’agit de mettre au point une méthode d’évaluation des systèmes d’IA. Cela consiste à vérifier, avant déploiement et usage, que la machine fait ce qu’elle est censée faire, sans dériver, et que ses résultats respectent les droits et libertés. C’est très technique, mais l’enjeu est sociétal car il s’agit de protéger des valeurs et pas seulement de cocher des cases.

Sur le plan juridique, que change le règlement européen, l’AI Act, pour les personnes ?

L’AI Act pose un cadre de risques et impose des obligations pour éviter les atteintes à la santé, à la sécurité et aux droits et libertés fondamentaux, comme la non-discrimination, la protection des mineurs, la protection de l’environnement... Il renforce surtout la transparence, et exige d’abord d’être informé lorsqu’on interagit avec une IA, ce qui se traduit par des mentions d’étiquetage pour les images générées ou l’indication des sources d’un texte produit avec un modèle. C’est aussi fournir des informations compréhensibles lorsqu’une décision automatisée défavorable est prise.

Vous évoquez la « transparence ». À quoi sert-elle, très concrètement ?

La transparence, c’est ce qui assure le choix et permet la vigilance. Si je sais que je parle à une IA, je peux adapter mon comportement et vérifier que les résultats proposés sont conformes à mes attentes. La culture du risque IA se construit ainsi, par l’information, l’éducation et des processus de vérification.

Les entreprises dépendent de grands modèles américains. Comment le droit y répond-il ?

La dépendance technologique existe et le règlement sur l’IA est davantage un texte de protection. En revanche, comme le RGPD, ce texte vise un effet d’entraînement international. Il s’applique dès lors que les systèmes d’IA produisent des résultats dans l’Union Européenne. L’objectif est aussi que l’AI Act influence les législateurs d’autres régions du monde

En entreprise, on entend souvent que ce règlement nuit à l’innovation. Qu’en pensez-vous ?

C’est un argument qu’on utilisait déjà pour le RGPD, et l’innovation ne s’est pas arrêtée. Le rôle du législateur est de poser des limites quand la science peut tout, car sans limites, on ferait n’importe quoi. Réguler est nécessaire pour orienter vers des pratiques responsables et fiables.

Quels conseils donneriez-vous aux organisations qui utilisent des IA ?

D’abord d’établir des règles internes. Je les invite à se doter de chartes ou règlements d’usage, qui indiquent les outils qu’on peut utiliser et ceux qui sont à éviter. Ensuite, il est assez indispensable de déployer un plan de formation pour acculturer les salariés à l’IA. Enfin, lorsque cela est possible, privilégier des solutions en circuit fermé pour limiter les risques de biais, les fuites d’information et les décisions opaques.

Vous dites que « le droit bouge tout le temps ». En quoi cela influence-t-il votre travail ?

Le droit est une discipline vivante. Je peux travailler sur une notion, puis une autorité ou une juridiction publie une interprétation qui m’oblige à réviser mon analyse. Nos travaux s’adaptent de manière continue, l’IA n’y fait pas exception.

Si vous ne deviez contrôler qu’une chose dans une IA, ce serait quoi ?

Que l’IA fasse bien ce qu’elle est censée faire, sans dérive. Si nous maîtrisons cela, que nous détectons et corrigeons les écarts, nous aurons franchi une étape décisive pour protéger les personnes et la société.

 

Propos recueillis par Valérie Ravinet 

Journaliste

Journaliste et autrice, Valérie explore les grands sujets de société à la croisée des sciences, de l’économie et du vivant. Numérique, intelligence…

ITW tech & inno

Les interviews d’experts et d’expertes qui permettent de comprendre comment l’intelligence artificielle et l’innovation transforment le monde du travail. Dialogue social, droit, formation, égalité femmes-hommes, santé mentale, métiers : chaque entretien éclaire un enjeu clé des révolutions  technologiques.

Notre actu dans votre inbox

Restez informés de toute l’actu
& inspirez-vous au quotidien