L’interview tech et innovation
Questions - réponses pour comprendre l’actualité de la technologie, de l’intelligence artificielle et de l’innovation
Avocat associé du cabinet parisien Bignon Lebray, Christophe Fichet alerte sur les risques que font peser l’intelligence artificielle et les réseaux sur nos données personnelles et celles des entreprises. Entre confidentialité, propriété intellectuelle et vulnérabilités nouvelles, il appelle à une vigilance accrue et à une adaptation rapide du droit.
Christophe Fichet, vous êtes expert en droit du numérique. Sur quels secteurs travaillez-vous ?
Je suis avocat depuis vingt-trois ans. Mon activité couvre à la fois les réseaux, les services numériques et, bien sûr, tout ce qui touche à la régulation, aux obligations liées au numérique. J’interviens dans des secteurs variés : télécoms, médias, technologies, santé… Les questions de données et de propriété intellectuelle concernent désormais tout le monde.
Vous insistez beaucoup sur la question de la distinction entre vrai et faux à l’ère de l’intelligence artificielle. Pourquoi est-ce central aujourd’hui ?
Nous vivons dans un monde d’images et d’informations modifiées en permanence. L’IA permet de créer de fausses vidéos, des interviews tronquées, des photos manipulées. Résultat : les réputations sont détruites en quelques heures et cela nuit considérablement au monde des affaires. Pour rétablir la vérité, le droit de réponse existe, mais il est inefficace face à la viralité. La vraie question, c’est : qu’est-ce qui est vrai, qu’est-ce qui est faux, et comment je peux contraindre la diffusion de la vérité ?
Si on se concentre sur le travail, quels sont les principaux risques liés à l’IA et aux données personnelles en entreprise ?
Le premier risque, c’est la vulnérabilité. Dès que vous ouvrez un réseau, vous exposez vos données à des intrusions, du phishing, jusqu’à la désorganisation totale d’une entreprise. Le deuxième, c’est la culture du risque. Donneriez-vous vos codes bancaires à une personne qui vous les demande dans la rue ? La réponse est non. Mais sur internet, c’est une autre affaire. Les salariés ferment leur porte le matin, mais ne prennent aucune précaution sur Internet. Mots de passe faibles, documents sensibles traduits gratuitement en ligne… Tout cela met en péril la confidentialité et la propriété intellectuelle.
Enfin, il y a la tentation d’utiliser des IA génératives grand public, comme ChatGPT, pour traiter des données de travail. Or, tout ce que vous y mettez peut ressortir ailleurs. Dès qu’un service est gratuit, c’est qu’il y a un usage derrière.
Justement, quelles sont les demandes de vos clients sur ces sujets ?
Ils veulent d’abord des garanties : comment préserver la confidentialité des contrats ou des données de leurs propres clients ? Avec eux, nous négocions des clauses précises avec les plateformes et prestataires. Ensuite, il y a la propriété intellectuelle. Est-ce que ce qui est généré par l’IA m’appartient ? Le droit dit que seule une création de l’esprit est protégeable. Mais une production d’IA n’est pas une création humaine. On est donc dans une zone grise, qui peut être un véritable piège pour les entreprises.
Le droit arrive-t-il à suivre les évolutions technologiques ?
Nous patinons. Certes l’Europe légifère, mais l’IA est mondiale. Or, si un fournisseur n’est pas établi en Europe, il échappe à nos règles. Face aux GAFAM ou aux acteurs asiatiques, la régulation européenne a parfois l’air d’un vœu pieux. Il faut aussi être lucide, la norme coûte cher. Beaucoup d’entreprises préfèrent prendre un risque juridique plutôt que de perdre un marché.
Du côté des salariés et de l’intervention de prestataires tiers, observe-t-on aussi des batailles autour des données ?
Oui, via l’article 15 du RGPD. Les salariés demandent de plus en plus accès à toutes les données les concernant. C’est une arme contentieuse très puissante. Dans les enquêtes internes, par exemple, si les procédures ne sont pas parfaitement respectées, tout peut s’écrouler.
On voit aussi apparaître des tensions autour de la création : à qui appartient ce qui est produit avec l’aide d’outils IA, surtout dans des métiers créatifs ou collaboratifs où interviennent des tiers. L’entreprise doit absolument verrouiller ces points dans ses contrats.
Vous parlez de menaces futures, comme l’avènement du quantique. Pourquoi ?
L’informatique quantique va défier tous les systèmes actuels de cryptage, de création et d’appropriation des résultats. C’est un saut dans l’inconnu, il va falloir s’y adapter. Le droit n’est jamais totalement démuni mais il faudra trouver là encore les outils appropriés et sans doute une régulation idoine, sans toutefois freiner l’innovation.
Quel est selon vous le défi central posé par l’IA au travail ?
C’est un double défi : distinguer le vrai du faux, et maintenir notre libre arbitre. L’IA est un outil formidable, mais elle n’a ni compassion, ni empathie. Il ne faut pas se méprendre sur le terme « Intelligence » qui n’est pas celui que nous entendons au sens de raisonnement humain, mais l’acception de langue anglaise, « information gathering », pour « recoupement d’informations ». Un système algorithmique basé sur des probabilités et suites logiques peut « halluciner », c’est-à-dire se tromper. L’intelligence artificielle n’a pas de discernement, les résultats qu’elle propose ne sont pas des vérités. Nous devons former les collaborateurs des organisations publiques et privées, instaurer des process de protection, mais surtout développer une culture de vigilance et de prise de distance. À défaut, on peut commettre de lourdes erreurs d’appréciation, conduisant à des décisions pouvant s’avérer fatales.
Propos recueillis par Valérie Ravinet

Journaliste
Journaliste et autrice, Valérie explore les grands sujets de société à la croisée des sciences, de l’économie et du vivant. Numérique, intelligence…