Les géants de l’IA réfléchissent à apposer des filigranes sur les contenus générés par IA. Une méthode encore loin de faire ses preuves.
L’IA et les Contenus Générés : Un Défi en Évolution
Alors que l’intelligence artificielle continue de proliférer, générant une quantité exponentielle de données, se pose un défi crucial : comment garantir la sécurité et l’éthique des contenus produits par IA ? Les principaux acteurs de l’industrie technologique, dont Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI, ont récemment été convoqués à la Maison Blanche pour discuter de ces préoccupations. Parmi les mesures évoquées, le marquage par filigrane, ou “watermark” en anglais, a été mis en avant comme une solution potentielle.
Les Filigranes Numériques : Une Quête de l’Identification
Les filigranes numériques, souvent invisibles à l’œil nu, servent à identifier les contenus générés par l’intelligence artificielle. Ces techniques s’avèrent relativement efficaces dans le domaine audiovisuel, notamment pour la génération d’images ou de vidéos. Cependant, quand il s’agit de textes générés par IA, les défis se multiplient. La nature du support textuel ne permet pas d’apposer un filigrane permanent facilement reconnaissable. Cela soulève une question cruciale : peut-on réellement garantir la fiabilité à 100 % de ces filigranes ?
Les Limitations des Méthodes Actuelles
Plusieurs techniques ont été expérimentées pour marquer numériquement les textes générés par des IA, mais elles présentent des vulnérabilités. Par exemple, en jouant sur le codage de caractères, en modifiant subtilement l’espacement de la police ou en manipulant l’espacement interligne, on peut essayer d’insérer des filigranes. De même, la méthode de la parité, qui impose un nombre de mots pairs ou impairs par ligne, est une approche invisible. On peut également ajouter des espaces supplémentaires à des endroits spécifiques ou altérer le codage ASCII ou Unicode des lettres en ajoutant des bits. Cependant, toutes ces méthodes partagent une vulnérabilité commune : elles reposent sur la norme ASCII, vieille de 60 ans, et peuvent être contournées par des utilisateurs disposant de connaissances de base en édition de texte.
Les Défis des Détecteurs d’IA
Pour surmonter ces vulnérabilités, les géants de l’IA ont commencé à développer des outils de détection de textes générés par IA, basés sur des modèles probabilistes. Par exemple, OpenAI a lancé son propre outil appelé “Classifier”. Cependant, ces outils rencontrent également des défis importants. Ils se basent souvent sur l’analyse du vocabulaire utilisé, la fréquence de certains mots, ou la récurrence de certaines tournures de phrases. Cela peut entraîner des erreurs, notamment en classant à tort des textes non natifs en anglais comme étant générés par IA. Cette complexité dans la détection soulève des questions d’équité et de précision.
L’Évolution des Modèles d’IA
Avec l’augmentation constante du nombre de paramètres utilisés pour entraîner les modèles d’intelligence artificielle, la qualité des textes générés par IA s’améliore progressivement. Cette amélioration constante rend la détection des textes générés par IA encore plus complexe. Les premières générations de modèles IA produisaient des textes de qualité médiocre, mais les modèles actuels sont nettement plus performants, et cette tendance à l’amélioration devrait se poursuivre.
Vers de Nouvelles Solutions
Face à ces défis, les experts cherchent des solutions alternatives. Didier Gaultier, directeur du département Data Science & IA chez Orange Business, propose de s’orienter vers l’authentification des textes produits par des humains plutôt que de chercher à marquer les textes générés par IA. Cette approche consisterait à mettre en place des systèmes de signature pour certifier l’origine humaine des contenus.
Scott Cadzow, président du groupe Securing AI à l’Institut européen des normes de télécommunications, préconise quant à lui un renforcement de l’éducation, de l’école à l’entreprise. Selon lui, les élèves devraient apprendre à utiliser l’IA de manière éthique et efficace, tandis que les enseignants devraient être formés pour reconnaître les signes d’utilisation frauduleuse de l’IA. Il souligne également l’importance d’une société plus critique vis-à-vis de l’usage de l’IA, mettant l’accent sur la responsabilité individuelle.
Conclusion
Le marquage des contenus générés par l’IA demeure un défi complexe et en constante évolution. Les filigranes numériques, bien que prometteurs, ne sont pas encore infaillibles, et les détecteurs d’IA actuels rencontrent des limitations importantes. Les pistes alternatives, telles que l’authentification des textes humains et l’éducation à l’utilisation responsable de l’IA, se profilent comme des avenues potentielles pour relever ce défi croissant.