Les Engagements en matière d’IA de la Maison Blanche : Analyse et Perspectives

Cette semaine, la Maison Blanche a annoncé avoir obtenu des « engagements volontaires » de sept grandes entreprises d’intelligence artificielle pour gérer les risques posés par l’intelligence artificielle. Les entreprises concernées sont Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI. Cette avancée est significative, car ces entreprises sont des concurrentes acharnées ayant des approches subtiles mais importantes dans la manière dont elles abordent la recherche et le développement de l’intelligence artificielle.

Des engagements à clarifier

Cependant, que signifient réellement ces engagements ? Et vont-ils réellement changer la manière dont les entreprises d’intelligence artificielle opèrent, étant donné qu’ils ne sont pas appuyés par la force de la loi ?
L’un des engagements concerne le test de sécurité, souvent appelé « red-teaming », des systèmes d’intelligence artificielle avant leur mise en service. Chacune de ces entreprises effectue déjà des tests de sécurité de ses modèles avant leur sortie. Cependant, les détails de ces tests restent vagues et ne sont pas clairement spécifiés dans les engagements.

La nécessité de tests de sécurité standardisés

Pour améliorer la transparence et l’efficacité des tests de sécurité, il serait souhaitable que l’industrie de l’intelligence artificielle s’accorde sur un ensemble standard de tests de sécurité. Par exemple, le Centre de Recherche sur l’Alignement effectue des tests de « réplication autonome » sur les modèles pré-lancés d’OpenAI et d’Anthropic. Ces tests pourraient être soutenus financièrement par le gouvernement fédéral pour éviter tout conflit d’intérêts évident. Actuellement, de nombreux tests de sécurité sont financés et supervisés par les entreprises elles-mêmes, soulevant ainsi des questions de conflit d’intérêts.

Un équilibre délicat dans le partage d’informations

Un autre engagement concerne le partage d’informations sur la gestion des risques de l’intelligence artificielle avec les gouvernements, la société civile et le milieu universitaire. Si certains de ces acteurs publient déjà des informations sur leurs modèles d’intelligence artificielle, ils ont également retenu des informations par souci de sécurité. Par exemple, lorsqu’OpenAI a lancé son dernier modèle d’intelligence artificielle, GPT-4, cette année-là, il a choisi de ne pas divulguer la quantité de données sur lesquelles il était formé ni la taille du modèle. Cela s’expliquait par des préoccupations liées à la concurrence et à la sécurité. Cependant, le partage de telles informations pourrait accélérer la course à l’armement en matière d’intelligence artificielle.

Protection des informations sensibles

L’engagement visant à investir dans la cybersécurité et les protections contre les menaces internes pour protéger les « poids de modèle » propriétaires et non publiés est largement accepté par les experts de l’intelligence artificielle. Les poids de modèle sont les instructions mathématiques qui permettent aux modèles d’intelligence artificielle de fonctionner. Ils sont extrêmement précieux et doivent être protégés pour éviter tout vol ou accès non autorisé.

Soutenir la détection et la signalisation des vulnérabilités

L’un des engagements, qui consiste à faciliter la découverte et le signalement par des tiers des vulnérabilités dans leurs systèmes d’intelligence artificielle, soulève encore des questions. Chaque entreprise d’intelligence artificielle découvre souvent des vulnérabilités dans ses modèles après leur sortie, lorsque les utilisateurs tentent de contourner les dispositifs de sécurité. Cependant, les détails sur la manière dont les entreprises mettront en place un mécanisme robuste pour signaler ces vulnérabilités restent à définir.

Transparence dans les contenus générés par l’A.I.

L’un des engagements vise à développer des mécanismes techniques robustes pour informer les utilisateurs lorsque le contenu est généré par l’intelligence artificielle. Cela pourrait inclure des systèmes de tatouage numérique ou de marquage de l’A.I. sur le contenu généré. Cependant, cette tâche s’avère difficile, car il est souvent compliqué de déterminer si un contenu a été généré par l’intelligence artificielle ou créé par un humain.

La nécessité de décrire les capacités et les limitations

L’un des engagements consiste à rapporter publiquement les capacités et les limites des systèmes d’intelligence artificielle. Cependant, il est difficile de déterminer à quelle fréquence les entreprises devraient le faire et à quel niveau de détail. Les capacités des systèmes d’intelligence artificielle peuvent parfois surprendre même les entreprises qui les développent, rendant la tâche de description préalable complexe.

Les risques sociétaux pris en compte

Enfin, l’engagement de prioriser la recherche sur les risques sociétaux que les systèmes d’intelligence artificielle peuvent poser, tels que les biais et la discrimination, est salué par la communauté de l’éthique de l’intelligence artificielle. Cela permet de se concentrer sur la prévention des préjudices à court terme plutôt que de se focaliser uniquement sur les scénarios catastrophiques liés à l’intelligence artificielle.

Conclusion

En somme, l’accord entre la Maison Blanche et les entreprises d’intelligence artificielle semble plus symbolique que substantiel. Cependant, c’est un premier pas raisonnable vers une meilleure régulation de l’intelligence artificielle. Bien qu’il n’y ait pas de mécanisme d’application pour s’assurer que les entreprises respectent ces engagements, cela montre que ces entreprises ont tiré les leçons des échecs des entreprises technologiques antérieures. À Washington, il est préférable de s’engager tôt lorsqu’il s’agit de réglementer la technologie.

Check Also

La Russie recrute des gangs criminels amateurs : une opération d’espionnage digne d’un film d’action

Introduction Imaginez un instant une mission digne de James Bond, mais avec des criminels amateurs …

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *