Réorganisation et départ de dirigeants clés
Le PDG d’OpenAI, Sam Altman, a déclaré qu’OpenAI travaillait avec l’Institut américain de sécurité de l’IA, sur un accord visant à fournir un accès anticipé à son prochain grand modèle d’IA générative pour les tests de sécurité. L’annonce n’était pas très détaillée. Mais elle semble être destinée à contrer l’idée selon laquelle l’OpenAI a dépriorisé le travail sur la sécurité de l’IA dans la poursuite de technologies d’IA générative plus performantes et plus puissantes.
En mai, l’OpenAI a effectivement démantelé une unité travaillant sur le problème du développement de contrôles visant à empêcher les systèmes d’IA superintelligents de se comporter de manière malhonnête. Des rapports ont suggéré qu’OpenAI avait mis de côté la recherche sur la sécurité de l’équipe au profit du lancement de nouveaux produits, ce qui a conduit à la démission des deux co-responsables de l’équipe, Jan Leike et le cofondateur d’OpenAI Ilya Sutskever.
En réponse à un nombre croissant de critiques, OpenAI a déclaré qu’elle supprimerait ses clauses restrictives de non-dénonciation qui décourageaient implicitement les dénonciations, qu’elle créerait une commission de la sécurité et qu’elle consacrerait 20% de ses ressources informatiques à la recherche sur la sécurité. M. Altman s’est à nouveau engagé à respecter la promesse des 20% et a réaffirmé qu’OpenAI avait annulé les conditions de non-discrimination pour les nouveaux employés et les employés existants en mai.
Réactions et défis persistants
Ces mesures n’ont toutefois guère apaisé certains observateurs. En particulier après qu’OpenAI a doté la commission de sécurité de tous les membres de l’entreprise, y compris M. Altman, et, plus récemment, a réaffecté un haut responsable de la sécurité de l’IA à une autre organisation.
Le timing de l’accord d’OpenAI avec l’Institut américain de sécurité de l’IA semble un peu suspect à la lumière de l’approbation par l’entreprise, plus tôt cette semaine, du Future of Innovation Act, une proposition de loi du Sénat qui autoriserait l’Institut de sécurité en tant qu’organe exécutif chargé d’établir des normes et des lignes directrices pour les modèles d’IA. L’ensemble de ces démarches pourrait être perçu comme une tentative de capture réglementaire ou, à tout le moins, comme un exercice d’influence de l’OpenAI sur l’élaboration des politiques en matière d’IA au niveau fédéral.
Collaboration avec des géants de la technologie
Ce n’est pas pour rien qu’Altman fait partie du Conseil de sécurité et de sûreté de l’intelligence artificielle du ministère américain de la sécurité intérieure, qui fournit des recommandations pour « le développement et le déploiement sûrs et sécurisés de l’IA » dans les infrastructures critiques des États-Unis. Et OpenAI a considérablement augmenté ses dépenses en lobbying fédéral cette année, dépensant 800 000 dollars au cours des six premiers mois de 2024 contre 260 000 dollars pour toute l’année 2023.
L’Institut américain de sécurité de l’IA, hébergé au sein de l’Institut national des normes et de la technologie du ministère du Commerce, consulte un consortium d’entreprises qui comprend Anthropic ainsi que de grandes entreprises technologiques comme Google, Microsoft, Meta, Apple, Amazon et Nvidia. Le groupe industriel est chargé de travailler sur les actions décrites dans le décret sur l’IA pris en octobre par le président Joe Biden, notamment l’élaboration de lignes directrices pour les équipes d’experts en IA, l’évaluation des capacités, la gestion des risques, la sûreté et la sécurité, ainsi que le filigrane des contenus synthétiques.