Press "Enter" to skip to content

Le Rapport scientifique international sur la sécurité de l’IA avancée

En novembre 2023, j’ai été chargé de présider le rapport scientifique international sur la sécurité de l’IA avancée dans le cadre d’un mandat international faisant suite à une résolution prise par 30 pays, ainsi que par des représentants de l’UE et de l’ONU, lors du sommet britannique sur la sécurité de l’IA à Bletchley Park. Ce document synthétise les faits et les arguments scientifiques relatifs à la sécurité des systèmes d’IA à usage général actuels et de ceux que l’on envisage pour le futur. Inspiré par le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC), il réunit un panel d’experts issus de 30 pays, ainsi que des représentants de l’UE et de l’ONU, et se penche sur les répercussions que pourrait avoir l’IA si les gouvernements et la société plus largement ne parvenaient pas à améliorer leur collaboration en matière de sécurité de l’IA. Nous venons d’achever un rapport intérimaire qui a été présenté lors du sommet de Séoul sur l’IA le 22 mai 2024. La version finale sera présentée lors du « Sommet pour l’action de l’IA » qui se tiendra en France en février prochain. Le rapport intérimaire a été rédigé grâce aux contributions de plus de 70 experts, dont les 32 experts nommés par les pays et 26 conseillers principaux, avec une grande diversité de points de vue et d’expériences, ainsi qu’une équipe fantastique de collaborateurs dévoués et un secrétariat incroyablement bien organisé, agile et réfléchi. Ce document se concentre sur l’IA à usage général ayant une grande variété d’applications et adopte un point de vue large sur la sécurité de l’IA, couvrant des questions telles que les biais et les réponses toxiques, les menaces pour les processus démocratiques (désinformation) ainsi que les préoccupations liées à la sécurité nationale, la déstabilisation économique, l’environnement et la perte de contrôle. Il synthétise la littérature scientifique (avec 40 pages de citations) mais, comme demandé, il ne formule pas de recommandations politiques. Il met en évidence les incertitudes et les désaccords qui existent au sein de la communauté scientifique, ce qui devrait inciter à poursuivre les recherches afin de réduire l’incertitude quant aux répercussions futures potentiellement importantes.

Voici quelques-uns des principaux points à retenir :

  • L’IA à usage général peut être utilisée de manière très bénéfique si elle est correctement encadrée, mais elle comporte aussi des risques :
    • Risque d’utilisation malveillante : escroqueries, hypertrucages, désinformation, cyberattaques, bioattaques
    • Risque de dysfonctionnement : problèmes de sécurité des produits, biais, perte de contrôle
    • Risque systémique : marché du travail, « fracture numérique de l’IA », concentration du marché, impacts environnementaux, entraves à la vie privée, droits d’auteur.

Plusieurs facteurs de risque techniques et sociétaux sous-tendent ces risques, ce qui fait de l’étude de la sécurité de l’IA un effort sociotechnique et fondamentalement multidisciplinaire.

  • Il y a une grande incertitude quant au rythme des progrès futurs. Les tendances montrent une augmentation constante de l’efficacité des différents systèmes d’IA dans de nombreux domaines, en particulier à mesure que la taille des réseaux neuronaux et de leurs ensembles d’apprentissage augmente, mais aussi en raison de nombreuses avancées algorithmiques qui sont propulsées par les investissements croissants en IA. Toutefois, ces tendances pourraient se stabiliser à tout moment ou s’accélérer si l’IA devait devenir un outil permettant d’accélérer la recherche sur l’IA.
  • Il existe des méthodes techniques pour réduire les risques, mais elles ont toutes des limites. Les méthodes permettant de détecter et d’évaluer les capacités potentiellement dangereuses constituent notamment une première ligne de défense importante pour atténuer les risques imprévus, mais un grand nombre d’approches sont actuellement étudiées, avec différents délais anticipés pour livrer des résultats et des niveaux d’assurance de sécurité variés.
  • Une meilleure compréhension de l’IA à usage général est nécessaire, tant au niveau technique (comment les systèmes actuels produisent leurs résultats et ce qui peut donner lieu à des comportements dangereux, par exemple) qu’au niveau systémique, car les systèmes d’IA seront de plus en plus déployés dans la société.
  • Les décisions des sociétés et des décideurs politiques façonneront la trajectoire de l’IA, et nous devrions tirer parti de notre pouvoir collectif pour y contribuer dès que possible, compte tenu de l’incertitude concernant le moment où les systèmes d’IA de niveau humain (souvent nommés AGI en anglais) verront le jour et des répercussions potentielles majeures associées aux différents risques mentionnés ci-dessus.

J’encourage toutes les personnes qui découvrent le domaine de la sécurité de l’IA ou qui souhaitent se mettre à niveau sur ces nombreux sujets à consulter le rapport, qui se trouve ici (ressource uniquement disponible en anglais).