J’ai récemment accepté de signer une lettre ouverte proposant un ralentissement du développement des systèmes d’IA géants plus puissants que GPT-4, ceux qui passent actuellement le test de Turing et peuvent donc tromper un être humain en lui faisant croire qu’il converse avec un autre être humain et non avec une machine.
J’ai trouvé pertinent de signer cette lettre afin d’alerter l’opinion publique quant au besoin de ralentir un développement semblant s’accélérer aux dépens du principe de précaution et de l’éthique. Il faut prendre le temps de mieux comprendre ces systèmes d’IA, de développer l’encadrement nécessaire aux niveaux national et international et d’augmenter la protection du public.
C’est bien parce qu’il y a une accélération – je n’aurais sans doute pas signé une telle lettre il y a un an – qu’il faut prendre du recul, et que mon opinion sur ces sujets a évolué.
Il est difficile de garantir que quelqu’un ne mettra pas au point, dans les prochaines années, des systèmes d’IA autonomes et dangereux ayant des comportements s’éloignant des objectifs et valeurs des êtres humains. Les risques à court et moyen termes (manipulation des opinions publiques à des fins politiques, notamment par la désinformation) sont faciles à envisager, les risques à plus long terme (systèmes d’IA nuisibles malgré les objectifs des programmeurs) le sont moins, mais il me paraît toutefois important de les étudier.
Avec l’arrivée de ChatGPT, nous avons constaté un tournant dans les attitudes des compagnies, pour lesquelles l’enjeu de compétition commerciale a été décuplé. Il existe un vrai risque qu’elles se précipitent vers ces systèmes d’IA géants en laissant de côté les bonnes habitudes de transparence et de science ouverte acquises au cours de la dernière décennie.
Il est urgent de réglementer ces systèmes, en visant plus de transparence et d’encadrement des systèmes d’IA pour protéger la société. Je pense, comme beaucoup, que les risques et l’incertitude ont atteint une ampleur qui demande un changement de cap.
Les sociétés prennent du temps à s’adapter aux changements, les lois prennent du temps à être votées et les encadrements réglementaires prennent du temps à être mis en place. Il me semble donc important de réveiller les consciences rapidement, de mettre cet enjeu sur plus d’écrans-radar, de favoriser un plus grand débat public.
Je le dis depuis des années et je le répète dans le cadre de cette lettre, qui se concentre sur la gouvernance des systèmes d’IA énormes, plus gros que GPT-4 : il est par contre essentiel d’investir des fonds publics dans le développement de systèmes d’IA visant les priorités sociétales souvent négligées par le secteur privé, telles que les recherches en santé ou pour mieux combattre les changements climatiques. De telles applications de l’IA sont beaucoup moins susceptibles d’être détournées à des fins néfastes pour la société, contrairement aux systèmes généralistes comme ChatGPT.
Nous devons stimuler les efforts des chercheurs, en particulier en sciences sociales et humaines, car les solutions impliquent non seulement un aspect technique, informatique, mais aussi et surtout des considérations sociales et humaines.
Il faut continuer à se battre pour le bien-être de l’humanité et pour le développement d’applications d’IA bénéfiques, comme celles pour affronter la crise climatique. Cela devra passer par des changements au niveau de chaque pays et par l’adoption de traités internationaux. Nous avons réussi à réglementer le nucléaire à l’échelle de la planète après la Seconde Guerre mondiale, nous pouvons atteindre un accord semblable pour l’IA.
Malgré ce que cette lettre peut laisser penser, je suis fondamentalement optimiste, et je suis convaincu que la technologie pourra nous aider à surmonter les grands défis de l’humanité. Cependant, pour y faire face, il nous faut dès maintenant réfléchir aux manières d’adapter nos sociétés, voire même les réinventer complètement.
Voici quelques questions fréquemment posées au sujet de la lettre ouverte. Les opinions exprimées dans le cadre des réponses ne sont pas nécessairement partagées par l’ensemble des signataires de celle-ci.
Pourquoi avoir signé cette lettre ouverte?
Nous avons passé un seuil critique, celui de machines qui peuvent converser avec nous et se faire passer pour des êtres humains. Cette capacité peut être détournée à des fins politiques au détriment de la démocratie. La mise au point d’outils de plus en plus puissants risque de mener à une concentration accrue du pouvoir. Que ce soit entre les mains de quelques personnes, quelques compagnies ou quelques pays, c’est un danger pour la démocratie (qui veut dire pouvoir au peuple, donc le contraire de la concentration du pouvoir), pour l’équilibre sécuritaire mondial (déjà fragile), et même pour le fonctionnement des marchés (qui ont besoin de compétition, pas de monopoles).
Le ton de la lettre n’est-il pas excessivement alarmiste?
Personne, pas même les plus grands experts en IA, y compris ceux qui ont mis au point ces modèles d’IA géants, ne peut être réellement sûr que des outils d’une telle puissance actuels ou à venir ne puissent être utilisés d’une manière catastrophique pour la société. La lettre ne prétend pas que GPT-4 va devenir autonome (ce qui serait techniquement faux) et menacer l’humanité. Ce qui est en revanche très dangereux (et probable), c’est ce que des humains mal intentionnés ou simplement inconscients des conséquences de leurs gestes pourraient faire avec ces outils et leurs descendants des prochaines années.
Cette lettre suffira-t-elle à convaincre les géants technologiques de ralentir?
Même si l’espoir est mince, il vaut la peine de lancer une discussion, et qu’elle inclut l’ensemble de la société. Car nous allons devoir faire des choix collectifs dans les prochaines années, notamment sur ce que nous voulons faire avec les outils puissants que nous mettons au point. Je suspecte même que plusieurs dans ces compagnies espèrent une réglementation qui égalise le terrain de jeu : depuis ChatGPT, les joueurs les moins prudents ont en effet un avantage compétitif et peuvent donc plus facilement prendre les devants.
Six mois de pause sont-ils suffisants? Cet effort n’est-il pas futile?
On pourrait dire la même chose de nos efforts pour combattre les changements climatiques. Un grand dommage a déjà été fait à l’environnement, l’inertie de notre tissu industriel est tenace (sans parler des lobbys), et les efforts des scientifiques et des activistes du climat pour faire dévier notre trajectoire collective ne semblent pas fonctionner. Devons-nous baisser les bras pour autant? Certainement pas. Il y a toujours moyen de faire mieux, de réduire les dommages futurs, et chaque pas dans le bon sens peut être utile.
Les peurs liées aux systèmes d’IA ne relèvent-elles pas de la science-fiction?
Il existe déjà toute une littérature qui documente des dommages actuels que la règlementation aiderait à minimiser, qu’il s’agisse d’atteintes à la dignité humaine (discrimination et biais) ou de l’utilisation militaire de l’IA (des drones autonomes qui peuvent tuer) etc.
Devrait-on arrêter tout développement de systèmes d’IA?
Ce n’est pas ce que dit la lettre, elle parle uniquement des systèmes qui ne sont pas encore développés et qui seront plus puissants que GPT-4. Néanmoins, il me semble évident qu’il faut accepter un certain ralentissement du progrès technologique pour assurer une plus grande sécurité et protéger le bien-être collectif. La société a mis en place des réglementations puissantes pour la chimie, pour l’aviation, pour les médicaments, pour les voitures, etc. L’informatique, qui a maintenant une influence énorme sur de nombreux domaines dans nos sociétés, me paraît mériter des considérations semblables.
Pourquoi avoir cosigné une lettre avec des personnes ayant des positions politiques opposées aux vôtres?
Il s’agit d’une lettre ouverte sur un sujet précis. En la signant, on ne devient pas solidaire de toutes les autres déclarations des signataires. Sur l’enjeu des risques existentiels et à long terme pour l’humanité, je ne suis pas aligné avec beaucoup des choses qui se sont écrites sur ce sujet (« long-termism »). Bien sûr, les risques à long terme sont importants – et c’est d’ailleurs la raison pour laquelle je milite afin qu’on agisse mieux concernant le climat. Mais il faut pondérer ces risques par la probabilité qu’ils se concrétisent, et plus l’horizon est lointain, plus ces risques sont incertains. En comparaison, les dommages causés aux êtres humains qui sont aujourd’hui vivants ne doivent donc pas être mis de côté, car ces risques à plus court terme sont beaucoup plus tangibles. Je pense donc qu’il faut considérer tous les risques, en fonction de la magnitude de leur impact et de leur probabilité estimée, ce qui inclut des risques à différents horizons de temps. Et qu’il faut utiliser la raison et la science pour évaluer tout cela, sans laisser de côté notre empathie pour les êtres de chair et de sang qui souffrent aujourd’hui.
La société est-elle prête à faire face à l’arrivée de ces nouvelles technologies extrêmement puissantes?
L’humanité fait face à plusieurs crises globales susceptibles de s’aggraver : en santé publique, en environnement, en sécurité et stabilité militaire et politique, concernant les inégalités et injustices et, bien sûr, les risques suscités par un développement incontrôlé de l’IA. Je doute que l’organisation actuelle de notre société, aux niveaux national et planétaire, soit adéquate pour faire face à ces défis. À court terme, la réglementation me semble essentielle. Je souhaite qu’elle soit suffisante à long terme, mais il faut dès maintenant envisager l’éventualité que l’organisation sociale qui a fonctionné dans le dernier siècle ne soit plus adaptée à ces crises d’ampleur mondiale.