Press "Enter" to skip to content

Super-intelligence: futurologie vs science?

On rencontre parfois des titres accrocheurs qui peuvent nous effrayer ou nous enthousiasmer concernant l’IA, comme par exemple 

“D’ici le milieu du siècle, l’intelligence artificielle sera un milliard de fois plus intelligente que le cerveau humain.”

“L’intelligence artificielle pourrait dépasser le cerveau humain d’ici 2029” (La Presse du 23 janvier 2022), 

ou bien, du même article:

 « Nous ne vivrons pas 100 ans de progrès en IA au cours du prochain siècle : nous vivrons plutôt 20 000 ans de progrès au rythme actuel, écrit Mo Gawdat.”

En réalité, les meilleurs chercheurs en IA ne peuvent sérieusement faire de telles prédictions, à moins de les voir comme des éléments d’un film de science-fiction. Non seulement il n’y a pas de consensus entre les chercheurs en IA concernant le rythme futur des avancées de l’IA, mais il n’y a pas non plus de base scientifique pour faire de telles prédictions. La recherche scientifique peut stagner pendant longtemps sur certains problèmes (par exemple l’unification de toutes les forces en physique) ou bien faire des progrès rapides après une percée (par exemple celle de l’apprentissage profond). 

Plus ce genre de prédiction a l’air précis, et plus il faut donc s’en méfier. Pourquoi pas annoncer la date précise de la super-intelligence, un peu comme le faisait Nostradamus? Certains l’ont fait, mais leur crédibilité scientifique en a pris un coup. Monsieur Gawdat cité dans cet article était directeur commercial à Google, ce qui ne me semble pas suffisant pour avoir un avis solide sur la question, une question tellement difficile qu’il ne suffirait pas de l’avis d’un seul expert pour se fier à de telles projections.

Au-delà de l’esbroufe, il y a des choses qualitatives que l’on peut dire avec beaucoup plus de confiance:

  • Il n’y a pas de raison de croire qu’on ne pourra pas construire des IAs au moins aussi intelligentes que nous, parce que notre cerveau est une machine complexe dont on comprend de mieux en mieux le fonctionnement, et que nous sommes la preuve vivante qu’un certain niveau d’intelligence est possible.
  • Les humains souffrant parfois de biais cognitifs qui nuisent à leur raisonnement (mais qui ont pu aider nos ancêtres au cours de l’évolution menant à homo sapiens), on peut raisonnablement supposer qu’on pourra construire des IAs qui n’auront pas autant de ces failles (par exemple le besoin de statut social, d’égo, ou d’identification à un groupe, avec l’acceptation sans les remettre en question des croyances du groupe). De plus, elles auront accès à plus de données et de mémoire. On peut donc affirmer avec confiance qu’il sera possible de construire des IAs plus intelligentes que nous. 
  • Par contre, il est loin d’être sûr qu’on pourra construire des IAs énormément plus intelligentes comme nous, comme le prétend l’article. Toutes sortes de phénomènes computationnels font face à un mur exponentiel de difficulté (les fameux calculs NP-durs) et on ne sait pas quelles sont les limites de l’intelligence.
  • Plus la science de l’intelligence (humaine et artificielle) progresse, et plus cela est à la fois un potentiel de grands bénéfices et de grands dangers pour la société. Il est vraisemblables qu’il y aura de plus en plus d’applications de l’IA (qui pourraient même faire grandement progresser les sciences et la technologie en général), mais la puissance d’un outil est une arme à double tranchant, et comme le dit l’article de La Presse, il est essentiel de mettre en place les lois, règlements et normes sociales visant à éviter ou tout au moins réduire les abus de ces outils. 
  • Pour éviter que des humains aveuglés par leur désir de pouvoir, d’argent ou de vengeance utilisent ces outils au détriment des autres humains, il faudra sans doute non seulement changer les lois et inculquer la compassion aux machines (comme le suggère l’article) mais aussi renforcer celle qui peut naturellement exister chez l’humain.
  • Comme on ne sait pas vraiment à quelle vitesse les avancées technologiques en IA ou ailleurs (par exemple en biotechnologie) vont arriver, il vaut mieux s’atteler tout de suite à la tâche de réglementer mieux ce genre d’outils puissants. En fait, il y a déjà des utilisations néfastes de l’IA, que ça soit volontairement comme dans le militaire (drones tueurs capables de reconnaître le visage de quelqu’un et de tirer sur la personne) ou involontairement comme avec les systèmes d’IA qui prennent des décisions biaisées et qui peuvent discriminer les femmes ou les personnes racisées, par exemple. L’informatique en général est très peu réglementée mais il faut changer cela: il ne faut pas attendre pour réglementer ces nouvelles technologies, comme on l’a fait pour l’aéronautique ou la chimie, par exemple, pour protéger les personnes et la société.
  • Par ailleurs, il faudrait encourager les applications de l’IA qui sont clairement bénéfiques pour la société, que ça soit en santé, pour lutter contre les changements climatiques, l’injustice ou augmenter l’accès aux connaissances et à l’éducation.  Dans tous ces domaines, les gouvernements ont un rôle essentiel à jouer pour diriger les forces vives de la recherche et de l’entreprenariat en IA vers ces domaines bénéfiques pour la société mais où l’appât du gain n’est pas toujours suffisant pour stimuler les investissements nécessaires.