Partager:
Geoffrey Hinton, considéré comme l'un des pères fondateurs de l'intelligence artificielle (IA), a exhorté mercredi les gouvernements à agir pour s'assurer que cette technologie de pointe ne prenne pas le contrôle de la société.
Cet ingénieur a fait parler de lui en mai lorsqu'il a démissionné de son poste chez Google pour "pouvoir parler des dangers de l'IA" plus librement, quelques mois après le lancement très remarqué d'une nouvelle version de ChatGPT, logiciel d'IA génératrice de contenus.
L'expert s'exprimait mercredi devant une audience fournie lors de la conférence technologique Collision de Toronto, qui rassemble plus de 30.000 entrepreneurs, investisseurs et professionnels du milieu, pour la plupart intéressés par cette innovation et peu disposés à écouter les mises en garde à son sujet.
"Avant que l'IA ne devienne plus intelligente que nous, je pense que les personnes qui la développent devraient être incitées à s'acharner à comprendre comment elle pourrait essayer de prendre le contrôle", a déclaré Geoffrey Hinton.
"A l'heure actuelle, pour 99 personnes très intelligentes qui essaient d'améliorer l'IA, il y en a seulement une qui essaie de trouver comment l'empêcher de prendre le pouvoir", a-t-il regretté, plaidant une nouvelle fois pour une prise en compte sérieuse des risques soulevés par cette technologie.
"Il faut que les gens comprennent que ce n'est pas de la science-fiction, que ce n'est pas juste pour faire peur", a-t-il insisté. "C'est un risque réel que nous devons avoir en tête, et il faut que nous déterminions à l'avance comment le gérer."
Pour l'ingénieur, l'intelligence artificielle laisse aussi craindre un creusement des inégalités.
"La richesse (produite) n'ira pas aux personnes qui travaillent, elle servira à rendre les riches encore plus riches, et les pauvres encore plus pauvres", a-t-il dit.
Geoffrey Hinton a enfin pointé le danger que représentent les fausses informations créées par des logiciels génératifs du type ChatGPT.
C'est la raison pour laquelle il appelle, tout en reconnaissant ne pas savoir "si c'est possible techniquement", à un marquage automatique des contenus conçus à l'aide de cette technologie, un peu comme le font les banques centrales avec les billets.