Partager:
Lors du RTL info 19h de ce jeudi, Luc Gilson a reçu un invité très particulier : le clone de Caroline Fontenoy, créé par l’intelligence artificielle.
Durant la séquence, la présentatrice (ou plutôt son double) s’est mise notamment à parler des langues que la Caroline Fontenoy originelle ne maîtrise pas telles que l’espagnol ou le chinois.
Si l’expérience, qui avait vocation à montrer les possibilités de l’IA générative, s’est bien déroulée, les appréhensions étaient présentes dès le début : « Au tout début de l’expérience, je me suis dit : ‘Est-ce que je ne mets pas le doigt dans un engrenage dangereux’ parce qu’une fois que ton image est partie, c’est un peu flippant. On se demande si on n’est pas dépossédé de son image », raconte Caroline Fontenoy.
Et la présentatrice d’ajouter : « Au fur et à mesure du processus, je me suis rendu compte que l’IA n’est pas si intelligente que ça et qu’on a toujours la main dessus. Tout ce qui a servi à créer mon avatar, c’est nous qui l’avons injecté. J’ai donné mon image, les textes, etc. Nous étions toujours derrière au niveau du processus. »
D’autant que si les avatars créés par l’IA peuvent être très performants, ils n’en restent pas moins des machines. « Dans mon rôle de présentatrice, il y a une chose que l’IA ne peut pas faire, c’est gérer l’imprévisible. Par exemple quand il y a des soucis à l’antenne et qu’il faut improviser. Elle n’est pas capable d’empathie, de compréhension et de tout ce qui est très humain. Ça m’a complètement rassurée. Je ne pense pas que mon avatar risque de me remplacer de sitôt, dans cet exercice en tout cas. »
Un travail long et minutieux
Pour arriver à ce résultat, il a fallu un long travail préparatoire aux équipes de RTL info. D’abord, une fois l’accord de Caroline acté, il faut donner de la matière à l’IA pour qu’elle puisse générer l’avatar.
Lorsque la machine a ingéré les images, il faut procéder à une reconnaissance de Caroline afin que la machine soit sûre qu’elle donne son accord. Viennent ensuite les autres directives et le texte que l’avatar doit réciter.
Après quelques essais, le résultat est convaincant, tel que vous pouvez le voir dans la vidéo ci-dessus.
Pas de risque de dérive
À travers cette expérience, la rédaction de RTL info souhaitait avertir son public des risques de tromperie. Sur les réseaux sociaux notamment, le nombre de contenus générés par l’intelligence artificielle explose et il est de plus en plus difficile de le repérer.
Si les journalistes de la rédaction s’aident de l’IA pour certaines tâches, elle ne remplacera jamais les présentateurs, assure Philippe Roussel, le chef de l’information : « Il faut permettre son utilisation par les journalistes pour la recherche d’informations ainsi que pour la rapidité de la diffusion et ne pas l’utiliser pour la présentation d’un journal parce qu’un avatar ne peut pas remplacer un humain. Un présentateur humain est plus réactif, plus sensible et comprend mieux l’information. »
RTL info rappelle donc à tous d’être plus vigilant que jamais sur internet, et assure que l’information délivrée par nos médias sera toujours digne confiance, faite par des humains pour des humains.

















