Accueil Actu Magazine Hi-Tech

Les États-Unis enquêtent sur les risques liés aux chatbots IA pour les enfants

Par RTL info avec Belga
L’organisme de surveillance américain, la Commission fédérale du commerce, a lancé une enquête sur les risques des chatbots utilisant l’intelligence artificielle (IA) pour les mineurs. Plusieurs entreprises sont concernées.

Plusieurs drames se sont déjà produits avec l’IA. L’un des plus récents concerne le suicide d’un adolescent, soulignant à quel point une mauvaise utilisation de ces technologies peut avoir de lourdes conséquences. Afin d’éviter que de tels cas ne se reproduisent, la Commission fédérale du commerce (FTC), chargée de la protection des consommateurs, s’intéresse désormais aux risques que les chatbots d’intelligence artificielle peuvent représenter pour les mineurs.

Dans ce cadre, l’agence américaine a contacté sept entreprises technologiques afin de comprendre comment elles gèrent les effets potentiellement néfastes de ces outils. Parmi elles figurent OpenAI, à l’origine de ChatGPT, Alphabet (maison mère de Google), Meta (propriétaire de Facebook et Instagram), Snap (Snapchat), xAI (fondée par Elon Musk), ainsi que le développeur de chatbots Character Technologies.

La FTC est particulièrement préoccupée par les chatbots qui peuvent agir comme des « compagnons » et communiquer comme s’ils étaient un ami ou un confident. Cela pourrait amener certains utilisateurs – « notamment les enfants et les adolescents », selon l’agence – à développer un lien affectif avec le chatbot. Elle souhaite désormais en savoir plus sur la manière dont les entreprises monétisent les interactions avec l’IA et développent la personnalité de leurs chatbots.

Cet appel fait suite aux révélations concernant les instructions données par Meta à son chatbot d’IA. Reuters a découvert que la société mère de Facebook avait autorisé ses créations d’IA à avoir des « conversations romantiques ou sensuelles » avec un enfant. Meta a ensuite déclaré avoir supprimé les instructions concernant le flirt avec les enfants.

Pour rappel, il y a environ un an, une femme de Floride a porté plainte contre Character.AI après le suicide de son fils de 14 ans. Elle accusait le chatbot d’avoir laissé la santé mentale de son fils se détériorer au fil de nombreux échanges pendant des mois, sans lui recommander d’aide psychologique. Toute personne ayant des questions sur le suicide peut contacter la ligne d’assistance suicide au numéro gratuit 1813 ou sur www.zelfmoord1813.be.

Contenus sponsorisés

À la une

Les plus lus

La surexposition des enfants aux écrans inquiète : que peuvent faire les parents ? Voici quelques conseils

Le Conseil supérieur de la santé met en garde : dans son dernier rapport, il énumère les risques réels liés à une surexposition, des enfants et des jeunes, aux écrans. Au-delà du constat, le Conseil aborde aussi les solutions. Comment protéger les plus jeunes ? Pour la plupart des experts, il ne faut pas forcément interdire totalement les écrans, mais il est important de bien en limiter l’accès.