Partager:
Instagram informera désormais les parents si leur adolescent effectue, sur une courte période, des recherches répétées utilisant des termes liés au suicide ou à l’automutilation, a annoncé jeudi Meta, la maison-mère de la plateforme.
Ces notifications ne concernent que les parents ayant activé la fonction de surveillance sur l’application. L’alerte pourra être envoyée via Instagram, par e-mail, SMS ou via WhatsApp (également propriété de Meta). Le message fournira des détails sur le comportement de recherche de l’adolescent et proposera des ressources d’experts pour aider les parents à entamer le dialogue avec leur enfant.
Pas encore déployé en Belgique… pour le moment
Le déploiement de cette fonctionnalité débutera la semaine prochaine aux États-Unis, au Royaume-Uni, en Australie et au Canada. D’autres régions suivront plus tard dans le courant de l’année, a précisé le groupe technologique.
« Notre objectif est de permettre aux parents d’intervenir si le comportement de recherche de leur adolescent indique qu’il pourrait avoir besoin d’aide », a souligné Meta.
Instagram a rappelé sa politique de modération : les contenus glorifiant le suicide ou l’automutilation sont systématiquement bloqués. Si les utilisateurs sont autorisés à discuter de leurs difficultés psychologiques, ces contenus sont masqués pour les adolescents. La plateforme bloque également les termes de recherche explicitement liés à ces dangers : « Cela signifie que nous n’affichons aucun résultat et renvoyons plutôt les gens vers des ressources et des organisations locales capables d’aider ».
Enfin, Meta a indiqué travailler sur des systèmes d’alerte similaires pour ses fonctionnalités d’intelligence artificielle, spécifiquement lorsque des adolescents tentent d’aborder des sujets liés au suicide ou à l’automutilation avec des chatbots IA.



















