Partager:
Meta va modifier son traitement des messages problématiques publiés par des personnalités sur Facebook et Instagram après les reproches émis par son conseil de surveillance, sans toutefois appliquer certaines recommandations clés concernant la transparence, selon un communiqué publié vendredi.
L'entreprise retire habituellement rapidement les messages ou images enfreignant potentiellement ses règlements quand ils sont signalés.
Mais elle accorde un traitement de faveur à certaines organisations et responsables politiques, patrons, annonceurs, journalistes et célébrités, prenant plus de temps pour examiner leurs contenus afin d'éviter des jugements trop hâtifs.
Le conseil de supervision de Meta, une entité qualifiée d'indépendante mais financée par l'entreprise, avait fustigé en décembre ces privilèges, accusant l'entreprise de faire passer ses intérêts économiques avant la nécessité de modérer les contenus.
Il avait alors proposé 32 recommandations pour rendre plus transparent, plus réactif et plus juste ce programme de modération baptisé "cross check".
Le groupe a indiqué vendredi qu'il allait mettre en œuvre, complètement ou partiellement, 26 d'entre elles, et étudier la faisabilité de l'une d'entre elles. Il a en revanche rejeté cinq autres.
Meta refuse notamment de rendre publique les personnalités bénéficiant d'un traitement privilégié pour des raisons commerciales — parce qu'elles paient l'entreprise pour ses services ou génèrent du trafic —, estimant que cela pourrait les "identifier comme des cibles potentielles pour des acteurs malveillants".
Le groupe ne souhaite pas non plus mettre en œuvre un processus formel permettant aux personnalités, y compris gouvernementales, de postuler à "cross check".
L'entreprise de Mark Zuckerberg n'a pas non plus voulu interdire à son équipe chargée des relations avec les acteurs gouvernementaux de prendre des décisions sur l'inclusion de certaines personnalités dans la liste, alors que le conseil avait souligné que cela créait des conflits d'intérêts "inévitables".
Meta a en revanche accepté de limiter la visibilité des messages potentiellement problématiques en attendant leur examen et de faire des différences entre les utilisateurs à protéger pour des raisons en lien avec les droits humains, comme les ONG ou les journalistes, et pour des raisons commerciales.
Meta prévoit aussi de modifier ses systèmes opérationnels pour que les décisions soient rendues plus rapidement et de faire des rapports réguliers sur "cross check".