Accueil Actu

Frédéric demande de supprimer une vidéo d'exécution publique qui circule sur le réseau social: Facebook refuse

"Facebook donne à chacun le moyen de s’exprimer, de découvrir le monde au travers des actualités des autres et de communiquer de n’importe où et à tout moment. Les conversations qui ont lieu sur Facebook et les opinions qui sont y sont exprimées reflètent la diversité des utilisateurs de Facebook."

C'est ainsi, notamment, que se présente la firme américaine. Dans le contexte de l'emploi croissant des réseaux sociaux par les terroristes pour "s'exprimer" (souvent à coups d'images violentes, on se rappelle notamment des vidéos de décapitation), la responsabilité de l'entreprise sur le contenu qui transite par son réseau social est énorme. Et de plus en plus de voix s'élèvent pour réclamer davantage de contrôle sur ce qui est publié sur Facebook.

Son propre contrôle

La société fondée en 2004 par Mark Zuckerberg exerce son propre contrôle. Elle s'appuie pour cela sur les utilisateurs. Ceux-ci peuvent dénoncer des propos ou images inappropriés à un département de Facebook. Là-bas, des employés évaluent alors la pertinence de la dénonciation sur base de standards. "C’est pour répondre aux besoins et aux intérêts d’une population mondiale que Facebook protège l’expression répondant aux standards établis", dit Facebook. Si l'expression (les propos ou l'image) dénoncée ne répond pas au standard, elle sera supprimée. Ces standards sont répartis en différentes catégories:

Violence et menaces
Suicide ou automutilation
Intimidation et harcèlement
Discours incitant à la haine
Contenu explicite
Nudité
Identité et confidentialité
Propriété intellectuelle
Biens réglementés
Hameçonnage et courrier indésirable
Sécurité


"Facebook ne s'inscrit pas en tant qu'acteur principal pour ne pas faire circuler la haine via les réseaux sociaux"

Le suivi scrupuleux de ces standards provoquent parfois interrogation et indignation. C'est le cas de Frédéric (prénom d'emprunt). Celui-ci a signalé une vidéo d'exécution publique de l'Etat islamique vue sur la page Facebook d'une personne. Sur ces images très dures, on y voit des hommes du groupe terroriste abattre d'une balle dans la tête une femme qu'ils avaient fait agenouiller en pleine rue, avant de prononcer publiquement une sentence publique puis de l'exécuter à bout portant. Frédéric demandait que cette vidéo soit supprimée pour des raisons de "violence visuelle". Précisons qu'il est impossible de joindre par téléphone et encore moins de rencontrer un représentant de Facebook. Tout se fait par message écrit, via internet.

Facebook a répondu à Frédéric que la vidéo ne serait pas supprimée car elle n'allait pas à l'encontre des standards établis par l'entreprise. "Alors que le monde est touché par le terrorisme, Facebook ne s'inscrit pas en tant qu'acteur principal pour ne pas faire circuler la haine via les réseaux sociaux", s'est insurgé Frédéric via notre page Alertez-nous, nous faisant parvenir une capture d'écran de la réponse de Facebook afin de prouver ses affirmations.

Justification de Facebook dans ces standards: "Lorsque ce type de contenu est partagé, c’est pour le condamner"

Pourquoi Facebook n'a pas supprimé ces images d'une terrible violence ? En quoi correspondaient-elles à ces standards dits "Standards de la communauté" ? La "violence visuelle" dénoncée par Frédéric est à ranger dans la catégorie "Contenu explicite" de ces standards. Que dit Facebook ? "Facebook est depuis longtemps un lieu où les gens vont pour partager leurs expériences et sensibiliser l’opinion sur des sujets qui leur importent. Parfois, ces expériences et ces sujets impliquent du contenu visuel qui est d’intérêt public, par exemple le non-respect des droits de l’Homme ou les actes de terrorisme. Dans de nombreux cas, lorsque ce type de contenu est partagé, c’est pour le condamner. Toutefois, des images graphiques partagées par sadisme ou pour glorifier la violence n’ont pas leur place sur notre site". À la lecture de cette explication, on suppose que l'employé de Facebook n'a pas supprimé cette vidéo car il estimait que la personne l'avait postée sur sa page pour dénoncer cette exécution plutôt que de la glorifier. Encore faut-il le savoir. La personne qui a posté cette vidéo sur sa page s'exprime uniquement en arabe. Il nous a fallu près d'une demi-heure et une traduction très approximative des messages écrits par cette personne au cours des derniers mois pour supposer qu'elle condamnait plus qu'elle n'approuvait l'exécution montrée sur les images.


Facebook demande de choisir avec précaution son public et de le prévenir du contenu lorsqu'on diffuse une vidéo: est-ce possible?

Toujours pour la catégorie "Contenu explicite", Facebook précise que "lorsque les utilisateurs partagent du contenu, nous attendons qu’ils le fassent de manière responsable. Cela implique de choisir avec précaution le public auquel le contenu est destiné. Pour les vidéos graphiques, il convient de prévenir le public de la nature du contenu de la vidéo afin qu’il puisse choisir en toute connaissance de cause de la regarder ou non". Dans le cas présent, si la personne a prévenu de la nature choquante de la vidéo qu'il mettait sur sa page Facebook, les internautes qui ne savent pas lire l'arabe ne pouvait pas lire l'avertissement. Et ce n'est pas la très peu efficace fonction de traduction de Facebook mise à disposition sous chaque message qui peut véritablement aider. Nous avons utiliser cette fonctionnalité pour traduire les messages et la traduction était totalement incompréhensible.

Ce genre de situation n'est pas propre au seul Facebook. Des responsables de journaux télévisés, de la presse quotidienne et magazine, de sites internet d'actualité, se posent régulièrement des questions sur la diffusion de telle ou telle image. Faut-il les montrer ? Leur aspect informatif est-il réel ? Ne participe-t-on pas à la propagande des terroristes ? Ne les aide-t-on pas à la réussite de leur objectif, à savoir susciter la peur et au-delà la radicalisation ?

Vu l'importance qu'a prise Facebook (mais aussi d'autres réseaux sociaux comme Twitter ou Youtube) en tant que faiseur d'opinion et vu le contexte du terrorisme international, on peut légitimement se poser la question de savoir si le seul contrôle du contenu qui y est diffusé doit être du seul ressort de l'entreprise? Vu son impact dans la société d'aujourd'hui, on est aussi légitimement amené à se demander s'il est bien normal qu'une telle entreprise ne dispose pas dans chaque pays de représentant officiel, d'interlocuteur avec qui les autorités publiques ou judiciaires pourraient réellement, rapidement et efficacement dialoguer.

À la une

Sélectionné pour vous