• dim. Déc 4th, 2022

La censure des voix palestiniennes par Meta est délibérée — Marwa FATAFTA

ByVeritatis

Oct 17, 2022 ,


C’est avec beaucoup de retard qu’un cabinet de conseil indépendant a finalement publié son rapport sur la couverture des événements de mai 2021 en Israël-Palestine par Meta – le géant des médias sociaux qui gère Facebook, Instagram et WhatsApp.

Suite aux protestations contre la censure opérée au cours de ce mois violent – qui a vu un soulèvement palestinien massif, la répression israélienne et une guerre contre Gaza – Meta a chargé Business for Social Responsibility (BSR) d’examiner ses politiques de modération des contenus en arabe et en hébreu sur les trois plateformes et de produire un rapport évaluant leur respect des droits humains.

Parmi ses principales conclusions, le rapport BSR a observé que la censure de Meta non seulement violait les droits fondamentaux des Palestiniens, mais que l’entreprise n’appliquait pas ses politiques de modération de manière équivalente aux deux langues. Le contenu arabe a été excessivement modéré, tandis que le contenu hébreu a été largement épargné.

Les conclusions sont loin d’être surprenantes. En fait, elles valident l’expérience vécue par la majorité des utilisateurs palestiniens sur toutes les plateformes de Meta, qui affirment depuis longtemps que les pratiques de censure de l’entreprise sont systématiquement discriminatoires. Les conclusions de ce rapport s’ajoutent aux nombreuses preuves, documentées depuis de nombreuses années, qui montrent que Meta est loin d’être un agent neutre lorsqu’il s’agit d’Israël-Palestine.

Cependant, bien que les conclusions du rapport soient appréciables car elles soulignent la réalité de la censure et la responsabilité de Meta, elles occultent le contexte qui est à l’origine des politiques biaisées de Meta – des biais qui ne sont pas accidentels, mais volontaires.

Bannissements furtifs et application abusive des règles

Pendant la répression brutale d’Israël contre les manifestants palestiniens dans la vieille ville de Jérusalem et le quartier de Sheikh Jarrah fin avril et en mai 2021, ainsi que pendant l’assaut militaire contre Gaza et le soulèvement qui a suivi, de nombreux Palestiniens ont utilisé les médias sociaux pour documenter, minute par minute, la violence du régime israélien et les violations des droits humains. Ils ont également utilisé les plateformes pour combattre la désinformation sur ce qui se passait sur le terrain et pour partager un récit authentique des évènements aux antipodes de la couverture de la presse grand public et de la propagande du gouvernement israélien.

Presque immédiatement, les entreprises de médias sociaux, y compris Meta, ont commencé à censurer le discours palestinien. Des comptes appartenant à des militants, des journalistes et des témoins oculaires palestiniens ont été arbitrairement suspendus et leur contenu systématiquement supprimé. Certains utilisateurs ont également fait l’objet de shadowbans (bannissements furtifs) peu de temps après avoir exprimé publiquement leur soutien et leur solidarité avec les Palestiniens, tandis que d’autres ont constaté que leur visibilité auprès de leurs abonnés avait été considérablement réduite suite à leurs messages sur la Palestine.

Dans le même temps, des dizaines de groupes de discussion israéliens du type “Mort aux Arabes” se sont formés sur WhatsApp pour lancer des pogroms contre les communautés palestiniennes, tant en Israël qu’en Cisjordanie occupée. Les insultes racistes, l’incitation à la violence et même les appels directs au meurtre et au génocide adressés aux Palestiniens en hébreu n’ont pas été modérés sur Facebook ni Instagram.

Selon les conclusions de BSR, l’application abusive par Meta de ses politiques sur les contenus en arabe – qui comprenait des suppressions et des suspensions illégitimes et arbitraires – a eu un “impact négatif” sur le droit des Palestiniens à la liberté d’expression, à la liberté d’association et de réunion, à la participation à la vie politique, à la sécurité physique, à la non-discrimination, à la protection contre les incitations à la haine et à l’accès aux recours contre les abus.

BSR a notamment constaté que Meta a censuré les contenus en arabe à un taux plus élevé que les contenus en hébreu au cours de cette période, et a également constaté que le taux de détection des “contenus en arabe potentiellement violents” était beaucoup plus élevé que celui des contenus en hébreu. Cela s’explique par le fait que Meta a mis en place des classificateurs – des algorithmes qui évaluent si un élément de contenu entre dans une “classe” qui viole les politiques de la plateforme – pour détecter et supprimer automatiquement les discours arabes hostiles, alors qu’il n’y en a pas pour l’hébreu.

Partialité intentionnelle

BSR affirme que la partialité de Meta à l’égard des Palestiniens est “involontaire”, mais sa définition de la partialité ne tient pas compte de la manière dont la discrimination et le racisme institutionnels et structurels fonctionnent réellement. En d’autres termes, le système de modération de contenu de l’entreprise est discriminatoire non seulement en raison de son application sélective, mais aussi en raison de sa conception même.

Prenez, par exemple, les directives de Meta relatives au terrorisme : la politique dite des ” individus et organisations dangereux “, ou DIO. L’entreprise refuse de dire qui elle classe et interdit comme “dangereux” ou “terroristes”, mais la fuite d’une liste de 4 000 personnes et groupes prouve qu’elle cible de manière disproportionnée les communautés musulmanes du Moyen-Orient et d’Asie du Sud.

Cela explique en partie pourquoi, selon BSR, “la politique DIO de Meta et la liste sont plus susceptibles d’avoir un impact sur les utilisateurs palestiniens et arabophones, à la fois sur la base de l’interprétation des obligations légales de Meta, et par erreur.”

Alors que Meta a assoupli cette règle, entre autres, dans le contexte de l’invasion de l’Ukraine par la Russie – ce qui permet même aux Ukrainiens de faire librement l’éloge du régiment néonazi Azov en tant que force d’autodéfense – aucune exception de ce type n’a jamais été faite pour les Palestiniens, qui luttent contre une occupation militaire non moins brutale.

En outre, le traitement réservé par l’entreprise au monde non occidental, la majorité du monde, qui ne bénéficie que de miettes d’investissements et de ressources, est en soi un problème structurel qui affecte la Palestine. Du Myanmar à l’Éthiopie, Meta traite les langues et les communautés non anglophones en dehors des États-Unis et de l’Europe comme une non-priorité, malgré les conséquences fatales des discours de haine non modérés et de l’incitation à la violence.

Les deux poids deux mesures observés en Israël-Palestine sont donc liés à des biais plus profonds qui gangrènent les pratiques mondiales du géant des médias sociaux. L’entreprise a toujours fait preuve d’un mépris flagrant pour la protection des communautés les plus vulnérables sur ses plateformes, en parfait contradiction avec la politique d’entreprise de Meta en matière de droits de l’homme – qui a été lancée seulement deux mois avant le conflit de mai.

Il ne s’agit pas d’ignorance béate. La réponse rapide de Meta à l’invasion russe en Ukraine démontre que l’entreprise peut agir quand elle le souhaite – quand il y a une forte volonté, il y a une mannière magnifique. Et malgré une documentation approfondie sur la censure, la désinformation, la violence ciblée et les discours de haine contre les Palestiniens, elle n’a pris aucune mesure significative et sérieuse pour corriger le tir.

En fait, les mêmes violations se répètent à l’infini. Par exemple, dès que la violence a éclaté à Jérusalem en avril 2022 – près d’un an après les manifestations de Sheikh Jarrah – Facebook a fermé la page du site d’information palestinien Al Qastal alors qu’il diffusait en direct le raid violent des forces d’occupation israéliennes sur la mosquée Al-Aqsa. Le fait de fermer continuellement les yeux sur l’impact négatif de ses actions sur une population opprimée, malgré l’accumulation de preuves, montre clairement que la partialité de Meta est bien intentionnelle.

Un militantisme efficace

La réponse de Meta au rapport du BSR a été jusqu’à présent décevante. D’une part, Meta n’a pas admis publiquement avoir commis le moindre acte répréhensible : en fait, elle a indiqué dans une note de bas de page que sa déclaration “ne doit pas être interprétée comme une admission, un accord ou une acceptation de l’une des constatations, conclusions, opinions ou façons de voir exprimées dans le rapport de BSR, et la mise en œuvre de toute réforme suggérée ne doit pas être considérée comme une admission d’un acte répréhensible”.

D’autre part, bien qu’elle ait pris acte des 21 recommandations non contraignantes de BSR pour remédier aux impacts négatifs de ses politiques sur les droits des Palestiniens, Meta n’a fourni aucun calendrier concret pour leur mise en place. Ces recommandations importantes comprennent la révision de la politique de l’entreprise en matière de DIO et de la désignation des personnages historiques décédés, la création de classificateurs pour le contenu en hébreu, et la transparence pour les utilisateurs sur les mesures d’application telles que la limitation des fonctionnalités (shadowbanning). Meta a également rejeté une recommandation du BSR sur le financement d’une recherche publique pour examiner les obligations légales de l’entreprise en matière de lutte contre le terrorisme par rapport à ses politiques et actions actuelles.

Il est essentiel de noter que Meta n’a pas commandé le rapport de son plein gré, mais y a été forcé par la campagne publique et privée que les militants palestiniens, régionaux et mondiaux et les groupes de défense des droits de l’homme mènent avec persévérance pour demander à la société de cesser de réduire au silence les discours sur la Palestine. Maintenant que les résultats sont connus, nous devons continuer à exiger de Meta qu’elle respecte les droits des personnes et à lui demander des comptes pour sa censure.

À ce stade, Meta ne peut plus nier sa responsabilité dans la modération biaisée du contenu palestinien sur ses plateformes. Les systèmes ne sont pas créés dans le vide ; ils sont une somme de décisions d’entreprise. Ne pas créer de classificateurs pour les discours de haine en hébreu malgré leur prévalence est le fruit d’une décision. Protéger le discours pro-sioniste tout en supprimant les preuves directes des violations des droits israéliens est le fruit d’une décision. Accéder aux demandes de censure d’une puissance occupante contre sa population occupée est le fruit d’une décision. Il est temps pour Meta de prendre d’autres décisions.

Traduction : Dominique Muselet





Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

quinze + 1 =