Traduction d’une lettre en anglais de Richard Wagman adressée au comité de surveillance de Méta
J’aimerais commenter votre reconsidération de la modération induite par l’utilisation du terme “shahid” (c’est à dire “martyr” ou “témoin” en arabe). Nous croyons que la modération de contenu sur l’unique base de l’utilisation de ce mot est abusive. Ce terme (qui a fait son entrée dans la langue française, comme beaucoup d’autres) est souvent mal interprété. Il peut recouvrir des sens différents selon le contexte mais l’utilisation de ce terme est « cacher » si je peux me permettre. Il ne dénote en soi aucun message haineux ou discriminatoire. Et pourtant, il est l’une des principales justifications utilisées par Meta pour censurer du contenu en rapport avec la Palestine/Israël. Ceci n’est pas justifié. Pire, il est contre-productif. Une discussion rationnelle sur le Proche-Orient ne peut pas être conduite par l’élimination arbitraire de contenu. Et des expressions de solidarité avec la Palestine ne sont en rien antisémites. Dans le même sens, un soutien inconditionnel aux politiques israéliennes – y compris aux crimes de guerre commis par ce pays – n’assure en rien la sécurité pour les Juifs.
Cette affaire recouvre une question plus large : celle de la modération basée uniquement sur l’utilisation des algorithmes détectant des mots clés. C’est peut-être une première étape nécessaire compte tenu de la quantité astronomique de messages envoyés sur Instagram, Facebook et sur d’autres médias sociaux. Mais il faut un certain nombre de filtres après cette première étape, notamment des êtres humains. Si vous n’avez pas actuellement le personnel suffisant pour assurer un tel service vous devez embaucher le nombre d’employés nécessaire.
De vrais messages de haine constituent un problème réel et il faut s’en occuper. De fausses alarmes ne sont pas seulement trompeuses, elles sont contreproductives. Du contenu légitime ne doit pas être censuré et l’utilisation des algorithmes comme seul moyen de modérer est une erreur manifeste. Ce genre de décision relève d’une question éthique et ne peut pas être confiée uniquement à la technologie informatique.
Respectueusement,
Richard Wagman, membre de la Coordination nationale de l’UJFP
Original en langue anglaise de la lettre
Paris, April 9, 2023
I would like to comment on your reconsideration of moderation induced by the use of the term “shaheed” (i.e. “martyr” or “witness” in Arabic). We believe that moderation of content on the sole basis of the use of this word is abusive. This term (which has crept into the English language, like many others) is often misinterpreted. It can take on different meanings according to the context but the use of this term is quite “kosher” if I may use the expression. It doesn’t denote any kind or hate message or discrimination per se. And yet it is one of the principal justifications used by Meta to censor content dealing with Palestine/Israel. This is unjustified and counter-productive. Rational discussion on the Middle East can’t be conducted by eliminating content arbitrarily. And expressions of solidarity with Palestine is not antisemitic. In the same vein unconditional support for Israeli policies – including its war crimes – does not assure security for Jewish people.
This uncovers a broader question which is moderation based solely on the use of algorithms detecting key words. That’s perhaps a first step given the astronomic quantity of messages sent on Instagram, Facebook and other social media. But there has to be a number of filters after that, notably human beings. If you currently don’t have sufficient staff to provide that service, you should hire the number of employees necessary.
Real hate messages are a problem that has to be dealt with. False alarms aren’t only misleading, they are counter productive. Legitimate content should not be censored by algorithms alone. This kind of decision is an ethical question and cannot be confided to computer technology alone.
Respectfully yours,
Richard Wagman, member of the National Coordination of the UJFP