El Consell Assessor de Continguts de Facebook, el nom oficial del qual és Oversight Board, es va posar en marxa a mitjans d'octubre. Popularment anomenat «Tribunal Suprem de Facebook», la seva missió consisteix a revisar i establir els criteris objectius pels quals el gegant tecnològic decideix eliminar continguts publicats a les seves xarxes socials. Està compost per quaranta membres de tot el món, procedents de diversos sectors i a càrrec de variats perfils, que podran seleccionar els casos sotmesos posteriorment a revisió i ratificar o revertir les decisions que s'adoptin.

El citat Consell ofereix als usuaris una via de recurs o impugnació contra les decisions de Facebook o Instagram sobre l'esborrat de les publicacions. Inicialment, els afectats poden sol·licitar que la pròpia xarxa social revisi les seves decisions i, si no se senten conformes amb la resposta final, iniciar un procés d'apel·lació davant l'esmentat Consell. El criteri d'admissió d'aquestes apel·lacions és discrecional, per no dir arbitrari, atès que el nombre de sol·licituds desborda amb notòria claredat el volum d'assumptes capaços de ser tramitats per l'òrgan de referència.

Per indicar xifres concretes, després d'obrir-se aquest servei fa poc més de dos mesos, el «tribunal» en qüestió ja ha rebut més de 20.000 casos, resultant més que evident la impossibilitat d'atendre totes aquestes reclamacions, per la qual cosa es pretén donar prioritat als casos que afecten nombrosos usuaris a escala mundial, que s'alcin fonamentals per al discurs públic o que plantegin interrogants importants sobre les polítiques de Facebook.

Un cop admesos a tràmit, l'Oversight Board els assignarà un panell de membres que duran a terme la revisió detallada en funció de la informació rebuda, tant de la persona que ha presentat l'apel·lació com de la pròpia empresa. Posteriorment, han d'adoptar una decisió vinculant (el que vol dir que Facebook ha d'implementar-la) i el Consell redactarà una explicació sobre la seva decisió que estarà disponible públicament en el seu lloc web.

De les més de vint mil reclamacions, aquest Consell va triar aquests sis primers casos:

1.- Facebook va eliminar una publicació al Brasil en la qual es veien vuit imatges que descriuen els símptomes del càncer de mama en què s'apreciaven mugrons femenins coberts i descoberts. La xarxa social les va esborrar en considerar que infringien la seva política sobre nus i activitat sexual d'adults.

2.- Facebook va eliminar una publicació d'un usuari amb una captura de pantalla de dos tuits de Mahathir bin Mohamad, Primer Ministre de Malàisia des de maig de 2018 fins a febrer de 2020, en què assegurava que «els musulmans tenen dret a estar enfadats i matar milions de francesos per les massacres del passat». La plataforma va al·legar que la publicació infringeix la seva política sobre discurs de l'odi o incitació a l'odi.

3.- Facebook va eliminar la publicació de dues fotos de l'infant Aylan Kurdi, el menor mort que jeia a la riba d'una platja turca després del fallit intent de la seva família d'arribar a Grècia. Al costat d'aquestes dues fotografies, el post preguntava en idioma birmà per què no hi ha represàlies contra el tracte que dona la Xina als musulmans de l'ètnia uirgur. La xarxa social ha explicat que aquesta supressió es devia al fet que el contingut infringia la seva política sobre discurs de l'odi o incitació a l'odi.

4.- Facebook va eliminar un post sobre una cita atribuïda suposadament a Joseph Goebbels, Ministre d'Il·lustració Pública i Propaganda del Tercer Reich a l'Alemanya nazi, sobre la irrellevància de la veritat i la necessitat d'apel·lar a les emocions i als instints en lloc de l'intel·lecte. L'empresa va al·legar que infringia la seva política sobre persones i organitzacions perilloses i no permetia la presència a Facebook de cap organització o persona que cometés actes violents o els objectius dels quals ho fossin.

5.- Facebook també va eliminar fotos en què es veien esglésies de Bakú, capital de l'Azerbaidjan, amb un text en què s'assegurava que aquesta ciutat va ser fundada pel poble armeni, i es preguntava per la destinació d'aquests temples. L'usuari afirmava que a Armènia (de majoria cristiana) s'estan restaurant mesquites, mentre que a l'Azerbaidjan (de majoria musulmana) s'estan destruint esglésies, i que ell es posiciona en contra de l'«atac azerbaidjanès» i el «vandalisme». La xarxa social va suprimir aquesta publicació al·legant que infringia la seva política sobre el discurs de l'odi o incitació a l'odi.

6.- L'últim cas va ser remès al Consell pel mateix Facebook. Un usuari va publicar un vídeo sobre un presumpte escàndol de l'agència francesa responsable de la regulació dels productes sanitaris, en el qual s'assegurava la denegació de l'autorització de l'ús de la hidroxicloroquina i l'azitromicina contra la covid-19, però es permetia l'enviament de correus electrònics promocionals sobre el Remdesivir. Va aconseguir prop de 50.000 reproduccions i va ser compartit al voltant de mil vegades. Facebook va decidir eliminar el contingut perquè infringeix la seva política de publicacions al·legant que «si bé entenem que les persones solen expressar menyspreu o desacord mitjançant amenaces o apel·lacions a la violència sense intencions serioses, eliminem el llenguatge que incita a cometre actes greus de violència o els fa possibles».

Al meu parer, seria desitjable que cada un de nosaltres reflexionés sobre quina seria la nostra decisió si forméssim part d'aquest «Tribunal Suprem de Facebook» per, d'aquesta manera, tenir consciència de quin model de societat volem, quin tipus de xarxes socials desitgem i quin espai pretenem deixar a la llibertat d'expressió en una societat democràtica.