Cada dia 1.490 milions de persones es connecten a Facebook i cada dia la xarxa revisa dos milions de peces de contingut sospitós. Assetjada pels escàndols, la companyia intenta frenar el racisme, el terrorisme i les notícies falses: És possible controlar la conversa de milions de persones?

Per fer front a aquesta quixotesca tasca Facebook acaba d'obrir a Barcelona un centre de control de continguts que comptarà amb 800 moderadors i que va obrir les seves portes a un grup de periodistes.

"El nostre treball és crear un espai segur per a tots els usuaris. És dur, en totes les comunitats hi ha bons i dolents", reconeix el director de Community Operations de la companyia, David Geraghty, qui assegura que el sistema de control de continguts de Facebook és un dels "més sofisticats" del món.

La xarxa social té dues maneres de detectar contingut sospitós: les denúncies d'usuaris i un sistema d'intel·ligència artificial i 'machine learning' que ho identifica de manera automàtica. "Abans érem més reactius, ara som més proactius", reconeix.

Aquest últim és, per exemple, responsable que el 99 per cent del contingut terrorista que s'intenta distribuir per la xarxa sigui detectat abans de publicar-se, encara que un humà sempre té l'última paraula.

"La combinació de tecnologia i persones és la millor eina", reconeix Geraghty.

2018 ha estat l''annus horribilis' de la xarxa: primer Cambridge Analityca, després la investigació sobre la ingerència russa a les eleccions dels Estats Units posaven el focus a la xarxa i, després de múltiples dimissions de directius, una investigació del New York Times revelava que la companyia havia pagat una empresa per crear notícies falses contra els seus crítics.

En paral·lel, Facebook ha rebut múltiples crítiques per la proliferació de discurs racista i violent en la seva plataforma. En el cas dels rohinyá a Myanmar, Mark Zuckerberg va demanar disculpes i va reconèixer que no van fer el suficient per frenar els continguts violents contra aquesta minoria musulmana.

La inversió de la companyia en control de continguts s'ha incrementat "substancialment", segons reconeix Geraghty.

El centre de control de continguts de Barcelona és prova d'això, diverses plantes d'un cèntric edifici en el qual els treballadors compten amb suport psicològic 24 hores -hi ha adhesius amb un telèfon d'assistència en cada ordinador- i tota mena de beneficis com àrees de descans i classes de relaxació.

La moderació de continguts "no és un treball d'oficina normal" i tampoc és per a tothom; en ocasions els controladors han de veure imatges que poden generar molt estrès com violència gràfica, abús a nens o contingut terrorista, explica Ulf Herbrechter, responsable de CCC, l'empresa que gestiona el centre.

L'equip de Facebook dedicat a control de continguts supera els 30.000 treballadors a tot el món -la meitat són moderadors-, una part es dedica a revisar i modificar de manera periòdica l'extensa política de continguts de la plataforma.

La xarxa intenta mantenir l'objectivitat i instrueix als seus moderadors per basar les seves decisions en les normes reflectides en la política de continguts de l'empresa, no en opinions personals.

El focus de la controvèrsia està centrat en el discurs d'odi i l'ús de la plataforma per a l'avanç del populisme en processos electorals.

Segons els últims dades públiques de Facebook en els tres primers trimestres de l'any la companyia va actuar contra prop de 8 milions de continguts per discurs d'odi, encara que la companyia no ofereix dades de prevalença d'aquest tipus de supòsits i diu que les dades són provisionals.

"La nostra política sobre discurs d'odi és igual en tots els països i s'aplica a tothom, incloses figures públiques", tant és que siguis Bolsonaro, Trump o un ciutadà anònim, assegura la màxima responsable europea en política de continguts de la companyia, Siobhan Cummiskey.