Oblideu-vos del mite que Internet és la terra de la llibertat, la democràcia universal, la cura de tots els nostres mals democràtics, etcètera. Tot el contrari: Internet s´està conformant com una perillosa granja universal que ens engreixa amb les nostres pròpies idees, sense permetre´ns accedir a nous punts de vista. Estem immersos en un ciberespai amb un sistema de filtrat de notícies molt poc oxigenat que acaba amb qualsevol procés o debat polític i que asfixia perillosament la nostra creativitat, aquella espurna que desencadena el progrés i que neix sempre a la frontera entre dues visions contrastades.

Aquesta és la tesi del gurú tecnològic nord-americà Eli Pariser, el llibre de referència, El filtro burbuja, acaba de publicar-se a Espanya (Ed. Taurus) amb el subtítol «Com la xarxa decideix el que llegim i el que pensem». Pariser ja va entreveure el 2011, data de la publicació del llibre a EUA, cap a on ens està conduint la personalització de continguts en xarxes socials com Facebook o el cercador Google. Els algoritmes que sustenten la xarxa social de Zuckerberg i el cercador més utilitzat seleccionen la informació que veiem a les nostres pantalles en funció dels clics que hàgim fet anteriorment sobre altres continguts: recerques prèvies a Google o les opinions dels nostres amics que hagin merescut un like. I no només això: Google, per exemple -i sense necessitat d´encendre l´ordinador-, utilitza 57 indicis diferents per personalitzar els continguts que rebrem al teclejar a la casella de cerques. Entre aquests indicis hi ha des del tipus d´ordinador fins a la ubicació o l´explorador que s´utilitza. Això és el filtre bombolla: una esfera de «coses que ens agraden» i que, al voltant de nosaltres, creen els algoritmes que seleccionen el que veiem quan busquem al web. Una bombolla pensada per personalitzar els anuncis.

Però que no es queda només en una implacable i molt eficaç estratègia de vendes. La bombolla envaeix el que pensem. Diu Pariser en el seu llibre: «Els filtres personalitzats presenten certa classe d´autopropaganda invisible, adoctrinánt-nos amb les nostres pròpies idees, amplifiquen el nostre desig per coses que ens són familiars, mantenint-nos ignorants pel que fa als perills que ens amenacen en el territori fosc del desconegut». El mateix Pariser es va adonar d´aquest fenomen quan al seu compte de Facebook va descobrir que la xarxa només li mostrava opinions de persones progressistes com ell. Facebook va veure que Pariser feia més vegades clic als enllaços dels seus amics progressistes que en els conservadors, així que l´algoritme els va excloure. En el seu llibre reflexiona: «La personalització pot conduir-nos a un cert determinisme informatiu en què allò sobre el que hem fet clic determini el que anem a veure, un historial web que estem condemnats a repetir una i altra vegada. Podem quedar-nos atrapats en una versió estàtica i cada vegada més limitada de nosaltres mateixos, en un bucle infinit sobre nosaltres mateixos». Pariser sosté que aquesta personalització està causant una espècie de «lobotomia global» en el cervell mundial que aspirava a ser Internet.

«Google controla totes les nostres senyals a què té accés. Si Google detecta que em connecto primer des de Nova York, després des de San Francisco i més tard des de Nova York, sabrà que viatjo de costa a costa dels Estats Units i, en conseqüència, podrà ajustar els seus resultats. Més encara, en examinar el navegador que utilitzo podrà fer conjectures sobre la meva edat i, fins i tot, la meva tendència política», reflexiona.

Saben qui som i ens donen el que suposadament demanem. El filtre bombolla no té criteris ètics en seleccionar les notícies. No existeix el sistema d´edició dels mitjans de comunicació tradicionals. «Els diaris amb més credibilitat van alçar un mur entre el que era negoci i el que era informació. Van començar a defensar l´objectivitat i a condemnar els continguts esbiaixats. Aquest era el model ètic: acceptar la responsabilitat de brindar informació neutral al públic sense manipular-lo. Això va guiar els esforços periodístics durant l´última meitat del segle XX. El sistema actual té un sentit de l´ètica i de la responsabilitat pública intrínsec, per molt imperfecte que sigui. No obstant això, el filtre bombolla, malgrat estar exercint alguns d´aquests mateixos papers, no en té».

L´algoritme no incorpora principis ètics. I, a més, a l´algoritme no se li exigeix ??el que s´exigeix ??als mitjans de comunicació tradicionals: «Aquestes plataformes acaparen una immensa quantitat de poder, en molts aspectes tant com el de directors de diaris o de segells discogràfics i altres intermediaris que els van precedir. Però mentre que els hem fet passar de tots colors als editors de The New York Times i als productors de la CNN per no haver publicat certes històries, deixant al descobert els interessos als que serveixen, no hem elaborat cap anàlisi detallada sobre quins interessos hi ha darrere dels nous gestors», incideix Pariser.

El poder del clic, del que la gent segueix i comparteix, pot arribar a ser demolidor. Pariser cita el filòsof John Dewey en subratllar que els assumptes importants, «que de forma indirecta afecten tota la nostra vida però existeixen fora de l´esfera del nostre propi interès immediat, són la pedra angular i la raó de ser de la democràcia». I aquests assumptes són, precisament, els que estan quedant fora del nostre radi d´acció per culpa dels algoritmes que filtren els continguts als que tenim accés. «Al final, la democràcia només funciona si nosaltres, com a ciutadans, som capaços de pensar més enllà del nostre limitat interès personal. Però per a això necessitem tenir una opinió generalitzada del món en què vivim junts. Hem d´entrar en contacte amb les vides, necessitats i desitjos d´altres persones».

La personalització canvia la nostra manera de pensar, perquè se´ns està furtant informació que la màquina no considera rellevant per a nosaltres. O com diu Pariser, «som integrants d´un espectacle de màgia, és fàcil que ens enganyin, ens manipulin i ens distreguin». Tal com sentència aquest gurú de les tecnologies, els mitjans de comunicació tradicionals aporten la sensació de «saber on som». En canvi, el filtre bombolla t´aboca a «un bucle sobre tu mateix».

El que cliques és el que ets i aquest mirall digital et remet una i altra vegada a la teva pròpia imatge. T´encasella. «La bombolla de filtres no només reflecteix la teva identitat, també mostra quines possibilitats tens. Els alumnes que estudien en universitats nord-americanes prestigioses veuen anuncis de treball que els poden resultar d´interès, que els estudiants dels centres públics ni són conscients que existeixen. La secció de notícies personals de científics professionals pot incloure articles sobre concursos dels que mai s´assabentaran els novells. En mostrar algunes possibilitats i bloquejar d´altres, la bombolla de filtres té un paper en les teves decisions. I modela en qui et converteixes».

EXCLUSIÓ D´ALLÒ QUE IMPORTA

Tots els continguts aspres queden fora de la bombolla. Tot el que no tingui el gust dulcorat del que ens agrada desapareix. És el que Pariser anomena la «síndrome del món amigable». «Poques persones busquen informació relativa als ´sense sostre´. I són encara menys les que les comparteixen, arribat el cas. En general, les qüestions àrides, complexes i pesades, un munt dels assumptes que de veritat importen, no passarien el tall. I si bé solíem confiar que els redactors humans tractarien aquests problemes crucials, la seva influència s´està esvaint».

Benvinguts al món en què el codi algorítmic és la llei. Un món reglamentat per gegants digitals que, segons Pariser, no estan disposats a assumir la responsabilitat en el procés que estan creant. «Massa sovint, els directius de Facebook, Google i altres companyies de gran rellevància social es fan els ´tontos´. Són revolucionaris socials quan els convé, i empresaris neutrals i amorals quan no. I ambdós enfocaments no estan a l´altura d´algunes qüestions que són fonamentals».