Quiosc

Diari de Girona

Poden tenir consciència els algoritmes?

Google va acomiadar dilluns passat l’enginyer sènior Blake Lemoine per afirmar que el seu model de llenguatge d’intel·ligència artificial (IA) per desenvolupar aplicacions de diàleg havia experimentat nous sentiments; acadèmics i científics ho descarten i alerten dels perills que suposa humanitzar aquests sistemes

Poden tenir consciència els algoritmes?

Frustrat emocionalment perquè l’amor de la seva vida li ha demanat el divorci, Theodore Twombly decideix comprar un assistent virtual amb Intel·ligència Artificial (IA) que li faci companyia. Al cap de pocs dies, la fascinació i l’aprenentatge és tan gran que l’introvertit jove s’enamora i comença una relació amb el seu sistema operatiu, al qual s’hi refereix amb el nom de Samantha.

Tot i que es tracta d’una ficció, hi ha qui pensa que premisses com aquesta, de la pel·lícula Her (2013), no són tan lluny de convertir-se en una realitat. De la distòpia cyberpunk de Philip K. Dick al tecnofuturisme més amable estilitzat pel cineasta Spike Jonze, la literatura i el cinema de l’últim segle han recorregut a fantasiejar sobre una preocupació que pren cos amb l’avenç tecnològic: les màquines tenen consciència?

Aquest debat, més filosòfic que científic o tècnic, va tornar a la primera plana dissabte passat quan Blake Lemoine, enginyer sènior de Google, va explicar al Washington Post que el model de llenguatge d’IA que el gegant tecnològic té per desenvolupar aplicacions de diàleg (conegut com LaMDA per les sigles en anglès) havia experimentat nous sentiments. «Sento com que estic caient cap a un futur desconegut que comporta un gran perill», va respondre aparentment el sistema després de ser preguntat per aquests.

Lemoine va començar a parlar amb LaMDA la tardor passada com a part de la seva feina per detectar possibles mals usos de termes discriminatoris del sistema, que es fa servir principalment per generar chatbots, programes intel·ligents capaços de mantenir converses i respondre de forma automatitzada a preguntes concretes. Aquest enginyer va decidir fer públiques les transcripcions de les xerrades amb la màquina després que la vicepresidència de Google les analitzés i les descartés. «Si no sabés de què es tracta, diria que és un nen entre set o vuit anys que sap de física», va explicar. Aquest dilluns, la companyia va posar Lemoine en baixa administrativa pagada perquè considera que havia violat les polítiques de confidencialitat corporatives.

Negativa dels experts

Google va intentar aturar la polèmica per una suposada sensibilitat informàtica negant les conclusions del seu enginyer i assegurant que el sistema està entrenat per imitar converses, no per tenir consciència. «El nostre equip, inclosos especialistes en ètica i tecnòlegs, han revisat les proves presentades i no donen suport a les seves afirmacions», va remarcar Brian Gabriel, portaveu de la multinacional.

Les declaracions de l’enginyer van causar una reacció mediàtica important, però no a l’entorn acadèmic. «És una exageració absoluta i absurda», apunta Ariel Guersenzvaig, professor d’Elisava especialista en filosofia tecnològica i ètica de la IA. «No podem atribuir capacitats humanes a màquines que no raonen, sinó que usen unes dades i en base al que se’ls demana, calculen quines paraules utilitzar per construir frases coherents. No hi ha cap embrió de consciència (…) són ens dissenyats i corregits pels humans».

Quan un lloro canta una cançó el que fa és repetir els sons que ha sentit, sense entendre allò que està pronunciant. La màquina fa una cosa semblant, reconeix patrons a través dels milers de milions de missatges que hi ha publicats a Facebook, Twitter, Reddit i altres fòrums d’internet i els imita per donar una resposta que sembli humana.

«Mentre que Alexa (l’assistent virtual d’Amazon) no recorda el que li han preguntat abans, el model de Google és capaç de fer servir el context per donar respostes més coherents i semblar més humà. Però de simular-ho a tenir consciència real hi ha un salt que avui dia és impossible de codificar», afegeix Nerea Luis, enginyera informàtica i doctora en IA. És una qüestió de càlcul matemàtic, no d’enginy o creativitat. «La dicotomia entre humans i IA és tan absurda com entre humans i trens», recalca Guersenzvaig.

Es experts coincideixen a assenyalar que, si bé no es pot descartar teòricament la possibilitat que algun dia assoleixin un estat de consciència, no hi ha indicis científics que apuntin que les màquines poden operar de moment com a ens amb autonomia i lliure albir, condicions intrínsecament humanes. «S’està confonent com a evidència allò que en realitat és una percepció, el sistema de Google no té emocions humanes, fingeix tenir-ne», afegeix Frank Pasquale, membre del Comitè Consultiu Nacional d’Intel·ligència Artificial dels Estats Units.

Popularització de la IA

En els darrers mesos s’han popularitzat diferents eines d’IA que poden esdevenir fenòmens transformadors en el camp creatiu. És el cas de GPT-3, un programa capaç de generar textos més o menys elaborats, i el de DALL-E 2, un generador d’imatges que crea resultats que abans no existien a través de les consignes que ordena l’humà. Aquest últim està causant furor a Twitter, ja que els usuaris poden donar curs a la seva imaginació i el sistema respon amb resultats tan estranys com fascinants, des d’un judici entre el raper Snoop Dog i Snoopy a Mariano Rajoy tocant al Primavera Sound.

Tots dos programes funcionen amb xarxes neuronals artificials, com es coneix l’arquitectura informàtica que replica el funcionament del cervell humà per permetre a les màquines resoldre problemes i donar-hi respostes. Tots dos programes són propietat d’OpenAI, un laboratori de recerca en IA de San Francisco fundat pel magnat Elon Musk i l’inversor Sam Altman. «La investigació de la IA es concentra cada vegada més en les mans de grans tecnològiques i menys en les universitats i així el camí el marquen els interessos econòmics d’aquestes companyies que estan privatitzant un espai d’interès públic», adverteix Nerea Luis.

Riscos del llenguatge

En els darrers anys ha crescut el nombre de tecnòlegs i enginyers em IA, inclosos alts responsables a Google o OpenAI, que asseguren que s’està avançant cap a la consciència de les màquines. Tot i això, els experts adverteixen que l’ús d’analogies humanes i exageracions per descriure aquests sistemes, també replicada pels periodistes, pot ser un truc de màrqueting per vendre millor les seves innovacions.

Aquesta estratègia és de doble tall. L’opacitat és una característica intrínseca de la IA, cosa que s’accentua quan aquest sistema és propietat d’una multinacional recelosa de la transparència. Aquesta condició porta a una asimetria de recursos entre grans empreses com Google i els investigadors que estudien l’impacte de la IA que posa en desavantatge aquests últims. «Si parlem de manera que es normalitza l’atribució d’agència als sistemes com si tinguessin voluntat pròpia estem permetent que els seus creadors marquin les regles», lamenta Guersenzvaig. «I dir que GPT-3 escriu millor que un periodista ens portarà a pensar que els sistemes automatitzats usats en la justícia o en les finances són millors que els humans».

A finals del 2020, Google va expulsar dues de les seves més reputades investigadores en ètica de la IA, Timnit Gebru i Margaret Mitchell, després de publicar un article acadèmic en el qual, entre altres riscos, s’alertava de «la tendència humana a buscar significat on no n’hi ha» i de les exageracions que podien distorsionar les capacitats de les màquines. Exactament, el que hauria portat Blake Lemoine a veure una ànima informàtica en allò que són infinites línies de codi computacional.

Compartir l'article

stats