El fet que els sistemes d’Intel·ligència Artificial (IA) s’utilitzin cada vegada més en tots els àmbits de la nostra vida quotidiana implica una creixent necessitat d’aprofundir en els motius i intencions del seu desenvolupament. Aquesta comprensió i avaluació és fonamental, tant per establir si és necessari o no utilitzar la IA, com per saber en quins contextos i circumstàncies. Com qualsevol tecnologia, els sistemes d’IA sovint distribueixen beneficis i perjudicis de manera desigual, i també agreugen o perpetuen condicions socials injustes preexistents. Per tant, la qüestió central no és si la IA pot fer una o altra cosa, la qüestió central és si l’hauria de fer i com.

Més enllà d’una comprensió i avaluació que ens ha de permetre saber què és bo o dolent, què es pot i que s’ha de fer i també com fer-ho (el que Aristòtil anomenà saviesa pràctica o frònesi), també ens cal desenvolupar sistemes d’IA socialment intel·ligents que puguin entendre els elements bàsics del «perquè» i «amb qui» del comportament social, de manera similar a la forma com la mainada aprèn sobre el món social. El fet d’utilitzar la mainada com a símil d’aprenentatge és que la IA pot ser tractada com a tal. Sabem que a edats joves estem més minvats per la manca de capacitats socials que no pas per la falta d’intel·ligència. D’aquí el proverbi africà «cal un poble per criar un fill/a», o sigui, una comunitat interactuant perquè la mainada adquireixi intel·ligència social. La diferència és que la mainada ha d’aprendre a entendre tota la complexitat del món, mentre que els sistemes d’IA solen viure en un món finit (de moment).

Sense aquesta comprensió i coordenades socials correm el risc que s’imposi una narrativa de desconfiança creixent envers l’ús de la IA, i sabem que això pot ser contraproduent, entre altres perquè quan definim situacions com a reals sense que aquestes ho siguin poden acabar sent reals en les seves conseqüències, tal i com apuntaven els sociòlegs William Thomas i Dorothy Thomas. És evident que el laissez faire de la IA a nivell mundial posa de manifest una llista creixent d’usos de la IA que es consideren incompatibles amb drets i llibertats de les persones.

Actualment, al capdavant d’aquesta llista es troba l’ús de tecnologies de vigilància biomètrica per processar les dades recollides de manera indiscriminada o arbitrària de persones en espais accessibles públicament (per exemple, utilitzant el reconeixement facial remot), en el desplegament de l’anomenada policia predictiva i en el camp del control de la migració, i també en matèria de justícia penal, especialment quan s’utilitza amb la finalitat de predir el risc de reincidència. En aquests i d’altres casos l’ús de la IA podria infringir el dret al respecte a la vida privada i a la presumpció d’innocència. Per aquesta raó cal aplaudir que la Comissió Europea hagi desenvolupat el primer marc legal sobre IA de la història, que aborda els riscos de la IA i posiciona Europa a tenir un paper de lideratge a nivell mundial.

Però malgrat aquest avenç, cal tenir present que per molt que la IA ofereixi solucions a múltiples problemes és impossible oferir-ne per tot i tenir-ne el control complet. En la IA com en qualsevol tecnologia no tot funciona, ni tampoc tot funciona com estava previst. I, és clar, hi ha factors imprevisibles que poden provocar efectes negatius enormes. No és d’estranyar, doncs, que en un informe recent de l’Institute of Electrical and Electronic Engineers (IEEE) on s’analitzen 112 documents de normatives, estratègies i marcs reguladors de diferents àmbits públics i privats de tot el món, es destaca que la IA ha de tenir en compte, per sobre de tot, un principi de responsabilitat social. En certa manera, això ens recorda que en la IA no cal buscar una substitució de la intel·ligència (o estupidesa) humana, sinó un complement que, juntament amb la intel·ligència comunitària, ens permeti sumar intel·ligències. Aquesta és, precisament, la visió estratègica que la Universitat de Girona vol desplegar en els propers anys.

Vetllar perquè la IA s’apliqui per millorar el benestar de les persones de manera segura, justa i respectant les nostres normes socials i culturals és un objectiu de present i futur. A Catalunya, la creació de l’Observatori d’Ètica en Intel·ligència Artificial de Catalunya (OEIAC), que pren forma de Càtedra a la Universitat de Girona i que s’insereix en l’Estratègia d’Intel·ligència Artificial (IA) impulsada per la Generalitat de Catalunya amb el nom de CATALONIA.AI, respon clarament a aquesta necessitat, i també a la necessitat de millora de la nostra comprensió sobre les conseqüències ètiques, socials i legals així com dels els riscos i oportunitats que suposa la implantació cada vegada més generalitzada de la IA.