19 de gener de 2020
19.01.2020

Un expert de la UOC alerta que cal humanitzar la intel·ligència artificial

El professor d'Humanitats Miquel Seguró creu que s'han d'establir regles ètiques i decidir quina finalitat es vol donar a aquesta tecnologia

20.01.2020 | 10:12
Un expert de la UOC alerta que cal humanitzar la intel·ligència artificial

El professor d'Arts i Humanitats de la Universitat Oberta de Catalunya (UOC) Miquel Seguró ha advertit que cal «humanitzar la intel·ligència artificial (IA)» i establir unes regles ètiques perquè la seva utilització sigui beneficiosa per a tota la humanitat. «Un avanç tecnològic per si sol no genera benestar, per això cal triar quina finalitat se li dona i és important humanitzar la intel·ligència artificial», assenyala Seguró.

Davant el creixement del sector, l'expert creu que cal establir unes regles ètiques per controlar-ne l'ús i saber «qui decideix quins beneficis ha de proporcionar la IA i qui rep aquests beneficis». Seguró, autor del llibre sobre filosofia La vida también se piensa, planteja quatre reptes ètics sobre la IA: saber a quins interessos respon, entendre que en el fons hi ha una responsabilitat humana, concretar el seu ús polític i obrir el camp de la IA del càlcul i l'eficàcia a altres tipus d'intel·ligència.

Segons l'expert, «la racionalitat no és només càlcul, eficàcia i eficiència, també té altres cares com les emocions i és molt important preguntar-se quin ús es vol fer de la IA i introduir una idea de raó més complexa». «En l'entorn laboral actual, on s'exigeix eficiència màxima, es beneficia la lògica de la productivitat, però en aquest entorn hi ha problemes que no es poden solucionar amb la creació de seqüències lògiques», avisa.

Malgrat tot, Seguró considera que la virtut es troba en el terme mitjà: «Ni es pot donar per fet que la IA deshumanitza i és un fracàs, ni pensar que ho solucionarà tot: l'important és obrir el tema i introduir complexitat en el debat», indica. «Hi ha visions que veuen positiu delegar-ho tot a la IA, però no es pot confiar en un algoritme que prengui decisions per les persones perquè la responsabilitat sempre serà humana, no d'un robot», exposa.

L'exemple de l'algoritme Compas als EUA, creat per ajudar jutges a decidir sobre la llibertat condicional, il·lustra aquest perill, quan es va comprovar que tenia un biaix racista en basar el seu càlcul en dades de departaments policials que, històricament, havien condemnat més gent negra. Per a casos així, Seguró incideix en la necessitat d'«entendre que la IA no és una eina neutral i creure-ho és autoenganyar-se».

Compartir a Twitter
Compartir a Facebook