Diari de Girona

Diari de Girona

Els robots assassins ja són aquí

De Líbia a Ucraïna, el desplegament d’armes autònomes letals que funcionen amb Intel·ligència Artificial no para de créixer; els experts demanen prohibir-les o limitar-les

Els robots assassins ja són aquí

Al març, els investigadors de fonts obertes que rastregen digitalment cada avanç en la guerra d’Ucraïna van detectar que Rússia hauria utilitzat un avió no tripulat capaç de disparar als enemics gràcies a la intel·ligència artificial (IA). Un robot assassí desplegat en el camp de batalla. Tot i que és difícil saber si aquest dron ha actuat amb independència, identificar-lo posa de nou en primer pla el temor de la normalització de sistemes d’armes autònomes letals, una realitat que ja ha superat la ciència-ficció.

Com va plasmar la retirada militar dels Estats Units de l’Afganistan, molts països són cada vegada més reticents a posar el cos en una intervenció directa en un conflicte. Mentre que l’elevat cost humà i polític desincentiva les operacions sobre el terreny, la possibilitat d’actuar en remot, des d’un centre de control a l’altra punta del món, és una opció molt més atractiva. Les armes autònomes estan obrint la porta a poder vigilar i respondre a grups terroristes com Al-Qaida o l’autoproclamat Estat Islàmic (ISIS) des d’una remota base militar de Nevada a més de 12.000 quilòmetres de distància.

El dron rus detectat a Kíev podria no ser el primer dispositiu intel·ligent utilitzat pel Kremlin en una guerra, ja que diversos informes apunten que aquest mateix model hauria estat utilitzat ja a Síria el 2019. A més de Moscou, Israel, Corea del Sud i Turquia també haurien recorregut a armes amb capacitat autònoma, tot i que es desconeix si ho haurien fet amb el mode d’autogestió activat. Segons un informe de les Nacions Unides, la primera víctima d’aquests sistemes es podria haver produït amb un dron de fabricació turca utilitzat el març del 2020 per les forces líbies per «caçar i atacar a distància» en el marc de la guerra civil, una acusació que Ankara rebutja.

Inversió en investigació

Aquests casos il·lustren com aquesta tecnologia militar està proliferant cada vegada més ràpidament. Però, més enllà de la seva aplicació, són més els països que inverteixen en investigació. Entre el 2016 i el 2020, l’exèrcit dels EUA va destinar uns 18.000 milions de dòlars a aquesta causa. Washington s’ha oposat a qualsevol tipus de regulació. Austràlia, el Regne Unit i la Xina també estarien finançant la creació de noves armes intel·ligents de més abast i capacitat.

Els sistemes autònoms letals més comuns són els drons, els algoritmes dels quals han estat entrenats per detectar els seus objectius, ja siguin tancs, barcos, radars enemics i fins i tot persones concretes. Tot i que les aeronaus no tripulades existeixen des de fa més d’un segle, els drons com a armes d’execució han proliferat en les dues últimes dècades, especialment amb la presidència de Barack Obama. Tanmateix, els drons intel·ligents són més recents. I encara queda molt per explorar.

L’ús d’aquesta mena de tecnologia militar inquieta els experts en IA. Una de les principals preocupacions són els possibles errors en la identificació. Nombrosos estudis han demostrat que les equivocacions algorítmiques són més habituals amb persones racialitzades, cosa que tendeix a amplificar-ne la discriminació. El software de reconeixement de Google, un dels gegants tecnològics més grans del món, va confondre afroamericans amb goril·les. Si fins i tot les imatges netes poden ser problemàtiques per a l’IA, en un context de destrucció bèl·lica la identificació d’objectius pot ser molt més imprecisa. I, per tant, perillosa.

Algoritmes opacs

L’impacte d’aquests biaixos no és fútil. A la frontera d’Espanya tenen el potencial perill de criminalitzar migrants en situació de vulnerabilitat. Però, ¿i si el sistema de reconeixement facial d’un dron confon un nen innocent amb un terrorista? Aplicat en el camp de batalla, aquest marge d’error pot equivaler a la mort. A més, l’opacitat amb què els algoritmes prenen decisions -similar a una caixa negra- fa que sigui pràcticament impossible fiscalitzar-los.

Aquest perill es multiplica en un context de normalització d’aquest tipus d’armes, ja sigui en una hipotètica cursa armamentística o en el cas que proliferin versions barates d’aquesta tecnologia -com ja va passar amb el rifle automàtic d’assalt AK-47 de Kalàixnikov- que permetin que grups terroristes més enllà de les tropes regulars hi tinguin accés.

La preocupació per aquesta mena d’armes ha anat creixent en paral·lel a la seva oposició. Milers d’experts en IA i defensors dels drets humans han exigit que es prohibeixin. Fins a un 61% dels ciutadans de 26 països també en rebutgen l’ús, segons una enquesta per a Human Rights Watch del 2019. L’Índia, Israel, el Brasil i la Xina són els països en els quals més gent creu que els robots es poden utilitzar per matar humans. A Espanya, el rebuig és del 65%.

Des del 2013, uns 40 països han donat suport a la creació d’una llei internacional que restringeixi i limiti aquests sistemes, i gairebé un centenar han mostrat la seva preocupació. «Imaginin les conseqüències d’un sistema autònom que podria, per si mateix, apuntar i atacar éssers humans», va alertar el 2018 el secretari general de les Nacions Unides, António Guterres. «Demano als estats que prohibeixin aquestes armes, que són políticament inacceptables i moralment repugnants». No obstant, la iniciativa encara no ha prosperat. El desembre passat, el debat produït durant la Convenció de Certes Armes Convencionals de l’ONU tampoc va arribar a bon port.

L’oposició de molts exèrcits fa que aprovar un tractat per a una prohibició a tot el món sigui poc viable. Tot i així, existeixen vies per limitar-ne l’impacte. I és que, com han assenyalat organitzacions internacionals com Stop Killer Robots, podria impulsar-se una regulació de les armes autònomes que limiti aquelles que suposen més risc i imprevisibilitat, i que permeti l’ús de l’IA en tecnologia militar defensiva, com escuts antimíssils intel·ligents. Aquesta rebaixa pot ser terreny fèrtil per arribar a un acord que posi límits a la creixent normalització dels anomenats robots assassins. Com més se n’estengui l’ús, més difícil serà tenir-los sota control.

Compartir l'article

stats