Opinió

Quan la intel·ligència artificial la robòtica es combinen per fer armament

Què passa quan es combina la intel·ligència artificial com ChatGPT o Bard amb un robot avançat? Segons els enginyers experts en el tema, el que tindrem es un robot "intel·ligent" capaç de realitzar una àmplia gamma de tasques útils sense supervisió humana. Per exemple, netejar una casa o distribuir correu i paquets o qualsevol de les moltes tasques físiques que s'han de fer tan a nivell de la llar, com oficines, fabriques, etc.

Però hi ha un altre ús potencial per a aquests dispositius: ser utilitzats com a armes de guerra. Fins ara, la majoria dels robots han estat massa "ximplets" per realitzar qualsevol cosa més enllà de funcions limitades i preprogramades. Els robots convencionals d'aquest tipus s'utilitzen ara àmpliament a les línies de muntatge d'automòbils i en operacions similars. Però les empreses d’alta tecnologia veuen un futur comercial prometedor per als robots amb intel·ligència artificial capaços de realitzar una gamma molt més àmplia d'activitats, incloses les que requereixen un cert grau d'acció independent o "autònoma". Tothom assumeix que les versions més avançades aviat substituiran els humans a les indústries mèdiques, logístiques i de serveis.

Al mateix temps, aquestes tecnologies estan sent incorporades per els exèrcits de cada cop mes països. Els media cada dia ens mostren com incorporen la intel·ligència artificial als tancs, vaixells, drons i avions per crear el que alguns anomenen "sistemes d'armes autònomes letals" i d'altres "robots assassins". És a dir, armes capaces d'identificar, fer un seguiment i colpejar objectius enemics amb una supervisió humana mínima o inexistent. Estem parlant de vehicles de combat robòtics, vehicles, vaixells i avions no tripulats. La majoria d'aquests armament està sota algun tipus de control humà mentre estan en vol o viatgen al llarg de trajectòries preprogramades. Molts, però, posseeixen un cert grau d'autonomia, per exemple a l'hora de seleccionar objectius per atacar.

A mesura que la guerra ha avançat, els dissenyadors d'armes a Ucraïna, Rússia, els EUA i altres llocs han fet millores contínues en aquests dispositius, augmentant constantment l'ús de la intel·ligència artificial per buscar, identificar i triar objectius. Sembla inevitable que els drons cada cop més capaços i "intel·ligents" transformaran el camp de batalla, substituint vaixells, avions i tancs amb tripulació humana en una gran varietat d'operacions de combat. Podem imaginar fàcilment que tots els països que poden, estan invertint milers de milions en el desenvolupament i l'adquisició de sistemes d'armes autònomes i semiautònomes avançats.

Sembla ser, que aquestes polítiques de rearmament fonamentat en la robòtica i la intel·ligència artificial, estan generant generat una alarma considerable entre científics, diplomàtics, informàtics, activistes dels drets humans i altres sectors socials. Temen que el desplegament de sistemes d'armes autònoms es tradueixi en desastres humans no desitjats. La por es que l'alliberament no regulat d'aquests sistemes pugui provocar danys catastròfics per a la població humana i la Natura. “L'ús maliciós dels sistemes de d’intel·ligència artificial amb finalitats terroristes, criminals o estatals podria causar nivells horribles de mort i destrucció, trauma generalitzat i danys psicològics profunds a una escala inimaginable", va dir el secretari general de l'ONU, António Guterres, en una sessió especial del Consell de Seguretat de l’any passat.

Una de les pors mes angoixants, es que aquests dispositius un cop desplegats, tinguin poder per matar éssers humans sense la capacitat de complir les disposicions del dret internacional humanitari, que exigeixen, entre altres coses, que les parts en guerra puguin distingir entre combatents i civils al camp de batalla. Els descontrol i els errors d’aquestes tecnologies es inquietant. Molts governs, partits i organitzacions no governamentals han demanat una prohibició legalment vinculant d’aquests dispositius. El Comitè Internacional de la Creu Roja per exemple, recomana “que els estats adoptin noves normes internacionals legalment vinculants per prohibir les armes autònomes imprevisibles i les dissenyades o utilitzades per aplicar la força contra persones, i posar restriccions estrictes a totes les altres”. No obstant això, els Estats Units i d’altres estats amb programes d'armes autònomes avançats s'oposen a l'adopció d'una prohibició legalment vinculant i demanen, en canvi, el desenvolupament i el desplegament continus d'aquests sistemes sempre que compleixin amb diversos "principis" voluntaris. Sembla imparable el desenvolupament d’aquets tipus d’armament, però hem de lluitar per que l’ús militar de la intel·ligència artificial sigui ètic, responsable i que aconseguís millorar la seguretat internacional. ¿Ho aconseguirem?

Subscriu-te per seguir llegint