Saltar al contingut principalSaltar al peu de pàgina

Trump i el Pentàgon castiguen una empresa d’IA per negar-se a usar la tecnologia per a la vigilància massiva i la creació d'armes autònomes

La sanció deixa Anthropic fora de la cadena de subministrament militar, fa perillar un contracte de 200 milions de dòlars i obliga els proveïdors de l’Exèrcit a deixar d’utilitzar Claude

Dario Amodei, cofundador i CEO d'Anthropic, l'empresa d'IA responsable dels models Claude

Dario Amodei, cofundador i CEO d'Anthropic, l'empresa d'IA responsable dels models Claude / Ruhani Kaur / Bloomberg

L’Administració Trump ha executat finalment la seva amenaça contra Anthropic. El Departament de Defensa ha inclòs la companyia d’intel·ligència artificial a la llista de riscos per a la cadena de subministrament, una decisió excepcional que talla d’arrel la seva relació amb el món militar i força altres contractistes de l’Exèrcit a prescindir dels seus serveis. Fins ara, el Pentàgon feia servir Claude, el model desenvolupat per l’empresa, per gestionar informació classificada, i la valoració interna era positiva. El conflicte va esclatar en el moment de negociar fins on podia arribar l’ús militar d’aquesta tecnologia.

El xoc: vigilància de ciutadans i armes sense control humà

En aquestes converses, el rebatejat Departament de Guerra volia plena llibertat per utilitzar la tecnologia, però Anthropic va fixar dues línies vermelles: no permetre que la seva IA servís per a la vigilància massiva de ciutadans nord-americans ni per desenvolupar armes autònomes. La Casa Blanca va considerar aquestes condicions massa restrictives. La tensió va anar a més fins al punt que Donald Trump va carregar contra la firma, a qui va qualificar de 'woke' per no plegar-se a les exigències del govern. El secretari de Defensa, Pete Hegseth, ja havia advertit que, si l’empresa no cedia abans de divendres passat, seria apartada.

El Pentàgon defensa que l’Exèrcit ha de poder usar la tecnologia per a qualsevol finalitat legal

El director executiu d’Anthropic, Dario Amodei, no va fer marxa enrere. La companyia, sorgida com una escissió d’OpenAI amb la idea d’impulsar una IA més ètica, sosté que és massa arriscat posar sistemes generatius al comandament d’armes capaces d’identificar i disparar contra objectius sense supervisió humana. El seu argument és que, si aquests models poden equivocar-se quan responen usuaris o fins i tot al·lucinar, el perill es multiplica en un entorn bèl·lic. Malgrat això, el Pentàgon va comunicar que considera Anthropic i els seus productes un risc per a la cadena de subministrament amb efecte immediat. Segons Defensa, es tracta d’un principi bàsic: l’Exèrcit ha de poder fer servir la tecnologia per a qualsevol ús legal, i no acceptarà que un proveïdor limiti una capacitat crítica ni condicioni la cadena de comandament.

El nominat per Donald Trump per a secretari de Defensa, Pete Hegseth, durant la seva audiència al Senat

El nominat per Donald Trump per a secretari de Defensa, Pete Hegseth, durant la seva audiència al Senat / ALEX BRANDON / AP

Un cop econòmic i judicial de gran abast

La mesura, habitualment reservada a companyies estrangeres com la xinesa Huawei, suposa un cop dur per a Anthropic. No només posa fi al contracte de 200 milions de dòlars que mantenia amb el Govern dels Estats Units, sinó que també impedeix que qualsevol empresa que treballi amb l’Exèrcit continuï utilitzant Claude. Davant d’això, Anthropic ha replicat que la decisió de l’Administració Trump no té validesa legal i ha anunciat que la portarà als tribunals. Mentrestant, el president ha fixat un període transitori de sis mesos perquè l’Exèrcit deixi d’emprar de manera progressiva la seva IA.

Tracking Pixel Contents