Saltar al contingut principalSaltar al peu de pàgina

Compte amb els robots humanoides: els experts adverteixen dels greus perills que poden comportar per a la seguretat

La tecnologia és positiva, però fins a arribar a la perfecció s'ha d'anar molt amb compte

Compte amb els robots, no tot és tan bonic com sembla

Compte amb els robots, no tot és tan bonic com sembla / freepik

Pablo Javier Piacente / T21

Hi ha qui aposta per la intel·ligència artificial i els robots humanoides, però realment això és segur? Segons un grup d'investigadors s'ha confirmat que hi ha certes errades greus que podrien perjudicar i molt a tots els usuaris, institucions, etc. El robot humanoide Unitree G1 s'utilitza a departaments de policia i laboratoris, però s'ha descobert que pot ser una porta oberta per a la vigilància encoberta i, a més, també podria llançar un ciberatac a gran escala a la xarxa.

Els robots humanoides que ja comencen a operar en dependències policials i espais públics plantegen un risc de seguretat que generalment no solen esmentar: ara, un equip d'experts ha demostrat que models comercials com Unitree G1 poden ser fàcilment hackejats i utilitzats tant per a espionatge com per a atacs digitals.

En un estudi tècnic publicat a arXiv, un equip liderat per Víctor Mayoral-Vilches, especialista i emprenedor espanyol en robòtica, va descriure una auditoria completa del G1 que revela errors crítics en els seus protocols de connexió i en el seu esquema de xifratge.

Múltiples riscos

Segons els especialistes, la provisió de Wi-Fi mitjançant Bluetooth Low Energy (BLE) és vulnerable a una injecció de comandes que permet obtenir accés al control del sistema a través de credencials falses, entre altres vulnerabilitats que faciliten la ruptura de la protecció en moltes unitats.

Els autors documenten dos riscos importants. D'una banda, el robot actua com un “cavall de Troia” en filtrar permanentment estats de servei a ubicacions externes cada cinc minuts, sense avisar l'operador. No és una cosa menor: seria com si el nostre telèfon mòbil enviés dades privades i crítiques de la nostra activitat a fonts externes sense avisar-nos.

D'altra banda, és possible desplegar un agent de “Cybersecurity AI” resident que passi de tasques de reconeixement a operacions ofensives contra la infraestructura en què s'integra el robot. Aquestes troballes no només comprometen la privadesa dels usuaris, sinó que també converteixen la màquina en un possible vector d'atac contra xarxes i sistemes crítics.

Un esquema de seguretat més avançat

Segons explica Tech Xplore, el descobriment posa en discussió l'ús real d'aquests robots humanoides i la possibilitat que equips desplegats en contextos delicats siguin explotats per tercers, sobretot amb finalitats delictives o d'espionatge. Els autors assenyalen a més que el fabricant del model va ser contactat per comunicar-li les conclusions obtingudes, però que després d'una comunicació inicial posteriorment no va respondre.

Esquema de les rutes de comunicació que mostren serveis al núvol i components interns dels robots, que podrien ser corromputs mitjançant tècniques informàtiques aplicades pels ciberdelinqüents. /

Esquema de les rutes de comunicació que mostren serveis al núvol i components interns dels robots, que podrien ser corromputs mitjançant tècniques informàtiques aplicades pels ciberdelinqüents. / / Crèdit: arXiv (2025). DOI: 10.48550/arxiv.2509.14139

Referència

Cybersecurity AI: Humanoid Robots as Attack Vectors. Víctor Mayoral-Vilches et al. arXiv (2025). DOI:https://doi.org/10.48550/arXiv.2509.14139

No es pot deixar de considerar que un dispositiu amb capacitats físiques, com ara càmeres, micròfons i mobilitat, i connexions permanents a xarxes externes, es pot convertir en una amenaça real i generar riscos per a persones i institucions. A més, cal destacar que l'existència de claus i mecanismes estàtics implica que les vulnerabilitats trobades en una unitat són reproduïbles en altres, multiplicant l'abast d'una sola errada.

D'acord amb els especialistes, aquests robots humanoides exigeixen defenses adaptatives basades en intel·ligència artificial (IA), auditories obligatòries, transparència en el disseny criptogràfic i controls estrictes sobre la telemetria que els fabricants permeten. A curt termini, recomanen aïllar aquests robots de xarxes crítiques, limitar-ne els permisos, exigir firmes de microprogramari i revisar contractes de compra pública.

Tracking Pixel Contents