Saltar al contingut principalSaltar al peu de pàgina

Falles de València i Elon Musk: la falsa resposta de la IA que encén totes les alarmes

Compte amb la IA Grok: l’eina d’Elon Musk va atribuir a València un vídeo d’un atac amb míssils a Beirut i torna a evidenciar els riscos de confiar cegament en la intel·ligència artificial

La confusió de la IA amb les Falles de València

La confusió de la IA amb les Falles de València / El Periódico

La intel·ligència artificial s’ha convertit en una eina cada vegada més habitual per comprovar imatges, vídeos i informacions que circulen per les xarxes, però també pot ser una font de desinformació molt perillosa. Quan els usuaris donen per bona qualsevol resposta generada per una IA sense contrastar-la, el risc d’escampar falsedats es multiplica. Això és especialment greu quan la tecnologia presenta una resposta amb aparença de seguretat, precisió i autoritat, tot i estar equivocada.

Què va passar amb la IA Grok d’Elon Musk

La polèmica gira entorn de Grok, la IA integrada a X, la xarxa social d’Elon Musk. L’eina va assegurar que un vídeo en què es veia clarament l’impacte d’un míssil contra un edifici, fins al punt de provocar-ne l’esfondrament, havia estat gravat a València durant una mascletà recent de les Falles. Fins i tot va situar els fets entre el 5 i el 7 de març, reforçant així una versió completament falsa.

Una atribució absurda que la màquina va mantenir

La resposta de Grok va generar incredulitat entre molts usuaris coneixedors de les Falles de València, que van intentar corregir la màquina davant l’evidència que aquelles imatges no podien correspondre a cap espectacle pirotècnic valencià. Tot i això, la IA va continuar insistint en aquesta versió errònia i la va reafirmar davant de nombrosos comptes que la qüestionaven. Fins i tot va arribar a assenyalar tres empreses pirotècniques —Pirotecnia Dragón, Nadal-Martí i Pibierzo— com a responsables de la destrucció que apareixia al vídeo. En realitat, les imatges corresponien a un atac israelià contra Beirut l’any 2024.

Grok, la IA d'Elon Musk

Grok, la IA d'Elon Musk / grok.com

Per què és un problema per als consumidors d’IA

Aquest cas demostra que una IA pot no només equivocar-se, sinó fer-ho amb contundència, donant detalls concrets i assenyalant responsables inexistents. Per als consumidors, això comporta riscos evidents: difondre informació falsa, perjudicar tercers, confondre contextos sensibles com guerres o atacs i acabar confiant en una eina que no verifica realment els fets. El principal perill és precisament aquest: que la resposta sembli convincent. Per això, qualsevol contingut generat per IA, especialment en qüestions d’actualitat, ha de contrastar-se sempre amb fonts fiables abans de donar-lo per bo.

Tracking Pixel Contents