OpenAI estudia com fer que els usuaris puguin generar pornografia amb intel·ligència artificial

L'aplicació d'IA per generar imatges, Stable Diffusion, s'ha entrenat amb una base plena de dades de continguts d'abús sexual a menors

Carles Planas Bou

La intel·ligència artificial ha arribat per quedar-se, però fins a quin punt ens serà beneficiosa o contraproduent? OpenAI, responsable de ChatGPT s'està plantejant com fer que els usuaris puguin començar a generar pornografia i altres continguts sexuals o eròtics gràcies a aquestes eines.

La setmana passada, la companyia, liderada per Sam Altman i sostinguda econòmicament per Microsoft, va presentar un extens document que fixa com s'han de comportar els models. S'obre la porta a revisar la seva prohibició actual, que impossibilita la generació d'imatges o vídeos eròtics.

"Estem estudiant si podem oferir de manera responsable la possibilitat de generar contingut NSFW en contextos apropiats per a l'edat", afirma el document en un comentari. L'acrònim NSFW ("no segur per al treball", en anglès) es refereix a erotisme, blasfèmies i gore extrem (violència gràfica).

Com a exemple, OpenAI indica que ChatGPT "ha de continuar sent útil en contextos científics i creatius que es considerin segurs per al treball", com ara "parlar de sexe i òrgans reproductors en un context científic o mèdic".

"Volem assegurar-nos que la gent tingui el màxim control en la mesura que no violi la llei o els drets d'altres persones, però permetre deepfakes (vídeos manipulats) està fora de la qüestió, i punt", ha explicat Joanne Jang, d'OpenAI, en declaracions a l'emissora de ràdio NPR. Jang ha assegurat que la companyia no està "intentant crear porno amb IA", si bé ha afegit que això "depèn de la teva definició de porno".

El concepte actual de pornografia està fent molt de mal a la societat i ara, a més, amb intel·ligència artificial.

El concepte actual de pornografia està fent molt de mal a la societat i ara, a més, amb intel·ligència artificial. / fxquadro

Riscos de la IA

Més enllà d'aquestes promeses de “responsabilitat”, la mesura inquieta els experts. El passat mes de març, un enginyer de programari de Microsoft va denunciar públicament que Copilot Designer, el generador d'imatges de la companyia que funciona amb la tecnologia d'OpenAI, crea imatges violentes i sexuals "nocives".

La restricció actual és deguda als riscos de vincular la IA i els continguts sexualment suggeridors. En els últims mesos, la proliferació d'aplicacions que permeten generar falsos nus d'altres persones ha disparat el nombre de víctimes d'aquest delicte, ja siguin celebritats com la cantant Taylor Swift o menors d'edat de fins a 14 anys. El passat setembre, sense anar més lluny, una vintena de mares de Badajoz van denunciar que les seves filles havien estat exposades per companys de classe, que havien manipulat fotos seves per despullar-les i penjar-les a les xarxes socials per humiliar-les.

Hi ha altres polèmiques. Des de fa anys, les principals pàgines web de pornografia contenen deepfakes de famoses per simular escenes sexuals. Tot això, és clar, sense el consentiment de les víctimes, la imatge de les quals és explotada per satisfer les fantasies de tercers.

Els riscos de fer servir IA per generar contingut sexual va encara més enllà. El passat desembre, una investigació de l'Observatori d'Internet de la Universitat de Stanford va destapar que populars apps d'IA com el generador d'imatges Stable Diffusion s'han entrenat amb una base de dades plena de continguts d'abús sexual a menors. Els experts han advertit que això podria ajudar a reproduir més contingut fals de la mal anomenada pornografia infantil.