Opinió
Parlem d’Intel·ligència Artificial
Fa uns dies hem sabut que Elon Musk ha presentat un pla per convertir Tesla en un gegant de la IA i la robòtica i en cas de complir els objectius l’empresa li pagaria com a bonificació mil milions de dòlars. Realment algú necessita mil milions de dòlars per viure? La vida té un límit d’anys i això em recorda frases que descriuen la insensatesa humana com aquella que tinc escrita que diu: un senyor en un llit carregat de tubs enfrontant-se a la mort i mirant en un ordinador com va la borsa.
Un exemple dels molts que descriu Ramon López de Mántaras en el llibre 100 coses que cal saber sobre Intel·ligència Artificial és el dels bastons pigall robotitzats, són uns bastons per a cecs que tenen incorporats tant sensors per detectar millor els obstacles, com GPS per saber l’orientació i guiar al destí com altres enginys que millorem molt les prestacions del bastó.
Els exemples ens serveixen per veure la diferència entre la recerca en IA que ajuda les persones a viure millor i les grans tecnològiques que ens volen fer veure les coses del color que ells volen per poder guanyar més diners. El Premi Nobel d’Economia d’aquest any, Phillippe Aghion, ho diu des del punt de vista econòmic. Per al desenvolupament de la societat cal protegir la innovació i les grans empreses tecnològiques quan s’enquisten (sols pensen en els diners i la competència) són una rèmora, maten la innovació i sols permetran la innovació si els regulem adequadament.
Estem en uns moments en què sembla que la Intel·ligència Artificial (IA) ho pot resoldre tot. No és nou, ha passat molts cops d’ençà que la IA es va donar a conèixer el 1956 al seminari de Dartmouth. Des d’aleshores ha estat com el Guadiana, ha fet prediccions que podia fer coses que després s’han demostrat impossibles amb la tecnologia del moment i ha passat un temps amagada inclús per les coses que sí que podia fer fins que un altre descobriment l’ha tornat a posar en el tret de sortida d’unes expectatives massa agosarades i ha tornat a caure al soterrani. És diferent ara?
Avui la gran novetat són els sistemes com ChatGPT i els similars apareguts posteriorment (sistemes de LLM, «Large Lenguage models») que són prototips de bots conversacionals centrats en el diàleg, un format que permet que responguin a preguntes de seguiment, admetin els seus errors, desafiïn premisses incorrectes i rebutgin sol·licituds inadequades. Aquests xatbots són capaços de generar tota classe de texts responent a diàlegs i preguntes. De fet avui ja s’han incorporat als anteriors cercadors (com el de Google, el prototip més usat). Quan un fa una cerca a Google abans tenia un llistat d’adreces que el conduïen a llocs on podia trobar respostes a la seva cerca, ara aquestes llistes estan precedides, en molts casos, de textos en llenguatge natural d’una possible resposta a la teva cerca. I com ho fa? Doncs buscant coincidències en grans bases de dades la fiabilitat de les quals no està garantida. I ho fa per «similitud estadística» no per coneixement del llenguatge que no tenen.
És així com es pot donar l’exemple que vaig sentir explicar en una conferència sobre LLM. Deien que havien preguntat sobre jugar als escacs però en un tauler on s’havia canviat la posició del cavall i l’alfil. ChatGPT responia les preguntes de quina jugada fer com si les fitxes no s’haguessin canviat de lloc, és normal, a la base de dades sols tenia exemples de jocs d’escacs normals... A més, què passa si la base de dades conté informació errònia? Què passa si a la base de dades tenim moltes entrades en les quals es nega el canvi climàtic o que anomenen el Golf de Mèxic com a Golf d’Amèrica com vol Trump, o que donen versions esbiaixades de qualsevol notícia, per exemple amb relació a la guerra d’Ucraïna o de Gaza, etc.? Mentre preguntem coses neutres podríem pensar que les respostes serien encertades (el cas dels escacs demostra que no sempre) però quan preguntem coses ideològiques hauríem de saber que les respostes tindran un cert biaix, depenent de la base de dades.
Hi ha una altra cosa que em preocupa i és la degradació del llenguatge de les persones que utilitzen aquests sistemes. Fa temps vaig llegir un article titulat «escriure a mà, a màquina i a ordinador» on s’explicava com canviava la manera d’escriure en cada cas, ara m’agradaria saber com s’escriu quan s’utilitzen els ChatGPT’s. Ja hi comença a haver estudis de com degrada el llenguatge dels seus usuaris.
Per acabar, els diré que no vull que renunciïn a utilitzar els LLM de torn, m’impressionen moltes respostes que donen però hem de saber com utilitzar-los, saber les limitacions que tenen. Sols així ens seran útils de veritat, com els algoritmes, que tenen un cert grau de fiabilitat i ens volen fer creure que són oracles de la veritat.
Subscriu-te per seguir llegint
- Denuncien que l’alcalde de Sant Martí Vell va mentir sobre la informació que tenia respecte a la visita de la família reial al municipi
- Si el teu fill neix en un d’aquests tres mesos serà més intel·ligent, segons la ciència
- Tanca Formaticum, el restaurant de Girona especialitzat en la cuina del formatge
- Nou intent d'estafa a un veí de Girona amb el pagament de taxes fent-se passar per l'Ajuntament
- Furor pel nou Ikea a Girona: 300 euros per bescanviar pel primer client
- La segona millor pizza de Catalunya és a Blanes
- Polèmica a Girona: queixes per una furgoneta del Banc de Sang aparcada en places per a persones amb mobilitat reduïda
- El gran ensurt de la seva vida: una dona es desperta amb una serp de més de dos metres al llit
