L'arribada de la IA va suposar una revolució humana, global i fins i tot planetària. I la seva evolució encara ens continua sorprenent.
En els darrers temps, hem estat testimonis de com assistents com ChatGPT, DeepSeek o qualsevol altre model de llenguatge han deixat de ser simples eines de text, per transformar-se en "companys digitals" amb una inquietant habilitat: recordar les converses que has mantingut amb ells.
El dubte raonable és… què passa amb aquestes dades? Desapareixen i ja està? Es guarden? De quina manera es guarden?
Dubtes que ens fan reflexionar sobre fins a quin punt hem de confiar a la IA.
Els dos tipus de memòria de les IA: Un post-it o un espia digital?
Les IA modernes no emmagatzemen informació de la mateixa manera que una base de dades estàndard sinó que ho fan de manera diferent:
Memòria guardada: diguem que és com dir-li a un amic que t'ajudi, que demà et recordi trucar, comprar medicines, com a notes mentals perquè les tingui en compte per tu. ChatGPT guarda continguts que tu tries, tipus preferències alimentàries, horaris de treball, o allò que canònicament s'anomena "prompt".
Memòria implícita (aprenentatge contextual): aquí es posa interessant el tema, ja que és un tipus de memòria que examina el context de les vostres xerrades per identificar patrons. Per exemple, si li dius que t'agrada fer senderisme, posteriorment et podria recomanar rutes sense que tu els ho demanis. Útil o invasiu? Depèn de quant valorem la nostra privadesa.
No és màgia, és memòria contextual, i pot ser enormement útil o sorprenentment inquietant, depenent de la teva perspectiva i de quant valores la teva privadesa digital.
Podrà oblidar-se de nosaltres?
Segons les companyies que han desenvolupat aquestes IA, se'ns assegura que podrem controlar les dades que els oferim, però no és tan senzill:
Podem eliminar memòries manualment (encara que no sempre és de forma intuïtiva).
Hi ha un "mirar temporal" (semblant al mode incògnit d'un navegador).
A Europa, el GDPR limita aquestes funcionalitats de manera que molts usuaris es queden sense aquestes opcions.
El dilema és saber si realment ho elimina tot. OpenAI ho assegura, però no convenç els experts en privadesa.
El costat fosc: les converses entrenen la IA del futur?
Aquí és on és veritablement el debat. Si activeu el mode "Millorar el model per a tothom", les vostres interaccions poden formar part de les futures ID de ChatGPT. És a dir: els teus xats anònims són part del futur de la IA.
La polèmica és que:
No sempre és clar quines dades es guarden i com es fan servir.
Tot i que s'eliminen detalls personals, els patrons de llenguatge poden revelar molt de nosaltres.
A Europa ens protegeixen lleis com el GDPR, però no així a la majoria dels països del món.
Què fer? Pots desactivar aquesta opció en ajustaments, així els teus xats només serviran per al teu ús personal.
És un equilibri complicat: sense dades, la IA no millora; però amb tantes dades, sorgeixen dubtes sobre privadesa i control. Fins a quin punt estàs disposat a compartir?
Privadesa vs. Personalització. On és el límit?
Tenir un assistent amb qui recordes la teva agenda i tot el dia a dia ajuda molt, però també implica que una empresa tecnològica guardi detalls de la teva vida.
Per exemple, imagina que informes a ChatGPT que estàs passant per una situació personal complicada, qui més hi podria tenir accés? Podrien aquestes dades ser utilitzades per a la creació de publicitat dirigida en el futur?
I el més inquietant: encara que avui les empreses es comprometen a nivell ètic amb l'ús de dades, les polítiques solen canviar sense adonar-nos-en. Allò que avui s'emmagatzema com un simple patró de conversa, demà pot ser la base de models predictius que anticipin quins productes compraràs o els teus estats d'ànim.
La línia entre personalització útil i intrusió és molt prima, i cada cop es dilueix més.
Cap on anem? Un futur d'assistents "massa" humans?
La memòria de la IA seguirà evolucionant per fer-se més complexa, arribant fins i tot a preveure les nostres necessitats a partir de converses anteriors, com ara recordar celebracions, onomàstiques, èpoques decisives i hàbits que molts humans.
També podrien llançar-nos advertiments davant de comportaments que, amb anterioritat, hàgim comentat: "Dinaràs això? Fa un temps vas dir que faries dieta per aprimar-se...". Reflexionem!
Conclusió: ens serveix de preocupar-nos?
La memòria artificial és una arma de doble tall: ens facilita moltes coses però, per altra banda, ens vigila i coneix les nostres dades. La propera vegada que ChatGPT et faci recordar alguna cosa que vas oblidar, pregunta't: m'adono que això queda registrat?
Tipus per protegir-te:
Fes servir xats temporals per qüestionar coses sensibles.
Recorda revisar periòdicament allò que la IA "sap" de tu.
Desactiva l'entrenament amb les teves dades si no hi vols contribuir.
I tu, prefereixes un assistent que adapti les seves respostes al teu historial o un que comenci de zero a cada conversa?