La llegada de la IA supuso una revolución humana, global e incluso planetaria. Y su evolución, todavía nos sigue sorprendiendo.
En los últimos tiempos, hemos sido testigos de cómo asistentes como ChatGPT, DeepSeek o cualquier otro modelo de lenguaje han dejado de ser simples herramientas de texto, para transformarse en "compañeros digitales" con una inquietante habilidad: recordar las conversaciones que has mantenido con ellos.
La duda razonable es… ¿qué pasa con esos datos? ¿Desaparecen y ya está? ¿Se guardan? ¿De qué manera se guardan?
Dudas que nos hacen reflexionar sobre hasta qué punto debemos confiar en la IA.
Los dos tipos de memoria de las IA: ¿Un post-it o un espía digital?
Las IA modernas no almacenan información del mismo modo que una base de datos estándar sino que lo hacen de modo diferente:
- Memoria guardada: digamos que es como decirle a un amigo que te ayude, que mañana te recuerde llamar, comprar medicinas, como notas mentales para que las tenga en cuenta por ti. ChatGPT guarda contenidos que tú eliges, tipo preferencias alimentarias, horarios de trabajo, o lo que canónicamente se llama "prompt".
- Memoria implícita (aprendizaje contextual): aquí se pone interesante el tema ya que es un tipo de memoria que examina el contexto de vuestras charlas para identificar patrones. Por ejemplo, si le dices que te gusta hacer senderismo, posteriormente te podría recomendar rutas sin que tú se lo pidas. ¿Útil o invasivo? Depende de cuánto valoremos nuestra privacidad.
No es magia, es memoria contextual, y puede ser enormemente útil o sorprendentemente inquietante, dependiendo de tu perspectiva y de cuánto valoras tu privacidad digital.
¿Podrá olvidarse de nosotros?
Según las compañías que han desarrollado estas IA, se nos asegura y persegura que podremos controlar los datos que les ofrecemos, pero no resulta tan sencillo:
● Podemos eliminar memorias manualmente (aunque no siempre es de forma intuitiva).
● Hay un "mirar temporal" (parecido al modo incógnito de un navegador).
En Europa, el GDPR limita estas funcionalidades por lo que muchos usuarios se quedan sin estas opciones.
El dilema es saber si realmente elimina todo. OpenAI lo asegura, pero no convence a los expertos en privacidad.
El lado oscuro: ¿tus conversaciones entrenan a la IA del futuro?
Aquí es donde está verdaderamente el debate. Si activas el modo "Mejorar el modelo para todos", tus interacciones pueden formar parte de las futuras ID de ChatGPT. Es decir: tus chats anónimos son parte del futuro de la IA.
La polémica está en que:
- No siempre es claro qué datos se guardan y cómo se usan.
- Aunque se eliminan detalles personales, los patrones de lenguaje pueden revelar mucho de nosotros.
- En Europa nos protegen leyes como la GDPR, pero no así en la mayoría de países del mundo.
¿Qué hacer? Puedes desactivar esta opción en ajustes, así tus chats solo servirán para tu uso personal.
Es un equilibrio complicado: sin datos, la IA no mejora; pero con tantos datos, surgen dudas sobre privacidad y control. ¿Hasta qué punto estás dispuesto a compartir?
Privacidad vs. Personalización ¿dónde está el límite?
Tener un asistente con el que te acuerdas de tu agenda y todo lo del día a día ayuda mucho, pero también implica que una empresa tecnológica guarde detalles de tu vida.
Por ejemplo, imagina que informas a ChatGPT de que estás pasando por una situación personal complicada, ¿quién más podría tener acceso a esto? ¿Podrían estos datos ser utilizados para la creación de publicidad dirigida en el futuro?
Y lo más inquietante: aunque hoy las empresas se comprometen a nivel ético con el uso de datos, las políticas suelen cambiar sin apenas darnos cuenta. Lo que hoy se almacena como un simple patrón de conversación, mañana puede ser la base de modelos predictivos que anticipen qué productos comprarás o tus estados de ánimo.
La línea entre personalización útil e intrusión es muy delgada, y cada vez se diluye más.
¿Hacia dónde vamos? Un futuro de asistentes "demasiado" humanos ?
La memoria de la IA seguirá evolucionando para hacerse más compleja, llegando incluso a prever nuestras necesidades a partir de conversaciones anteriores, como recordar celebraciones, onomásticas, épocas decisivas y hábitos que muchos humanos.
También podrían lanzarnos advertencias ante comportamientos que, con anterioridad, hayamos comentado: “¿Vas a comer eso? Hace un tiempo dijiste que ibas a hacer dieta para adelgazar…”. ¡Reflexionemos!
Conclusión: ¿nos sirve de algo preocuparnos?
La memoria artificial es un arma de doble filo: nos facilita muchas cosas pero, por otro lado, nos vigila y conoce nuestros datos. La próxima vez que ChatGPT te haga recordar algo que olvidaste, pregúntate: ¿me doy cuenta que esto queda registrado?
Tips para protegerte:
- Usa chats temporales para cuestionar cosas sensibles.
- Recuerda revisar periódicamente lo que la IA "sabe" de ti.
Desactiva el entrenamiento con tus datos si no quieres contribuir.
¿Y tú, prefieres un asistente que adapte sus respuestas a tu historial o uno que empiece de cero en cada conversación?