Chatbots y privacidad, un riesgo invisible que crece conversación a conversación. ¿Cómo evitarlo?
Para mucha gente, hablar con un chatbot se siente fácil. Como algo natural, incluso seguro. Pero esa sensación puede ser engañosa.
Un extenso informe del sitio especializado MyPrivacy advierte sobre una situación cada vez más presente en los asistentes de IA, y es que ya no solo responden, también construyen perfiles detallados de quienes los usan. Y lo hacen a partir de nuestras conversaciones cotidianas.
Un confesionario perfecto, pero que guarda registro
Los chatbots modernos tienen una ventaja clave y es que no juzgan.
Además, están disponibles 24/7, por lo general no reaccionan negativamente y no generan incomodidad. Eso hace que muchas personas terminen compartiendo más de lo que compartirían con un médico, su pareja o un amigo.
Y hay un cambio importante, esas confesiones ya no son parte de una conversación efímera.
Desde 2026, herramientas como ChatGPT, Claude o Google Gemini tienen funciones de memoria activadas por defecto. Esto significa que cada interacción puede alimentar un perfil que incluye:
Tus preocupaciones
Tu situación laboral
Tu salud
Tu contexto financiero
A diferencia de otros problemas de ciberseguridad, aquí no hay hackeo ni malware. El riesgo es más silencioso y sutil, ya que es el propio usuario quien entrega su información, poco a poco, conversación a conversación.
Y, como advierten expertos en privacidad, una vez que esos datos salen de tus manos, pierdes el control sobre dónde terminan o cómo se usan.
El informe refleja también hasta qué punto ya dependemos de estos sistemas:
52% de los adultos usan modelos de IA conversacional
43% de los trabajadores han compartido información sensible con chatbots
Muchos los usan como sustitutos de terapeutas, asesores financieros o consultores médicos
Además, la inmensa mayoría nunca ha leído (o hemos leído) las políticas de privacidad de estas herramientas (ni de cualquier otra).
Cómo tu información “sale” de la conversación
El informe identifica cinco formas principales en las que los datos pueden dejar de ser privados:
Entrenamiento de modelos: muchas plataformas utilizan las conversaciones para mejorar sus sistemas. Es decir, lo que escribes puede formar parte de futuros modelos de IA.
Filtraciones de datos: los proveedores de IA son objetivos de alto valor. Un incidente de seguridad no solo expone contraseñas, sino potencialmente todo tu historial de conversaciones.
Intercambio con terceros: detrás de muchos chatbots hay múltiples servicios, APIs y acuerdos. Tus datos pueden circular por más sistemas de los que imaginas.
Requerimientos legales: las conversaciones almacenadas pueden ser solicitadas por autoridades. A diferencia de un abogado o un terapeuta, no existe confidencialidad legal ni secreto profesional en estos casos.
Funciones de memoria: el riesgo más reciente y relevante. Los chatbots no solo recuerdan datos aislados, sino que construyen perfiles continuos con relaciones, hábitos, problemas recurrentes y contexto personal. Con el tiempo, ese perfil puede volverse sorprendentemente íntimo.
Por qué contamos demasiado y como evitarlo
No es casualidad. El diseño de estos sistemas favorece la apertura con:
Respuestas empáticas que reducen la inhibición
Memoria que genera sensación de relación
Disponibilidad constante que elimina filtros
Validación (a veces excesiva) que aumenta la confianza
El resultado es una herramienta que parece un confidente, pero funciona como un sistema de registro permanente.
Los expertos no recomiendan dejar de usar IA, sino hacerlo con criterio:
Evita compartir: datos personales completos (nombre + ubicación), información médica identificable, datos financieros o cuentas, información de hijos o familia, documentos laborales o de clientes, contraseñas o credenciales, problemas legales en curso ni dirección de tu hogar.
Compartir con cuidado: problemas personales (sin nombres), situaciones laborales (generalizando) o consultas de salud (sin detalles identificables).
La clave es usar el chatbot como herramienta, no como confidente.
¿Se puede borrar lo que ya compartiste?
Sí, aunque requiere acción manual. En herramientas como ChatGPT, Claude o Google Gemini puedes:
Revisar y eliminar memoria almacenada
Borrar historial de conversaciones
Desactivar uso de datos para entrenamiento
Para quienes necesitan mayor control, el informe recomienda opciones que funcionan de forma local, sin enviar datos a la nube, como Ollama, LM Studio o Jan.ai. En estos casos, la información no sale del dispositivo.
Conclusiones
El informe resume el problema en una idea: la experiencia es íntima e individual, pero el tratamiento de los datos es a nivel industrial. Aunque la conversación se sienta personal, se almacena en servidores, puede ser procesada automáticamente, revisada y expuesta.
Los chatbots son herramientas valiosas. Eso no está en discusión. Pero también son sistemas que recopilan, almacenan y procesan información sensible a gran escala. La recomendación no es dejar de usarlos, sino hacerlo de forma consciente.
Antes de escribir algo, preguntate si estarías cómodo viéndolo expuesto en una filtración. Si la respuesta es no, probablemente tampoco deberías compartirlo con un chatbot.



