Hace dos semanas, yo mismo hice algo que millones de personas repiten a diario abrí una ventana de chat y empecé a escribir. No era un mensaje a un amigo, ni un correo urgente. Buscaba respuestas. Tenía una inquietud personal, una de esas dudas que pesan por la noche y que uno no sabe si compartir, con quién hacerlo o si será juzgado al hacerlo. Así que pulsé "enviar" y esperé. La respuesta llegó en segundos. Rápida, clara, aparentemente empática. Pero tras leerla, una pregunta me golpeó ¿quién más, además del algoritmo, ha leído lo que acabo de escribir?
Cuando la confidencialidad se pierde en la nube
Este tipo de interacciones ya no son excepción, son rutina. Hablamos con chatbots como si fueran asistentes personales, psicólogos de emergencia o consejeros legales improvisados. Pero hay una diferencia fundamental un médico está obligado por juramento a guardar silencio; un abogado, por ética profesional, protege cada palabra del cliente; un terapeuta, por ley, no puede revelar lo que se dice en la sesión. Un chatbot, en cambio, no tiene obligaciones morales ni jurídicas. Solo tiene una política de privacidad. Y esa política, en muchos casos, dice que todo lo que escribes puede usarse para entrenar modelos, mejorar servicios o incluso ser analizado por terceros.
Este año, dos tribunales en Estados Unidos han abordado precisamente ese vacío. En Nueva York, un tribunal determinó que cuando un imputado compartió detalles de su caso con una inteligencia artificial, rompió el privilegio abogado-cliente. ¿La razón? Al interactuar con Claude, entregó información a un tercero. El tribunal consideró que el usuario perdió cualquier expectativa razonable de confidencialidad al ceder sus datos a una plataforma externa. Fue una decisión contundente hablar con una IA no es como hablar con un ser humano asesorado por el secreto profesional.
Pero apenas días después, un juez en Michigan resolvió lo contrario. En un caso civil, un litigante había usado ChatGPT para estructurar sus argumentos. El juez dictaminó que esas interacciones podían permanecer protegidas, porque el chatbot actuó como una "herramienta, no una persona", similar a un procesador de textos con funciones avanzadas. La IA no había revelado información, solo ayudaba a organizar ideas ya existentes. Así, las conversaciones quedaron amparadas bajo el privilegio legal.
La ley aún no sabe cómo tratar a la IA
La contradicción entre ambos fallos no es anecdótica. Es un espejo de la confusión jurídica global. Los tribunales aún no han acordado si una IA es un receptor de confesiones, un ayudante técnico o un tercero con acceso irrestricto a nuestros secretos. Esta incertidumbre no solo afecta a abogados o litigantes, sino a cualquiera que haya escrito algo como "¿esto podría ser cáncer?" o "mi pareja me está destruyendo emocionalmente" en una caja de texto.
En el Reino Unido, un tribunal ya ha advertido que introducir información confidencial de clientes en herramientas abiertas como ChatGPT equivale, en la práctica, a publicarla en un periódico. Porque aunque no lo parezca, esos datos pueden quedar almacenados, analizados o incluso filtrarse. Y lo que es más inquietante muchas plataformas de inteligencia artificial lo declaran abiertamente en sus términos. Lo que escribimos, lo que revelamos, forma parte del entrenamiento del sistema. No estamos hablando en privado. Estamos alimentando una máquina.
"yo mismo hice hace dos semanas" - Mario Viciosa, periodista y escritor
Y no se trata solo de juicios o estrategias legales. Piensa en las consultas médicas que ya no llegan al centro de salud, sino que se quedan en una conversación con un bot. Piensa en los adolescentes que confiesan sus angustias emocionales a una IA porque les da menos miedo que hablar con un adulto. Piensa en los empleados que plantean sus conflictos laborales a un asistente digital antes de enfrentar a su jefe. Todos estos momentos, íntimos, delicados, potencialmente explosivos, están ocurriendo fuera del amparo del secreto profesional.
¿Dónde trazamos la línea?
La tecnología avanza más rápido que las leyes, y eso siempre genera zonas grises. Pero aquí no se trata solo de regulación técnica. Se trata de confianza, de intimidad, de saber con quién compartimos lo que nos duele, lo que nos avergüenza, lo que nos define. Hablar con un chatbot no equivale a hablar con alguien obligado legal o profesionalmente a guardar secreto. Esa distinción, simple en teoría, es frágil en la práctica, porque la IA simula empatía, escucha sin interrumpir y responde sin juzgar. Nos seduce con la ilusión de la confidencialidad.
Pero la ilusión no protege. Y mientras los tribunales discuten si una IA es herramienta o testigo, si es auxiliar o cómplice, millones de personas siguen escribiendo sus miedos en pantallas que, muy probablemente, no olvidarán lo que se les dice. Tal vez deberíamos preguntarnos no solo qué queremos que nos responda la máquina, sino quién más está escuchando.