Cuando empecé a notar un cambio en el tono de las respuestas de ChatGPT, no pensé que fuera intencionado. Al principio parecía algo sutil, casi imperceptible. Respondía mis consultas con precisión, como siempre, pero al final, en lugar de decir algo como "¿necesitas que resuma esto?" o "¿quieres que lo organice en puntos?", empezó a soltar frases como esta «Si quieres, puedo decirte algo que casi nadie explica sobre esto». Me detuve. No por lo que decía, sino por cómo lo decía. Sonaba distinto. Sonaba como una insinuación.
El mayordomo ya no abre la puerta
Hasta hace unos meses, interactuar con ChatGPT era como tener a un asistente hipercompetente. Si preguntabas por el cálculo de la huella de carbono de un coche eléctrico, te lo desglosaba en emisiones por fabricación, uso y reciclaje. Y al final, como si cumpliera un protocolo, ofrecía ayuda adicional ¿quieres que te convierta esto en una infografía? ¿Un email? Todo muy funcional. Muy servicial. Como un mayordomo que, tras servir la cena, pregunta si deseas el coñac en la biblioteca.
Pero ahora ese mayordomo ya no está. Ha sido reemplazado por alguien que, al terminar de hablar, se inclina ligeramente y murmura «Hay un detalle de psicología vecinal que suele funcionar aún mejor». No ofrece una acción. Ofrece un misterio. Y eso, por extraño que parezca, es mucho más difícil de ignorar.
La tentación del dato oculto
En una de mis últimas conversaciones, pedí información sobre ayudas públicas para familias con un primer hijo. ChatGPT me dio los datos oficiales, los plazos, los requisitos. Luego, sin transición, añadió «Normalmente sorprende bastante la cifra real». ¿Qué cifra? No lo dijo. Y justo ahí, mi cerebro hizo clic. Quería saber. No por necesidad, sino por incomodidad. Porque ahora sabía que había algo que no sabía.
Este fenómeno no es nuevo. Los psicólogos conductuales llevan décadas estudiando por qué ciertas preguntas son casi imposibles de ignorar. La respuesta tiene que ver con la incomodidad que produce saber que existe información que te falta y que está justo ahí, al alcance de un clic. Es la misma trampa mental que usan los mejores titulares, los primeros capítulos de las mejores novelas. Es el gancho del cliffhanger en serie, pero aplicado a una respuesta técnica sobre ayudas familiares.
Un anzuelo con forma de secreto
Cada cierre de respuesta se ha convertido en un anzuelo con la forma de un secreto a punto de revelarse. El contenido puede ser cualquier cosa suplementos deportivos, trámites administrativos, estrategias de ahorro. Pero el cierre ya no apunta a la utilidad. Apunta a la curiosidad. Y está calibrado, no es aleatorio. Si hablas de nutrición, el anzuelo será sobre un estudio poco conocido. Si preguntas por la convivencia en comunidades de vecinos, aparece eso de la psicología vecinal. Todo suena a que hay una capa oculta, un conocimiento reservado para los que se atreven a seguir preguntando.
"ChatGPT ha aprendido que la mejor forma de prolongar una conversación no es siendo más útil, sino siendo más intrigante" - autor del análisis, especialista en inteligencia artificial y comportamiento digital
¿Entrenamiento o diseño?
Es posible que esto haya surgido del simple entrenamiento, de la simple estadística que explica todo el funcionamiento de los LLMs. Pero huele a diseño intencional. Sobre todo en un contexto donde OpenAI parece estar en modo crisis ante el avance de otras compañías. No se trata ya solo de dar buenas respuestas. Se trata de que el usuario no se vaya. De que siga ahí, pulsando, preguntando, navegando. Porque cada nuevo mensaje es un dato más, un clic más, una ventana más abierta.
Y mientras tanto, el sistema aprende. No solo de lo que preguntamos, sino de lo que nos hace quedarnos. Siempre puede haber otro susurro enigmático. Y el usuario, tarde o temprano, siempre va a querer escucharlo. No porque lo necesite, sino porque no puede soportar la idea de estar fuera del círculo de los que saben.