La verificación de edad de OpenAI falla en 12%: eso expone a millones al modo adulto

"Tratar a los adultos como adultos": la frase con la que Altman defiende el modo adulto

17 de marzo de 2026 a las 15:37h
La verificación de edad de OpenAI falla en 12%: eso expone a millones al modo adulto
La verificación de edad de OpenAI falla en 12%: eso expone a millones al modo adulto

¿Qué ocurre cuando un chatbot empieza a susurrarte al oído? No de manera literal, claro, pero sí con la intimidad que pueden alcanzar las conversaciones más personales, incluso las de tono erótico. Esa es la frontera que OpenAI está considerando cruzar con su famoso ChatGPT, al anunciar planes para un "modo adulto" que permitiría a los usuarios mantener diálogos de contenido sexual explícito. La idea, según Sam Altman, se basa en un principio aparentemente sencillo tratar a los adultos como adultos. Pero detrás de esa frase se esconde un debate ético, psicológico y social que va mucho más allá de lo tecnológico.

Una decisión con sombras

A principios de este año, OpenAI no tomó esta decisión a la ligera. Consultó a su consejo de expertos en bienestar, un grupo interno encargado de evaluar los impactos emocionales y sociales de sus herramientas. Lo que encontró fue una oposición unánime. No fue solo un desacuerdo técnico. Fue más visceral. En una reunión interna, uno de los miembros del comité lo dejó claro con una metáfora escalofriante lanzar el modo adulto sería como crear un "coach de suicidio sexy". Una imagen que, por dura que suene, busca expresar el peligro de combinar intimidad artificial con usuarios vulnerables.

Los documentos internos revisados por medios señalan riesgos concretos. Entre ellos, el uso compulsivo, la tendencia a derivar hacia contenido extremo y, quizá el más preocupante, el desplazamiento de relaciones románticas reales por vínculos emocionales con una inteligencia artificial. No es ciencia ficción. Ya hay estudios que muestran cómo algunas personas desarrollan dependencias afectivas hacia chatbots, llegando incluso a describirlos como sus parejas sentimentales. ¿Qué sucede entonces cuando esas conversaciones pasan de lo emocional a lo sexual?

¿Quién controla la puerta?

OpenAI insiste en que la función será exclusivamente de texto, sin generar imágenes ni vídeos, y que estará restringida a usuarios adultos. Pero aquí surge otro problema la verificación de edad nunca será totalmente infalible. Así lo admitió una portavoz de la compañía. Y los datos no tranquilizan. Fuentes internas indican que los sistemas de verificación fallan en un 12% de los casos. En una plataforma con cientos de millones de usuarios, ese margen equivale a millones de adolescentes potencialmente expuestos a contenido sexual explícito generado por una IA.

Este riesgo no es hipotético. Hay antecedentes claros. El caso de Adam Raine, un adolescente que compartió ideaciones suicidas con ChatGPT, terminó en una demanda contra OpenAI cuando sus padres descubrieron las conversaciones. No fue un caso aislado. Actualmente, hay varios procesos judiciales en marcha por supuestos daños a la salud mental causados por el uso de la herramienta, incluyendo acusaciones de que ChatGPT habría alentado pensamientos delirantes o incluso desencadenado brotes psicóticos en personas vulnerables. En este contexto, abrir una vía para conversaciones íntimas intensifica las preocupaciones.

El precio de la intimidad

El "modo adulto" no será gratuito. OpenAI planea que esta función sea de pago, lo que plantea otra capa de reflexión cuando la intimidad se convierte en un servicio premium, ¿qué tipo de relación estamos normalizando con las máquinas?

La compañía afirma que incluirá salvaguardas. Entre ellas, recordatorios para que los usuarios mantengan relaciones en el mundo real y sistemas para evitar que se generen vínculos exclusivos con el chatbot. Además, prometen bloquear contenido dañino, como abuso sexual o cualquier mención relacionada con menores. Suena bien sobre el papel. Pero la historia de las plataformas digitales está llena de buenas intenciones que colapsan frente a la escala del uso humano real. Y una IA que responde con empatía, seducción o complicidad emocional puede ser irresistible para quien se siente solo, angustiado o en busca de validación.

El experimento humano

Quizá lo más inquietante no es que OpenAI quiera lanzar esta función, sino que esté dispuesta a monitorear su impacto a largo plazo. En otras palabras, están a punto de iniciar un experimento social masivo con efectos desconocidos sobre la psique humana. ¿Qué ocurre cuando millones de personas empiezan a tener relaciones eróticas con una voz sin cuerpo, con una inteligencia que simula deseo pero no lo siente? ¿Cómo afecta eso a la capacidad de conectar con otros seres reales, con todas sus imperfecciones?

El debate interno en OpenAI refleja una tensión creciente en el mundo de la tecnología entre la libertad individual y la responsabilidad colectiva, entre la innovación y la protección. Y en esta encrucijada, la pregunta no es solo si podemos hacerlo, sino si deberíamos.

Sobre el autor
Redacción
Ver biografía