Sam Altman, CEO de OpenIA: "Ahora que hemos mitigado los riesgos para la salud mental, podemos relajar las restricciones."

El acceso a contenido erótico estará sujeto a una verificación de edad más completa que se implementará en diciembre de 2025.

17 de octubre de 2025 a las 08:06h
Actualizado: 17 de octubre de 2025 a las 08:06h
la verificacion de edad en ia ya no es opcional
la verificacion de edad en ia ya no es opcional

OpenAI está a punto de dar un giro significativo en su política de contenido permitido dentro de ChatGPT, abriendo la puerta a que los usuarios adultos verificados accedan a materiales eróticos. Esta decisión, anunciada por Sam Altman en una publicación en redes sociales, marca un cambio radical respecto al enfoque anterior, mucho más restrictivo, que buscaba proteger la salud mental de los usuarios, especialmente los más jóvenes. Ahora, con nuevas herramientas de seguridad y un sistema de verificación por edad más robusto, la compañía considera que puede equilibrar la libertad de uso con la responsabilidad.

Hasta ahora, ChatGPT evitaba cualquier contenido sexual explícito, argumentando que la prioridad era mitigar riesgos para la salud mental. Sin embargo, Altman reconoció que esta postura también limitó la utilidad y el disfrute del chatbot para muchos adultos sin problemas psicológicos. La nueva estrategia busca tratar a los usuarios adultos como tales, permitiéndoles personalizar su experiencia de manera más amplia, siempre que estén debidamente verificados.

"Ahora que hemos mitigado los riesgos para la salud mental, podemos relajar las restricciones" - 

Sam Altman, CEO de OpenAI

El acceso a contenido erótico estará sujeto a una verificación de edad más completa que se implementará en diciembre de 2025. Aunque OpenAI aún no ha detallado qué tipo de contenido se considerará "erotica permitida", la compañía asegura que el cambio forma parte de un enfoque más maduro hacia la personalización y autonomía del usuario. Este movimiento también responde a la creciente competencia en el campo de la inteligencia artificial conversacional, donde otras empresas ya han introducido avatares más libres en su comportamiento, incluso con funciones de acompañamiento emocional o sexual.

Precisamente, en una entrevista en agosto con Cleo Abram, Altman se distanció de esas prácticas al afirmar que no habían introducido un avatar sexual en ChatGPT, en una clara alusión a los modelos desarrollados por xAI, la empresa de Elon Musk. Sin embargo, esta nueva política sugiere que OpenAI está dispuesta a explorar límites que antes consideraba fuera de lugar, aunque con marcos de control más estrictos.

"En diciembre, a medida que implementemos el control de edad de manera más completa y como parte de nuestro principio de "tratar a los usuarios adultos como adultos", permitiremos aún más, como contenido erótico para adultos verificados" - 

Sam Altman, CEO de OpenAI

Este anuncio llega en un momento delicado para la compañía. En septiembre de 2025, la Federal Trade Commission inició una investigación sobre varias empresas de tecnología, incluida OpenAI, por posibles riesgos que sus productos representan para niños y adolescentes. Además, la empresa enfrenta una demanda de una pareja de California que afirma que el uso de ChatGPT contribuyó al suicidio de su hijo de 16 años. Estos hechos han puesto bajo escrutinio las decisiones éticas y técnicas que rigen el comportamiento de las inteligencias artificiales en entornos no supervisados.

En respuesta, OpenAI ha creado un consejo de expertos en bienestar y IA compuesto por ocho miembros, cuya misión será asesorar sobre el impacto emocional, psicológico y motivacional que la interacción con IA puede tener en las personas. El consejo realizará revisiones periódicas y reuniones recurrentes para guiar el desarrollo de interacciones saludables con la tecnología. Este paso refuerza la idea de que la compañía no busca simplemente liberalizar contenido, sino hacerlo con un marco ético y científico que minimice daños.

Paralelamente, se espera el lanzamiento de una nueva versión de ChatGPT en las próximas semanas, que permitirá personalidades más diversas y respuestas más humanas. Altman destacó que si un usuario desea que el chatbot responda como un amigo cercano, use muchos emojis o adopte un tono coloquial, el sistema debería poder hacerlo. Pero, enfatizó, solo si así lo quiere el usuario.

"Si quieres que tu ChatGPT responda de forma muy humana, use muchos emojis o se comporte como un amigo, ChatGPT debería hacerlo. Pero solo si tú lo deseas"

Este enfoque personalizado plantea nuevas preguntas sobre los límites de la empatía artificial y sobre cómo las empresas definen lo que es "seguro" o "apropiado". Mientras OpenAI avanza hacia una mayor flexibilidad para adultos, también refuerza su compromiso con la protección de menores. La clave, al parecer, está en la verificación rigurosa, la transparencia y el consejo experto. El reto será mantener ese equilibrio sin sacrificar ni la innovación ni la responsabilidad.

Sobre el autor
Redacción
Ver biografía