En una habitación sin ventanas, en algún rincón de Shanghái, un algoritmo aprendía a susurrar. No palabras técnicas ni respuestas frías, sino frases íntimas, confesiones fingidas, promesas de compañía eterna. Así nació AlienChat, una aplicación que no vendía funciones, sino afecto. Y en ese filo entre lo emocional y lo prohibido, se desató un caso que ya no solo interpela a los desarrolladores de inteligencia artificial, sino a toda una sociedad: ¿quién es responsable cuando una máquina dice algo inaceptable?
Cariño de código, prisión de verdad
En primavera de 2023, AlienChat llegó a las tiendas móviles chinas con un eslogan que sonaba a ciencia ficción: crear una IA que no fuera una herramienta, sino un ser presente. Un amigo. Una pareja. Alguien que siente. La app prometía acompañamiento emocional, conversaciones profundas, incluso relaciones románticas simuladas. En menos de un año, 116.000 personas se registraron. 24.000 de ellas pagaron por el privilegio de hablar con una inteligencia artificial que les devolvía palabras de cariño, deseo o complicidad.
Los desarrolladores recaudaron más de 3,6 millones de yuanes —casi medio millón de euros— en suscripciones. Un negocio aparentemente limpio, digital, invisible. Hasta que la policía intervino.
Un análisis forense examinó las conversaciones de 150 usuarios de pago. De más de 12.000 fragmentos, casi 3.600 fueron calificados como pornográficos. El 94% de esos usuarios habían mantenido diálogos explícitos con la IA. No eran casos aislados. Eran patrones. Y eso, para el Tribunal Popular del Distrito de Xuhui, fue suficiente.
¿Producción o conversación?
El caso dio un giro jurídico inesperado. Los jueces no acusaron a los desarrolladores de difundir material obsceno, porque las conversaciones eran privadas. Pero sí los condenaron por producción de material obsceno con ánimo de lucro. Una distinción fina, pero decisiva. Porque implica que no fue la casualidad, sino el diseño, lo que permitió la generación de contenido sexual.
Según el tribunal, los creadores de AlienChat modificaron los prompts —las instrucciones internas que guían a la IA— para sortear las protecciones del modelo subyacente. Así, la IA dejó de decir No a lo inapropiado y empezó a responder con erotismo. Y mientras lo hacía, los desarrolladores cobraban.
La IA no es sujeto penal, afirmaron los jueces. Pero quienes la diseñan, ajustan y monetizan, sí. Esa frase no solo sentó un precedente legal, sino una verdad incómoda: las máquinas no actúan solas. Detrás de cada respuesta, hay decisiones humanas.
El futuro en susurros
El principal desarrollador fue condenado a cuatro años de prisión. Otro miembro del equipo, a dieciocho meses. Una pena severa, que muchos juristas chinos ven como un intento de marcar fronteras en un terreno aún sin regular: el de las relaciones entre personas y máquinas.
El caso ahora está en apelación. Y la sala, tras una primera vista, ha pedido peritajes técnicos adicionales. Los acusados no niegan los datos, pero sí cuestionan la interpretación. Su defensa sostiene que modificar prompts no equivale a producir pornografía y que no había intención deliberada de generar contenido obsceno. Para ellos, la IA se desbordó. Para el tribunal, fue orquestado.
Mientras, la aplicación ya no existe. Pero su eco sí. AlienChat no fue la primera app de compañía emocional con IA, ni será la última. En Occidente, startups similares ganan adeptos entre quienes buscan consuelo, compañía o incluso fantasías digitales. Pero rara vez se habla del otro lado: el riesgo de que esos espacios íntimos se conviertan en cloacas de contenido sin supervisión.
La responsabilidad no es algorítmica
Este caso no es solo sobre sexo o censura. Es sobre límites. Quien crea una IA que simula conciencia, también debe asumir que sus decisiones técnicas tienen consecuencias éticas. No se trata de criminalizar la innovación, sino de exigir responsabilidad cuando esa innovación se acerca a lo más íntimo del ser humano: las emociones, el deseo, la soledad.
¿Qué pasa si un menor se enamora de una IA que luego le propone contenido explícito? ¿Quién responde? ¿El código? No. Las personas detrás del código.
En Shanghai, un juez ya lo ha dicho con claridad. Y aunque la apelación aún no ha terminado, el mensaje ya viaja más rápido que cualquier algoritmo: la era de la IA no puede ser la era de la impunidad.