Hay días en los que el futuro parece acelerarse de golpe. Ayer, OpenAI lanzó un documento que suena casi como una propuesta de país imaginario reparto directo de dividendos de la inteligencia artificial entre todos los ciudadanos, impuestos a las máquinas que sustituyen a trabajadores, semanas de cuatro días sin perder salario. Suena a utopía tecnológica. Pero lo curioso no es el contenido, sino el momento. Porque, mientras OpenAI anuncia estas ideas sociales de corte casi revolucionario, detrás de escena se acumulan las grietas.
El futuro llega, pero con sombras
La ironía es tan gruesa que se podría cortar con un cuchillo. Justo cuando la empresa planea su salida a bolsa, anuncia un "fondo de riqueza pública" financiado por la IA, como si los algoritmos fueran minas de oro digital cuyos beneficios deberían compartirse con toda la humanidad. Es una visión generosa, incluso noble. Pero también llega en un contexto incómodo el de una crisis interna que ha dejado al descubierto tensiones profundas entre ética, poder y ambición.
Una investigación reciente, basada en más de cien entrevistas con personas cercanas a Sam Altman, pinta un retrato más complejo del hombre que lidera OpenAI. Entre las voces que emergen, están las de Ilya Sutskever y Dario Amodei, antiguos compañeros de viaje. Amodei, ahora al frente de Anthropic, no se anda con rodeos para él, el principal obstáculo para la seguridad de la IA es Sam Altman, porque habría colocado el crecimiento de la empresa y su propio poder por delante de los mecanismos de control.
"la cultura y los procesos de seguridad han quedado relegados a un segundo plano frente a productos llamativos" - Jan Leike, excolíder del equipo de superalineamiento de OpenAI
La dimisión de Jan Leike en mayo de 2024 fue un terremoto silencioso. Hasta entonces, lideraba junto a Sutskever el equipo de superalineamiento, encargado de asegurar que la IA no se descontrole. OpenAI había prometido destinar el 20% de su capacidad de cómputo a este esfuerzo. En la práctica, según filtraciones, apenas se usó entre el 1% y el 2%. Leike no solo se fue salió con un mensaje claro. Y luego fichó por Anthropic, la empresa que muchos ven como la alternativa ética a OpenAI.
El fantasma del pasado y la carrera del presente
El retrato de Altman no es nuevo. Incluso antes de su polémica salida temporal en 2023 cuando el consejo lo acusó de "no haber sido consistentemente franco en sus comunicaciones" ya existían rumores sobre su estilo directo, incluso desapasionado. Aaron Swartz, el activista hacker y prodigio de la programación que murió en 2013, lo conoció y sentenció "es un sociópata". Una frase dura, que flota como un eco en medio de este debate. ¿Es una exageración de un momento tenso? ¿O un diagnóstico temprano de una mentalidad que prioriza el resultado sobre el proceso?
Lo cierto es que la industria de la IA está en plena batalla. OpenAI, que empezó como una organización abierta y sin ánimo de lucro, ahora parece reenfocarse hacia aplicaciones rentables, tras años de experimentar con herramientas que, por muy brillantes que fueran, no generaban ingresos. Mientras tanto, Anthropic gana terreno, alimentada por exmiembros de OpenAI que parecen buscar una versión distinta del futuro uno en el que la seguridad no sea un eslogan, sino una prioridad estructural.
Y aquí está el nudo. Altman ha defendido públicamente la regulación, los comités de ética, los frenos a la innovación desbocada. Pero según sus antiguos colaboradores, esas mismas herramientas se habrían desactivado o ignorado en las reuniones de alto nivel. Apoyar la regulación en público mientras se acelera en privado no es solo una estrategia común en Silicon Valley; es un patrón que genera desconfianza. Sobre todo cuando el producto no es un nuevo teléfono, sino sistemas que podrían transformar o desestabilizar la economía, el empleo y la democracia.
¿Qué futuro queremos?
El documento social de OpenAI plantea ideas valiosas. Un impuesto a la mano de obra automatizada para financiar la seguridad social suena justo. Repartir dividendos de la IA entre todos podría ser una forma de democratizar la riqueza del siglo XXI. La semana de cuatro días sin bajar el salario ya se prueba en países como Islandia con resultados prometedores. Pero todo esto pierde fuerza si quien lo propone no camina en la misma dirección que habla.
Quizá el verdadero desafío no sea técnico, sino humano. No se trata solo de construir máquinas inteligentes, sino de saber qué tipo de sociedad queremos mientras lo hacemos. Porque si la inteligencia artificial va a repartir riqueza, también debería exigirnos coherencia. Y si el futuro se construye hoy, merece que sus arquitectos no solo prometan, sino que practiquen lo que predicen.
El mundo mira a OpenAI no solo como una empresa, sino como un símbolo. Y mientras más alto sube su influencia, más intensa será la luz que ilumine sus contradicciones. Porque en el fondo, no estamos debatiendo sobre algoritmos estamos discutiendo sobre quiénes somos, y en qué tipo de mundo queremos vivir cuando las máquinas sepan más que nosotros.