En el epicentro de la innovación tecnológica, California da un paso firme hacia la regulación de la inteligencia artificial con el proyecto de ley SB 53, una iniciativa que busca equilibrar el avance técnico con la responsabilidad social. Este nuevo marco legal, impulsado por el senador estatal Scott Wiener, representa una evolución cuidadosa tras el fracaso del ambicioso SB 1047, vetado el año pasado por el gobernador Gavin Newsom bajo el argumento de que podría frenar la innovación. Ahora, con un enfoque más pragmático y alineado con las recomendaciones del California Report on Frontier AI Policy, el SB 53 no busca culpar ni paralizar, sino transparentar.
La apuesta central del proyecto es convertir en obligatorios los compromisos voluntarios que grandes desarrolladores de IA ya han asumido en materia de seguridad. Empresas como Anthropic, OpenAI, Google y Meta han prometido evaluar riesgos, mitigar amenazas y desarrollar sistemas éticos, pero sin un marco legal claro, muchas de esas promesas han quedado en el aire. Este proyecto toma esas buenas intenciones y las convierte en exigencias concretas. Las compañías que desarrollen modelos de gran capacidad computacional deberán publicar en sus sitios web los métodos que usan para reducir riesgos, y entregar resúmenes de sus evaluaciones sobre amenazas catastróficas a una nueva oficina estatal dedicada a la supervisión.
Transparencia como eje de la seguridad
Uno de los pilares del SB 53 es la transparencia. A diferencia de su predecesor, que se centraba en la responsabilidad legal ante daños, esta nueva versión prioriza la rendición de cuentas. Helen Toner, del Center for Security and Emerging Technology de la Universidad de Georgetown, lo define con claridad SB 53 es principalmente una ley de transparencia, y eso no es casualidad. En un campo donde los modelos avanzados de IA escapan a la comprensión de la mayoría, inclusive de muchos reguladores, hacer visibles los procesos de evaluación es un acto de humildad técnica y responsabilidad democrática.
El proyecto establece mecanismos para que empleados de las empresas puedan denunciar riesgos graves sin temor a represalias, y también crea un sistema de reporte de emergencia para incidentes críticos, accesible tanto para desarrolladores como para el público. Esta doble vía de alerta no solo fortalece la vigilancia interna, sino que reconoce que los peligros de la IA no son abstractos, sino potencialmente tangibles desinformación a gran escala, manipulación de sistemas críticos, o incluso amenazas a la estabilidad social.
Anthropic, el primer gran respaldo
Entre los actores del sector tecnológico, Anthropic se ha convertido en la primera gran empresa en apoyar públicamente el SB 53. En un comunicado, la compañía destacó que los desarrolladores pueden competir mientras garantizan transparencia sobre las capacidades de la IA que ponen en riesgo la seguridad pública. Este respaldo no es menor. Anthropic, conocida por su enfoque cuidadoso en la alineación de modelos con valores humanos, reconoce que la regulación estatal no es el escenario ideal, pero afirma que la innovación no esperará a que Washington alcance un consenso. Poderosas avances en inteligencia artificial no esperarán un acuerdo en Washington, subrayan, justificando así su apoyo a una acción local urgente.
El senador Wiener celebró el respaldo de Anthropic, calificándolos como líderes en seguridad de IA, y reiteró que California, cuna de la mayoría de los grandes laboratorios de inteligencia artificial, debe también liderar en seguridad. "California está en el corazón palpitante de la innovación en IA, y también debería estar en el corazón de un enfoque creativo para su seguridad", afirmó.
El debate entre innovación y regulación
No todos ven con buenos ojos esta iniciativa. La Consumer Technology Association, vocera de grandes empresas tecnológicas, advirtió en redes sociales que proyectos como el SB 53 podrían debilitar el liderazgo de California y Estados Unidos en IA, desplazando inversión y empleos hacia regiones con regulaciones más laxas. La tensión está clara por un lado, el temor a desacelerar el progreso; por otro, la urgencia de no repetir errores del pasado, como los ocurridos con las redes sociales, donde la falta de regulación temprana generó crisis sociales profundas.

Chris Lehane, de OpenAI, expresó en LinkedIn que Estados Unidos lidera mejor con reglas claras a nivel nacional, no con un mosaico de regulaciones estatales. Es una postura comprensible, pero también revela una paradoja mientras se espera una ley federal que no termina de materializarse, el riesgo sigue creciendo. El debate federal se intensificó recientemente cuando una enmienda en el paquete de gasto conocido como Big Beautiful Bill casi prohíbe las leyes estatales sobre IA durante una década, antes de ser retirada. Ese episodio dejó claro que la regulación nacional sigue lejos.
Wiener lo reconoce con franqueza. Aunque prefiere una regulación federal, no espera que llegue pronto. "Idealmente tendríamos una ley federal completa, fuerte, a favor de la seguridad y la innovación. Pero eso no ha sucedido, así que California tiene la responsabilidad de actuar. Yo también preferiría una regulación federal, pero no voy a quedarme esperando con el aliento suspendido".
En este contexto, el SB 53 no es una solución definitiva, pero sí un hito. Dan Hendrycks, director del Center for AI Safety, lo define como un pequeño pero importante primer paso "Las empresas de IA avanzada han hecho muchos compromisos voluntarios de seguridad, a menudo sin cumplirlos. Esta ley los convierte en obligatorios". No es suficiente, admite, pero es un comienzo. Y en el mundo de la inteligencia artificial, donde los tiempos de desarrollo se miden en meses y no en años, comenzar a regular con criterio y prudencia puede marcar la diferencia entre un futuro controlado y uno desbocado.