
El gobernador de California, Gavin Newsom, firmó el lunes un nuevo y amplio proyecto de ley sobre inteligencia artificial, una medida que podría cambiar el modo en que operan algunas de las empresas tecnológicas más grandes del mundo.
La medida, oficialmente llamada Ley de Transparencia en la Inteligencia Artificial Fronteriza , requerirá que los grandes desarrolladores de IA revelen públicamente sus protocolos de seguridad e informen sobre cualquier incidente de seguridad.
Como informa Axios , la ley también introduce protecciones para denunciantes y disposiciones para expandir el acceso a la nube para investigadores más pequeños, un guiño a la democratización del desarrollo de IA mientras se sigue vigilando de cerca a los pesos pesados.
California vuelve a ejercer su poder regulatorio. Y, sinceramente, es como un déjà vu. El año pasado, Newsom vetó un proyecto de ley similar sobre seguridad de la IA, alegando que era demasiado restrictivo.
Pero los rápidos avances desde entonces —desde el video generativo hasta los agentes autónomos de IA— parecen haber cambiado el rumbo político. Los legisladores, encabezados por el senador estatal Scott Wiener, insisten ahora en que la seguridad no puede quedar relegada a un segundo plano frente a la velocidad.
Lo que hace esto aún más interesante es cómo choca con Washington. Mientras la administración Trump y varios líderes republicanos han pedido una pausa en las leyes estatales, California avanza a pasos agigantados.
Y con el enorme peso económico del estado, es difícil imaginar que esto no se extienda a todo el país. Piensen en cómo las normas de emisiones de automóviles de California se convirtieron en la norma nacional; esta podría ser la versión de IA de eso.
Curiosamente, no todos los gigantes de la IA están indignados. Anthropic, un importante laboratorio de IA, apoyó abiertamente el proyecto de ley, y su director de políticas afirmó que el marco logra un equilibrio entre la innovación y la seguridad pública.
Esto dista mucho del reflejo tecnológico habitual de «no nos regulen, somos especiales». Mientras tanto, otras empresas como OpenAI y Google DeepMind se han mantenido visiblemente en silencio, quizás a la espera de ver si los reguladores federales intervienen con un estándar unificado.
Si nos alejamos, California no es la única que ha tomado medidas audaces. En Europa, la Ley de IA de la UE ya establece algunas de las directrices más estrictas para sistemas de alto riesgo, lo que obliga a las empresas a adaptar sus productos al mercado europeo.
El contraste es sorprendente: mientras Bruselas se centra en gran medida en el cumplimiento normativo, Sacramento parece estar forjando una versión típicamente estadounidense, aún recelosa de sofocar la innovación, pero reticente a dejar que el zorro vigile el gallinero. Puede leer más sobre el enfoque de la UE en la cobertura de Politico.
Mi opinión: esta ley parece una bifurcación. Si funciona —si las divulgaciones realmente previenen desastres de IA y los denunciantes se sienten protegidos— otros estados la copiarán.
Si fracasa, los críticos lo señalarán como prueba de que la sobrerregulación frena el progreso. Sea como sea, el experimento ha comenzado, y California ha vuelto a asumir el papel de conejillo de indias regulatorio de Estados Unidos.