TIC's en la Web

California aprueba la ley SB 1047 de seguridad de IA (y luego la vetaron)

El 28 de agosto de 2024 la Asamblea de California aprobó la ley SB 1047 (Safe and Secure Innovation for Frontier Artificial Intelligence Models Act), una de las primeras regulaciones estatales ambiciosas sobre modelos de IA avanzados. La industria se opuso con dureza; un mes después, el gobernador Newsom la vetó. Vale la pena ver qué estaba en juego.

Qué exigía la ley

La SB 1047 obligaba a quienes desarrollan o despliegan modelos “frontera” (entrenados con más de 10^26 FLOPS y coste superior a 100 millones de dólares) a realizar pruebas de seguridad, evaluar riesgos de daño crítico, implementar capacidad de “apagado” de emergencia y someterse a auditorías. También preveía protección para denunciantes. El umbral dejaba fuera a la mayoría de startups y centraba la carga en unos pocos gigantes.

Por qué molestó tanto a la industria

OpenAI, Google y Meta, entre otros, argumentaron que la ley ahuyentaría talento e inversión de California y perjudicaría a proyectos open source. Pelosi y Lofgren también presionaron. El mensaje fue claro: cualquier obligación legal se percibe como amenaza. Que quienes más recursos tienen sean los que más resisten normas de seguridad dice mucho sobre a quién beneficia la autorregulación.

El veto: política y presión

Newsom tenía hasta el 30 de septiembre para firmar. Lo vetó. El resultado es que California sigue sin un marco legal específico para modelos frontera. El veto no niega la necesidad de regulación; la pospone y deja el terreno libre para acuerdos voluntarios como el del Instituto de Seguridad de IA con OpenAI y Anthropic, sin obligaciones ni sanciones claras.

Conclusión: la SB 1047 mostraba que es posible legislar sobre seguridad de IA con umbrales y plazos. Su veto refuerza que, sin voluntad política frente al lobby tecnológico, la regulación obligatoria seguirá quedando en segundo plano.

Fuentes

Salir de la versión móvil