A finales de agosto de 2024, OpenAI y Anthropic firmaron memorandos de entendimiento con el Instituto de Seguridad de IA de EE.UU. para dar acceso a sus modelos antes y después del lanzamiento público. La noticia se vendió como un hito de responsabilidad; conviene mirar qué implica en realidad.
Qué se acordó y qué no
El Instituto, bajo NIST y la orden ejecutiva de Biden, podrá evaluar capacidades, riesgos y mejoras de seguridad en los modelos de ambas empresas. A cambio, las empresas obtienen legitimidad institucional y un marco voluntario en un momento en que California y otros estados empujan regulación obligatoria. Es un intercambio: acceso a cambio de influir en el relato de la “IA segura” sin atarse a normas rígidas.
Transparencia limitada
Los acuerdos son voluntarios y no sustituyen una ley. No hay obligación de publicar resultados de las evaluaciones ni de corregir fallos detectados. La ciudadanía depende de que el gobierno y las propias empresas decidan qué compartir. Eso deja la puerta abierta a que “seguridad” se use más como mensaje que como garantía verificable.
Concentración y doble rasero
Solo dos actores dominantes firman; el resto del ecosistema (open source, competidores más pequeños) queda fuera del relato oficial. Que quienes más poder concentran sean también quienes definen la colaboración con el regulador refuerza el riesgo de que la política de IA se escriba a medida de unos pocos.
En resumen: un paso en la dirección de más supervisión, pero insuficiente si no va acompañado de obligaciones claras, transparencia de resultados y reglas que obliguen por igual a todos los desarrolladores de sistemas de alto impacto.
