OpenAI y Anthropic comparten sus modelos con el gobierno de EE.UU.: ¿transparencia o maquillaje?

A finales de agosto de 2024, OpenAI y Anthropic firmaron memorandos de entendimiento con el Instituto de Seguridad de IA de EE.UU. para dar acceso a sus modelos antes y después del lanzamiento público. La noticia se vendió como un hito de responsabilidad; conviene mirar qué implica en realidad.

OpenAI y Anthropic colaboran con el gobierno de EE.UU. en seguridad IA

Qué se acordó y qué no

El Instituto, bajo NIST y la orden ejecutiva de Biden, podrá evaluar capacidades, riesgos y mejoras de seguridad en los modelos de ambas empresas. A cambio, las empresas obtienen legitimidad institucional y un marco voluntario en un momento en que California y otros estados empujan regulación obligatoria. Es un intercambio: acceso a cambio de influir en el relato de la “IA segura” sin atarse a normas rígidas.

Transparencia limitada

Los acuerdos son voluntarios y no sustituyen una ley. No hay obligación de publicar resultados de las evaluaciones ni de corregir fallos detectados. La ciudadanía depende de que el gobierno y las propias empresas decidan qué compartir. Eso deja la puerta abierta a que “seguridad” se use más como mensaje que como garantía verificable.

Concentración y doble rasero

Solo dos actores dominantes firman; el resto del ecosistema (open source, competidores más pequeños) queda fuera del relato oficial. Que quienes más poder concentran sean también quienes definen la colaboración con el regulador refuerza el riesgo de que la política de IA se escriba a medida de unos pocos.

En resumen: un paso en la dirección de más supervisión, pero insuficiente si no va acompañado de obligaciones claras, transparencia de resultados y reglas que obliguen por igual a todos los desarrolladores de sistemas de alto impacto.

Fuentes

Leave a Comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Scroll to Top