TIC's en la Web

AI Act y agentes de IA: la “clarificación” de Bruselas que no te quita el trabajo sucio

Me he cruzado con la noticia de que el AI Act Service Desk de la Comisión Europea ha dejado por escrito algo que el sector llevaba meses discutiendo en corredores y pantallas: que los agentes de inteligencia artificial no van a vivir en una casilla legal aparte, sino que encajan en las definiciones ya existentes de sistema de IA y de modelos de propósito general. La pieza de Paréntesis.Media recoge la línea y el calendario: faltan menos de cuatro meses para el 2 de agosto de 2026, cuando entran las obligaciones más duras del reglamento, y la carrera de frameworks y SDKs de agentes (CrewAI, flujos tipo “copiloto”, orquestadores) no va a frenarse por un PDF de Bruselas.

A mí esto no me suena a “tranquilidad jurídica”. Me suena a operativo forzado. Te dicen que ya hay caja para el juguete nuevo, pero la caja es la misma que para el software clásico de IA, con el añadido de que las propias FAQ del Service Desk se marcan como orientación preliminar. Es decir te orientan, pero el peso real lo sigues llevando tú en contratos, compliance y explicaciones al cliente.

Qué implica en la práctica (sí, te afecta si vendes web o producto digital)

Si montas un agente que propone cambios en un CMS, que genera borradores en bloque o que enchufa APIs de terceros, no basta con decir “es un agente”. Lo que cuenta es comportamiento: autonomía, herramientas externas, impacto en personas, trazabilidad. El análisis jurídico que recogen en Paréntesis apunta a la lectura de la Comisión: integración en definiciones existentes, matiz de “por lo general” porque el concepto de agente es difuso, y mucha tarea pendiente en transparencia (artículo 50 y código de buenas prácticas aún en danza).

Para una pyme tech o un estudio web, el mensaje útil es otro: vas a tener que mapear roles (quién es proveedor, quién despliega, quién integra) en cadenas donde antes había “un plugin y ya”. Y eso choca con cómo se venden muchos productos hoy: como cajas negras bonitas con un chat encima.

Lo que la noticia no resuelve (y por eso me pongo quisquilloso)

Tres cosas me dejan frío. Primera: agentes máquina a máquina o backoffice sin interfaz humana clara; la incertidumbre no desaparece con un párrafo de FAQ. Segunda: responsabilidad cuando falla un eslabón en un ecosistema modular; el AI Act nombra figuras, pero el reparto en producción real sigue siendo negociación y, en el peor caso, litigio. Tercera: en España ya se habla de sanciones elevadas en la gobernanza nacional y de la AESIA como pieza clave; bien, pero eso no sustituye guías concretas por sector para quien no tiene departamento legal de plantilla.

Encima, en paralelo entra la directiva de responsabilidad por producto con plazos que aprietan hacia finales de 2026. No es que vaya a resolverlo yo en mil palabras; es que quien crea que “Bruselas ya lo ha dicho todo” va a llegar corto en la primera auditoría seria.

Qué haría yo mañana en un proyecto con agentes

Nada de postureo. Inventario de qué hace el sistema en realidad (no el deck). Registro de integraciones y datos que toca. Plan de supervisión humana donde el riesgo lo merezca, y criterio claro de cuándo un flujo no puede ir solo. Y sobre todo: dejar por escrito en propuestas y contratos quién asume el mantenimiento del modelo, las actualizaciones y el “si el agente se equivoca de API”. Porque la norma puede apretar, pero el primer juicio en muchos despliegues lo vas a tener con el cliente, no con la Comisión.

Lo que me molesta del relato fácil de “Bruselas ya lo ha encajado” es que confunde estabilidad de principios con comodidad operativa. El marco existente da anclaje, sí; lo que no da es excusa para no pensar. Si el agente es la nueva capa de tu stack, el cumplimiento deja de ser un anexo y pasa a ser diseño de producto.

Aquí, por cierto, conviene tratar la fuente primaria y el análisis como lo que son: síntesis del criterio del Service Desk y plazos, y el desarrollo jurídico con el matiz de las FAQ preliminares y el encaje con GPAI y sistemas de IA. Nada de inventar criterios: si tu proveedor te promete un “pack AI Act” sin mapear roles y riesgos, pídele el mismo detalle que pedirías en una migración de hosting crítica.

Fuentes

Si tuvieras que elegir hoy: ¿prefieres que tu proveedor de “agente” te entregue un mapa de riesgos bajo el AI Act aunque retrase el lanzamiento, o un go-live rápido con un PDF genérico de cumplimiento que nadie haya leído? Ahí, creo, está la pregunta que separa postura de criterio en 2026.

Salir de la versión móvil