De la moda al incidente: por qué la seguridad de la IA generativa ya no es debate de expertos

Hace poco aún trataba la gente de la «IA» como chapa de congreso. Hoy en cambio, si montas un chatbot o un copiloto interno, ya formas parte del inventario: hay tickets, hay tickets que no deberían existir, y alguien en inglés (sí, siempre en inglés primero) documentando otra tanda de incidentes. Yo no vengo a venderte miedo: vengo a decirte que el salto de «riesgo teórico» a «dolor en producción» ya está ocurriendo, y el mercado sigue enseñando licencias mientras a la seguridad le toca comerse los bacheos.

En 2026 el ecosistema ha dejado de hablar solo de «prompts raros». OWASP publicó su ronda de explotación sobre generative AI y el enfoque es incómodo: no es un paper abstracto, es recopilación de lo que pasa cuando el modelo, el agente o el orquestador tocan datos y privilegios de verdad. Cerca de esto, Cisco ha insistido con su informe anual de estado de la seguridad en IA: en la práctica muchas organizaciones subestiman la superficie que abren al enchufar asistentes, APIs y terceros en la misma sopa.

¿Qué pasa mientras tú aún estás pidiendo a proveedores «una demo bonita»? Pasa lo de siempre, pero acelerado. El Center for Internet Security (CIS) advirtió hace poco de forma explícita que el prompt injection deja de ser truco de laboratorio: instrucciones maliciosas en documentos, correos, fuentes «confiables» que el modelo asimila, y cadenas que terminan leyendo o exfiltrando lo que toca el contexto. No hace falta que te guste el término: hace falta que lo metas en el diagrama de amenazas y no en el pie de un slide.

Desde ESET, en un artículo en español que merece leerse con calma, se listan retos viejos y nuevos: moderación, derechos, privacidad, ética, desinformación. Nada de eso se arregla con «desactiva el sombrero» en el dashboard. Y si buscas otra lente más de infraestructura, en sitios como A10 Networks resumen riesgos que ya conocemos de otros mundos, pero ahora reetiquetados: fugas, código generado dudoso, cadenas de suministro de modelos y plugins, permisos mal cerrados. El patrón es el mismo, la velocidad y la hambre de «lanzar ya» no.

Te digo dónde veo el fallo de mercado, sin rodeos. El precio y el roadmap se deciden con benchmark de benchmarks y con demos que no envejecen. La seguridad entra luego, como capa añadida, cuando en realidad tendría que ser requisito de aceptación desde el minuto cero. Si el modelo o el agente puede tocar leer correo, bases de datos, tickets o repositorios, dejas de ser un proyecto de «innovación» y pasas a ser un vector de exfiltración, con o sin mala intención en la cadena. El usuario final no tiene por qué razonar en tokens: quien pone el producto en producción, sí. Y en mi experiencia, el vacío no está en faltar herramientas, está en faltar dueño y criterio: quién acepta el riesgo, con qué datos, bajo qué reglas y con qué auditoria posterior.

La pregunta incómoda es si tu organización sabe, con números, qué toca hoy un asistente, qué dejó de tocar y qué ocurrió la última vez que un prompt quiso «salirse» del guion. Si la respuesta es «confío en el proveedor», aún estás a tiempo, pero en 2026 eso me suena a plan de contingencia incompleto. La regulación pública añade presión, pero tú y yo sabemos quien se come el susto a las cuatro de la mañana no es un comité: es el equipo que tiene que rastrear logs y justificar un acceso en cadena. Ahí, lo que aportan informes técnicos en abierto, alertas de organismos y guías (OWASP, CIS, vendor research serio) no es entretenimiento: es munición para que alguien con poder firme mínimo de cierre, segmentación, revisión y formación, antes de otra ola de «features» con IA.

Si crees que esto exagera, piénsalo dos veces la próxima vez que oigas «sólo le pasamos un PDF» o «sólo está conectado a Jira»: es exactamente en ese «sólo» donde la superficie deja de ser «cosa de expertos» y pasa a ser tuya.

Fuentes

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Scroll al inicio