Cada vez que sale un titular sobre “los desafíos de la inteligencia artificial generativa” nos presentan la misma foto de stock: manos sobre un teclado y la palabra chatbot en mayúsculas. Yo lo que veo en el día a día es otra cosa: la fricción ya no está en si el modelo escribe bien o mal, sino en quién controla el dato, el agente y la cadena de suministro detrás. Eso es lo que recogen análisis recientes desde la seguridad: no estamos ante un problema de ortografía en el prompt, sino de gobernanza.
We Live Security resume cinco líneas de riesgo que suenan abstractas hasta que te tocan: privacidad, sesgo, seguridad del modelo, explicabilidad y dependencia tecnológica. En papel parecen etiquetas para un PowerPoint; en producción son puntos donde la empresa pierde visibilidad. Si nadie te ha dicho qué política aplica cuando un empleado pega un extracto de facturación en un asistente, no es que “aún estéis madurando el tema”: es que estais operando a ciegas y el modelo es el menos culpable de la historia.
La conversación en inglés ya ha dado un salto. OWASP lleva tiempo catalogando vectores contra sistemas GenAI y en su informe de explotaciones del primer trimestre de 2026 documentan incidentes donde el factor común es la orquestación: flujos automáticos, identidades de agentes y cadenas de terceros. No me sorprende. Cuando pasas de “un chat” a “varias herramientas encadenadas que actúan con permisos”, el perímetro clásico deja de servir para explicarte qué ha fallado.
Otro ingrediente que pocos quieren verbalizar es el uso disperso de la herramienta. Los informes de uso empresarial apuntan a que buena parte del tráfico hacia asistentes populares pasa por cuentas personales, no corporativas. Eso no es un detalle de compliance: es la puerta de entrada a fugas que tu DLP ni siquiera etiqueta bien, porque el riesgo ya no es “archivo adjunto” sino conversación semántica. Mientras el proveedor de ciberseguridad siga vendiéndote listas de palabras, la sombra de la IA seguirá creciendo bajo el radar.
¿Entonces qué? No soy de los que creen que hay que parar la innovación. Soy de los que creen que “habilitar la IA en la empresa” sin inventario de casos de uso, sin límites de datos y sin revisión de lo que puede hacer un agente es tan irresponsable como abrir el puerto SSH a todo Internet y decir que confías en tus empleados. El modelo puede ser brillante y aun así ser el eslabón menos interesante del ataque.
Si montas una tienda online o un CMS, el debate no es si ChatGPT te redacta la ficha del producto: es si estás dispuesto a firmar quién puede leer pedidos, tickets y conversaciones de clientes cuando esas piezas pasan por un tercero. La pregunta incómoda no es tecnológica, es de contrato y de trazabilidad. Y hasta que los proveedores no se expliquen con el mismo detalle que exigen al usuario final, seguiremos leyendo guías de “cinco riesgos” que no cambian un solo hábito en la organización.
En resumen: los retos de la IA generativa que importan de verdad son los que atañen a privilegios, datos y dependencias. El resto es literatura. Si tu plan de seguridad para 2026 es “capa extra de antivirus y un curso de dos horas”, vas tarde y lo sabes.
