Leo otra vez el relato de los “cinco desafíos” de la inteligencia artificial generativa y tengo una sensación incómoda: como si ordenar el miedo en viñetas fuese lo mismo que bajar el riesgo real en tu operativa. No te estoy diciendo que el análisis de ESET en WeLiveSecurity esté mal, al contrario: sirve para encajar problemas serios (moderación, derechos de autor, privacidad, ética y desinformación). Lo que me molesta es cómo se usa después en reuniones: se lee, se asiente y se vuelve al día a día como si fuera un checklist de cumplimiento que ya te “cubre”. Mientras tanto el cibercrimen no espera a que termines la presentación.
Te lo digo desde la experiencia de quien habla con pymes que viven entre el hosting compartido, terceros sin contrato claro y herramientas “rápidas” conectadas a datos sensibles. Para ese perfil, una lista de riesgos “éticos” y legales es necesaria, pero no sustituye lo que en la practica os está comiendo el tiempo: velocidad de ataque, automatización y una brecha de respuesta que ya no es sólo tecnológica.
Aquí entra la noticia que llevamos meses escuchando entre socios de seguridad y que resume bien Expansión: modelos muy capaces se están restringiendo precisamente porque demuestran autonomía para encontrar y explotar fallos. El caso que relatan de Anthropic con Claude Mythos no es un capítulo de fanfiction: es el tipo de demostración que obliga a las empresas a recortar el acceso y a replantear quién puede usar qué, y con qué salvaguardas. Paralelamente aparece la oferta de modelos orientados a ciberdefensa en proveedores como OpenAI, lo que confirma que la carrera ya va por la especialización “ofensiva/defensiva”, no por el chat bonito del marketing.
¿Qué significa esto para ti si no eres un banco con un equipo SOC de treinta personas? Significa que la ventana entre “hay fallo” y “hay exploit” se achica. No porque mañana un modelo vaya a tumbar tu WordPress por arte de magia, sino porque quienes montan campañas masivas sí van a exprimir herramientas que escalan lo que antes era artesanal. La frase que citan de Eusebio Nieva en Expansión encaja con lo que yo veo en el terreno: no es un futuro abstracto, es fabricación de ataques a escala con asistencia de IA.
Y aquí es donde el informe IOCTA 2026 de Europol deja en ridículo cualquier sensación de alivio que te deje una lista interna de “riesgos”. Europol sitúa la IA en el centro de la evolución del crimen organizado en internet: más rapidez, más escala, más ocultación. Traducción práctica para tu negocio: phishing y fraudes más creíbles, infraestructuras que ocultan el rastro y un fraude online que crece más rápido que otras ramas del delito organizado, según el propio análisis que resume la prensa. No hace falta dramatizar: basta con asumir que la parte delantera del cibercrimen ya corre con IA en el motor, mientras muchas organizaciones medianas aún discuten si “merece la pena” documentar proveedores.
Volviendo al texto de ESET, su lista ayuda a entender conflictos que van a definir la década: quién modera qué, qué pasa con la autoría cuando la máquina imita estilos, cómo se entrena con datos sin consentimiento y cómo se viraliza la basura informativa. Son frentes políticos y regulatorios enormes. Pero si tú gestionas una web, una tienda o un SaaS pequeño, necesitas una traducción operativa que casi nunca llega en el mismo paquete: inventario de datos, límites de permisos en integraciones, registros de lo que hace un agente cuando toca tu CRM y un plan que no dependa de “confiar” en el panel del proveedor. Sin eso, los cinco puntos se quedan en literatura.
También hay una lectura incómoda que casi nadie quiere hacer en voz alta: cuanto más potentes sean los modelos “de ciberdefensa” en manos de quince grandes empresas, más fuerte será la presión para externalizar la seguridad en proveedores que prometen “IA” en la capa de detección. Eso puede ser bueno si sabes qué compras y cómo auditarlo; es malo si lo usas como sustituto de higiene básica (parches, copias, segmentación, mínimo privilegio). La historia de Mythos y similares no solo habla de peligro, habla de concentración de capacidad.
Yo no te voy a venderte miedo apocalíptico. Te hablo de ritmo. Si la delincuencia está automatizando conversaciones, segmentando víctimas y montando mercados de servicios al estilo que describe Europol, tu riesgo real sube aunque tú no hayas tocado un chatbot en tu vida. Porque el adversario no necesita que tú adoptes IA para usarla contra ti: necesita tu correo, tu facturación mal aislada, tu plugin desactualizado o tu proveedor con acceso total y cero trazabilidad.
Entonces, ¿sirven de algo las listas de cinco puntos? Sí: para educar y para marcar el terreno legal y reputacional. Pero si después de leerlas tu plan sigue siendo “revisamos el firewall cuando hay incidencia”, estás leyendo el mapa equivocado para el problema que tienes encima. La pregunta no es cuántos riesgos nombras, sino cuántos controles puedes demostrar ante un tercero mañana mismo.
Si tu CEO te pidiera hoy activar un agente de IA con acceso al ERP y al correo del equipo financiero, pero con logs incompletos y sin dueño claro de la responsabilidad cuando la herramienta ejecute una acción equivocada, ¿lo frenarías aunque eso retrasara un lanzamiento, o aceptarías el riesgo para no quedar mal en la reunión?