TIC's en la Web

Los cinco desafíos de la IA generativa: listas bonitas, deberes pendientes

Cada vez que leo otro artículo con «los cinco desafíos» de la inteligencia artificial generativa me pregunto si alguien va a cerrar el círculo: listar problemas está muy bien, pero ¿quién asume el coste cuando falla el modelo en producción? No es retórica: en mi día a día veo a clientes que quieren integrar IA en la web o en el soporte y creen que el riesgo es solo reputacional. La realidad es más aburrida y más cara: datos, cumplimiento y operación.

We Live Security ya resumía hace tiempo los retos habituales alrededor de la IA generativa: privacidad, sesgos, uso indebido, dependencia de proveedores y la fricción legal. No son ideas nuevas, pero siguen siendo el marco en el que se mueve cualquier proyecto serio. Yo no te voy a vender que «con un prompt bien escrito» desaparece el problema. El prompt ayuda, claro, pero no sustituye políticas ni arquitectura.

Lo que me choca es la velocidad con la que se pasa de la prueba en local al «ya está en el sitio». En Latinoamérica la adopción va fuerte, pero los informes sectoriales insisten en que los cuellos de botella están en la calidad y gobernanza de los datos, no en falta de entusiasmo comercial. Traduzco: puedes tener el mejor modelo del mercado y seguir tomando decisiones basadas en basura normalizada. Eso no lo arregla el marketing del vendor.

En paralelo, el salto de la IA generativa a lo que llaman agentic AI —básicamente sistemas que actúan con más autonomía encadenando pasos— cambia el perfil de riesgo. No es solo «responde mal», es «hace cosas» sin que el usuario haya entendido el alcance. Revista Byte y otros medios especializados llevan tiempo señalando que la competitividad va a pasar por orquestar esos agentes con criterio, no por acumular licencias. Yo estoy de acuerdo en el diagnóstico y algo escéptico con la ejecución media en pyme: pocos equipos tienen claros los límites de cada agente y quién los audita.

Microsoft, en su línea de informes sobre ciberseguridad e IA, insiste en que hay que tratar la IA como parte del perímetro de seguridad, no como un añadido cosmético. Suena obvio hasta que entras en una auditoría y descubres que el token de la API vive en un .env compartido por Slack y que nadie ha leído el informe de riesgos. Ahí la «IA segura» se cae por el peso propio.

Y fuera del despacho, el mundo real ya mezcla IA con infraestructura crítica y eventos masivos. Los medios han cubierto cómo se plantea la seguridad predictiva con IA en el contexto del Mundial 2026 en México: mucha expectativa, mucha cámara, y la pregunta de siempre —quién responde si el sistema etiqueta mal a alguien o genera un falso positivo gordo— queda para el pie de foto. Yo no soy tan optimista: cuando escalas vigilancia automatizada, el coste social de un error no lo pagas tú con un rollback.

En resumen: las listas de desafíos sirven para alinear vocabulario, no para sustituir un plan. Si vas a meter generativa en un flujo que toca datos de clientes, necesitas trazabilidad, revisión humana en los puntos calientes y límites claros de lo que el modelo puede hacer solo. El mercado habla de productividad; yo te hablo de responsabilidad porque al final el que firma el presupuesto eres tú o tu cliente.

Que conste: no estoy en contra de la tecnología. Estoy en contra de la pereza con la que se vende como magia. La IA generativa puede ahorrar trabajo, pero también puede amplificar errores y sesgos a escala industrial. Elegir proveedor, documentar prompts, registrar salidas y tener un plan cuando algo se tuerce no es «opcional» si cobras como profesional.

Fuentes

Salir de la versión móvil