Cada vez que sale un titular del tipo «la inteligencia artificial como aliada del lenguaje claro» yo me pongo en guardia. No porque odie las herramientas nuevas, que las uso como todo el mundo, sino porque ese titulo suele esconder dos trampas gordas: prometen acabar con el barro administrativo sin explicar quien asume el riesgo y sin tocar el poder que genera ese barro.
Te cuento. En la práctica, cuando hablamos de lenguaje claro en instituciones o en grandes empresas, el problema rara vez es solo redactar mejor. El problema es que alguien quiere que un texto sea confuso porque así se diluye la responsabilidad, o porque el trámite filtra a la gente que se queja, o porque legal prefiere una frase que no comprometa. Meter un chatbot o un modelo que «simplifique» frases no cambia esas presiones. Lo único que cambia es la velocidad con la que producis parrafos legibles que luego igual hay que tirar a la papelera.
Y aquí viene la segunda trampa. La IA no entiende de contexto normativo ni de tono institucional de verdad; imita patrones. Si le pasas un pdf cargado de eufemismos y rodeos, te va a devolver otro pdf con eufemismos más cortitos pero igual de evasivos. Si no hay un criterio humano fuerte encima, fiarse del primer borrador es como firmar un presupuesto sin leer la letra pequeña. Bonito, rápido, barato en apariencia… y carísimo cuando explota.
En mi experiencia, quien gana de verdad con estas soluciones no es el ciudadano que lee el formulario mas claro, sino el proveedor que cobra licencias y el departamento que puede decir que «ya hicemos algo con IA». Es el mismo guion del último lustro: tecnología como parche de imagen, sin métricas serías ni auditoría. Cuantas quejas has bajado, cuanto tiempo real ahorra la gente, que partes del texto sigues reescribiendo a mano y por que. Si no publicas esos numeros, el discurso del lenguaje claro es postureo.
Además, me preocupa el sesgo hacia el español «estandar» de los modelos. Las variantes, el trato informal donde toca, las decisiones politicas sobre inclusión lingüística… no se resuelven con un clic. Si la herramienta homogeneiza, lo que llamas claridad puede ser solo alineación con el promedio estadístico del corpus, no con las necesidades reales de tu publico. Piensalo: claridad no es cortar palabras, es decidir que quien manda en el mensaje.
Otro detalle que casi nunca sale en el marketing: quién revisa. Si el flujo es «la IA propone y yo pongo ok», en el momento en que algo sensible se cuele, la responsabilidad va a quedar repartida como la bolsa del pan. Legal dirá que no validó del todo, el técnico dirá que el modelo es probabilístico, y el usuario se quedará en tierra de nadie. Sin un protocolo claro de revisión y trazabilidad, lo que ofreces no es simplificación sino ruido barato.
¿Digamos que hay matices? Claro. La IA puede ayudar a detectar frases kilométricas, a proponer sinónimos, a generar versiones para distintos niveles de lectura. Todo eso tiene sentido en un taller donde el criterio lo marca gente que entiende de comunicación y de obligaciones legales. Pero presentarlo como la vía rápida para arreglar la administración o la comunicación corporativa me parece, cuando menos, ingenuo.
Lo que yo esperaría de un proyecto serio no es otro demo brillante, sino transparencia sobre limites, evaluación externa y comparación con redacción humana supervisada. Si no hay eso, lo de «aliada del lenguaje claro» suena a titular de feria: mucha luz y al final te llevas un folleto.
Fuentes
- La inteligencia artificial como aliada del lenguaje claro (Yahoo Noticias)
Si tu organismo te dijera que van a «pasar todos los textos por IA» pero el manual interno sigue premiando la ambigüedad legal y nadie asume la revisión final, ¿confiarías en que el resultado sea mas claro para la ciudadanía o solo mas rápido para salir del paso?