Mayo ha venido cargado de titulares que parecen sacados de tres universos distintos. Por un lado Bruselas cerrando filas contra usos abusivos de modelos generativos. Por otro el capital riesgo siguiendo una apuesta casi obsesiva en todo lo que huele a IA. Y por otro datos sobre despidos en Estados Unidos donde la IA aparece como factor. Yo no te voy a vender que “lo importante es el prompt” ni que “la regulación solo es burocracia”. Lo que veo es más incómodo: estás en medio, con clientes que quieren herramientas baratas y rápidas y con un marco legal que va a exigir responsabilidad donde antes bastaba con decir que “el modelo falló”.
El acuerdo alcanzado en la UE va en la línea de prohibir sistemas y usos que generen material sexual sin consentimiento, incluidas dinámicas de desnudificación no consentida y el abuso sexual infantil facilitado por IA. La idea, contada con menos eufemismos de los que suelen poner los comunicados, es cortar de raíz mercados que llevan años aprovechándose de la ambigüedad técnica: si lo hace un algoritmo, parece que la responsabilidad se diluye. No se diluye, y en Europa lo están dejando por escrito. La lectura práctica para quien monta producto digital no es solo “no hagas cosas ruines”, es revisar qué vendors integras y con qué salvaguardas documentas el pipeline.
Paralelamente los medios económicos llevan semanas insistiendo en una cifra que a muchos les vuela la cabeza casi el 60% del capital riesgo mundial yendo a negocios ligados a la inteligencia artificial en el arranque de 2026. A mí esa estadística me genera dos impulsos opuestos. El primero es reconocer que hay una ola real de productividad y de nuevos stacks. El segundo es el recelo: cuando todo el dinero mira al mismo sitio, las valoraciones se disparan y también el humo. Si tu cliente te pide “poner IA” sin definir problema medible, probablemente estás a punto de meter en producción un gadget caro de mantener.
Y aquí entra el tercer frente, el laboral. En abril, en Estados Unidos, los recortes vinculados explícitamente a IA pasaron de ser un rumor de Twitter a aparecer en informes como causa concreta de despidos, con cifras que ya se miden por decenas de miles al mes. No voy a hacer extrapolación apocalíptica: el mercado español y el latinoamericano no se mueven igual. Pero sí te advierto de algo que ya he visto en proyectos web: cuando una empresa usa IA para automatizar soporte o redacciones masivas sin reordenar procesos, el ahorro inicial lo pagas después en reputación, en incoherencias de marca o en clientes enfadados. El despido mediático en Silicon Valley no es tu día a día en la agencia de la esquina; la presión por “hacer más con menos” sí lo es.
¿Qué es lo que no te cuadran los manuales? Que casi nadie une estas tres piezas. La norma te habla de riesgos gravísimos y de plazos que llegan hacia finales de 2026. El mercado te habla de dinero fácil para startups con slide de “agents”. Y tu taller te habla de urgencias, de entregas y de que el WordPress no se va a actualizar solo. Si sigues tratando la IA solo como un plugin más, vas tarde. Si la tratas como un componente crítico con trazabilidad mínima y revisión humana en puntos sensibles, al menos vas a dormir algo mejor cuando un cliente pregunte “quién se responsabiliza si esto se publica mal”.
Este mes lo que más me remueve no es el modelo nuevo de turno sino el choque entre velocidad financiera y velocidad institucional. Los fondos quieren multiplicar por diez antes de que el competidor copie el pitch. Las instituciones quieren cajas de seguridad que no se rompan cuando se abre la puerta al usuario final. Esa tensión cae en proveedores de hosting, en integradores, en quienes meten APIs de terceros en sitios corporativos. Piensalo así: cada vez que enlazas una herramienta cloud opaca, estás importando incertidumbre legal que ni tú ni el cliente habéis leído.
Mi recomendación, si trabajas en entorno pyme o agencia, es aburrida y por eso funciona. Documenta qué modelos usas, con qué datos entrenan o no entrenan, qué retención aplica el proveedor y qué pasa si mañana cambian la política o cierran el endpoint. Exige contratos claros en encargados de tratamiento si tocas datos personales. Y separa los proyectos donde la IA solo optimiza copy de los que publican información que podría afectar a salud, finanzas o reputación de terceros. No es pánico. Es catalogación.
Voy a cerrar sin venderte un “framework” ni un curso. Solo con la foto de mayo: regulación seria en la UE sobre abusos gravísimos, capital riesgo hipnotizado por la IA y mercado laboral estadounidense marcando alertas que en Europa aún se discuten en abstracto. Tú eliges si quedarte en la anécdota del meme o montar un criterio profesional. El sector web ya arrastra años de deuda técnica; no necesita encima una deuda de gobernanza sobre herramientas que nadie sabe explicar ante un cliente enfadado.
Si para finales de 2026 tu proveedor te exige trazas y controles sobre contenidos generados automáticamente en flujos que llegan a usuarios finales, ¿replantearás ahora tus integraciones o esperarás a que el primer incidente público te obligue a apagar servicios en caliente?
Fuentes
- Europa Press: La UE acuerda prohibir las imágenes sexuales creadas con IA sin consentimiento
- EFE Agencia: La UE prohíbe la creación de imágenes sexualizadas generadas con IA
- ABC: La IA ya capta el 60% de las inversiones de capital riesgo a nivel mundial
- Infobae: La inteligencia artificial provocó más de 20.000 despidos en abril en Estados Unidos
