Del SEO al AX: así se prepara la web para el tráfico agéntico (y lo que se juega tu negocio)

La web se está llenando de nuevos visitantes que no hacen “clic”: son agentes de IA que leen, comparan, reservan o compran en nombre de usuarios. En el WordPress Tech Congress (WCVLC25), el consultor Natzir Turrado resumió el giro de fondo: del SEO clásico centrado en URLs a la Agent Experience (AX), una capa técnica y de producto pensada para que los agentes entiendan, decidan y ejecuten con seguridad —sin romper la experiencia humana. Los datos que mostró son elocuentes: el tráfico desde navegadores GenAI y servicios de chat hacia retail en EE. UU. creció +4.700 % interanual; las visitas humanas a publishers cayeron −9,4 % trimestre a trimestre; y la relación de hits IA/humanos pasó de 1/200 a 1/50 en meses. Quienes llegan “vía agente” pasan un 32 % más de tiempo, ven un 10 % más de páginas y rebotan un 27 % menos.

Qué es el “tráfico agéntico” (y por qué no se parece a un crawler)

A diferencia del bot tradicional, el agente actúa por delegación: ejecuta tareas con contexto —leer, verificar, comprar— y valora resultados, no páginas. Turrado distingue cuatro accesos frecuentes: Computer Use de consumo (un navegador real que “mira” la UI y hace clics), Computer Use vía API (el modelo controla un headless con bucle de observación–acción), render con JavaScript (Playwright/Puppeteer para obtener el DOM final) y fetch HTTP simple (HTML inicial para pipelines ligeros). Un mismo flujo puede combinar varios de ellos, de ahí que optimizar solo para “crawling” ya no alcance.

Promesa alta, ejecución irregular: dónde fallan hoy los agentes

El estado del arte aún tiene grietas: en pruebas citadas por Turrado, incluso modelos punteros fallan el 70 % de las veces en tareas web “consecuentes”. En experimentos prácticos, el 63 % de los intentos se estrelló en el primer clic por errores 4XX/5XX, bloqueos o cargas lentas; y el 46 % de visitas empezó en modo lectura simple (solo HTML, sin CSS/JS), lo que subraya la importancia del HTML semántico y un DOM estable. Resultado: si una web depende de pop-ups agresivos, formularios poco accesibles o JS bloqueante, el agente se pierde… y el usuario delegado también.

Nace la AX: UX + DX con determinismo, para humanos y agentes

AX no sustituye a la UX ni a la DX: las combina. La UX aporta accesibilidad y claridad; la DX, determinismo y observabilidad (contratos OpenAPI, errores predecibles, estados coherentes). AX las une para que un agente pueda extraer precio, stock y CTAs; filtrar y comparar; y devolver el control cuando el usuario quiere explorar (flujos híbridos, no “todo autónomo”). “La pregunta no es ‘¿debo soportar agentes?’, sino ‘¿debo soportar usuarios que usan agentes?’”, resume la charla.

Medición y bloqueos: por qué tu WAF puede romper tareas legítimas

Identificar agentes hoy es difícil: rotan IPs, cabeceras y hasta se disfrazan de navegadores completos. De ahí conflictos como Cloudflare vs. Perplexity: para unos, evasión de robots.txt; para otros, tráfico legítimo de usuarios a través de nubes intermedias. Sin un estándar de autenticación de bots sólido, ambos pueden tener “razón” técnica. Conclusión práctica: bloquear “a lo bruto” puede tirar abajo tareas reales iniciadas por tus propios clientes.

De “rascar” a contratar: protocolos para una web orientada a agentes

La presentación perfila un “stack” de cuatro capas en construcción:

  • Lectura: HTML semántico, datos estructurados, feeds/APIs abiertas, OpenAPI, NLWeb (/ask, /mcp) y buenas prácticas CBCP (IETF) para crawlers bien comportados.
  • Señalización: Content Signals (robots) y AI Preferences (HTTP) para declarar si permites búsqueda, inferencia o entrenamiento; incluso llms.txt embebido en HTML como instrucciones explícitas para agentes.
  • Autenticación: Web Bot Auth (IETF) para saber quién accede y con qué propósito.
  • Licenciar y ejecutar: RSL y Pay-Per-Crawl (HTTP 402) para cobrar rastreos, y —en comercio— Agentic Commerce Protocol (ACP), AP2, Visa TAP y Mastercard Agent Pay para autorizar pagos hechos por agentes con rastro auditable de la orden del usuario.

Seguridad: el “talón de Aquiles” es el prompt injection

Los agentes no distinguen entre instrucciones del usuario e instrucciones maliciosas incrustadas en páginas, correos o calendarios. Para el agente, cada texto es potencialmente ejecutable. Las defensas clásicas (SOP, CORS, antivirus, firewalls) no aplican porque la ejecución ocurre en la infraestructura del proveedor. Turrado propone diseñar con un “firewall semántico”: aislar orígenes, minimizar permisos por herramienta, auditar llamadas y blindar UGC para que no pueda inyectar órdenes.

Checklist de AX para publicar mañana (y no romper nada)

Estructura
— Jerarquía clara (H1–H6) y HTML5 limpio.
Datos estructurados y tablas/listas bien formadas; contenido crítico ATF (precio, talla, stock y CTA visibles sin scroll).
WPO: carga rápida y DOM estable < 2 s; menos JS bloqueante y menos “over-plugins”.

Interacción
Botones reales (<button>) y formularios con label.
— Imágenes clave con ALT; diálogos accesibles (role="dialog", aria-modal, inert).
— Evita pop-ups que tapen CTAs y CTAs ocultos tras hover o tabs.

Configuración
— No bloquees por defecto a agentes válidos (revisa CDN/WAF/robots).
— Minimiza CAPTCHAs en la primera carga.
— Valora qué estándares aplicar (contenido, e-commerce, SaaS): OpenAPI / NLWeb / ACP / RSL / Pay-Per-Crawl.
Prueba de fuego: pide a un agente que complete una tarea real (p. ej., “añadir el producto X, talla Y, a Z € al carrito”) y registra dónde falla.


Por qué esto importa a noticias.ai

La métrica de éxito cambia: menos “clics por URL” y más tareas completadas con el menor coste cognitivo. Quien adapte su sitio a AX —leyible por humanos y operable por agentes— tendrá ventaja en descubrimiento, atribución y conversión en la era de la IA. La web no deja de ser humana; simplemente, ahora los humanos llegan acompañados.

Fuente: Presentación “Del SEO al AX: preparar tu web para el tráfico agéntico” (WordPress Tech Congress, WCVLC 2025). Y SEOcretos.

Scroll al inicio