
Anthropic ataca el “coste fantasma” de los agentes: así funciona el prompt caching automático en la API de Claude
Quien haya montado un agente con LLM lo habrá vivido tarde o temprano: el prototipo funciona, el flujo parece sólido… y, de repente, llega la factura. No por “pensar demasiado”, sino por algo mucho más prosaico: repetir una y otra vez el mismo texto. Ese es el problema que ha puesto sobre la mesa un artículo reciente en Medium firmado





