Apps y webs IA

ccusage: el “scorecard” de costes de Claude Code que se ha hecho viral

En cuanto los equipos empiezan a usar asistentes de Inteligencia Artificial para programar, depurar o documentar, aparece una pregunta incómoda —y muy de sysadmin—: ¿cuánto está costando realmente esta fiesta, sesión a sesión y día a día? En ese hueco entra ccusage, una herramienta en formato CLI pensada para analizar el uso de Claude Code a partir de ficheros locales

prompts.chat, la “Wikipedia del prompt” que convierte el prompting en conocimiento colectivo

Durante años, la receta para “saber hablar con la Inteligencia Artificial” se vendió como un secreto: cursos, plantillas cerradas, gurús y bibliotecas privadas de prompts. Sin embargo, el auge de herramientas generativas ha ido empujando el prompting hacia un terreno mucho más cotidiano —y menos glamuroso—: el de la documentación compartida, el ensayo-error y la mejora incremental por parte de

¿Se puede usar un modelo local “en Claude Code” para programar sin pagar a un proveedor?

En los últimos meses se ha extendido una idea tentadora entre desarrolladores: mantener la experiencia de Claude Code —el asistente de programación en terminal/IDE— pero sustituyendo el modelo de Anthropic por uno local (vía Ollama u otros servidores). En redes suele presentarse como “usar Claude Code gratis”, aunque la realidad es más matizada: no se obtiene Claude (el modelo) sin

RIP OpenClaw: montar un agente autónomo realmente seguro con Claude + n8n (vía MCP)

La “era de los agentes” tiene un problema incómodo: cuanto más útiles se vuelven (acceso a correo, ficheros, pagos, tickets, repos…), más peligrosa es la tentación de darles demasiado poder. La forma sensata de escalar es justo la contraria: construir capacidad a base de permisos mínimos, compartimentos estancos y confirmaciones explícitas. Aquí encaja MCP (Model Context Protocol): un estándar open-source

OpenCode rompe la barrera de las 100.000 estrellas y reabre el debate: ¿la IA para programar vive mejor en la terminal?

En un ecosistema saturado de asistentes de programación con Inteligencia Artificial —muchos de ellos integrados en editores cerrados y con dependencia fuerte de un proveedor—, hay señales que funcionan como termómetro real del entusiasmo técnico. Una de ellas es GitHub: cuando un proyecto supera la barrera psicológica de las 100.000 estrellas, deja de ser una curiosidad y empieza a convertirse

ChatGPT se asoma a la publicidad “premium”… y la gran pregunta es qué ocurrirá cuando todas las IA se saturen

OpenAI empieza a vender anuncios dentro de ChatGPT con una propuesta poco habitual en el ecosistema publicitario: precios altos y métricas limitadas. La cifra que se está moviendo en el mercado —alrededor de 60 dólares por cada 1.000 impresiones— sitúa el inventario de ChatGPT en un escalón “premium”, mientras que el reporting inicial se quedaría en impresiones y clics, sin

Un repositorio viral recopila “system prompts” filtrados y reabre el debate sobre la seguridad de los chatbots

Un proyecto público en GitHub está ganando tracción a gran velocidad en la comunidad de prompt engineering y seguridad: asgeirtj/system_prompts_leaks, un repositorio que se presenta como una “colección de system prompts/system messages/developer messages” extraídos de chatbots populares. A simple vista, la receta del “éxito” es clara: un tema polémico, fácil de compartir en redes y con un punto de morbo

Scroll al inicio