Machine Learning

Cloudflare compra Human Native para poner precio al contenido en la era de la IA

Cloudflare ha anunciado la adquisición de Human Native, una startup centrada en convertir contenido editorial y creativo en “datos listos para IA” con un objetivo explícito: facilitar que los desarrolladores encuentren, accedan y paguen por información de calidad, y que los creadores puedan decidir si bloquean, optimizan o monetizan el uso de sus materiales por parte de modelos de Inteligencia

Apple y Google firman una alianza plurianual: Gemini será la base de la próxima generación de modelos de Apple y promete un Siri más personal en 2026

Apple y Google han sorprendido al sector de la Inteligencia Artificial con una declaración conjunta poco habitual por su franqueza: ambas compañías han cerrado una colaboración plurianual para que la próxima generación de “Apple Foundation Models” esté basada en los modelos Gemini y en tecnología cloud de Google. Según el comunicado, esos modelos servirán para impulsar futuras funciones de Apple

Microsoft abre bitnet.cpp: la apuesta por modelos de 1,58 bits para llevar LLMs gigantes al CPU

Microsoft ha liberado bitnet.cpp, un framework oficial de inferencia para modelos de lenguaje “1-bit” (en la práctica, BitNet b1.58, con pesos ternarios). La promesa es tentadora: hacer viable la inferencia de modelos enormes sin GPU, reduciendo drásticamente el coste energético y mejorando el rendimiento en CPUs modernas. Pero, como suele ocurrir en el mundo de la IA, el titular rápido

“Habilidades de Claude”: por qué los flujos de trabajo repetibles están cambiando la forma de usar la IA (y qué pinta tiene el ecosistema que se está formando)

Durante años, la conversación sobre asistentes de Inteligencia Artificial ha girado alrededor de “qué tan bien responde” un modelo. Pero, en 2025, una parte creciente del valor se está moviendo a otro sitio: cómo convertir esas respuestas en trabajo repetible, estandarizado y fiable. Ahí entran las llamadas Claude Skills (Habilidades de Claude), un concepto que Anthropic describe como flujos de

DeepSeek y el giro inesperado de la Inteligencia Artificial: del “modelo global” a la carrera por la IA local y soberana

El lanzamiento de DeepSeek-R1 el 20 de enero no solo agitó el debate tecnológico: también sacudió un supuesto que, hasta hace poco, parecía inamovible en el mercado de la Inteligencia Artificial. La idea de que el liderazgo en modelos avanzados era, en la práctica, un monopolio de unos pocos laboratorios estadounidenses empezó a resquebrajarse cuando un actor chino apareció con

Diez comandos de Claude Code que prometen recortar hasta un 60 % el tiempo de desarrollo: del “autocomplete caro” a los flujos de trabajo automatizados

Durante años, gran parte de la conversación sobre asistentes de programación se ha quedado en la superficie: “escribe código”, “completa funciones”, “arregla este bug”. Sin embargo, en equipos donde el desarrollo ya está medido al minuto —sprints ajustados, revisiones interminables y una pila creciente de incidencias— el problema rara vez es que falte código. El cuello de botella suele ser

Scroll al inicio