Machine Learning

Microsoft abre bitnet.cpp: la apuesta por modelos de 1,58 bits para llevar LLMs gigantes al CPU

Microsoft ha liberado bitnet.cpp, un framework oficial de inferencia para modelos de lenguaje “1-bit” (en la práctica, BitNet b1.58, con pesos ternarios). La promesa es tentadora: hacer viable la inferencia de modelos enormes sin GPU, reduciendo drásticamente el coste energético y mejorando el rendimiento en CPUs modernas. Pero, como suele ocurrir en el mundo de la IA, el titular rápido

“Habilidades de Claude”: por qué los flujos de trabajo repetibles están cambiando la forma de usar la IA (y qué pinta tiene el ecosistema que se está formando)

Durante años, la conversación sobre asistentes de Inteligencia Artificial ha girado alrededor de “qué tan bien responde” un modelo. Pero, en 2025, una parte creciente del valor se está moviendo a otro sitio: cómo convertir esas respuestas en trabajo repetible, estandarizado y fiable. Ahí entran las llamadas Claude Skills (Habilidades de Claude), un concepto que Anthropic describe como flujos de

DeepSeek y el giro inesperado de la Inteligencia Artificial: del “modelo global” a la carrera por la IA local y soberana

El lanzamiento de DeepSeek-R1 el 20 de enero no solo agitó el debate tecnológico: también sacudió un supuesto que, hasta hace poco, parecía inamovible en el mercado de la Inteligencia Artificial. La idea de que el liderazgo en modelos avanzados era, en la práctica, un monopolio de unos pocos laboratorios estadounidenses empezó a resquebrajarse cuando un actor chino apareció con

Diez comandos de Claude Code que prometen recortar hasta un 60 % el tiempo de desarrollo: del “autocomplete caro” a los flujos de trabajo automatizados

Durante años, gran parte de la conversación sobre asistentes de programación se ha quedado en la superficie: “escribe código”, “completa funciones”, “arregla este bug”. Sin embargo, en equipos donde el desarrollo ya está medido al minuto —sprints ajustados, revisiones interminables y una pila creciente de incidencias— el problema rara vez es que falte código. El cuello de botella suele ser

GPT-5 en el “laboratorio húmedo”: OpenAI prueba si la IA puede mejorar protocolos reales de biología

La conversación sobre Inteligencia Artificial en ciencia suele quedarse en lo “fácil” de medir: resolver problemas de matemáticas, resumir papers o proponer hipótesis en pantalla. Pero la biología tiene una exigencia distinta: si una idea no se puede ejecutar en el laboratorio y validar con datos, se queda en teoría. Con esa premisa, OpenAI ha publicado un experimento centrado en

OpenAI estrena FrontierScience, un nuevo “examen” para medir si la IA puede ayudar de verdad en la investigación científica

OpenAI ha presentado FrontierScience, un nuevo benchmark diseñado para evaluar hasta qué punto los modelos de Inteligencia Artificial son capaces de realizar razonamiento científico de nivel experto en física, química y biología. La iniciativa llega en un momento en el que las grandes tecnológicas compiten por demostrar que sus sistemas no solo responden preguntas, sino que pueden acelerar tareas reales

NVIDIA abre su apuesta por la IA agéntica con Nemotron 3: modelos “open” más eficientes y pensados para escalar en multi-agentes

NVIDIA ha presentado la familia Nemotron 3, una nueva línea de modelos abiertos (Nano, Super y Ultra) diseñada para acelerar el salto de los chatbots “de una sola pieza” hacia sistemas de IA agéntica donde varios agentes colaboran, se reparten tareas y ejecutan flujos complejos con costes controlados. La compañía coloca el foco en un punto que a menudo se

Scroll al inicio