Machine Learning

GLM-OCR irrumpe con 0,9B parámetros y apunta alto en OCR

El mercado de la comprensión documental con Inteligencia Artificial acaba de sumar un competidor muy serio. GLM-OCR, publicado como proyecto open source por Z.ai, se presenta como un modelo multimodal de OCR para documentos complejos con solo 0,9B parámetros, una cifra muy baja para los estándares actuales del sector. Según sus autores, esa combinación de tamaño contenido y rendimiento elevado

Everything Claude Code salta más allá de Claude y se convierte en sistema

La fiebre por los agentes de IA ya no gira solo alrededor de los modelos. Cada vez pesa más la capa que los rodea: reglas, memoria, hooks, comandos, habilidades, seguridad y formas de repartir tareas entre herramientas distintas. Ahí es donde ha ganado una enorme visibilidad everything-claude-code, un proyecto de GitHub que empezó como un conjunto avanzado de configuraciones para

Elon Musk reactiva Macrohard, la IA de Tesla y xAI para automatizar software

Elon Musk ha vuelto a colocar un nombre provocador en el centro del debate tecnológico. “Macrohard”, una broma evidente a costa de Microsoft, es el nombre que el empresario ha utilizado para describir un proyecto conjunto entre Tesla y xAI con una ambición enorme: construir un sistema capaz de ejecutar trabajo informático complejo como si fuera un empleado delante de

Claude Code incorpora “memoria” persistente: qué significa para equipos de desarrollo y por qué importa en la era de la Inteligencia Artificial

La conversación sobre Inteligencia Artificial aplicada a programación suele girar en torno a velocidad: escribir más código en menos tiempo, automatizar tareas repetitivas o detectar fallos antes de que lleguen a producción. Pero hay un problema menos llamativo —y muy real— que cualquier equipo que haya probado asistentes de programación conoce bien: la falta de continuidad. Termina la sesión y

Qwen3.5-35B-A3B en 4 bits: el modelo “local” que está reabriendo la carrera del código abierto en Inteligencia Artificial

La escena de la Inteligencia Artificial de código abierto vive un momento de euforia difícil de ignorar: cada vez más modelos “serios” dejan de ser exclusivos de centros de datos y empiezan a funcionar —con soltura— en equipos de sobremesa. El último protagonista de esta tendencia es Qwen3.5-35B-A3B, una de las nuevas variantes de la familia Qwen de Alibaba Cloud,

HyperNova 60B: la apuesta española por comprimir los grandes modelos y abaratar la Inteligencia Artificial sin renunciar a potencia

La carrera de la Inteligencia Artificial generativa no se libra solo en quién entrena el modelo más grande. También —y cada vez más— en quién consigue que esa potencia sea utilizable y pagable. En un mercado donde desplegar un modelo avanzado puede implicar infraestructuras costosas, consumo energético elevado y facturas difíciles de justificar para muchas pymes, una startup española ha

IBM acusa el golpe: la IA agéntica de Anthropic pone precio a la modernización de COBOL

IBM ha vivido esta semana una sacudida poco habitual en una compañía acostumbrada a vender “continuidad” y estabilidad. Las acciones del grupo llegaron a caer un 13,2% en una sola sesión —su peor jornada desde el año 2000, según Reuters— tras una publicación de Anthropic que reabre una vieja herida del sector: el coste y la lentitud de modernizar COBOL,

PicoClaw: el “asistente de IA” que quiere bajar los agentes al hardware de 10 dólares

En un ecosistema donde los “AI agents” suelen asociarse a máquinas potentes, contenedores pesados y dependencias interminables, PicoClaw ha irrumpido con un mensaje sencillo —y viral—: un asistente personal de IA capaz de funcionar con menos de 10 MB de RAM y arrancar en alrededor de 1 segundo, incluso en procesadores modestos. La propuesta, publicada como proyecto abierto en GitHub,

Scroll al inicio