Machine Learning

DeepSeek-Prover-V2: Inteligencia artificial para resolver teoremas con Lean 4

DeepSeek-Prover-V2 es el último avance de la iniciativa open source DeepSeek-AI, enfocado en el razonamiento matemático formal. Este modelo de lenguaje de gran tamaño (LLM), entrenado con técnicas de refuerzo y descomposición de subobjetivos, promete transformar la resolución automatizada de teoremas mediante código en Lean 4, el lenguaje de pruebas formales que gana tracción en entornos académicos y matemáticos. Una

OpenAI aclara cómo elegir el modelo ChatGPT ideal según la tarea: guía práctica para empresas y usuarios

Desde el potente GPT-4o hasta el eficiente o4-mini, OpenAI detalla cuál es el modelo más adecuado para cada necesidad, equilibrando velocidad, precisión, creatividad y multimodalidad. OpenAI ha publicado una guía oficial que orienta a empresas y usuarios particulares en la elección del modelo ChatGPT más adecuado según el tipo de tarea. Esta nueva estructura de modelos busca maximizar la eficacia,

Phi-4: los modelos pequeños de Microsoft que desafían a los gigantes de la Inteligencia Artificial

Con Phi-4-reasoning, Phi-4-reasoning-plus y Phi-4-mini-reasoning, Microsoft marca un hito en el desarrollo de modelos lingüísticos compactos con capacidades de razonamiento avanzadas, pensados para ejecutarse incluso en dispositivos locales. Tras un año de evolución acelerada en el ámbito de los Small Language Models (SLMs), Microsoft vuelve a irrumpir en el panorama de la Inteligencia Artificial con el lanzamiento de su nueva

La inteligencia artificial de código abierto gana terreno como alternativa estratégica frente a los gigantes tecnológicos

La inteligencia artificial (IA) de código abierto está consolidándose como una pieza clave en la reconfiguración del sector tecnológico global. Frente al dominio de los grandes proveedores que ofrecen modelos cerrados, costosos y con acceso restringido, la comunidad de desarrolladores, investigadores y empresas está apostando con fuerza por soluciones abiertas, transparentes y auditables. Esta tendencia, lejos de ser una moda

Opik: El framework de evaluación y monitorización de LLM open source que impulsa las aplicaciones de inteligencia artificial

En un momento en que las aplicaciones basadas en grandes modelos de lenguaje (LLM) son clave para empresas y proyectos de IA, Comet ha lanzado Opik, una plataforma de código abierto diseñada para evaluar, depurar y monitorizar sistemas LLM de forma eficiente y escalable. Desde simples chatbots RAG hasta complejas arquitecturas agenticas, Opik permite a los desarrolladores y organizaciones construir

MAGI-1: la nueva IA china de vídeo que amenaza la hegemonía de Sora y Gemini

La supremacía de OpenAI y Google en el terreno de la inteligencia artificial generativa enfrenta un nuevo desafío procedente de China. Sand AI ha presentado MAGI-1, un modelo de vídeo basado en IA que, según sus creadores, supera ampliamente en calidad y control a Sora, Gemini y otras soluciones comerciales. Con un enfoque revolucionario y un rendimiento sobresaliente en tareas

EDGS: Un nuevo paradigma en reconstrucción 3D que elimina la densificación y acelera la convergencia en Gaussian Splatting

El equipo de investigación de CompVis en la Universidad Ludwig-Maximilians de Múnich (LMU) ha presentado EDGS, una revolucionaria técnica que redefine los procesos de reconstrucción 3D basados en Gaussian Splatting. Esta propuesta no solo mejora significativamente la calidad visual, sino que también reduce drásticamente el tiempo de entrenamiento y la cantidad de recursos necesarios. La reconstrucción tridimensional de escenas a

China impulsa su alternativa a CUDA: Moore Threads lanza MUSA SDK 4.0.1 con soporte para procesadores Intel y ARM

El ecosistema de software MUSA de Moore Threads pretende posicionarse como una opción nacional frente al dominio de NVIDIA en el campo de la computación paralela y la inteligencia artificial China continúa avanzando en su estrategia de autosuficiencia tecnológica con el lanzamiento de la versión 4.0.1 del MUSA SDK, una solución desarrollada por la empresa Moore Threads que busca posicionarse

Ventana de contexto en los modelos de lenguaje: el límite de memoria que lo cambia todo

En el universo de la inteligencia artificial generativa, entender cómo funciona un modelo como ChatGPT, Gemini, Claude o Llama requiere conocer un concepto técnico pero fundamental: la ventana de contexto. Este límite, que determina cuánta información puede «recordar» un modelo en una sola interacción, impacta directamente en la calidad, coherencia y utilidad de las respuestas que recibimos. ¿Qué es una

Scroll al inicio