DeepSeek

DeepSeek y el giro inesperado de la Inteligencia Artificial: del “modelo global” a la carrera por la IA local y soberana

El lanzamiento de DeepSeek-R1 el 20 de enero no solo agitó el debate tecnológico: también sacudió un supuesto que, hasta hace poco, parecía inamovible en el mercado de la Inteligencia Artificial. La idea de que el liderazgo en modelos avanzados era, en la práctica, un monopolio de unos pocos laboratorios estadounidenses empezó a resquebrajarse cuando un actor chino apareció con

DeepSeek, bajo sospecha: así habría burlado el veto de GPU NVIDIA para entrenar su nueva IA

DeepSeek, uno de los nombres de moda en la carrera de la inteligencia artificial china, se ha colocado en el centro de una tormenta geopolítica. Según informaciones filtradas por diversas fuentes del sector, la compañía habría entrenado su próximo modelo de IA utilizando miles de GPU NVIDIA de última generación (arquitectura Blackwell) que, sobre el papel, nunca deberían haber llegado

DeepSeek revienta el tablero: un modelo abierto de ~680.000 millones de parámetros que desafía a GPT-5 y Gemini 3 Pro

La guerra de la inteligencia artificial de última generación acaba de subir otro peldaño. La china DeepSeek ha publicado en Hugging Face los pesos de DeepSeek-V3.2-Speciale, un modelo Mixture-of-Experts con del orden de cientos de miles de millones de parámetros (alrededor de 6,7×10¹¹) y licencia MIT, lo que lo convierte, de facto, en uno de los modelos abiertos más potentes

NIST/CAISI pone bajo lupa a DeepSeek: rinde menos que los modelos de EE. UU., cuesta más a igual desempeño y es mucho más vulnerable a ataques de seguridad

Un nuevo informe técnico del Center for AI Standards and Innovation (CAISI), integrado en el NIST de EE. UU., evalúa los modelos de DeepSeek (V3.1, R1-0528 y R1) frente a referencias estadounidenses (GPT-5, GPT-5-mini, gpt-oss y Opus 4) en 19 pruebas de ciberseguridad, ingeniería de software, ciencia, conocimiento general, matemáticas, coste y seguridad. Conclusión: los modelos de DeepSeek quedan por

DeepSeek presenta su modelo V3.1 con precisión UE8M0 FP8: un movimiento estratégico hacia la soberanía de chips en China

La compañía china refuerza su apuesta por modelos de lenguaje optimizados para hardware doméstico en un contexto de sanciones y rivalidad tecnológica con EE. UU. El pulso por el liderazgo en inteligencia artificial (IA) suma un nuevo capítulo. La firma china DeepSeek ha lanzado su modelo de lenguaje V3.1, que introduce una novedad técnica clave: el formato de precisión “UE8M0

DEP Duolingo: 12 prompts de IA que te ayudarán a volverte bilingüe más rápido (sin búhos ni notificaciones pasivo-agresivas)

El aprendizaje de idiomas está viviendo una revolución silenciosa. Durante años, aplicaciones como Duolingo popularizaron la gamificación con el famoso búho verde: ejercicios cortos, vidas, rachas y notificaciones pasivo-agresivas para mantener la constancia. Fue divertido, adictivo y eficaz hasta cierto punto. Pero la llegada de los grandes modelos de lenguaje –ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google), DeepSeek o Perplexity– ha

DeepSeek V3.1: la inteligencia artificial híbrida que planta cara a Google, Microsoft, Anthropic y OpenAI

DeepSeek ha dado un golpe sobre la mesa en el competitivo mundo de la inteligencia artificial con el lanzamiento de su nuevo modelo DeepSeek V3.1, un sistema que representa un salto sustancial respecto a su antecesor, DeepSeek V3. Con un planteamiento híbrido inédito hasta ahora, esta versión combina rapidez en respuestas sencillas con razonamiento profundo para tareas complejas, reforzando además

Scroll al inicio