DeepSeek

DeepSeek R1 utiliza los chips Ascend 910C de Huawei, evidenciando el avance de China en la inteligencia artificial

El modelo de inteligencia artificial (IA) R1 de la empresa china DeepSeek está realizando tareas de inferencia utilizando los chips Ascend 910C de Huawei, según informes recientes. Este hecho no solo subraya la creciente capacidad tecnológica de China en el sector de la IA, sino que también pone de manifiesto cómo la industria local está reduciendo su dependencia de componentes

¿El declive de DeepSeek comienza ya?

DeepSeek, la emergente empresa china de inteligencia artificial que sacudió los mercados bursátiles de Estados Unidos con su chatbot R1, más barato y eficiente que ChatGPT de OpenAI, podría estar enfrentando su primer gran desafío. Tras una semana de éxito fulgurante, la compañía se encuentra bajo creciente escrutinio debido a acusaciones de violación de términos de servicio, preocupaciones de seguridad

Elena Digital López

Avance de DeepSeek en IA: Menos Recursos, Gran Impacto

El pasado 26 de diciembre, la empresa china DeepSeek revolucionó el campo de la inteligencia artificial al presentar DeepSeek-V3, una innovadora tecnología que compite a la par con los sistemas avanzados de chatbots de gigantes como OpenAI y Google. Este desarrollo es notable no solo por sus capacidades, sino por la eficiencia en costos que logró durante su creación. A

DeepSeek-R1 con Ollama: Instalar IA localmente sin depender de la nube

En el mundo de la inteligencia artificial, la privacidad y el acceso sin restricciones a modelos avanzados de procesamiento de lenguaje son cada vez más demandados. DeepSeek-R1 se posiciona como una opción destacada dentro del ecosistema open-source, permitiendo ejecutar un modelo potente de IA sin conexión a Internet. Gracias a Ollama, una plataforma que facilita la instalación y gestión de

DeepSeek lanza Janus-Pro, un modelo de IA que supera a DALL-E 3 y Stable Diffusion en generación de imágenes

La startup china de inteligencia artificial DeepSeek ha presentado Janus-Pro, un modelo multimodal de código abierto que promete revolucionar la generación de imágenes a partir de descripciones textuales. Con este lanzamiento, la compañía consolida su posición en el sector tras el éxito de su anterior modelo, R1. DeepSeek, la emergente empresa china especializada en inteligencia artificial, ha dado un nuevo

Elena Digital López

DeepSeek R1 vs. OpenAI O1: ¿Cuál es el mejor modelo de IA para razonamiento avanzado?

Un análisis comparativo entre los dos modelos de inteligencia artificial generativa más prometedores del momento revela sus fortalezas y debilidades en tareas de razonamiento complejo, eficiencia y costes. En el acelerado mundo de la inteligencia artificial generativa (GenAI), dos modelos han captado la atención de expertos y empresas por igual: DeepSeek R1, desarrollado por la startup china DeepSeek AI, y

Deepseek: La Revolución del Código Abierto en la Inteligencia Artificial

La irrupción de Deepseek, un modelo chino de razonamiento avanzado, ha sacudido los cimientos del panorama de la inteligencia artificial generativa. Este modelo no solo rivaliza con los grandes jugadores occidentales, como OpenAI, sino que también refuerza la idea de que las restricciones tecnológicas pueden estimular la innovación. En un entorno de creciente competencia global, Deepseek pone en jaque la

DeepSeek-V3: La startup china que desafía a los gigantes de la IA generativa

La inteligencia artificial generativa está revolucionando industrias a un ritmo vertiginoso, impulsando innovaciones que transforman la manera en que interactuamos con la tecnología. En este dinámico panorama, startups emergentes compiten con gigantes tecnológicos como OpenAI, Anthropic y Meta para liderar el desarrollo de modelos de lenguaje avanzados. Sin embargo, una empresa china, DeepSeek, está marcando una nueva pauta con su

DeepSeek-V3: el modelo de IA de código abierto que desafía a los gigantes de la inteligencia artificial

La startup china DeepSeek ha lanzado su último modelo de inteligencia artificial de gran escala, el DeepSeek-V3, que promete revolucionar el panorama de los modelos de lenguaje. Con 671.000 millones de parámetros y utilizando una arquitectura de «mixture-of-experts» (MoE), este modelo supera a competidores como Llama 3.1-405B de Meta y Qwen 2.5-72B en varias pruebas de referencia, acercándose al rendimiento

Scroll al inicio