Optimización de Modelos de Razonamiento como DeepSeek con Optimización de Prompts en Amazon Bedrock

Elena Digital López

Los modelos de razonamiento DeepSeek-R1 han aterrizado en el Amazon Bedrock Marketplace y Amazon SageMaker JumpStart, introduciendo avances significativos en el campo de la inteligencia artificial. Estos modelos se han destacado por su habilidad para abordar pruebas matemáticas complejas, como AIME-2024 y MATH-500, y han demostrado un desempeño competitivo frente a otros modelos de última generación, incluyendo a Claude Sonnet 3.5 de Anthropic, GPT-4 y OpenAI O1.

Una de las claves del éxito de DeepSeek-R1 es su capacidad para mejorar la resolución de tareas al aumentar el tiempo de reflexión durante el entrenamiento. No obstante, se ha identificado que la cantidad de «tokens de pensamiento» necesarios durante la inferencia, y el costo asociado a ellos, es un factor crucial que a menudo se subestima. La optimización de estos tokens resulta esencial para mejorar la eficiencia y obtener respuestas precisas.

En este contexto, la optimización de prompts en Amazon Bedrock aparece como una solución efectiva para modelos de razonamiento como DeepSeek-R1. Al ampliar el límite de tokens de 2,048 a 4,096, los modelos pueden realizar un razonamiento más elaborado antes de presentar una respuesta final. Esto no solo mejora la calidad de las respuestas, sino que también optimiza el uso de los recursos computacionales.

Un claro ejemplo del impacto de esta optimización se observa en el «Último Examen de la Humanidad» (HLE), una serie de preguntas altamente complejas. Aquí, la aplicación de técnicas de optimización de prompts resultó en una notable reducción del 35% en los tokens de pensamiento, manteniendo la precisión en las respuestas. Adicionalmente, sobre un conjunto de 400 preguntas del HLE, la precisión aumentó del 8.75% al 11%, lo que también redujo los costos y tiempos asociados al procesamiento.

Estos desarrollos subrayan la importancia creciente de la optimización de prompts en la implementación efectiva de modelos de razonamiento en entornos productivos. Con el continuo avance de la inteligencia artificial, técnicas como estas serán fundamentales para garantizar que los modelos operen de manera eficiente y precisa, aprovechando al máximo los recursos disponibles.

Scroll al inicio