OpenAI prueba el “Thinking Effort” en ChatGPT: el usuario podrá elegir cuánta “mente” aplicar en cada respuesta

OpenAI ha comenzado a experimentar con una nueva función en ChatGPT que promete dar a los usuarios un mayor control sobre la calidad y la velocidad de las respuestas: el “Thinking Effort picker” o selector de esfuerzo de pensamiento. La novedad, detectada en pruebas internas y confirmada por fuentes como BleepingComputer y publicaciones en X, permite ajustar la intensidad del razonamiento del modelo antes de generar una respuesta.


Cuatro niveles de “pensamiento”

El sistema se basa en un presupuesto interno de razonamiento, denominado juice, que determina cuántos pasos lógicos sigue el modelo:

  • Light (5): pensado para consultas rápidas, con mínima latencia.
  • Standard (18): nivel predeterminado para la mayoría de interacciones.
  • Extended (48): más adecuado para tareas de complejidad media, como análisis técnicos o desarrollo de código.
  • Max (200): reservado para suscriptores de la modalidad Pro de 200 dólares, destinado a escenarios críticos que requieran un análisis muy detallado.

Cuanto mayor es el presupuesto, más pasos realiza el modelo, lo que suele derivar en respuestas más elaboradas, aunque también más lentas.


¿Control real o ilusión de control?

La apuesta de OpenAI llega tras meses de debate sobre el rendimiento de GPT-5 y el fenómeno del “sobrepensamiento” (overthinking). Investigaciones recientes apuntan a que incrementar indiscriminadamente el razonamiento no siempre mejora los resultados y, en algunos casos, puede reducir la precisión. Otros enfoques, como generar varias cadenas de razonamiento y seleccionar la más consistente, han mostrado mejoras de hasta un 20 % en exactitud sin aumentar el consumo de recursos.

En foros como Reddit, algunos usuarios señalan que los modos más ligeros no solo responden más rápido, sino que también reducen las alucinaciones. En ese sentido, el selector podría servir más como herramienta de ajuste fino que como garantía de calidad absoluta.


Más allá del router de modelos

Hasta ahora, la estrategia habitual de OpenAI pasaba por decidir de manera automática qué modelo o cuánto razonamiento aplicar a cada petición. Con este experimento, la compañía traslada parte de esa decisión al usuario final. En la práctica, el Thinking Effort funciona como un control manual del equilibrio entre velocidad, profundidad y consumo de recursos, algo que podría interesar especialmente a desarrolladores, analistas financieros, investigadores académicos o equipos de salud que requieran mayor rigor en las respuestas.


Implicaciones estratégicas

El lanzamiento en pruebas del selector también puede leerse como una respuesta al creciente escrutinio que enfrentan los grandes modelos de lenguaje. OpenAI busca así reforzar la percepción de transparencia y control en un momento en que sus rivales —desde Anthropic hasta Google DeepMind— exploran mecanismos para explicar mejor el razonamiento de sus sistemas.

Además, la limitación del nivel máximo a un plan de 200 dólares refleja una estrategia clara de segmentación de producto premium: quienes requieran la máxima potencia, pagarán por ella.


Un paso más hacia la personalización de la IA

Si la función se despliega de forma generalizada, marcaría un cambio significativo en la interacción con modelos generativos. Hasta ahora, los usuarios recibían respuestas según parámetros internos poco visibles. Con el Thinking Effort picker, OpenAI abre una capa de personalización que podría acercar ChatGPT a diferentes públicos: desde quienes buscan inmediatez en preguntas simples hasta quienes necesitan análisis comparables a un trabajo de investigación.


Preguntas frecuentes (FAQ)

1. ¿Qué es el “Thinking Effort picker” de ChatGPT?
Es una función en pruebas que permite al usuario seleccionar la profundidad del razonamiento del modelo, con cuatro niveles que van de Light (5) a Max (200).

2. ¿Más esfuerzo garantiza mejores respuestas?
No siempre. Estudios recientes han demostrado que el “sobrepensamiento” puede empeorar la precisión. En algunos casos, el modo ligero ofrece respuestas más rápidas y menos propensas a alucinaciones.

3. ¿Quién puede acceder al nivel máximo?
El modo Max (200) está reservado a usuarios del plan Pro de 200 dólares al mes, mientras que los demás niveles podrían extenderse a cuentas estándar en el futuro.

4. ¿En qué casos conviene aumentar el esfuerzo?
El nivel extendido o máximo puede resultar útil para tareas complejas en campos como econometría, desarrollo de software avanzado, análisis de datos financieros o investigación científica, donde se busca mayor rigor y detalle.


vía: bleepingcomputer

Scroll al inicio