¿De verdad hay que hablarle mal a la IA? Un experimento dice que sí… pero no te flipes

Sí, suena absurdo: cuanto más borde eres con el modelo, mejor acierta en preguntas tipo test. Un experimento con variaciones de tono —muy educado, educado, neutro, borde y muy borde— encontró que la versión “muy borde” sacó unos puntos más que la “muy educada”. No, no es licencia para convertir tus prompts en un hilo de forocoches. Es una pista de algo más útil: los modelos siguen reaccionando a rasgos superficiales del texto, y un prompt directo, conciso y mandón ayuda.


Qué hicieron (sin épica ni humo)

  • 50 preguntas reescritas en 5 tonos.
  • Formato multiple-choice (A/B/C/D).
  • Mismo modelo, mismos ítems, cambias el tono y comparas aciertos.

Resultado: neutro/borde > educado y muy borde arriba del todo. ¿Milagro? No. El modelo se enreda menos cuando le das instrucciones claras y poca paja. La descortesía, casualmente, suele ser concisa y directiva.


Por qué podría pasar (traducción al castellano llano)

  • Menos relleno, menos lío. La cortesía añade palabras que no aportan (“¿podrías, por favor…?”) y el modelo dispersa el tiro.
  • Imperativos mandan.Devuelve solo la letra correcta” funciona mejor que florituras con gracias y reverencias.
  • Formato ayuda. Si defines salida exacta (una letra, JSON, lista cerrada), el modelo no juega a adivinar tu gusto.

Lo que NO demuestra (y conviene tatuarse)

  1. Es un experimento acotado con preguntas tipo test. No extrapoles a programación compleja, razonamiento largo o tareas creativas.
  2. Un modelo, un setup. Sin réplicas amplias, no vendas esto como dogma.
  3. La mejora es pequeña pero real. No es magia negra; es higiene de prompting disfrazada de bordeza.
  4. No normaliza la grosería. Ser maleducado en productos reales es mala experiencia y mala ética. Se puede ser claro y directo sin ser un desastre social.

Cómo exprimir el efecto sin convertirte en un ogro

  • Ve al grano. Abre con la instrucción clave: “Responde solo con A/B/C/D”.
  • Formato primero. Define salida exacta (una línea, JSON, letra).
  • Neutral ≈ ideal. Quita cumplidos, muletillas y circunloquios.
  • Contexto mínimo necesario. Dale solo lo que necesita para acertar.
  • Prueba A/B. En tu caso real, compara neutro/directo vs educadísimo y mide.

FAQ borde (pero útil)

¿Tengo que insultar al modelo para que funcione?
No. El truco no es el insulto; es la claridad. La bordeza suele ser corta y mandona, justo lo que el modelo entiende mejor.

¿Sirve para todo?
No. Se ha visto en multiple-choice. En tareas largas y abiertas, estructura y formato pesan más que el tono.

¿Puedo llevar esto a producción?
Sí, pero sin mala educación. Prompts neutros, directos, con formato declarado. Deja la bordería para el meme.

¿Por qué los modelos “caen” en esto?
Porque siguen siendo sensibles al envoltorio: orden, longitud y verbo marcan la distribución de la salida. Es normal en modelos generativos.

Dame un prompt sano, no tóxico:
Elige la respuesta correcta. Devuelve solo la letra (A/B/C/D). Pregunta: … Opciones: A)… B)… C)… D)…


En una línea

No necesitas ser maleducado: neutro, corto y mandón gana a “educadísimo y enredado”. Menos rosa, más instrucción. Y mide en tu caso —que para dogmas ya hay demasiados.

vía: Arvix

Scroll al inicio