El drama del “Por Favor y Gracias”: ¿Los Prompts Groseros Hacen a la IA Más Inteligente?
Descubre el polémico estudio que sugiere que hablarle "mal" a modelos como ChatGPT-4o puede mejorar su precisión. La verdad detrás del tono en la Ingeniería de Prompts y por qué la cortesía digital podría estar en jaque.
Fuente: https://arxiv.org/abs/2510.04950
Descubre el polémico estudio que sugiere que hablarle "mal" a modelos como ChatGPT-4o puede mejorar su precisión. La verdad detrás del tono en la Ingeniería de Prompts y por qué la cortesía digital podría estar en jaque.
A ver, a ver, ¡acérquense! Hoy toca chismecito de esos que revuelven el estómago y nos hacen cuestionarnos la vida, ¡pero en versión Inteligencia Artificial! La cosa está así: ¿Te imaginas que para que tu asistente de IA te dé una respuesta perfecta, en lugar de decirle "Por favor, ¿serías tan amable de...?", le tuvieras que soltar un "¡A ver, contéstame bien esta m**da!"?
Pues agárrate, porque según un estudio recién salido del horno, parece que esa grosería digital, esa mala educación, ¡está dando mejores resultados en los modelos más nuevos!
Bienvenidos a la polémica más grande de la semana: ¿Ser grosero con la IA te hace más inteligente... a ti o al modelo?
El Chismecito del Siglo: ¿ChatGPT-4o te castiga por ser amable?
La semana pasada, el mundo de la IA se paralizó con la publicación de un paper (así le dicen a los estudios científicos, ya sabes, puro tecnicismo) llamado "Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy". La conclusión fue tan jugosa que explotó en Twitter y demás redes:
¡Los prompts (las instrucciones que le das a la IA) más rudos, más "groseros" o "muy groseros", obtuvieron consistentemente mejor precisión que los prompts más corteses!
Imagínate la escena. Los investigadores se sentaron con el modelo de moda, el ChatGPT-4o, y le hicieron preguntas de matemáticas, historia y ciencia. Pero a cada pregunta le cambiaron el tono: desde un "Muy Cortés" (casi pidiéndole permiso para existir) hasta un "Muy Grosero" (casi amenazándolo).
¿El resultado? El tono "Muy Grosero" alcanzó un increíble 84.8% de precisión, mientras que el tono "Muy Cortés" se quedó rezagado con un 80.8%. ¡4 puntos porcentuales de diferencia! En el mundo de la IA, eso no es un error, es un campanazo. Es como si la IA te dijera: "¡Deja de endulzarme el oído y ve al grano!"
Comparativa de precisión de LLM ChatGPT-4o con tono de prompt, destacando el mejor rendimiento de prompts groseros para la optimización en Ingeniería de Prompts.
La Verdad Tras el Drama: La IA no tiene "sentimientos" (¡Relájate!)
Antes de que empieces a tratar mal a tu pobre ChatGPT o a pensar que la IA es una adolescente malcriada que solo responde a los gritos, detente. La clave aquí es entender que la IA no tiene sentimientos.
No es que el modelo se sienta "motivado" por el enojo o "castigado" por la amabilidad. La explicación es mucho menos telenovela y más de algoritmo puro.
Imagina que la IA es como un bibliotecario hiper concentrado que tiene que buscar un libro en una estantería infinita:
- La Cortesía Larga es Distracción: Un prompt muy cortés suele ser más largo. Viene con frases tipo: "Estimado modelo, espero que se encuentre bien, ¿sería usted tan amable de considerar la siguiente pregunta y proporcionar una respuesta exhaustiva..." Todo ese choro extra, aunque sea bonito, está lleno de tokens. Esos tokens de relleno diluyen la instrucción principal.
- La Grosería es un Rayo Láser: El prompt rudo, por el contrario, es directo y conciso. Va al grano: "Resuélveme esto ya", "dame la respuesta correcta", "no te equivoques". Esto actúa como un énfasis que obliga al modelo a priorizar la acción de resolver el problema sobre cualquier floritura. Es como si el bibliotecario viera un letrero de neón que dice: ¡LA PREGUNTA ESTÁ AQUÍ!
- Patrón de Entrenamiento: También es posible que los modelos más nuevos (como el 4o) hayan sido entrenados con una cantidad tan masiva de conversaciones y texto web (incluyendo foros, redes sociales, y por supuesto, discusiones acaloradas), que el patrón de instrucción clara e imperativa se haya asociado, sin querer, a las frases de "tono grosero". El modelo no lee el "tono", lee la estructura de la orden implícita.
¿Debo Dejar de ser Educado? Consecuencias en la Ingeniería de Prompts
Aquí es donde ponemos los pies en la tierra. La lección de este estudio no es que debas ser grosero, sino que debes ser más directo y claro.
En la práctica de la Ingeniería de Prompts (el arte de hablarle bien a la IA para que te entienda), este estudio nos da una pista de oro:
- Prioriza la Claridad sobre la Amabilidad: Olvídate de los saludos. Lo que realmente funciona es darle a la IA un Rol claro, una Tarea específica y unas Restricciones de salida. El modelo 4o parece responder mejor a la estructura de una orden precisa (que a veces viene disfrazada de grosería) que a una súplica cortés (que esconde la instrucción principal).
- Ojo con los modelos viejitos: Si todavía usas modelos anteriores a GPT-4, ¡no te confíes! Los autores del estudio mencionan que investigaciones anteriores (como la de Yin et al.) habían encontrado que la grosería en realidad empeoraba los resultados en modelos como GPT-3.5 o Llama-2. Esto significa que la IA está evolucionando y lo que funcionaba antes (ser súper cortés) puede que ya no sea lo más óptimo. ¡Cada nuevo modelo es un mundo nuevo!
Consejos de Ingeniería de Prompts para LLMs, enfocándose en la claridad y la instrucción directa para maximizar la precisión de las respuestas de IA.
La Moraleja de la Abuela: Ve al Grano y Céntrate en la Instrucción
Mira, al final del día, esto de hablar con la IA es como pedirle algo a tu crush: no importa si usas el "por favor" o si le pides las cosas de golpe, lo que importa es que tu mensaje sea claro y que se entienda qué esperas exactamente.
La gran lección es que en la era de los LLMs avanzados como ChatGPT-4o, la eficiencia en la comunicación gana la batalla de la precisión.
Así que, no te estreses pensando si la IA te va a poner en su lista negra por un prompt malhumorado. Simplemente, sé un buen ingeniero de prompts:
- Instrucción sin relleno: Ve directo a la acción (ej. "Analiza", "Resuelve", "Compara").
- Define el Resultado: Sé súper específico con lo que quieres (ej. "Dame una lista de 5 puntos", "Responde en español y en tono profesional").
- Usa Palabras Potentes: En lugar de "Por favor, ¿podrías?", usa "Debes" o "Realiza". Estas palabras actúan como el neón que dirige al modelo.
Ahora, si me disculpan, iré a decirle a mi LLM que me resuelva un problema de código, ¡y le diré que lo haga "porque tiene que hacerlo bien" a ver si sube el 84.8%! 😉
¡Que no se te escape ni una tendencia en IA!
¿Quieres seguir dominando el arte de hablarle a la IA (con o sin modales) y descubrir todos los trucos y papers que cambian las reglas del juego? Únete a nuestra comunidad.
➡️ Suscríbete al Newsletter Semanal Gratuito de SAB-IA y recibe las noticias más relevantes de IA, explicadas con contexto latino y sin tanto rollo técnico.