Decir por favor o dar las gracias no despierta la empatía de una máquina, pero sí mejora sus resultados. Un estudio reciente confirma que la cortesía eleva la calidad media de las respuestas un 11 por ciento en los grandes modelos de lenguaje actuales.
Investigadores vinculados a la Delhi Technological University publicaron en abril de 2026 el preprint titulado No Universal Courtesy: A Cross-Linguistic, Multi-Model Study of Politeness Effects on LLMs Using the PLUM Corpus. El equipo analizó 22.500 pares de instrucciones y respuestas para determinar si el tono del usuario influye en el rendimiento del sistema.
La educación ajusta el rendimiento del modelo
Las pruebas abarcaron cinco sistemas prominentes: Gemini-Pro, GPT-4o Mini, Claude 3.7 Sonnet, DeepSeek-Chat y Llama 3. Los expertos midieron ocho métricas distintas, entre ellas coherencia, claridad, profundidad, capacidad de respuesta, retención de contexto, toxicidad, concisión y legibilidad.
Los datos muestran una tendencia clara. Los prompts con tono educado mejoraron la calidad media de las respuestas, mientras que los tonos descorteses tendieron a empeorarlas. La máquina no se ofende, pero procesa mejor la solicitud cuando esta llega con cierta estructura social.
El idioma dicta la estrategia de interacción
No existe una fórmula única de cortesía que funcione igual en todas las lenguas. El efecto varía según el idioma utilizado en la instrucción, lo que obliga al usuario a adaptar su estilo comunicativo.
En inglés funcionaron mejor los tonos corteses o directos. En hindi, las fórmulas deferentes obtuvieron los mejores resultados. En español, sin embargo, los tonos más asertivos demostraron ser más eficaces para obtener respuestas de mayor calidad.
Esta variabilidad cultural desmonta la idea de un comportamiento universal.
La IA no siente bienestar ni gratitud
El trabajo concluye que el tono de la instrucción puede modificar la calidad observable de la respuesta, pero no demuestra que los sistemas tengan emociones, bienestar psicológico ni estados comparables a los humanos. La mejora es técnica, no emocional.
La investigación desmiente la existencia de un índice llamado AI Wellbeing aplicado a los modelos. Tampoco existen rankings sobre modelos más felices ni pruebas de que dar las gracias mantenga a la inteligencia artificial comprometida con el usuario.
La cortesía funciona como un optimizador contextual, no como un gesto de amistad hacia el software.