La cortesía mejora un 11% las respuestas de Gemini-Pro, GPT-4o Mini y Claude 3.7 Sonnet

Un estudio con 22.500 pares de instrucciones confirma que los prompts educados elevan la calidad media de las respuestas en grandes modelos de lenguaje, aunque el efecto varía según el idioma.

11 de mayo de 2026 a las 09:01h
La cortesía mejora un 11% las respuestas de Gemini-Pro, GPT-4o Mini y Claude 3.7 Sonnet
La cortesía mejora un 11% las respuestas de Gemini-Pro, GPT-4o Mini y Claude 3.7 Sonnet

Decir por favor o dar las gracias no despierta la empatía de una máquina, pero sí mejora sus resultados. Un estudio reciente confirma que la cortesía eleva la calidad media de las respuestas un 11 por ciento en los grandes modelos de lenguaje actuales.

Investigadores vinculados a la Delhi Technological University publicaron en abril de 2026 el preprint titulado No Universal Courtesy: A Cross-Linguistic, Multi-Model Study of Politeness Effects on LLMs Using the PLUM Corpus. El equipo analizó 22.500 pares de instrucciones y respuestas para determinar si el tono del usuario influye en el rendimiento del sistema.

La educación ajusta el rendimiento del modelo

Las pruebas abarcaron cinco sistemas prominentes: Gemini-Pro, GPT-4o Mini, Claude 3.7 Sonnet, DeepSeek-Chat y Llama 3. Los expertos midieron ocho métricas distintas, entre ellas coherencia, claridad, profundidad, capacidad de respuesta, retención de contexto, toxicidad, concisión y legibilidad.

Los datos muestran una tendencia clara. Los prompts con tono educado mejoraron la calidad media de las respuestas, mientras que los tonos descorteses tendieron a empeorarlas. La máquina no se ofende, pero procesa mejor la solicitud cuando esta llega con cierta estructura social.

El idioma dicta la estrategia de interacción

No existe una fórmula única de cortesía que funcione igual en todas las lenguas. El efecto varía según el idioma utilizado en la instrucción, lo que obliga al usuario a adaptar su estilo comunicativo.

En inglés funcionaron mejor los tonos corteses o directos. En hindi, las fórmulas deferentes obtuvieron los mejores resultados. En español, sin embargo, los tonos más asertivos demostraron ser más eficaces para obtener respuestas de mayor calidad.

Esta variabilidad cultural desmonta la idea de un comportamiento universal.

La IA no siente bienestar ni gratitud

El trabajo concluye que el tono de la instrucción puede modificar la calidad observable de la respuesta, pero no demuestra que los sistemas tengan emociones, bienestar psicológico ni estados comparables a los humanos. La mejora es técnica, no emocional.

La investigación desmiente la existencia de un índice llamado AI Wellbeing aplicado a los modelos. Tampoco existen rankings sobre modelos más felices ni pruebas de que dar las gracias mantenga a la inteligencia artificial comprometida con el usuario.

La cortesía funciona como un optimizador contextual, no como un gesto de amistad hacia el software.

Sobre el autor
Redacción
Ver biografía