¿Cortesía con la IA?: la respuesta científica sobre el impacto de ser educado con los chatbots

Los investigadores probaron instrucciones con distintos grados de educación, desde mensajes groseros hasta otros excesivamente formales

Guardar
Los prompts muy secos o
Los prompts muy secos o irrespetuosos generaban respuestas menos precisas y útiles, según un estudio. (Imagen ilustrativa Infobae)

La interacción cotidiana con asistentes virtuales y modelos de lenguaje como ChatGPT ha generado un debate sobre si realmente tiene algún efecto emplear fórmulas de cortesía como “gracias” o “por favor” al comunicarse con la inteligencia artificial.

Aunque desde el punto de vista técnico estos gestos suponen un coste computacional significativo, investigaciones indican que un tono moderadamente educado puede mejorar la calidad de las respuestas que ofrecen los chatbots. La ciencia comienza a demostrar que no es tan inútil ser cordial con la IA como muchos pensaban.

El efecto de la cortesía en las respuestas de la inteligencia artificial

Un estudio de la Waseda University de Tokio, publicado en 2024, analizó cómo el nivel de cortesía en los mensajes —o prompts— afecta la calidad de las respuestas generadas por modelos de lenguaje como ChatGPT o LLaMA.

Investigaciones indican que un tono
Investigaciones indican que un tono moderadamente educado puede mejorar la calidad de las respuestas que ofrecen los chatbots. (Imagen Ilustrativa Infobae)

Los investigadores probaron instrucciones con distintos grados de educación, desde mensajes groseros hasta otros excesivamente formales, en inglés, chino y japonés.

Los resultados mostraron una tendencia clara: los prompts muy secos o irrespetuosos generaban respuestas menos precisas y útiles. En cambio, un tono educado pero sin excesos solía dar lugar a respuestas más fiables, completas y mejor estructuradas. Es decir, en el equilibrio entre la brusquedad y la formalidad extrema se encuentran los mejores resultados conversacionales.

Cómo funciona la IA y por qué responde diferente a la cortesía

Lejos de interpretar la educación como lo haría un ser humano, los modelos de lenguaje funcionan a partir de patrones lingüísticos presentes en sus datos de entrenamiento. La IA no “siente” cortesía ni se ofende por la rudeza, pero sí detecta y reproduce estilos conversacionales.

Un tono educado pero sin
Un tono educado pero sin excesos solía dar lugar a respuestas más fiables, completas y mejor estructuradas. (Imagen Ilustrativa Infobae)

Un mensaje claro, bien contextualizado y con un tono colaborativo puede guiar al sistema a ofrecer respuestas más elaboradas y pertinentes, mientras que las instrucciones ambiguas o autoritarias tienden a generar respuestas más cortas y poco detalladas.

Esta interpretación fue respaldada por Murray Shanahan, investigador de Google DeepMind, quien comparó a estos sistemas con un becario inteligente: tienden a adaptarse al estilo que plantea el usuario, respondiendo con mayor cooperación y paciencia cuando perciben un trato más educado o colaborativo.

El debate sobre la utilidad y el coste de ser educado con los chatbots

El uso de fórmulas de cortesía en la comunicación con la IA no está exento de debate. Sam Altman, CEO de OpenAI, advirtió que millones de mensajes de despedida y agradecimiento generan un coste de recursos y energía nada despreciable para mantener los servidores en funcionamiento.

Un mensaje claro, bien contextualizado
Un mensaje claro, bien contextualizado y con un tono colaborativo puede guiar al sistema a ofrecer respuestas más elaboradas. (Imagen Ilustrativa Infobae)

Sin embargo, estudios y encuestas demuestran que muchos usuarios siguen empleando estas expresiones, no porque esperen una reacción emocional de la IA, sino porque forman parte de los hábitos de comunicación cotidiana.

La ciencia sugiere que, aunque la IA no reconoce la cortesía en términos humanos, mantener un tono educado y colaborativo puede ser útil para obtener mejores respuestas.

Los chatbots fallan más cuando el usuario es vulnerable

Un estudio realizado por el Centro para la Comunicación Constructiva (CCC) del MIT advierte sobre la presencia de sesgos en los modelos de lenguaje más sofisticados, un factor que impacta negativamente en la calidad de las respuestas ofrecidas a usuarios con menor dominio del inglés, bajo nivel educativo o que residen fuera de Estados Unidos.

Según el estudio, los chatbots
Según el estudio, los chatbots ofrecen respuestas menos precisas a usuarios con menor nivel educativo. (Imagen ilustrativa Infobae)

Esta situación, según el informe consultado, podría agravar las desigualdades en el acceso global a la información.

El auge de herramientas como GPT-4 de OpenAI, Claude 3 Opus de Anthropic y Llama 3 de Meta había generado expectativas sobre una mayor equidad en el acceso al conocimiento. Estas plataformas, promocionadas como soluciones para democratizar la información, prometen interfaces universales e intuitivas, independientemente del origen o nivel educativo del usuario.

Sin embargo, la investigación presentada por el CCC del MIT en la Conferencia AAAI de Inteligencia Artificial muestra que los sistemas de IA tienden a proporcionar respuestas menos precisas y fiables a quienes más podrían beneficiarse de ellas.

La autora principal, Elinor Poole-Dayan, subraya: “Esa visión no puede hacerse realidad sin garantizar que los sesgos del modelo y las tendencias perjudiciales se mitiguen de forma segura para todos los usuarios, independientemente de su idioma, nacionalidad u otros datos demográficos”.