Por qué la inteligencia artificial no logra entender el humor humano, según un estudio

Para los expertos, los modelos actuales solo detectan estructuras y patrones memorizados, sin interpretar dobles sentidos ni captar la esencia del juego de palabras

Guardar
El estudio revela que la
El estudio revela que la inteligencia artificial no comprende los juegos de palabras ni el humor como los humanos - (Imagen Ilustrativa Infobae)

Los grandes modelos de lenguaje de inteligencia artificial (LLM, por sus siglas en inglés) no comprenden realmente los juegos de palabras, según un estudio académico realizado por investigadores de la Universidad de Cardiff (Reino Unido) y la Universidad Ca’ Foscari de Venecia (Italia), liderados por el profesor José Camacho Collados.

El trabajo fue presentado a principios de noviembre de 2025 en la Conferencia sobre Métodos Empíricos en el Procesamiento del Lenguaje Natural. Los resultados evidencian las limitaciones de la inteligencia artificial en tareas que requieren interpretación del humor, empatía y matices culturales.

El estudio analizó la capacidad de los LLM para identificar y comprender juegos de palabras, un reto que va más allá de la simple detección de estructuras lingüísticas. El equipo diseñó experimentos en los que se presentaron a los modelos frases con juegos de palabras y versiones modificadas de esas mismas frases.

Investigadores de Cardiff y Ca’
Investigadores de Cardiff y Ca’ Foscari demuestran la fragilidad de los modelos de lenguaje ante dobles sentidos y matices culturales - (Imagen Ilustrativa Infobae)

Por ejemplo, se utilizó la oración “Era comediante, pero mi vida se volvió un chiste” y, posteriormente, se reemplazó el remate por “caótica”. A pesar de la ausencia del doble sentido, los modelos continuaron identificando la frase como un juego de palabras.

Otro caso analizado fue: “Los cuentos de hadas largos tienden a ser largos”. Al sustituir términos clave por sinónimos o palabras aleatorias, los LLM persistieron en señalar la presencia de un juego de palabras, lo que sugiere que su análisis se basa en patrones memorizados y no en una comprensión genuina del humor.

En una prueba adicional, la frase: “Los viejos LLM nunca mueren, solo pierden su atención” fue modificada cambiando “atención” por “ukelele”. El modelo mantuvo la percepción de que existía un juego de palabras, argumentando que “ukelele” sonaba similar a “you-kill-LLM”, aunque el sentido humorístico original se había perdido.

Los grandes modelos de lenguaje
Los grandes modelos de lenguaje identifican patrones memorizados, pero no logran interpretar el sentido humorístico real de las frases - (Imagen Ilustrativa Infobae)

Los resultados de estos experimentos revelaron que los LLM pueden detectar la estructura superficial de los juegos de palabras, pero no comprenden el chiste en sí. El profesor Camacho Collados explicó que la investigación demuestra la fragilidad de la comprensión del humor por parte de estos modelos.

Señaló que los LLM tienden a memorizar patrones aprendidos durante su entrenamiento, lo que les permite identificar juegos de palabras conocidos, pero no implica una verdadera comprensión.

El equipo logró engañar sistemáticamente a los modelos al modificar los juegos de palabras y eliminar el doble sentido, observando que los LLM seguían asociando esas frases con juegos de palabras previos e incluso inventaban justificaciones para sostener esa interpretación. Según los investigadores, la supuesta comprensión de los juegos de palabras por parte de la IA es, en realidad, una ilusión.

La tasa de acierto de
La tasa de acierto de los modelos de lenguaje cae al 20% cuando enfrentan ejemplos desconocidos de humor o doble sentido - (Imagen Ilustrativa Infobae)

La investigación también midió la capacidad de los modelos para distinguir entre juegos de palabras y frases sin doble sentido cuando se enfrentaban a ejemplos desconocidos. En estos casos, la tasa de acierto de los LLM descendió hasta el 20%, lo que evidencia una comprensión superficial y limitada.

Estas conclusiones plantean advertencias sobre el uso de la inteligencia artificial en contextos que requieren sensibilidad cultural, empatía o interpretación de matices, como la generación de contenido humorístico o la interacción social. El equipo investigador subrayó la importancia de no confiar ciegamente en los LLM para tareas que dependen de la comprensión del humor o de aspectos culturales complejos.

El estudio, titulado “Juego de palabras no intencionado: LLMs y la ilusión de la comprensión del humor”, fue presentado en la Conferencia sobre Métodos Empíricos en el Procesamiento del Lenguaje Natural 2025, en Suzhou, donde se destacó la necesidad de seguir evaluando críticamente las capacidades y limitaciones de la inteligencia artificial en el procesamiento del lenguaje.

Como recordatorio, los autores del trabajo enfatizaron que la prudencia resulta fundamental al emplear grandes modelos de lenguaje en aplicaciones que exigen interpretar el humor, la empatía o los matices culturales, ya que su aparente comprensión puede resultar engañosa.