
Los grandes modelos de lenguaje de inteligencia artificial (LLM, por sus siglas en inglés) no comprenden realmente los juegos de palabras, según un estudio académico realizado por investigadores de la Universidad de Cardiff (Reino Unido) y la Universidad Ca’ Foscari de Venecia (Italia), liderados por el profesor José Camacho Collados.
El trabajo fue presentado a principios de noviembre de 2025 en la Conferencia sobre Métodos Empíricos en el Procesamiento del Lenguaje Natural. Los resultados evidencian las limitaciones de la inteligencia artificial en tareas que requieren interpretación del humor, empatía y matices culturales.
El estudio analizó la capacidad de los LLM para identificar y comprender juegos de palabras, un reto que va más allá de la simple detección de estructuras lingüísticas. El equipo diseñó experimentos en los que se presentaron a los modelos frases con juegos de palabras y versiones modificadas de esas mismas frases.

Por ejemplo, se utilizó la oración “Era comediante, pero mi vida se volvió un chiste” y, posteriormente, se reemplazó el remate por “caótica”. A pesar de la ausencia del doble sentido, los modelos continuaron identificando la frase como un juego de palabras.
Otro caso analizado fue: “Los cuentos de hadas largos tienden a ser largos”. Al sustituir términos clave por sinónimos o palabras aleatorias, los LLM persistieron en señalar la presencia de un juego de palabras, lo que sugiere que su análisis se basa en patrones memorizados y no en una comprensión genuina del humor.
En una prueba adicional, la frase: “Los viejos LLM nunca mueren, solo pierden su atención” fue modificada cambiando “atención” por “ukelele”. El modelo mantuvo la percepción de que existía un juego de palabras, argumentando que “ukelele” sonaba similar a “you-kill-LLM”, aunque el sentido humorístico original se había perdido.

Los resultados de estos experimentos revelaron que los LLM pueden detectar la estructura superficial de los juegos de palabras, pero no comprenden el chiste en sí. El profesor Camacho Collados explicó que la investigación demuestra la fragilidad de la comprensión del humor por parte de estos modelos.
Señaló que los LLM tienden a memorizar patrones aprendidos durante su entrenamiento, lo que les permite identificar juegos de palabras conocidos, pero no implica una verdadera comprensión.
El equipo logró engañar sistemáticamente a los modelos al modificar los juegos de palabras y eliminar el doble sentido, observando que los LLM seguían asociando esas frases con juegos de palabras previos e incluso inventaban justificaciones para sostener esa interpretación. Según los investigadores, la supuesta comprensión de los juegos de palabras por parte de la IA es, en realidad, una ilusión.

La investigación también midió la capacidad de los modelos para distinguir entre juegos de palabras y frases sin doble sentido cuando se enfrentaban a ejemplos desconocidos. En estos casos, la tasa de acierto de los LLM descendió hasta el 20%, lo que evidencia una comprensión superficial y limitada.
Estas conclusiones plantean advertencias sobre el uso de la inteligencia artificial en contextos que requieren sensibilidad cultural, empatía o interpretación de matices, como la generación de contenido humorístico o la interacción social. El equipo investigador subrayó la importancia de no confiar ciegamente en los LLM para tareas que dependen de la comprensión del humor o de aspectos culturales complejos.
El estudio, titulado “Juego de palabras no intencionado: LLMs y la ilusión de la comprensión del humor”, fue presentado en la Conferencia sobre Métodos Empíricos en el Procesamiento del Lenguaje Natural 2025, en Suzhou, donde se destacó la necesidad de seguir evaluando críticamente las capacidades y limitaciones de la inteligencia artificial en el procesamiento del lenguaje.
Como recordatorio, los autores del trabajo enfatizaron que la prudencia resulta fundamental al emplear grandes modelos de lenguaje en aplicaciones que exigen interpretar el humor, la empatía o los matices culturales, ya que su aparente comprensión puede resultar engañosa.
Últimas Noticias
Grandes tecnológicas advierten sobre una escasez de chips de memoria debido al ‘boom’ de la IA
El encarecimiento de componentes clave y la presión sobre la cadena de suministro obligan a fabricantes a buscar nuevas estrategias

Apple presenta su anuncio navideño del iPhone 17 con marionetas de animales del bosque
‘A Critter Carol’ inicia su relato en una arboleda nevada, donde un caminante extravía por accidente su smartphone de última generación

Sam Altman afirma que el primer dispositivo de OpenAI será tan revolucionario como el iPhone
El desarrollo apuesta por una experiencia serena y personalizada, con un diseño minimalista y una interacción menos invasiva

Jensen Huang insta a su equipo de Nvidia a utilizar la inteligencia artificial en todas las tareas posibles
La instrucción se da en un contexto donde algunas voces internas, según el propio Huang, habían sugerido incluso reducir el uso de IA

Planean construir la supercomputadora más poderosa de América Latina: los detalles del proyecto
El nuevo sistema Coatlicue permitirá acelerar investigaciones científicas y fortalecer sectores estratégicos como salud, agricultura y energía



