
La confianza excesiva en las propias habilidades para manejar herramientas de inteligencia artificial (IA) no solo afecta a los usuarios noveles, sino que, según una investigación reciente, se ha extendido incluso entre quienes cuentan con mayor experiencia en el sector. Así lo ha puesto de manifiesto un estudio realizado por la Universidad Aalto de Finlandia, cuyos resultados han sido recogidos por INC.
El fenómeno, que los autores han denominado “efecto Dunning-Kruger inverso”, desafía la creencia tradicional de que la sobreestimación de capacidades es patrimonio exclusivo de los menos expertos.
El efecto Dunning-Kruger, identificado por los psicólogos que le dan nombre en 1999, describe cómo las personas con menos conocimientos sobre un tema tienden a mostrar una confianza desproporcionada respecto a su verdadera competencia, mientras que los auténticos expertos suelen ser más cautos y humildes.
Sin embargo, la investigación de la Universidad Aalto ha revelado que, en el contexto de la IA, esta dinámica se invierte: los usuarios con mayor alfabetización en IA han demostrado ser los que más sobrevaloran su destreza.
El experimento revela una confianza desmedida entre los expertos en IA

Para analizar la relación entre la autopercepción de las habilidades en IA y la confianza, los investigadores han reunido a un grupo de aproximadamente 500 participantes en un laboratorio. A todos ellos se les ha planteado la resolución de complejos ejercicios de razonamiento lógico, extraídos de la prueba de acceso a la facultad de Derecho (LSAT). Como incentivo adicional, se ha ofrecido una compensación económica extra a quienes obtuvieran mejores resultados.
La mitad de los participantes ha contado con la ayuda de modelos de lenguaje como ChatGPT para resolver las tareas, mientras que la otra mitad ha trabajado sin asistencia de IA. Además, todos han realizado una prueba para medir su alfabetización en IA y han evaluado su propio desempeño en el ejercicio.
Según la hipótesis clásica del efecto Dunning-Kruger, cabría esperar que los menos familiarizados con la IA fueran quienes más sobreestimaran su rendimiento. Sin embargo, los resultados publicados en la revista Computers in Human Behavior han mostrado lo contrario: los participantes con mayor conocimiento y experiencia en IA han sido los que más han sobrevalorado sus capacidades.
“Esperaríamos que las personas alfabetizadas en IA no solo fueran algo mejores interactuando con estos sistemas, sino también juzgando su propio rendimiento con ellos, pero no ha sido así”, ha señalado Robin Welsch, coautor del estudio, en declaraciones recogidas por INC. “Hemos comprobado que, en el caso de la IA, el efecto Dunning-Kruger desaparece. Lo realmente sorprendente es que una mayor alfabetización en IA genera más exceso de confianza”.
La mayoría de los usuarios no verifica las respuestas de la IA

Este hallazgo resulta especialmente preocupante si se tiene en cuenta la tendencia generalizada a confiar ciegamente en las respuestas generadas por la IA. Un análisis reciente de la empresa Exploding Topics, citado por INC, ha revelado que el 92 por ciento de los usuarios no comprueba las respuestas que obtiene de estos sistemas, a pesar de que los modelos más populares siguen presentando errores, inexactitudes y una tendencia a no corregir los malentendidos del usuario.
La investigación de la Universidad Aalto ha detectado un patrón similar entre los participantes del estudio. Los investigadores han observado que “las personas simplemente pensaban que la IA resolvería los problemas por ellas. Normalmente, solo había una única interacción para obtener el resultado, lo que indica que los usuarios confiaban ciegamente en el sistema”, ha explicado Welsch al sitio.
El estudio también advierte sobre el riesgo de que quienes se consideran expertos en IA caigan en una complacencia excesiva. Aunque una persona tenga un conocimiento superior a la media sobre modelos de lenguaje y otras herramientas de IA, es probable que sobreestime tanto la fiabilidad de las respuestas como su propia capacidad para obtener los mejores resultados. De hecho, según los autores, las habilidades avanzadas en IA pueden incrementar la autocomplacencia y la arrogancia.
Por último, la investigación subraya que incluso entre quienes sí verifican las respuestas de la IA —el reducido 8% de usuarios—, existe una lección adicional. Si se ocupa un puesto de responsabilidad, es muy probable que muchos miembros del equipo, por muy seguros y competentes que se muestren al hablar de IA, estén sobrevalorando sus habilidades.
Últimas Noticias
Zaahen, el nuevo campeón de League of Legends: estas son las habilidades y la fecha de lanzamiento
La capacidad de este personaje para alterar el meta del juego ha generado gran expectación entre la comunidad

OpenAI quiere fortalecer la producción e investigación de chips en EE. UU. centrado en IA
El Chips Act es una legislación cuyo objetivo es fortalecer el sector de semiconductores en Estados Unidos mediante subsidios dirigidos a los fabricantes nacionales
3I/ATLAS: qué tecnología se usa para detectar señales del cometa
La tecnología actual permite estudiar prácticamente cada detalle del objeto, desde su trayectoria hasta su composición química

WhatsApp trabaja en una función para proteger a los usuarios de estafas con un solo toque
La aplicación de Meta desarrolla un sistema que agrupa controles de privacidad y verificación, para reducir riesgos de phishing y filtraciones mediante una activación rápida desde los ajustes

Cuáles son las diferencias entre Airbnb, Booking y Google Viajes
Si solo quieres comparar, organizar y recibir alertas y recomendaciones, la última opción es el complemento perfecto, sobre todo si ya utilizas otros servicios de Google en tu día a día




