La música generada por inteligencia artificial conquista emociones humanas en un experimento pionero

Un estudio realizado en Barcelona revela que las composiciones musicales creadas por inteligencia artificial logran provocar respuestas emocionales intensas y comparables a las producidas por música escrita por personas, abriendo nuevas perspectivas para la industria sonora

Guardar
Un estudio en Barcelona revela
Un estudio en Barcelona revela que la inteligencia artificial iguala a los humanos en la capacidad de evocar emociones musicales - (Imagen Ilustrativa Infobae)

Escuchar música es una de las experiencias más universales; basta una melodía para transportarnos a otro lugar o cambiar nuestro estado de ánimo en cuestión de segundos. Durante siglos, las emociones que nos despierta una banda sonora se han considerado casi un arte exclusivo del ser humano, dotado de sensibilidad y creatividad únicas. ¿Pero qué ocurre cuando un algoritmo asume el rol de compositor y nos invita a sentir con sus creaciones?

Hoy, la inteligencia artificial es capaz de escribir canciones, crear bandas sonoras y acompañar imágenes en pantalla con composiciones inéditas. Lo que antes parecía ciencia ficción se ha convertido en un fenómeno cotidiano en la industria audiovisual y musical. Cada vez más, surgen preguntas sobre cuán auténticas son las respuestas emocionales que provocan estas melodías generadas por máquinas.

¿Logra la música creada por IA conmovernos de la misma forma que una obra compuesta por una persona? Un reciente estudio llevado a cabo en Barcelona ofrece una nueva perspectiva sobre este debate y desafía la frontera entre la creatividad humana y la potencia de los algoritmos. Los resultados invitan a replantear muchos mitos y a abrir el oído —y la mente— a nuevas posibilidades en el arte del sonido.

La música creada por inteligencia
La música creada por inteligencia artificial logra mayor activación fisiológica y mejor integración con imágenes cuando se usan descripciones detalladas en su generación - (Imagen Ilustrativa Infobae)

IA y emoción: un experimento inédito en Barcelona

La inteligencia artificial está empezando a ocupar un sitio donde, hasta hace poco, solo reinaba la sensibilidad humana: la música capaz de emocionarnos. Un grupo de investigadores en Barcelona ha descubierto que las composiciones creadas por IA logran despertar respuestas emocionales y fisiológicas en los espectadores casi al nivel de la música compuesta por personas.

Publicado el 25 de junio de 2025 en la revista PLOS One, el estudio llevado adelante por Nikolaj Fišer, Miguel Ángel Martín-Pascual y Celia Andreu-Sánchez, de la Universitat Autònoma de Barcelona, el Instituto de Televisión Pública Española (RTVE) y la University of Ljubljana, aporta datos frescos y sorprendentes sobre un tema que divide a amantes del arte y entusiastas de la tecnología.

Aunque la música escrita por personas sigue pareciéndonos más familiar, la inteligencia artificial muestra una asombrosa habilidad para tocar fibras emocionales en quienes la escuchan.

El estudio, publicado en PLOS
El estudio, publicado en PLOS One, concluye que el origen de la música no determina la emoción provocada, sino la familiaridad con los patrones musicales - (Imagen Ilustrativa Infobae)

Cómo se diseñó el experimento

El experimento, realizado entre marzo y mayo de 2024, reunió a 88 voluntarios en el Neuro-Com Laboratory de la Universitat Autònoma de Barcelona y RTVE. Cada participante vio breves videos, en los que la banda sonora podía ser una pieza escrita por un compositor, o una melodía instrumental generada por IA a partir de descripciones más o menos complejas.

Para cuidar que todo fuera imparcial, se usaron videos de estilos muy distintos tomados de internet y las músicas humanas seleccionadas provenían de bases de datos de películas, según la carga emocional de cada escena. Las piezas de IA, creadas mediante la herramienta Stable Audio, se basaron tanto en descripciones detalladas como en valores emocionales simples.

¿Qué sintieron los participantes? Medición fisiológica y percepción

Durante la visualización, los investigadores no dejaron pasar un detalle: midieron la dilatación de las pupilas, el ritmo de parpadeo y la respuesta galvánica de la piel para captar cómo reaccionaban los cuerpos ante cada música. Además, tras cada video, los participantes calificaron su experiencia: si les había gustado, cuánto les había estimulado, si sentían que la música encajaba y cuán familiar les resultaba.

Resultados: similitudes, matices y diferencias

¿El resultado? Tanto la IA como los compositores humanos lograron provocar emociones similares en los espectadores, aunque con matices. La IA generó incluso mayor activación fisiológica, y cuando los prompts utilizados para crear la música eran más detallados, la integración entre imagen y sonido fue mejor valorada.

El estudio reconoce limitaciones y
El estudio reconoce limitaciones y plantea la necesidad de explorar más herramientas de IA, públicos diversos y composiciones originales para comprender el impacto emocional de la música artificial - (Imagen Ilustrativa Infobae)

La música humana, en cambio, fue percibida como notablemente más familiar, lo que sugiere que aún preferimos aquello que conocemos. “La música humana fue percibida como más familiar, lo que podría indicar una preferencia más fuerte por este tipo de música”, señalan los autores.

El estudio concluye que el origen de la música, sea una persona o un algoritmo, no es lo que finalmente determina la emoción provocada en el espectador. La familiaridad sí hace diferencia, por la acumulación de patrones musicales conocidos a lo largo de nuestra vida. Sin embargo, la IA ya es capaz de cumplir el objetivo: emocionar, acompañar imágenes y captar la atención, algo que abre un sinfín de posibilidades para la industria audiovisual.

Límites, desafíos y futuro del arte sonoro con IA

Los propios investigadores invitan a no perder de vista que queda mucho por explorar. El estudio solo empleó una herramienta de composición por IA –cuando existen otras alternativas– y la muestra fue relativamente pequeña. Además, la forma en que medimos emoción ante la música sigue dependiendo de factores personales, culturales y de contexto. Abrir el juego a músicos profesionales, a otros públicos, o a composiciones originales pensadas solo para estos experimentos, podría aportar respuestas todavía más sorprendentes.

Al final, lo cierto es que el debate sobre la creatividad y el papel de la IA en el arte apenas comienza. Por ahora, los datos ya revelan un escenario apasionante donde humanos y máquinas empiezan a colaborar para expandir los límites de lo que sentimos cada vez que le damos al “play”.