Guardar
El cerebro ajusta el tono
El cerebro ajusta el tono y ritmo del habla según el interlocutor, revela estudio de Radboud University (Imagen Ilustrativa Infobae)

El cerebro humano es mucho más versátil de lo que se creía cuando se trata de hablar y escuchar. Una investigación de la Radboud University reveló que, durante una conversación, la mente ajusta en tiempo real la forma de comprender y producir el habla, moldeando la voz y la entonación según la persona con la que interactuamos.

El estudio, presentado en el Donders Institute de los Países Bajos, demuestra que la comunicación interpersonal descansa en una sorprendente flexibilidad cerebral. Este hallazgo no solo abre nuevas perspectivas para la neurociencia, sino que también impulsa el desarrollo de tecnologías de reconocimiento de voz capaces de imitar mejor la adaptación natural del ser humano.

El estudio, liderado por Orhun Uluşahin, profundiza en los mecanismos que el cerebro emplea para ajustarse a las diferencias individuales en la manera de hablar de cada persona. “Lo que sabes sobre la forma en que alguien habla influye en cómo hablas tú mismo”, afirmó.

Esta adaptación no se limita a cómo escuchamos, sino que abarca la producción del habla. Durante una conversación, las personas modifican sutilmente su voz, igualando tono y ritmo al de su interlocutor, lo que genera similitud acústica entre ambos.

La flexibilidad cerebral permite adaptar
La flexibilidad cerebral permite adaptar la voz y la entonación en función de la persona con la que se conversa (Imagen Ilustrativa Infobae)

Para analizar este fenómeno, el equipo de Radboud University diseñó experimentos en los que los participantes escuchaban voces grabadas y repetían lo que oían. En una de las pruebas, los sujetos debían igualar el ritmo de la frase original. Los investigadores evaluaron la sincronización y el tono empleado, y los resultados evidenciaron que quienes escuchaban frases en tono agudo respondían con voces más altas, mientras que aquellos expuestos a tonos graves utilizaban voces más bajas.

La investigación identificó que este efecto de ajuste disminuye cuando los participantes estuvieron expuestos durante un tiempo prolongado a una voz específica. Por ejemplo, después de escuchar durante veinte minutos una voz femenina de tono alto, los sujetos repetían una frase de la misma voz, pero en un tono bajo. En estos casos, la tendencia a adaptar la voz al nuevo tono era menor. El cerebro utiliza la información almacenada sobre el hablante para mantener una referencia estable.

Estos resultados reflejan que los sistemas de escucha y habla emplean recursos comunes y que la experiencia previa con una voz concreta limita la capacidad de adaptación.

El equipo de Orhun Uluşahin
El equipo de Orhun Uluşahin demuestra que la experiencia previa con una voz limita la capacidad de adaptación del habla - (Imagen Ilustrativa Infobae)

En otro experimento, los investigadores pidieron a los participantes que repitieran palabras modificadas acústicamente de forma sutil. Por ejemplo, la palabra neerlandesa “beterschap” (“que te mejores”) se alteró para sonar como “beuhterschap”. Los sujetos no cambiaron su pronunciación y continuaron diciendo la palabra de forma habitual.

“Simplemente oyes ‘beterschap’, aunque en realidad suene ligeramente diferente. Tu cerebro elige la opción más probable, la que ya conoce. Por eso pronuncias la palabra igual que siempre”, explicó Uluşahin. Este resultado muestra que existen límites claros: cuando el cerebro tiene una referencia consolidada sobre el sonido de una palabra, la capacidad de ajuste se reduce.

La investigación de Radboud University ofrece nuevas perspectivas para la neurociencia y el desarrollo de sistemas de reconocimiento de voz. Uluşahin, actualmente investigador posdoctoral en el Donders Institute, trabaja en un modelo informático que imite el reconocimiento humano de palabras, capaz de identificar términos en una frase y adaptarse a distintos hablantes.

“Para una voz, el modelo debe interpretar un sonido como una ‘b’, mientras que para otra puede interpretarlo como una ‘p’, porque ambos pronuncian diferente”, detalló. El objetivo consiste en que el modelo cometa errores similares a los humanos, lo que permitirá profundizar en la comprensión del funcionamiento cerebral.

Los experimentos muestran que el
Los experimentos muestran que el cerebro iguala tono y ritmo al interlocutor, generando similitud acústica (Imagen Ilustrativa Infobae)

La amplitud y dinamismo de la red lingüística cerebral superan lo estimado hasta ahora. Casi todo el hemisferio izquierdo participa en el procesamiento del lenguaje, aunque todavía no se identificaron con exactitud las zonas responsables de la formación de palabras o la planificación de los movimientos de los labios. Los resultados de Radboud University subrayan que escuchar y hablar están íntimamente conectados a nivel cerebral, y que la adaptación al interlocutor es clave en la comunicación humana.

El reto científico, según concluye el equipo de Radboud University, consiste en crear modelos que reproduzcan los mismos errores y aciertos que las personas, en vez de perseguir una perfección artificial. Este enfoque podría abrir nuevas vías para entender en profundidad los mecanismos cerebrales que hacen posible la comunicación.