¡No es lo que dices, es cómo lo dices!
3 Marzo 2025 11:03 pm

¡No es lo que dices, es cómo lo dices!

Crédito: Imagen generada por IA Meta

La manera como decimos las cosas está mediada por la actitud corporal, pero también por entonación, el ritmo, el acento y las pausas. Un estudio encontró que en el cerebro existe una región donde los sonidos se transforman en información lingüística significativa, otorgando énfasis, intención y enfoque a la conversación.

Por: María Fernanda Gutiérrez

Entre aquí para recibir nuestras últimas noticias en su WhatsAppEntre aquí para recibir nuestras últimas noticias en su WhatsApp

La comunicación hablada no se limita a las palabras que usamos en una conversación; también depende de cómo se dicen y de la actitud corporal que las acompaña. En este espacio no abordaré la actitud corporal, pero sí me centraré en el problema de la interpretación del mensaje a partir de la forma en que se emiten los sonidos mientras hablamos. Me refiero a la entonación, el ritmo, el acento y las pausas, lo cual es conocido por los fonoaudiólogos y otros expertos como prosodia. Esto me recuerda a algunos momentos en el hogar, cuando, en tono de reclamo, se dice: "No es lo que dices, es cómo lo dices".

Un estudio, el primero de su tipo, realizado por la Facultad de Comunicación de la Universidad Northwestern, la Universidad de Pittsburgh y la Universidad de Wisconsin-Madison, revela que una región del cerebro, conocida desde hace mucho tiempo por su procesamiento auditivo temprano, desempeña un papel mucho más importante en la interpretación del habla de lo que se pensaba anteriormente. El estudio multidisciplinario, publicado en la revista Nature Communications, encontró que en el cerebro existe una región donde se procesan los sonidos, conocida como el giro de Heschl. Desde allí no solo se procesan, sino que también se transforman de forma sutil en información lingüística significativa, otorgando énfasis, intención y enfoque a la conversación.

Para explorar cómo el cerebro descifra la melodía del habla, los investigadores trabajaron con un grupo raro de pacientes a quienes se les implantaron electrodos en el cerebro como parte del tratamiento de la epilepsia. Mientras estos pacientes escuchaban activamente una grabación de Alicia en el país de las maravillas, los científicos rastrearon la actividad en múltiples regiones del cerebro en tiempo real.

En lo profundo del cerebro

Usando las grabaciones intracerebrales obtenidas de los electrodos implantados en las profundidades del cerebro de los pacientes, los investigadores observaron que la sección del giro de Heschl procesaba cambios sutiles en el tono de la voz, no solo como sonido, sino también como unidades lingüísticas significativas.

Además, encontraron que el cerebro codificaba los acentos tonales por separado de los sonidos que forman las palabras y propusieron que “aunque estos patrones de tono varían cada vez que hablamos, nuestros cerebros crean representaciones estables para comprenderlos”.

Nike Gnanataja, del Departamento de Ciencias de la Comunicación y Trastornos de la Universidad de Wisconsin-Madison y coautora principal del estudio, afirma que la investigación también reveló que la prosodia (el ascenso y la caída del habla) se codifica mucho antes en el procesamiento auditivo de lo que se pensaba anteriormente. “Nuestros hallazgos podrían transformar la rehabilitación del habla, los asistentes de voz impulsados por IA y nuestra comprensión de lo que hace única la comunicación humana”, dijo.

Comprender el procesamiento prosódico temprano podría conducir a nuevas intervenciones para los trastornos del habla y el lenguaje, como el autismo, la disprosodia en pacientes que han sufrido un derrame cerebral y las diferencias de aprendizaje basadas en el lenguaje. Además, estos hallazgos podrían mejorar significativamente los sistemas de reconocimiento de voz impulsados por IA, al permitirles manejar mejor la prosodia, acercando el procesamiento del lenguaje natural a imitar la percepción del habla humana.

Artículo fuente:
Gnanateja, G. N., Rupp, K.^, Llanos, F., Hect, J. #, German, J., Abel, T. J. A., Chandrasekaran, B. (2025). Cortical processing of discrete prosodic patterns in continuous speech. Nature Communications.
Investigadores Bharath Chandrasekaran, Taylor Abel, Srivatsun Sadagopan, Tobias Teichert y G. Nike Gnanateja.

Northwestern University


(*) María Fernanda Gutiérrez es bacterióloga con maestría en biología, doctorado en Ciencias Biológicas y maestría en Comunicación. Es directora de Innciso. Innovacion, Ciencia y Sociedad. [email protected]

Conozca más de Cambio aquíConozca más de Cambio aquí