Un estudio desarrollado en Canadá por el científico cubano Alejandro Pérez ha demostrado que las ondas cerebrales de las personas que dialogan se sincronizan de forma distinta cuando conversan en su lengua materna o en un idioma extranjero.
La investigación del profesor Pérez, del Departamento de Psicología de la Universidad de Toronto, ha descubierto que aunque las ondas cerebrales se sincronizan, cuando la conversación se mantiene en una lengua extranjera, las áreas del cerebro que se activan son distintas que cuando es la lengua materna.
En declaraciones, Pérez señaló que tras estudiar primero la sincronía entre dos personas que tienen el mismo lenguaje materno, el nuevo estudio, publicado en la última edición de la revista médica "Cortex" , trato de determinar "si esa sincronía se da de manera diferente cuando es un idioma nativo o extranjero".
"No nos metimos en la cuestión si son dos idiomas que dominas perfectamente porque seguramente ahí la sincronización entre cerebros probablemente es igual. Y efectivamente, lo que encontramos es que te sincronizas de una forma diferente si utilizas una lengua nativa o una lengua extranjera" , explicó.
Publicidad
Para realizar el estudio, Pérez y su equipo del Centro para Francés y Lingüística del Departamento de Psicología de la Universidad de Toronto registraron la actividad cerebral de 60 individuos usando electroencefalografía mientras mantenían conversaciones.
Para los 60 individuos, la lengua materna era el español.
Publicidad
La mitad de las conversaciones fueron mantenidas en español y la otra mitad en inglés.
Y aunque en ambos casos las ondas cerebrales de los participantes en el estudio se sincronizaron, cuando los individuos conversaron en inglés, las activaciones se produjeron en áreas diferentes del estudio, dijo el investigador cubano.
Las razones de estas diferencias todavía tienen que explicarse pero Pérez señaló que un motivo puede ser que al hablar un idioma extranjero la capacidad mental para representar las palabras es más difícil de lograr, lo que obligaría al cerebro a activar partes distintas.
"Todavía quedan muchas incógnitas, muchas cosas por resolver. Es una primera aproximación. La diferencia en este caso ocurre debido a que son diferentes las áreas que se están sincronizando" , explicó.
Publicidad
Pero lo que si está probado con el estudio es que "el lenguaje utilizado influyó en el alineamiento de las ondas cerebrales entre los que mantenían la conversación y esto sugiere que la comunicación efectiva podría estar basada en este acoplamiento neural entre cerebros" , añadió Pérez.
Te puede interesar: ¿Usas Netflix? Cuidado porque de esta manera están ROBANDO datos de los usuarios
Publicidad
En términos prácticos, el investigador cubano, que anteriormente trabajó en Basque Center on Cognition, Brain and Language (BCBL), de San Sebastián (España), señaló que "cada vez que en el campo de la neurociencia uno describe un fenómeno de sincronización, la interpretación de manera general es de una interrelación, de una comunicación entre las partes".
Pérez indicó que la ciencia ha descrito estas sincronías entre personas en la respiración, el latido cardiaco e incluso en los ciclos menstruales de las mujeres.
El investigador explicó que la sincronización "claramente tiene avances evolutivos porque cualquier proceso de colaboración te da ventajas evolutivas en el sentido de adaptación al medio".
Entre las aplicaciones prácticas que podrían derivarse de lo descubierto por el profesor Pérez y su equipo estaría la capacidad de "cuantificar la calidad de la conversación" que tienen dos personas o si realmente las dos partes se entendieron mutuamente.
Publicidad
Pérez también señaló que el acoplamiento entre habla y ondas cerebrales de quien habla y quien escucha podría estar en la clave para que el habla robótica sea indistinta a la humana.
Publicidad