Los neurocientíficos han identificado una población de neuronas en el cerebro humano que rebate al canto pero no a otros tipos de música. – Ciencia diaria

0


Por primera vez, los neurocientíficos del MIT han identificado una población de neuronas en el cerebro humano que brilla cuando escuchamos cantar, pero no otros tipos de música.

Estas neuronas, que se encuentran en la corteza auditiva, parecen responder a la combinación específica de voz y música, pero no al habla normal ni a la música instrumental. Se desconoce exactamente lo que están haciendo y requerirá más trabajo para averiguarlo, dicen los investigadores.

«El trabajo proporciona evidencia de una segregación funcional relativamente fina dentro de la corteza auditiva, de una manera que se alinea con una distinción intuitiva dentro de la música», dice Sam Norman-Haignere, ex postdoctorado del MIT, quien ahora es profesor asistente de neurociencia en la Centro Médico de la Universidad de Rochester.

El trabajo se basa en un estudio de 2015 en el que el mismo grupo de investigación utilizó imágenes de resonancia magnética funcional (fMRI) para identificar una población de neuronas en la corteza auditiva del cerebro que responde específicamente a la música. En el nuevo trabajo, los investigadores utilizaron registros de actividad eléctrica detectada en la superficie del cerebro, lo que les proporcionó información mucho más precisa que la resonancia magnética funcional.

«Hay una población de neuronas que responde al canto, y luego, muy cerca, hay otra población de neuronas que responde ampliamente a mucha música. En la escala de resonancia magnética, están tan cerca que no se pueden desenredar, pero con la grabaciones, obtenemos una resolución adicional y eso es lo que creemos que nos ha permitido diferenciarlos”, dice Norman-Haignere.

Norman-Haignere es el autor principal del estudio, que aparece hoy en la revista. biología actual. Josh McDermott, profesor asociado de cerebro y ciencias cognitivas, y Nancy Kanwisher, profesora de neurociencia cognitiva Walter A. Rosenblith, ambos miembros del Instituto McGovern para la Investigación del Cerebro y del Centro de Cerebros, Mentes y Máquinas (CBMM) del MIT, son los autores principales. de estudio.

Grabaciones neuronales

En su estudio de 2015, los investigadores utilizaron imágenes de resonancia magnética para escanear los cerebros de los participantes mientras escuchaban una colección de 165 sonidos, incluidos diferentes tipos de habla y música, así como sonidos cotidianos como tocarse los dedos o un perro ladrando. Para ese estudio, los investigadores idearon un nuevo método de análisis de datos de fMRI, que les permitió identificar seis poblaciones neuronales con diferentes patrones de respuesta, incluida la población selectiva de música y otra población que responde selectivamente al habla.

En el nuevo estudio, los investigadores esperaban obtener datos de mayor resolución mediante una técnica conocida como electrocorticografía (ECoG), que registra la actividad eléctrica mediante electrodos colocados dentro del cráneo. Esto brinda una imagen mucho más precisa de la actividad eléctrica en el cerebro que la IRMf, que mide el flujo sanguíneo en el cerebro como indicador de la actividad neuronal.

«Con la mayoría de los métodos de la neurociencia cognitiva humana, no es posible ver las representaciones neuronales», dice Kanwisher. «La mayoría de los tipos de datos que podemos recopilar pueden decirnos que hay una parte del cerebro aquí haciendo algo, pero es bastante limitado. Queremos saber qué está representado allí».

Por lo general, la electrocorticografía no se puede realizar en humanos porque es un procedimiento invasivo, pero a menudo se usa para controlar a los pacientes con epilepsia que están a punto de someterse a una cirugía para tratar sus convulsiones. Los pacientes son monitoreados durante varios días para que los médicos puedan determinar la fuente de sus ataques antes de la cirugía. Durante ese tiempo, si los pacientes están de acuerdo, pueden participar en estudios que implican medir su actividad cerebral mientras realizan ciertas tareas. Para este estudio, el equipo del MIT pudo recopilar datos de 15 participantes durante varios años.

Para esos participantes, los investigadores reprodujeron el mismo conjunto de 165 sonidos que usaron en el estudio anterior de fMRI. Los cirujanos determinaron la ubicación de los electrodos de cada paciente, por lo que algunos no detectaron respuesta a la información auditiva, pero muchos sí. Usando un nuevo análisis estadístico que desarrollaron, los investigadores pudieron inferir los tipos de poblaciones neuronales que produjeron los datos registrados por cada electrodo.

«Cuando aplicamos este método a este conjunto de datos, surgió este patrón de respuesta neuronal que solo respondía al canto», dice Norman-Haignere. «Este fue un descubrimiento que realmente no esperábamos, por lo que justifica en gran medida el objetivo del enfoque, que es revelar cosas potencialmente nuevas que quizás creas que no estás buscando».

Esa población de neuronas específica de la canción tuvo respuestas muy débiles tanto al habla como a la música instrumental y, por lo tanto, es distinta de las poblaciones selectivas de música y habla identificadas en su estudio de 2015.

Música en el cerebro

En la segunda parte de su estudio, los investigadores idearon un método matemático para combinar los datos de las grabaciones intracraneales con los datos de fMRI de su estudio de 2015. Dado que fMRI puede cubrir una porción mucho más grande del cerebro, esto les permitió determinar con mayor precisión precisión las posiciones de las poblaciones neuronales que responden al canto.

«Esta forma de combinar ECoG y fMRI es un avance metodológico significativo», dice McDermott. «Muchas personas han realizado ECoG en los últimos 10 o 15 años, pero siempre se han visto limitados por este problema de escasez de registros. Sam es realmente la primera persona que descubrió cómo combinar los registros de electrodos de mejor resolución con datos de IRMf para lograr una mejor localización de las respuestas globales».

El punto de acceso específico de la canción que encontraron se encuentra en la parte superior del lóbulo temporal, cerca de las regiones selectivas de idioma y música. Esa posición sugiere que la población específica de la canción puede responder a características como el tono percibido o la interacción entre las palabras y el tono percibido, antes de enviar información a otras partes del cerebro para su posterior procesamiento, dicen los investigadores.

Los investigadores ahora esperan aprender más sobre qué aspectos del canto impulsan las respuestas de estas neuronas. También están trabajando con el laboratorio de la profesora del MIT Rebecca Saxe para estudiar si los niños tienen áreas selectivas para la música, con la esperanza de aprender más sobre cuándo y cómo se desarrollan estas regiones del cerebro.

La investigación fue financiada por los Institutos Nacionales de Salud, la Oficina de Investigación del Ejército de EE. UU., la Fundación Nacional de Ciencias, el Centro de Ciencia y Tecnología para Cerebros, Mentes y Máquinas de la NSF, la Fundación Neuron y el Instituto Médico Howard Hughes.

También podría gustarte
Deja una respuesta

Su dirección de correo electrónico no será publicada.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More