El equipo «lee la mente» para comprender el uso de herramientas humanas

0


Investigadores de la Universidad de East Anglia han hecho un descubrimiento sorprendente sobre cómo nuestros cerebros controlan nuestras manos.

Utilizaron datos de resonancia magnética para estudiar qué partes del cerebro se utilizan al manipular herramientas, como cuchillos.

Leyeron la señal de ciertas regiones del cerebro y trataron de distinguir cuándo los participantes manipularon los instrumentos de manera adecuada para su uso.

Los seres humanos han estado usando herramientas durante millones de años, pero esta investigación es la primera en demostrar que acciones como agarrar un cuchillo por su mango para cortar están representadas por áreas del cerebro que también representan imágenes de manos humanas, nuestra principal ‘herramienta’ .para interactuar con el mundo.

La investigación podría allanar el camino para el desarrollo de neuroprótesis de próxima generación, extremidades protésicas que se conectan al centro de control del cerebro y ayudan a rehabilitar a las personas que han perdido la función de las extremidades debido a una lesión cerebral.

El estudio fue dirigido por UEA y realizado en Norfolk y Norwich University Hospital.

La investigadora principal, la Dra.Stephanie Rossit, de la Escuela de Psicología de la UEA, dijo: «La aparición de instrumentos portátiles marca el comienzo de una gran discontinuidad entre los humanos y nuestros parientes primates más cercanos y se considera una característica definitoria de nuestra especie. Nuestros hallazgos pueden arrojar luz en regiones del cerebro que han evolucionado específicamente en humanos «.

“Sabíamos que ver imágenes de herramientas activa una región del cerebro diferente a cuando vemos otro tipo de objetos, como una silla.

“Hasta ahora se suponía que el cerebro segrega la información visual de esta manera para optimizar el procesamiento de acciones asociadas con las herramientas. Pero la forma en que el cerebro humano controla nuestras manos para agarrar correctamente objetos 3D como herramientas no estaba bien incluida.

«Queríamos probar si el cerebro humano procesa automáticamente los objetos 3D en términos de cómo los agarramos para su uso. Y específicamente queríamos averiguar si podíamos usar señales de partes específicas del cerebro para distinguir si las personas manejaban las herramientas correctamente. – – por ejemplo, agarrar un cuchillo por el mango en lugar de la hoja «.

El equipo utilizó un escáner de resonancia magnética para recopilar datos de imágenes cerebrales mientras los participantes interactuaban con objetos 3D.

El Dr. Rossit dijo: “Esto fue realmente un desafío porque el espacio dentro del escáner es realmente pequeño y los participantes tienen que estar realmente quietos.

“Así que usamos una configuración de ‘acción real’ única en su tipo para presentar herramientas 3D y otros objetos.

“Nuestros participantes yacían en la oscuridad, en una cama hecha a medida con una mesa giratoria montada sobre su cintura, para que pudiéramos mostrarles objetos en 3D y ellos pudieran agarrarlos.

«Diseñamos e imprimimos en 3D utensilios de cocina cotidianos a partir de materiales no magnéticos para que fueran seguros en la resonancia magnética, como un cuchillo de plástico, un cortador de pizza y una cuchara, así como otro conjunto de barras impresas en 3D para representar los objetos que no eran herramientas. , que usamos como objetos de control «.

El Dr. Ethan Knights, que era estudiante de doctorado con el Dr. Rossit, coordinó la recopilación de datos y escaneó los cerebros de 20 voluntarios en Norfolk y Norwich University Hospital. En la primera sesión, se pidió a los participantes que entendieran la herramienta 3D y las barras 3D correctamente o incorrectamente utilizando la configuración personalizada de «acción real».

Los mismos participantes volvieron al escáner para una segunda sesión en la que simplemente miraron imágenes de herramientas y manos.

Dr. Fraser Smith, también de la Escuela de Psicología de la UEA, dijo: “Estudiamos la actividad cerebral cuando los participantes vieron imágenes de herramientas y manos para identificar qué partes del cerebro están representadas por la imagen de la mano del cerebro.

«Luego utilizamos el aprendizaje automático de última generación para ver si podíamos predecir si las personas realmente agarraban una herramienta por su mango o no. Esto es realmente importante porque saber no agarrar un objeto, como un cuchillo, por su hoja.Es fundamental para el uso eficaz de las herramientas.

El Dr. Rossit dijo: « Al contrario de lo que pensaba la mayoría de los científicos, pudimos predecir si un instrumento fue captado correctamente por señales de áreas del cerebro que responden a la vista de imágenes de la mano y no de áreas visuales que responden a la vista del instrumento. imágenes.

«Es importante destacar que las señales de las áreas visuales de la mano solo se pueden usar para predecir acciones de la mano con las herramientas, pero no pueden predecir acciones que coincidan con los objetos de la barra de control 3D.

«Esto sugiere que las áreas visuales de la mano están especialmente adaptadas para la acción con herramientas.

«Nuestro descubrimiento cambia nuestra comprensión fundamental de cómo el cerebro controla nuestras manos y podría tener importantes implicaciones para la salud y la sociedad.

«Por ejemplo, podría ayudar a desarrollar mejores dispositivos o rehabilitación para las personas que han perdido la función de las extremidades debido a lesiones cerebrales. Y también podría permitir que las personas sin extremidades controlen las prótesis con la mente.

«El potencial de las prótesis y las interfaces guiadas por el cerebro es muy emocionante», añadió.

También podría gustarte
Deja una respuesta

Su dirección de correo electrónico no será publicada.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More