Las diferencias entre las células cerebrales podrían ser la secreto para el enseñanza en humanos y la inteligencia sintético

0


El nuevo estudio descubrió que al cambiar las propiedades eléctricas de las células individuales en las simulaciones de redes cerebrales, las redes aprendieron más rápido que las simulaciones con células idénticas.

También encontraron que las redes necesitaban menos celdas optimizadas para lograr los mismos resultados y que el método requería menos energía que los modelos con celdas idénticas.

Los autores dicen que sus hallazgos podrían enseñarnos por qué nuestros cerebros son tan buenos para aprender y también podrían ayudarnos a construir mejores sistemas de inteligencia artificial, como asistentes digitales que pueden reconocer voces y rostros o tecnología de automóviles autónomos.

El primer autor, Nicolás Pérez, estudiante de doctorado en el Departamento de Ingeniería Eléctrica y Electrónica del Imperial College de Londres, dijo: «El cerebro debe ser energéticamente eficiente y al mismo tiempo ser capaz de sobresalir en la resolución de tareas complejas. Nuestro trabajo sugiere que tener una diversidad de neuronas tanto en el cerebro como en los sistemas de inteligencia artificial cumplen ambos requisitos y podrían mejorar el aprendizaje «.

La investigación se publica en Comunicaciones de la naturaleza.

¿Por qué una neurona es como un copo de nieve?

El cerebro está formado por miles de millones de células llamadas neuronas, que están conectadas por vastas «redes neuronales» que nos permiten aprender sobre el mundo. Las neuronas son como copos de nieve: se ven iguales desde la distancia, pero después de una inspección más detallada, queda claro que no hay dos exactamente iguales.

Por el contrario, cada célula de una red neuronal artificial, la tecnología en la que se basa la inteligencia artificial, es idéntica, solo con una conectividad variable. A pesar de la velocidad a la que avanza la tecnología de inteligencia artificial, sus redes neuronales no aprenden con tanta precisión o rapidez como el cerebro humano, y los investigadores se han preguntado si su falta de variabilidad celular podría ser la culpable.

Se propusieron investigar si emular el cerebro variando las propiedades de las células de la red neuronal podría aumentar el aprendizaje en inteligencia artificial. Descubrieron que la variabilidad en las células mejoró su aprendizaje y redujo el consumo de energía.

El autor principal, el Dr. Dan Goodman, del Departamento de Ingeniería Eléctrica y Electrónica de Imperial, dijo: «La evolución nos ha proporcionado funciones cerebrales increíbles, la mayoría de las cuales apenas estamos comenzando a comprender. Nuestra investigación sugiere que podemos aprender lecciones vitales de nuestra propia biología. La IA funciona mejor para nosotros «.

Sincronización optimizada

Para realizar el estudio, los investigadores se centraron en cambiar la «constante de tiempo», la velocidad a la que cada célula decide lo que quiere hacer en función de lo que están haciendo las células conectadas a ella. Algunas células decidirán muy rápidamente, simplemente mirando lo que acaban de hacer las células conectadas. Otras células reaccionarán más lentamente, basando su decisión en lo que las otras células han estado haciendo durante un tiempo.

Después de variar las constantes de tiempo de las células, instruyeron a la red para que realizara algunas actividades de aprendizaje automático de referencia: clasificar imágenes de ropa y figuras escritas a mano; reconocer los gestos humanos; e identificar los números y los comandos hablados.

Los resultados muestran que al permitir que la red combine información lenta y rápida, pudo resolver mejor las tareas en contextos más complicados y del mundo real.

Cuando modificaron la cantidad de variabilidad en las redes simuladas, encontraron que las de mejor desempeño coincidían con la cantidad de variabilidad observada en el cerebro, lo que sugiere que el cerebro puede haber evolucionado para tener la cantidad justa de variabilidad para un aprendizaje óptimo.

Nicolas agregó: «Hemos demostrado que la inteligencia artificial se puede acercar a la forma en que funciona nuestro cerebro emulando ciertas propiedades del cerebro. Sin embargo, los sistemas de IA actuales están lejos de alcanzar el nivel de eficiencia energética que encontramos en los sistemas biológicos.

«A continuación, veremos cómo reducir el consumo de energía de estas redes para acercar las redes de IA a un rendimiento cerebral eficiente».

Esta investigación fue financiada por el Consejo de Investigación de Ingeniería y Ciencias Físicas y la Beca de Doctorado del Presidente del Imperial College

Fuente de la historia:

Materiales proporcionados por Colegio Imperial de Londres. Original escrito por Caroline Brogan. Nota: El contenido se puede cambiar por estilo y longitud.

También podría gustarte
Deja una respuesta

Su dirección de correo electrónico no será publicada.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More