fbpx

Este algoritmo emula el funcionamiento del cerebro

Avance significativo en el uso de la IA para imitar la forma en que el cerebro procesa la información sensorial.

Recientemente, investigadores de Stanford han desarrollado una Inteligencia Artificial (IA) que replica respuestas similares a las del cerebro a estímulos visuales, transformando potencialmente el desarrollo de la neurociencia y la IA con implicaciones para la eficiencia energética y los avances médicos. Todos los detalles acerca del algoritmo que emula el funcionamiento del cerebro a continuación.

Avance significativo en el uso de la IA para imitar la forma en que el cerebro procesa la información sensorial

Para ser más precisos, un equipo del Instituto de Neurociencias Wu Tsai de Stanford, ha logrado un avance significativo en el uso de la Inteligencia Artificial para imitar la forma en que el cerebro procesa la información sensorial para comprender el mundo, allanando el camino para avances en la neurociencia virtual.

Observe cómo pasan los segundos en un reloj y, en las regiones visuales de su cerebro, grupos vecinos de neuronas selectivas de ángulo se activarán en secuencia conforme el segundero recorre la esfera del reloj. Es de resaltar que, estas células forman magníficos mapas en forma de “molinete”, en los que cada segmento representa una percepción visual de un ángulo diferente. Otras áreas visuales del cerebro contienen mapas de características visuales más complejas y abstractas, como la distinción entre imágenes de rostros familiares y lugares, que activan distintos “vecindarios” neuronales.

Vale la pena señalar que, estos mapas funcionales se pueden hallar en todo el cerebro, lo que deleita y confunde a los neurocientíficos, quienes durante un largo tiempo se han preguntado por qué el cerebro debería haber desarrollado un diseño similar a un mapa que solo la ciencia moderna tiene la capacidad de poder observar.

Para abordar este asunto, el equipo de Stanford desarrolló un nuevo tipo de algoritmo de Inteligencia Artificial, una red neuronal artificial topográfica profunda (TDANN), que usa exclusivamente 2 reglas: entradas sensoriales naturalistas y restricciones espaciales en las conexiones; y descubrió que pronostica con éxito tanto las respuestas sensoriales como la organización espacial de múltiples partes del sistema visual del cerebro humano.

7 años de investigación culminan en una publicación

Luego de 7 años de extensa investigación, los hallazgos se publicaron en un nuevo artículo, “Un marco unificador para la organización funcional en la corteza visual ventral temprana y superior”, en la revista Neuron.

Según se ha podido conocer, el equipo de investigación fue dirigido por el académico del Instituto de Neurociencias Wu Tsai, Dan Yamins, profesor asistente de psicología e informática; y Kalanit Grill-Spector, quien es afiliada al instituto, profesora de psicología.

A diferencia de las redes neuronales convencionales, una red neuronal artificial topográfica profunda (TDANN), incorpora restricciones espaciales, organizando sus neuronas virtuales en una “lámina cortical” bidimensional y requiriendo que las neuronas cercanas compartan respuestas similares a la información sensorial. Conforme el modelo aprendió a procesar imágenes, esta estructura topográfica hizo que formara mapas espaciales, replicando cómo las neuronas del cerebro se organizan en respuesta a estímulos visuales. Concretamente, el modelo replicó patrones complejos como las estructuras en forma de molinete en la corteza visual primaria (V1) y los grupos de neuronas en la corteza temporal ventral superior (VTC) que responden a categorías como caras o lugares.

Eshed Margalit, quien es autor principal del estudio, que completó su doctorado trabajando con Yamins y Grill-Spector, comentó que el equipo usó enfoques de aprendizaje autosupervisados ​​para ayudar a optimizar la precisión de los modelos de entrenamiento que simulan el cerebro.

Implicaciones para la neurociencia y la IA

El modelo completamente entrenable ayudará a los neurocientíficos a comprender mejor las reglas de cómo se organiza el cerebro, bien sea para la visión, como en este estudio, u otros sistemas sensoriales como la audición.

“Cuando el cerebro intenta aprender algo sobre el mundo, como ver dos instantáneas de una persona, coloca neuronas que responden de manera similar en proximidad en el cerebro y se forman mapas”, manifestó Grill-Spector, quien es Susan S. y William. H. Hindle Profesor de la Facultad de Humanidades y Ciencias. 

Así mismo añadió, “Creemos que ese principio también debería ser traducible a otros sistemas”. 

Ahora bien, este enfoque innovador posee implicaciones importantes tanto para la neurociencia como para la IA. Para los neurocientíficos, el TDANN consigue brindar una nueva lente para estudiar cómo se desarrolla y opera la corteza visual, transformando potencialmente los tratamientos para los trastornos neurológicos. Para la IA, por su parte, los conocimientos derivados de la organización del cerebro tienen la capacidad de conducir a sistemas de procesamiento visual más sofisticados, similares a enseñar a las computadoras a “ver” como lo hacen los humanos.

Los hallazgos también podrían ayudar a explicar cómo funciona el cerebro humano con una eficiencia energética tan estelar. Por ejemplo, el cerebro humano tiene la posibilidad de calcular mil millones de operaciones matemáticas con sólo 20 vatios de potencia, en comparación con una supercomputadora que requiere un millón de veces más energía para hacer las mismas matemáticas. Los nuevos descubrimientos enfatizan que los mapas neuronales (y las limitaciones espaciales o topográficas que los impulsan) posiblemente sirvan para mantener el cableado que conecta los 100 mil millones de neuronas del cerebro lo más simple posible. Es de acotar que, estos conocimientos podrían ser clave para diseñar sistemas artificiales más eficientes inspirados en la elegancia del cerebro.

Una Inteligencia Artificial con mayor eficiencia energética podría ayudar a hacer crecer la neurociencia virtual, donde los experimentos podrían llevarse a cabo más rápidamente y a mayor escala. En su estudio, los investigadores demostraron como prueba de principio que su red neuronal artificial profunda topográfica reproducía respuestas similares a las del cerebro a una extensa gama de estímulos visuales naturalistas, lo que sugiere que tales sistemas podrían, en el futuro, utilizarse como parques infantiles rápidos y económicos para crear prototipos de experimentos de neurociencia e identificar rápidamente hipótesis para pruebas futuras.

Inclusive, según han dado a conocer, los experimentos virtuales de neurociencia también podrían hacer avanzar la atención médica humana. Por ejemplo, entrenar mejor un sistema visual artificial de la misma forma que un bebé aprende visualmente sobre el mundo podría ayudar a una Inteligencia Artificial a ver el mundo como un ser humano, donde el centro de la mirada es más nítido que el resto del campo de visión. Otra aplicación podría ayudar a desarrollar prótesis para la visión o simular exactamente cómo las enfermedades y lesiones afectan partes del cerebro.

“Si puedes hacer cosas como hacer predicciones que ayuden a desarrollar prótesis para personas que han perdido la visión, creo que será algo realmente asombroso”, manifestó Grill-Spector.

Deja un comentario