La Inteligencia Artificial (IA) tiene la capacidad de poder resolver problemas matemáticos avanzados, llevar a cabo razonamientos complejos e incluso utilizar ordenadores personales, pero los algoritmos actuales aún podrían aprender una o dos cosas de los gusanos microscópicos. Liquid AI, una startup surgida del MIT, revela varios modelos nuevos de IA basados en un nuevo tipo de red neuronal “líquida” que tiene el potencial de ser más eficientes, consumir menos energía y al mismo tiempo, ser más transparente que las que sustentan todo, desde los chatbots hasta los generadores de imágenes y los sistemas de reconocimiento facial.
Vale la pena destacar que los nuevos modelos de Liquid AI incluyen uno para detectar fraudes en transacciones financieras, otro para controlar coches autónomos y así mismo, un tercero para analizar datos genéticos. La empresa promocionó los nuevos modelos, que está licenciando a empresas externas, en un evento celebrado recientemente en el MIT. La compañía ha recibido financiación de inversores que incluyen a Samsung y Shopify, que también están probando su tecnología.
Nuevos modelos de Liquid AI: más eficientes
“Estamos creciendo”, señala Ramin Hasani, cofundador y director ejecutivo de Liquid AI, que co-inventó las redes líquidas cuando era estudiante de posgrado en el MIT.
La investigación de Hasani se inspiró en el C. elegans, un gusano de un milímetro de largo que se encuentra habitualmente en el suelo o en la vegetación en descomposición. El gusano viene siendo una de las pocas criaturas cuyo sistema nervioso ha sido mapeado en su totalidad, y es capaz de tener un comportamiento notablemente complejo a pesar de tener solo unos pocos cientos de neuronas.
“En un principio era solo un proyecto científico, pero esta tecnología está totalmente comercializada y lista para aportar valor a las empresas”, comenta Hasani.
Es crucial señalar que dentro de una red neuronal regular, las propiedades de cada neurona simulada están definidas por un valor estático o “peso” que afecta su activación. Dentro de una red neuronal líquida, el comportamiento de cada neurona se encuentra gobernado por una ecuación que pronostica su comportamiento a lo largo del tiempo, y la red resuelve una cascada de ecuaciones vinculadas a medida que funciona la red. El diseño hace que la red sea más eficiente y más flexible, lo que le permite aprender incluso después del entrenamiento, a diferencia de una red neuronal convencional. Las redes neuronales líquidas del mismo modo están abiertas a la inspección de una manera que los modelos existentes no lo están, porque su comportamiento fundamentalmente se puede rebobinar para ver cómo produjo un resultado.
En el año de 2020, los investigadores demostraron que una red de este tipo con solo 19 neuronas y 253 sinapsis, que es notablemente pequeña para los estándares modernos, podría controlar un automóvil autónomo simulado. Mientras que una red neuronal normal tiene la posibilidad de analizar datos visuales sólo a intervalos estáticos, la red líquida captura la forma en que la información visual cambia con el tiempo de manera muy eficiente. En el año de 2022, los fundadores de Liquid AI descubrieron un atajo que hizo que el trabajo matemático necesario para las redes neuronales líquidas fuera factible para su uso práctico.
Desde Liquid AI señalan que se han basado en este trabajo e inventó nuevos modelos que mantiene en secreto por ahora. Este septiembre, la empresa reveló algunos modelos de lenguaje grandes basados en el diseño de su red. Una versión de su modelo de lenguaje con 40 mil millones de parámetros superó a la versión de 70 mil millones de parámetros de Llama 3.1 de Meta en un conjunto común de problemas conocido como MMLU-Pro, comenta la startup.
“Los resultados de referencia de sus SLM parecen muy prometedores”, asevera Sébastien Bubeck, investigador de OpenAI que explora cómo la arquitectura y el entrenamiento de los modelos de Inteligencia Artificial (IA) afectan a sus capacidades.
“Encontrar un nuevo tipo de modelo de base no sucede todos los días”, afirma Tom Preston-Werner, cofundador de GitHub y uno de los primeros inversores en Liquid AI, que señala que los modelos de transformadores que sustentan los grandes modelos de lenguaje y otros sistemas de Inteligencia Artificial están empezando a mostrar sus limitaciones.
Entre tanto, Preston-Werner añade que hacer que las IA sean más eficientes debería ser una gran prioridad para todos.
“Deberíamos hacer todo lo posible para asegurarnos de que no sigamos utilizando plantas de carbón durante más tiempo”, afirmó.
Inconvenientes…
Por su parte, un inconveniente del enfoque de Liquid AI es que sus redes son esencialmente apropiadas para determinadas tareas, en particular las que implican datos temporales. Hacer que la tecnología funcione con otros tipos de datos requiere un código personalizado. Y, por supuesto, otro desafío será convencer a las grandes empresas de que basen proyectos importantes en un diseño de Inteligencia Artificial completamente nuevo.
Hasani asevera que el objetivo ahora es demostrar que los beneficios (entre ellos ser más eficientes, la transparencia y al mismo tiempo, los costes energéticos) superan los desafíos.
“Estamos entrando en etapas en las que estos modelos pueden aliviar muchos de los desafíos sociotécnicos de los sistemas de IA”, afirma.