fbpx

El camino a la superinteligencia de la IA

Altman ha destacado los beneficios potenciales de crear un modelo AGI benévolo logran superar esos riesgos.

Debemos recordar que cuando OpenAI debutó en 2015, lo hizo como un laboratorio de investigación sin fines de lucro. Elon Musk y Sam Altman tenían asientos en la junta, sin embargo, el equipo estaba dirigido por Ilya Sutskever, un destacado investigador que trabajó en Google Brain Team.

 

Lo cierto es que OpenAI ha recorrido un largo camino desde aquellos primeros días idealistas. En 2019 la compañía pasó de sus inicios sin fines de lucro a una nueva estructura de “beneficios limitados”, una estructura que recientemente incluyó una inversión multimillonaria de Microsoft. Y el año pasado, la compañía lanzó (hoy en día popular) “ChatGPT”, un modelo de lenguaje grande (LLM) orientado al consumidor que no solo se volvió sumamente popular, sino que al mismo tiempo, desató una carrera entre los competidores para superarlo y entre los reguladores para controlarlo. Pero, hay que acotar que actualmente se habla mucho acerca del camino a la superinteligencia de la IA y aquí en TECHcetera hablaremos al respecto.

 

Superinteligencia de la IA

 

Desde el inicio hasta la actualidad, la misión de OpenAI no ha cambiado: “Garantizar que la Inteligencia Artificial General (AGI) beneficie a toda la humanidad, principalmente intentando construir AGI segura y compartir los beneficios con el mundo”.

 

Sin embargo, no se debe pasar por alto que los medios para llegar allí (si es que, de hecho, la AGI es posible) parecen estar cambiando.

 

via GIPHY

 

El camino de Sam Altman hacia AGI

 

El pasado año, Gary Marcus, un destacado investigador de IA, sugirió en un ensayo que el aprendizaje profundo podría estar a punto de chocar contra una pared. Al mismo tiempo que sostuvo que la escala no lo era todo, que las alucinaciones y la confiabilidad continuaban siendo un problema, que la información errónea seguía sin resolverse y, así mismo, que los LLM “no nos llevarían a AGI”.

 

Los LLM (como ChatGPT) son un tipo de modelo de IA que, después de entrenarse con enormes conjuntos de datos, puede reconocer y generar contenido. La comunidad de Inteligencia Artificial (IA) reaccionó intensamente a las afirmaciones de Marcus en ese momento, diciendo en resumen que sus argumentos estaban fuera de lugar.

 

Sin embargo, vale la pena resaltar que desde entonces, algunos están empezando a aparecer.

 

Yann LeCun, un ejecutivo de IA en Meta, mencionó en el mes de febrero que los LLM son una “rampa de salida” en la autopista hacia la IA a nivel humano. Este comentario supuso un cambio respecto de su punto de vista anterior: “No sólo la IA no choca contra una pared, sino que los coches con asistencia a la conducción impulsada por IA no chocan contra las paredes, ni tampoco cualquier otra cosa”.

 

Inteligencia Artificial General
Inteligencia Artificial General

 

Cabe destacar que la empresa de robotaxi Cruise detuvo recientemente sus operaciones en espera de una investigación interna sobre sus procesos de seguridad. Por su parte, el cofundador de Microsoft, Bill Gates, señaló en octubre que no espera que GPT-5 sea mucho mejor que GPT-4.

 

Y Altman, hablando en Cambridge el 1 de noviembre, se hizo eco de los mismos argumentos que Marcus ha estado promocionando durante meses. Altman indicó, “Necesitamos otro avance. Todavía podemos impulsar bastante los modelos de lenguajes grandes, y lo haremos”, señalando que el pico de lo que pueden hacer los LLM todavía está lejos.

 

Altman manifestó, “Si la superinteligencia no puede descubrir física nueva, no creo que sea una superinteligencia. Y enseñarle a clonar el comportamiento de los humanos y los textos humanos, no creo que eso vaya a llegar allí. Y entonces existe esta pregunta que se ha debatido en el campo durante mucho tiempo: ¿qué tenemos que hacer además de un modelo de lenguaje para crear un sistema que pueda descubrir nueva física?”

 

A lo que Marcus, en respuesta a la declaración de Altman, señaló que cuanto antes dejemos de subir la colina en la que estamos y comencemos a buscar nuevos paradigmas, será mucho mejor.Para nadie es un secreto que Altman ha destacado habitualmente los temores sobre el riesgo existencial de una IA superinteligente fuera de control. Sin embargo, ha sostenido que los beneficios potenciales de crear un modelo AGI benévolo logran superar esos riesgos.

via GIPHY

 

Deja un comentario