fbpx

Una inteligencia artificial súper humana es inevitable. OpenAI se prepara para controlarla

Una IA que es más inteligente que los humanos.

Mientras ocurría la salida y rápido regreso de Sam Altman a OpenAI, los miembros del equipo Superalignment de OpenAI se ocupaban asiduamente del problema de cómo controlar una Inteligencia Artificial (IA) que es más inteligente que los humanos. A continuación, brindaremos todos los detalles al respecto. ¡No se los puede perder!

 

Una IA que es más inteligente que los humanos

 

Según se conoce, OpenAI formó el equipo Superalignment en el mes de julio para desarrollar formas de dirigir, así como de regular y gobernar sistemas de IA “superinteligentes”, es decir, sistemas teóricos con una inteligencia muy superior a la de los humanos.

 

Collin Burns, miembro del equipo de Superalignment ha señalado, “Hoy en día, básicamente podemos alinear modelos que son más tontos que nosotros, o tal vez alrededor del nivel humano como mucho. Alinear un modelo que en realidad es más inteligente que nosotros es mucho, mucho menos obvio: ¿cómo podemos hacerlo?”. 

 

La superalineación es un tema un poco delicado dentro de la comunidad de investigación de Inteligencia Artificial. Algunos sostienen que el subcampo es prematuro; otros dan a entender que es una pista falsa.

 

Aunque Altman ha invitado a hacer comparaciones entre OpenAI y el Proyecto Manhattan, llegando incluso a formar un equipo para probar modelos de Inteligencia Artificial (IA) para proteger contra “riesgos catastróficos”, incluidas amenazas químicas y nucleares, algunos expertos señalan que hay poca evidencia que sugiera que la tecnología de la startup obtendrá capacidades para acabar con el mundo y superar a los humanos en el corto plazo, o nunca. Las afirmaciones de superinteligencia inminente, agregan estos expertos, sólo sirven para desviar premeditadamente la atención y distraer la atención de las apremiantes cuestiones regulatorias de la Inteligencia Artificial del momento, como el sesgo algorítmico y así mismo, la tendencia de la IA hacia la toxicidad.

 

Por su parte, Leopold Aschenbrenner, otro de los miembros del equipo de Superalignment ha comentado, “El progreso de la IA recientemente ha sido extraordinariamente rápido y puedo asegurarles que no se está desacelerando. Creo que muy pronto alcanzaremos sistemas de nivel humano, pero no nos detendremos allí: pasaremos directamente a sistemas sobrehumanos… Entonces, ¿cómo alineamos los sistemas de IA sobrehumanos y los hacemos seguros? Es realmente un problema para toda la humanidad, quizás el problema técnico sin resolver más importante de nuestro tiempo”. 

 

Según se ha podido conocer, actualmente, el equipo de Superalignment está intentando crear marcos de gobernanza y control que podrían aplicarse bien a futuros sistemas potentes de Inteligencia Artificial. No es una tarea sencilla, pero el enfoque elegido por el equipo por ahora implica el uso de un modelo de IA más débil y menos sofisticado (por ejemplo, GPT-2) para guiar un modelo más avanzado y sofisticado (GPT-4) en direcciones deseables y lejos de las indeseables.

 

Según ha explicado Burns, “Mucho de lo que intentamos hacer es decirle a un modelo qué hacer y asegurarnos de que lo haga. ¿Cómo conseguimos que un modelo siga instrucciones y que sólo ayude con cosas que son verdaderas y no inventadas? ¿Cómo conseguimos que un modelo nos diga si el código que generó es un comportamiento seguro o atroz? Estos son los tipos de tareas que queremos poder lograr con nuestra investigación”. 

 

Ante todo esto, cabe hacerse la pregunta; ¿qué tiene que ver la Inteligencia Artificial que guía a la IA con la prevención de la IA que amenaza a la humanidad? Bueno, según se conoce, es una analogía; el modelo débil pretende ser un sustituto de los supervisores humanos, mientras que el modelo fuerte representa una Inteligencia Artificial superinteligente. Del mismo modo que los humanos que tal vez no puedan entender un sistema de IA superinteligente, el modelo débil no puede “comprender” todas las complejidades y matices del modelo fuerte, lo que hace que la configuración sea útil para probar hipótesis de superalineación, así lo ha señalado el equipo de Superalignment.

 

En la configuración del equipo de Superalignment, un modelo débil ajustado a una tarea particular genera etiquetas que se utilizan para “comunicar” los aspectos generales de esa tarea al modelo fuerte. Dadas estas etiquetas, el modelo fuerte tiene la capacidad de poder generalizar más o menos correctamente según la intención del modelo débil, incluso si las etiquetas del modelo débil contienen errores y sesgos, descubrió el equipo.

 

El equipo ha afirmado que el enfoque del modelo “débil-fuerte” podría conducir incluso a avances en el ámbito de las alucinaciones.

 

Pero, como siempre hay un pero… la analogía no es perfecta. Por tal motivo, OpenAI quiere generar ideas de forma colectiva.

 

Vale la pena señalar que, con ese fin, OpenAI se encuentra lanzando un programa de subvenciones de 10 millones de dólares para apoyar la investigación técnica sobre la alineación superinteligente, parte del cual se reservará para laboratorios académicos, así como para organizaciones sin fines de lucro, investigadores individuales y así mismo, estudiantes de posgrado. Según se ha podido conocer, OpenAI además, planea organizar una conferencia académica sobre superalineación a principios del año 2025, donde compartirá y promoverá el trabajo de los finalistas del premio de superalineación.

 

Deja un comentario