Es inherente dar a conocer que, OpenAI proporcionará al Instituto de Seguridad de la IA de Estados Unidos acceso anticipado a su próximo modelo, esto, como parte de sus esfuerzos de seguridad, según ha revelado recientemente Sam Altman mediante un tuit. Aparentemente, la empresa ha estado trabajando con el consorcio para “impulsar la ciencia de las evaluaciones de la IA”.
El Instituto Nacional de Normas y Tecnología (NIST) ha establecido formalmente el Instituto de Seguridad de la Inteligencia Artificial a principios de este año, aunque la vicepresidenta Kamala Harris lo anunció en el pasado año 2023 en la Cumbre de Seguridad de la Inteligencia Artificial (IA) del Reino Unido.
OpenAI entregará acceso previo de su nuevo modelo
Según la descripción del consorcio que hace el NIST, su objetivo es “desarrollar directrices y estándares basados en la ciencia y respaldados empíricamente para la medición y la política de la IA, sentando las bases para la seguridad de la IA en todo el mundo”.
La empresa, junto con DeepMind, también se comprometió a compartir modelos de Inteligencia Artificial con el gobierno del Reino Unido el año pasado. Como señala el medio de noticias, TechCrunch, ha habido progresivas preocupaciones de que OpenAI esté haciendo de la seguridad una prioridad menor en su búsqueda de desarrollar modelos de IA más potentes. Se especuló con que la junta directiva decidió expulsar a Sam Altman de la empresa (fue reincorporado muy rápidamente) debido a preocupaciones de seguridad. Sin embargo, la empresa les comentó a los miembros del personal en un memorando interno en ese momento que se debió a “una falla en la comunicación”.
En el mes de mayo del presente año, OpenAI admitió que disolvió el equipo Superalignment que creó para garantizar que la humanidad permanezca segura mientras la compañía avanza en su trabajo sobre IA generativa. Cabe aclarar que, antes de eso, el cofundador y científico jefe de OpenAI, Ilya Sutskever, que era uno de los líderes del equipo, dejó la compañía.
Por su parte, Jan Leike, que también era uno de los líderes del equipo, también renunció. Expresó en una serie de tuits que había estado en desacuerdo con el liderazgo de OpenAI sobre las prioridades centrales de la empresa durante bastante tiempo y que “la cultura y los procesos de seguridad han pasado a un segundo plano frente a los productos brillantes”.
Desde OpenAI crearon un nuevo grupo de seguridad a finales del mes de mayo, pero… como siempre hay un pero, se encuentra dirigido por miembros de la junta que incluyen a Altman, lo que genera preocupaciones sobre la autovigilancia.