Según una publicación en el blog de OpenAI, la popular compañía está convirtiendo su Comité de Seguridad y Protección en un “entede supervisión de la Junta” independiente que posee la autoridad de retrasar los lanzamientos de modelos por cuestiones de seguridad. Dicha idea surgió después de una reciente revisión de 90 días de los “procesos y salvaguardas relacionados con la seguridad y protección” de la compañía. La empresa le está dando un enfoque diferente al tema de seguridad y aquí le comentamos todo lo que se conoce al respecto.
Datos más destacados acerca del enfoque diferente a la seguridad
Muchos recuerdan el dicho de “uno no puede ser juez y parte”!
Hay algo importante que destacar es que: el consejo de administración en pleno de OpenAI del mismo modo recibirá “informes periódicos” sobre “asuntos de seguridad y protección”.
Vale la pena señalar que, los miembros de este comité de OpenAI también son miembros de la junta directiva más amplia de la compañía, por lo mismo, aún no está claro exactamente cuán independiente es en realidad el comité o cómo está estructurada esa independencia. (Cabe aclarar que, el director ejecutivo Sam Altman anteriormente formaba parte del comité, pero ya no lo hace).
Al establecer dicha junta independiente, parece que la compañía está adoptando un enfoque similar al de la Junta de Supervisión de Meta, que revisa algunas de las decisiones de política de contenido de Meta y tiene la capacidad de poder tomar decisiones que la red social debe seguir. Es de resaltar que, ninguno de los miembros de la Junta de Supervisión está en la junta directiva de la compañía.
Según se informa, la revisión del Comité de Seguridad y Protección de OpenAI también generó oportunidades adicionales para la colaboración en la industria y el intercambio de información para optimizar la seguridad de la industria de la Inteligencia Artificial (IA).