fbpx

¿Tiene OpenAI un problema de transparencia?

Ex miembros de la junta directiva de OpenAI están solicitando una mayor regulación gubernamental de la empresa.

Por si no lo sabía, los ex miembros de la junta directiva de OpenAI están solicitando una mayor regulación gubernamental de la empresa mientras el liderazgo del director ejecutivo Sam Altman es criticado. ¿Tiene OpenAI un problema de transparencia? a continuación, le diremos esto y muchos más aquí en TECHcetera.

¿Problema de transparencia? conozca todo al respecto

Helen Toner y Tasha McCauley, 2 de varios ex empleados que formaron el elenco de personajes que derrocaron a Altman en el pasado mes de noviembre, han señalado que su decisión de expulsar al líder y “salvar” la estructura regulatoria de OpenAI fue impulsada por “patrones de comportamiento exhibidos desde hace mucho tiempo” por Altman, lo que según comentan; “socavó la supervisión de la junta de decisiones clave y protocolos de seguridad internos”.

En un artículo de opinión publicado por The Economist el día 26 de mayo, Toner y McCauley alegaron que el patrón de comportamiento de Altman, combinado con una dependencia del autogobierno, es una receta para el desastre de AGI.

Aunque los dos mencionan que se unieron a la empresa “cautelosamente optimistas” sobre el futuro de OpenAI, reforzados por las motivaciones aparentemente altruistas de la empresa que en ese momento era exclusivamente sin fines de lucro, desde entonces los dos han cuestionado las acciones de Altman y la empresa.

“Varios altos líderes habían compartido en privado graves preocupaciones con la junta”, escriben, “diciendo que creían que el señor Altman cultivaba una ‘cultura tóxica de mentira’ y participaba en ‘comportamientos [que] pueden caracterizarse como abuso psicológico’”. 

“Los acontecimientos desde que regresó a la empresa, incluida su reincorporación a la junta directiva y la salida de talentos de alto nivel centrados en la seguridad, son un mal augurio para el experimento OpenAI en autogobierno”, continúan. “Incluso con las mejores intenciones, sin supervisión externa, este tipo de autorregulación terminará siendo inaplicable, especialmente bajo la presión de inmensos incentivos para obtener ganancias. Los gobiernos deben desempeñar un papel activo”. 

Retrospectivamente, Toner y McCauley escriben; “Si alguna empresa hubiera podido gobernarse con éxito mientras desarrollaba de forma segura y ética sistemas avanzados de IA, habría sido OpenAI”. 

Según se ha podido conocer, los ex miembros de la junta se oponen al impulso actual para la autoinformación y una regulación externa bastante mínima de las empresas de Inteligencia Artificial (IA) conforme las leyes federales se estancan. En el extranjero, los grupos de trabajo de Inteligencia Artificial ya están encontrando fallas al confiar en los gigantes tecnológicos para encabezar los esfuerzos de seguridad. La semana pasada, la Unión Europea emitió una advertencia de mil millones de dólares a Microsoft luego de que no revelaran los riesgos potenciales de su CoPilot e Image Creator impulsados ​​por IA. Un informe reciente del Instituto de Seguridad de IA del Reino Unido halló que las salvaguardias de varios de los modelos de lenguajes grandes (LLM) públicos más grandes se rompían fácilmente mediante indicaciones maliciosas.

OpenAI ha estado en el centro de la conversación sobre la regulación de la IA…

En las últimas semanas, OpenAI ha estado en el centro de la conversación sobre la regulación de la Inteligencia Artificial luego de una serie de renuncias de alto perfil por parte de empleados de alto rango que citaron diferentes puntos de vista sobre su futuro. Luego de que el cofundador y jefe de su equipo de superalineación, Ilya Sutskever, y su colíder Jan Leike abandonaran la empresa, OpenAI disolvió su equipo de seguridad interno.

Leike señaló que se encontraba preocupado por el futuro de OpenAI, debido a que, según comenta; “la cultura y los procesos de seguridad han pasado a un segundo plano frente a los productos brillantes”.

Según se informa, Altman fue criticado por una política de desvinculación de la empresa entonces revelada que obliga a los empleados salientes a firmar acuerdos de confidencialidad que les impiden mencionar algo negativo sobre OpenAI o correr el riesgo de perder cualquier capital que tengan en el negocio.

Poco tiempo después, Altman y el presidente y cofundador Greg Brockman respondieron a la controversia, escribiendo en X; “El futuro será más difícil que el pasado. Necesitamos seguir elevando nuestro trabajo de seguridad para igualar lo que está en juego en cada nuevo modelo. …También continuamos colaborando con los gobiernos y muchas partes interesadas en materia de seguridad. No existe un manual probado sobre cómo recorrer el camino hacia AGI”. 

Lo cierto es que, a los ojos de muchos de los ex empleados de OpenAI, la filosofía históricamente “ligera” de la regulación de Internet no va a ser suficiente.

Deja un comentario