fbpx

Vuelve y juega con ChatGPT y la seguridad

Todo sobre ChatGPT y la seguridad.

Recientemente, un ex empleado senior de OpenAI expresó que la compañía detrás de ChatGPT se encuentra priorizando los “productos brillantes” sobre la seguridad, y reveló que renunció luego de que un desacuerdo sobre objetivos clave alcanzó un “punto de ruptura”.

 

Todo sobre ChatGPT y la seguridad

Por si no lo sabía, Jan Leike fue un investigador clave de seguridad en OpenAI como codirector de superalineación, garantizando que los poderosos sistemas de Inteligencia Artificial (IA) se consolidaran a los valores y objetivos humanos. Su intervención se produce antes de una cumbre mundial sobre IA que se celebrará en Seúl la próxima semana, donde políticos, así como expertos y ejecutivos de tecnología discutirán la supervisión de la tecnología.

Leike dimitió días después de que la empresa con sede en San Francisco lanzara su último modelo de IA, “GPT-4o”. Vale la pena recalcar que, su partida significa que 2 figuras de seguridad de alto nivel en OpenAI se fueron esta semana luego de la renuncia de Ilya Sutskever, cofundador de OpenAI y codirector de superalineación.

Es de resaltar que, Leike detalló los motivos de su partida en un hilo en X (anteriormente Twitter) publicado el viernes, en el que mencionó que la cultura de seguridad se había convertido en una prioridad menor.

Según se informa, OpenAI se fundó con el objetivo de garantizar que la Inteligencia Artificial General, que describe como “sistemas de IA que habitualmente son más inteligentes que los humanos”, beneficie a toda la humanidad. En sus publicaciones X/Twitter, Leike señaló que había estado en desacuerdo con el liderazgo de OpenAI sobre las prioridades de la compañía durante algún tiempo, pero que ese enfrentamiento “finalmente había llegado a un punto de ruptura”.

Por su parte, Sam Altman, director ejecutivo de OpenAI, respondió al hilo de Leike con una publicación en X agradeciendo a su ex colega por sus contribuciones a la cultura de seguridad de la empresa y afirmando que: aún hay mucho por hacer pero, están comprometidos con el tema.

Cabe destacar que, la advertencia de Leike se produjo cuando un panel de expertos internacionales en Inteligencia Artificial publicó un informe inaugural sobre la seguridad de la IA, que decía que había desacuerdo sobre la probabilidad de que poderosos sistemas de IA evadieran el control humano. Sin embargo, advirtió que los rápidos avances en la tecnología podrían dejar a los reguladores rezagados, advirtiendo sobre la “disparidad potencial entre el ritmo del progreso tecnológico y así mismo, el ritmo de una respuesta regulatoria”.

Deja un comentario