fbpx

OpenAI: ¿Cuál es la preocupación a nivel de seguridad?

Preocupación a nivel de seguridad.

Es inherente señalar que, la difícil semana de OpenAI se ha convertido en un mes difícil, y no parece un problema que el CEO de la compañía, Sam Altman, tenga la capacidad de poder resolver fácilmente. Recientemente, un grupo de empleados actuales y anteriores de OpenAI han hecho públicas sus preocupaciones sobre las motivaciones financieras de la empresa y su compromiso con la IA responsable. En un informe del New York Times publicado hace poco, describieron una cultura de falsas promesas en torno a la seguridad. Todos los detalles los presentamos a continuación.

Preocupación a nivel de seguridad

Los denunciantes, junto con otros expertos de AI, publicaron una carta abierta exigiendo cambios en la industria (problemas de transparencia de los cuales se viene hablando). El grupo solicita a las empresas de Inteligencia Artificial (IA) que se comprometan con una cultura de crítica abierta y que prometan no tomar represalias contra quienes presenten sus preocupaciones.

Un portavoz de OpenAI reiteró el compromiso de la compañía con la seguridad, recalcando una “línea directa de integridad anónima” para que los empleados expresen sus inquietudes y al comité de seguridad de la compañía.

Un tema común “la seguridad”

Un tema común de las quejas es que, en OpenAI, la seguridad no es lo primero: el crecimiento y las ganancias eso, sí que lo son.

En el año de 2019, la compañía pasó de ser una organización sin fines de lucro dedicada a la tecnología segura a una organización de “beneficios limitados” con un valor de 86 mil millones de dólares. Y ahora Altman se encuentra considerando convertirlo en un viejo vehículo del capitalismo con fines de lucro.

Cabe acotar que, esos incentivos a las ganancias han puesto el crecimiento en primer plano, señalan algunos expertos, con OpenAI compitiendo contra otras compañías de IA para construir formas más avanzadas de la tecnología, y lanzando esos productos antes de que algunas personas piensen que están listos para ser el centro de atención.

Vale la pena resaltar las preocupaciones de Jan Leike, quien dirigió el equipo de superalineación de la compañía con el científico jefe Ilya Sutskever, otro desertor reciente. El equipo, dedicado a estudiar los riesgos que la superinteligencia de Inteligencia Artificial plantea para la humanidad, experimentó una serie de salidas en los últimos meses. Se disolvió cuando sus líderes se fueron, aunque desde entonces la compañía formó un nuevo comité de seguridad.

Esta tensión aumenta conforme la empresa se acerca a la Inteligencia Artificial General, o tecnología capaz de todo comportamiento humano. Muchos expertos han señalado que AGI aumenta la probabilidad de p(doom), un término algo nerd y deprimente para la probabilidad de que la Inteligencia Artificial destruya a la humanidad.

Un actor de primera y acuerdos de confidencialidad

Por otro lado, como bien lo dimos a conocer desde TECHcetera, en las últimas semanas, la compañía se ha topado con algunos enemigos improbables con preocupaciones que van más allá de la seguridad, incluida Scarlett Johansson.

Y es que, el mes pasado, la actriz buscó un abogado y escribió una declaración mordaz sobre OpenAI luego de que lanzara un nuevo modelo de Inteligencia Artificial con una voz inquietantemente similar a la de ella. Aunque la compañía insiste en que no buscó hacerse pasar por Johansson, las similitudes eran innegables.

Cabe acotar que, las cosas empeoraron cuando se publicó un informe perjudicial sobre la cultura de la compañía de reprimir las críticas con sus restrictivos e inusuales acuerdos de confidencialidad. Los ex empleados que abandonaron la empresa sin firmar un acuerdo de confidencialidad podrían perder el capital adquirido, que para algunos vale millones. Un acuerdo de este tipo era básicamente inaudito en el mundo de la tecnología.

Muchas noticias malas y pocas buenas… 

A inicios de este año, la élite del capital de riesgo comenzó a volverse contra Altman, y ahora es posible que el público esté haciendo lo mismo. Y, para colmo de males, el reciente incidente de Scarlet Johansson lo dejó mal parado ante el publico, el error de la NDA lo dejó pareciendo un poco engañoso y, del mismo modo, las preocupaciones de seguridad lo pintan como una mente Maquiavélica. Y, por si fuera poco, además de todo esto, hay problemas en EU con Worldcoin, donde Altman también tiene una participación.

Vale la pena recalcar que, ante la avalancha de cobertura mediática perjudicial, la empresa y su líder han tratado de controlar los daños: Altman anunció que firmaría Giving Pledge, una promesa de donar la mayor parte de su riqueza, y, según se informa, la empresa selló un acuerdo importante con Apple para integrar la IA con los dispositivos de la compañía como el iPhone.

Pero, sin duda, unas cuantas noticias positivas no parecen ser lo suficientemente buenas, como para limpiar el lío que enfrenta Altman.

Deja un comentario