fbpx

OpenAI elimina la restricción de que su tecnología se use para la guerra

Este cambio en la redacción se produce justo cuando las agencias militares de todo el mundo se encuentran mostrando interés en el uso de la IA.

¡OpenAI elimina la restricción! y es que hace pocos días, la página de políticas de uso de OpenAI estableció explícitamente que la compañía prohíbe el uso de su tecnología con fines “militares y bélicos”. Desde entonces, esa línea ha sido eliminada. Como lo notó por primera vez The Intercept, la compañía actualizó la página el día 10 de enero “para ser más clara y brindar orientación más específica del servicio”, como indica el registro de cambios. Aún prohíbe el uso de sus modelos de lenguaje grande (LLM) para cualquier cosa que pueda causar daño y advierte a las personas contra el uso de sus servicios para desarrollar o usar armas. Sin embargo, es de resaltar que la  empresa ha eliminado el texto relacionado con “militar y guerra”.

 

Aunque todavía tenemos que ver sus implicaciones en la vida real, este cambio en la redacción se produce justo cuando las agencias militares de todo el mundo se encuentran mostrando interés en el uso de la Inteligencia Artificial (IA). ¡Más detalles al respecto a continuación!

 

OpenAI elimina la restricción 

 

Sarah Myers West, directora general de AI Now. Instituto, señaló, “Dado el uso de sistemas de IA para atacar a civiles en Gaza, es un momento notable para tomar la decisión de eliminar las palabras ‘militar y guerra’ de la política de uso permitido de OpenAI”. 

 

Es crucial señalar que la mención explícita de “militar y guerra” en la lista de usos prohibidos indicó que OpenAI no podía trabajar con agencias gubernamentales como el Departamento de Defensa, que regularmente proporciona acuerdos lucrativos a los contratistas. Hasta el momento, la compañía no dispone de un producto que pueda matar o causar daño físico directamente a nadie. Pero, como señaló The Intercept, su tecnología podría llegar a utilizarse para tareas como escribir código y procesar órdenes de adquisición de cosas que podrían usarse para matar personas.

 

Ahora bien, cuando se le preguntó sobre el cambio en la redacción de su política, el portavoz de OpenAI, Niko Felix, expresó que, “la compañía tenía como objetivo crear un conjunto de principios universales que sean fáciles de recordar y aplicar, especialmente porque nuestras herramientas ahora son utilizadas globalmente por usuarios cotidianos que ahora también podemos construir GPT”. 

 

Incluso, Félix también explicó que un principio como “No dañar a otros” es amplio pero fácil de comprender y relevante en cuantiosos contextos, y así mismo, añadió que OpenAI citó concretamente las armas y las lesiones a otros como ejemplos claros. Sin embargo, el portavoz se negó a aclarar si la prohibición del uso de su tecnología para “dañar a otros” incluía todo tipo de uso militar fuera del desarrollo de armas.

 

Vale la pena señalar que, en una declaración a Engadget, un portavoz de OpenAI señaló, “Nuestra política no permite que nuestras herramientas se utilicen para dañar a las personas, desarrollar armas, vigilar las comunicaciones, herir a otros o destruir propiedades. Sin embargo, existen casos de uso de seguridad nacional que se alinean con nuestra misión. Por ejemplo, ya estamos trabajando con DARPA para estimular la creación de nuevas herramientas de ciberseguridad para proteger el software de código abierto del que dependen la infraestructura crítica y la industria. No estaba claro si estos casos de uso beneficiosos se habrían permitido bajo “militar” en nuestras políticas anteriores. Por lo tanto, el objetivo de nuestra actualización de políticas es brindar claridad y la capacidad de tener estas discusiones”. 

 

 

Deja un comentario