fbpx

La doble moral de OpenAI

OpenAI quiere regulaciones que favorezcan en gran medida a la empresa.

Es importante señalar que, el CEO de OpenAI, Sam Altman, ha platicado muy fuerte sobre la necesidad de una regulación de la Inteligencia Artificial (IA) durante diversidad de entrevistas, así como también en eventos e incluso mientras estaba sentado ante el Congreso de los Estados Unidos. Sin embargo, cabe acotar que, según los documentos de OpenAI utilizados para los esfuerzos de cabildeo de la empresa en la UE, hay una trampa; OpenAI quiere regulaciones que favorezcan en gran medida a la empresa y han trabajado para debilitar la regulación de Inteligencia Artificial  propuesta. ¡Conozca todos los detalles aquí!

 

OpenAI quiere regulaciones que favorezcan en gran medida a la empresa

Los documentos  obtenidos por Time, de la Comisión Europea mediante solicitudes de libertad de información, da una percepción a lo que AItman quiere decir cuando solicita la regulación de la IA.

 

Según se ha podido conocer, en el documento titulado “Libro blanco de OpenAI sobre la Ley de Inteligencia Artificial de la Unión Europea”, la empresa se enfoca puntualmente en lo que dice: la Ley de IA de la UE e intenta cambiar diversas designaciones en la ley que debilitarían el alcance de la misma. Por ejemplo, los “sistemas de IA de uso general” como GPT-3 se catalogaron como de “alto riesgo” en la Ley de Inteligencia Artificial de la UE.

 

Ahora bien, según la Comisión Europea, la clasificación de “alto riesgo” incluiría aquellos sistemas que puedan resultar en perjuicios para la salud, así como para la seguridad, los derechos fundamentales o incluso, el medio ambiente de las personas. Es importante destacar que, estos sistemas de IA de “alto riesgo”, estarían sujetos a ciertos requisitos legales con respecto a la supervisión humana y asimismo, la transparencia.

 

Es importante dejar claro que, por sí mismo, GPT-3 no es un sistema de alto riesgo, sin embargo, hay que destacar que el mismo, posee capacidades que pueden utilizarse potencialmente en casos de uso de alto riesgo. La reconocida compañía, OpenAI también argumentó en contra de clasificar la IA generativa como el popular “ChatGPT” y asimismo, el generador de arte de IA “Dall-E” como de “alto riesgo”.

 

Realmente, la posición de OpenAI es que, el enfoque regulatorio tiene que estar en las empresas que utilizan modelos de lenguaje, como las aplicaciones que utilizan la API de OpenAI, no en las empresas que capacitan y proporcionan los modelos.

 

Postura de OpenAI alineada con Microsoft, Google

 

Según se ha podido conocer, OpenAI básicamente respaldó las posiciones de Microsoft y Google cuando esas empresas presionaron para debilitar las regulaciones de la Ley de Inteligencia Artificial de la UE. Cabe acotar que, la sección contra la que cabildeó OpenAI terminó siendo eliminada de la versión final de la Ley de IA.

 

Pero, si hay algo que mencionar, es que los exitosos esfuerzos de cabildeo de OpenAI posiblemente explican el cambio de opinión de Altman en lo que tiene que ver con las operaciones de OpenAI en Europa. Según se conoció, Altman amenazó anteriormente sacar a OpenAI de la UE por la Ley de IA. Sin embargo, el mes pasado, cambió de rumbo. AItman mencionó en el momento en que el borrador anterior de la Ley de IA “sobrerregulaba, pero, hemos escuchado que se va a retirar”.

 

Actualmente, cuando ciertas partes de la Ley de IA de la UE han sido “retiradas”, OpenAI no tiene ningún plan de irse.

 

Deja un comentario