Hace pocos días, (más específicamente, el 5 de diciembre) se lanzó una nueva alianza global para el desarrollo de código abierto de Inteligencia Artificial (IA), disparando contra los creadores de modelos cerrados de IA (OpenAI, Google y Anthropic) que han dominado gran parte de la conversación sobre Inteligencia Artificial de 2023, y que la alianza cree que están creando distracciones de lo inmediato. Riesgos de la IA.
Pero, ¿Por qué esto es importante?
Esto es algo realmente importante porque más de 50 organizaciones, bajo el liderazgo de Meta e IBM, se han inscrito en AI Alliance, incluidas algunas como; Intel, Oracle, Dell, así como también AMD, Sony, Hugging Face y Stability AI.
Vale la pena señalar que entre los participantes de renombre de la alianza de fuera de Silicon Valley se encuentran la NASA, así como también la Clínica Cleveland y la Organización Europea para la Investigación Nuclear (CERN), el laboratorio de investigación nuclear compartido de Europa, entre otros.
Según se pudo conocer, la alianza se presenta como un grupo de desarrolladores de Inteligencia Artificial preocupados por la seguridad que quieren “reflejar mejor las necesidades y la complejidad de nuestras sociedades” identificando y al mismo tiempo mitigando rápidamente riesgos concretos.
La alianza se encuentra firmemente entre aquellos que descartan la necesidad de barreras de seguridad para la IA y aquellos que insisten en una regulación estricta, señalando en un comunicado que los miembros se encuentran “orientados a la acción y decididamente internacionales”.
¿Cuáles son los objetivos de esta alianza?
Según se ha descubierto, los objetivos de la alianza incluyen la creación de un “catálogo de herramientas de seguridad, protección y confianza examinadas” que se trabajará para difundir entre las comunidades de desarrolladores. Un portavoz de la alianza indicó a los periodistas kits de herramientas de Inteligencia Artificial de código abierto para la evaluación de la explicabilidad y privacidad, así como la solidez y equidad de la IA.
Lo cierto es que los miembros de la Alianza se han comprometido a trabajar en modelos de base abiertos, “incluidos modelos multilingües, multimodales y científicos altamente capaces”, abordando desafíos como por ejemplo; el cambio climático y las oportunidades educativas desiguales.
Pero… siempre hay un pero
La “AI Alliance” todavía debe formar una junta directiva y un comité de supervisión técnica, y se apoya en la Guía de implementación de modelos de la Partnership on AI como herramienta para mantener los modelos abiertos fuera del alcance de malos actores.
Los críticos de la Inteligencia Artificial de código abierto indican que publicar un modelo y confiar en políticas de uso aceptables para evitar el uso malicioso es insuficiente.
Incluso, hay otros que argumentan que algunos modelos de código abierto (particularmente los de Meta) no son lo suficientemente abiertos debido a ciertas restricciones de licencia. Lo cierto es que, así estamos hasta el momento.