fbpx

Meta ha dividido su equipo de IA Responsable

La mayoría de los miembros de la RAI pasarán al equipo de productos de Inteligencia Artificial Generativa de la compañía e infraestructura de IA de Meta.

Según se pudo conocer, Meta ha dividido su equipo de IA Responsable (RAI) conforme dedica más recursos a la Inteligencia Artificial Generativa. Según reciente un informe, la mayoría de los miembros de la RAI pasarán al equipo de productos de Inteligencia Artificial Generativa de la compañía, mientras que otros trabajarán en la infraestructura de IA de Meta. La empresa asevera habitualmente que quiere desarrollar la IA de forma responsable e incluso posee una página dedicada a esa promesa, donde expresa sus “pilares de la IA responsable”, que incluyen (entre otras cosas), responsabilidad, transparencia, así como también seguridad y privacidad.

 

Meta ha dividido su equipo de IA Responsable

 

El informe de The Information cita a Jon Carvill, que representa a Meta, indicando que la empresa “continuará priorizando e invirtiendo en el desarrollo seguro y responsable de la IA”. Al mismo tiempo que añadió que aunque la compañía está dividiendo el equipo, esos miembros permanecerán apoyando los esfuerzos relevantes entre Meta sobre el desarrollo y uso responsable de la IA.

 

El equipo ya experimentó una reestructuración a principios de este año, que según señaló Business Insider, incluyó despidos que dejaron a RAI como “una cáscara de equipo”. Ese informe continuaba señalando que el equipo de RAI, que existía desde el año de 2019, contaba con poca autonomía y, así mismo, que sus iniciativas tenían que pasar por largas negociaciones con las partes interesadas antes de poder implementarse.

 

via GIPHY

 

IA Responsable (RAI) se creó para identificar problemas con sus enfoques de entrenamiento de Inteligencia Artificial, incluido si los modelos de la compañía están entrenados con información apropiadamente diversa, con miras a prevenir aspectos como problemas de moderación en sus plataformas. Cabe resaltar que los sistemas automatizados en las plataformas sociales de Meta han generado dificultades como un problema de traducción de Facebook que provocó: un arresto falso por ejemplo, la generación de calcomanías de IA de WhatsApp que resulta en imágenes sesgadas cuando se les dan ciertas indicaciones y los algoritmos de Instagram que ayudan a las personas a hallar materiales de abuso sexual infantil.

 

Es importante señalar que medidas como la de Meta y una similar de Microsoft a principios de este año se producen mientras los gobiernos del mundo se apresuran a crear barreras regulatorias para el desarrollo de la IA. El gobierno de Estados Unidos celebró acuerdos con empresas de IA y, posteriormente, el presidente Biden ordenó a las agencias gubernamentales que elaboraran normas de seguridad para la Inteligencia Artificial. Mientras tanto, la Unión Europea ha publicado sus principios de IA y todavía se encuentra luchando por aprobar su Ley de IA.

 

Deja un comentario