fbpx

Estos son los principales riesgos de la Inteligencia Artificial

Conozca los principales riesgos de la Inteligencia Artificial (IA).

Para nadie es un secreto que, a día de hoy, los riesgos de la Inteligencia Artificial (IA) en todas sus aplicaciones están bien documentados, pero es difícil acceder a ellos fácilmente en un solo lugar cuando se toman decisiones normativas, políticas o incluso comerciales. Es de resaltar que, un laboratorio del MIT se propone solucionar ese problema.

El pasado miércoles, el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT lanzó el Repositorio de Riesgos de IA, una base de datos con más de 700 riesgos documentados de IA. Según el comunicado de CSAIL, la base de datos viene siendo la primera de su tipo y se actualizará constantemente para garantizar que tenga la posibilidad de usarse como un recurso activo.

Según se informa, el proyecto surgió a raíz de la preocupación de que la adopción global de la Inteligencia Artificial se encuentra superando la comprensión que tienen las personas y las organizaciones de los riesgos de implementación.  Los datos del censo  revelan que el uso de la IA en las industrias estadounidenses aumentó del 3,7% al 5,45%, un aumento del 47 %, entre el mes de septiembre de 2023 y febrero del presente año 2024.

Conozca los principales riesgos de la Inteligencia Artificial (IA)

Los investigadores de CSAIL y FutureTech Lab del MIT revelaron que “incluso el marco individual más exhaustivo pasa por alto aproximadamente el 30 % de los riesgos identificados en todos los marcos revisados”, afirma el comunicado. Cita textual

Vale la pena destacar que, la fragmentación de la literatura sobre los riesgos de la Inteligencia Artificial tiene la capacidad de poder dificultar que los responsables de las políticas, los evaluadores de riesgos y así mismo, otros, tengan una visión completa de los problemas que tienen ante sí.

“Es difícil encontrar estudios específicos sobre el riesgo en algunos ámbitos específicos en los que se utiliza la IA, como las armas y los sistemas de apoyo a la toma de decisiones militares”, señaló Taniel Yusef, un investigador afiliado a Cambridge que no está asociado con el proyecto.

Así mismo añadió, “Sin hacer referencia a estos estudios, puede resultar difícil hablar sobre los aspectos técnicos del riesgo de la IA con expertos no técnicos. Este repositorio nos ayuda a hacerlo”. 

Cabe aclarar que sin una base de datos, algunos riesgos tienen la posibilidad de pasar desapercibidos y no considerarse apropiadamente, explicó el equipo en el comunicado.

“Dado que la literatura sobre los riesgos de la IA está dispersa en revistas revisadas por pares, preimpresiones e informes de la industria, y es bastante variada, me preocupa que los tomadores de decisiones puedan consultar sin darse cuenta resúmenes incompletos, pasar por alto preocupaciones importantes y desarrollar puntos ciegos colectivos”, comentó en el comunicado el Dr. Peter Slattery, líder del proyecto y próximo posdoctorado de FutureTech Lab. 

Para poder abordar este problema, los investigadores del MIT trabajaron con colegas de otras instituciones, como; la Universidad de Queensland, así como el Future of Life Institute, la KU Leuven y Harmony Intelligence, para crear la base de datos. El repositorio tiene como objetivo suministrar “una descripción general accesible del panorama de riesgos de la IA”, según el sitio, y así mismo, actuar como un marco de referencia universal que cualquier persona, desde investigadores y desarrolladores hasta incluso, compañías y responsables de políticas, pueda usar.

Ahora bien, para crearlo, los investigadores desarrollaron 43 marcos de clasificación de riesgos revisando registros y bases de datos académicos y hablando con diversos expertos. Luego de destilar más de 700 riesgos de esos 43 marcos, los investigadores categorizaron cada uno por causa (cuándo o por qué ocurre), dominio y subdominio (como “desinformación” e “información falsa o engañosa”, respectivamente).

Es inherente tener presente que los riesgos van desde la discriminación y la tergiversación hasta el fraude, así como la manipulación selectiva y de igual manera, el uso inseguro.

“Los ámbitos de riesgo abordados con más frecuencia incluyen; ‘seguridad, fallos y limitaciones del sistema de IA’ (76 % de los documentos); ‘daños socioeconómicos y ambientales’ (73 %); ‘discriminación y toxicidad’ (71 %); ‘privacidad y seguridad’ (68 %); y ‘actores maliciosos y uso indebido’ (68 %)”, explica el comunicado.

Los investigadores revelaron que la interacción entre humanos y computadoras y así mismo, la desinformación eran las preocupaciones menos abordadas en todos los marcos de riesgo. El 51 % de los riesgos analizados se atribuyeron a los sistemas de Inteligencia Artificial (IA), en lugar de a los humanos, que fueron responsables del 34 %, y el 65 % de los riesgos surgieron después de la implementación de la IA, en vez de durante el desarrollo.

Por su parte, los temas más discutidos fueron la discriminación, las violaciones de la privacidad y de igual manera, la falta de capacidad, que aparecieron en más del 50% de los documentos revisados ​​por los investigadores. Las preocupaciones sobre el daño que la IA causa a nuestros ecosistemas de información se mencionaron mucho menos, en únicamente el 12% de los documentos.

El MIT espera que el Repositorio logre ayudar a los tomadores de decisiones a navegar y abordar mejor los riesgos que plantea la Inteligencia Artificial, esencialmente con tantas iniciativas de gobernanza de la IA que surgen apresuradamente en todo el mundo.

El Repositorio “Es parte de un esfuerzo más amplio para entender cómo estamos respondiendo a los riesgos de la IA y para identificar si hay lagunas en nuestros enfoques actuales”, señaló el Dr. Neil Thompson, investigador y director del FutureTech Lab. 

De igual modo añadió, “Estamos empezando con una lista de verificación completa, para ayudarnos a entender la amplitud de los riesgos potenciales. Planeamos usarla para identificar deficiencias en las respuestas organizacionales. Por ejemplo, si todos se centran en un tipo de riesgo mientras pasan por alto otros de importancia similar, eso es algo que deberíamos notar y abordar”. 

No se debe pasar por alto señalar que los investigadores planean utilizar el Repositorio para analizar documentos públicos de empresas y desarrolladores de Inteligencia Artificial para determinar y comparar enfoques de riesgo por sector.

El repositorio de riesgos de IA se encuentra disponible para  descargar  y copiar  de manera gratuita, y los usuarios tienen la capacidad de poder enviar comentarios y sugerencias al equipo aquí.

Deja un comentario