Es inherente dar a conocer que 26 expertos en las implicaciones de seguridad de las tecnologías emergentes han escrito conjuntamente un informe innovador que hace sonar la alarma sobre el posible uso malicioso de la Inteligencia Artificial (IA) por parte de: estados rebeldes, criminales y así mismo, terroristas. El informe, que prevé un vertiginoso crecimiento de los delitos cibernéticos y el uso indebido de drones durante la próxima década (así como un aumento sin precedentes del uso de “bots” para manipular todo, desde las elecciones hasta inclusive, la agenda de noticias y las redes sociales), es un llamado claro para que los gobiernos y las corporaciones de todo el mundo aborden el peligro claro y presente inherente a las innumerables aplicaciones de la Inteligencia Artificial. En breve todo acerca de los riesgos de la IA.
Los riesgos de la IA
Sin embargo, el informe “El uso malicioso de la Inteligencia Artificial: pronóstico, prevención y mitigación” también recomienda intervenciones para aminorar las amenazas que plantea el uso malicioso de la IA:
- Los responsables de las políticas y los investigadores técnicos tienen que trabajar juntos ahora para poder comprender y prepararse para el uso malicioso de la Inteligencia Artificial (IA).
- La Inteligencia Artificial posee muchas aplicaciones positivas, sin embargo, es una tecnología de doble uso y los investigadores e ingenieros de IA deben ser conscientes y proactivos ante el potencial de su uso indebido.
- Las mejores prácticas pueden y deben aprenderse de disciplinas con una trayectoria más larga en el manejo de riesgos de uso dual, como la seguridad informática.
- Entre tanto, se debe ampliar activamente la gama de partes interesadas que participan en la prevención y mitigación de los riesgos del uso malintencionado de la Inteligencia Artificial.
Vale la pena destacar que, los coautores provienen de una amplia gama de organizaciones y disciplinas, entre ellas; el Future of Humanity Institute de la Universidad de Oxford; el Centre for the Study of Existential Risk de la Universidad de Cambridge; así como OpenAI, una empresa líder sin fines de lucro en investigación de IA; la Electronic Frontier Foundation, un grupo internacional sin fines de lucro en materia de derechos digitales; el Center for a New American Security, un grupo de expertos bipartidista en seguridad nacional con sede en Estados Unidos; y de igual forma, otras organizaciones.
Cabe aclarar que el informe de 100 páginas logra identificar 3 dominios de seguridad (seguridad digital, física y política) como particularmente relevantes para el uso malicioso de la Inteligencia Artificial (IA). Sugiere que la IA alterará el equilibrio entre escala y eficiencia y de igual forma, permitirá ataques a gran escala, muy específicos y altamente eficientes.
Los autores esperan nuevos ciberataques como: piratería automática, síntesis de voz utilizada para hacerse pasar por objetivos, así como correos electrónicos spam muy específicos que utilizan información extraída de las redes sociales o que explotan las vulnerabilidades de los propios sistemas de Inteligencia Artificial (por ejemplo, mediante ejemplos adversarios y envenenamiento de datos).
Igualmente, la proliferación de drones y sistemas ciberfísicos permitirá a los atacantes desplegar o reutilizar dichos sistemas con fines dañinos, como derribar flotas de vehículos autónomos, convertir drones comerciales en misiles con objetivo de ataque o inclusive, secuestrar infraestructuras críticas. El apogeo de los sistemas de armas autónomas en el campo de batalla coloca en riesgo la pérdida del control humano significativo y presenta objetivos tentadores para los ataques.
Es de resaltar que, en la esfera política, los análisis detallados, la propaganda dirigida y así mismo, los vídeos falsos baratos y muy creíbles constituyen herramientas poderosas para manipular la opinión pública en escalas antes inimaginables. La capacidad de añadir, analizar y así mismo, actuar sobre la información de los ciudadanos a gran escala mediante la Inteligencia Artificial podría permitir nuevos niveles de vigilancia, invasiones de la privacidad y amenazar con cambiar radicalmente el poder entre individuos, corporaciones y estados.
Es vital señalar que para aminorar estos riesgos, los autores exploran diversas intervenciones para reducir las amenazas asociadas con el mal uso de la Inteligencia Artificial. Entre ellas se incluyen repensar la ciberseguridad, explorar diferentes modelos de apertura en el intercambio de información, así como también promover una cultura de la responsabilidad y buscar soluciones tanto institucionales como tecnológicas para inclinar la balanza a favor de quienes se defienden de los ataques.
Por su parte, el informe también “juega” con varios escenarios en los que la IA podría usarse maliciosamente como ejemplos de las amenazas potenciales que podemos enfrentar en la próxima década.
Aunque el diseño y uso de sistemas de IA peligrosos por parte de actores maliciosos se ha destacado en entornos de alto perfil (por ejemplo, el Congreso de Estados Unidos y la Casa Blanca por separado), la intersección de la Inteligencia Artificial y el mal uso en general todavía no se ha analizado de manera exhaustiva, hasta el momento.