fbpx

¿Será la IA una amenaza existencial?

La IA una “amenaza de extinción para la especie humana”.

El gobierno de Estados Unidos debe actuar “rápida y decisivamente” para evitar importantes riesgos de seguridad nacional derivados de la inteligencia artificial (IA) que podrían, en el peor de los casos, causar una “amenaza de extinción para la especie humana”, según señala un informe encargado por el gobierno estadounidense publicado al mes pasado. ¿Será la IA una amenaza existencial? Descubra esto y más aquí en TECHcetera.

 

La IA una “amenaza de extinción para la especie humana”

La IA General es una tecnología hipotética que podría llevar a cabo  la mayoría de las tareas al nivel de un humano o por encima de él. Tales sistemas no existen hoy por hoy, pero los principales laboratorios de IA están trabajando para lograrlos y muchos esperan que la AGI llegue dentro de los próximos 5 años o menos.

Los 3 autores del informe trabajaron en él durante más de 1 año, conversando con más de 200 empleados gubernamentales, así como expertos y trabajadores de empresas de IA de vanguardia, como lo son: OpenAI, Google DeepMind, así como también Anthropic y Meta, como parte de su investigación. Cabe destacar que, los relatos de algunas de esas conversaciones pintan un panorama inquietante, lo que sugiere que cuantiosos trabajadores de seguridad de la Inteligencia Artificial dentro de laboratorios de vanguardia se encuentran preocupados por los “supuestos” incentivos perversos que impulsan la toma de decisiones por parte de los ejecutivos que controlan sus compañías.

El documento final, titulado “Un plan de acción para aumentar la seguridad y protección de la IA avanzada”, recomienda un conjunto de medidas políticas radicales y sin precedentes que, de promulgarse, alterarían radicalmente la industria de la Inteligencia Artificial (IA). El Congreso debería declarar ilegal, recomienda el informe, entrenar modelos de IA utilizando más de un cierto nivel de potencia de cálculo. El umbral, recomienda el informe, debería ser fijado por una nueva agencia federal de IA de EEUU, aunque el informe sugiere, como ejemplo, que la agencia podría fijarlo justo por encima de los niveles de potencia de cálculo usados para entrenar modelos de vanguardia actuales como GPT-4 de OpenAI y Gemini de Google.

La nueva agencia de IA debería exigir a las empresas de IA en la “frontera” de la industria que obtengan permiso del gobierno para entrenar e implementar nuevos modelos por encima de un cierto umbral inferior, agrega el informe. Inclusive, las autoridades igualmente deberían considerar “urgentemente” la posibilidad de prohibir la publicación de los “pesos”, o el funcionamiento interno, de modelos de IA potentes, por ejemplo bajo licencias de código abierto, y las infracciones podrían ser castigadas con penas de cárcel, señala el informe.

Además de todo esto, el gobierno debería endurecer todavía más los controles sobre la fabricación y exportación de chips de Inteligencia Artificial y, así mismo, canalizar la financiación federal hacia investigaciones de “alineación” que busquen hacer que la IA avanzada sea más segura, recomienda.

Vale la pena destacar que, el informe fue encargado por el Departamento de Estado en el mes de noviembre de 2022 como parte de un contrato federal por valor de 250.000 dólares, según los registros públicos. Fue escrito por Gladstone AI, una compañía de 4 personas que organiza sesiones informativas técnicas sobre Inteligencia Artificial para empleados del gobierno. (Partes del plan de acción recomiendan que el gobierno invierta mucho en educar a los funcionarios sobre los fundamentos técnicos de los sistemas de IA para que puedan comprender mejor sus riesgos). Es de resaltar que, el informe se entregó como un documento de 247 páginas al Departamento de Estado el día 26 de febrero.

Las recomendaciones del informe, surgen de una serie vertiginosa de importantes avances en el campo de la IA que han hecho que numerosos observadores recalibraran su postura sobre la tecnología.

Mientras los gobiernos de todo el mundo debaten la mejor manera de regular la Inteligencia Artificial, las empresas tecnológicas más grandes del mundo han estado construyendo rápidamente la infraestructura para entrenar a la próxima generación de sistemas más potentes, en algunos casos planeando utilizar 10 o 100 veces más potencia informática. Mientras tanto, más del 80% del público estadounidense cree que la IA podría causar accidentalmente un evento catastrófico, y el 77% de los votantes cree que el gobierno debería hacer más para regular la Inteligencia Artificial (IA), según una encuesta reciente del AI Policy Institute.

La IA será una amenaza?
La IA será una amenaza?

 

2 categorías…

El informe se centra en 2 categorías de riesgo distintas:

Al describir la primera categoría, que denomina “riesgo de militarización”, el informe afirma: “Estos sistemas podrían utilizarse potencialmente para diseñar e incluso ejecutar ataques biológicos, químicos o cibernéticos catastróficos, o permitir aplicaciones militares sin precedentes en la robótica de enjambre”.

La segunda categoría es lo que el informe denomina el riesgo de “pérdida de control”, o la posibilidad de que los sistemas avanzados de IA tengan la capacidad de poder superar en maniobrabilidad a sus creadores.

Según el informe, ambas categorías de riesgo se ven exacerbadas por la “dinámica de la carrera” en la industria de la Inteligencia Artificial. La probabilidad de que la primera empresa que logre una AGI obtenga la mayoría de los beneficios económicos, señala el informe, incentiva a las compañías a priorizar la velocidad sobre la seguridad.

El informe Gladstone identifica el hardware (en concreto, los chips informáticos de gama alta que se usan hoy por hoy para entrenar sistemas de IA) como un importante obstáculo para el aumento de las capacidades de Inteligencia Artificial. Según el informe, regular la proliferación de este hardware puede ser el “requisito más importante para salvaguardar la seguridad mundial a largo plazo frente a la IA”.

Explica que el gobierno debería estudiar la posibilidad de vincular las licencias de exportación de chips a la presencia de tecnologías integradas en los chips que permitan controlar si se están utilizando chips en grandes series de entrenamiento de IA, como forma de hacer cumplir las normas propuestas contra el entrenamiento de sistemas de Inteligencia Artificial más grandes que GPT-4.

Sin embargo, el informe igualmente señala que cualquier intervención deberá tener en cuenta la posibilidad de que una regulación excesiva tenga la posibilidad de impulsar a las industrias extranjeras de chips, erosionando la capacidad de Estados Unidos de influir en la cadena de suministro.

Será que la AI es una amenaza?
Será que la AI es una amenaza?

 

Qué opinan los lectores al respecto? Será que es acertado o un poco alarmista el informe y sus recomendaciones?

Los leemos en los comentarios!

Deja un comentario