Muchos son los que creen que, cuantiosas de las personas que denuncian el fracaso de la Inteligencia Artificial no tienen una idea clara del panorama completo. Algunas de ellas son personas que han insistido desde el principio en que la IA Generativa como tecnología no tiene nada que ver, una visión que se encuentra muy lejos de los numerosos y muy reales usos.
Inclusive, se cree que algunas personas tienen una visión francamente absurda de la velocidad con la que debería producirse la comercialización. Incluso en el caso de una tecnología extraordinariamente valiosa y prometedora que, en última instancia, será transformadora, pasa tiempo entre el momento en que se inventa y el momento en que alguien proporciona por primera vez un producto de consumo extremadamente popular basado en ella (la electricidad, por ejemplo, tardó décadas entre su invención y su adopción realmente generalizada). “La aplicación revolucionaria para la IA generativa todavía no se ha inventado” parece cierto, pero tampoco es una buena razón para asegurar a todo el mundo que no se inventará en un futuro próximo.
Lo más destacado sobre el dilema de la IA Generativa
Pero… como siempre hay un pero, se cree que hay un argumento serio a favor de un fracaso que no se basa en malentendidos o tampoco en subestimación de la tecnología. Parece plausible que la próxima ronda de modelos ultra costosos todavía no logre resolver los problemas difíciles que harían que valga la pena entrenarlos por mil millones de dólares, y si eso sucede, es posible que nos conformemos con un período de menos entusiasmo. Más iteraciones y mejoras de los productos existentes, menos lanzamientos nuevos y al mismo tiempo, menos cobertura obsesiva.
Vale la pena destacar que, si eso sucede, posiblemente también tendrá un efecto monumental en las actitudes hacia la seguridad de la Inteligencia Artificial, aunque en principio la defensa de la seguridad de la IA no depende del bombo publicitario de la IA de los últimos años.
Lo cierto es que, el argumento esencial a favor de la seguridad de la Inteligencia Artificial es que no hay motivos para pensar que no sean posibles modelos de IA que tengan la capacidad de poder razonar tan bien como los humanos (y mucho más rápido), y sabemos que serían extraordinariamente valiosos comercialmente si se desarrollaran. Y así mismo, sabemos que sería muy peligroso desarrollar y lanzar sistemas potentes que puedan actuar de forma independiente en el mundo sin una supervisión que en realidad no sabemos cómo proporcionar.
Cuantiosos de los tecnólogos que trabajan en modelos lingüísticos de gran tamaño creen que los sistemas lo suficientemente potentes como para que estos problemas de seguridad pasen de la teoría al mundo real están a la vuelta de la esquina. Es difícil validar o negar esa opción.
Viene siendo bastante posible que la próxima generación de grandes modelos lingüísticos no sea lo suficientemente potente como para resultar peligrosa, sin embargo, muchas de las personas que trabajan en ella creen que lo será y, dadas las monumentales consecuencias de una IA de potencia no controlada, la probabilidad no es tan pequeña como para que se la pueda descartar sin más, lo que, claramente, justifica la supervisión.
Y… entonces?
Mientras las personas continúen intentando construir sistemas enormemente poderosos, la seguridad seguirá siendo importante, y el mundo no puede darse el lujo de dejarse cegar por la publicidad acerca de la IA Generativa ni, tampoco, ser reactivamente despectivo como resultado de ella, hay que mantener los pies en la tierra y tomar posiciones basadas en los hecho de cada momento y tiempo de la historia.