fbpx

Chatbots: Los clones malvados de los modelos GPT

Todo lo que debe conocer sobre estos chatbots funestos.

Una nueva generación de chatbots funestos con nombres como; “BadGPT” y “FraudGPT” están surgiendo en los rincones más oscuros de la web, conforme los ciberdelincuentes buscan aprovechar la misma Inteligencia Artificial (IA) detrás de ChatGPT de OpenAI.

Vale la pena señalar que, así como algunos trabajadores de oficina usan ChatGPT para escribir mejores correos electrónicos, los piratas informáticos están usando versiones manipuladas de chatbots de IA para potenciar sus correos electrónicos de phishing. Pueden usar chatbots (algunos también disponibles gratuitamente en Internet) para crear sitios web falsos, escribir malware y así mismo, personalizar mensajes para hacerse pasar por ejecutivos y otras entidades de confianza.

 

Todo lo que debe conocer sobre estos chatbots funestos

 

A inicios de este año, un empleado de una empresa multinacional de Hong Kong entregó más de 25,5 millones de dólares a un atacante que se hizo pasar por el director financiero de la compañía en una conferencia telefónica falsa generada por Inteligencia Artificial, informó la policía de Hong Kong. Los directores de información y líderes de ciberseguridad, ya acostumbrados a una progresiva serie de ataques cibernéticos, señalan que están en alerta máxima por un aumento en los correos electrónicos de phishing y deepfakes más sofisticados.

Vish Narendra, quien es CIO de Graphic Packaging International, mencionó que la empresa de embalaje de papel con sede en Atlanta ha visto un aumento en lo que probablemente sean ataques de correo electrónico generados por Inteligencia Artificial denominados “Spear-phishing”, donde los ciberatacantes usan información sobre una persona para hacer que un correo electrónico parezca más legítimo. Asimismo, afirmó que las empresas públicas que están en el punto de mira son todavía más susceptibles al phishing contextualizado.

Investigadores de la Universidad de Indiana revisaron recientemente más de 200 servicios de piratería de modelos en lenguaje grande que se venden y se usan en la Web Oscura (Dark Web). El primer servicio apareció a principios del pasado año 2023, unos meses después del lanzamiento público de ChatGPT de OpenAI en el mes de noviembre del año 2022.

La gran mayoría de las herramientas de piratería de la Dark Web usan versiones de modelos de Inteligencia Artificial (IA) de código abierto como Meta.

Jason Clinton, director de seguridad de la información de Anthropic, comentó que la compañía de IA elimina los ataques de jailbreak a medida que los encuentra y tiene un equipo que monitorea los resultados de sus sistemas de Inteligencia Artificial. La mayoría de los fabricantes de modelos también implementan 2 modelos separados para asegurar su modelo primario de IA, lo que hace que la probabilidad de que los 3 fallen de la misma manera sea “una probabilidad cada vez más pequeña”.

El portavoz de Meta, Kevin McAlister, expresó que la publicación abierta de modelos comparte ampliamente los beneficios de la Inteligencia Artificial y permite a los investigadores identificar y así mismo, ayudar a corregir vulnerabilidades en todos los modelos de IA, para que las compañías tengan la capacidad de poder hacer que los modelos sean más seguros.

Por su parte, un portavoz de OpenAI señaló que la compañía no quiere que sus herramientas se usen con fines maliciosos y que siempre están trabajando en cómo pueden hacer que sus sistemas sean más fuertes contra este tipo de abuso.

Vale la pena destacar que los correos electrónicos de malware y phishing escritos por Inteligencia Artificial Generativa son esencialmente difíciles de detectar porque se encuentran diseñados para evadir la detección. Los atacantes pueden enseñar a un modelo a escribir malware sigiloso entrenándolo con técnicas de detección extraídas del software de defensa de ciberseguridad, mencionó Avivah Litan, analista de ciberseguridad e IA generativa de Gartner.

 

Correos electrónicos de Phishing crecieron

 

Los correos electrónicos de phishing crecieron un 1265 % en el período de 12 meses que comenzó cuando ChatGPT de OpenAI se lanzó públicamente, con un promedio de 31 000 ataques de phishing enviados cada día, según un informe del mes de octubre del pasado año 2023 del proveedor de ciberseguridad SlashNext.

Aunque es casi imposible demostrar si ciertos programas de malware o correos electrónicos se crearon con Inteligencia Artificial, las herramientas desarrolladas con IA tienen la capacidad de poder escanear en busca de texto probablemente creado con esta tecnología. Abnormal Security, un proveedor de seguridad de correo electrónico, mencionó que había utilizado Inteligencia Artificial (IA) para ayudar a identificar miles de correos electrónicos posiblemente creados por IA durante el año pasado, y que había bloqueado un aumento del doble en ataques de correo electrónico personalizados y dirigidos.

Parte del desafío para detener el cibercrimen basado en la Inteligencia Artificial es que algunos modelos de IA se comparten libremente en la web abierta. Para acceder a ellos, no es necesario recurrir a rincones oscuros de Internet ni intercambiar criptomonedas. Dichos modelos se consideran “sin censura” porque escasean de las barreras empresariales que las empresas buscan cuando compran sistemas de IA.

 

Las herramientas de IA de la Dark Web ya pueden causar daño

 

Para los piratas informáticos, un beneficio de las herramientas de la Web Oscura (Dark Web) como BadGPT, que según los investigadores usa el modelo GPT de OpenAI, es que probablemente estén entrenados con datos de esos mercados clandestinos. Esto quiere decir que posiblemente incluyan información útil como filtraciones, víctimas de ransomware y así mismo, listas de extorsión.

Deja un comentario