El panorama de la ciberseguridad se está tornando en un territorio cada vez más inquietante. Ya no es sólo que secuestren datos o pidan rescates (ransomware); ahora los atacantes están mezclando inteligencia artificial, creación robada y tácticas psicológicas avanzadas. Dos grupos han llamado la atención recientemente: uno por su extorsión artística impulsada por IA, y el otro con una nueva estrategia llamada ClickFix / ClickFake Interview para engañar a personas en ofertas de trabajo falsas. Son ejemplos de por qué la amenaza digital está evolucionando más rápido que muchas defensas.
Extorsión artística y entrenamiento de IA con lo robado
Hay un nuevo grupo de ransomware que ha introducido una táctica inquietante: después de robar datos y arte digital, amenaza con incluir ese material en datasets de entrenamiento de modelos de inteligencia artificial si no se paga el rescate. En uno de sus ataques recientes, apuntaron a un sitio donde robaron obras de arte digital y datos personales, y exigieron una lata suma de dinero. Si no lo pagan, no solo revelan el contenido, sino que advierten que lo usarán para entrenar modelos de IA, lo que hace que la amenaza sea mucho más duradera que una filtración típica.
Esta táctica plantea preguntas enormes sobre propiedad intelectual, derechos de autor y los límites éticos de la IA. Porque si la obra ya fue entrenada en un modelo, cuesta muchísimo eliminarla por completo. Incluso si eventualmente lo hacen, el daño ya está hecho. Se vuelve algo permanente. Herramientas como Glaze o Nightshade ya están surgiendo para que los artistas “ensucien” o puedan envenenar sus imágenes en formas que confundan los algoritmos entrenadores, manteniendo la apariencia normal para humanos.

ClickFix / ClickFake Interview: engaño sofisticado
Por otro lado, un grupo con respaldo estatal de Corea del Norte está perfeccionando su juego en ingeniería social. En campañas como “ClickFake Interview”, usan falsas ofertas de empleo como señuelo. Quienes buscan trabajo en el mundo de las criptomonedas, por ejemplo, reciben invitaciones para entrevistas remotas. En algún momento del proceso, se les pide instalar aplicaciones, permitir acceso a cámara o “arreglar” un componente que supuestamente no funciona —ese “arreglo” esconde malware. Esa técnica social conocida como ClickFix engaña al usuario para juntar comandos o permisos que ejecutan malware, backdoors, roban credenciales o incluso acceden al sistema completo.
Lo peligroso es que estas tácticas no están reservadas para los más técnicos; el grupo apunta deliberadamente a personas con menos experiencia, confiando en la urgencia, la expectativa de una oportunidad laboral o el deseo de avanzar económicamente. Y cuando la oferta parece legítima (websites de entrevista, nombres conocidos, interfaz convincente), muchos bajan la guardia.
¿Por qué esta mezcla es especialmente alarmante?
- Persistencia: los datos robados usados para entrenar IA no “expiran”. Aunque eliminen la copia, si ya fue incorporada al modelo, permanecerá dentro del mismo. LunaLock lo usa como arma de doble filo.
- Daño reputacional severo: artistas, profesionales creativos, plataformas pequeñas pueden perder la confianza de clientes si su contenido resulta comprometido.
- Difícil legislación: los marcos legales actuales de derechos de autor, propiedad intelectual y regulación de IA tienen vacíos sobre cómo responder ante usos no autorizados de datos robados en entrenamiento de modelos.
- Ingeniería social: esto demuestra que no solo se trata de malware sofisticado, sino de manipulación psicológica, engaño y aprovechar expectativas sociales o económicas.

¿Qué pueden hacer los miembros del ecosistema?
Frente a esta nueva generación de amenazas, es urgente que cada actor asuma su parte de responsabilidad. Los usuarios creativos —especialmente artistas digitales, diseñadores o ilustradores— deben comenzar a proteger sus obras con herramientas diseñadas para evitar el uso indebido por sistemas de IA. Tecnologías como Glaze y Nightshade permiten “camuflar” las imágenes, haciéndolas menos útiles para el entrenamiento de modelos sin afectar su apariencia visual para humanos. También es fundamental usar marcas de agua, restringir permisos de descarga y especificar claramente los derechos de uso de cada pieza publicada en línea.
Las empresas que desarrollan modelos de IA, por su parte, deben adoptar una postura activa para evitar entrenar sus sistemas con datos robados. Esto implica auditar rigurosamente los datasets, verificar la procedencia del contenido y establecer políticas claras de respeto por los derechos de autor. No basta con decir que un modelo es poderoso si se ha nutrido del trabajo de otros sin consentimiento.
Las plataformas que alojan contenido creativo —como sitios de arte digital, bancos de imágenes o redes sociales— tienen también un rol esencial. Deben reforzar sus protocolos de seguridad, cifrar archivos sensibles y activar mecanismos de detección ante comportamientos sospechosos. La incorporación de autenticación robusta y monitoreo constante puede evitar brechas que abran la puerta a ataques como los de LunaLock.
Desde el ámbito gubernamental y regulatorio, es imprescindible actualizar las leyes que protegen la propiedad intelectual para que se apliquen también a contextos de IA. Los varios, puntos grises o lagunas legales actuales hacen que muchas veces no haya consecuencias claras para quienes entrenan modelos con material robado. Necesitamos marcos jurídicos que no solo reconozcan el delito, sino que establezcan responsabilidades claras y sanciones ejemplares.
Finalmente, el usuario del común debe educarse sobre los métodos de ingeniería social que hoy usan los grupos criminales. Aprender a reconocer enlaces sospechosos, desconfiar de ofertas laborales demasiado buenas para ser verdad y verificar siempre la procedencia de software y archivos es clave para no caer en estas trampas. La conciencia es nuestra primera línea de defensa en esta era donde el arte, la identidad y la confianza están en juego.