fbpx

IA un arma de doble filo: la defensa y los riesgos

Estos son los aspectos más relevantes del estudio “El Impacto de la IA en la ciberseguridad”

Como bien sabemos, la Inteligencia Artificial (IA) ha sido la gran protagonista en los últimos tiempos, incluso, también lo fue en la reciente feria internacional de tecnología CES. Ante la proliferación de su uso, los expertos de Kaspersky efectuaron un análisis sobre la gran influencia de la IA en el panorama de ciberseguridad, explorando sus implicaciones y centrándose en el uso que, tanto los defensores y reguladores como los ciberdelincuentes, tienen la capacidad de darle a esta herramienta. Es crucial señalar que, la investigación de Kaspersky detalla cómo evolucionará el panorama de las amenazas relacionadas con la Inteligencia Artificial y reitera la importancia de contar con un marco regulatorio que logre permitir el uso responsable de esta herramienta.

 

 

Estos son los aspectos más relevantes del estudio “El Impacto de la IA en la ciberseguridad

 

Vulnerabilidades más complejas

 

Conforme los Modelos de Lenguaje a Gran Escala (LLMs) se integran en más productos orientados al consumidor, florecerán nuevas vulnerabilidades complejas en la intersección de la IA generativa probabilística y las tecnologías deterministas tradicionales, aumentando la superficie de ataque que los profesionales de la ciberseguridad tienen que proteger. Esto demandará que los programadores estudien nuevas medidas de seguridad, como la aprobación del usuario para las acciones que inician los agentes de LLMs que fundamentalmente son los sistemas de Inteligencia Artificial para entender y generar texto de manera similar a cómo hacemos los seres humanos.

 

Asistente integral de IA para especialistas en ciberseguridad

 

Según se ha podido conocer, los investigadores y miembros del Red Team se valen de la IA generativa para crear herramientas innovadoras de ciberseguridad, lo que, potencialmente, llevaría a tener un asistente que use el LLM o el Aprendizaje Automático (ML). Esta herramienta podría automatizar las tareas del Red Team, proporcionando orientación basada en órdenes ejecutadas en un entorno de pentesting (ejercicio de prevención en el que un experto en ciberseguridad intenta hallar y explotar vulnerabilidades en un sistema informático).

 

Las redes neuronales se usarán cada vez más para generar imágenes que ayuden a las estafas

 

Este año, los estafadores podrían aumentar sus tácticas haciendo uso de redes neuronales, para crear un contenido fraudulento más convincente aprovechando las herramientas de Inteligencia Artificial (IA). Con la posibilidad de generar sin esfuerzo imágenes y videos convincentes, los agentes maliciosos plantean un mayor riesgo de intensificar las amenazas cibernéticas relacionadas con fraudes y estafas.

 

La Inteligencia Artificial no se convertirá en un motor de cambios revolucionarios en el panorama de amenazas durante 2024

 

A pesar de las tendencias anteriores, los expertos de Kaspersky continúan siendo escépticos respecto a que la Inteligencia Artificial cambie de forma significativa el panorama de amenazas en el corto plazo. Aunque los ciberdelincuentes adoptarán la IA generativa, lo mismo sucede con los ciberdefensores, quienes usan las mismas herramientas, o incluso otras más avanzadas, para probar la mejora de la seguridad en el software y las redes, lo que hace poco posible que alteren drásticamente el panorama de los ataques.

 

Más iniciativas regulatorias relacionadas con la IA y su contribución en el sector privado

 

Cabe acotar que, con su rápido desarrollo, la tecnología se ha convertido en un asunto de formulación de políticas y regulación. Está previsto que crezca el número de iniciativas regulatorias relacionadas con la Inteligencia Artificial. Los agentes que no son estatales, como es el caso de las empresas de tecnología, dada su experiencia en el desarrollo y uso de la IA, tienen la capacidad de poder ofrecer conocimientos invaluables para los debates sobre la regulación de la IA en las plataformas, tanto globales como nacionales.

 

Marca de agua para contenido generado por Inteligencia Artificial (IA)

 

Se necesitan más regulaciones, así como las políticas de los proveedores de servicios, para señalar o identificar el contenido sintético, y estos últimos tienen que seguir invirtiendo en tecnologías de detección. Los programadores e investigadores, por su parte, contribuirán en la creación de métodos de marca de agua para facilitar la identificación y procedencia de los medios sintéticos.

 

Según ha señalado Vladislav Tushkanov, experto en seguridad de Kaspersky, “La Inteligencia Artificial en ciberseguridad es un arma de doble filo. Sus capacidades adaptativas fortalecen nuestras defensas y ofrecen un escudo proactivo contra las amenazas en evolución. Sin embargo, ese mismo dinamismo plantea riesgos, ya que los atacantes aprovechan la IA para diseñar ataques más complejos. Lograr el equilibrio adecuado, garantizar un uso responsable sin compartir demasiados datos confidenciales, es primordial para proteger nuestras fronteras digitales”. 

 

 

Deja un comentario