La investigación de Kaspersky examina cómo evolucionarán las amenazas relacionadas con la IA, destacando la necesidad de un marco regulatorio para un uso responsable. El estudio, titulado ‘El Impacto de la IA en la Ciberseguridad’, aborda varios aspectos cruciales.
Vulnerabilidades más complejas
Con la integración de Modelos de Lenguaje a Gran Escala (LLMs), se anticipa la aparición de nuevas vulnerabilidades complejas. Esto ampliará la superficie de ataque, exigiendo medidas de seguridad adicionales, como la aprobación del usuario para acciones iniciadas por agentes de LLMs.
Asistente integral de IA en la ciberseguridad
Los Red Teams y los investigadores emplean la IA generativa para desarrollar herramientas innovadoras de ciberseguridad. Este enfoque podría conducir a un asistente de IA que utilice Aprendizaje Automático (ML) o LLM para automatizar tareas de Red Team y, así, brindar orientación basada en órdenes ejecutadas en entornos de pentesting.
Uso de redes neuronales en estafas
Se prevé que los estafadores adopten redes neuronales para crear contenido fraudulento más convincente. La capacidad de generar fácilmente imágenes y, además, videos, amenaza con intensificar las amenazas cibernéticas vinculadas a fraudes y estafas.
Cambios moderados en el panorama de amenazas
A pesar de las tendencias, los expertos de Kaspersky mantienen un escepticismo moderado. Aunque tanto ciberdelincuentes como ciberdefensores adoptarán la IA, es poco probable que cause cambios drásticos en el panorama de los ataques a corto plazo.
Iniciativas regulatorias con contribuciones del sector privado
El rápido desarrollo de la tecnología hace que la IA sea un tema clave en las políticas y regulaciones. Se espera un aumento en las iniciativas regulatorias relacionadas con la IA, con la contribución valiosa del sector privado, especialmente empresas tecnológicas, en los debates sobre regulaciones globales y nacionales.
Marca de agua para contenido generado por IA
Con la proliferación del contenido sintético, se necesitarán más regulaciones y políticas de proveedores de servicios para identificar y señalar dicho contenido. Además, la implementación de marcas de agua facilitará la identificación y verificación de la autenticidad de los medios sintéticos.
‘La Inteligencia Artificial en ciberseguridad es un arma de doble filo. Sus capacidades adaptativas fortalecen nuestras defensas, pero plantean riesgos, ya que los atacantes aprovechan la IA para diseñar ataques más complejos. Lograr un equilibrio adecuado y un uso responsable es primordial para proteger nuestras fronteras digitales’, comenta Vladislav Tushkanov, experto en seguridad de Kaspersky.