IA en la ciberseguridad: un arma de doble filo

Se prevé que los estafadores adopten redes neuronales para crear contenido fraudulento más convincente

La investigación de Kaspersky examina cómo evolucionarán las amenazas relacionadas con la IA, destacando la necesidad de un marco regulatorio para un uso responsable. El estudio, titulado ‘El Impacto de la IA en la Ciberseguridad’, aborda varios aspectos cruciales.

Vulnerabilidades más complejas

Con la integración de Modelos de Lenguaje a Gran Escala (LLMs), se anticipa la aparición de nuevas vulnerabilidades complejas. Esto ampliará la superficie de ataque, exigiendo medidas de seguridad adicionales, como la aprobación del usuario para acciones iniciadas por agentes de LLMs.

Asistente integral de IA en la ciberseguridad

Los Red Teams y los investigadores emplean la IA generativa para desarrollar herramientas innovadoras de ciberseguridad. Este enfoque podría conducir a un asistente de IA que utilice Aprendizaje Automático (ML) o LLM para automatizar tareas de Red Team y, así, brindar orientación basada en órdenes ejecutadas en entornos de pentesting.

Uso de redes neuronales en estafas

Se prevé que los estafadores adopten redes neuronales para crear contenido fraudulento más convincente. La capacidad de generar fácilmente imágenes y, además, videos, amenaza con intensificar las amenazas cibernéticas vinculadas a fraudes y estafas.

Cambios moderados en el panorama de amenazas

A pesar de las tendencias, los expertos de Kaspersky mantienen un escepticismo moderado. Aunque tanto ciberdelincuentes como ciberdefensores adoptarán la IA, es poco probable que cause cambios drásticos en el panorama de los ataques a corto plazo.

Iniciativas regulatorias con contribuciones del sector privado

El rápido desarrollo de la tecnología hace que la IA sea un tema clave en las políticas y regulaciones. Se espera un aumento en las iniciativas regulatorias relacionadas con la IA, con la contribución valiosa del sector privado, especialmente empresas tecnológicas, en los debates sobre regulaciones globales y nacionales.

Marca de agua para contenido generado por IA

Con la proliferación del contenido sintético, se necesitarán más regulaciones y políticas de proveedores de servicios para identificar y señalar dicho contenido. Además, la implementación de marcas de agua facilitará la identificación y verificación de la autenticidad de los medios sintéticos.

‘La Inteligencia Artificial en ciberseguridad es un arma de doble filo. Sus capacidades adaptativas fortalecen nuestras defensas, pero plantean riesgos, ya que los atacantes aprovechan la IA para diseñar ataques más complejos. Lograr un equilibrio adecuado y un uso responsable es primordial para proteger nuestras fronteras digitales’, comenta Vladislav Tushkanov, experto en seguridad de Kaspersky.

Quiero Suscribirme y recibir información

Al completar este formulario, aceptas que los datos proporcionados podrán ser utilizados por Prensario TILA para enviarte noticias, novedades editoriales y comunicaciones comerciales propias, así como información de nuestros clientes y socios. Tus datos serán tratados de forma confidencial y podrás solicitar en cualquier momento la modificación o baja de nuestras listas de contacto.