IA generativa y sus desafíos según ESET
Se espera que la IA generativa aumente su impacto y genere cambios y mejoras en diversas industrias. ESET destaca que también plantea desafíos en su implementación, así como cuestiones éticas, legales y de privacidad que requieren atención.
Entendiendo la IA generativa
Los formatos tradicionales de IA se basan en modelos estadísticos que reconocen patrones a partir de datos existentes y son más aprovechados para contextos analíticos y predictivos. En el auge de la inteligencia artificial, se creó una nueva categoría llamada ‘generativa’. Ésta, tiene el potencial de (re)construir o (re)producir contenido proveniente de algún texto, imagen, video, audio o código fuente, tan verosímil como el usuario lo permita.
Los modelos generativos pueden producir nuevos datos (artificiales) usando datos reales (alimentados por el usuario) y crear información nueva; aquel horizonte que existía hasta hace un par de años sólo en los libros de ciencia ficción o las películas va acercándose cada vez más a la realidad.
La IA generativa reside en el ciberespacio y, por consecuencia, existen riesgos asociados que pueden afectar tanto a personas como empresas o gobiernos. ESET identifica, principalmente, cinco de estos riesgos:
Moderación de contenidos
Algunas de las redes sociales, sitios web o aplicaciones no son legalmente responsables, o son muy ambiguos en lo que refiere a los contenidos subidos por sus usuarios. Estos contenidos pueden ser, por ejemplo, ideas o publicaciones hechas por terceros o subyacentes. Por su parte, el contenido generado por IA también forma parte de este grupo.
Aún cuando cuentan con términos de uso, normas de comunidad y políticas de privacidad que protejan los derechos de autor, hay un vacío legal que sirve de blindaje para los proveedores ante una violación de derechos de autor.
Infracción de los derechos de autor e imagen con IA generativa
En mayo de 2023 en Estados Unidos comenzó la Huelga del Sindicato de Guionistas, a la que se le unió en julio del mismo año el Sindicato de Actores en Hollywood. Las principales causas de este movimiento se debieron a la petición de un aumento salarial derivado del auge de las plataformas digitales.
Al mismo tiempo, la huelga fue impulsada por el abuso de la IA generativa por parte de estas compañías para producir contenido sin el consentimiento del actor o actriz de usar su rostro y voz para fines comerciales. Debido a esto, solicitaron un nuevo contrato que los protegiera de la explotación de su identidad y talento sin su consentimiento ni remuneración para esta tecnología.
De esta forma, la originalidad de algún contenido, independientemente de la fuente, con la llegada de la IA generativa cada vez parece ser más difusa. En este caso, muchos derechos de autor y permisos de imagen fueron ignorados por grandes compañías, generando una enorme molestia. Como consecuencia, Estados Unidos optó por implementar recursos legales que protegieran a ambas partes.
Privacidad
Para que los modelos de IA generativa puedan funcionar correctamente necesitan de grandes volúmenes de datos para ser entrenados, pero ¿qué sucede cuando este volumen puede obtenerse de cualquier fuente pública como videos, audios, imágenes, textos o códigos fuente sin el consentimiento del titular?
Es aquí donde, según ESET, las plataformas, aplicaciones y redes sociales debieran apegarse al marco normativo sobre la privacidad de datos de cada país en caso de existir, de lo contrario apoyarse Reglamento General de Protección de Datos (GDPR) del Parlamento Europeo que ya incluye una sección para la IA.
Cuestiones éticas
Aquellos países donde las regulaciones en materia de IA son escasas o nulas, algunos usuarios esta tecnología para fines nada éticos. Por ejemplo, la suplantación de identidad (voz, imagen o video). Los cibercriminales la utilizan para crear perfiles falsos que usan para cometer fraude/extorsión a través de alguna plataforma. También puede suceder en una aplicación o red social, o también lanzar campañas de phishing sofisticadas o estafas del tipo catfishing.
Desinformación
Aprovechando este tipo de IA, las prácticas de difusión de noticias falsas en plataformas y redes sociales se ven mejoradas. Además, la viralización de estos contenidos engañosos puede llegar a perjudicar la imagen de alguna persona, comunidad, país, gobierno o empresa.
‘La IA generativa presenta riesgos particulares que deben abordarse de manera cuidadosa para garantizar su uso ético y seguro. Estos riesgos incluyen desde la moderación del contenido que suben los usuarios, hasta aquel engañoso, sesgado o perjudicial para evitar la manipulación de información’, menciona David González Cuautle, Investigador de Seguridad Informática de ESET Latinoamérica.
Al considerar estos riesgos, desde ESET señalan que es esencial implementar estrategias preventivas y correctivas.
Estrategias preventivas según ESET
- Filtrado y moderación efectiva: Desarrollar sistemas de filtrado y moderación robustos que puedan identificar y eliminar contenido inapropiado, engañoso o sesgado generado por modelos de IA generativa. De esta forma, es más fácil mantener la integridad de la información y a prevenir posibles consecuencias negativas.
- Entrenamiento con datos éticos y diversificados: Garantizar que los modelos de IA generativa se entrenen con conjuntos de datos éticos, imparciales y representativos. La diversificación de los datos contribuye a reducir sesgos y a mejorar la capacidad del modelo para generar contenido más equitativo y preciso.
- Transparencia en la regulación del contenido: Establecer regulaciones que permitan a los usuarios comprender cómo se genera el contenido, el tratamiento que reciben los datos y las implicaciones que puede llegar a tener en caso de no cumplir.
- Evaluación continua de la ética y la calidad: Implementar mecanismos de evaluación continua para monitorear la ética y la calidad del contenido generado. Estos mecanismos pueden incluir auditorías regulares, pruebas de robustez y colaboración con la comunidad para identificar y abordar posibles problemas éticos.
- Educación y conciencia pública: Promover la educación y la conciencia pública sobre los riesgos asociados con la IA generativa. Fomentar la comprensión de cómo funcionan estos modelos y cuáles son sus posibles impactos permitirán al usuario participar activamente en la discusión y en la exigencia de prácticas éticas por parte de los desarrolladores y empresas.