Por Celina Rodríguez Sammartino, líder de Relaciones Gubernamentales y Asuntos Regulatorios de IBM Argentina.
En este momento, la Inteligencia Artificial (IA) es parte de muchas de las actividades cotidianas que llevamos a cabo. De hecho, el 84% de las personas en el mundo hoy usan un dispositivo o servicio con IA. A medida que más personas comparten sus datos para ser aprovechados por estos sistemas, la confianza se convierte en la piedra angular de las interacciones con las organizaciones. Esta confianza se manifiesta cuando los dispositivos o servicios utilizados hacen lo que esperamos de ellos, de la misma manera en que aprendimos a confiar en que una aplicación bancaria realizará transacciones exactas.
Sin embargo, la forma en que las empresas usan nuestros datos o IA para brindarnos múltiples beneficios puede variar, al igual que los riesgos asociados.No todos los datos son gestionados de igual manera ni todas las tecnologías con IA tienen el mismo proceso de creación. En ese contexto, la regulación es fundamental.
Regular la gestión de la información en la economía de los datos
Si los datos son como el petróleo, podríamos decir que, una vez refinados, se obtiene la gasolina de la IA. Esta combinación es la que puede entregar valor tanto a las personas como a las empresas en la economía de los datos.No obstante, hay un elemento clave que aún no se ha abordado de manera significativa en los marcos regulatorios: los diferentes riesgos que los modelos comerciales basados en datos plantean para las personas.
En IBM, creemos que hay dos categorías distintas de modelos comerciales basados en datos:
- Los de alto riesgo que usan los datos de las personas como fuente de ingreso (monetización de datos externos). En este modelo, las personas tienen poca comprensión sobre cómo se accede a sus datos, cómo se utilizan en la economía de los datos o el nivel de riesgo que asumen al proporcionarlos.
- Los de bajo riesgo que usan los datos para mejorar las operaciones, los productos o los servicios (monetización de datos internos o valorización de datos). En general, las personas pueden esperar que sus datos no abandonen esta relación o pueden votar con su billetera si no están satisfechos.
Esta distinción nos permitirá buscar una regulación más apropiada y con un mayor equilibrio. Por ejemplo, se puede ajustar la carga regulatoria para que sea proporcional a los riesgos de los modelos comerciales basados en datos, aumentar la transparencia de la reventa de datos, exigir a los compradores que verifiquen que los datos fueron gestionados de manera legal y transparente, entre otras obligaciones.
Regular con precisión las tecnologías de IA
Desde la perspectiva de la inteligencia artificial, en IBM creemos que estos sistemas deben priorizar la privacidad de las personas y los derechos de los titulares de los datos. Por eso, hemos pedido en todo el mundo que haya una regulación precisa para la IA, con el fin de establecer controles y políticas más estrictas sobre los usos finales de la tecnología, allí donde el riesgo de daño social es mucho mayor.
En esa línea, se vuelve fundamental que la regulación de la IA considere tres principios: primero, que el propósito de la IA es potenciarla inteligencia humana, no reemplazarla; segundo, que los datos y los conocimientos generados pertenecen a su creador; y tercero, que las nuevas tecnologías poderosas como la IA deben ser transparentes, explicables y mitigar sesgos dañinos e inapropiados.
Nuestro llamado a la acción es claro: es esencial fortalecer la confianza sin sofocar la innovación, mientras establecemos salvaguardas a los casos de uso problemáticos para que haya un cambio o corrección en curso. Otros aspectos para guiar la regulación alrededor de la Inteligencia Artificial son:
- Exigir transparencia. Las organizaciones deben ser directas sobre cuándo, dónde y cómo están utilizando la IA y los datos. Por ejemplo, si una persona está hablando con un asistente virtual con IA, debe ser informada que está conversando con IA y no con una persona en vivo.
- Proponer diferentes reglas para diversos casos de uso. Las políticas deben reflejar distinciones entre las aplicaciones de mayor riesgo y las de menor riesgo. Por ejemplo, los riesgos planteados por un asistente virtual no son los mismos que los de un vehículo autónomo.
Las formas en que las organizaciones utilizan los datos de las personas y la IA están en continua evolución. No se trata de implementar nuevas reglas prematuras de protección de datos o de prohibir la tecnología, porque ambos son ejes transversales de innovación. Se trata de colaborar para abordar los riesgos de la monetización de datos, promover el avance responsable de la tecnología y expandir los límites de la innovación al unir nuestros recursos y experiencia para mejorar nuestro bienestar colectivo e individual.
En IBM somos optimistas. Creemos que, al aplicar la ciencia y la innovación a los problemas del mundo real, podemos crear un mañana mejor, más sostenible, equitativo y seguro.