¿Usamos correctamente los datos?
Chile está siguiendo atentamente los desarrollos en Europa en relación a la legislación y regulaciones sobre el uso de los datos, en particular, por sistemas de basados en Inteligencia Artificial (IA), y también de Estados Unidos y Canadá en torno a estas materias e inteligencia artificial explicable (XAI).
El país sudamericano también debe diseñar una propia política en torno al uso de los datos y la IA. Existe un debate internacional sobre los aspectos críticos de la equidad, ética y transparencia en IA y sobre la construcción de los algoritmos de machine learning libre de sesgos.
Que Chile ha alcanzado grandes avances a nivel internacional en data science (o ciencia de los datos) es una realidad. No obstante, hay aspectos en que los países europeos ya los aventajan, como son la legalización y prácticas alrededor de los aspectos críticos de fairness o equidad, ética y transparencia en inteligencia artificial (IA) y en la construcción de los algoritmos de machine learning libre de sesgos.
Nueva Zelanda, Canadá, Reino Unido, y otras naciones, ya trabajan sostenidamente precisamente en esas áreas, las que constituyen hoy el núcleo del debate en torno al uso de sistemas IA a nivel mundial: fairness, sesgo, explicabilidad, transparencia; en suma, uso ético de los datos. La discusión apunta a identificar y desarrollar modos de garantizar que los sistemas de toma de decisiones automatizadas basados en IA no involucren criterios discriminatorios. De este modo, además de evitar decisiones indeseadas, se estará ayudando a mejorar la confianza en estos mecanismos. Fairness -que en español podemos entender como imparcialidad, equidad e, incluso, justicia- es un concepto en boga que se refiere a la justificación de los criterios usados por los algoritmos que usamos a diario para tomar decisiones, sin intervención humana en este proceso.
Explicabilidad apunta a identificar las razones detrás de las decisiones tomadas por estos sistemas. Se espera que estos últimos, junto con entregar decisiones, entreguen, al mismo tiempo, explicaciones sobre la forma en que se llegó a estas decisiones, o las variables relevantes que jugaron un rol relevante en la decisión. Estos aspectos de interpretabilidad obviamente tienen un impacto sobre el fairness. Las explicaciones pueden apuntar a posibles sesgos del proceso, los cuales podrían ser corregidos.
¿A qué apunta este debate? A que exista equidad y capacidad de explicar los procesos de toma de decisión basados en sistemas de IA. Por ejemplo, los datos públicos de un individuo –que pueden incluir raza, estado civil, dirección y edad– pueden ser combinados con otro tipo de información; y, con estos antecedentes, un organismo financiero o una compañía de seguros determinan si califica o no, bajo sus criterios, para optar a algún beneficio. Esta misma lógica también aplica a otros servicios, como isapres y seguros de salud, o en el sistema de justicia para determinar penas. Como se puede ver, hay múltiples escenarios en los cuales los aspectos de IA mencionados pasan a ser críticos.
El tema tiene tanta relevancia, que en octubre de este año el Consejo de la Transparencia publicó un estudio sobre buenas prácticas y estándares de transparencia en el proceso de toma de decisiones automatizadas, documento que confirma el creciente uso de la inteligencia artificial y el big data, en los que los que los algoritmos cumplen un papel fundamental, adquiriendo un rol cada vez más protagónico, de la mano de una progresiva complejidad.
Leopoldo Bertossi, investigador del Data Observatory, Profesor Titular de la Facultad de Ingeniería y Ciencias de la Universidad Adolfo Ibáñez, y Director de Programa de Master of Science en Data Science, lleva más de cinco años investigando en aspectos de explicabilidad en procesamiento de datos e IA. Él espera que los resultados de estas investigaciones contribuyan con soluciones para el sector público y privado, que garanticen los diversos aspectos de transparencia y confiabilidad ética en el uso de estos sistemas.
Afirma Bertossi: ‘La academia contribuye al uso ético de datos y de sistemas de IA, al proponer e implementar soluciones tecnológicas que aseguren fairness, ausencia de sesgos, y transparencia en el uso de los datos y en sus resultados a través de sistemas inteligentes, principalmente aquellos que emplean información de las personas, y que a la vez las afectan con sus decisiones. Es importante que se entreguen explicaciones y garantías, cualquiera que sea la técnica de aprendizaje con datos masivos’.
Leopoldo trabaja hace dos años en los llamados scores de relevancia. Estos son medidas numéricas asignadas a variables de individuos o entidades que indican qué tan relevante fueron para alcanzar una decisión tomada por un algoritmo de IA. Esos índices muchas veces pueden reflejar o apuntar a posibles sesgos, como, por ejemplo, negarle un préstamo a un consumidor, cliente o solicitante, por el solo hecho de vivir en una zona calificada como no apropiada, lo que no necesariamente indicaría su incapacidad de pago.
Bajo una creciente hiperconectividad, ahora fortalecida durante la pandemia, existe una discusión acerca del enorme volumen de datos que provienen del comportamiento humano, que propician decisiones por parte de las organizaciones e instituciones con las cuales las personas interactúan.
En Chile, hasta ahora, no existen políticas estandarizadas sobre fairness y explicabilidad y, dado el avance en la utilización de sistemas inteligentes de toma de decisiones, se hace urgente legislar en aspectos que fomenten la transparencia de la IA y el manejo ético de los datos. Además de nuevas leyes, se debe generar, proponer y usar guías y recomendaciones de “buena práctica”, tanto en el sector público como privado. Debe haber protocolos claros para seguir, tanto por empresas, en especial públicas, y empresas proveedoras y desarrolladoras de software, al momento de especificar, adquirir, implementar y usar sistemas automatizados de toma de decisiones basados en IA y machine learning.
Bertossi explica que el área de fairness está siendo investigada efervescentemente por las comunidades de IA y machine learning, y que la comunidad científica chilena está participando activa y exitosamente en estas actividades. Se ha investigado últimamente las bases conceptuales subyacentes a fairness y los temas relacionados ya mencionados. El concepto de causalidad, investigado en profundidad en IA, es común a las áreas de explicabilidad y fairness.
Comenta: ‘Creo que Chile está avanzando lenta, pero sostenidamente, en los aspectos científicos, técnicos y legislativos de estos relevantes temas. Debemos prepararnos, ya que es una tendencia que, más temprano que tarde, llegará para influir en nuestras políticas, leyes y normas. Al centro del tema está el trato objetivo, no discriminatorio y ético de los individuos por parte de los organismos públicos y privados’.
Marcelo Arenas, Director del Instituto Milenio Fundamentos de los Datos (IMFD), Profesor Titular de la P. Universidad Católica de Chile, y miembro del Comité Asesor en IA del Ministerio de Ciencia, explica: ‘La Política Nacional de Inteligencia Artificial busca considerar aspectos como fairness, ética, transparencia y el impacto de los algoritmos en la vida de las personas. Si las decisiones son tomadas en base a los resultados de un algoritmo, necesitamos tener certeza sobre los datos con los que fue entrenado, y la capacidad de proveer una explicación (explainability). De este modo se alcanza a generar accountability, y adjudicar responsabilidad en el uso de dicho algoritmo. Debemos reflexionar sobre el impacto del uso de las tecnologías’.
Arenas explica que estos son temas emergentes, y que ya existe acuerdo por parte del Estado, la academia y la industria sobre la importancia de definir y regular los aspectos éticos que conllevan. Cierra: ‘Pese a esto, creo que nos falta capital humano especializado en técnicas de explicabilidad y, para ello, estamos aprendiendo de Europa en cuanto a la legislación sobre datos, y de Estados Unidos y Canadá sobre inteligencia artificial explicable. Esto con el fin de construir nuestra política de IA adaptada a la realidad nacional, siempre intentando destinar la tecnología a aquellas funciones en las que puede mejorar la eficiencia humana, y dejando en manos de las personas aquellas tareas en las que somos irremplazables, por las sensibilidades propias de la naturaleza del ser humano’.