Por Carlos Rozen, Socio de Consultoría y GRC, BDO en Argentina.
¿Recuerdan a los replicantes de la película Blade Runner, cuestionando su propia existencia? Los replicantes eran androides, creados por una gran corporación (como muchas que hoy existen), para realizar trabajos peligrosos en las colonias exteriores de la Tierra. Estos seres artificiales, diseñados para ser casi indistinguibles de los humanos, poseían una fuerza y agilidad superiores, pero su vida útil estaba programada para ser corta.
Los replicantes eran considerados una amenaza para la sociedad humana, y aquellos que lograban escapar a la Tierra eran perseguidos y retirados por los Blade Runners, como Rick Deckard (Harrison Ford). La razón principal de esta persecución era el temor a que los replicantes, al desarrollar una conciencia de sí mismos y al darse cuenta de la brevedad de sus vidas, se revelaran contra sus creadores: los humanos.
Aquello que en su momento vimos como futurista pareciera converger a paso firme a nuestra realidad. Los avances en inteligencia artificial han hecho que la filosofía se vea más vigente que nunca con preguntas profundas y punzantes sobre la conciencia, la humanidad y la ética.
Filosofía y Ética. Un momento lleno de zonas grises
Resulta tan extraño como intrigante advertir una marcada y llamativa tendencia en los gigantes tecnológicos y otras organizaciones ligadas al mundo de la IA, de incorporar a filósofos en sus equipos. Y no es una casualidad.
En un momento en el cual la tecnología plantea dilemas éticos cada vez más complejos, la perspectiva de un filósofo puede ser invaluable para tomar decisiones responsables y alineadas con los valores de la empresa. La filosofía aborda cuestiones fundamentales como la moral, la justicia y el bien común, y no se conforma con respuestas veloces y poco profundas. De hecho, las preguntas adquieren más importancia que las mismas respuestas.
Los filósofos tienen una formación que les facilita cuestionar con naturalidad las suposiciones, abordar conceptos complejos y analizar argumentos desde diferentes puntos de vista. Estas habilidades son fundamentales para resolver problemas complejos y tomar decisiones informadas en un entorno tecnológico en constante evolución.
La filosofía ha estudiado durante siglos y sigue estudiando la mente humana y el comportamiento social. Esta comprensión profunda puede ayudar a las organizaciones a diseñar productos y servicios que satisfagan las necesidades y deseos de los usuarios de manera más efectiva.
En general, los filósofos son excelentes comunicadores, capaces de expresar ideas complejas de manera clara y concisa. Esta habilidad es esencial para colaborar con equipos multidisciplinarios y para explicar conceptos técnicos a un público no especializado.
¿Qué hace concretamente un filósofo en una empresa tecnológica? Su “job description” podría incluir, entre otras cuestiones: Ayudar a desarrollar principios éticos para la creación y el uso de la IA (incluso cuando estos no están regulados públicamente); Ayudar a la organización a desarrollar políticas y procedimientos responsables en la aplicación de esas políticas; Evaluar las implicancias éticas de la recopilación y el uso de datos personales; etc.
La legislación
La Unión Europea, consciente de la preocupación existente a nivel mundial, ha querido pisar fuerte con la publicación de la AI Act, una legislación sancionada a inicios de 2024, pionera en el sentido legal estricto (si es que no consideramos decenas y decenas de obras de ciencia ficción que advertían sobre los peligros de la IA). La AI Act llega para regular el desarrollo y uso de la inteligencia artificial. Esta normativa pone el foco en el riesgo, y específicamente en la problemática de la transparencia, la no discriminación y la supervisión humana, estableciendo un marco ético para una tecnología que promete transformar nuestras vidas.
Apps prohibidas: AI Act prohíbe determinadas aplicaciones basadas en IA que ponen en juego determinados derechos de los ciudadanos, incluyendo los sistemas de clasificación biométrica basados en características sensibles tales como raza, religión, orientación sexual o información genética. También prohíbe la extracción de imágenes mediante tecnología de reconocimiento facial y la creación de bases, sin consentimiento, ya sea que estas provengan de Internet o imágenes de cámaras de seguridad.
Otras tecnologías prohibidas son aquellas que permiten la identificación de emociones en lugares tales como el trabajo y las escuelas. Tampoco está permitida la puntuación social, que hasta hace no mucho tiempo era terreno de ciencia ficción en capítulos de series tales como “Black Mirror”: Además, la tan debatida y cuestionada vigilancia policial predictiva (si es que la función radica exclusivamente en perfilar personas o evaluar sus características para potenciales hechos a investigar). Existe además un tema prohibido que va a dar de que hablar: la IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas. Basta imaginar todo lo que hay para tallar en este campo con determinadas aplicaciones que influencian hábitos y tendencias de consumo, causan trastornos psicológicos (entre ellos depresión y adicción).
Excepción a las prohibiciones: Existen casos puntuales que las tecnologías basadas en identificación facial biométrica estarían exentas si bajo estrictos supuestos o condiciones, su uso queda limitado en el tiempo y el alcance geográfico, y está sujeto a una autorización judicial o administrativa previa, para fines específicos. (Ej.: búsqueda selectiva de una persona desaparecida o secuestrada, o la prevención de un ataque terrorista).
Sistemas con obligación específicas: Se prevén obligaciones claras para otros sistemas de IA de alto riesgo (debido a su importante impacto potencial en la salud, la seguridad, los derechos humanos, el medioambiente, la democracia y el estado de derecho).
Aplicaciones basadas en IA de alto riesgo incluyen infraestructura crítica, educación, empleo, servicios públicos y privados esenciales (tales como atención médica, otorgamiento de productos bancarios), determinados sistemas de aplicación de la ley, migraciones y administración de fronteras, justicia y procesos democráticos (Ej.: influir en las elecciones). En estos casos, se deberán evaluar y reducir los riesgos, mantener registros de uso, y, fundamentalmente ser transparentes, precisos y garantizar el monitoreo por parte de humanos. La IA Act también contempla instancias mediante las cuales los ciudadanos podrán presentar quejas sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo toda vez que interpreten que sus derechos ya han sido vulnerados.
Requerimientos de transparencia: Los sistemas de IA de propósito general, también conocidos como Inteligencia General Artificial (IGA), son desarrollos que tienen capacidades intelectuales supuestamente comparables a las de un ser humano. Según la ley, estos modelos deben cumplir ciertos requisitos de transparencia, incluido el cumplimiento de la ley de la UE de derechos de autor y la publicación de resúmenes detallados del contenido utilizado para su entrenamiento. Los modelos más potentes estarían sujetos a requisitos adicionales, incluida la realización de análisis de modelos, la evaluación y mitigación de riesgos y la presentación de informes sobre incidentes.
La UNESCO, por su parte, ha elaborado una recomendación sobre la ética de la inteligencia artificial, subrayando principios en el uso de la IA tales como:
- La importancia de proteger los derechos humanos y la dignidad
- Vivir en una sociedad pacífica, justa, diversa, inclusiva y equitativa
- Respetar el medioambiente
Sin embargo, la implementación de estos principios a nivel global es un desafío complejo, dada la diversidad de enfoques regulatorios y las presiones económicas.
Sesgos algorítmicos ¿perpetuar problemas?
Existen en los sistemas basados en IA posibles errores sistemáticos que determinan resultados injustos o discriminatorios. Estos sesgos pueden surgir principalmente de tres diversas fuentes:
- Datos sesgados: Si los datos utilizados como ingreso para entrenar a un algoritmo tienen inclinaciones o preferencias, el algoritmo aprenderá a reproducir esos sesgos. Por ejemplo, si un algoritmo de reconocimiento facial se entrena con una base de datos que contiene principalmente imágenes de personas de tez blanca, es probable que tenga dificultades para reconocer a personas de otros colores de piel.
- Algoritmos diseñados de forma deficiente: Un algoritmo mal diseñado puede introducir sesgos, aunque los datos son de excelente calidad. Por ejemplo, un algoritmo que permita eficientizar la contratación que se centra en palabras clave específicas en los currículums puede favorecer a los candidatos que utilizan un lenguaje más utilizado por hombres, lo que podría perpetuar la brecha de género en el empleo. En este caso, imaginemos que los hombres utilizan un X% más que las mujeres la palabra ‘ambición’, y que esa palabra pondere significativamente en las búsquedas; la búsqueda estará sesgada.
- Objetivos de IA mal definidos: En estos casos el algoritmo puede tomar decisiones que no son las más justas o equitativas. Por ejemplo, un algoritmo de adjudicación de préstamos en un banco se enfoca en distribuir los recursos intentando maximizar su beneficio, y lo hace de manera desigual entre diferentes grupos de personas. En este caso imaginemos que toma información de grupos que han devuelto más créditos (cuando históricamente a las personas de cierto estrato social no se les otorgaban créditos, y ahora sí).
Predicciones para el futuro:
El artículo comienza hablando de la ciencia ficción. Este tipo de obra, tuvo un fin más profundo, buscado o no: nos ha preparado para este momento, anticipando muchos de los dilemas que enfrentamos hoy.
Solemos decir cuando algo nos asombra que ‘la realidad supera a la ficción’. Y ahora, es nuestra responsabilidad asegurarnos de que la realidad supere a la ficción, creando un mundo donde la inteligencia artificial sea una fuerza para el bien. Creo que para que esto ocurra necesitaremos lo siguiente:
- Una regulación global, muy estudiada, impulsada por la necesidad de establecer estándares comunes.
- Una IA muy especializada coexistiendo con la IA general, que se irá focalizando con mucha profundidad en tareas específicas, reduciendo riesgos, pero a su vez, planteando nuevos desafíos.
- Una relación más estrecha humano-máquina ya que la IA se integrará cada vez más en nuestras vidas, transformando la forma en que trabajamos, aprendemos y nos relacionamos.
- Una cultura ética de la IA como pilar fundamental, pues la ética se convertirá en un componente esencial en el desarrollo y despliegue de la IA, impulsando la creación de sistemas más justos y equitativos.
El futuro de la inteligencia artificial está en nuestras manos. Es hora de tomar decisiones informadas y responsables si queremos garantizar que esta tecnología beneficie a la humanidad.
Si el medioambiente nos da cientos de años de chance actuando de manera poco responsable ¿cuánto nos esperará la IA?
Volviendo a la filosofía. Las preguntas incómodas que debemos abordar
La posibilidad de crear tecnologías autónomas basadas en IA, capaces de tomar decisiones por sí mismas, cada vez más sofisticadas y profundas, plantea interrogantes sobre la responsabilidad y el control humano.
Es por ello que la IA nos obliga a reflexionar sobre cuestiones filosóficas fundamentales:
¿Qué significa ser humano en un mundo cada vez más poblado de máquinas inteligentes?
¿Hasta dónde podemos y debemos desarrollar la inteligencia artificial?
¿Cómo garantizamos que esta tecnología se utilice para el bien común?
¿Cuál es la línea que no deberíamos cruzar?
Resulta esencial responder estas preguntas no solo de manera individual, sino fomentando un debate abierto y plural. Debemos involucrar a científicos, ingenieros, filósofos, políticos y a la sociedad en general para cocrear un futuro donde la IA sea una herramienta al servicio del bienestar humano.