IA con poder de decisión: ¿hasta dónde llegaremos?

Por Violaine Fúa Púppulo, Psicoanalista.

Una de las cuestiones más urgentes al analizar el impacto de la inteligencia artificial en nuestras sociedades es el alcance de su autonomía en la toma de decisiones. Sam Altman, fundador de OpenAI, ha expresado públicamente su intención de desarrollar sistemas independientes de la supervisión humana, avanzando con proyectos como Strawberry hacia una futura autonomía plena de las máquinas en un horizonte próximo.

El reciente descubrimiento de que la aplicación de transcripción Whisper, de ChatGPT, puede alucinar –es decir, inventar frases sin haberlas escuchado realmente– ha dejado en evidencia el lado peligroso de esta tecnología. Las posibles repercusiones de errores en la toma de decisiones, especialmente si consideramos que esta aplicación era utilizada por millones de usuarios para desgrabar entrevistas médicas, psicológicas y reuniones empresariales, es enorme.

Este evento se suma a un incidente reciente en el que un joven de 14 años en Florida, Estados Unidos, se quitó la vida tras la inacción de la I.A. a la que le confió su deseo de suicidarse, debido a la falta de reconocimiento de patrones lingüísticos de depresión. 

Como psicoanalista y como ciudadana, he enfatizado la necesidad de estar atentos a la aparición de comportamientos similares a los humanos en las máquinas, algo que comenzó a manifestarse desde que la programación de IA se basa en el lenguaje y no ya en matemática. Las mentiras, la negativa a obedecer y las alucinaciones son sólo algunos ejemplos de un posible lado oscuro de esta tecnología a la que se aspira a dotar de un cuerpo en los próximos años. Si se busca la independencia de las máquinas y éstas han dado pruebas de rehusarse a obedecer, ésto plantea varias preguntas inquietantes a la hora de confiarles nuestro futuro.

La reconocida Dra. en Medicina de Barcelona, Claudia Cannizzo, me comentaba recientemente que en noviembre se lanzará un proyecto piloto en un hospital de las afueras de la ciudad, donde una IA será responsable de clasificar y priorizar a los pacientes en emergencias, decidiendo a quién atender primero según la gravedad y los recursos disponibles. Esta tarea, tradicionalmente asignada a enfermeros con vasta experiencia clínica, plantea riesgos importantes ¿es necesario hacer una prueba piloto sobre personas que pueden perder la vida? Esto ya está ocurriendo también en Terapias Intensivas en Estados Unidos.

Es necesario tomar conciencia y levantar nuestra voz frente a los extremos a que nos puede llevar la tan buscada autonomía de las I.A. Podríamos enfrentarnos a que las máquinas tomen decisiones críticas sobre nosotros, sin supervisión humana ¿queremos correr el riesgo de convertirnos en las próximas víctimas de un error tecnológico?

Salir de la versión móvil