La inteligencia artificial ha llegado a una nueva etapa en su desarrollo: el grupo de IA de Elon Musk ha decidido contratar ‘policías tecnológicos’.
Estos policías no son vigilantes futuristas para destruir un mal programa de IA, ni forman parte de una saga de Terminator. En realidad, buscan a quien abusa de la IA con objetivos ilegales o no éticos. Pero aún este tipo de policía no logra cubrir todos los miedos que inspira el concepto de inteligencia artificial en las personas. Se necesitará transparencia y confianza para cambiar las mentes de nuestro inevitable futuro.
La necesidad de mayor transparencia incita a nuevas plataformas innovadoras y que incentivan el pensamiento. El MIT Media Lab ha creado una Máquina Moral, la cual se utiliza para desarrollar una toma de decisiones éticas para los autos autónomos.
Una simple simulación desafía a los usuarios a decidir el resultado de un accidente de un auto autónomo, y las elecciones pueden producir sensaciones incómodas. Los escenarios demandan decisiones difíciles: si un vehículo autónomo debe girar enseguida, ¿debe chocar la pared, matando al doctor y al gato que circulan dentro del auto? ¿O debe girar hacia la vereda, matando a una viejita, un perro y un hombre sin hogar? En la vida real, este tipo de elecciones requieren una respuesta inmediata del conductor, y las elecciones no son ni fáciles ni evidentes. Combinando las respuestas con machine learning, los investigadores pueden hacer un mejor desarrollo moral que ayuda a las máquinas en el proceso de la toma de decisiones.
La participación en este tipo de ejercicios aumenta el entendimiento de las redes neuronales. Esa es la razón por la que Siri entiende las preguntas, o Facebook sugiere a etiquetas en las fotos. Las redes neuronales hacen que la inteligencia artificial sea aún más inteligente, permitiendo una mayor racionalización del cerebro humano.
A medida que las computadoras son más capaces de juntar, procesar y utilizar grandes cantidades de datos, estas redes se hacen más efectivas. Recientemente, para frenar el spam y el abuso online, Yahoo se volcó a la IA, respaldado por la red neuronal, para filtrar por medio de comentarios, y en general hizo un mejor trabajo que los humanos.
Hasta ahora, no se ha desarrollado ninguna fórmula de respuestas y machine learning que garantice totalmente la seguridad de los peatones y conductores. Hasta que vivamos en un ecosistema de vehículos totalmente conectado, sin humanos detrás del volante, habrá accidentes. Lo que necesitamos hacer es utilizar la tecnología no solo para informar el desarrollo de la IA, sino también para ayudar a desarrollar mayor confianza en las facultades para la toma de decisiones de nuestras máquinas inteligentes. Los autos autónomos nunca pueden ser inmunes de los dilemas éticos, pero los tenemos que preparar para responder de la mejor manera que minimice el daño.