Por Alexander Ditzend, artificial intelligence specialist de Yoizen
A la hora de crear un asistente virtual para nuestra organización, todos queremos lo mismo: recolectar toda la información que queremos publicar, dársela a un bot y que pueda guiar a los usuarios de manera mientras mantenemos el control de los procesos transaccionales, tales como realizar pagos, agregar productos a un carrito de compras, ofrecer descuentos, entre otros.
El equilibrio entre control y autonomía es un verdadero desafío ya que son características completamente antagónicas pero que deben convivir en el desarrollo de un asistente virtual que deba atenerse a normas de una empresa, leyes, imagen corporativa y demás restricciones.
Darle el control total a un modelo de inteligencia artificial sin ningún tipo de lineamiento puede ser catastrófico por más que en la mayoría de los casos nos maravillemos de la creatividad y astucia de sus respuestas. El problema son los casos extremos, los que capturan la atención masiva en las redes y en la prensa. Esos casos que no se pudieron encontrar durante las primeras pruebas.
Para ilustrar esta idea vamos a suponer que estamos entrenando un sistema de conducción autónoma de automóviles. Le damos millones de horas de videos de conductores humanos atravesando todo tipo de situaciones de tránsito. El modelo las incorpora y cuando está listo se lanza a producción, o sea, a la calle. Si ocurre un evento extraño, muy extraño, el modelo puede llegar a tener serios problemas en entender su entorno. ¿Que tal si por alguna razón se cruza una madre elefante con sus crías por la ruta y decide que el asfalto es el mejor lugar para seguir caminando? Es un hecho improbable, pero no imposible. El modelo puede percibir esos objetos como dos camiones, un grupo de motos detrás de un camión, una camioneta y una moto, etc. Y para colmo puede alternar indefinidamente entre esas opciones, lo que dificulta enormemente la toma de decisión. ¿Cuándo va a decidir rebasar a los elefantes? ¿Por qué carril? ¿Tiene que esperarlos?
Este es un ejemplo de otro dominio, pero la misma problemática ocurre cuando estamos diseñando un bot.
Como implementadores de inteligencia artificial es nuestro deber pensar en estas situaciones y mantener su probabilidad de ocurrencia lo más cercana a cero posible.
Por este motivo es fundamental poder conjugar procesos transaccionales, aquellos en los que la diseñadora del bot tiene el control del flujo de decisión y hay 0% inteligencia artificial, con la intervención de un gran modelo de lenguaje entrenado sobre documentación controlada.
Ahí es donde entra juego la plataforma donde se crea el bot y el equipo que nos acompaña en su desarrollo ya que son los componentes clave que logran calibrar el delicado balance entre control y autonomía.
Una aproximación al problema del balance consiste en identificar en primera instancia qué es lo que quiere el usuario. En otras palabras, hay que clasificar la intención. Si esta tiene relación con uno de nuestros procesos transaccionales simplemente derivamos el flujo hacia el proceso hasta que se termine. Flujos de pagos, creación de un turno o cualquier proceso de toma de datos caen dentro de este grupo.
Hasta aquí describimos el mundo bien conocido hasta la revolución de ChatGPT. Lo que aparece como novedad e invaluable solución es la capacidad de responder a frases del usuario que no se pueden clasificar dentro de las intenciones mencionadas anteriormente, desde el primer día de salida a producción, cumpliendo con la personalidad definida y sin la necesidad de estar reentrenando nuestro modelo todos los días como ocurría antes.
Hablamos en este caso de configurar una base de conocimiento, un compendio de toda la información de nuestra organización unificada y procesada de manera tal que un asistente virtual la pueda usar para crear respuestas útiles para los usuarios.
Estas bases pueden contener todo tipo de archivos, desde documentos, planillas de cálculo, imágenes y hasta videos de YouTube, entre otros.
Es importante que la información en estos archivos nunca pierda sincronicidad con el resto de la organización, para lo que se configuran actualizaciones automáticas. Por ejemplo, todas las noches el sistema accede a la web de una empresa y actualiza la base de conocimiento con los cambios que encontró.
Además se pueden crear accesos a orígenes de información más complejos como bases de datos y sistemas de gestión.
Naturalmente en este lado de la balanza donde impera la automatización es lógico preguntarse cómo asegurarse que las respuestas que está brindando el bot son correctas. Porque hay que recordar que los grandes modelos de lenguaje como el que está detrás de ChatGPT están entrenados para generar frases que parecen correctas, que suenan bien, pero no necesariamente facticamente exactas. Eso es un problema a tener muy claro durante el desarrollo de la solución.
Para resolver el inconveniente de la inexactitud en las respuestas se sigue un camino similar al del desarrollo de software convencional: Testing. Un experto en la temática crea una serie de preguntas comunes con sus respuestas correctas y luego se hace una comparación con aquellas arrojadas por el bot. Este proceso se puede correr de manera automática y si existe alguna diferencia muy grande se puede notificar al diseñador del bot para que tome acción de manera inmediata.
La inteligencia artificial está ganando terreno paulatinamente en todos los sectores industriales pero en el mundo de la interacción digital es uno de los primeros lugares donde las novedades hacen sus primeras apariciones en producción. En Yoizen, creemos en que la colaboración entre humanos y máquinas es la clave del futuro y permanentemente estamos creando herramientas para fortalecer esa unión.
¿Te interesa conocer cómo implementar IA Conversacional & Generativa en tu organización? El Equipo de Yoizen puede ayudarte. Entra en contacto para conversar con ellos.