Uncategorized

Crean una herramienta que emula el comportamiento de la mirada humana

 

Cognitive Latam, agencia de marketing integral especializada en el campo de la Inteligencia Artificial (IA), desarrolló Deep Gaze, una herramienta de IA que permite analizar el comportamiento, los gustos y las preferencias del consumidor a partir de su atención visual.

Lograr modelos de IA que repliquen el procesamiento cognitivo del cerebro humano es un gran logro de esta rama de la ciencia. Su combinación con la neurociencia puede determinar maneras eficientes de atraer usuarios de gran valor.

CAT

Deep Gaze es un motor de IA compuesto por dos redes neuronales profundas que se complementan entre sí para emular el comportamiento de la mirada humana frente a un estímulo visual. La herramienta permite testear propuestas gráficas y evaluar propuestas de comunicaciones antes de hacer inversiones en publicidades pagas o en testeos A/B, evaluar los sitios web de los clientes antes de lanzarlos o bien probar si los diseños UX de apps son eficientes. Todo esto se hace en tan solo 5 segundos.

Cristian Santander, CEO de Cognitive Latam, explica: ‘Lo que este producto reporta en apenas unos segundos es el equivalente a sesiones de eye tracking o seguimiento visual de hasta 50 personas. Nuestro modelo incorpora decenas de miles de resultados de sesiones de eye tracking para proveer un resultado accionable en una fracción de tiempo y con una precisión del 92%. Nos permite ver más allá de lo evidente’.

El desarrollo es muy fácil de operar. Para empezar, no precisa de ninguna instalación previa. El interesado sube una imagen, video o archivo de sitio web. Deep Gaze emula el comportamiento del ojo humano y detecta los puntos de atención en el diseño de la imagen. A partir de allí elabora un resultado con una representación gráfica completa de fortalezas y debilidades de la imagen y los transforma en insights accionables, es decir, en acciones concretas.

Las marcas lo usan para testear los conceptos de sus sitios web, la atención de las acciones con call-to-actions o pedido de acciones a los usuarios (como comprar, registrarse, hacer click, etc); evaluar packagings de productos, banners o piezas publicitarias.

Santander agrega: ‘El modelo consta de dos partes o de dos redes neuronales profundas. La primera es una red neuronal convolucional profunda que es la responsable de generar el Mapa de Prominencia Visual (Saliency Map o SAM). En segunda instancia trabaja una Attention Network o red de atención que es la encargada de identificar el orden y las pausas de la mirada humana. De esta manera, Deep Gaze capta los procesos neurocognitivos del hombre emulando la atención que le presta a un objeto o pieza de comunicación al verla’.

El modelado de la prominencia fue un área de investigación activa en visión por computadora durante unas dos décadas. Los modelos de vanguardia que existen hoy funcionan muy bien para predecir dónde y a qué miran las personas.

A través de sesiones de eye tracking con usuarios, Cognitive Latam logró relevar un conjunto de datos de fijación a gran escala para impulsar la investigación de la saliencia y la fijación de la pupila. Los estímulos de Deep Gaze incluyen 4000 imágenes. Son 200 imágenes de 20 categorías diferentes entre las que se pueden enumerar obras de arte, objetos, dibujos animados, ambientes interiores y exteriores, fotos en alta y baja resolución, etc.

Concluye el CEO: ‘Analizamos algunas propiedades básicas de este conjunto de datos y comparamos algunos modelos exitosos. Nuestro conjunto de datos abre nuevos desafíos para la próxima generación de modelos de prominencia y ayuda a realizar estudios de comportamiento sobre la atención visual’.

¡MANTENGÁMONOS EN CONTACTO!

Nos encantaría que estuvieras al día de nuestras últimas noticias y ofertas 😎

Autorizo al Prensario y a sus anunciantes a almacenar los datos solicitados y acepto que puedan enviarme comunicaciones de sus productos y servicios.

¡No hacemos spam! Lee nuestra política de privacidad para obtener más información.

Mostrar más

Publicaciones relacionadas

2 comentarios

Deja una respuesta

Botón volver arriba