Microsoft contra las fake news

Entre 2013 y 2019 se registraron 96 campañas difundidas por redes sociales dirigidas a 30 países que pretendieron difamar a personas reconocidas, persuadir al público o polarizar debates. Alrededor del 93% de estas campañas incluyeron la creación de contenido original, 86% amplificaron contenido preexistente y 74% distorsionaron hechos verificables de manera objetiva.

Con el fin de promover la alfabetización mediática y combatir la desinformación en tiempos de redes sociales e hiperconexión global, Microsoft anunció una serie de iniciativas que ayudan a reconocer y destrabar fake news, deepfakes, entre otros contenidos.

Esta propuesta se enmarca en el programa Defender la democracia (Defending Democracy, en inglés) de la compañía que busca aportar soluciones para vivir en sistemas democráticos más justos, transparentes e inclusivos. El proyecto incluye nuevas herramientas tecnológicas para combatir la desinformación, trabajos para ayudar a educar al público sobre esta problemática y alianzas con asociaciones y organizaciones comprometidas con la causa.

 De acuerdo con una investigación realizada por el profesor Jacob Shapiro en Princeton, y apoyada por Microsoft, entre 2013 y 2019 se registraron 96 campañas difundidas por redes sociales dirigidas a 30 países que pretendieron difamar a personas reconocidas, persuadir al público o polarizar debates.

Mientras que el 26% de estas campañas fueron orientadas a Estados Unidos, también llegaron a otros países como Alemania, Arabia Saudita, Armenia, Australia, Brasil, Canadá, Francia, Holanda, Polonia, Reino Unido, Sudáfrica, Taiwán, Ucrania y Yemen. Alrededor del 93% de estas campañas incluyeron la creación de contenido original, 86% amplificaron contenido preexistente y 74% distorsionaron hechos verificables de manera objetiva. Reportes recientes también muestran que la desinformación ha sido distribuida alrededor de la pandemia de COVID-19, lo que ha llevado a muertes y hospitalizaciones de personas que buscaban supuestas curas que en realidad son peligrosas.

Nuevas tecnologías para el bienestar democrático

La desinformación se manifiesta de muchas formas y una sola tecnología no resolverá el desafío de ayudar a las personas a descifrar qué es cierto y preciso. Por eso, Microsoft trabajó en dos tecnologías diferentes para hacer frente a los diversos aspectos del problema.

Microsoft Video Authneticator para desentrañar deepfakes. En la actualidad, un gran problema son las deepfakes; es decir, fotos, videos o archivos de audio manipulados por inteligencia artificial (IA) en formas que son difíciles de detectar. Pueden aparecer para hacer que la gente diga cosas que no dijo o estar en lugares donde no estuvo. Al estar generadas por IA pueden continuar aprendiendo, lo que vuelve inevitable que puedan vencer a la tecnología convencional de detección. Sin embargo, a corto plazo, como las próximas elecciones en Estados Unidos, las tecnologías avanzadas de detección pueden ser una herramienta útil para ayudar a los usuarios más exigentes a identificar deepfakes.

Gracias a Microsoft Video Authenticator se puede analizar una foto fija o un video para brindar un porcentaje de probabilidad, o una calificación de confianza, de que el medio haya sido manipulado de manera artificial. En el caso de un video, puede brindar este porcentaje en tiempo real sobre cada cuadro a medida que se reproduce el video. Funciona a través de detectar el límite de fusión del deepfake y el sutil desvanecimiento o elementos de escala de grises que tal vez no puedan ser detectados por el ojo humano.

En un principio, esta tecnología fue desarrollada por Microsoft Research, en coordinación con el equipo de Responsible AI de Microsoft y el Comité de IA, ética y efectos en ingeniería e investigación (AETHER, por sus siglas en inglés) de Microsoft, que es un consejo asesor en Microsoft que ayuda a asegurar que la nueva tecnología sea desarrollada e integrada de manera responsable. Video Authenticator fue creado a través de una base de datos pública de Face Forensic++ y fue probada en el DeepFake Detection Challenge Dataset, ambos modelos líderes para el entrenamiento y pruebas de tecnologías de detección de deepfake.

• Tecnología basada en Azure para evitar contenido adulterado. Esta una nueva tecnología puede detectar contenido manipulado y asegurar a las personas que los medios que ven son auténticos. La misma tiene dos componentes: el primero es una herramienta integrada en Microsoft Azure, que permite a un productor de contenido agregar hashes (por ejemplo, contraseñas) y certificados al contenido que crea, y que quedarán en él como metadatos, donde sea que viajen en línea. El segundo es un lector, que puede existir como una extensión de navegador o en otras formas, que comprueba los certificados y relaciona los hashes, para permitir a la gente saber, con alto grado de precisión, que el contenido es auténtico y que no ha sido cambiado, así como brindar detalles sobre quién lo produjo.

Esta tecnología ha sido construida por Microsoft Research y Microsoft Azure, en asociación con el Programa Defending Democracy, y están unidas a una iniciativa recién anunciada por la BBC, llamada Project Origin.  

Salir de la versión móvil