Seguridad IT

Detección de modelos lingüísticos de gran escala

La IA generativa ha mejorado en la última década. He aquí cómo nos adaptamos a los avances de la IA. Los grandes modelos lingüísticos (LLMs) son noticia últimamente, ya que ChatGPT, Bard, etc., han dado a conocer a mucha gente los últimos avances en este campo. Los modelos multimodales que combinan texto y visión también están por venir. Siga leyendo para saber cómo afrontamos este tipo de retos.

Detección de modelos lingüísticos de gran escala

¿Cómo afectan los modelos lingüísticos de gran escala a los servicios como hCaptcha?

CAT

Es importante entender que la IA/ML no es un problema nuevo: hCaptcha lleva años desarrollando sistemas para detectar automatizaciones de todo tipo, utilizando muchos enfoques diferentes.

Sin embargo, los servicios que ofrecemos son cada vez más urgentes y desafiantes a medida que mejoran las técnicas de IA/ML. Los proveedores heredados que no han mantenido el nivel de I+D necesario tendrán dificultades para seguir el ritmo.

¿Cómo detecta hCaptcha los modelos lingüísticos de gran escala y otros automatismos?

Aunque a menudo publicamos nuestras investigaciones en conferencias académicas sobre aprendizaje automático, generalmente no compartimos públicamente detalles o estrategias específicas de nuestras medidas de seguridad para proteger a nuestros usuarios.

A continuación hacemos una excepción a esta práctica para ayudar a disipar parte de la confusión en torno a las verdaderas capacidades de los modelos lingüísticos de gran escala. Hoy en día no tenemos ninguna dificultad para detectarlos, y no esperamos que esto cambie pronto. A medida que la IA/ML mejora, los adversarios pueden adaptarse más rápidamente, pero del mismo modo nosotros también. Se trata de una carrera armamentística continua, pero no nueva.

¿Serán más difíciles las preguntas de verificación de la humanidad a medida que las IA sean más inteligentes?

No necesariamente. Para entender por qué, necesitamos una idea clave: Los sistemas de IA/ML cometen distintos tipos de errores que las personas. ‍Los fallos individuales de los sistemas de IA/ML pueden corregirse, pero emular exactamente la cognición humana no está en el horizonte a corto plazo, ni siquiera cuando los sistemas de IA empiecen a acercarse o superar la capacidad humana de resolución de problemas en otros aspectos.

Esta es una limitación fundamental de las redes neuronales artificiales. Son herramientas útiles, pero no reproducen especialmente bien la cognición humana. Comprender estas diferencias nos ofrece muchas formas de detectar los modelos lingüísticos de gran escala y otros modelos a través de retos.

hCaptcha ya es capaz de utilizar técnicas como estas para detectar de forma fiable los modelos lingüísticos de gran escala, y para identificar qué LLMs se está utilizando para producir la respuesta, ya que cada uno tiende a cometer tipos de errores identificables de forma consistente.

Como habrá adivinado, este no es nuestro único método de detección, sino que lo hemos elegido para escribirlo como uno de los enfoques más sencillos de explicar. Esperamos que este ejemplo concreto se parchee pronto debido a la publicación de nuestros resultados, pero la diferencia subyacente que permite la detección es fundamental para estos sistemas.

¡MANTENGÁMONOS EN CONTACTO!

Nos encantaría que estuvieras al día de nuestras últimas noticias y ofertas 😎

Autorizo al Prensario y a los anunciantes a almacenar los datos solicitados y acepto que puedan enviarme comunicaciones de sus productos y servicios. *

¡No hacemos spam! Lee nuestra política de privacidad para obtener más información.

Mostrar más

Publicaciones relacionadas

Botón volver arriba