Akamai perfecciona su IA en el Edge con su nuevo lanzamiento

Akamai, la empresa de ciberseguridad y cloud computing que impulsa y protege las empresas online, presentó Akamai Cloud Inference con el propósito de iniciar una ola de innovación más rápida y eficiente para las organizaciones que buscan convertir los modelos lingüísticos predictivos y de gran tamaño (LLM, del inglés large language models) en acciones reales. Akamai Cloud Inference se ejecuta Akamai Cloud, la plataforma más distribuida del mundo, para abordar las crecientes limitaciones de los modelos de nube centralizados.

‘Conseguir que los datos de la IA estén más cerca de los usuarios y los dispositivos es difícil, y es en este aspecto donde las nubes heredadas tienen dificultades’, afirma Adam Karon, director de Operaciones y director general del Grupo de Tecnología de Nube de Akamai. ‘Mientras que el trabajo más duro del entrenamiento de los LLM seguirá haciéndose en centros de datos de hiperescala grandes, el trabajo práctico de inferencia tendrá lugar en el Edge, donde la plataforma que Akamai ha creado durante las últimas dos décadas se convierte en vital para el futuro de la IA y nos diferencia de cualquier otro proveedor de nube del mercado’.

Inferencia de la IA en Akamai Cloud

La nueva solución de Akamai proporciona herramientas para que los ingenieros y los desarrolladores de plataformas puedan crear y ejecutar aplicaciones y cargas de trabajo de IA que hacen un uso intensivo de datos más cerca de los usuarios finales, lo que proporciona un rendimiento 3 veces mayor al mismo tiempo que reduce la latencia hasta 2,5 veces. Con la solución de Akamai, las empresas pueden ahorrar hasta un 86 % en inferencia de IA y cargas de trabajo de IA con agentes en comparación con la infraestructura hiperescalable tradicional. Akamai Cloud Inference incluye:

Juntas, estas herramientas crean una potente plataforma para aplicaciones basadas en IA de baja latencia que permite a las empresas ofrecer la experiencia que demandan sus usuarios. Akamai Cloud Inference se ejecuta en la plataforma ampliamente distribuida de la empresa, capaz de ofrecer de forma constante más de un petabyte por segundo de rendimiento para cargas de trabajo que hacen un uso intensivo de datos. Compuesta por más de 4200 puntos de presencia en más de 1200 redes distribuidas por más de 130 países en todo el mundo, Akamai Cloud proporciona recursos informáticos disponibles desde la nube hasta el Edge, al mismo tiempo que acelera el rendimiento de las aplicaciones y aumenta la escalabilidad.

El cambio del entrenamiento a la inferencia

A medida que madura la adopción de la IA, las empresas reconocen que la publicidad que rodea a los LLM ha generado una distracción, y ha desviado la atención, alejándola de las soluciones prácticas de IA más adecuadas para resolver problemas empresariales específicos. Los LLM destacan en tareas generales como la creación de resúmenes, la traducción y el servicio de atención al cliente. Se trata de modelos muy grandes que son costosos y requieren mucho tiempo de entrenamiento. Muchas empresas se han visto limitadas por los requisitos de arquitectura y costes, incluidos el centro de datos y la potencia computacional, los sistemas de datos bien estructurados, seguros y escalables, y los desafíos que los requisitos de ubicación y seguridad suponen para la latencia de las decisiones. Los modelos de IA ligeros, diseñados para abordar problemas empresariales específicos, se pueden optimizar para los sectores individuales, pueden utilizar datos propios para crear resultados cuantificables y representan un mejor retorno de la inversión para las empresas actuales.

La inferencia de IA necesita una nube más distribuida

Cada vez más, los datos se generan fuera de los centros de datos centralizados o las regiones de nube. Este cambio está favoreciendo la demanda de soluciones de IA que aprovechen la generación de datos más cerca del punto de origen. Esto redefine fundamentalmente las necesidades de infraestructura a medida que las empresas van más allá de la creación y el entrenamiento de los LLM, y se empiezan a centrar en el uso de los datos para tomar decisiones más rápidas e inteligentes, e invertir en experiencias más personalizadas. Las empresas reconocen que pueden generar más valor al aprovechar la IA para gestionar y mejorar sus operaciones y procesos empresariales. Las arquitecturas distribuidas en la nube y el Edge comienzan a emerger como las preferidas para los casos de uso de inteligencia operativa, ya que pueden proporcionar información procesable en tiempo real en los activos distribuidos, incluso en entornos remotos. Entre los primeros ejemplos de clientes de Akamai Cloud se incluyen la asistencia por voz en el coche, la gestión de cultivos basada en la IA, la optimización de imágenes para mercados de productos de consumo, las experiencias de compra con visualización de prendas virtuales, los generadores automatizados de descripciones de productos y los analizadores de opiniones de clientes.

‘Entrenar un LLM es como crear un mapa que requiere recopilar datos, analizar el terreno y trazar rutas. Es lento y consume muchos recursos, pero una vez creado, es muy útil. La inferencia de la IA es como usar un GPS, aplicar instantáneamente ese conocimiento, recalcular en tiempo real y adaptarse a los cambios para llevarle donde necesita ir’, explicó Karon. ‘La inferencia es la siguiente meta de la IA’.

Salir de la versión móvil