Etiqueta: Agent2Agent

  • Red Hat, Meta y Google colaboran para impulsar la IA open source

    Red Hat, Meta y Google colaboran para impulsar la IA open source

    Red Hat, el proveedor líder mundial de soluciones open source, ha anunciado en su Summit de Boston dos importantes colaboraciones estratégicas con Meta y Google para impulsar el desarrollo y la adopción de la inteligencia artificial generativa en el ámbito empresarial. Estas alianzas buscan fortalecer los ecosistemas abiertos de IA, optimizar la inferencia de modelos y ofrecer soluciones escalables para las empresas.

    Red Hat y Google Cloud: Impulsando la IA empresarial con innovación abierta

    Red Hat y Google Cloud han ampliado su colaboración para acelerar la adopción de IA generativa mediante la combinación de las tecnologías open source de Red Hat y la infraestructura especializada de Google Cloud, incluyendo sus modelos abiertos Gemma.

    Entre las iniciativas clave se encuentra el lanzamiento del proyecto llm-d, con Google como colaborador fundador, para mejorar la escalabilidad y eficiencia en entornos heterogéneos. También se ha habilitado soporte para vLLM en las TPU de Google Cloud y máquinas virtuales con GPU, optimizando la inferencia de IA. Además, se ofrece disponibilidad desde el Día 0 para los modelos Gemma 3 en vLLM.

    La integración del Red Hat AI Inference Server en Google Cloud y la participación de Red Hat en el protocolo Agent2Agent (A2A) de Google, que facilita la comunicación entre agentes de IA en diferentes plataformas, completan esta colaboración.

    ‘A través de esta mayor colaboración, Red Hat y Google Cloud se comprometen a promover innovaciones revolucionarias en IA mediante la combinación de sus conocimientos y plataformas. Incorporar el poder de vLLM y las tecnologías open source de Red Hat a Google Cloud y Gemma de Google brinda a los desarrolladores los recursos necesarios para crear soluciones de IA más precisas y de alto rendimiento, impulsadas por capacidades de inferencia optimizadas’, dijo Brian Stevens, vicepresidente sénior y director de tecnología, IA, Red Hat.

    vLLM, un servidor de inferencia open source, juega un papel central en esta alianza, permitiendo una generación de resultados más rápida y económica en aplicaciones de IA generativa. La integración con las TPU de Google Cloud maximiza el rendimiento y la eficiencia, mientras que el proyecto llm-d busca simplificar la implementación de IA en entornos distribuidos.

    Además, Red Hat AI Inference Server, disponible en Google Cloud, ayuda a las empresas a optimizar la inferencia de modelos en entornos híbridos, combinando la innovación comunitaria con la infraestructura confiable de Google.

    Red Hat y Meta: Avanzando en IA generativa con Llama y vLLM

    En paralelo, Red Hat y Meta han anunciado una colaboración para potenciar la IA generativa empresarial, comenzando con el soporte desde el Día 0 para los modelos Llama 4 en Red Hat AI y el servidor de inferencia vLLM. Ambas compañías también trabajarán en alinear los proyectos comunitarios Llama Stack y vLLM, creando marcos unificados para democratizar el desarrollo de IA.

    ‘Tanto Red Hat como Meta reconocen que el futuro éxito de la IA exige no sólo avances en los modelos, sino también funciones de inferencia que permitan a los usuarios maximizar las capacidades innovadoras de los modelos de próxima generación. Nuestro compromiso conjunto con Llama Stack y vLLM busca hacer realidad la visión de aplicaciones de IA generativa más rápidas, uniformes y de bajo costo, que se ejecuten donde sea necesario en la nube híbrida, independientemente del acelerador o el entorno. Este es el futuro abierto de la IA, que tanto Red Hat como Meta están preparados para afrontar’, dijo Mike Ferris, vicepresidente sénior y director de estrategias, Red Hat.

    Según Gartner, para 2026 más del 80% de los proveedores de software incorporarán IA generativa en sus aplicaciones, lo que subraya la necesidad de bases abiertas e interoperables. La alianza entre Red Hat y Meta aborda este desafío mediante Llama Stack, un conjunto de componentes y API estandarizados desarrollados por Meta para simplificar el ciclo de vida de las aplicaciones de IA generativa.

    vLLM, con soporte desde el Día 0 para Llama 4, mejora la inferencia eficiente de modelos de lenguaje grandes. Red Hat contribuirá activamente a Llama Stack, reforzando su compromiso con la elección del cliente y la flexibilidad en herramientas de IA. Además, la integración de vLLM con PyTorch, respaldado por Meta, consolida su posición como una solución líder para IA generativa empresarial.

    Un futuro abierto para la IA empresarial

    Estas alianzas reflejan el compromiso de Red Hat, Google y Meta con la innovación abierta y la interoperabilidad en IA. Al combinar tecnologías como vLLM, Gemma, Llama y A2A, las empresas podrán implementar soluciones de IA más eficientes, escalables y listas para producción en entornos híbridos y multicloud.

    Con estas colaboraciones, Red Hat consolida su liderazgo en el ecosistema de IA open source, ofreciendo a las organizaciones las herramientas necesarias para innovar en la era de la inteligencia artificial generativa.

  • SAP y Google Cloud impulsan la IA empresarial 

    SAP y Google Cloud impulsan la IA empresarial 

    La IA está cada vez más incorporada en todas partes de las operaciones de negocio, lo que potencia la automatización, la información estratégica y la toma de decisiones en todos los sistemas y flujos de trabajo. Como parte de su asociación continua con Google Cloud, SAP habilitó la próxima ola de IA empresarial contribuyendo con el nuevo protocolo de interoperabilidad Agent2Agent (A2A), que establece una base para que los agentes de IA interactúen y colaboren de forma segura entre plataformas.

    Este trabajo se complementa con dos áreas adicionales de progreso: en primer lugar, la expansión de los modelos de Google Gemini en el hub generativo de IA de SAP en SAP Business Technology Platform (SAP BTP); segundo, el uso de las capacidades de inteligencia vocal y de video de Google para dar soporte a la generación multimodal de recuperación aumentada (RAG) para el aprendizaje basado en videos y el descubrimiento de conocimiento en los productos de SAP.

    Juntos, estos esfuerzos reflejan un compromiso compartido para brindar IA adaptable a cualquier empresa; abierta, flexible y profundamente fundamentada en el contexto de negocio.

    Reunir a los agentes de IA: sentando las bases para la interoperabilidad 

    El futuro del trabajo es agenciado. Las empresas están implementando cada vez más agentes de IA que ayudan con tareas reales —resolviendo problemas de los clientes, gestionando aprobaciones y colaborando en todas las funciones de negocio—. Esta es la razón por la que SAP ofrece una arquitectura de agente colaborativo con Joule para dar soporte a los flujos de trabajo agentic multifuncionales en SAP Business Suite.

    Sin embargo, para que estos agentes brinden valor real, deben ser capaces de colaborar en varias plataformas, intercambiar información de forma segura y coordinar acciones en flujos de trabajo empresariales complejos.

    El protocolo A2A representa un paso significativo más allá de las simples integraciones de API o las herramientas mejoradas: está diseñado para permitir que los agentes de IA trabajen juntos para acelerar los resultados de negocio, reducir la fricción y permitir que las personas se enfoquen en un trabajo más estratégico. También refuerza la visión de SAP para Joule como organizador de agentes que trabaja en todos los flujos de trabajo empresariales: interoperable, proactivo y profundamente conectado con el contexto de negocio.

    Por ejemplo, un agente de Joule puede iniciar un proceso de resolución de disputas y luego contratar a un agente de Google para acceder a los datos de Google BigQuery y recomendar una solución, todo sin necesidad de cambiar de sistema manualmente ni perder contexto.

    Ampliación del acceso a los modelos de Google en el hub de IA generativo

    Más allá de la interoperabilidad de los agentes, SAP está fomentando su compromiso con la apertura y la flexibilidad ampliando el acceso a los modelos de Google en el hub de IA generativo, una capacidad clave de AI Foundation en SAP BTP.

    A través del hub generativo de IA, los clientes obtienen acceso de nivel empresarial a una cartera seleccionada de modelos de fundamentos líderes. Esa cartera ahora incluye Google Gemini 2.0 Flash y Flash-lite, que se unen al soporte existente para los modelos Gemini 1.5 ya disponibles a través del hub.

    Esta opción de modelo ampliada les da a los clientes la flexibilidad de construir y extender soluciones impulsadas por IA utilizando modelos de alto rendimiento y baja latencia optimizados para cargas de trabajo empresariales. Combinando la innovación del modelo de Google con la comprensión profunda de SAP de los procesos empresariales, los usuarios pueden aplicar IA generativa de maneras potentes, prácticas, confiables y totalmente alineadas con las operaciones comerciales.

    Liberar la comprensión multimodal con Google Video Intelligence

    Como parte de la colaboración continua con Google Cloud, SAP también está avanzando en RAG multimodal, una capacidad especialmente útil para el contenido de video de aprendizaje, logrando elevar la forma en que se entrega el conocimiento en toda la empresa.

    Las DAR multimodales mejoran la recuperación y generación de información integrando múltiples modalidades de datos —texto, imágenes, audio y vídeo— en un único proceso estructurado. Este enfoque enriquece el abastecimiento de conocimiento y eleva la manera en que los usuarios interactúan con materiales de capacitación y soporte.

    Para abordar la complejidad de extraer información estratégica significativa del contenido de video, SAP aprovecha Google Video Intelligence para la detección de texto en pantalla en todos los marcos de video, y la API Speech-to-Text de Google para una transcripción precisa del audio hablado. Durante el proceso de indexación, estas salidas se almacenan con las marcas de tiempo correspondientes, creando una base estructurada para recuperar segmentos de vídeo relevantes con precisión.

    Al conectar el contenido visual y de audio con metadatos alineados en el tiempo, SAP permite a los usuarios buscar y recuperar momentos específicos y contextualmente relevantes dentro de un video, lo que hace que la experiencia de aprendizaje sea más intuitiva, accesible e impactante.

    ‘A medida que la IA agéntica evoluciona, el manejo sin fisuras de los datos multimodales —texto, voz, videos empresariales e imágenes— se vuelve primordial’, sostiene Miku Jha, director de AI/ML e IA generativa en Google Cloud. ‘Esto plantea importantes desafíos para la interoperabilidad de los agentes. Por lo tanto, es indispensable un protocolo abierto como A2A, que proporcione el marco y la flexibilidad necesarios para que los agentes se comuniquen y colaboren eficazmente a través de estas diversas modalidades. La multimodalidad no es simplemente una capacidad; es un requisito fundacional que impulsa la próxima generación de sistemas agénticos interconectados’.

    Visión compartida para IA de negocio

    Estos esfuerzos son un reflejo de la alineación estratégica más amplia entre SAP y Google Cloud: una convicción compartida en que la IA debe ser abierta, componible y basada en el contexto de negocio real. Ya sea dando forma a los estándares emergentes para la colaboración con agentes, ofreciendo opciones a través de los mejores modelos de su clase o haciendo que el contenido no estructurado sea accionable, el objetivo es ayudar a las empresas a innovar con confianza, ahora y en el futuro.