Etiqueta: RAG

  • Red Hat impulsa la innovación en IA empresarial

    En el marco del Red Hat Summit 2025 celebrado en Boston, Red Hat presentó un conjunto de avances significativos en su portafolio de inteligencia artificial diseñados para acelerar y simplificar las implementaciones de IA generativa en entornos empresariales. Estas innovaciones refuerzan el compromiso de la compañía con una IA abierta, flexible y escalable, capaz de funcionar en cualquier modelo o nube.

    El anuncio más destacado es el lanzamiento del Red Hat AI Inference Server, una solución revolucionaria que proporciona inferencia más veloz, uniforme y de bajo costo a gran escala en entornos de nube híbrida. Este servidor de inferencia, disponible tanto como solución autónoma como integrado en Red Hat OpenShift AI y Red Hat Enterprise Linux AI (RHEL AI), está diseñado para ofrecer mayor eficiencia, flexibilidad y rendimiento en la implementación de aplicaciones inteligentes.

    ‘Una inferencia más rápida y eficiente se perfila como el nuevo punto de decisión para la innovación en IA generativa. Red Hat AI, con capacidades de inferencia optimizadas a través de Red Hat AI Inference Server y una nueva colección de modelos de terceros validados, ayuda a las empresas a implementar aplicaciones inteligentes donde las necesiten, en la forma en que las necesiten y con los componentes que mejor se adapten a sus requerimientos específicos’, dijo Joe Fernandes, vicepresidente y gerente general, Unidad de Negocio IA, Red Hat.

    Complementando esta solución, Red Hat ha ampliado su colección de modelos validados disponibles en Hugging Face. Estos modelos, que incluyen algunas de las arquitecturas más avanzadas del mercado, han sido optimizados mediante técnicas de compresión que reducen su tamaño y aumentan la velocidad de inferencia, ayudando a minimizar el consumo de recursos y los costos operativos. Además, la compañía proporciona guías de implementación detalladas para garantizar resultados consistentes y un proceso continuo de validación que mantiene a los clientes a la vanguardia de la innovación en IA generativa.

    Un aspecto clave de estos anuncios es la integración de tecnologías líderes como Llama Stack, desarrollado inicialmente por Meta, y el Protocolo de Contexto de Modelo (MCP) de Anthropic. Estas integraciones proporcionan API estandarizadas para la creación e implementación de aplicaciones y agentes de IA, ofreciendo una interfaz unificada para acceder a funcionalidades avanzadas como inferencia con vLLM, generación aumentada por recuperación (RAG), evaluación de modelos y barreras de seguridad.

    La última versión de Red Hat OpenShift AI (v2.20) incorpora importantes mejoras para la creación, entrenamiento, implementación y monitoreo de modelos a gran escala. Entre estas destacan un catálogo de modelos optimizados que facilita el acceso e implementación de modelos validados, capacidades de entrenamiento distribuido a través del Operador de Entrenamiento de KubeFlow, y una Tienda de Características basada en el proyecto Kubeflow Feast que centraliza la gestión de datos para entrenamiento e inferencia.

    En paralelo, Red Hat Enterprise Linux AI 1.5 introduce nuevas capacidades como soporte multilingüe optimizado para español, alemán, francés e italiano a través de InstructLab, y disponibilidad en Google Cloud Marketplace, ampliando así las opciones de implementación en nube pública junto con AWS y Azure. El servicio Red Hat AI InstructLab en IBM Cloud alcanza disponibilidad general, ofreciendo mayor escalabilidad y facilidad para la personalización de modelos con datos propios.

    La visión de Red Hat apunta a un futuro donde las organizaciones puedan implementar cualquier modelo, en cualquier acelerador y en cualquier nube, sin sacrificar rendimiento ni control. Este enfoque abierto y estandarizado pretende eliminar los silos de infraestructura que actualmente limitan el potencial de la IA generativa, ofreciendo una plataforma de inferencia universal que acelere la innovación tanto hoy como en el futuro.

    Los asistentes al Red Hat Summit pueden profundizar en estas novedades a través de sesiones clave como Infraestructura moderna alineada a la IA empresarial y La nube híbrida evoluciona para brindar innovación empresarial, donde ejecutivos, clientes y partners de Red Hat compartirán casos de uso y perspectivas sobre el futuro de la IA en la empresa.

    1 Fuente: “Navigate The Open-Source AI Ecosystem In The Cloud”, Forrester Research, Inc., febrero de 2025

  • IBM acelera la revolución de la IA Generativa empresarial

    IBM acelera la revolución de la IA Generativa empresarial

    Durante el THINK, el evento anual de la compañía, IBM presenta nuevas tecnologías híbridas que rompen las barreras de larga data para escalar la IA empresarial, permitiendo a las empresas crear e implementar agentes de IA con sus propios datos empresariales. IBM estima que para 2028 surgirán más de mil millones de aplicaciones, lo que presionará a las empresas a escalar en entornos cada vez más fragmentados. Esto requiere una integración perfecta, orquestación y preparación de datos.

    IBM está combinando tecnologías híbridas, capacidades de agentes y una profunda experiencia en la industria de IBM Consulting para ayudar a las empresas a operacionalizar la IA.

    ‘La era de la experimentación con IA ha terminado. Hoy, la ventaja competitiva viene de una integración de la IA que está diseñada específicamente para impulsar resultados medibles para el negocio’, afirmó Arvind Krishna, presidente y CEO de IBM. ‘IBM está dotando a las empresas de tecnologías híbridas que simplifican la complejidad y aceleran las implementaciones de IA listas para la producción’.

    Cree agentes de IA en watsonx Orchestrate que funcionan con más de 80 aplicaciones líderes de negocio

    Los agentes de IA están pasando de ser una IA que habla con las personas a sistemas que trabajan para las personas, aun así, muchas empresas tendrán dificultades para integrarlos en diversos entornos, aplicaciones y datos. IBM ofrece un conjunto integral de capacidades de agentes listas para las empresas en watsonx Orchestrate para ayudarles a ponerlos en práctica. El portafolio permite:

    • Crear agentes propios en menos de cinco minutos, con herramientas que facilitan la integración, personalización e implementación de agentes creados en cualquier framework, desde un generador de agentes (sin código) para usuarios no técnicos hasta herramientas avanzadas de código[1].
    • Agentes especializados prediseñados en áreas como Recursos Humanos, ventas y compras, con agentes de utilidad para acciones más sencillas, como la investigación en la web y cálculos[2].
    • Integración con más de 80 aplicaciones empresariales líderes de proveedores como Adobe, AWS, Microsoft, Oracle, Salesforce Agentforce, SAP, ServiceNow y Workday.
    • Orquestación de agentes para gestionar múltiples agentes y coordinar las herramientas necesarias para abordar proyectos complejos.
    • Observabilidad de los agentes para monitorear el desempeño, la seguridad, la optimización de los modelos y su gobernanza en todo el ciclo de vida de los agentes [3].

    IBM también está presentando el nuevo Catálogo de agentes en watsonx Orchestrate[4] para simplificar el acceso a +150 agentes y herramientas prediseñadas, de IBM como de su amplio ecosistema de socios, que incluye a Box, MasterCard, Oracle, Salesforce, ServiceNow, Symplistic.ai, 11x y más.

    El TEI de Forrester proyecta un ROI del 176% en 3 años automatizando la integración

    IBM presenta webMethods Hybrid Integration[5], una solución que reemplaza los flujos de trabajo rígidos con automatización inteligente e impulsada por agentes. Un estudio sobre el Impacto Económico Total (TEI) de Forrester Consulting concluyó que una organización que adoptó múltiples capacidades de integración de webMethods en un período de tres años logró[6] un ROI del 176%, una reducción del 40% en el tiempo de inactividad, 67% de ahorros de tiempo en proyectos sencillos, entre otras cosas.

    Desbloqueando los datos no estructurados para IA generativa

    Los datos no estructurados -enterrados en contratos, hojas de cálculo y presentaciones- son uno de los recursos más valiosos pero subutilizados de las empresas. IBM está evolucionando watsonx.data para ayudar a las organizaciones a activar estos datos para impulsar una IA más precisa y efectiva[7], mientras unifican, gobiernan y activan sus datos en silos, formatos y nubes. Las organizaciones podrán conectar sus apps y agentes de IA con sus datos no estructurados usando watsonx.data, cuyas pruebas muestran que puede generar una IA un 40% más precisa que la RAG convencional[8].

    IBM también presenta watsonx.data Integration y watsonx.data Intelligence, que utiliza tecnología impulsada por IA para extraer información detallada de datos no estructurados[9].

    La nueva capacidad de almacenamiento consciente del contenido (CAS) de IBM está disponible como servicio en IBM Fusion. CAS permite un procesamiento contextual continuo de datos no estructurados para que la información extraída esté fácilmente disponible para las aplicaciones RAG más rápido.

    Infraestructura para la escala de IA

    IBM está lanzando el IBM LinuxONE 5, la plataforma Linux más segura y de mayor rendimiento hasta la fecha para datos, aplicaciones e IA confiable, con la capacidad de procesar hasta 450 mil millones de operaciones de inferencia de IA por día[10]. Las innovaciones de IBM LinuxONE 5 incluyen:

    • Aceleradores de IA de IBM de última generación, como el procesador de IA en chip, IBM Telum II, y la tarjeta aceleradora IBM Spyre para habilitar aplicaciones de IA generativa y de alto volumen
    • Ofertas de seguridad avanzadas con contenedores confidenciales para ayudar a los clientes a proteger sus datos e integraciones con cifrado resistente a computación cuántica.
    • Reducciones significativas en costos y consumo de energía, migrar cargas de trabajo nativas de la nube en contenedores desde una solución x86 a un IBM LinuxONE 5 que ejecuta los mismos productos de software puede ahorrar hasta un 44% en el costo total de propiedad en 5 años[11].

    IBM también está ampliando sus alianzas alrededor de las GPUs y colaboraciones en almacenamiento con AMD, CoreWeave, Intel y NVIDIA para proporcionar nuevas soluciones para cargas de trabajo con uso intensivo de recursos informáticos y datos mejorados con IA.


    [1] La disponibilidad para las capacidades de creación de agentes está prevista para junio de 2025

    [2] El agente de Recursos Humanos  ya está disponible. La disponibilidad para agentes de ventas y compras está prevista para junio de 2025.

    [3] La disponibilidad para las capacidades de observabilidad de agentes está prevista para junio de 2025

    [4] La disponibilidad para el catálogo de agentes está prevista para junio de 2025

    [5] La disponibilidad para la integración híbrida de webMethods está prevista para junio de 2025

    [6] Forrester Consulting, The Total Economic Impact™ of IBM webMethods, estudio encargado por Forrester Consulting en nombre de IBM, 2024

    [7] La disponibilidad para el nuevo watsonx.data está prevista para junio de 2025

    [8] Basado en pruebas internas de IBM que comparan la exactitud de las respuestas de los outputs del modelo de IA utilizando la capa de recuperación watsonx.data Premium Edition con RAG solo vectorial en tres casos de uso comunes con datasets propietarios de IBM, usando el mismo conjunto de modelos de inferencia, evaluación e incrustación de productos de código abierto seleccionados y variables adicionales. Los resultados pueden variar.

    [9] La disponibilidad para watsonx.integration y watsonx.data intelligence está prevista para junio de 2025.

    [10] El resultado del desempeño se extrapoló a partir de pruebas internas de IBM realizadas en sistemas de hardware de IBM, tipo de máquina 9175. El benchmark se ejecutó con un subproceso que realizaba operaciones de inferencia local utilizando un modelo sintético de detección de fraudes con tarjetas de crédito basado en LSTM para aprovechar el acelerador integrado para IA. Se utilizó un tamaño de lote de 160. Configuración de hardware de sistemas IBM: 1 LPAR con Red Hat® Enterprise Linux® 9.4, 6 núcleos (SMT) y 128 GB de memoria. Los resultados pueden variar.

    [11] Las pruebas de rendimiento internas de IBM® para el estudio de consolidación de núcleos se centraron en la comparación de los siguientes servidores: sistema IBM de tipo de máquina 9175 MAX 136, compuesto por tres cajones CPC con 136 unidades de procesador configurables y seis cajones de I/O para soportar el almacenamiento de red y externo. La solución x86 utilizó un servidor empresarial disponible comercialmente con dos procesadores Intel® Xeon® Platinum 8592+ de 5.ª generación, con 64 núcleos por CPU. Ambas soluciones tenían acceso al mismo almacenamiento. Los resultados pueden variar. Los resultados de las pruebas se extrapolaron a una solución de TI típica y completa para el cliente, que incluye entornos de TI de producción y no producción aislados entre sí. El coste total de propiedad (TCO) incluyó los costes de software, hardware, energía, red, espacio en el centro de datos y mano de obra. En el caso del IBM z17, la solución completa requiere un IBM z17 Tipo 9175 MAX 136, y en el caso del x86, la solución completa requiere 23 servidores.

  • Red Hat potencia la IA empresarial en la nube híbrida

    Red Hat potencia la IA empresarial en la nube híbrida

    Red Hat, Inc., el proveedor líder mundial de soluciones open source, anunció las últimas actualizaciones de Red Hat AI, su portafolio de productos y servicios diseñados para acelerar el desarrollo y la implementación de soluciones de IA en la nube híbrida. Red Hat AI es una plataforma de IA empresarial para el entrenamiento y la inferencia de modelos que ofrece una experiencia simplificada, mayor eficiencia y flexibilidad para realizar implementaciones en cualquier lugar de la nube híbrida.

    Si bien las empresas están buscando formas de reducir los costos de implementar modelos de lenguaje de gran tamaño (LLM) a gran escala para atender una cantidad de casos de uso cada vez mayor, siguen lidiando con el desafío de integrar esos modelos con sus propios datos, que son los que generan esos casos de uso, y de poder acceder a ellos donde sea que se encuentren, ya sea en un centro de datos, en nubes públicas o incluso en el edge.

    Red Hat AI, que abarca tanto Red Hat OpenShift AI como Red Hat Enterprise Linux AI (RHEL AI), responde a estas inquietudes por medio de una plataforma de IA empresarial que permite a los usuarios adoptar modelos más eficientes y optimizados en función de datos específicos del negocio, que luego se pueden implementar en una amplia gama de arquitecturas de computación acelerada en toda la nube híbrida, tanto para entrenamiento como para inferencia.

    Red Hat OpenShift AI

    Red Hat OpenShift AI ofrece una plataforma de IA completa para gestionar ciclos de vida de la IA predictiva y generativa en toda la nube híbrida e incluye capacidades de operaciones de aprendizaje automático (MLOps) y de operaciones de modelos de lenguaje de gran tamaño (LLMOps). La plataforma proporciona la funcionalidad necesaria para crear modelos predictivos y ajustar modelos de IA generativa, además de herramientas que simplifican la gestión de modelos de IA, desde la ciencia de datos y los pipelines de modelos, hasta el monitoreo y el gobierno de modelos, entre muchos otros.

    Red Hat OpenShift AI 2.18, la última versión de la plataforma suma nuevas actualizaciones y capacidades que promueven el objetivo de Red Hat AI de incorporar modelos de IA mejor optimizados y más eficientes a la nube híbrida. Las características principales incluyen:

    • Servicio distribuido. El servicio distribuido, que opera a través del servidor de inferencia vLLM, permite al área de TI dividir el servicio de modelos entre múltiples unidades de procesamiento gráfico (GPU). Esto ayuda a reducir la carga en cualquier servidor, acelera el entrenamiento y el ajuste y permite un uso más eficiente de los recursos informáticos, al mismo tiempo que facilita la distribución de servicios entre nodos para modelos de IA.
    • Una experiencia de ajuste de modelos integral. Esta nueva característica, que hace uso de los procesos de ciencia de datos de InstructLab y OpenShift AI, ayuda a simplificar el ajuste de los LLM, los hace más escalables, eficientes y auditables en grandes entornos de producción y, al mismo tiempo, facilita la gestión a través del panel de Red Hat OpenShift AI.
    • AI Guardrails. Red Hat OpenShift AI 2.18 ayuda a mejorar la precisión, el rendimiento, la latencia y la transparencia de los LLM mediante la revisión tecnológica de AI Guardrails para monitorear y proteger mejor tanto las interacciones con los datos ingresados por el usuario como los resultados del modelo. AI Guardrails ofrece puntos de detección adicionales que ayudan a los equipos de TI a identificar y mitigar discursos potencialmente ofensivos, abusivos o profanos, la información de identificación personal, la información de la competencia u otros datos restringidos por las políticas corporativas.
    • Evaluación de modelos. La evaluación de modelos utiliza el componente de evaluación de modelo de lenguaje (lm-eval) para aportar información importante sobre la calidad general de los modelos. Esto permite a los científicos de datos comparar el desempeño de sus LLM en diversas tareas, que van desde el razonamiento lógico y matemático hasta el lenguaje adversarial natural, entre muchas otras, lo que en última instancia ayuda a crear modelos de IA más efectivos, adaptativos y personalizados.

    RHEL AI

    RHEL AI forma parte del portfolio de Red Hat AI. Es una plataforma de modelos base para desarrollar, probar y ejecutar LLM de manera más uniforme con el fin de potenciar aplicaciones empresariales. RHEL AI ofrece a los clientes herramientas de alineación de modelos de LLM Granite e InstructLab empaquetadas como una imagen de servidor de Red Hat Enterprise Linux de inicio, que se pueden implementar en la nube híbrida.

    Desde su lanzamiento en febrero de 2025, RHEL 1.4 ha incorporado varias mejoras, entre ellas:

    • Soporte para el modelo Granite 3.1 8B, para la última incorporación a la familia de modelos Granite con licencia open source. Este modelo añade soporte multilingüe para la inferencia y la personalización de taxonomías/conocimientos (versión preliminar para desarrolladores) junto con una ventana de contexto de 128k para mejorar los resultados del proceso de resumen y las tareas de generación aumentada de recuperación (RAG).
    • Una nueva interfaz gráfica de usuario para el aporte de habilidades y conocimientos, disponible como versión preliminar para desarrolladores, para simplificar la introducción y la fragmentación de datos, así como la forma en que los usuarios incorporan sus propias habilidades y aportes a un modelo de IA.
    • Document Knowledge-bench (DK-bench), para facilitar la comparación entre los modelos de IA ajustados en función de datos privados relevantes y el rendimiento de los mismos modelos base no ajustados.

    Red Hat AI InstructLab en IBM Cloud

    Cada vez son más las empresas que buscan soluciones de IA que prioricen la precisión y la seguridad de los datos y a la vez minimicen los costos y la complejidad. La implementación de Red Hat AI InstructLab como servicio en IBM Cloud tiene por objeto simplificar, escalar y ayudar a reforzar la seguridad en el entrenamiento y la implementación de modelos de IA. Al simplificar el ajuste de modelos de InstructLab, las empresas pueden construir modelos más eficientes adaptados a sus necesidades particulares sin perder el control de sus datos.

    Capacitación gratuita en los fundamentos de la IA para clientes de Red Hat

    La IA es una oportunidad transformadora que está redefiniendo la forma en que las empresas operan y compiten. Para apoyar a las empresas en este escenario tan dinámico, Red Hat ofrece a sus clientes cursos de capacitación en línea gratuitos sobre los fundamentos de la IA. Red Hat ofrece dos vías de certificación en el aprendizaje de la IA, adaptadas tanto a líderes sénior avezados como a principiantes. Estas rutas enseñan a los usuarios de todos los niveles cómo la IA puede encaminar las operaciones empresariales, optimizar la toma de decisiones e impulsar la innovación, así como a aplicar este conocimiento al utilizar las soluciones de IA de Red Hat.

    Disponibilidad

    Red Hat OpenShift AI 2.18 y Red Hat Enterprise Linux AI 1.4 ya tienen disponibilidad general. Encontrará más información sobre funciones adicionales, mejoras, correcciones de errores y cómo actualizarse a la última versión de Red Hat OpenShift AI aquí y la última versión de RHEL AIaquí.

    Red Hat AI InstructLab en IBM Cloud estará disponible en la primavera.

    La capacitación sobre los fundamentos de la IA de Red Hat ya está disponible para los clientes.

    Citas de apoyo

    Joe Fernandes, vicepresidente y gerente general, Unidad de Negocio IA, Red Hat.

    Red Hat es consciente de que, a medida que las empresas lleven más casos de uso a producción y los ejecuten a gran escala, necesitarán contar con alternativas para gestionar el creciente costo de sus implementaciones de IA generativa. También deben resolver el desafío de integrar modelos de IA con datos empresariales propios y poder implementar estos modelos dondequiera que se encuentren los datos. Red Hat AI ayuda a las empresas a responder a estos desafíos al permitirles sacar provecho de modelos más eficientes, diseñados para casos específicos y entrenados con sus propios datos, y facilitar una inferencia flexible en entornos locales, en la nube y en el edge’.

    Régis Lesbarreres, director de analítica avanzada e innovación en IA, innovación digital, Airbus Helicopters

    ‘Al inicio de su experiencia con IA, Airbus Helicopters buscaba integrar la IA en su actual arquitectura, reducir la shadow IT, reunir a sus científicos de datos en una única plataforma de IA y optimizar los costos a gran escala. Gracias a Red Hat OpenShift AI, hemos logrado todos estos objetivos, lo que nos llevó a nuestro primer caso de uso empresarial de IA. La visión de Red Hat para la IA coincide con nuestros objetivos empresariales y nos permite alcanzarlos mientras mantenemos la flexibilidad, la accesibilidad y la transparencia’.

    Javier Olaizola Casin, socio director global de nube híbrida y datos, IBM Consulting.

    ‘Las empresas aplican cada vez más la IA para transformar sus procesos de negocio principales y necesitan soluciones de IA flexibles, rentables y optimizadas con datos empresariales fiables para satisfacer sus necesidades específicas. Red Hat AI ofrece la consistencia, la fiabilidad y la velocidad que las organizaciones necesitan para crear e implementar modelos y aplicaciones de IA en escenarios de nube híbrida. Al combinar la experiencia en el dominio, la tecnología y el sector de IBM Consulting con las tecnologías de IA de Red Hat, ayudamos a nuestros clientes a optimizar el retorno de la inversión (ROI) de sus inversiones tecnológicas’.

    Torsten Volks, analista principal, modernización de aplicaciones, ESG.

    ‘Las empresas líderes aprovechan la toma de decisiones basada en los datos e impulsada por IA en todos los equipos y unidades de negocio. Es por ello que, para tener éxito, es indispensable poder desarrollar, implementar, integrar, escalar y gestionar capacidades basadas en IA de manera rápida y a bajo costo en toda la empresa. Generar esta capacidad requiere contar con una base de IA abierta y ampliable que garantice una integración fluida con los sistemas y procesos existentes, operaciones ágiles y una gestión permanente. El éxito continuo del negocio depende de poder facilitar que el personal y los clientes aprovechen las capacidades de IA de manera más rápida e integral’.

    Anand Swamy, vicepresidente ejecutivo y director global de ecosistemas de HCLTech.

    ‘Para aprovechar al máximo el potencial de la IA generativa, las organizaciones deben priorizar una infraestructura ágil y flexible. Al combinar las capacidades de Red Hat AI, que abarcan RHEL AI y Red Hat OpenShift AI, para ofrecer una plataforma integral de aplicaciones de IA, con la experiencia líder en IA de HCLTech y los servicios de infraestructura cognitiva, parte de la solución HCLTech AI Foundry, los clientes obtienen una ruta simplificada para impulsar la innovación en IA, ayudándoles a superar desafíos comunes como la seguridad de los datos, el escalado de las cargas de trabajo de IA y la minimización de los costos de infraestructura’.

  • SAP y Google Cloud impulsan la IA empresarial 

    SAP y Google Cloud impulsan la IA empresarial 

    La IA está cada vez más incorporada en todas partes de las operaciones de negocio, lo que potencia la automatización, la información estratégica y la toma de decisiones en todos los sistemas y flujos de trabajo. Como parte de su asociación continua con Google Cloud, SAP habilitó la próxima ola de IA empresarial contribuyendo con el nuevo protocolo de interoperabilidad Agent2Agent (A2A), que establece una base para que los agentes de IA interactúen y colaboren de forma segura entre plataformas.

    Este trabajo se complementa con dos áreas adicionales de progreso: en primer lugar, la expansión de los modelos de Google Gemini en el hub generativo de IA de SAP en SAP Business Technology Platform (SAP BTP); segundo, el uso de las capacidades de inteligencia vocal y de video de Google para dar soporte a la generación multimodal de recuperación aumentada (RAG) para el aprendizaje basado en videos y el descubrimiento de conocimiento en los productos de SAP.

    Juntos, estos esfuerzos reflejan un compromiso compartido para brindar IA adaptable a cualquier empresa; abierta, flexible y profundamente fundamentada en el contexto de negocio.

    Reunir a los agentes de IA: sentando las bases para la interoperabilidad 

    El futuro del trabajo es agenciado. Las empresas están implementando cada vez más agentes de IA que ayudan con tareas reales —resolviendo problemas de los clientes, gestionando aprobaciones y colaborando en todas las funciones de negocio—. Esta es la razón por la que SAP ofrece una arquitectura de agente colaborativo con Joule para dar soporte a los flujos de trabajo agentic multifuncionales en SAP Business Suite.

    Sin embargo, para que estos agentes brinden valor real, deben ser capaces de colaborar en varias plataformas, intercambiar información de forma segura y coordinar acciones en flujos de trabajo empresariales complejos.

    El protocolo A2A representa un paso significativo más allá de las simples integraciones de API o las herramientas mejoradas: está diseñado para permitir que los agentes de IA trabajen juntos para acelerar los resultados de negocio, reducir la fricción y permitir que las personas se enfoquen en un trabajo más estratégico. También refuerza la visión de SAP para Joule como organizador de agentes que trabaja en todos los flujos de trabajo empresariales: interoperable, proactivo y profundamente conectado con el contexto de negocio.

    Por ejemplo, un agente de Joule puede iniciar un proceso de resolución de disputas y luego contratar a un agente de Google para acceder a los datos de Google BigQuery y recomendar una solución, todo sin necesidad de cambiar de sistema manualmente ni perder contexto.

    Ampliación del acceso a los modelos de Google en el hub de IA generativo

    Más allá de la interoperabilidad de los agentes, SAP está fomentando su compromiso con la apertura y la flexibilidad ampliando el acceso a los modelos de Google en el hub de IA generativo, una capacidad clave de AI Foundation en SAP BTP.

    A través del hub generativo de IA, los clientes obtienen acceso de nivel empresarial a una cartera seleccionada de modelos de fundamentos líderes. Esa cartera ahora incluye Google Gemini 2.0 Flash y Flash-lite, que se unen al soporte existente para los modelos Gemini 1.5 ya disponibles a través del hub.

    Esta opción de modelo ampliada les da a los clientes la flexibilidad de construir y extender soluciones impulsadas por IA utilizando modelos de alto rendimiento y baja latencia optimizados para cargas de trabajo empresariales. Combinando la innovación del modelo de Google con la comprensión profunda de SAP de los procesos empresariales, los usuarios pueden aplicar IA generativa de maneras potentes, prácticas, confiables y totalmente alineadas con las operaciones comerciales.

    Liberar la comprensión multimodal con Google Video Intelligence

    Como parte de la colaboración continua con Google Cloud, SAP también está avanzando en RAG multimodal, una capacidad especialmente útil para el contenido de video de aprendizaje, logrando elevar la forma en que se entrega el conocimiento en toda la empresa.

    Las DAR multimodales mejoran la recuperación y generación de información integrando múltiples modalidades de datos —texto, imágenes, audio y vídeo— en un único proceso estructurado. Este enfoque enriquece el abastecimiento de conocimiento y eleva la manera en que los usuarios interactúan con materiales de capacitación y soporte.

    Para abordar la complejidad de extraer información estratégica significativa del contenido de video, SAP aprovecha Google Video Intelligence para la detección de texto en pantalla en todos los marcos de video, y la API Speech-to-Text de Google para una transcripción precisa del audio hablado. Durante el proceso de indexación, estas salidas se almacenan con las marcas de tiempo correspondientes, creando una base estructurada para recuperar segmentos de vídeo relevantes con precisión.

    Al conectar el contenido visual y de audio con metadatos alineados en el tiempo, SAP permite a los usuarios buscar y recuperar momentos específicos y contextualmente relevantes dentro de un video, lo que hace que la experiencia de aprendizaje sea más intuitiva, accesible e impactante.

    ‘A medida que la IA agéntica evoluciona, el manejo sin fisuras de los datos multimodales —texto, voz, videos empresariales e imágenes— se vuelve primordial’, sostiene Miku Jha, director de AI/ML e IA generativa en Google Cloud. ‘Esto plantea importantes desafíos para la interoperabilidad de los agentes. Por lo tanto, es indispensable un protocolo abierto como A2A, que proporcione el marco y la flexibilidad necesarios para que los agentes se comuniquen y colaboren eficazmente a través de estas diversas modalidades. La multimodalidad no es simplemente una capacidad; es un requisito fundacional que impulsa la próxima generación de sistemas agénticos interconectados’.

    Visión compartida para IA de negocio

    Estos esfuerzos son un reflejo de la alineación estratégica más amplia entre SAP y Google Cloud: una convicción compartida en que la IA debe ser abierta, componible y basada en el contexto de negocio real. Ya sea dando forma a los estándares emergentes para la colaboración con agentes, ofreciendo opciones a través de los mejores modelos de su clase o haciendo que el contenido no estructurado sea accionable, el objetivo es ayudar a las empresas a innovar con confianza, ahora y en el futuro.

  • 7Puentes lanza un chatbot innovador para la industria petrolera

    7Puentes lanza un chatbot innovador para la industria petrolera

    7Puentes, empresa argentina con 17 años de experiencia enfocada en el desarrollo de soluciones basadas en Inteligencia Artificial y Machine Learning, anuncia el lanzamiento de Chat with Your Data, una solución de inteligencia artificial que permite interactuar de manera efectiva con los datos de la organización, a través de un chatbot, y obtener grandes beneficios, como una mayor aceleración en la toma de decisiones.

    Chat with your data utiliza un sistema multiagente, es decir que diferentes ‘agentes’ están especializados en distintas tareas. Cada agente está diseñado para procesar y responder preguntas específicas, asegurando así información precisa y relevante en tiempo real según la necesidad del usuario. 

    1. Chat with your documents: este agente utiliza la tecnología Retrieval-Augmented Generation (RAG) para extraer y proporcionar respuestas precisas basadas en los documentos cargados por la empresa.
    2. Chat with your signals: las plantas industriales generan una gran cantidad de datos a través de sensores. Este agente permite consultar información en tiempo real sobre distintas señales monitoreadas en la empresa e incluso sobre la producción de pozos de petróleo.
    3. Chat with your catalog: dentro de nuestra plataforma se encuentra definida la información de la compañía en una base de datos. Este agente es capaz de generar consultas SQL dinámicas para obtener respuestas de manera automática.
    4. ‘Hoy en día, las organizaciones de todo tipo, y especialmente en el sector de Oil & Gas, suelen tener muchos sistemas de procesamiento de información, y en muchos casos, la información está muy fragmentada entre estos mismos sistemas, lo que dificulta realizar consultas rápidas en diferentes fuentes de texto. Esto suele ser una consecuencia natural de la organización de la industria y de los proveedores del software específico’, reflexionó Charly Lizarralde, CEO de 7Puentes.

    Al mismo tiempo, existe una necesidad específica de preservar el conocimiento experto en formato digital para las siguientes generaciones de profesionales o de recuperar información técnica de alto valor para la empresa. Esto ocurre especialmente cuando la empresa tiene una alta rotación de expertos (es un hecho que las nueve generaciones de expertos no permanecen más de cinco años en la misma empresa) o cuando uno de los principales expertos se jubila.

    Al poder interactuar directamente con información precisa del negocio a través de documentos livianos y editables, Chat with Your Data es capaz de proporcionar las respuestas necesarias en cuestión de segundos, acelerando la toma de decisiones.

    ‘Donde un humano tomaría días para leer muchos textos, un modelo multi-agente lo hace en pocos minutos o segundos’, concluyó Lizarralde.

  • IBM presenta Granite 3.0: IA de alto rendimiento empresarial

    La empresa tecnológica ha anunciado hoy, en su evento TechXchange, el lanzamiento de su familia de modelos de IA más avanzada hasta la fecha. Esta tercera generación de modelos de lenguaje (LLM) puede superar o igualar el rendimiento de modelos de tamaño similar de proveedores líderes en muchas pruebas de referencia académicas y del sector, demostrando un sólido rendimiento, transparencia y seguridad.

    En línea con el compromiso de la compañía con la IA de código abierto, los modelos Granite se publican bajo la licencia permisiva Apache 2.0, lo que los hace únicos por la combinación de rendimiento, flexibilidad y autonomía para los clientes empresariales y la comunidad en general. 

    La familia Granite 3.0 de IBM incluye:

    • Propósito general/Lenguaje: Granite 3.0 8B-Instruct, Granite 3.0 2B-Instruct, Granite 3.0 8B Base, Granite 3.0 2B Base.
    • Barreras de protección y seguridad: Granite Guardian 3.0 8B, Granite Guardian 3.0 2B
    • Mixture of Experts (MoE): Granite 3.0 3B A800M Instruct, Granite 3.0 1B A400M Instruct, Granite 3.0 3B A800M Base, Granite 3.0 1B A400M Base

    Los nuevos modelos de lenguaje Granite 3.0 8B y 2B están diseñados como caballos de batalla para la IA empresarial, ofreciendo un gran rendimiento y rentabilidad en tareas como la regeneración aumentada de recuperación (RAG), clasificación, resumen, extracción de entidades y uso de herramientas. Estos modelos compactos y versátiles están diseñados para ajustarse con precisión a los datos empresariales e integrarse a la perfección en cualquier entorno empresarial o flujo de trabajo.

    El lanzamiento de Granite 3.0 reafirma el compromiso de IBM con la creación de transparencia, la seguridad y la confianza en los productos de IA. Como punto fundamental, la empresa ofrece una indemnización de propiedad intelectual (IP) para todos los modelos Granite en Watsonx.ai, lo que permite a los clientes empresariales tener mayor confianza al combinar sus datos con estos modelos. 

    Subiendo la barra: Pruebas de Granite 3.0

    En las tareas empresariales básicas de RAG, uso de herramientas y tareas en el ámbito de la ciberseguridad, el modelo Granite 3.0 8B Instruct muestra un rendimiento superior de media en comparación con los modelos de código abierto de tamaño similar de Mistral y Meta.

    Los modelos Granite 3.0 se han estrenado con más de 12 billones de tokens de datos a partir de 12 lenguajes naturales y 116 lenguajes de programación diferentes, utilizando un novedoso método de entrenamiento en dos fases, que aprovecha los resultados de varios miles de experimentos diseñados para optimizar la calidad y la selección de datos y los parámetros de entrenamiento. Para finales de año, se espera que los modelos lingüísticos 8B y 2B también incluyan soporte para una ventana de contexto extendida de 128K y capacidades de comprensión multimodal de documentos.

    Presentando Granite Guardian 3.0: la nueva era de la IA responsable

    Como parte de este lanzamiento, IBM también ha presentado una nueva familia de modelos Granite Guardian que permiten a los desarrolladores de aplicaciones implementar barreras de seguridad mediante la comprobación de los avisos al usuario y las respuestas LLM para detectar una variedad de riesgos. Los modelos Granite 3.0 8B y 2B ofrecen el conjunto más completo de capacidades de detección de riesgos y daños disponibles actualmente en el mercado.

    Además de las dimensiones de daño, como prejuicios sociales, odio, toxicidad, blasfemia, violencia, técnicas de jailbreak etc., estos modelos también proporcionan una serie de comprobaciones únicas específicas de RAG, como el fundamento, la relevancia del contexto y la relevancia de la respuesta.

    Aunque los modelos Granite Guardian se derivan de los correspondientes modelos de lenguaje Granite, pueden utilizarse para implementar medidas de seguridad junto a cualquier modelo de IA, ya sea abierto o propietario.

    Disponibilidad de los modelos Granite 3.0

    Toda la suite de modelos Granite 3.0 y los modelos actualizados series temporales están disponibles para su descarga en Hugging Face bajo la licencia permisiva Apache 2.0. Las variantes instructivas de los nuevos modelos lingüísticos Granite 3.0 8B y 2B y los modelos Granite Guardian 3.0 estarán disponibles desde hoy para uso comercial en la plataforma Watsonx de IBM. A su vez, estará disponible una selección de modelos Granite 3.0 como microservicios NVIDIA NIM y a través de las integraciones Vertex AI Model Garden de Google Cloud con Hugging Face.

    De asistentes a agentes: haciendo realidad el futuro de la IA empresarial

    IBM está impulsando la IA empresarial a través de una amplia gama de tecnologías, desde modelos y asistentes hasta las herramientas necesarias para ajustar y desplegar la IA específicamente para los datos y casos de uso únicos de las empresas. IBM también está allanando el camino para que los futuros agentes de IA puedan autodirigirse, reflexionar y realizar tareas complejas en entornos empresariales dinámicos.

    Asimismo, IBM ha presentado hoy la próxima versión de Watsonx Code Assistant, basada en los modelos de código Granite, para ofrecer asistencia de programación de uso general en lenguajes como C, C++, Go, Java y Python, con capacidades avanzadas de modernización de aplicaciones para Enterprise Java Applications. Ahora también se puede acceder a las funciones de código de Granite a través de una extensión de Visual Studio Code, IBM Granite.Code.

    Ampliación de la plataforma con IA para impulsar a los consultores de IBM con IA

    IBM también ha anunciado una importante expansión de su plataforma de prestación de servicios impulsada por IA, IBM Consulting Advantage. La plataforma multimodal cuenta con agentes de IA, aplicaciones y métodos como marcos replicables que pueden capacitar a 160.000 consultores de IBM para ofrecer un valor al cliente mejor y más rápido a un coste menor.

    Otra parte clave de la expansión es la introducción de IBM Consulting Advantage for Cloud Transformation and Management e IBM Consulting Advantage for Business Operations. Cada una incluye agentes de IA específicos para varios campos, aplicaciones y métodos infusionados con las mejores prácticas de IBM, para que los consultores de IBM puedan acelerar las transformaciones de nube e IA de los clientes en tareas como la modernización de código y la ingeniería de calidad, o transformar y ejecutar operaciones a través de diversos dominios, como finanzas, recursos humanos y adquisiciones.

  • Salesforce y Google Cloud se unen para ofrecer agentes autónomos de IA 

    Ambas empresas han anunciado una asociación ampliada para crear Salesforce Agentforce Agents que ayudan a las personas a colaborar de forma segura en las aplicaciones Salesforce Customer 360 y Google Workspace

    El lanzamiento del nuevo Salesforce Agentforce amplía las integraciones bidireccionales existentes entre el CRM de Inteligencia Artificial (IA) número 1 y Google Workspace, permitiendo a los clientes mutuos desplegar fácilmente agentes autónomos que pueden actuar y trabajar sin problemas en las aplicaciones que utilizan a diario, todo ello respaldado por sólidas protecciones de privacidad y datos de usuario ya existentes en ambas plataformas.

    Las interacciones estarán disponibles de forma general a finales de este año, permitiendo a los clientes crear agentes personalizados que dispongan de habilidades útiles en Google Workspace y en la plataforma Salesforce Customer 360. También, los agentes de Agentforce, podrán realizar acciones basadas en datos de Google BigQuery, sin tener que mover o copiar datos, a través de integraciones como la tecnología Zero Copy, ya existente hoy en día.

    Con la integración existente entre Salesforce Data Cloud y Google BigQuery, los clientes ahora pueden conectar sus agentes de IA en Agentforce con datos de ambas plataformas, lo que permite mayores niveles de confianza y precisión en las respuestas. Por ejemplo, los clientes de comercio electrónico pueden conectar su Merchant Agent para ayudar a los comerciantes de comercio electrónico, brindando información relevante almacenada en BigQuery, como datos acerca de compras, gasto publicitario y segmentación de clientes. Los agentes también pueden utilizar Retrieval Augmented Generation (RAG) para actuar a partir de datos precisos y en tiempo real procedentes de Data Cloud.

    ‘Estamos creando el primer ecosistema de agentes del mundo de la mano de socios como Google Cloud‘, afirma Brian Landsman, vicepresidente ejecutivo de socios tecnológicos globales de Salesforce. ‘Los seres humanos trabajan a través de muchos sistemas para realizar su trabajo y, para ser eficaces, los agentes también necesitan hacerlo. Juntos, Salesforce y Google Cloud están ofreciendo un portafolio totalmente basado en IA’ agregó. 

    ‘Esta asociación reúne plataformas en las que millones de personas realizan su trabajo todos los días’, dijo Stephen Orban, vicepresidente de asociaciones de Google Cloud. ‘La plataforma Agentforce de Salesforce ayudará a los clientes a aplicar Google Cloud AI a casos de uso en el mundo real, como el desarrollo empresarial, el comercio electrónico y mucho más, con confianza y precisión de nivel empresarial’, señaló.