En la Data Cloud Summit de Google Cloud, la compañía anunció tres nuevas soluciones en su cartera de bases de datos y análisis de datos para proporcionar a las organizaciones una plataforma de datos unificada. Con la disponibilidad de la versión preliminar de Dataplex, Datastream y Analytics Hub, las organizaciones pueden liberarse de los silos de datos para predecir de manera asertiva resultados comerciales, entender a sus usuarios y tomar decisiones informadas en tiempo real, aspectos cada vez más relevantes en un mundo en constante cambio y evolución.
Una encuesta reciente de Gartner, «La optimización de costos es crucial para los programas modernos de administración de datos«, encontró que las organizaciones estiman el costo promedio de la mala calidad de los datos en 12.8 millones de dólares por año. Con la data repartida y fragmentada en diferentes bases (data lakes, bases de terceros, etc.), y a su vez en múltiples nubes o servidores locales, las empresas están constantemente desafiadas para definir cómo administrar y organizar de manera centralizada sus dados y, lo que es más importante, integrar información en tiempo real para ayudar a mejorar la toma de decisiones, innovar más rápido y enriquecer las experiencias de los clientes.
Gerrit Kazmaier, gerente General de Bases de Datos y Análisis en Looker, destaca: ‘Los datos se deben de considerar como una capacidad que integra todos los aspectos del trabajo con ellos. Cada industria está acelerando su cambio hacia priorizar digital, ya que reconocen que los datos son el componente esencial para la creación de valor y la clave para avanzar en su transformación. En Google Cloud nos comprometemos a ayudar a los clientes a crear la solución de datos en la nube más poderosa para desbloquear el valor y los conocimientos prácticos en tiempo real que son necesarios para preparar a los negocios para el futuro’.
Al aprovechar la plataforma de Google Cloud, los clientes podrán beneficiarse de un enfoque integral, centrado en la nube, para el manejo de sus bases de datos que abarca el ciclo de vida completo de los mismos, desde los sistemas que ejecutan su negocio hasta las herramientas de inteligencia artificial y aprendizaje automático que predicen y automatizan su futuro.
–Ofecerá a los clientes integración de datos en tiempo real: Datastream, disponible en versión preliminar, es un nuevo servicio de captura de datos modificados (CDC) y replicación sin servidor. Datastream permite a los clientes la ingesta de flujos de data en tiempo real, desde bases de datos de Oracle y MySQL, a servicios de Google Cloud como BigQuery, Cloud SQL para PostgreSQL, Google Cloud Storage y Cloud Spanner. Esta solución permite a las empresas obtener aprendizajes actualizados, a la vez que ahorran tiempo y recursos para ayudar a impulsar análisis más rápidos, optimizar la entrega de datos y reducir el tiempo de inactividad de migración.
–Hará que el intercambio de datos sea seguro y fácil: Analytics Hub, que estará disponible en versión preliminar durante el tercer trimestre, intercambia datos y activos de análisis de manera eficiente y segura entre organizaciones para abordar los desafíos de confiabilidad de los datos y el costo de las prácticas de intercambio de datos existentes. Analytics Hub ofrece una forma simplificada y segura de acceder y compartir datos a un costo menor, basándose en la forma en que los clientes usan BigQuery para compartir activos de datos en la actualidad. Esto permite a los proveedores controlar y monitorear cómo se utilizan sus datos y permite a las organizaciones crear y acceder a una biblioteca seleccionada de activos internos y externos, incluyendo conjuntos de datos únicos de Google.
–Ayudará a las organizaciones a simplificar la administración de datos: Dataplex, disponible en versión preliminar, es una estructura de datos inteligente que permite a las organizaciones administrar, monitorear y gobernar de manera centralizada sus datos a lo largo de lagos, almacenes y bases de datos, en una sola experiencia integrada. La calidad de la data automatizada permite a los analistas y científicos de datos abordar la coherencia de los datos en las herramientas de su elección, para unificar y administrar sin moverlos o duplicarlos. Con inteligencia de datos incorporada que utiliza las mejores capacidades de inteligencia artificial y aprendizaje automático de Google y un modelo flexible de pago por uso, las organizaciones ahora pueden dedicar menos tiempo a enfrentar las complejidades de la infraestructura y más tiempo a utilizar los datos para ofrecer resultados comerciales.
Durante la Data Cloud Summit, Google Cloud también presentó actualizaciones adicionales en su cartera de bases de datos y analítica:
-Continuando con su compromiso estratégico con la multinube, BigQuery Omni, disponible en versión preliminar y Looker, disponible ahora en GA, para Microsoft Azure ayudará a los clientes a obtener información crítica sobre los datos en cualquier entorno de nube. Estos anuncios se basan en el impulso del mercado del año pasado con la versión preliminar de la tecnología de BigQuery Omni para AWS.
-La detección de anomalías en BigQuery mediante aprendizaje automático también está disponible de manera general para que los clientes detecten más fácilmente los patrones de datos normales frente a los problemáticos a lo largo de toda su organización. Los clientes están utilizando la tecnología para una variedad de casos de uso, incluida la detección de fraudes bancarios y el análisis de defectos de fabricación.
–Dataflow ofrece hoy a los clientes una solución rápida y rentable para la analítica de datos de streaming. Dataflow Prime, disponible en el tercer trimestre, incorporará capacidades de IA y aprendizaje automático para proporcionar a los clientes predicciones de datos de streaming, como análisis de series de tiempo, diagnósticos inteligentes que identifican de manera proactiva los cuellos de botella y ajustes automáticos para una mayor utilización.
-La compañía también reducirá el precio de entrada de Cloud Spanner, su base de datos de misión crítica totalmente administrada, en un 90% al ofrecer a los clientes un tamaño de instancia granular (próximamente) que reducirá la barrera de entrada, al tiempo que proporciona la misma escala y una disponibilidad del 99.999% para admitir las aplicaciones más exigentes.