Los paradigmas de la tecnología de hiperescala alcanzaron el ‘mainstream’
Fue hace casi una década cuando una nueva clase de consumidores nació, es decir las compañías de Internet creando una gran capacidad para centros de datos, se encontraron con la innegable necesidad de una nueva clase de servidor que siguiera el ritmo de su escala masiva. Ciertamente, esta tendencia no pasó desapercibida puesto que, en 2007, una serie de ingenieros emprendedores de Dell vieron esta oportunidad y decidieron crear un nuevo mercado que tuviera como objetivo atacar estas necesidades. Apenas pocos años después, un nuevo segmento de mercado en cuanto a servidores había nacido, trayendo consigo nuevos jugadores que, hasta la fecha, se siguen incrementando.
Sin embargo, los gigantes del Internet como Google y Amazon no son los únicos que requieren soluciones de tecnología simples y escalables. Todos los negocios alrededor del mundo han puesto sus ojos en la flexibilidad y eficiencia que estas compañías han alcanzado con sus estrategias de TI. Esto ha generado interés en cómo aplicar los principios de diseño de hiperescala a sus centros de datos tradicionales.
Además, conforme la gente va cambiando de trabajo, muchas veces tendiendo hacia operaciones TI de hiperescala y hacia compañías con equipos convencionales, es común que ellos trasladen sus valores de hiperescala, lo que hace a sus ambientes de TI mucho más eficientes, flexibles y simples. Realmente, no sólo se trata de reducir los costos para un sistema, sino también tener una estructura robusta de IT que mejore los costos totales de propiedad y maximice el valor que se ofrece a sus integrantes.
Así, mientras haya contrastes significativos entre los equipos con configuración de hiperescala y las entidades convencionales, las compañías líderes continuarán adoptando los principios guía de la hiperescala.
Una mirada más profunda
Para poder entender mejor esta evolución, es importante comprender las dinámicas del mercado de servidores y cómo éste ha cambiado en los últimos años. Simplifiquemos la situación y digamos que hay 4 principales segmentos de mercado que se han consolidado como fuerzas mayores en la industria actual de servidores: Primeramente se encuentran las empresas globales más importantes de Internet que ya se discutieron previamente; seguido a esto, se da paso a las compañías que no son precisamente de hiperescala aunque sí de gran tamaño como Web Tech y HPC. Al final se encuentran las empresas con despliegues tradicionales, junto con pequeñas y medianas empresas.
Todos estos segmentos en el mercado de servidores tienen sus propios retos, necesidades y requerimientos para cargas de trabajo que deben ser atendidas al traer nuevas soluciones al mercado. En cualquier caso, esto no significa que las mejores prácticas no puedan o deban ser compartidas, o que no deba existir la polinización cruzada.
En el caso de la hiperescala, nos fue posible atestiguar de primera mano, mientras se trabaja con empresas de Internet de tamaño considerable, que ellas igualmente requieren mantener su arquitectura TI común al mismo tiempo que se pueda modificar y mejorar los servidores, el almacenamiento y las redes para ciertas tareas como los análisis y los servidores Web. Simplemente no hacía sentido para estructuras CapEx, OpEx o perspectivas de eficiencia que construyeran nuevas plataformas para otras cargas de trabajo. Este mismo principio aplica también para otros segmentos del mercado.
Tomemos como ejemplo a las grandes empresas o a Big Data. Los negocios cada día irán demandando más y más requerimientos que involucren análisis en tiempo real y mayor inteligencia en sus operaciones de TI. Por ejemplo, los equipos de marketing querrán en algún momento enviar mensajes sobre ventas a teléfonos móviles con base en el historial de compradores, actividad en redes sociales, ubicación y otros tipos de información. Sin embargo, ese mismo equipo de marketing querrá mantener su sistema tradicional CRM y muchas otras aplicaciones con la misma infraestructura. Así, la línea de partida es que los centros de datos tengan la flexibilidad de irse adaptando a sus diversas necesidades, haciendo frente a los diversos costos al realizar cambios en la utilización de recursos, en lugar de mantener estructuras que, teniendo importantes excesos en sus costos, podrían caer en el desuso.
Nuevas configuraciones de convergencia
Cuando se está trabajando con centros de datos que están, literalmente, compuestos por cientos de miles de servidores, existe una cantidad importante de información a aprender. Exactamente esto fue lo que sucedió. En ese sentido, el 2015 es el año en el que los líderes en TI podrán ganar ventaja en las tecnologías de hiperescala que los proveedores de servicios de nube han alcanzado.
De esta manera, las nuevas configuraciones de convergencia tienen el potencial de proveer –por primera vez- una plataforma común y escalable que es fácilmente adaptable a las nuevas perspectivas, siempre cambiantes, de los negocios y la tecnología. Entonces, a través de la consolidación de los conceptos por bloque derivados de la tecnología TI de hiperescala, las organizaciones pueden manejar, escalar y crecer su infraestructura; esto les permite enfrentar las nuevas necesidades del negocio conforme éstas van cambiando.
Mientras la tecnología continúe convergiendo en los servidores, el almacenamiento y las redes de trabajo, todas estas nuevas tendencias revolucionarán la forma en la que las empresas consumen y manejan sus TI en 2015.