Hyper-converged infrastructure

Las exigencias de las empresas de TI crecen constantemente, y es que los servidores se enfrentan cada vez a una mayor cantidad de datos sin que por ello se incremente necesariamente el presupuesto disponible. Esto ha generado una enorme demanda de sistemas hiperconvergentes en el ámbito de las infraestructuras de TI. En la actualidad, los centros de datos suelen trabajar con sistemas centrales de almacenamiento. Por el contrario, una infraestructura hiperconvergente (hyper-converged infrastructure, HCI) utiliza un hardware tan habitual como equipos con discos duros o SSD (unidades de estado sólido) integrados. La gran ventaja de estas estructuras radica en que centralizan la gestión de todas las tareas (virtualización, red, almacenamiento) propias de los centros de datos.

¿Qué es la hiperconvergencia?

Partiendo de la propia terminología podemos entender mejor cómo funcionan las infraestructuras convergentes. «Hiperconvergencia» incluye a «convergencia», que no es otra cosa que la concentración de varias cosas en un punto: en una arquitectura convergente se agrupan diversos componentes de TI en un paquete. En los últimos años, para ponerse a la altura de los retos que presenta la virtualización, la convergencia ha devenido en hiperconvergencia. El camino que lleva de una infraestructura tradicional a un sistema de HCI sigue un esquema claro: más eficiencia a través de la simplificación.

La infraestructura TI tradicional

El centro de datos de una empresa suele comprender varios aspectos o tareas, como son la red, el almacenamiento, el cómputo, en el mejor de los casos, un sistema de copia de seguridad y recuperación ante desastres. Cada uno de ellos funciona de forma independiente en su propio hardware con soluciones de software diferentes y se gestiona por separado. La complejidad y la individualidad de cada uno de estos sistemas hacen necesario el empleo de especialistas. Un administrador de red, por ejemplo, no puede encargarse al mismo tiempo de la gestión del almacenamiento.

Un departamento informático de esta índole constituye un sistema sólido y eficiente si se gestiona y mantiene adecuadamente, pero también es muy rígido y difícil de modificar. Los componentes nuevos implican un gasto elevado, lo que hace que solo se renueven o adquieran en ciclos muy largos, y si resultara que los medios de que se dispone ya no satisfacen las exigencias, los nuevos aparatos deberían utilizarse igualmente por lo menos durante los años siguientes. Esto significa que las capacidades necesarias no se proveen en función de la demanda, sino en base a un plan anticipado.

Además, como estos sistemas son tan sensibles a los cambios, los administradores deben invertir una gran dosis de energía y buenos nervios en la instalación de la infraestructura de TI para que todos los elementos se ajusten entre sí de tal forma que funcionen satisfactoriamente. Los componentes nuevos deben instalarse con sumo cuidado para que no desbaraten el equilibrio técnico.

Hacia una infraestructura convergente

En contraposición, en un sistema convergente todos sus componentes se unifican en el marco común de un solo dispositivo, un appliance en el cual trabajan juntos pero mantienen su autonomía. En este caso es el proveedor quien los configura y ajusta previamente para garantizar su buen funcionamiento en conjunto, lo que significa que el departamento de TI de la empresa ya no tiene que hacerlo.

Desde el punto de vista de la organización, la arquitectura convergente también tiene otras ventajas, entre ellas, que este tipo de sistemas procura un mayor orden en la sala de los servidores, porque los diversos componentes físicos se guardan interconectados en armarios para servidores. Con todo, siguen siendo dispositivos independientes que se mantienen de la misma forma por personal especializado. Cuando debe actualizarse el hardware, las extensiones no pueden simplemente añadirse, sino que se ha de readaptar el sistema por completo. En este aspecto, los sistemas convergentes no se diferencian de sus predecesores.

Los cambios introducidos por la virtualización

En la actualidad el estado de la cuestión se sitúa en la virtualización: en lugar de crear diversos entornos físicos, los administradores crean capas virtuales en las que ofrecen los servicios de servidor, memoria y red. Esto permite que varios servidores se ejecuten en una misma plataforma, por ejemplo, y garantiza la rentabilización de los recursos porque estos están disponibles para todo el sistema y no para los diferentes componentes físicos, que en realidad no se usan en todo su potencial. En este entorno virtual, el hipervisor, una capa de abstracción que se interpone entre el hardware y el software, se encarga de distribuir los recursos entre los componentes de modo equitativo.

Para que la virtualización funcione bien es muy importante que los componentes puedan comunicarse rápidamente, por lo que las máquinas virtuales también necesitan redes de almacenamiento. Los llamados LUN (Logical Unit Numbers) pueden estar constituidos tanto por simples discos duros como por componentes de la red de almacenamiento general, pero en ambos casos ha de ser un especialista en almacenamiento el responsable de su instalación, y no el administrador de la virtualización. Esto hace que los procesos de trabajo se ralenticen.

El efecto I/O Blender también es un problema bien conocido por los administradores. Todas las máquinas virtuales (Virtual Desktop Infrastructure, p. ej.) dirigen sus peticiones de entrada y salida (Input/Output) al hipervisor, donde se mezclan como en una licuadora (blender), de ahí el nombre de I/O Blender Effect. Como consecuencia, los medios de almacenamiento necesitan mucho tiempo para encontrar los datos solicitados, lo que conduce a pérdidas de velocidad en el envío de datos.

¿Cómo funcionan los sistemas hiperconvengentes?

La hyper-converged infrastructure nace como respuesta a las nuevas exigencias a las que se enfrenta el departamento de TI empresarial, sobre todo a la creciente virtualización. Basado en el concepto colaborativo de convergencia, el principio va un paso más allá.

Una arquitectura hiperconvergente llega al cliente como paquete compacto que ya incluye todos sus componentes en un sistema preconfigurado. La infraestructura se ejecuta en una máquina virtual en la capa del hipervisor, bajo la cual se ubica el hardware actuando como un banco común de recursos. En este sentido, los sistemas hiperconvergentes funcionan casi como servicios cloud porque los servicios que se ofrecen en la capa de abstracción corren en servidores virtuales, mientras que la solución de hardware, en un segundo plano, ni es visible ni relevante para el usuario. Con todo, una hyper-converged infrastructure tiene la ventaja de que los datos se guardan y gestionan localmente, al contrario de lo que ocurre en los servicios en la nube.

Lo más interesante quizá sea que estos sistemas se ejecutan en un hardware x86 común de tal modo que no es necesario ningún equipamiento especial, lo que facilita el mantenimiento. Esto es posible porque la hiperconvergencia se basa en la idea de un centro de datos definido por software o SDDC, (Software-defined data center), lo que quiere decir que el hardware cede su protagonismo a los programas, que son los que facilitan y administran todos los componentes necesarios. Esto permite distribuir mejor los recursos, porque el software de administración autoriza a los administradores a disponer de las capacidades de cómputo y memoria dentro del entorno virtual tal como se requieren en cada momento. Desde el punto de vista del hardware, la mayoría de sistemas hiperconvergentes disponen tanto de memorias flash como de clásicas unidades de disco duro, proporcionando así una buena relación entre el coste y el rendimiento.

Ventajas de la arquitectura hiperconvergente

Los sistemas de HCI disminuyen la complejidad de los centros de datos, lo que al mismo tiempo aumenta su eficiencia y productividad a distintos niveles:

  • Administración: la composición de un equipo informático se ve profundamente modificada por la instalación de una infraestructura hiperconvergente. Un centro de datos tradicional se caracteriza por sus numerosas soluciones independientes. La red, la memoria y la actividad de cálculo se tratan de forma separada, y no solo en lo que atañe a la provisión del hardware correspondiente, sino que también la gestión de estos sistemas implica a diferentes expertos, ya que cada tarea tiene su propio personal cualificado. En un sistema hiperconvergente, en cambio, todo se ejecuta en la misma capa y todos los procesos de supervisión pueden realizarse en un solo lugar. Esto explica la necesidad de técnicos generalistas en lugar de especialistas que deberían ser capaces de encargarse de la infraestructura en su globalidad y no de aspectos parciales. Esto significa, en última instancia, que la demanda de personal de informática se minimiza.
  • Instalación: las arquitecturas hiperconvergentes constituyen soluciones todo en uno basadas en el llamado principio de Plug-and-play (PnP, «enchufar y usar»), es decir, que el sistema llega al cliente listo para funcionar. Aunque aún son necesarios algunos ajustes, la configuración central ya la ha realizado el fabricante. Esto también facilita la eventual mudanza de un sistema tradicional hacia una solución hiperconvergente.
  • Ajuste: los sistemas hiperconvergentes son algo más fáciles de configurar que una infraestructura tradicional, ya que en estas últimas el tamaño de los sistemas se escala, lo que significa que los componentes se adquieren con la intención de rentabilizar su rendimiento en el futuro. La realidad es que en el mismo momento de la compra a menudo no se dan las circunstancias para un aprovechamiento efectivo, de tal modo que los recursos pueden permanecer mucho tiempo sin utilizar. Actualizar o renovar el equipamiento en estos casos ocasiona un aumento de costes. Una arquitectura hiperconvergente, en cambio, se puede escalar mucho más fácilmente porque las extensiones se pueden comprar de una forma relativamente asequible e integrar en la infraestructura de TI sin interrumpir el servicio. Para hacerlo solo habría que integrar en el sistema otro nodo adicional, lo que, en lugar de dilatarse varias semanas, podría realizarse en unas horas.
  • Costes: si, como se ha dicho, el personal necesario se reduce, los sistemas de HCI se instalan más rápidamente y son más fáciles de escalar. El gasto, en contraposición con un sistema tradicional, disminuye. Su precio de compra también suele ser mucho menor, a lo que se suma el ahorro en gastos operativos porque su consumo energético es más reducido. No obstante, los precios de cada solución pueden variar y si bien el hardware en sí mismo no supone un gasto relevante, los proveedores sí esperan que su servicio se vea recompensado, como también tiene su precio el software, muy potente para poder implementar la virtualización. Con todo, es razonable esperar que estos gastos se rentabilicen en el futuro.
  • Seguridad: se ha demostrado que los sistemas hiperconvergentes sufren menos caídas que los tradicionales y normalmente ya contienen las herramientas necesarias instaladas y automatizadas para realizar copias de seguridad y para restablecer el sistema. La redundancia tiene lugar mediante el acoplamiento de dos nodos. Dado que dentro de la infraestructura todos los componentes están representados de forma virtual, es posible reemplazar appliances completos sin que se pierdan datos o se interrumpa el servicio.
  • Velocidad: una hyper-converged infrastructure ofrece también la ventaja de aumentar la velocidad en determinados aspectos y, en especial, los procesos de duplicación pueden operarse de una forma más eficiente. Y como todas las máquinas virtuales utilizan el mismo código es muy fácil eliminar duplicidades. El problema del efecto I/O Blender también se reduce porque los sistemas están perfectamente acoplados y configurados para la virtualización.

Los equipos encargados de la TI en empresas con estructuras clásicas suelen poner de relieve que, en caso de problemas, los fabricantes tienden a hacerse mutuamente responsables del error en lugar de ofrecer una solución. No obstante, a la empresa le importa menos quién es el responsable que cuándo se solventará el problema. Esta situación es inexistente en el caso de las soluciones hiperconvergentes todo en uno, porque solo hay un proveedor responsable del funcionamiento del sistema. Incluso si utilizara componentes de otro fabricante, el proveedor es el único interlocutor y, como tal, el responsable de resolver el problema.

No es menos importante, sobre todo para las empresas pequeñas, el hecho de que las necesidades de espacio y de energía se reducen. Los servidores hiperconvergentes son más pequeños y se alejan así de los grandes armarios tradicionales que conocemos de los centros de datos al uso. Como la huella energética es también menor, estos sistemas se consideran más respetuosos con el medio ambiente. Palabra clave: Green IT.

Hiperconvergencia vs. convergencia: desventajas de los sistemas HCI

Decantarse por una hyper-converged infrastructure significa hacerlo por una solución todo en uno y con ello depender de un solo proveedor (vendor lock). Si el fabricante resultara poco fiable o si dejara de operar, los efectos para la TI de la empresa serían fatales, porque tampoco sería posible recurrir a las extensiones de otro fabricante. El caos en la sala de servidores estaría asegurado.

Esto también pasaría si una empresa intentara integrar un sistema hiperconvergente en una infraestructura existente porque no es para eso para lo que se ha diseñado. Los sistemas HCI substituyen al hardware, no lo amplían. Pasar de una solución a otra no es algo tan difícil, pero para una empresa que durante años ha trabajado con una infraestructura tradicional significa una ruptura radical. El hardware, que se adquirió e instaló en su momento con mucho esfuerzo y altos costes, quedaría obsoleto con la migración de un sistema a otro. Esto es algo que no se puede perder de vista de cara a tomar una decisión.

Uno de los supuestos beneficios de los sistemas HCI frente a los tradicionales, su flexibilidad para escalarse, también puede constituir una desventaja. Para adecuar un centro de datos a unas exigencias mayores, se añade a la infraestructura un appliance completo. Este paquete, no obstante, comprende el set completo compuesto por almacenamiento, cómputo y red y, si solo se necesitara memoria, igualmente debería pedirse el paquete en su totalidad sin poder personalizarlo. Sí es verdad que los fabricantes ofrecen sus productos en diferentes tamaños, pero este tipo de centros de datos evita los ajustes a medida.

Hiperconvergencia y cloud: ¿cuál es la diferencia?

Los sistemas HCI y la tecnología de la nube se asemejan a primera vista y es que, en definitiva, comparten el mismo principio de la virtualización que promueve un uso más racional de los recursos, facilita el trabajo a los usuarios y funciona con máquinas virtuales que proveen servicios. Sin embargo, se diferencian sobre todo en su geolocalización y en los pros y contras de los productos relacionados con ella: mientras que un servicio en la nube generalmente se encuentra lejos del cliente (incluso en otro continente), un sistema hiperconvergente se localiza en la misma empresa, quedando así bajo su control.

  HCI Cloud  
Geolocalización Local Global  
Seguridad de datos Estándar propio Estándar externo  
Funcionamiento Continuo Se contrata en función de las necesidades  
Acceso LAN/WAN Internet  
Equipo de TI Necesario No tan necesario  
Costes Adquisición y operación Suscripción  

La decisión entonces depende de las necesidades de cada empresa: si es pequeña y no tiene un departamento informático propio, puede tener sus necesidades bien cubiertas con un servicio en la nube, pero para aquellos que piensan en dimensiones de mayor envergadura y que no desean dejar el control de sus datos en manos ajenas, la hiperconvergencia podría ser la mejor opción.

¿Cuándo es adecuada una hyper-converged infrastructure?

La gran ventaja de una infraestructura hiperconvergente radica en la simplificación de la TI: más espacio, menos caos de proveedores, menos gastos de gestión. Estos novedosos sistemas, que no obstante se basan en una técnica bien conocida, siguen las metas de la convergencia y las amplían con la virtualización de todos los componentes. Al alejarse del centro de datos tradicional, asimilarlo puede conllevar el reemplazo completo de la estructura del sistema y de personal.

Las ventajas de los sistemas HCI son muy seductoras tanto para pequeñas como para grandes empresas. Su buena escalabilidad, junto con un monitoring y una administración mucho más sencillos, la hacen atractiva para todo tipo de usuarios. Así, para los emprendedores y para aquellas empresas que comienzan a levantar su estructura informática, HCI podría ser la elección adecuada. No tanto, sin embargo, si la empresa ya cuenta con un centro de datos en funcionamiento y con un equipo de personal bien formado, porque estas soluciones out of the box no están concebidas para integrarse en otro sistema y requieren otros conocimientos. Si hay que reemplazar el hardware de almacenamiento, de servidor y de red y restructurar el equipo, el cambio ya no resulta tan atrayente.

Es difícil predecir los cambios en el mercado de las tecnologías de la información. Si no fuera así no se habrían cometido tantos errores en el pasado a la hora de estimar la demanda y la velocidad de su desarrollo. Pero es más que probable que los procesos de virtualización no pierdan en relevancia en el futuro, por lo que no se deberían subestimar los sistemas de HCI como moda pasajera. Quizás a largo plazo es inevitable para las empresas dar el paso en esta dirección, que no ha de pasar necesariamente por la hiperconvergencia. Hoy por hoy, el momento adecuado para una transformación de estas características debería escogerse con suma prudencia por parte de las empresas y los expertos de TI.