El Hyperscale Computing es una tecnología que permite acomodar un aumento de la demanda sin necesidad de incrementar el espacio físico o el gasto en refrigeración o en luz eléctrica. Se caracteriza por la estandarización, la automatización, la redundancia, la computación de alto rendimiento (HPC) y la alta disponibilidad (HA).
Se trata de un término que habitualmente se asocia al cloud computing y a los centros datos de gran tamaño como los que poseen grandes empresas del panorama de Internet como Facebook, Google, Amazon o Netflix, por poner cuatro ejemplos muy conocidos.
Tabla de contenidos
Hyperscale Computing maximiza la capacidad
Esta tecnología fue desarrollada por empresas que necesitaban mucho procesamiento de datos y un gran almacenamiento. Mientras que los centros de datos convencionales de una empresa pueden soportar cientos de servidores físicos y miles de máquinas virtuales, un centro de datos de hiperescala puede abarcar miles de servidores físicos y millones de máquinas virtuales.
Ya hace un tiempo que los gigantes de Internet han hecho posible esta tecnología y han diseñado nuevas infraestructuras basadas en la computación a hiperescala que maximiza la densidad del hardware, a la vez que minimiza el coste de refrigeración y los gastos generales administrativos.
La computación de hiperescala es autónoma
La tecnología asociada con el hyperscale computing aprovecha las ventajas del software de automatización para funcionar de una manera automatizada y reducir así errores y fallos de seguridad. La lógica autónoma de la configuración es quién decide si añadir o reducir instancias.
La vieja forma de parchear y mutar los sistemas da como resultado sistemas frágiles e inestables a lo largo del tiempo, como lo que algunos llaman entropía de software en el sistema. Un concepto que hace referencia al desorden que se genera en el código a medida que se van produciendo modificaciones.
Hyperscale Computing mejora la seguridad
En la computación de hiperescala, el servidor y su almacenamiento se convierten en la unidad básica y forman parte de una red de miles de dispositivos físicos que distribuyen los datos de manera redundante, permitiendo así la protección de cualquier incidencia en el servidor y, en el caso que un servidor falle, no haya impacto en el servicio.
Lo que sucede en sistemas sin esta tecnología es que en el caso de producirse una incidencia, cuando se produce un error en el servidor, este deja de funcionar y altera el desarrollo del negocio, paralizándolo hasta que se transfiera la información a otro servidor para poder reemplazarlo y repararlo.
Hypescale Computing, una oportunidad para los centros de datos modestos
El desarrollo de esta tecnología ha despertado un interés en empresas más pequeñas porque se espera que el software de código abierto y los cambios de arquitectura creados para los centros de datos de hiperescala lleguen a los data centers de menores dimensiones.
Los centros de datos más pequeños podrían gestionar, de esta manera, el espacio de un modo más eficiente, consumir menos energía y responder más rápidamente a las necesidades de los usuarios. Podrían aprovechar la tecnología punta que ya disfrutan las grandes corporaciones de Internet para el procesamiento y el almacenamiento de los millones de datos que actualmente gestionan.
La computación de hiperconvergencia es un nuevo paradigma que ha llegado de la mano de las grandes corporaciones de Internet para facilitar la gestión de los centros de datos y que ahora cualquier empresa tiene la oportunidad de implementar en su organización para tomar ventaja en el mercado.
Rittal ofrece a sus clientes infraestructuras IT con la más avanzada tecnología, así como sistemas basados en Hyperscale Computing, para competir en un sector exigente y avanzar en la transformación digital.