Ponencia Raul Coria, IPM, Next Generation Data Centers

El día 24 de marzo, Raul, especialista en virtualización en VMware, nos habló sobre los data centers de nueva generación y como se diferencian con los que actualmente nos podemos encontrar en las empresas.
Al principio de la ponencia vimos cómo se diseñaban los primeros centros de datos. Estos centros tenían un PC por cada servicio, por tanto, si hablamos de una empresa grande, se necesitaban salas muy amplias para poder albergar toda esa computación. En esa época apenas existía la virtualización, atando el servicio al pc físico, causando que un pequeño fallo en alguna de estas máquinas afecte directamente al servicio.
A medida que pasaban los años y la tecnología iba avanzando, los centros de datos comenzaron a migrar hacia la virtualización. Esta tecnología permite desvincular el software del hardware, haciendo posible correr múltiples sistemas operativos en una misma máquina física. Gracias a este avance, se pueden optimizar mejor los recursos y tener más protección sobre los servicios críticos de una empresa. Aún así, el sistema de redes (redes SAN y redes LAN) es complejo y se necesitaba simplificar para poder mejorar la virtualización y reducir el numero de cables cruzando entre el centro de datos. Aparecieron las cabinas de almacenamiento, donde cada una de ellas reúne todos los discos de almacenamiento y, por tanto, todos los datos. Esta tecnología permite crear redundancias (con el concepto de RAID) y facilidad para acceder a los datos desde cualquier dispositivo. El chasis de Blades realiza la misma función que la cabina de almacenamiento, pero en lugar de acumular almacenamiento, se guarda la computación, teniendo múltiples servidores en un mismo lugar. Por último, dispositivos como los switches unificados permiten unir los dos tipos de redes (redes SAN y redes LAN) para no tener que usar dos dispositivos distintos y así, tener un mayor control del funcionamiento.
La ponencia se centró en como un centro de datos de nueva generación puede sacar ventaja de la virtualización para optimizar recursos y mejorar el funcionamiento mediante la redundancia.
Para empezar, una redundancia en el data center físico es necesaria para una alta disponibilidad, ya que en el caso de que todo el centro cayese, sigue siendo necesario que los servicios estén activos. De esta necesidad salen las tecnologías para sincronizar centros de datos entre ellos, como la optimización wan para mejorar la conectividad o el duplicado del backup para salvar los datos en caso de un ataque con ransomware.
Junto a la virtualización vienen una serie de conceptos que nos permitirán tener una redundancia de todos los elementos y una optimización imposible de conseguir sin esta tecnología.
El Vmotion es un concepto de la empresa VMware que nos permite mover las máquinas virtuales en caliente de un servidor físico a otro, gracias a esto podemos evitar caídas si detectamos algún fallo en el hardware, ya que desplazaremos el servicio a otro hardware funcional para poder revisar el que da problemas. Existe una misma tecnología para el storage llamada “Storage Vmotion”, permitiendo mover el almacenamiento en caliente.
Mediante el DRS (dynamic resource scheduler) podemos balancear los recursos permitiéndonos desplazar las máquinas virtuales entre el hardware en caso de que su consumo sea excesivo. Junto el DRS nos encontramos la tecnología DPM (distributed power manager) permitiéndonos poner en estado de “standby” las máquinas que en ese momento no tengan ninguna maquina virtual en marcha, así obtendremos un notable ahorro en el uso de electricidad. Con la “virtualization fault tolerance” podremos tener una máquina virtual trabajando y una copia idéntica en standby para que en caso de que caiga la principal, la secundaria se active logrando que el servicio que estén dando sea visiblemente ininterrumpido. Con las “scale up application” podremos añadir memoria RAM de forma física a una aplicación sin necesidad de interrumpir el servicio y con las “virtual networks” podremos crear redes virtuales dentro del hipervisor, simplificando el mapa físico de red.
Para terminar con la ponencia, Raul nos habló sobre el concepto revolucionario del “software defined datacenter” donde se virtualiza el software de las máquinas físicas permitiendo a cada una de ellas realizar funcionalidades distintas a las que están pensadas, por ejemplo, podemos tener pequeños firewalls para cada una de estas máquinas instalado en el propio software, también podemos tener funciones de switch y enrutamiento. El objetivo de esta tecnología es minimizar al máximo el uso de hardware para simplificar el centro de datos del mañana.