Rediseñar la distribución de electricidad en los centros de datos para reducir el riesgo de avería

1

En 1893, la compañía Westinghouse se ponía manos a la obra para desplegar la primera red eléctrica de los Estados Unidos, utilizando el sistema de corriente alterna preconizado por el científico Nikola Tesla. Aunque pueda parecer sorprendente, la forma de distribuir la electricidad no ha evolucionado mucho desde entonces. La historia de los centros de datos, mucho más reciente, sigue la misma inercia. Evidentemente, los proveedores de alojamiento redundan ciertos elementos de la cadena de distribución de la corriente (SAI, transformadores…) para así aumentar la disponibilidad de sus infraestructuras, pero la concepción global no ha cambiado. ¿Cómo podemos optimizar hoy la distribución eléctrica en los centros de datos, que representa actualmente entre el 1,5% y el 2% del consumo de electricidad mundial? ¿Cuáles son las dificultades? ¿De qué forma estos cambios podrían reducir el riesgo de avería? Balance de la situación por Germain Masse, director de OVH Canadá.

Interés económico frente a reducción de los dominios de fallo

Cuando se diseña un centro de datos, se enfrentan dos razonamientos contrapuestos. Por un lado, existe la voluntad de segmentar lo más posible la distribución de electricidad, multiplicando el número de «pequeños» transformadores y SAI (sistemas de alimentación ininterrumpida) para limitar las consecuencias derivadas del fallo de algún elemento. Por otro lado, esta estrategia aumenta los costes de instalación y mantenimiento y, en definitiva, encarece la factura del cliente final. Hoy en día, el punto de equilibrio suele situarse en el uso de transformadores de 1 a 2 MW, a continuación de los cuales se instalan SAI de una capacidad de entre 400 kW y 1 MW (cabe destacar que las generaciones actuales de SAI suelen ensamblar módulos de 200 a 400 kW). Estos SAI, debido a su gran potencia eléctrica y su criticidad, nos obligan a aceptar dominios de fallo (domains of failure) relativamente importantes, del orden de 3.000 a 6.000 máquinas (los SAI entran en funcionamiento en cuanto se produce un corte eléctrico, dando tiempo a migrar a una línea eléctrica alternativa y/o a encender los grupos electrógenos, lo que tarda entre 15 segundos y 1 minuto). Este dilema es uno de los grandes desafíos de los centros de datos.
Lo que llamamos «dominio de fallo» es el conjunto de servidores afectados en caso de fallo de un dispositivo. Según la arquitectura, algunos usuarios preferirán agrupar servidores en el mismo dominio de fallo (en caso, por ejemplo, de que sea imprescindible que varios servidores se comuniquen entre sí) o, por el contrario, dividir las máquinas en distintos dominios de fallo (necesario para un plan de recuperación ante desastres, por ejemplo). Para responder a este tipo de necesidades, OVH permite elegir el centro de datos de localización de los servidores (Roubaix, Gravelines o Estrasburgo en Europa; Beauharnois en Canadá). Ahora queremos ofrecer a nuestros clientes una elección aún más precisa, permitiendo seleccionar el rack. Un rompecabezas logístico, pero un verdadero plus para los usuarios.

 

¿Y si la alternativa era la corriente continua?

En todo el mundo, la corriente eléctrica se distribuye en AC (corriente alterna, o alternating current en inglés). En cambio, los elementos que constituyen un servidor informático (procesador, discos…) son alimentados en DC corriente continua,  de 3,3; 5 o 12 voltios, según el componente.
Por lo tanto, la corriente eléctrica llega en AC a la entrada del centro de datos y sufre numerosas transformaciones hasta alimentar con corriente continua los elementos de un servidor. Viéndolo de cerca, esto es lo que ocurre en un datacenter de Estados Unidos:

2

Un mínimo de lógica requeriría eliminar la fase DC/AC y AC/DC entre el SAI y el servidor pero, por desgracia, el medio de la electricidad no evoluciona tan rápido como el de la informática…

Un mínimo de lógica requiriría eliminar la fase DC/AC y AC/DC entre el SAI y el servidor pero, por desgracia, el medio de la electricidad no evoluciona tan rápido como el de la informática…
Yendo al fondo de la cuestión: ¿por qué no suministrar directamente a los datacenters corriente continua? Basándonos en los trabajos de Thomas Edison, la electricidad se distribuía inicialmente en corriente continua. Sin embargo, para reducir las pérdidas durante el transporte de la corriente (tanto continua como alterna) era necesario bajar su intensidad elevando su tensión, en virtud del famoso efecto Joule. Ahora bien, la modificación de la tensión de una corriente continua provocaba muchas pérdidas energéticas. Por ese motivo, las empresas eléctricas dieron finalmente la razón a Nikola Tesla y su sistema de corriente alterna.

Hoy en día, la situación ha cambiado: mediante equipos electrónicos de potencia (conocidos con el nombre de convertidores), podemos modificar la tensión eléctrica de una corriente continua para transportarla limitando las pérdidas energéticas. De hecho, ya se prefiere el uso de la corriente continua en las distancias muy largas o en el caso de cables subterráneos o submarinos, entre otras cosas porque solo son necesarios dos cables para transportarla (en lugar de los tres que hacen falta para la corriente alterna).

El interés de abastecer a los centros de datos en corriente continua, además de que simplifica la cadena de distribución de la electricidad (puesto que reducir el número de dispositivos implica reducir el riesgo de averías), reside en la posibilidad de combinar diferentes fuentes de energía entre sí para, según el caso, aumentar la tensión, la intensidad y la redundancia. El reciente auge de los nuevos modos de producción de electricidad, tales como el fotovoltaico o las pilas de combustible, favorecerá probablemente esta evolución, que actualmente choca con dos obstáculos. El primero es económico: los dispositivos para corriente continua tienen a día de hoy un coste superior. El segundo es psicológico: se trata simplemente del desconocimiento de los operadores…

SAI en el rack o en el servidor: ¿cuál es la mejor estrategia?

Sea cual sea la estrategia elegida para evolucionar hacia la DC —transformación AC/DC en la entrada del centro de datos, en el SAI, en la sala, en el rack o en el servidor—, hay que sustituir la alimentación del servidor.
Microsoft ha divulgado recientemente, en el marco de su contribución al Open Compute Project, los planos de una alimentación de servidor que incluye baterías de Li-Ion; una innovación que la firma ha llamado Local Energy Storage (LES). Este concepto, en realidad, no es nuevo, ya que en 2012 Supermicro anunciaba la comercialización de alimentaciones de servidor con baterías, 3 años después de que Google desvelase que utilizaba este procedimiento en algunas de sus máquinas.

El enfoque de OVH es original en el sentido de que sustituye la alimentación en el servidor por una simple etapa de conversión DC/DC y, en cada rack eléctrico, un dispositivo (con el nombre en clave «Altigo») toma una corriente AC de entrada para producir una corriente continua (24 V o 48 V, según el caso).
Esta solución nos permite utilizar las mismas baterías que las de los SAI estándar, que se producen en masa. A día de hoy, es mucho más económico que instalar una batería en cada servidor, aunque esta situación podría cambiar, en función del éxito comercial que tenga este nuevo tipo de alimentación con batería integrada.

Cuando América adopta las normas europeas

La historia de OVH empezó en Europa y, más concretamente, en Francia, donde la tensión nominal es de 230 voltios, en monofásico y con una frecuencia de 50 Hz. La corriente eléctrica se distribuye en corriente trifásica de 400 V. No es necesaria ninguna transformación para obtener 230 V a partir de 400 V: basta con tomar la tensión entre una fase y el neutro.
En Norteamérica, donde OVH implantó en 2012 un centro de datos en Beauharnois (a 40 km de Montreal), la tensión histórica es de 120 voltios (monofásica entre fase y neutro).
Para racionalizar su producción frente a los distintos estándares, los fabricantes de alimentaciones electrónicas han diseñado sistemas que funcionan con un amplio rango de tensiones: de 100 a 240 voltios. Esto ha provocado un entusiasmo por los 208 voltios (monofásico entre fases) en Norteamérica: mejor rendimiento de las alimentaciones y más potencia para un mismo diámetro de cable. Sin embargo, la distribución eléctrica en Estados Unidos se realiza tradicionalmente en corriente trifásica de 480 V (y 600 V en Canadá). Para pasar de 480 V a 120/208 V, hay que bajar la tensión primero a 277 V con un transformador. Se obtienen entonces 120 V entre una fase y el neutro (monofásica), y 208 V entre fases.
Además de las pérdidas eléctricas, como cualquier otro elemento en la cadena de distribución eléctrica, la necesidad de un transformador incrementa el riesgo de avería y, en definitiva, representa un coste adicional.
Por eso, cada vez más centros de datos implantados en Norteamérica utilizan las tensiones europeas (240 V), como ha hecho OVH para su centro de datos de Beauharnois.

¿Sabía que…?

A una misma potencia, la corriente alterna de 50/60 Hz es más peligrosa que la corriente continua debido al mayor riesgo de fibrilación ventricular y tetanización de los músculos. De hecho, para demostrarlo (e intentar una campaña de desprestigio de su adversario Westinghouse, promotor de la corriente alterna), Thomas Edison inventó… la silla eléctrica.

Germain Masse

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *