¿Ha llegado el momento de un gran apagón?

Los centros de datos representan una parte creciente del consumo de energía y las emisiones mundiales. Una PC de usuario promedio consume 1.3 kWh de electricidad cada tres horas, sin siquiera conectarse; La transmisión de un millón de solicitudes de páginas web estáticas por segundo se ha estimado en otros 11.610 kilovatios por hora (kWh), o lo suficiente para alimentar a 13 hogares estadounidenses durante un mes.

Según Peter Hewkin, fundador de la empresa británica de informática de borde Smart Edge Data Centers (SEDC), Muchos países en las horas pico ya se enfrentan a una capacidad limitada, con la próxima ola de crecimiento digital ávido de datos en camino. Pero también estima que al menos el 85% de los datos almacenados por las sociedades anónimas del Reino Unido y, por lo tanto, el 85% de los datos que ahora se guardan en centros de datos convencionales o salas de servidores, podrían apagarse cuando no se necesiten y mantenerse en un almacenamiento “caliente”.

“Las cuentas del año actual deben ser accesibles todo el tiempo, pero no los seis años restantes”, señala. “Si un centro de datos consume actualmente 1 MW cada hora, es posible que solo se necesiten 150 kW cada hora para admitir los datos críticos”.

El consumo de 1MW de energía las 24 horas del día a £ 80 por MWh podría ser de alrededor de £ 700,000 al año. Con el almacenamiento en caliente que hace que los datos sean accesibles solo en días hábiles (excluidos los días festivos) o 252 días al año, los ahorros ya alcanzan el 30%.

Si el acceso a los datos se puede restringir a dos horas designadas de lunes a viernes, eso equivale a solo 506 horas al año, menos del seis por ciento del estándar global actual de 8.760 horas. “Aproximadamente el 15% de los datos deben estar disponibles las 24 horas del día, los siete días de la semana, pero aún así solo llegamos a una cifra de 1.820 horas”, dice Hewkin, y agrega que se podrían negociar mejores precios con los proveedores para mantenerse al margen de ” rojo ”en las horas pico, por ejemplo, después de las 4 pm y antes de las 8 pm. “Esto representa casi un 80% de ahorro en el consumo total y CO2 emisiones “.

Para los precios de la banda verde y naranja, cree que un precio de alrededor de £ 60 / MWh podría ser realista, con incluso £ 20 / MWh potencialmente alcanzables si solo se requieren dos horas al día al precio de la banda verde.

“Usando 150kW 24×7 a £ 80 / MWh, nuestro cargo anual de electricidad será de alrededor de £ 105,120. Los 850 kW restantes solo se utilizan durante 506 horas al año a £ 60 / MWh, lo que equivale a £ 25.806. El total anual es £ 130,926 en comparación con £ 700,800 actualmente. Esto representa un ahorro del 81% ”, dice.

Consumo de electricidad

John Booth, director gerente de la consultora Carbon3IT, estima que los centros de datos, incluidas las instalaciones de colocación, representan al menos el 12% del consumo de electricidad del Reino Unido, o 41,11 TWh al año.

Cisco ha pronosticado anteriormente que el tráfico IP en la nube global superará los 14.1 zettabytes (ZB) para fines de 2020; Seagate patrocinado por IDC Informe Data Age 2025 proyecta un crecimiento general de datos del 30% anual para llegar a 175 ZB, con datos almacenados de 7,5 ZB, frente a 1,1 ZB en 2019. Se espera que el crecimiento de Hyperscaler continúe a una tasa compuesta anual del 2% anual hasta 2025, según ResearchAnd Markets .

Eficiencia del centro de datos: un trabajo en progreso

Las innovaciones de sostenibilidad de todo tipo continúan aumentando la eficiencia en los centros de datos, pero es evidente que todavía hay margen para otros enfoques.

Los investigadores franceses Issam Raïs, Anne-Cécile Orgerie y Martin Quinson, escribiendo en una revista revisada por pares Práctica y experiencia de concurrencia y computación, cuantificó el impacto probable de varias técnicas de cierre en el centro de datos.

Los operadores a menudo se han mostrado reacios a reducir su número de servidores encendidos debido a preocupaciones sobre la reactividad y fallas de hardware, y errores de juicio sobre la ganancia de energía, sugieren.

El equipo simuló varias infraestructuras de producción y configuraciones de máquinas bajo diferentes políticas de apagado y predicciones de carga de trabajo. Estos incluyen modos reales de desconexión e hibernación del servidor, y técnicas de suspensión en disco y suspensión en RAM, procesamiento heterogéneo y costos de arranque en tiempo y energía, así como la vida útil del servidor, así como también la evaluación de la energía. algoritmos conscientes (en trabajos relacionados).

“Las técnicas de apagado pueden ahorrar al menos el 84% de la energía que de otro modo se perdería en nodos inactivos. Esto sigue siendo cierto para el hardware prospectivo de energía proporcional e incluso las políticas de apagado agresivas no afectan la vida útil del hardware ”, escriben.

Hewkin de SEDC señala que algunos pronósticos aún estiman que el consumo de energía del centro de datos podría devorar el 20% de la generación del Reino Unido en los próximos años si continúan las tendencias actuales. Sin embargo, la mayoría de los datos generados solo se utilizan unas pocas veces, a veces solo una vez, y luego se almacenan para siempre “por si acaso”, como las cuentas bancarias o las cuentas comerciales de una empresa. Los bancos ya han comenzado a trasladar los datos de los consumidores más antiguos a un almacenamiento inaccesible “frío”.

Centros de datos cálidos

Además, anticipa que la construcción de centros de datos “cálidos” podría costar la mitad de lo que cuesta construirlos que los centros de datos tradicionales, con menos equipo de planta y sin generadores de respaldo. Los centros de datos existentes podrían reutilizarse, concluye Hewkin, para casos de uso emergentes basados ​​en datos, desde la automatización hasta la inteligencia artificial.

Las nuevas tecnologías y estrategias en hardware, medios, software y arquitectura pueden seguir reduciendo el tráfico de datos y los requisitos de almacenamiento.

Las principales de ellas son las soluciones de software, incluido el archivado activo, que controlan el acceso a los datos, ya que un gran desafío para un gran apagado a nivel de servidor ha sido cómo aprovisionar recursos de manera eficiente y dinámica.

Las cargas de trabajo bajo demanda son muy variables, sin una taxonomía bien establecida que las defina a medida que cruzan la nube. La migración interna e interna de recursos virtuales puede ser un problema incluso cuando IaaS, PaaS y la contenedorización continúan avanzando junto con los métodos de predicción como las técnicas de regresión o series de tiempo.

Tony Lock, distinguido analista de Freeform Dynamics, está de acuerdo en que están comenzando a surgir soluciones de software adecuadas. Los enfoques probablemente seleccionarán y combinarán la combinación de tipos de medios disponibles y cada vez más rentables, desde el disco de estado sólido (SSD) hasta la cinta, el disco y “quizás incluso la memoria no volátil en el futuro”.

Sin embargo, si los centros de datos van a comenzar a desconectar los datos de los clientes, es mejor que se aseguren de que esos clientes no quieran usarlos o incluso mirarlos, dice. Una gran desconexión “suena maravillosamente simple en teoría, el problema es que en la práctica es una pesadilla absoluta”.

Toda el área de accesibilidad a los datos está llena de trampas que probablemente causen fricciones masivas entre clientes, proveedores de TI, equipos de TI en la empresa y empresas de centros de datos.

“Es realmente difícil clasificar esos datos. Sí, puede revisarlo y tal vez intentar ver cuándo fue la última vez que se accedió ”, dice Lock. “Digamos que fue hace algún tiempo, así que tal vez puedas moverlo a una forma de almacenamiento más fresca y más barata, o eventualmente cambiarlo a algo que no consuma electricidad en absoluto hasta que quieras restaurarlo”.

Se necesita una inversión en descubrimiento de datos

Se requiere una inversión en el descubrimiento y análisis de datos, que obviamente requiere tiempo, esfuerzo y recursos, y probablemente será continua. Solo después del análisis se deben mover los datos fuera de línea a una alternativa de almacenamiento fría, o incluso caliente, de acuerdo con las necesidades y requisitos comerciales específicos.

“Tienes que estar absolutamente seguro de que el usuario de esos datos no los buscará muy rápidamente”, dice Lock.

“A menos que pueda comenzar a usar alguna forma sofisticada de software de cuasiarchivo, no solo conozca los datos que tienen, sino que comprenda lo valiosos que son para la empresa y cuáles son las políticas involucradas en hacer algo para trasladarlos a otra parte, lograr eso es complicado “.

Pero Lock apunta a desarrollos emergentes en software de gestión de datos autónomos para múltiples plataformas de almacenamiento y en la nube por parte de muchos titulares “muy grandes” y nuevos participantes “extremadamente bien financiados”, así como la organización neutral del proveedor Active Archive Alliance (AAA).

La AAA promueve la migración automatizada basada en políticas que libera el almacenamiento primario a medida que los datos envejecen, aunque se centra en los datos archivados activamente que siguen siendo recuperables y buscables, evitando de alguna manera la cuestión de cambiar las expectativas de las personas sobre la disponibilidad de datos.

Cree que al menos el 60% de los 7.5 ZB previstos almacenados para 2025 no necesitan estar en niveles costosos y de mayor rendimiento y pueden archivarse después de 90-120 días de baja actividad, sin cambios y rara vez se sobrescriben.

“No todos estos datos deben archivarse. Pero gran parte debería serlo, gracias a las sólidas políticas de retención y la capacidad recién descubierta de obtener valor de los datos archivados ”, afirma un informe de AAA.

Tener en cuenta al usuario

Lock señala que los usuarios finales normalmente se quejarán cuando se elimine la disponibilidad inmediata de datos. Esto es perfectamente comprensible en términos de la ciencia del comportamiento: son sus datos, por lo que quieren acceso y control, cuando y como quieran.

Las empresas y los usuarios, las políticas y las políticas, deben primero aceptar la idea de que los datos no están “siempre disponibles”. Los proveedores deben examinar cómo reaccionarán los clientes y los usuarios comerciales internos: ¿se han explicado realmente las políticas a los usuarios? ¿O la empresa dejará que el departamento de TI asuma la culpa de cualquier falta de transparencia?

“Debe tener la tecnología adecuada, pero debe tener las personas y las políticas adecuadas para que la empresa esté dispuesta a hacer algo al respecto”, dice Lock. “Y hemos estado hablando de la propiedad de los datos durante mucho tiempo. Las empresas quieren poder ver sus datos. Sin embargo, en realidad no quieren hacer nada al respecto, a menos que sea realmente fácil, o preferiblemente invisible, para ellos “.

Hewkin de SEDC está de acuerdo: “La industria aún tiene que adaptarse a los datos que no están disponibles 24×7. Se supone que todo lo que necesitamos saber siempre estará disponible con solo tocar un botón o hacer clic con el mouse “.