Política de Cookies
Utilizamos cookies propias y de terceros para mejorar tu accesibilidad, personalizar y analizar tu navegación. Al continuar navegando consideramos que aceptas su instalación. Puedes cambiar la configuración u obtener más información en nuestra
(+ info)

Aceptar

PQC

La mejora en la eficiencia de los servidores

POSTED BY Garcerán Rojas 27 de January de 2022

La eficiencia energética en los data centers es un tema recurrente que nos ha llevado, desde hace unos cuantos años, por caminos interesantes, pero no siempre del todo acertados.

Un ejemplo de ello es el foco puesto principalmente en la parte mecánica que dejó a la parte IT en un plano secundario cuando la realidad era exactamente la contraria.

La evolución en la mejora de la eficiencia de la parte IT ha ido a lomos de la propia evolución en el grado de integración en función de la Ley de Moore, que data de mediados de los años 60, complementada más recientemente por otra ley, conocida como Ley Koomey que, para plazos equivalentes a los de Moore, vaticinaba la duplicación de las capacidades de procesamiento por unidad de energía incidente.

En su día, la progresión observada en la fabricación de servidores nos permitía afirmar que la colocación de uno nuevo, desde el punto de vista exclusivo de su consumo para la realización de un determinado trabajo, tenía un retorno de inversión mínimo, lo cual condujo a plazos de renovación de los equipos de unos tres años.

Otro aspecto importante, dentro de esa eficiencia de la parte IT, ha sido la, hasta hace muy poco, progresiva mejora en el IoF (iddle over full) o en su inversa, el rango dinámico, que tienen en cuenta el comportamiento del servidor a carga parcial, algo que presentaba unas cifras escandalosas allá por 2007 y que, afortunadamente, ha ido mejorando de forma muy sensible a medida que transcurrían los años.

Pues bien, el discurrir de todo ese tiempo, nos ha traído hasta un punto donde ya existen serias limitaciones estructurales de la propia materia para seguir avanzando en los mismos términos de antes, pero donde las mejoras siguen siendo necesarias y, habida cuenta que los avances se han ralentizado, su búsqueda lleva a los desarrolladores hacia campos diferentes. Y, si bien es cierto que las capacidades por servidor han seguido aumentando, no lo ha hecho al mismo nivel la mejora de la eficiencia y, aunque esto va a cambiar en los próximos años, parece claro que aquellos tiempos de antaño, con mejoras permanentes para todos, no volverán.

Las últimas tecnologías aplicadas hacen que la economía asociada a las infraestructuras y la eficiencia se optimicen sólo para aquellos operadores que puedan disponer de servidores con procesadores de múltiples cores con una amplia capacidad de memoria y cuando éstos se empleen a altos niveles de utilización. A día de hoy, el IoF está creciendo con lo que los servidores utilizados a carga parcial van a penalizar. Por ello, a partir de ahora, algunos data centers serán capaces de sacar provecho a lo que ofrecen las nuevas tecnologías, mientras que otros cuantos no podrán hacerlo.

¿Y quiénes serán los que mejor puedan aprovechar la situación?

Pues los operadores a mayor escala (y sus clientes) así como aquellos usuarios que más y mejor inviertan en perfiles IT y en nuevo software (las nuevas tecnologías favorecen a las infraestructuras fuertemente consolidadas y a aquellos softwares que aprovechen mejor los nuevos recursos).

O sea, un nuevo argumento para la consideración de la economía de escala.

Y todo ello, paradojas de la cosa técnica, en un escenario donde, según datos publicados hace bien poco, el 65% de la energía se está empleando en la realización de, solamente, el 7% del trabajo lo cual nos descubre un mundo de servidores utilizados a carga muy parcial o, directamente, comatosos (según el término que le gustaba tanto utilizar al maestro Ken Brill).

Garcerán Rojas