Política de Cookies
Utilizamos cookies propias y de terceros para mejorar tu accesibilidad, personalizar y analizar tu navegación. Al continuar navegando consideramos que aceptas su instalación. Puedes cambiar la configuración u obtener más información en nuestra
(+ info)

Aceptar

PQC

Superconductividad como posible solución a los tremendos presagios sobre consumos.

POSTED BY Garcerán Rojas 17 de julio de 2024

"Para 2040 casi la mitad de toda la potencia eléctrica mundial será utilizada en computación."

Llevamos años oyendo cifras sobre el porcentaje que supone el consumo en centros de datos e instalaciones análogas con respecto al total de consumo eléctrico mundial, y lo que empezó, allá por 2006-2007, con el famoso 1,5% recogido en el informe de la EPA al Congreso USA, ha ido evolucionando hasta una realidad actual que lo sitúa en el entorno del 4 o 5% y que vislumbra una cifras a muy corto plazo rebasando con creces el 10%, en clara aproximación a un 15% que nadie hubiese podido imaginar hace sólo unos pocos años.

Pero lo que ya ha rebasado cualquier tipo de pesadilla, es la muy reciente publicación, por parte de IEEE, referencia muy autorizada en temas científicos, con la afirmación de que para 2040 casi la mitad de toda la potencia eléctrica mundial será utilizada en computación, añadiendo, además, la precisión de que esta predicción haya sido lanzada antes de la repentina “explosión” de la IA generativa.

En un artículo titulado “Un Data Center en una Caja de Zapatos”, Anna y Quentin Herr de Imec (hub de I+D en nanoelectrónica y tecnologías digitales) sostienen que los recursos necesarios para entrenar los más grandes modelos de IA se han ido doblando cada 6 meses durante la última década y que, a este ritmo, para 2030 entrenar un solo modelo IA llevaría 100 veces más recursos que los utilizados, anual y conjuntamente, por los 10 mayores supercomputadores actuales.

En pocas palabras, la computación va a requerir cantidades colosales de energía que excederán, muy pronto, lo que nuestro planeta puede generar.

Ante esta situación, son varias las posibles salidas, de las que iremos hablando en los próximos meses, pero hoy nos haremos eco de la indicada en el artículo de referencia que es la superconductividad.

Los superconductores ofrecen la posibilidad de rebajar drásticamente el consumo ya que no disipan energía cuando la corriente circula por ellos. Cierto es que sólo trabajan a temperaturas criogénicas por lo que requieren un aporte extra de energía para el enfriamiento, pero, a cambio, ofrecen interconexiones de resistencia prácticamente nula una lógica digital basada en pulsos ultracortos que requieren de una energía mínima y la capacidad para una increíble densidad de computación gracias a la arquitectura 3D.

Lo que se trata ahora es de analizar si estas ventajas compensan el sobreconsumo requerido por el enfriamiento criogénico y los autores afirman que sí, sobre todo cuando la escala de recursos de computación va aumentando ya que, entonces, el coste marginal del enfriamiento se va reduciendo. A partir de unas decenas de petaflops (1016) la computación “superconductiva” comienza a ser más eficiente que su equivalente llamémosle “clásica” y esta es precisamente la franja actual de funcionamiento de la computación de alto rendimiento.

Los autores no vaticinan una sustitución de la tecnología CMOS por parte de la superconductiva, pero sí que actúe como complemento de aquella para aplicaciones específicas y como empuje en otras nuevas, pudiéndose integrar también, sin problemas, con la computación cuántica, basada también en tecnología superconductiva.

Su utilización en campos como la IA y el Machine Learning es una de las aplicaciones más significativas e, incluso, el entrenamiento de modelos IA basados en la nube.

En definitiva, los autores afirman que, con esta tecnología, el tamaño de los data centers se reducirá de forma drástica, de ahí que cobre sentido el titulo del artículo “Un data center en una caja de zapatos”.

Garcerán Rojas