Política de Cookies
Utilizamos cookies propias y de terceros para mejorar tu accesibilidad, personalizar y analizar tu navegación. Al continuar navegando consideramos que aceptas su instalación. Puedes cambiar la configuración u obtener más información en nuestra
(+ info)

Aceptar

PQC

El concepto Multitier

POSTED BY Garcerán Rojas 22 de March de 2019

En la práctica totalidad de los proyectos actuales de data center, así como en los assessment, auditorías, estudios específicos y reingenierías de los ya existentes, existe una referencia común para la definición de la topología electromecánica que soporta las operaciones IT.

Se trata del nivel de redundancia, que viene habitualmente expresado por una clasificación relacionada con algún estándar de referencia.

Aunque existen distintas clasificaciones, la referencia más utilizada actualmente son los 4 escalones Tier, que definen básicamente el grado de redundancia existente en una instalación (los dos primeros para alimentación por única vía de suministro a los equipos y los dos siguientes basados en tecnologías de alimentación dual). Sin embargo, a la hora de diseñar el sistema de soporte para lo que representa el corazón del negocio, es decir, la parte IT, hay que tener muy en cuenta sus necesidades reales, y estas son tan cambiantes como lo es su propia evolución.

A grandes rasgos, en un entorno IT encontramos una diversidad de aplicaciones y de necesidades inherentes a las mismas. En principio, una buena proporción de necesidades de trabajo en tiempo real, pero coexistiendo con aplicaciones de internet que permiten un tiempo diferido, e incluso operaciones planificadas de cálculo en entornos de alta capacidad. Es decir, variedad en cuanto a la importancia del proceso y en cuanto a su frecuencia de uso.

Asimismo, y por la parte del almacenamiento de datos, la evolución prevista es espectacular en cuanto a las necesidades de capacidad (el tema de los archivos de imagen por sí solo está derivando en dimensionamientos enormes) siendo uno de los campos por excelencia donde los niveles de importancia en cuanto al contenido de la información son tan dispares como las distintas ubicaciones de una misma información, en muchas ocasiones repetida una y otra vez sin límite. Representa una de las mayores áreas de crecimiento, tanto en cuanto a coste como en cuanto a consumo de energía (de hecho, el código de conducta europeo CoC, para mejorar la eficiencia energética, recomienda trabajar  en varias líneas relacionadas con el almacenamiento, como la conservación de datos, la separación de áreas con distinta política de conservación, protección y funcionamiento, así como la reducción del volumen tanto de los datos en sí como del número de copias existentes, deduplicación ,etc.).

Sin embargo, los data center donde reside todo ese trabajo, han dispuesto hasta el presente de un formato único, con frecuencia dimensionado para las necesidades de los equipos más exigentes incorporados a los mismos, una especie de café para todos que, sólo en los últimos tiempos, está evolucionando hacia entornos más flexibles.

A lo largo de estos últimos años, hemos podido asistir a foros donde se ha pasado en muy poco tiempo de exigir el formato único citado a proponer soluciones mixtas, y eso dentro de la misma organización que establece las referencias.

Además, y al menos hasta ahora, la definición del Tier tiene en cuenta exclusivamente las capacidades, redundancias y modo de funcionamiento de un solo data center, sin tener en cuenta sus vínculos IT con otros lugares, bien sean internos o externos a la organización. Hoy en día, es muy corriente disponer de una redundancia IT por medio de un modo de “failover” a través de distintos data centers. La clásica pregunta que hemos oído en numerosas ocasiones y que se suscita a la hora de plantearse el diseño y construcción de un data center.

 ¿Qué resulta más efectivo, disponer de un centro con una infraestructura máxima o de dos o más de menor nivel operando en paralelo?

La respuesta hay que encontrarla mediante un análisis combinado de costes y disponibilidades del conjunto.

En nuestra experiencia de más de 16 años como consultores en este sector, hemos constatado en algunas ocasiones, tomas de decisión basadas más en intereses particulares de determinadas áreas de la organización que en los que deberían acompañar las decisiones globales de la misma. El caso más extremo sería la construcción de dos o más entornos de máximo nivel de exigencia para un trabajo paralelamente activo en los mismos.

A la hora de plantear un diseño de data center, según cuál sea el sector en el que opere el propietario, se están requiriendo unos niveles de exigencia distintos. En los data center corporativos de grandes compañías, el objetivo se encuentra cerca del Tier IV mientras que en el sector de la externalización el objetivo suele ser algo más bajo (Tier II-III), existiendo también un gran grupo de usuarios que, o bien no utilizan ese tipo de referencias o recurren a soluciones particulares basadas en su experiencia concreta consolidada tras muchos años de funcionamiento.

Pues bien, aunque existan operaciones absolutamente críticas cuya continuidad haya que preservar por encima de todo, lo que es seguro es que en un entorno de máxima exigencia van a existir múltiples elementos para los que la disposición redundada de infraestructura es un lujo posiblemente innecesario. Si analizamos las operaciones que se llevan a cabo en una instalación Tier IV, ¿qué proporción de las mismas requiere ciertamente ese nivel de soporte? Además, la ocupación de ese espacio de máxima disponibilidad puede en ocasiones requerir ampliaciones, con sus consiguientes y elevadas inversiones, que podrían evitarse recurriendo a un reparto más organizado de funciones. Pero claro, ¿cómo separar la yema del huevo sin romper el mismo?

El entorno multitier es un concepto que viene a resolver ese problema, y consiste en dividir el espacio de salas IT, conocido también como área blanca, en distintas zonas, dotadas cada una de ellas de diferentes recursos o estrategias en cuanto a la alimentación eléctrica y la parte de enfriamiento fundamentalmente.

La separación suele tener lugar partiendo de criterios longitudinales o verticales.

  • En el primer caso, según sea el dimensionamiento general y características del recinto de partida (disposición más cuadrada o rectangular), y en función de la configuración de las filas de racks, se llegará a una u otra solución.
  • En el último, la separación por salas que se encuentran en pisos distintos suele ser mucho más intuitiva dando lugar a mayores y mejores posibilidades de alterar las condiciones de infraestructura.

Habida cuenta de la enorme influencia que la alimentación eléctrica tiene en la continuidad del sistema (por encima del 80% de las caídas en los data center son por problemas eléctricos) lo que sí parece claro en cualquier aplicación actual es que, como mínimo, hay que dotar al sistema de los recursos necesarios para aprovechar al máximo la tecnología de alimentación dual a los equipos. Ello está llevando a diseños que, aunque sean de un nivel de topología general menor, casi nunca renuncian a un sistema doble con dos ramas independientes de SAIs (eso sí, siempre hay excepciones a toda regla). Luego por la parte de las alimentaciones generales y sus cuadros asociados pueden adoptarse diferentes soluciones no necesariamente de máximo nivel (estamos encontrando topologías de diseño clasificables como Tier I con una dotación eléctrica perfectamente duplicada e independiente entre los SAIs y la carga)

Por la parte de clima, para una solución de estas características hay que analizar, entre otras, variables:

  • la naturaleza del sistema de enfriamiento
  • la disposición de las máquinas de sala
  • la categoría de los equipos IT en cuanto a sus necesidades de temperatura y humedad relativa
  • la gestión del flujo de aire
  • la contención de pasillos
  • y las alternativas de freecooling existentes.

Y por encima de todo ello, un aspecto esencial a la hora de planificar el futuro. La posibilidad de reconvertir entornos de una cierta topología en otros de naturaleza superior que, por razones de la evolución del negocio, pudiesen requerirse más adelante. Se trata de un criterio de diseño que siempre hemos tenido en cuenta para entornos de topología única que comienzan en un escalón inferior pero que se preparan para que en el futuro no existan limitaciones en el caso de que, se pretenda un incremento de prestaciones. En un ambiente multitier, esa precaución cobra más sentido si cabe y resulta muy recomendable tenerla desde el momento mismo del diseño.

No obstante lo anterior, en el lado de los inconvenientes debemos anotar que un entorno multitier incorpora unos criterios de mantenibilidad y operación distintos para cada una de las zonas lo que, independientemente del hecho de que ciertas áreas se simplifiquen, hace que el conjunto pueda alcanzar una mayor complicación y todo aquello que signifique alejarse de la sencillez, contribuye a incrementar las posibilidades de que el error humano siga siendo la principal causa de anomalías en este tipo de instalaciones.

Por último, y como en cualquier planteamiento en un data center actual, habría que recordar tres aspectos muy a tener en cuenta.

El primero de ellos es el de la eficiencia energética.  Aunque, en general, los fabricantes han mejorado muchísimo en cuanto al rendimiento de sus equipos a carga parcial, y la afirmación no sea tan absoluta como suele recogerse en distintas publicaciones,  lo que sí parece cierto es que un aumento en la redundancia empeora los rendimientos y con ello la eficiencia energética del conjunto del sistema. Se trata de una realidad (menor, aunque realidad al fin y al cabo) que siempre hay que contraponer a las mejoras que se pueden obtener por una buena organización de la parte IT.

Es cierto que las mejoras en la parte E&M dan resultados que, vistos en valor absoluto, son de gran volumen (el consumo de un data center tiene un carácter continuo) pero en proporción son mucho más bajas que las alcanzables mediante trabajos en la parte IT (consolidaciones, virtualizaciones, retirada de servidores comatosos, mejora en el IoF de los servidores, etc, etc, etc).

El segundo, y muy relacionado también con el anterior, es la necesidad cada día más acentuada, de que la parte IT y la de las infraestructuras E&M vayan de la mano, desde el mismo diseño del data center hasta los tiempos de operación y mantenimiento. La correcta definición y el éxito de un entorno mulltitier tiene mucho que ver con un logro, éste, que no es baladí, sobre todo si uno ha tenido la oportunidad de ver la evolución y los criterios de ambos departamentos durante los últimos años.

Hemos visto, durante todo ese tiempo, responsables de infraestructuras que no conocían las necesidades de los equipos IT o que no estaban concienciados de que esa parte IT es el corazón del sistema. Pero también responsables de la parte IT que han ignorado la importancia y complejidad de la parte E&M (en su máxima expresión, la afirmación de un responsable general de un banco que explicaba las razones de caída de su data center como “problemas con el fusible”) o, peor todavía, que han estado convencidos de que se trata de algo muy simple y fácilmente manejable por ellos (la irrupción actual en los diseños electromecánicos de empresas provenientes del sector de la integración constituye un claro ejemplo de ello)

Y el tercero y último, que constituye la base fundamental de una estrategia en cualquier sector, y mucho más si se trata del de los data center, es la perentoria necesidad de disponer de una buena visión global del negocio, siempre amparada en datos, y que establezca el coste total de propiedad como el elemento de referencia a la hora de decidir hacia dónde vamos y quiénes van a ser nuestros compañeros de viaje. Visión global que impida, por ejemplo, acudir a soluciones de menor precio que van a resultar al final extraordinariamente caras o a prescindir de servicios que, de primeras, puedan verse como un coste añadido pero que, cuando se integran en el proceso, contribuyen notablemente al éxito final, tanto en cuanto a la calidad como a la economía.

A la hora de acometer el nuevo proyecto de data center, piensa en términos de TCO y el resto vendrá por añadidura.

 

Garcerán Rojas