Medición De la
Temperatura Del Data
Center
ESPECIALIDAD: Administración de
Redes y Comunicaciones :
PROFESOR: Elmer Sierra
Huahuachampi
INTEGRANTES:
Luz Marina Lobon Jaño
Mayra Pacco Neyra
Danilo Philco Apaza
José Valdivia Cabello
Jessica Vargas Anahua
Arequipa, Perú 2019
Data center
Una data center es una instalación que centraliza las operaciones y el equipo de TI de una
organización, así como el lugar donde ésta almacena, administra y difunde sus datos. Los
centros de datos albergan los sistemas más críticos de una red y son vitales para la
continuidad de las operaciones diarias. Consecuentemente, la seguridad y confiabilidad de
los centros de datos y su información es una prioridad para las organizaciones.
Las arquitecturas y los requisitos del centro de datos pueden diferir significativamente en función
de la finalidad que persiga. Por ejemplo, un centro de datos creado para un proveedor de
servicios en la nube como VMware, satisface ciertos requisitos de instalación, infraestructura y
seguridad que difieren significativamente de un centro de datos completamente privado, como el
creado para un organismo oficial, que se centrará de forma más prioritaria en la protección de
datos clasificados
¿Qué tipos de data center existen?
La industria tecnológica distingue entre estos cuatro tipos de data center.
Tier 1: se trata de un centro de datos básico. Es frecuente la interrupción de la
disponibilidad del data center por factores externos debido a que no cuenta con
generadores eléctricos o sistemas de climatización extras. Una vez al año o
cuando sea necesario, el data center no estará disponible para realizar tareas de
mantenimiento. La disponibilidad promedio es del 99,67%.
Tier 2: consiste en un centro de datos redundante. Tiene caídas menos
frecuentes porque cuenta con una fuente alternativa de energía y una
infraestructura mínima de climatización. Pueden realizarse algunas tareas de
mantenimiento sin tener que dejar el data center fuera de línea. Su disponibilidad
es del 99,74%
Tier 3: se trata de un centro concurrentemente mantenible. Cuenta con una
tolerancia a fallos mayor porque posee fuentes de energía alternativas y
refrigeración. El mantenimiento puede realizarse
sin ningún tipo de interrupción en el servicio. El
Tier 3 debe incluir también la posibilidad de
avanzar hacia el Tier 4 sin interrumpir el servicio
de data center. Tiene una disponibilidad del
99,98%.
Tier 4: es un centro de datos tolerante a
fallos. Tiene múltiples elementos redundantes en
electricidad y refrigeración lo que le permite
soportar situaciones críticas sin dejar el centro
de datos offline. El mantenimiento se realiza sin
afectar el funcionamiento del centro de datos
aún en situaciones de emergencia. Los centros
de datos Tier 4 tienen una disponibilidad del
99,99%.
En los diferentes tipos de data center, existen algunas
opciones que pueden variar significativamente, entre las
que destacan las siguientes:
Tecnología de almacenamiento de datos
Tipo de ancho de banda (interno, externo o mixto).
Nivel de virtualización de servidores.
El uso de la Capa 2 (L2) y / o la Capa 3 (L3) para el control de tráfico en el centro
o la periferia (Top of Rack).
Tamaño total del centro de datos (número de servidores).
Componentes y funcionamiento:
Servidores: El propósito principal de un data center es alojar los servidores necesarios
para soportar los servicios ofrecidos a los clientes. Personal cualificado se encarga
de que todos los servidores tengan actualizado y en perfecto funcionamiento tanto
software (Sistemas operativos, actualizaciones críticas, aplicaciones, copias de
seguridad, parches) como hardware (memorias, discos duros, cpu´s, etc.)
Conectividad de red: Mediante switches todos los servidores reciben y entregan
información desde la red y hacia la red según la demanda y el trabajo al que estén
destinados.
Energía: Se necesita una fuente de alimentación para mantener todo este conjunto en
marcha, normalmente se usan fuentes redundantes y electro-generadores diésel
para abastecer a todo el sistema en caso de fallo eléctrico. Los sistemas eléctricos
deben de mantenerse constantes y sin fluctuaciones de voltaje o intensidad los
cuales pueden perjudicar a todo el conjunto
Climatización: La carga de trabajo a la que se someten los sistemas de un data center
generan unas condiciones de calor muy elevadas, para evitar sobre calentamientos
existen uno o varios sistemas de ventilación que pueden utilizar aire frio o líquidos
refrigerantes para mantener una temperatura adecuada. También se tiene en cuenta
la disposición de los servidores para que la evacuación natural del aire sea la mejor
posible.
Monitorización: La información y procesos que alberga un data center es en la mayoría
de los casos crítica, un fallo en el servidor que por ejemplo se dedique al
procesamiento de los datos de tarjetas de crédito puede dejar en jaque a miles o
millones de personas, ir siempre un paso por delante de estos fallos o atajarlos
inmediatamente es la labor de personal altamente cualificado que se dedica segundo
a segundo a velar porque todo funcione correctamente.
Sistemas de seguridad: Sistemas contraincendios, edificios con construcciones
antisísmicas, vigilantes de seguridad, sistemas de accesos restringidos, etc., según
el contenido de sus servidores las empresas que gestionan los data centers velan
por la seguridad e integridad de todo el sistema.
Todas las partes expuestas deben desarrollarse paralelamente para obtener los resultados
óptimos que se esperan de un data center profesional
¿Cuáles son las ventajas y desventajas de
un data center?
Ventajas
Información
Seguridad
Eficiencia de energía
Climatización
Backups fáciles
Desventajas
Seguridad al 90%
Puntos de falla
Saturación de hardware
¿Cuáles son las tendencias que pueden afectar al
data center?
La evolución de la tecnología del centro de datos está pasando por un punto de inflexión que
desembocará en cambios durante los próximos meses. Hasta ahora, la industria ponía el
foco en impulsar la centralización de servicios en la nube y la transición de pequeñas y
medianas empresas a ese entorno. Sin embargo, una vez se alcance ese objetivo,
comenzarán a surgir nuevas necesidades que el data center deberá resolver con
transformaciones como las siguientes:
Los operadores de mega centros de datos ampliarán sus data center, lo que puede dar pie a
cambios a nivel tecnológico (LinkedIn Pulse).
La capacidad total de almacenamiento del centro de datos llegará a 1.8 ZB para 2020. La
nube representará el 88% de la capacidad de almacenamiento total (Data Economy).
Los datos almacenados en los centros de datos alcanzarán la cifra de 915 EB para 2020
(Data Economy).
Se comenzará la construcción de una colmena de centros de datos micro bien conectados,
ubicados en torres de telefonía móvil y oficinas locales, listos para dirigir la primera línea de
procesamiento para las aplicaciones del futuro (LinkedIn Pulse).
Data center se sitúa en el punto crucial a la hora de brindar servicios de TI y de
almacenamiento, comunicaciones y redes al creciente número de dispositivos en red,
usuarios y procesos de negocios en general. La creciente importancia de la analítica de
datos ha contribuido al valor y al crecimiento de los centros de datos llevando al data center
a un momento de su ciclo de desarrollo e innovación de la tecnología en que se pronostica
un cambio de enfoque, a pesar de que el escalamiento centralizado tradicional del centro de
datos continuará dominando los volúmenes y los precios en los próximos años en todas las
tecnologías en uso.
Puntos claves en la administración de
energía del Data Center
Durante la última década, la energía y la refrigeración han pasado de ser ideas de último
momento a ser las preocupaciones centrales en la construcción y funcionamiento de un
Data Center.
En este sentido, las empresas del sector han mejorado la eficiencia de casi todos los
elementos de la cadena de alimentación y refrigeración. Así, los usuarios actualmente
pueden adquirir sistemas de servidores más eficientes en términos de rendimiento por vatio,
los cuales permiten obtener un mejor diseño en el armado de los nuevos Data Centers.
El eslabón más débil sigue siendo la
gestión de la energía en los sistemas que
se encuentran en los niveles de rack y de la
fila, donde se produce la mayor parte del
consumo. Cisco Unified Computing System
(UCS) es una solución diseñada para
enfrentar la administración de energía a
nivel fila, especial.
El Sistema de Computación Unificada de
Cisco permite la administración de energía
a través de grupos de chasis y racks,
brindando una mejora en el rendimiento de
hasta un 30% en el Data Center tradicional,
sin costo adicional de capital.
Esta capacidad está integrada en la
arquitectura de Cisco UCS. Antes de
analizar en profundidad la gestión de
energía, es necesario comprender el
contexto en el que Cisco ha estado
trabajando.
El objetivo fundamental es reducir el
consumo de energía por unidad de
volumen de trabajo, lo cual ha sido objeto
de esfuerzos de varios años y de múltiples
Vendors.
Mientras que algunos elementos de la
cadena de alimentación y refrigeración
están fuera del ámbito actual de un Vendor
de sistemas como Cisco, hay innovaciones
en la arquitectura de los servidores de UCS
que ayudan a mejorar la eficiencia en el
consumo de energía y refrigeración. solamente en los casos que se requiere una gestión
flexible de los picos de potencia.
Consejos para mejorar la eficiencia de un
data center
Existen diversos factores que se debe tener en cuenta para optimizar los recursos y mantener la estructura
en estado funcional.
En primer lugar, debemos distribuir los racks de forma adecuada. No olvidemos que los racks son soportes
metálicos de aspecto similar al de una estantería que se utilizan para alojar equipos electrónicos, de
comunicaciones e informáticos.
Tanto si los colmamos como si no aprovechamos su espacio al máximo ponemos en peligro
la refrigeración de los aparatos. Para evitar este problema debemos repartirlos de forma pareja, ocupando
todos los racks en el mismo grado, de manera que la potencia disipada por ellos en cada hilera sea
homogénea.
Separar los pasillos de aire frío y caliente, para conseguir un sistema de refrigeración óptimo. De esta
manera no sólo protegemos los aparatos, sino que evitamos derroches de energía eléctrica. Esta tarea
depende en gran parte de la anterior: si no distribuimos los racks de forma correcta, tampoco podremos
conseguir un nivel adecuado de refrigeración. Utilizando las mejores opciones de cerramiento de data
center disponibles en la actualidad, podemos conseguir ahorros de energía que alcancen el 30%.
Planificar adecuadamente el data center y controlarlo en todo momento es uno de los caminos hacia el
éxito. Existen muchas herramientas que nos permiten medir las variables de forma precisa y acceder a una
visión integral del sistema. La capacidad de los dispositivos como el espacio que ocupan y su consumo
energético son algunos de los puntos a tomar en cuenta en este contexto.
Para reducir los costes energéticos aún más se recomienda utilizar iluminación LED,
una tecnología conocida por todos que nos puede ofrecer ahorros cercanos al 90% si se implementa de
forma adecuada. Es importante usar corriente de bajo voltaje integrado al cableado estructurado para
alimentar las lámparas.
Temperatura Del Data Center
Dentro del Data Center, mantener la temperatura adecuada de forma estabilizada y controlada es
una pauta fundamental del control ambiental, permitiendo el establecimiento y ejecución de una
política claramente definida que contribuya a tener un Data Center robusto, confiable y durable.
El rango de temperatura óptimo para un Data Center es entre 17 °C y 21 °C. Es necesario aclarar
que esa temperatura no es de carácter obligatorio e inamovible, sino que existe también un
margen aceptable de operación que sería de 15 °C y 25 °C.
Cualquier temperatura mayor a 25 °C deberá ser corregida de manera inmediata, ya que implica
poner en riesgo el equipamiento del Data Center.
¿Qué rango de temperatura recomiendan los principales fabricantes de servidores?
IBM: 22 °C
Dell: 23 °C
HP: 22 °C
¿A qué temperatura operan los Data Centers de las grandes empresas?
Google: 26 °C (*)
Sun: 27 °C (*)
Cisco: 25 °C (*)
Facebook: 22°C (*)
Importancia de la climatización de un
data center
Con el fin de mantener las condiciones ambientales precisas para la
integridad de los servidores y, por lo tanto, de la información que en
ellos se almacena, es indispensable contar con un sistema de
regulación de temperatura que controle los niveles de humedad y
calor dentro de un Data Center.
Una encuesta de IDC, empresa especializada análisis de datos,
acerca de Data Center, encontró que hasta un 24% del presupuesto
de un centro de datos se destina a la refrigeración.
Los datos almacenados en los servidores tienen un aumento y
crecimiento constante, lo que incrementa las operaciones y la
temperatura de los servidores. Si la temperatura alcanza un punto
crítico, los componentes del servidor no podrán funcionar
correctamente y en el peor de los casos, la temperatura extrema
quemará el procesador. De ahí la importancia de que los centros de
datos necesiten acondicionadores de aire.
De acuerdo con las mejores prácticas recomendadas por la ASHRAE
(American Society of Heating, Refrigerating and Air Conditioning
Engineers), el rango de temperatura óptimo para un Data Center
oscila entre los 17 °C y 21 °C. Sin embargo, cabe aclarar que esta
temperatura tiene un margen aceptable de operación que va de los 15
a los 25 °C. Por otro lado, si se llega a una temperatura mayor a 25 °C,
deberá ser corregida de manera inmediata, ya que pone en riesgo el
equipamiento del Data Center.
Dado que la temperatura debe establecerse en las condiciones
ideales, es recomendable elegir un aire acondicionado con función de
temperatura basada en el procesador que se tiene dentro de la
empresa. Dicho enfriamiento controlará el aumento de temperatura y
reaccionará en consecuencia. Un beneficio de esto es que el personal
de soporte de TI podrá monitorear los cambios de temperatura del
procesador en tiempo real. Establecer la temperatura ideal en el
centro de datos es la clave para asegurar la información que
contienen.
Tradicionalmente, existen dos maneras principales para refrigerar los
Data Center:
Sistemas basados en aire: este tipo de refrigeración utiliza
conductos de aire para enfriar los dispositivos. El objetivo
principal de este método es separar el aire caliente del frío; se
bombea aire frío hacia los equipamientos y luego se recoge el
aire caliente que sale de estos. Es un sistema sencillo, que
bombea grandes cantidades de aire frío y requiere un gran
consumo de energía.
Sistemas basados en líquido: funcionan con grandes
contenedores de agua fría, la cual se bombea a través de
tuberías que pasan entre los racks o bastidores y también entre
dispositivos. Siempre se mantiene una barrera entre los
dispositivos y el agua que circula, ya que el agua conduce la
electricidad y podría dañar los componentes si existe contacto
entre ellos. Es por este aspecto que muchos Data Center no
utilizan este sistema, por riesgo a posibles fugas de agua que
puedan dañar sus equipamientos.
Es recomendable que el sistema de enfriamiento incluya un respaldo.
Si el sistema principal no mantiene la temperatura perfecta, el de
respaldo se hará cargo del trabajo. En el sistema normal, los
acondicionadores solo funcionan en un momento específico, fuera de
ese tiempo determinado, no pueden mantener la temperatura ideal
que se requiere en la habitación.
La temperatura no es lo único que afecta al rendimiento de los
servidores. La humedad también es un aspecto que debe tomarse en
cuenta. Es importante conocer las características que debe tener el
acondicionador de aire ideal para un Data Center, ya que a medida
que avanza la temperatura, la humedad también puede afectar el
rendimiento del servidor en el centro de datos.
Debido a esto, la opción ideal es el denominado “sistema de aire
acondicionado de precisión”, el cual está construido para climatizar
equipos electrónicos de manera óptima. El sistema de precisión
mueve el volumen del aire a casi el doble de rapidez que un sistema
convencional. Además, cuenta con filtros que minimizan los efectos
de deterioro causados por el polvo y su trabajo se divide en un 85 a
90% al enfriamiento del aire y de un 10 a un 15% a remover la
humedad.
Factores Clave en los Data Centers
El cableado afecta factores clave en el centro de cómputo:
1. Espacio
2. Flujo de aire
3. Densidad
4. Flexibilidad
5. Confiabilidad
6. Seguridad
7. Soporte
Espacio
El incremento en los canales de cable debido a la mayor densidad de equipos
presenta los siguientes problemas: - Canalizaciones de cable congestionadas que
restringen el flujo de aire de enfriamiento - Sin una adecuada planeación, el
incremento en la densidad puede impedir severamente la expansión futura y los MACs
(movimientos, adiciones y cambios)
Confiabilidad
El alto grado de confiabilidad que deben tener los centros de cómputo se puede
resumir en la siguiente expresión: los centros de cómputo no deben fallar. Para
asegurar la confiabilidad de la infraestructura, debe especificarse sistemas de
cableado de alta calidad de producto y que estén preparados para aplicaciones futuras
de alto desempeño; deben seguirse prácticas apropiadas de instalación y diseño; ya
que, aunque representan tan sólo entre el dos y el tres por ciento del gasto en
infraestructura de red, la planta física y el cableado son responsables del 70% de las
caídas de red4. El cableado es una pieza sumamente importante en asegurar la
confiabilidad del centro de cómputo ya que es el componente de la red más durable.
Las normas coinciden que los sistemas de cableado se deben planear con un mínimo
de 10 años de ciclo de vida (dos a tres veces mayor que los equipos activos). La
correcta implementación de un sistema de administración es esencial para asegurar la
efectividad en el mantenimiento del sistema de cableado. Según estudios recientes, un
80% del tiempo de reparación es sólo para identificar y rastrear los circuitos de
cableado, mientras que el 20% es el tiempo efectivo para resolver el problema
Seguridad
Las regulaciones de seguridad para sistemas de procesamiento de información
incluyen la capa física y por lo tanto el sistema de cableado.
Deben implementarse sistemas de administración que ayuden a los usuarios a cumplir
con estas regulaciones:
- Asegurando la documentación exacta de la infraestructura - Manteniendo un registro
de los eventos de red
- Simplificando la conformidad con tareas de auditoría
- Permitiendo medidas preventivas antes de que surjan problemas de no conformidad
- Fortaleciendo las medidas de seguridad y privacidad
- Detectando intrusiones a la red
- Identificando la ubicación física de dispositivos intrusos o infectados
Soporte
Los valores agregados ofrecidos con los sistemas de cableado son esenciales para
asegurar el grado de desempeño y el grado de disponibilidad de los servicios. Los
valores agregados incluyen:
- Instaladores y diseñadores certificados
- Garantía que incluya productos, instalación, desempeño de sistema y aseguramiento
de aplicaciones futuras
- Soporte técnico especializado en centros de cómputo
- Asesoría en la planeación de ampliaciones y modificaciones Componentes de Alta
Densidad
Las aplicaciones de alta densidad pueden requerir hardware de alta densidad. Dichas
aplicaciones pueden incluir:
- Servidores tipo blade
- Switches tipo core
- Conexiones de alta densidad en sustitución de conectores para las salidas de equipo
- En situaciones de alta densidad deberá especificarse adecuadamente el tipo de
hardware de conexión y los componentes especialmente diseñados para tales
situaciones. 22.
Normas y estandares
Para el correcto diseño e implementación de un sistema de cableado para los centros
de cómputo, actualmente se cuenta con varias normas y estándares, entre las que se
encuentran:
Estandar TIA 942
El estándar TIA942 provee una serie de recomendaciones y Guide Lines (directrices),
para el diseño e instalación de infraestructura de Data Centers, que son los lugares
donde se colocan racks, servidores, equipos de comunicaciones, etc. La intención es
que sea utilizado por los diseñadores que necesitan un conocimiento acabado del
facility planning (servicios de planificación), el sistema de cableado y el diseño de
redes. Este estándar está aprobado por TIA (Telecomunications Industry Association)
y ANSI (American National Standards Institute).
Inicios
En abril de 2005, la Telecomunication Industry Association publica su estándar TIA-
942 con la intención de unificar criterios en el diseño de áreas de tecnología y
comunicaciones. Este estándar que en sus orígenes se basa en una serie de
especificaciones para comunicaciones y cableado estructurado, avanza sobre los
subsistemas de infraestructura generando los lineamientos que se deben seguir para
clasificar estos subsistemas en función de los distintos grados de disponibilidad que se
pretende alcanzar. Abril 2013 se aprobó la actualización de la normativa TIA 942, un
manual de referencia para la instalación de cableado en el centro de datos que, tras
diez años de vigencia en el mercado, necesitaba incorporar los últimos cambios y
novedades de la industria.
Medicion de temperatura en el
Data center de TECSUP:
Aplicación: PASCO
Data center a temperatura ambiente
Gráfica:
temperatura versus tiempo
En esta muestra de 100 datos, se observa que la
temperatura es casi constante solo varia de en algunas
zonas la temperatura, pero es mínima la variación
Data center a temperatura con ambiente cerrado
Gráfica:
temperatura versus tiempo
En esta muestra de 100 datos, se observa que la
temperatura ha aumentado considerablemente sobre todo
en las zonas cercanas al mismo Data Center.
Conclusiones:
Se concluye que un Data Center es una construcción que
alberga dispositivos de interconexión necesarios para
mantener una red de computadores en una empresa o
institución, el cual debe contar con la debida energía eléctrica
necesaria y a su vez con la ventilación adecuada ya que el
aumento de temperatura afecta directamente a los equipos de
interconexión
Para finalizar los sistemas de seguridad son muy importantes
en un Data Center debido a que no cualquier personal puede
tener acceso a ellos.