En particular recomendaría buscar información en blogs, hay varios bloggers en la red conocidos que siempre están posteando sobre esto (en el blogroll de este blog hay un par por cierto).
En un foro que visito surgió el comentario acerca de un evento de vendors sobre ahorro energético en tiempos de crisis usando "virtualización", de ahí estas ideas.
- Cuando la regulación de condiciones ambientales afecta la temperatura interna de operación de los procesadores de los servers y lleva superar la media recomendada para el workload promedio...(siempre que estés ahí "abajo" monitoreando de algún modo el hardware),
- Otro ejemplo son los fans, un clásico como origen de falla de hardware, cuando se toca alguna variable ambiental y "escuchamos" los fans todo el tiempo es una mala señal claramente, en ese punto en realidad (porque normalmente no estamos tan cerca del hardware para llegar a "escuchar" ningun fan), nuestros monitores deberían estar enviando correos, sms y mostrando rojo sobre el tema de los fans en general por el todo el dashboard que se esté usando..
Hace poco había una discusión sobre el tan mentado "ahorro" de los servers blade, y mucho análisis ha llevado al consenso de que si el espacio no es un factor crítico, los servers blade no ahorran mucho e incluso tienen el potencial de gastar más que los servers típicos si se mantiene el mismo esquema de regulación ambiental usado para los servers clásicos (los servers blade suelen tener disponible un poco visitado manual de buenas prácticas de deployment donde se toca en detalle este "temita" de la refrigeración)...eso añadiría el costo de adecuación del acondicionamiento ambiental al de los blade servers, en fin es para ir a más detalles...
Lo de la virtualización como solución deviene directamente de la idea de que virtualizar es prescindir de equipamiento (y de ahí vendría el ahorro en refrigeración y consumo de energía en teoría), y la discusión gira siempre en torno a que utilizando hardware orientado a infraestructuras virtuales y dada la capacidad de X hardware para soportar X workload (procesamiento, memoria), con X capacidad de storage al final se podría llegar a una equivalencia en consumo de recursos a digamos, comprar un montón de servers clásicos. Es una discusión que se define por los detalles más finos y por caso particular normalmente, ello no influye en los demás factores clave en la selección de infraestructura virtual (aprovechamiento optimizado de recursos en general, distribución optimizada de cargas de trabajo, aprovechamiento extremo de capacidad de almacenamiento, resilience de hardware y software superior al que se puede obtener en una infraestructura típica ya optimizada - HA, clusters, carga distribuída, etc.).
Como ven el tema no es tan directo como lo hacen parecer los vendors de hardware (y los de promueven soluciones de virtualización), y eso también explica por qué los grandes implementadores de infraestructura (Microsoft, Google, Amazon, etc.), se inclinan por soluciones in-house, personalizadas y casi artesanales para optimizar el costo-beneficio de la infraestructura.
Al final si se busca optimizar hardware y software al nivel de ahorrar en serio, lo que queda es conocer bien el hardware, relacionarlo (estadísticamente), con el software, verificar que las interacciones no nos van a llevar a gastos equivalentes (+ el costo de implementación de las hipotéticas "mejoras"), y asegurar el ROI del proyecto; recuerden que la prueba última de toda la idea se da cuando llegan las facturas a fin de mes.
No hay comentarios:
Publicar un comentario