Virtualización, virtualización, virtualización. No es un nuevo reality, sino el pedido a gritos de los jefes de centros de datos, sean grandes o pequeños, en un intento por tomar el control de sus desordenados y caros imperios, y alinearlos con las necesidades de sus compañías.

Hace más de 40 años, el centro de datos era el corazón del procesamiento de información corporativa, pero hace unos años quedó demostrado que no es adecuado para enfrentar los desafíos derivados de la revolución informática. Barry O'Connell, director del nuevo grupo de Hewlett-Packard (HP) dedicado a la transformación de centros de datos, observa un abismal cambio en la teoría de estos entornos. "Por primera vez, se observa un movimiento, porque la gente comenzó a pensar qué hacer con las mainframes, a ocuparse de los problemas que tienen los centros de datos", indica y agrega: "Se dieron cuenta de que el centro de datos quedó fuera de control. Surgió un debate sobre la función que éstos deben cumplir." La virtualización -correr varios sistemas operativos y aplicaciones en un único server- es una de las nuevas tecnologías que las empresas están ansiosas por implementar porque permite reducir costos y disminuir el consumo de energía.

El factor ahorro

Pero O'Connell cree que todavía es temprano: "A muchas de estas tecnologías se las trata casi como prueba del concepto. La gente está tratando de saber qué hacer con ellas. "Llegará un punto en que esas tecnologías se convertirán en verdaderos activos para los gerentes de bases de datos, pero es difícil implementarlas si no se comprende qué es lo que se quiere hacer con el centro de datos, los servicios a brindar y cómo administrar todo en relación con las prioridades de la empresa".

Aún así, la virtualización permite ahorrar a gran escala. Un gerente de base de datos que prefirió mantener su nombre en reserva, analizó su experiencia con la tecnología. Su compañía, un grupo de servicios financieros, usa una combinación de equipos de Sun Microsystems, Hewlett-Packard y de IBM. Opera un centro de datos y un sitio de recuperación de desastres. "La vieja instalación hacía años que debía reemplazarse, pero las limitaciones financieras no permitían hacerlo. Por lo tanto, comenzamos un proyecto diseñado para reducir la carga del data center. Los servidores eran equipos viejos, de la época en que la energía eléctrica no era realmente un problema tan importante", contó.

Contrató al grupo Morse para que lo asesorara, y la recomendación fue reemplazar a los viejos servidores -cada uno consumía la energía de varias estufas eléctricas- por máquinas modernas, lo que redujo 90% el consumo de electricidad.

Los servidores más grandes, esencialmente las mainframes, que consumían 30 kilovatios (kW), fueron reemplazadas por computadoras que usaban el 1% de esa energía. Lograron disminuir a la mitad la cantidad de servidores, lo que permitió ahorrar en mantenimiento. Como parte de pago entregó a los viejos equipos, los cuales fueron reciclados.

Según este gerente, la compañía debería haber detectado antes la necesidad de consolidación y racionalización. "Estábamos tan concentrados en el negocio central que perdimos de vista el futuro del centro de datos. Seguimos comprando hardware para las nuevas aplicaciones hasta que, finalmente, el centro se llenó".

¿Cómo es el típico data center? La consultora Quocirca describió la instalación de una compañía "media" de 1.500 empleados, para ello se basó en sus investigaciones del mundo real realizadas durante el año pasado. La describió como un centro de datos que comprende 20 servidores que corren una combinación de Windows Server 2003 y Microsoft.NET. Hay máquinas más viejas que corren Microsoft NT y unas pocas Sun que corren Solaris o Red Hat Linux.

Recuperar la perspectiva

La hipotética compañía opera una red de líneas que conecta sus principales sucursales y depende de Internet para conectar oficinas más chicas. El correo está basado en Microsoft Exchange, que corre en el centro de datos. La empresa comenzó a virtualizar sus servidores hace un año. El programa está completo en un 25% completo.

En Quocirca critican la falta de backup que se observa en esta típica compañía, tanto de datos como de energía, y también manifiestan su preocupación por la seguridad. Creen que las empresas gastan dinero en una mala estrategia de redes que brinda pocos progresos en lo que se refiere a las credenciales "verdes". Tampoco hay algo que impida que los empleados usen USB u otros dispositivos para bajar datos y casi seguramente los servidores están subutilizados.

La experiencia confirma que los servidores rara vez se ganan el sustento. O'Connell de HP sostiene que la gestión de centros de datos por lo general es caótica: "Cada unidad de negocio decide qué aplicaciones quiere implementar. Trabajamos con un cliente con más de 3.000 servidores en varios centros de datos. Descubrimos que en promedio cada servidor utilizaba sólo 15% de su capacidad."

O'Connell pide un mejor gobierno informático, pero no está seguro de que muchas organizaciones "sepan qué significa gobierno de IT y que detrás del mismo hay una cantidad de procesos formales en materia tecnológica". Asegura que los centros de datos deberían brindar una serie definida de servicios, y no ser un receptor pasivo de pedidos de nuevas aplicaciones.

Traducción: Mariana I. Oriolo