La importancia de entender las tendencias de mercado para lograr la reducción de gastos en los centros de datos y evitar la expansión de hardware.

  • Los administradores de TI necesitan identificar e integrar las tendencias del movimiento del mercado en sus centros de datos para mejorar la administración de costos y recursos, mientras evitan la expansión de hardware, apunta un ejecutivo de Hitachi Data Systems (HDS).
Por Wanda Ikeda / gikeda@espacioenmedio.com

México D.F., 20 de Agosto de 2010.- En entrevista con ZDNet Asia, Hu Yoshida, Vicepresidente y CTO de Hitachi Data Systems, dijo que las tendencias clave del mercado incluyen la evolución de los costos de TI y el cambio del tipo de datos que se almacenan. También describió una “tormenta perfecta” de factores que, a su parecer, se ha ido gestando en el mundo de los servidores.

Ahondando sobre costos de TI en centros de datos, menciona que ha notado que mientras los costos de hardware se han mantenido estables durante los últimos 10 años, los gastos generales han aumentado en un promedio de 78% cada año. El alza se puede atribuir a los costos operativos, apuntando al aumento en energía eléctrica necesaria para la operación y enfriamiento del centro de datos como un factor clave en el aumento.

Como los negocios se hacen más rápido hoy, Hu Yoshida señala que no hay lugar para inactividad del sistema. Por ejemplo, para la mayoría de las empresas, la migración de aplicaciones o datos de una caja de almacenamiento a otra únicamente puede

Hu Yoshida_Vicepresidente de Hitachi Data Systems

 realizarse durante los fines de semana, resultando esto en un aumento de mano de obra y gasto de energía. “Esto ya no es un problema de gente si no de programación”, explicó. 

Hu Yoshida indica que este desafío puede ser aliviado a través de la virtualización, ya que ésta apoya la movilidad de datos, automatización y provisionamiento dinámico. A través de la virtualización, aplicaciones y recursos pueden ser movidos dentro del ambiente virtual sin interrumpir las operaciones de negocios.  

Señalando la necesidad de gestionar los tipos de cambio de información canalizados en el centro de datos, el Sr. Yoshida dice que el volumen de datos, en general, está aumentando 66% en una tasa compuesta de crecimiento anual. Apuntó también que es más eficiente identificar los distintos tipos de datos almacenados que comprar cajas baratas para almacenarlos. “Comprar más hardware no hace sino aumentar los costos operacionales y la expansión de centros de datos, pero no aborda el desafío de utilizar eficientemente los recursos disponibles”.

Por ejemplo, explica, los “datos primarios”, que aumentan a 32% cada año, en la actualidad se encuentran sobre abastecidos y el espacio de almacenamiento no utilizado se deja sin reclamar. Este exceso de provisión se agrava cuando las copias de los datos primarios se crean y la misma cantidad de espacio de almacenamiento no utilizado se replica. “Esto crea un efecto multiplicador de aumentar el espacio de almacenamiento no utilizado”, dijo.

Tener un mejor conocimiento de los tipos de datos permitiría a un administrador de TI  identificar qué datos pertenecen al “nivel 1” de espacio de almacenamiento de la compañía, mientras que la información menos importante, tal como la de contenido “no estructurado y replicado” puede ser canalizada a las cajas de almacenamiento de “nivel 2 o 3 ” o archivada en el servidor para liberar espacio de almacenamiento, señaló. 

El Sr. Yoshida también describió una “tormenta perfecta” de factores creándose en el mundo de los servidores, todo lo cual afecta el mercado de almacenamiento en el que la empresa se desempeña. Destacó tres factores responsables de la “tormenta”: arquitecturas Intel más potentes y eficientes como los “multicores, subprocesos-múltiples simultáneos y cache nivel tres”, la introducción de hipervisores que permiten que máquinas virtuales múltiples operen en un sistema de archivos y resulte en que los I/Os tengan que escalar rápidamente, y que el ancho de banda aumentado entre servidores y almacenamiento maneje la explosión de datos. 

“Como resultado, los proveedores de almacenamiento, como HDS, necesitarán ofrecer la posibilidad de provisionar dinámicamente y respaldar estos cambios en el espacio de servidores”, afirmó. Sin embargo, señaló que los competidores están buscando “escalar” en lugar de “ampliar” para tratar con el aumento de información proveniente del centro de datos y con los cambios en el espacio del servidor. 

Escalar, dijo, significa que las cajas de almacenamiento modulares y baratas están débilmente unidas por interruptores que abarcan dos nodos de control, haciendo rápidamente de la ampliación, el problema. Incluso si un nodo es utilizado el 90%, y el otro sólo el 10%, no es posible equilibrar la carga de trabajo entre los nodos de estos interruptores. “HDS está tratando de resolver el problema mediante la ampliación, lo que implica “añadir más cache, procesadores y discos” y combinar perfectamente estos con un sistema de cache global”, señaló.

Yoshida explicó: “Lo que estamos tratando de hacer es crear un grupo virtual de recursos que son de fácil acceso y proveer dinámicamente para el medio ambiente del centro de datos de hoy”. Añadió que los usuarios de este sistema todavía pueden escalar los recursos necesarios mediante la separación del grupo central.   

Reconociendo el problema, la falta de tiempo.

Según el director de tecnología, no es suficiente que los administradores de TI el comprendan estas tendencias en centros de datos. “La gente de finanzas también debe de entender la “economía de almacenamiento” para que así no sólo arrojen dinero al problema”, dijo, y agregó que adquirir más hardware es sólo una medida a corto plazo. 

Los administradores de TI también deben ser liberados del trabajo pesado de “backend” con el fin de estar equipados con las habilidades necesarias para transformar el centro de datos, además de tener el tiempo para planear y gestionar mejor sus proyectos, dijo Yoshida. “Esta falta de tiempo de los profesionales de TI para equiparse es un círculo vicioso, ya que la virtualización del centro de datos seguirá fallando si no saben cómo implementar el sistema a largo plazo”, advirtió. “Creo que las empresas están empezando a darse cuenta de que se dirigen a un desastre si no se ocupan de este problema”.

Deja un comentario

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s