Está en la página 1de 8

EL PRESENTE Y FUTURO DEL DATA

CENTER

[22/09/2009] El pasado martes 15, CIO Perú y Common Perú reunieron a los
más destacados representantes de las empresas involucradas con el desarrollo de
los Data Centers. Durante la reunión, los ejecutivos conversaron sobre la actual
problemática que enfrentan estas unidades, como son el excesivo uso de la
energía, la pertinencia de la utilización de herramientas como la virtualización y
el cloud computing, la necesidad de ir hacia un data center green y las
herramientas necesarias para enfrentar estos desafíos. Todo en medio de un foro,
“Hacia dónde va el Data Center”, que ha dado su primer paso hacia su
institucionalización como el punto de reunión de la industria TI.

La mañana del 15 de setiembre fue propicia para el desarrollo de las TI en el


país. En el Swissotel se reunieron en torno la convocatoria a nuestro primer foro,
denominado “Hacia donde va el Data Center”, los CIO de las empresas más
importantes del Perú con el ánimo de dar respuesta a la pregunta que le daba
nombre a la reunión.

Para ello se escucharon a un selecto grupo de expositores del lado de los


proveedores de soluciones, pero también a un panel conformado por un
representativo grupo de CIO que, como ellos, también se encontraban ávidos de
intercambiar sus opiniones con respecto a las exposiciones que en esa mañana se
desarrollaron.

La siguiente es una crónica de las exposiciones que se realizaron en el evento, y


de los comentarios del panel que se produjo al final de la jornada. Están a su
disposición los videos con las conferencias, los archivos con las exposiciones de
aquellos proveedores que nos han autorizado a colgarlas, así como la opinión de
los panelistas y la sesión de preguntas y respuestas. Los invitamos a escucharlos,
así como ver nuestra galería de fotos.

Inicio del martes


Todo se encontraba preparado temprano en la mañana, y poco a poco fueron
llegando los miembros del público, en su mayoría CIO, tal y como habíamos
deseado, para el welcome coffee con el que iniciamos la jornada. Nuestro primer
evento ya se percibía como exitoso tan solo con apreciar a la categoría del
público que intercambiaba sus primeras charlas del día mientras esperaba el
inicio del evento.

Fernando Grados, director de Dominio Consultores, fue el encargado de 'romper


fuegos'. Con su exposición “Data Center: lo que nos dice el CIO peruano” se
encargó de proporcionar al público los resultados de un estudio exclusivo de
Dominio para el público presente. Lamentablemente, el carácter exclusivo con el
que se brindó el estudio a los asistentes nos impide hacer públicos mayores
detalles sobre la presentación del consultor. Basta decir que fue muy bien
acogida y generó preguntas que el propio Grados se encargó de absolver
posteriormente.

HP: La transformación del Data Center


El segundo expositor fue Hugo Marcelo Bertini, business manager de Data
Center Services de HP región MCA, quien inicio su presentación mostrando un
video de cinco minutos -de los 20 asignados a todos los expositores- sobre la
visión de HP con respecto al Data Center.

Posteriormente, con la exposición propia de Bertini era evidente que la


preocupación de HP iba en torno al consumo energético. “Dentro de las
estadísticas que manejamos, tenemos como resultado que una de las
preocupaciones más importantes dentro del centro de cómputo es el consumo de
energía, no solo para la parte de los equipos sino también para la parte de
refrigeración. La refrigeración debe ser tratada para mejorar el consumo de
energía dentro de los centros de computo”, refirió el ejecutivo.

Una forma de lograr una reducción significativa de este consumo es la


consolidación de los data center. Para ello refirió que su compañía en el 2005
había encargado la consolidación de sus centros de cómputo. Lo que hizo fue
consolidar 85 centros de cómputo en solo seis, algo que le supuso una
importantísima reducción de costos.

A raíz de esta iniciativa HP, desarrolló dos nuevos centros pensados con la
colaboración de una compañía de diseño de centro de cómputos y, desde
entonces, se ha abocado al desarrollo de servicios de virtualización y de
provisión de hardware.

A partir de su experiencia es que pueden recomendar algunos puntos a tomar en


cuenta. Uno de ellos es el análisis de eficiencia eléctrica. La certificación en el
consumo eléctrico es esencial, ya que se debe de considerar que por cada dólar
que se ponga en el data solo un 33% se gasta efectivamente en los equipos de TI,
una estadística que se repitió durante todo el evento. Además, hay alternativas de
refrigeración muy interesantes que pueden ayudar. Una de ellas es el pre cool.
Dependiendo de las condiciones ambientales del lugar en donde se encuentra el
Data Center se puede aprovechar las condiciones de frío y ventilación naturales
para enfriar el ambiente.

Finalmente, recalcó que HP tiene un compromiso muy fuerte con el medio


ambiente. Su compromiso es tal que compraron a la empresa que les diseñó sus
nuevos centros de cómputo, y obtuvieron así 350 nuevos ingenieros para su
causa.

Cisco Perú: Unified computing para reducir infraestructura y costos


El segundo expositor fue Nathaniel Berenstein, ingeniero CCIE de Cisco Perú y
especialista en Data Center. Desde su perspectiva, una forma de reducir costos e
infraestructura es mediante el uso de herramientas como el Unified Computing.
Mediante una herramienta denominada Unified Fabric se puede consolidar la
LAN y la SAN utilizando como punto de encuentro el servidor.

Con Unified Fabric se puede tener una arquitectura de 10 gigabits Ethernet sobre
el cual se puede utilizar ambos protocolos, lo cual trae como consecuencia el uso
de menos tarjetas, la mejora de la virtualización y en general el uso de menos
componentes y el incremento de la escalabilidad.

De hecho, como señala Berenstein con esta solución se pueden llegar a tener
hasta 320 servidores blade los cuales, por su puesto, crecen sobre un número
creciente de racks.

“La administración esta embebida y se embebe de tal manera que el servidor esta
visto como un ente, un objeto, y se crea una capa de abstracción para lograr lo
que se llama stainless computing. Ustedes definen al servidor simplemente por su
capacidad de memoria, por su capacidad de procesamiento; pero dentro se crea
un perfil que va a permitir hacer un aprovisionamiento muy rápido en caso de
que necesiten mas potencia o cambiar el servidor”, sostiene el ejecutivo.

Berenstein también hizo referencia a la mejora en el uso de las memorias DIMM


que se ha logrado con el paso de los años. Por ejemplo, si antes se necesitaban
96GB de memoria, se tenía la opción de lograrla mediante el uso de 12 DIMMs
de 8GB, pero esos 8GB de memoria eran muy caros. Ahora lo mismo se puede
lograr con 48 DIMM de 2GB de memoria que son más económicos. El ahorro de
costo se ha logrado a niveles no disponibles en el mercado anteriormente.

Telefónica: Todo como servicio


Sin duda, la presentación de Richard Wadsworth fue una de las más recordadas
por las propuestas que lanzó. Para el gerente de Tecnologías de la Información de
Telefónica Empresas el Data Center no solo debe encontrarse en la red, sino que
su modelo de oferta ya se encuentra en el terreno de “todo como servicio”.

Los conceptos de virtualización y de cloud computing llevan el mercado hacia el


software como servicio, la plataforma como servicio, y en general hacia el “todo
como servicio”. Con este modelo, por ejemplo, lograron que un cliente obtuviera
una reducción de costos del 58%, que presentó como un caso de éxito.
“Nuestros data centers no están puestos en la mitad del desierto, sino encima de
nuestros nodos de telecomunicaciones, cuando esto es posible; entonces el data
center literalmente esta en la red. Si esta en la red el tema de conectividad,
disponibilidad, always on, always conected, que tanto nos preocupan, son
realidades concretas. Ese es el concepto que nosotros tenemos del data center”,
sostuvo el ejecutivo.

Ahora, potenciemos eso. Los data centers están unidos, Telefónica es


tradicionalmente un proveedor de comunicaciones y puede colocar fácilmente
esos data centers en línea. Por ejemplo, en los casos de disaster recovery, la
empresa puede usar recursos de almacenamiento en Brasil, o los recursos que
también se encuentran en Miami. Eso es el data center del futuro, para
Telefónica: la capacidad de computing absolutamente potencializada al colocarla
sobre la red.

Global Crossing: Te quiero verde


Mirko Repetti, gerente de Data Center, Seguridad y Outsourcing de Global
Crossing Perú fue enfático en la apuesta de Global Crossing por el Green Data
Center.

“Green Grid hizo una análisis del consumo de energía, y mucho de ella se
consume en condensadores o chillers, dependiendo de la infraestructura.
Humidificadores y aires acondicionados tienen más del 40% de la energía que se
consume en todo el data center. Toda la parte eléctrica representa un poco más
del 25%, y solo un 30% es el equipamiento directamente dedicado al servicio que
brinda un data center”, sostuvo el ejecutivo.

Que se puede hacer entonces. Lo primero es seguir los parámetros que los
propios fabricantes de los equipos proponen para medir el desempeño de los
equipos. Con ello se puede ver si un equipo es eficiente o no, y señalar qué se
puede hacer para mejorar su desempeño.

No hay que descartar opciones como la virtualización de servidores, de


almacenamiento que son buenos, pero también generan retos muy grandes, como
Repetti vio con un cliente que cambió toda su infraestructura de los equipos
clásicos a los blades, con virtualización. Pero el hecho de ir concentrando los
blades, originó una concentración de calor, por lo que hay que tener cuidado
porque el blade es una buena opción pero acumula mucha energía dentro de un
espacio. La estrategia de la virtualización con blades es buena pero hay que tener
cuidado con el espacio.

En general, Repetti buscó que los CIO fueran mas concientes de la


responsabilidad que tienen hacia el medio ambiente y para ello propuso distintas
estrategias de medición del propio data center.
IBM: El crecimiento de la información
“El aumento de la información que generan los usuarios se ha duplicado cada
año. Estamos hablando de hasta hexabytes en la actualidad. De 2006 a 2016 se
calcula un incremento en 10 veces la cantidad de información. La mayor cantidad
de información es generada por los usuarios, redes sociales, etc. pero a pesar de
que la información la generan los usuarios, quienes tienen que resguardar esa
información son las empresas. Las empresas son responsables por el 85% de la
información”, señaló Esteban Gugliermino, LA System x Brand & Product
Manager de IBM.

De acuerdo al ejecutivo, en un centro típico el 50% de la energía no se gasta en


los servidores sino que esa energía va a aquellos aparatos que van a mantener
encendidos y ventilados a los servidores. Eso no solo impacta en los gastos
operativos sino también al tamaño del data center. El costo de construir un data
center está relacionado al costo del metro cuadrado.

El 70% de la energía que va al servidor no va a los procesadores sino a todos los


componentes dentro del servidor. El procesador gasta solo el 30%, cuando
curiosamente lo que busca es el aumento de la performance del procesador. El
80% del tiempo estos servidores están ociosos, y solo un 20% del día estos
procesadores están procesando información y solo usando una porción de la
energía.

“Por un lado la fuerza que esta dando el entorno y por otro lado que tanto lo están
haciendo las empresas. Los analistas predicen que hacia el 2012 prácticamente el
80% de las cargas de trabajo van a estar virtualizadas. Se habla de un aumento de
varias X de cuantas máquinas virtuales existen en el mundo. Se habla de hasta 10
veces hasta el 2012.

Estamos siendo testigos de un cambio importante. Comenzamos con una


consolidación física. Pasamos al tema de virtualización. Pasamos a empresas que
están llevando todos estos temas hacia un servicio, pero esta evolución natural
nos esta llevando hacia el tema del cloud computing”, sostuvo Eduardo Falcone,
System x Field Technical Sales Specialist de IBM

EMC: La infraestructura está cambiando


Rolando Gonzáles de director comercial de EMC, se concentró en la evolución
de las memorias como un elemento de cambio de la infraestructura.

“La infraestructura esta cambiando. EMC hizo un estudio en Estados Unidos que
me parece muy interesante, dice que los clientes gastan el 70% de su presupuesto
TI simplemente para mantener la infraestructura funcionando, o sea, solo el 30%
del presupuesto va hacia algo que le da diferenciación a la compañía. Y de ese
70%, el 60% se gasta en comprar cosas para darle mayor estabilidad a la
infraestructura”, sostuvo Gonzáles.
Parte de esa infraestructura son los SSD, los discos de estado sólido. Hace un año
o poco más los discos flash costaban 40 veces los que costaba un disco de alto
desempeño, al cabo de un año cuestan ocho veces, esta es una reducción de 76%
en 12 meses.

¿Y por qué es importante? Supongamos que quieren tener un arreglo de 55TB, se


tendrían que usar discos de 300GB, tendrían que tener 244 discos. Miren lo que
pasaría si usan un nuevo concepto. Clasifican los datos, determinan que datos
deben ir en cada nivel de almacenamiento y esos 55TB se podrían construir de la
siguiente manera: 32 discos SATA de 1TB, 136 discos de FC y 8 discos flash de
73GB. Con eso he conseguido tener 60% más de IOPS, 28% menos de unidades,
21% menos de consumo de energía y enfriamiento, y 17% más barato.

Por su parte, Rubén Wong, director comercial para Perú de EMC sostuvo: “La
visión de EMC es hablar del data center virtual, y ya no hablar de hardware y
software sino de servicios. Lo que hace la organización es dar servicios a través
de la nube. Hablemos de clientes virtuales como las estaciones remotas, no
necesariamente PC o dispositivos virtuales. Hablemos de continuidad. De
acuerdo a la presentación de Dominio, el gerente aún prefiere el data center
propio. Porque tenemos sentido de protección, control, seguridad, y
confiabilidad. Pero en la actualidad, al usuario no le interesa donde esta la
aplicación sino que funcione”, sostuvo el ejecutivo.

El panel
La reacción de los usuarios fue la que presentó el panel conformado por Ricardo
Temoche, Gerente de Sistemas, de Alicorp; Ricardo Bustamante, Gerente de
División, Sistemas y Organización, BCP; Felipe Roel, Gerente de TI, Banco
Central de Reserva; y Eugenio Kollmann, Gerente Corporativo de TI, Hochschild
Mining.

En línea con sus principales pensamientos se puede afirmar lo siguiente:

Ricardo Temoche: “CIO Perú y Common están en una cruzada por cambiar el rol
del gerente de sistemas, del CIO. Quisiera reflexionar si yo fuera Leslie Pierce y
dijera voy a cambiar mis discos a fibra canal o discos de estado sólido, ¿me
pregunto si le interesará? O si le digo que voy a optimizar mi cadena de
abastecimiento para que la satisfacción sea mejor. Le interesará eso o le
interesará que Ricardo Temoche se ponga a negociar con IBM, Cisco, si mis
discos son de 15 mil RPM.

Con respecto a la estadística que presento Fernando de que nosotros estamos


reacios a tercerizar y querer nuestro propio centro de cómputo, quería hacer una
invocación a cambiar nuestra mentalidad. HP presentó que habían hecho un
trabajo bajando 85 centros de cómputo a seis, logrando grandes beneficios de
costos, logrando ir hacia beneficios ambientales. Todas las grandes empresas del
país tenemos la responsabilidad de que nuestras empresas sean socialmente
responsables y eso implica ser responsables con el medio ambiente”.

Ricardo Bustamante: “Creo que los proveedores siempre traen alternativas


refrescantes y un poco más avanzadas. Suena muy alentador el concepto de cloud
computing, pero al momento que hay que pasar cosas por un enlace ya empiezo a
atracarme, como voy a hacer eso con un sitio que se encuentra a mil kilómetros
de distancia. Ahí todavía hay algunas respuestas que tenemos que buscar de
orden práctico.

Creo que los ejecutivos de los bancos nos piden tres cosas: estabilidad operativa,
o sea, que funcione todo lo que ofrecemos; capacidad de habilitar rápidamente
nuevas capacidades y desarrollos, y me voy a detener un momento en el tema de
time to market. Me imagino que eso lo vivimos todos, frente a la comunidad de
nuestros usuarios siempre el time to market no es suficiente. El día que podamos
hacer el time to market inmediatamente -que es la aspiración de nuestros
usuarios-, seguro nos dirán que debimos haberlo pensado antes.

Pongamos el estrés en nuestros proveedores de hacer posible el tema de todo bajo


demanda, y seguramente en las conversaciones internas que tendremos en los
pasillos le diré a Richard que el enlace que tengo con Brasil, contratado para mi
centro de cómputo de respaldo que tengo allá, lo quiero por demanda?”

Eugenio Kollman: “Yo me preguntaría donde debe estar la organización de TI:


¿delante de la ola o envuelto en la ola, en el día a día? Entonces en este evento en
el que estamos hablando de data centers hay un tema fundamental que es la
arquitectura, el diseño, la estructura de TI, y la arquitectura de nuestros datos y
data center. Este es un tema importantísimo, porque muchas veces el día a día
nos gana y no planificamos el largo plazo.

Pero eso depende del tipo de empresa en el que estamos. ¿Es una empresa que
tiene una presión tremenda por los costos, necesita agilidad o quiere saber al
máximo detalles la intimidad de los clientes? Tenemos que saber en qué tipo de
industria estamos, para saber con que tipo de infraestructura y datos queremos
trabajar.

En el tema del tamaño del data center coincido en que la primera alternativa es
hacer un outsourcing, porque realmente nuestra infraestructura, hablemos claro,
si nos comparamos con México o Brasil no tenemos volumen de escala y cada
vez los costos de armar toda una infraestructura son más caros. Un data center
-considerando redundancia y todo lo que hay dentro de él- es muy costoso.
Entonces uno tiene que tener un tamaño mínimo para justificar todas estas
inversiones”.

Felipe Roel: “En el BCR tuvimos una modernización guiados por el plan
estratégico institucional, el plan nos permitió clarificar qué necesidades eran las
que debíamos atender y encontramos plataformas tecnológicas distintas que
podían dar encuentro a estas necesidades. La forma cómo uno puede llevar
adelante la implementación es diversa. Ahí ya corresponde a lo que son las
evaluaciones costo-beneficio puede ser una contratación directa, es distinto si
uno ya tiene algo funcionando o tiene la posibilidad de ver un esquema nuevo.
Depende de muchos factores”.

Finalmente.
Aunque no lo parezca este solo fue un resumen detallado de lo que se vivió aquel
martes. Los detalles profundos de los temas los desarrollaremos en artículos
futuros. Por lo pronto, disfrute también de las fotos y los videos, y hágase una
idea de lo que fue estar ahí.

José Antonio Trujillo, CIO Perú

Fuente: CIO PERÚ (http://www.cioperu.pe/articulo/2605/el-presente-y-futuro-


del-data-center.aspx)

Artículo original incluye fotos y videos de las conferencias

También podría gustarte