Está en la página 1de 23

TENDENCIAS DE ALMACENAMIENTO

PARA COMPETIR EN LA NUEVA


ECONOMÍA DIGITAL
Posted at 11:26h in Almacenamiento IT, Sin categoría by Orbit
Consulting Group
Actualmente, el valor de las compañías se mide en la cantidad y calidad
de datos que poseen. Saberlos gestionar y almacenar es clave para
optimizarlos al máximo. A continuación, comentamos algunas tendencias
de almacenamiento para competir en la nueva economía digital.
El peso actual de los datos en las organizaciones explica que el mercado
del almacenamiento empresarial esté creciendo en todo el mundo. Según
el último informe de IDC, concretamente un 13,7 % en el último trimestre
de 2017, alcanzando los 13.600 millones de dólares de facturación.

Esto es así porque los proyectos digitales más competitivos, como los
referidos a analítica de negocio vinculada a Big Data o el Internet de
las Cosas, exigen una modernización de los recursos de
almacenamiento. Las cargas de trabajo se aceleran y aumentan los
requisitos de eficiencia.
A esto se unen mayores demandas en seguridad tanto para proteger los
datos corporativos como para cumplir normativas como el RGPD europeo,
que se han traducido en una mayor inversión en almacenamiento
para Backup y Disaster Recovery.
EL ALMACENAMIENTO EN UNA
INFRAESTRUCTURA TI HÍBRIDA
Las empresas se enfrentan en su arquitectura TI a multitud de datos
distribuidos, dinámicos y diversos que los usuarios reclaman en tiempo
real para realizar sus operativas con la mínima latencia.
Esos datos corporativos ya no están solo almacenados en recursos
internos. El creciente uso de aplicaciones en la Nube ha provocado que
la gestión del almacenamiento sea cada vez más compleja. A múltiples
cabinas y servidores, se han unido capacidades provistas por
distintos servicios cloud de almacenamiento en modalidad Storage as
a Service.
El almacenamiento flash, el almacenamiento en la Nube, la tecnología
de virtualización de almacenamiento y los dispositivos
hiperconvergentes son principales tendencias que están permitiendo
hacer frente a las necesidades actuales de las organizaciones.
Las propuestas de almacenamiento cloud son muy atractivas, pero la
mayoría de las empresas sigue confiando en sistemas físicos para alojar
los datos de sus aplicaciones más críticas y sujetas niveles altos de
protección.

Las soluciones de almacenamiento SAN que soportaban los sistemas


de misión crítica están siendo sustituidas por soluciones flash que aportan
altos rendimientos, así como una mayor fiabilidad, flexibilidad y sencillez a
la hora de gestionar. Frente a los tradicionales SAN, facilitan crecimientos
‘scale out’ que simplifican las demandas de despliegue y disminuyen el
TCO.
CLAVES DE LA TECNOLOGÍA DE
VIRTUALIZACIÓN DEL ALMACENAMIENTO
Y SDS
Las soluciones de almacenamiento tanto flash como en la Nube se
sustentan en tecnologías muy eficaces que maximizan las capacidades, lo
que las convierte en opciones rentables. Pero es un error ir añadiendo
piezas de una u otra modalidad según vayan surgiendo las necesidades
construyendo silos independientes de almacenamiento.

Es necesario tener un control centralizado del almacenamiento


corporativo para conocer en todo momento las capacidades existentes y
comunicar entre sí los distintos sistemas para responder a las peticiones
de las diferentes aplicaciones de negocio.

La tecnología de virtualización del almacenamiento nos permite


justamente eso. Desacopla las capas HW y SW de los recursos
existentes, para gestionarlos de forma unificada, sean del fabricante o
proveedor cloud que sean, utilizando una única consola. Un solo software
controla toda la infraestructura de almacenamiento corporativo (Software
Defined Storage).
Casi todos los fabricantes de almacenamiento cuentan con software para
gestionar de forma centralizada distintos sistemas, pero sin duda VMware
vSAN es el más popular.
HIPERCONVERGENCIA Y
ALMACENAMIENTO
El almacenamiento virtualizado permite utilizar recursos multimarca, lo
que proporciona una alta independencia a las empresas. Autonomía
también es la que ofrecen las soluciones de hiperconvergencia a la
hora de desplegar infraestructuras TI.
En los dispositivos hiperconvergentes el almacenamiento es una pieza
crítica. En un solo sistema se combinan recursos de computación,
almacenamiento, redes, virtualización y software de administración. Son
una respuesta muy atractiva para desplegar pequeños DataCenters en
cuestión de minutos.
Pero cuidado con terminar implantando múltiples soluciones de
hiperconvergencia inconexas entre sí. Es necesario que estos sistemas
estén comunicados con el resto de recursos corporativos tanto físicos
como cloud, si es el caso.

IT AS A SERVICE PARA GESTIONAR EL


ALMACENAMIENTO
Todas las tendencias que hemos revisado son interesantes, la cuestión es
decidir cuál es la mejor para mi compañía. Contar con el asesoramiento
de un socio tecnológico que proporcione servicios de soporte TI
informático es fundamental para valorar las necesidades de
almacenamiento.
Tras una auditoría previa, recomendará los sistemas más adecuados para
evitar sobredimensionamientos e infrautilizaciones, o por el contrario
carencias que pongan en peligro la alta disponibilidad de las aplicaciones
y la continuidad del negocio.
Orbit Consulting Group es una empresa especializada en diseñar e
implantar soluciones de arquitectura TI para pymes y empresas de
Madrid, y el resto de España.
https://www.orbit.es/tendencias-de-almacenamiento-en-la-economia-digital/

TECNOLOGÍA DE LA INFORMACIÓN EN LAS


ORGANIZACIONES
Teniendo en cuenta que vivimos en la era de la información, queremos
preguntarte lo siguiente: ¿Sabes exactamente a qué nos referimos
cuando hablamos de tecnología de la información (TI)? Te lo
contamos.

El término hace referencia a todo lo que está relacionado con el


almacenamiento, la seguridad y la transmisión de la información, es
decir, TI engloba todo lo referente a la computación, las
telecomunicaciones y el procesamiento de datos.
Hoy en día interactuamos constantemente con la tecnología de la
información, pues se ha convertido en una tendencia que no solamente
está centrada en los jóvenes, sino que ha llegado también a los adultos e
incluso a las pequeñas, medianas y grandes organizaciones.

A pesar de esto, todavía es notable el vacío que existe o la falta de


conocimiento en cuanto a tecnologías de la información se refiere, pues
existen muchas organizaciones que aún no tienen claro cuál es su
importancia y su función, por lo tanto, no la implementan. Incluso muchas
personas creen que se trata solamente de contar con buenos equipos
tecnológicos y tener un personal capacitado para su manejo adecuado,
sin embargo, este campo va mucho más allá pues la tecnología de la
información permite que las organizaciones sean mucho más
competitivas, tanto a nivel nacional como internacional.

Conozcamos entonces cuáles son las funciones de los equipos de TI


de las organizaciones. Este equipo se encarga del análisis, diseño,
desarrollo e implementación de sistemas de información que serán
utilizados para el uso de datos e información de las organizaciones,
logrando así que la información tenga mayor movilidad y accesibilidad.

Por otro lado, las organizaciones utilizan la tecnología de la información


como medio para gestionar sus negocios, especialmente para los
registros financieros y transaccionales, registro de empleados, pagos,
compras, facturación, entre otros.

Te preguntarás entonces a qué se debe la creciente importancia de la TI


en las organizaciones. Veamos:

• La primera razón es que el volumen de datos de las empresas es


cada vez mayor, por lo tanto, se han incrementado los costos de la
seguridad de los mismos.

• Como segunda razón tenemos que las empresas consideran que


cada vez se hace más necesaria la automatización de procesos y
plataformas de información que ayuden a la toma de decisiones, así
como también ahorrar recursos económicos y horas de trabajo.

• La tercera razón es que las organizaciones desean acelerar sus


procesos, debido a las altas exigencias y competencias que existen en el
mercado.
Es importante que las organizaciones estén a la vanguardia con las
tecnologías de la información, puesto que estas les permitirán utilizar
herramientas que serán de ayuda para la disminución de costos,
reducción de tiempos y para ofrecer servicio de calidad a sus clientes, con
los resultados que ellos esperan.

Ahora que ya conoces qué es la tecnología de la información y cuál es su


importancia a nivel empresarial, decídete y conviértete en un experto
en tecnología de la información con Next U. Administra y gestiona las
redes y datos de tus clientes a través del soporte y mantenimiento de
equipos informáticos.

https://www.nextu.com/blog/tecnologia-de-la-informacion-en-las-organizaciones/

Nuevas tendencias en integración de datos


Posted on Wed, Jun 3, 2015

1. La integración de datos en la nube

2. La integración de datos como ventaja competitiva

3. Integrar, clave en los nuevos escenarios

La integración de datos es un término amplio, que se refiere a la necesidad de


obtener una vista unificada de información procedente de distintas fuentes o sistemas
empresariales dispares.

Gracias a su uso, como es bien sabido, se consigue una visión de conjunto de


información que de otro modo sería parcial o sesgada y, por lo tanto, insuficiente para
ayudar en la presentación de informes y análisis que ayuden a tomar mejores
decisiones en la organización.

Este objetivo común, sin embargo, puede perseguirse desde distintos entornos y
recurriendo a tecnologías diferentes, en función de las soluciones por las que opte la
organización para extraer valor de los datos, ya sean sistemas on premise o
también en la nube.

En cualquiera de los casos, conocer las tendencias en integración de datos puede


ayudar al negocio a extraer el máximo valor de sus activos informacionales.

¿Quieres implementar un proyecto de Data Integration?


Resuelve tus dudas con uno de nuestros expertos.

La integración de datos en la nube


En el mundo SaaS, además de almacenar datos y disponer de software, gracias a
soluciones como el PowerCenter Cloud de Informatica, proveedor independiente
de software de integración de datos, también pueden llevarse a cabo procesos de
integración y gestión de datos procedentes de orígenes diversos.

La migración a la nube, de hecho, es considerada por Gartner como un requisito


fundamental para el óptimo funcionamiento de las nuevas estrategias data center,
si bien se hace necesario una coordinación con los entornos locales para lograr una
operatividad idónea.

La integración de datos, por lo tanto, se revela como uno de los mayores


desafíos que hay que afrontar, y ello exige utilizar las herramientas más eficaces para
integrar con rapidez y seguridad los datos en la nube y, si fuera necesario, también con
los sistemas de datos locales.

La integración de datos como ventaja competitiva


De acuerdo a Gartner, además, la integración de datos cobra una importancia
inédita precisamente por la existencia de un volumen y una mayor variedad de
datos que nunca. Por lo tanto, poder gestionar adecuadamente esa información e
interpretarla correctamente o, lo que es lo mismo, lograr una agilidad integral en todo
el ciclo de vida de integración de datos, otorga una ventaja competitiva más que
necesaria en el actual mundo globalizado.

El informe sobre el Cuadrante Mágico de Gartner que examina las propuestas del
mercado de Integración de Datos con una periodicidad anual, constituye un
referente a la hora de valorar las nuevas tendencias con las que cuentan las empresas
a la hora de llevar a cabo procesos de integración.

Informatica, el proveedor independiente de software de integración de datos, se ha


posicionado como líder mundial en el Cuadrante Mágico 2018 de Gartner sobre
herramientas de integración de datos, y lleva haciéndolo durante varios años
consecutivos.

ntegrar, clave en los nuevos escenarios


De forma general, la integración de datos comprende prácticas, estrategias
arquitectónicas y herramientas orientadas al logro de un acceso a datos oportunos y
fiables, independientemente de su tipología y de su ubicación en la estructura de datos
de la empresa.

Se trata, en suma, de satisfacer las necesidades de consumo de datos y, para ello, de


poder extraerlos de allí donde se encuentren y, para lograrlo, encontramos en el
mercado de herramientas de integración de datos productos de software de diferentes
que faciliten esta labor, un eficaz acceso a la información en la variedad de
escenarios de integración de datos.

Entre otros, Gartner señala como principales escenarios los siguientes:

 Adquisición de datos de inteligencia de negocios (BI).


 Análisis y almacenamiento de datos
 Consolidación y entrega de datos maestros en apoyo de la gestión de datos maestros
(MDM).
 Migraciones y sincronización de datos entre aplicaciones operativas.
 Intercambio de datos interempresarial.
 Entrega de servicios de datos en una arquitectura SOA.
 Integración de datos en la nube.
 Iniciativas de Big Data.

¿Podrías asegurar la integración de datos en tu organización en los escenarios


que señala Gartner? Es hora de buscar soluciones. ¿Tienes un plan?

Fuente imagen: Arztasamui / FreeDigitalPhotos.net

https://blog.powerdata.es/el-valor-de-la-gestion-de-datos/bid/405618/nuevas-tendencias-
en-integraci-n-de-datos
Principales tendencias de
tecnología de
almacenamiento de datos
para 2017
Es nuestra estación favorita. Por décimo cuarto año consecutivo, en
SearchStorage compilamos las tendencias de tecnología de
almacenamiento de datos que creemos que tendrán el mayor impacto
en el mundo del almacenamiento en el próximo año. ¡Bienvenido a las
tecnologías de moda 2017!

Como en años pasados, no hay nada de última tecnología o impráctico


aquí, solamente la tecnología más nueva del almacenamiento que se
ha probado como práctica. Por lo tanto, mientras que nuestra lista de
tendencias de tecnología de almacenamiento representa lo mejor y
más brillante que la industria del almacenamiento tiene que ofrecer,
solo incluye tecnologías que puede comprar e implementar hoy.

Suba a bordo, póngase su cinturón y prepárese a descubrir nuestra


opinión sobre qué tecnologías tendrán el efecto más profundo en los
departamentos de almacenamiento en 2017.

Respaldo de nube a nube


Solo porque los datos están en la nube no significa que están adecuadamente
protegidos. La copia de seguridad de nube a nube llena ese rol permitiendo a
las empresas copiar los datos almacenados en un servicio de nube, en otra
nube. Entre las tendencias de tecnología de almacenamiento que tendrán un
gran año en 2017, los proveedores de respaldo de nube a nube continúan
agregando capacidades, conforme crece el interés del usuario en los servicios.

El experto en almacenamiento, Brien Posey, cree que el respaldo de nube a


nube probablemente se convertirá en la norma para el 2018. Las razones por
las que se está volviendo popular son dos. "En primer lugar, la tecnología de
respaldo está finalmente empezando a alcanzar a la nube pública, lo que la
hace más práctica para realizar copias de seguridad de nube a nube", escribió
Posey en un correo electrónico. "Segundo, y éste es el más grande, es el factor
económico".

Para las organizaciones que trasladan datos a la nube pública porque es más
barato, el respaldo a otro proveedor de la nube tiene sentido económico y
ofrece las ventajas del respaldo externo.

Posey todavía ve un papel para las copias de seguridad y el almacenamiento


locales, pero cree que los requisitos de almacenamiento local probablemente
disminuirán en los próximos años.

"Podemos ver al respaldo en la nube convirtiéndose en el estándar de facto,


con instantáneas retenidas en premisas para restauraciones de tipo error del
usuario", escribió el experto en almacenamiento y consultor Chris Evans en un
correo electrónico. "Los proveedores de software de respaldo necesitan y han
comenzado a adaptarse. Los mayores perdedores podrían ser los dispositivos
de respaldo en este caso".

Específicamente, con respaldos de nubes privadas a públicas, hay herramientas


para respaldar y restaurar aplicaciones en la nube, ahorrando dinero y
mejorando las operaciones, agregó Evans. Y, señaló, las aplicaciones y datos
de software como servicio (SaaS) también necesitan respaldo, lo que se hace
más fácilmente a través de la nube.

Como un modelo de entrega de software basado en internet, SaaS se ha


convertido en una opción importante para las empresas que buscan eliminar la
sobrecarga de proporcionar ellos mismos una gama de servicios de TI (por
ejemplo, correo electrónico, colaboración, CRM y así sucesivamente). Así, a
medida que SaaS crece y el trabajo serio se traslada a la nube, más
organizaciones están reconociendo el valor del respaldo de nube a nube, dijo el
consultor de almacenamiento Jim O'Reilly.

"En lugar de devolver datos al centro de datos interno, la economía y la


eficiencia operativa sugieren que una copia de seguridad formal de los datos de
la nube en otro espacio de nombres en la nube es el mejor mecanismo para
proteger totalmente los datos en la nube", explicó O'Reilly. "Aumentar el
confort con la nube como un sitio para ejecutar aplicaciones serias, y el uso
cada vez mayor de SaaS hará que este enfoque sea imprescindible para las
operaciones de TI más grandes en 2017".

Los principales actores en el respaldo de nube a nube orientado a SaaS


incluyen Asigra Cloud Backup, Barracuda Cloud-to-Cloud Backup, Datto
Backupify y Dell EMC Spanning. Barracuda, entre los que mejoraron sus
plataformas de respaldo de nube a nube en 2016, redujo el tiempo que tarda
completar copias de seguridad incrementales de versiones alojadas de las
aplicaciones de Microsoft.
El respaldo de nube a nube es esencial para proteger los datos creados por las
aplicaciones SaaS. Cabe destacar que, en mayo, una interrupción de Salesforce
impidió a los clientes acceder a sus datos durante varias horas. Además,
aunque los proveedores de SaaS realizan sus propias copias de seguridad, solo
es para su protección. Si, por ejemplo, uno de los usuarios de SaaS borra
accidentalmente algo, sin su propia copia de seguridad, tendría que pagar a
Salesforce para restaurar los datos, y el costo de eso comienza en 10.000
dólares.

Al considerar un plan de respaldo de nube a nube o SaaS, Evans aconsejó a los


administradores que aplicaran los mismos estándares a los procesos de
respaldo y restauración como lo harían con las implementaciones locales.
Puede hacerlo, por ejemplo, probando cuán bien un servicio de respaldo de
nube a nube cumple con los objetivos de tiempo de recuperación y de punto de
recuperación.

Contenedores
Impulsada por los avances tecnológicos que permiten que los microservicios
de aplicación consuman directamente el almacenamiento persistente, la
virtualización de contenedores logró importantes avances en el
almacenamiento empresarial en 2016. Esperamos que la contenerización de
código abierto siga siendo una de las tendencias de tecnología de
almacenamiento de moda en 2017 también, ya que la tecnología de
contenedores ha avanzado en áreas clave como la protección de datos, el
consumo de almacenamiento persistente y la portabilidad.

El desarrollo y las pruebas siguen siendo los usos dominantes de los


contenedores, pero los expertos dicen que los administradores de
almacenamiento también están aprendiendo a manejar selectivamente
instancias de Docker. "El mayor cambio, en una palabra, es la persistencia",
dijo Henry Baltazar, director de investigación de almacenamiento en la firma
de consultoría de TI, 451 Research. "Los contenedores se han movido más allá
del almacenamiento efímero al almacenamiento persistente para almacenar
datos y proteger sus aplicaciones".

Aunque CoreOn, rival de código abierto de Docker, lanzó la primera versión


comercial de su tiempo de ejecución Rocket para contenedor Linux este año,
Docker sigue siendo el líder de los contenedores, reclamando más de cinco
millones de descargas de software y 650.000 usuarios registrados. Los equipos
de aplicaciones utilizan Docker para desarrollar rápidamente, enviar y
engendrar aplicaciones dentro de contenedores. Cuanto más se acercan las
aplicaciones "Dockerizadas" al despliegue en tiempo real, mayor es la
necesidad de administrar y suministrar el almacenamiento Docker en
contenedores sin estado.

El motor de tiempo de ejecución Docker estaba originalmente diseñado para


almacenamiento basado en Linux, pero con Windows Server 2016 (lanzado en
septiembre), Microsoft ahora permite a los administradores gestionar la
virtualización de Docker en los servidores Windows. Microsoft también
agregó su propio tiempo de ejecución de contenedor a su último sistema
operativo de servidor, permitiendo a los departamentos de Microsoft lanzar
contenedores basados en Windows sobre hardware de servidor Windows
Server 2016 o dentro de máquinas virtuales Hyper-V.

Mientras que la virtualización de hardware está aquí para quedarse, la


contenerización amplía el concepto mediante la virtualización del propio
sistema operativo, permitiendo así que las cargas de trabajo compartan el
código subyacente y las bibliotecas dependientes. Las empresas con
almacenamiento altamente virtualizado podrían implementar cientos, o tal vez
miles, de contenedores en un solo nodo, todos ejecutándose como instancias
ligeras.

Permitir el almacenamiento persistente en contenedores es una prioridad para


los proveedores de almacenamiento, dijo Greg Schulz, fundador y asesor
senior de la firma de infraestructura de TI, Server StorageIO. "El soporte para
los contenedores sin estado y con estado serán la norma dentro de 18
meses. Los contenedores para Docker, Linux y Windows se convertirán en una
unidad de computación más viable, uniendo bare metal físico junto con otras
máquinas virtuales definidas por software, e instancias de máquinas en la
nube".
Los proveedores de almacenamiento heredados Dell EMC, Hewlett Packard
Enterprise (HPE), Hitachi Data Services, IBM y NetApp están diferenciando
sus arreglos de almacenamiento para implementar y administrar entornos
Docker a gran escala. Portworx, Rancher Labs y StorageOS están entre las
primeras startups de software de contenedores que abordan la gestión de datos
y la migración segura de datos de contenedores entre nodos de servidores.

Red Hat agregó el almacenamiento definido por software Red Hat Gluster
como un back end de almacenamiento persistente para contenedores de
aplicaciones basados en Linux. Incluso el gigante de la
virtualización, VMware, se ha unido a la refriega. VMware Integrated
Containers permite a los clientes ejecutar contenedores en vSphere.

Como con cualquier nueva tecnología, el ciclo de propaganda para


contenedores ha superado el despliegue real. Eso significa que las empresas
deben moverse con cautela al conectar los puntos entre los contenedores y la
gestión del almacenamiento, dijo Baltazar.

"Las empresas no van a empezar a correr un montón de aplicaciones de base de


datos Oracle en un contenedor, pero hay áreas donde los contenedores son
importantes", señaló Baltazar. "Las aplicaciones móviles y la analítica son
ideales para los contenedores. Usted obtiene una poderosa asignación de
recursos y la posibilidad de realizar aprovisionamientos muy rápidamente".

Flash de alta capacidad


Samsung presentó una unidad de estado sólido SAS de 2,5 pulgadas y 15 TB
(capacidad real de 15,36 TB) en 2015. Esa unidad, que comenzó a enviarse la
primavera pasada, es actualmente la SSD empresarial de mayor capacidad
disponible, y ahora está empezando a aparecer en arreglos todo-flash de HPE y
NetApp. Para no quedarse atrás, Seagate dio a conocer una unidad SSD SAS
de 60 TB en un factor de forma de 3,5 pulgadas en la Cumbre de Memoria
Flash de este año, y ahora se está asociando con HPE para ponerla en
producción masiva.

Aumentar la capacidad de las unidades a alturas previamente inimaginables es


la última de las tendencias de tecnología de almacenamiento de moda en la
industria del flash. Si eso suena familiar, debería serlo. Al igual que en los
primeros días de las unidades de disco duro, los proveedores de SSD ahora
están compitiendo en niveles de capacidad de alta densidad, o en quién puede
acumular el flash de mayor y más alta densidad en una unidad de tamaño
estándar.

Samsung basa sus grandes unidades en su chip V-NAND de 512 GB. El


proveedor apila chips V-NAND 512 en 16 capas para forjar un paquete de TB,
32 de los cuales se combinan en 32 TB SSD. Samsung señaló su 32 TB
permitirá una mayor densidad que el 60 TB SSD de Seagate, porque 24
unidades de 2,5 pulgadas pueden caber en el mismo espacio que 12 SSD de 3,5
pulgadas. Tanto las 32 TB de Samsung como las 60 TB SSD de Seagate se
enviarán en algún momento del 2017. Por lo tanto, parece que Seagate será el
número uno en densidad por un tiempo, al menos hasta que Samsung empaque
su tecnología flash de alta densidad en una unidad de 60 TB propia.

De acuerdo con Russ Fellows, socio senior y analista de Evaluator


Group, eventualmente llegará al punto en que el disco giratorio se convierta en
secundario a los SSD. "Creo que, cuando la densidad comienza a subir tan
rápido y los dólares por gigabyte bajan, va a ser incluso más barato que las
unidades SATA rápidas", dijo. "Muy pronto, [los SSDs] serán más baratos que
el disco giratorio. Para el año 2020, el disco giratorio probablemente estará
muerto".
Para Mark Bregman, vicepresidente senior y director de tecnología de NetApp,
los SSD de alta capacidad ofrecen enormes reducciones de espacio y ahorros
en energía y refrigeración.

"Las matrices de todo flash de NetApp que usan SSDs de alta capacidad ahora
pueden abordar casos de uso de clientes donde tal alivio significativo
históricamente ha sido poco práctico", escribió Bregman en una publicación en
el blog de NetApp Community. "Desde el punto de vista de la eficiencia del
espacio, no puede vencer a las nuevas matrices todo-flash de alta capacidad,
que proporcionan hasta 321,3 TB de almacenamiento bruto en un solo factor
de forma de 2U. Esto significa que un único sistema de 2U usando unidades de
15,3 TB puede proporcionar más de 1 petabyte de capacidad efectiva".

"Lograr la misma [capacidad] con incluso las unidades de disco duro SFF de
más alta densidad", continuó, "requeriría 52U de espacio en rack y 18 veces
más energía".

NVMe
Las unidades de estado sólido han sido el mayor mercado para el
almacenamiento específico de memoria expresa no volátil (NVMe) hasta la
fecha. Sin embargo, la tecnología NVMe, que reduce la latencia y aumenta el
rendimiento, es una de las tendencias de tecnología de almacenamiento que
comienza a estar de moda en los sistemas de almacenamiento empresarial.

Según Jeff Janukowicz, vicepresidente de investigación de IDC, los envíos de


modelos de servidores, así como de matrices de almacenamiento híbridas y de
todo flash que apalancan la tecnología NVMe deberían más que duplicarse en
2017, debido a precios más asequibles y un ecosistema en expansión.
“La adopción de NVMe todavía está en su infancia", escribióJanukowicz en un
correo electrónico. "Sin embargo, estamos en un punto de inflexión, y estamos
empezando a ver muchos más modelos que están empezando a volverse
disponibles para el mercado más amplio".

NVMe es una alternativa al antiguo SCSI para transferir datos entre hosts y
almacenamiento periférico. SCSI se convirtió en un estándar en 1986, cuando
los discos duros y la cinta eran los medios de almacenamiento principales del
centro de datos. La industria diseñó NVMe para soportar una tecnología de
almacenamiento más rápida, como los SSD PCI Express (PCIe). La
especificación NVMe, lanzada en 2011, proporciona una interfaz de registro
simplificada y un conjunto de comandos para reducir la sobrecarga de CPU de
la pila de E/S.

Eric Burgener, director de investigación de IDC, destacó el análisis de big data


en tiempo real como un tipo de carga de trabajo de aplicación que requeriría el
nivel de rendimiento que NVMe puede ofrecer. Los proveedores que apuntan a
esas cargas de trabajo de alto rendimiento con productos de almacenamiento
basados en NVMe incluyen Dell EMC (con sistemas de almacenamiento todo
flash DSSD), E8 Storage y Mangstor, dijo.

Burgener predijo que NVMe en los sistemas de almacenamiento, también


conocido como "flash a escala de rack", seguiría siendo un mercado
relativamente pequeño, pero creciente, en los próximos años. Él dijo que el
mercado de arreglos crecería más rápidamente una vez que los dispositivos
NVMe empaquetados soporten capacidades empresariales tales como enchufe
en caliente y puerto dual.

También está en el horizonte NVMe sobre tejidos (NVMe-oF), que permite el


uso de transportes alternativos a PCIe para extender la distancia sobre la cual
los hosts NVMe y los dispositivos de almacenamiento NVMe pueden
conectarse. NVM Express Inc., una organización sin fines de lucro de más de
100 proveedores, finalizó la especificación de NVMe-oF en junio de 2016.

El potencial de crecimiento a largo plazo de NVMe es significativo. La firma


de investigación de mercado G2M Inc. pronosticó que el mercado NVMe
alcanzaría los 57 mil millones de dólares en 2020, con una tasa de crecimiento
anual compuesta de 95%.

G2M también predijo que el 60% de los dispositivos de almacenamiento


empresarial, y más del 50% de los servidores empresariales tendrían bahías
NVMe a finales de la década. Y proyectó que, para el año 2020, casi el 40% de
las matrices de todo flash estarían basadas en NVMe, con embarques de SSDs
basados en NVMe creciendo a 25 millones de unidades.
Almacenamiento definido por software
Hay muchos términos vagamente definidos que se utilizan en el mundo de la
tecnología en general, y para el almacenamiento en particular. El término
“almacenamiento menos claro” puede muy bien ser uno de los términos más
citados actualmente sobre el almacenamiento definido por software (SDS).

WhatIs.com definió SDS como "un acercamiento al almacenamiento de datos


en el cual la programación que controla las tareas relacionadas con el
almacenamiento está desacoplada del hardware de almacenamiento físico". Es
una definición que es lo suficientemente flexible en su interpretación para
cubrir todo tipo de tecnologías. La cuestión es que esas tecnologías realmente
comparten algunas características, principalmente un enfoque en servicios de
almacenamiento, en lugar de en el hardware, y el uso de gestión basada en
políticas para permitir una mayor eficiencia y una menor complejidad cuando
se trata de administrar el almacenamiento.

Una de las principales áreas de confusión proviene de cómo SDS es más


utilizado en relación con los entornos virtualizados. Sin embargo, eso no es un
requisito. Afortunadamente, el mercado está llegando lentamente a un acuerdo
sobre exactamente lo que es SDS. Para poder llamarse almacenamiento
definido por software, un producto debe permitir a los usuarios asignar y
compartir recursos de almacenamiento en cualquier carga de trabajo, incluso si
el almacenamiento no está virtualizado.

En el número de marzo de 2016 de la revista Storage, el analista de


almacenamiento Marc Staimer, de Dragon Slayer Consulting, estableció cuatro
categorías básicas de SDS: basada en hipervisor, infraestructura
hiperconvergente (HCI), virtualización de almacenamiento, y objeto o archivo
de escala horizontal.
VMware prácticamente posee la categoría basada en hipervisor con vSphere
Virtual SAN. Como la segunda categoría SDS más antigua con productos en el
mercado, está bien establecida entre las tendencias de la tecnología de
almacenamiento. Sin embargo, también está restringido al hardware que
VMware ha determinado compatible.

La mayor parte del mercado de SDS reside en HCI SDS, a través de productos
ofrecidos por gigantes como Cisco, Dell EMC e IBM, así como startups como
Nutanix y SimpliVity. El aspecto positivo de HCI SDS es cómo todo lo que
necesita para su infraestructura de almacenamiento está incluido y diseñado
para trabajar juntos. Lo negativo es que significa que solo los recursos de la
HCI pueden aprovechar los beneficios de la SDS.

La virtualización de almacenamiento SDS es el abuelo de todas las variedades


de almacenamiento definido por software, y DataCore, Dell EMC, IBM e
incluso Microsoft ofrecen productos en esta categoría. Pero solo porque es el
más antiguo, no significa que no hay jugadores más jóvenes (incluyendo
NetApp, Nexenta Systems y StarWind Software) en el juego.

El más nuevo en el mercado es el SDS de objeto o archivo de escala


horizontal. Incluso en esta área, además de compañías nuevas como Scality,
usted tiene gigantes en competencia, como Spectrum Storage de IBM y Red
Hat con sus productos OpenStack y basados en Ceph.

La continua caída en el precio de los productos básicos está estimulando una


mayor adopción de SDS. Con SDS, hay menos necesidad de hardware
específico para obtener altos niveles de rendimiento, especialmente cuando se
utiliza un tipo de almacenamiento definido por software centrado en el
rendimiento en la empresa. Además, como el almacenamiento de objetos se ha
convertido menos en una plataforma de almacenamiento de datos de solo nube,
esa versión particular de SDS ha ganado rápidamente terreno en el centro de
datos.

En una reciente entrevista, el CEO y fundador de la startupde SDS, Hedvig


Inc., Avinash Lakshman, explicó por qué él piensa que SDS de escala
horizontal es una tecnología de moda que seguirá creciendo rápidamente.

"El ROI es bastante simple porque los costos de hardware no van a ninguna
parte, sino hacia abajo. Gente como Amazon, Google, y todas estas empresas
de gran escala de internet, están obviamente yendo por ese camino. Está
obligando a la empresa a echar un vistazo a ellos y hacer la pregunta: ¿si ellos
pueden hacer mucho más con mucho menos, por qué nosotros no?".

FC de 32 gigabits
La mayoría de las tendencias actuales de tecnología de
almacenamiento funcionan contra el canal de fibra (FC). Las nuevas
arquitecturas de moda, como la hiperconvergencia y la nube, utilizan Ethernet
con poca necesidad de FC. Ethernet también domina el almacenamiento de
datos no estructurados basados en archivos, que está creciendo mucho más
rápido que los datos estructurados basados en bloques, que a menudo requieren
SAN de canal de fibra. Hay apenas un puñado de compañías de redes FC, y
ahora todas soportan también a Ethernet.

Del otro lado, está flash. Los proveedores y los fanáticos de FC están contando
con la rápida aparición de SANs de almacenamiento todo flash para mantener
relevante a FC, especialmente mientras el protocolo transita de equipos de 16
Gbps a switches y adaptadores de 32 Gbps. Esa transformación probablemente
hará grandes incursiones a finales de 2017, proporcionando una nueva ola para
FC.
"Los cuellos de botella de rendimiento del almacenamiento se están moviendo
fuera de las matrices y hacia la red de almacenamiento, por lo que el canal de
fibra seguirá siendo el protocolo de almacenamiento del centro de datos de
elección para la próxima década", escribió el director de investigación de
Gartner, Valdis Filks, y el vicepresidente de investigación, Stanley Zaffos, en
un reporte reciente llamado "El futuro de los protocolos de almacenamiento".

El almacenamiento de estado sólido –hoy en su mayoría flash con NVMe


llegando y 3D XPoint en el horizonte– proporciona un mayor rendimiento y
menor latencia que los medios de disco duro. No obstante, las redes de
almacenamiento necesitan más ancho de banda si los medios de
almacenamiento deben alcanzar esos picos de rendimiento.

Filks y Zaffos agregaron que 16 Gbps –e incluso Ethernet de 40 gigabits–


serán demasiado lentos para mantenerse al día con la próxima generación de
almacenamiento de estado sólido. Por lo que ellos recomiendan trasladarse a
FC de 32 gigabits y a Ethernet de 100 gigas dentro de cinco años.

El año pasado, vimos los primeros productos de FC de 32 gigas llegar al


mercado, incluyendo switches de Brocade y Cisco, y adaptadores de Broadcom
y QLogic. Se espera que la adopción se acelere cuando los proveedores de
matrices de almacenamiento soporten 32 gigabits, lo que debería ocurrir de
manera significativa el próximo año.

Broadcom consolidó aún más la industria de redes de FC con la adquisición de


Brocade de 5.900 millones de dólares, que se espera cierre a principios de
2017.

El CEO de Broadcom, Hock Tan, dijo que su compañía seguirá invirtiendo en


FC. "Si usted cree en todo flash, tiene que creer en canal de fibra", dijo en una
conferencia telefónica por la adquisición de Brocade. "Incluso hoy en día,
iSCSI y Ethernet no ofrecen eso. Esperamos que este mercado se mantenga
relativamente estable, ya que soporta centros de datos privados con una gran
base instalada de SAN de canal de fibra que se actualizan constantemente".

Flash y el paso de 16 Gbps a 32 Gbps se espera que impulsen muchas de esas


actualizaciones.

Gartner recomendó esperar un año después de la disponibilidad general antes


de pasar al protocolo más reciente. Eso proporcionaría tiempo para que los
precios bajaran, las distorsiones iniciales se resolvieran, y permitirían la
compatibilidad total del almacenamiento y los servidores con los switches. Sin
embargo, los primeros compradores de FC de 32 gigabits pueden usar todavía
su almacenamiento y servidores de 16 gigabits y 8 gigabits con los nuevos
productos de switching. También pueden revisar las hojas de ruta para equipos
de 64 y 128 gigabits.

Adarsh Viswanathan, gerente senior de administración de productos para el


grupo de almacenamiento de Cisco, espera que FC de 32 gigas despegue a
finales de 2017, después de que los proveedores de matrices de
almacenamiento lo adopten totalmente. "Muchos de los grandes clientes con
los que hablamos están en producción con arreglos de todo flash, y asignando
cargas de trabajo de misión crítica en flash a través de canal de fibra. Los
proveedores de flash pueden llenar el canal de 32 gigabits. Esperamos que
obtenga gran tracción en la segunda mitad de 2017".

https://searchdatacenter.techtarget.com/es/cronica/Principales-tendencias-de-tecnologia-
de-almacenamiento-de-datos-para-2017

También podría gustarte