Está en la página 1de 22

1: Bienvenido a esta lección.

Bienvenido a la Lección 1 - Centro de Datos de la tecnología. El objetivo general de esta lección es para mejorar su
conocimiento y comprensión del paisaje en el interior del centro de datos, la situación de los usuarios, sus
preocupaciones y el medio ambiente. Una vez que entendemos las presiones y desafíos que enfrenta el usuario,
entonces vamos a tener una mejor comprensión de los componentes del centro de datos e introducir las opciones de
conectividad.
Copyright © 2017 CommScope Inc and Cabling Science Ltd. All rights reserved.
2: ¿Qué es un Centro de Datos?

En primer lugar tenemos que tratar de definir lo que es un centro de datos. En términos generales, un centro de
datos es una habitación, una red de salas o incluso un edificio entero en su propia que las casas interconectadas
activos de procesamiento de datos, almacenamiento y comunicaciones de una o más empresas. Los activos
también incluirán rack o gabinete de equipos activos montados y un sistema de cableado estructurado para
interconectarlos. Todos ellos tienen que estar en una alta fiabilidad, alta seguridad, medio de contención sí que
cumple con sus necesidades de energía, y la redundancia. Los centros de datos de soporte de equipos de alta
velocidad junto con densidades muy altas de equipo, por lo que los sistemas ambientales, HVAC (calefacción,
ventilación y aire acondicionado), especialmente de refrigeración, es también muy importante. Otra función principal
centro de datos típico es el de proporcionar energía confiable a través de instalaciones redundantes con un
generador de respaldo a prueba de fallos. Los centros de datos pueden ser que esta alojada en el proveedor de
servicios, colocación / multi-inquilino o instalaciones de la empresa, incluso dedicados. redes de muchas compañías
giran alrededor del mundo y con frecuencia estarán apoyados por varios sitios de CC con lugares elegidos para
manejar determinadas regiones o áreas metropolitanas con mayor eficacia, o para tomar ventaja de menores costos
de energía regionales. Múltiples sitios también pueden ofrecer otro nivel de redundancia permitiendo que las copias
de seguridad de datos remotos. Los parámetros para los centros de datos de cableado se definen en el 24764
estándares internacionales (TIA-942) (América del Norte), EN 50173-5 (Europea) e ISO / IEC. TIA-942, por ejemplo,
se basa en los estándares de cableado estructurado mediante la adición de requisitos de energía eléctrica,
tratamiento de aire, la colocación del equipo y más. Vamos a ver estos con más detalle más adelante.
Copyright © 2017 CommScope Inc and Cabling Science Ltd. All rights reserved.
3: Tres componentes principales.

los componentes del centro de datos se pueden dividir en 3 grupos principales: los transformadores, interruptores y
almacenamiento. grupo 'Procesadores' incluirá CPU y servidores montados en rack. Principalmente los servidores
son el corazón del centro de datos y se enlazarán con otros dispositivos dentro del centro a través de cableado
estructurado en una red LAN (Local Area Network) o la red SAN (Storage Area Network) utilizando fibra, cableado
de cobre o de ambos. En el grupo de 'interruptores', esto puede incluir conmutadores de clase director, núcleo,
agregación o interruptores de borde, junto con los servidores web de intranet, hubs, routers y otras instalaciones que
permiten un acceso controlado a distancia soporte presencia en la web o incluso la interfaz del cliente. Por último, en
el grupo de "almacenamiento", lo que incluye el disco, en estado sólido, Network Attached Storage (NAS) y sistemas
de almacenamiento en cinta para mantener toda la información necesaria, por ejemplo, a largo plazo o una copia de
seguridad de bases de datos centrales. Todos ellos se conectan a través de una red SAN.
Copyright © 2017 CommScope Inc and Cabling Science Ltd. All rights reserved.
4: Tres componentes principales.

El gráfico muestra los tres grupos que acabamos de tratar en el interior del centro de datos. Hay un acceso
corporativo y público en el centro de datos. En el interior hay una red front-end IP que permite el acceso de un
huésped a otro, la aplicación de sistema, archivos de cliente a servidor y otros procesos de transferencia de
archivos. La LAN y SAN son dos redes físicas independientes dentro de la DC, utilizando cada uno su propio tipo de
conmutación, enrutamiento y protocolo, y la conectividad de ancho de banda (cableado, conexiones cruzadas y los
cables de conexión). El SAN (Storage Area Network) es la "red de back-end" y permite el acceso al almacenamiento
de acogida, el bloque de E / S de almacenamiento y de almacenamiento para el almacenamiento.
Copyright © 2017 CommScope Inc and Cabling Science Ltd. All rights reserved.
5: ¿Qué es un Centro de Datos?

Un centro de datos típico está organizado como se muestra. Se puede decir que un centro de datos consiste en la
sala de ordenadores y de los espacios que sirven de ella y el gráfico aquí muestra las notaciones basadas en
estándares por superficie, tales como las áreas de Distribución Primaria, horizontales, de Zona y Equipos. Otras
áreas que no se muestran aquí, pero se requieren incluyen la Red o Centro de Operaciones, salas de expansión de
entrada, y áreas de almacenamiento protegidas.
Copyright © 2017 CommScope Inc and Cabling Science Ltd. All rights reserved.
6: Data Center Conectividad 'lista de deseos'.

¿Qué hace un director de centro de datos requiere el diseño de su centro de datos? Por lo general, es de alta
densidad en la parte superior de la lista. El equipo tiene que ser fácilmente montado en rack, debe ser accesible aún
tienen espacio suficiente para el mantenimiento, si es necesario, proporcionar un alto rendimiento y fiabilidad. El
diseño debe ser lo más flexible posible para permitir movimientos, cambios y mejoras, si es necesario con una
instalación rápida de cableado y componentes, y, por último, que debe ser diseñado para ser tan preparada para el
futuro posible y fácil de manejar. La vinculación de todos estos componentes juntos es la infraestructura de cableado
que es de vital importancia, ya que es el elemento vital de los sistemas de información. Se conecta a los dispositivos
de comunicaciones de voz y datos, video y automatización de edificios, equipos de conmutación y otros sistemas de
gestión de la información, así como a las redes de comunicaciones externas. Los clientes están buscando sistemas
de calidad extremadamente alta de rendimiento dentro de sus centros de datos.
Copyright © 2017 CommScope Inc and Cabling Science Ltd. All rights reserved.
7: Los servidores.

Vamos a revisar el equipo que puede encontrar en el centro de datos. Un servidor es una combinación de hardware
y software que proporciona a los clientes aplicaciones como el correo electrónico corporativo, alojamiento web, etc.
A pesar de que un servidor tiene una gran cantidad de la funcionalidad de un ordenador portátil, los avances en la
tecnología de memoria de la CPU y permiten que los servidores sean significantemente más potente, la ejecución de
múltiples sistemas operativos y aplicaciones. El servidor tradicional es a menudo descrito como una "caja de pizza",
debido a su cuadrado (bueno en realidad una rectangular); puede ser tan pequeño como de 1U de altura y está
montado en un bastidor. Estos son también conocidos como '' rack optimizado servidores, ya que estaban
originalmente en comparación con las torres de servidores, que no fueron optimizados para bastidores.
Copyright © 2017 CommScope Inc and Cabling Science Ltd. All rights reserved.
8: Servidor Blade.

Un servidor blade está diseñado para minimizar el espacio por extracción de componentes redundantes comunes a
la mayoría de los servidores, como la fuente de energía, puertos de red e interfaces de gestión. Un servidor blade se
puede montar en un plano trasero del chasis que tendrá un grupo consolidado de todos los componentes que cada
servidor individual de las palas no se encuentra, dejando sólo el cálculo en bruto y la memoria en una fracción del
espacio. Además de una reducción del coste por servidor en general, una de las principales ventajas de los
servidores blade es la modularidad de ser capaz de añadir una hoja a la vez. Los servidores blade también
consumen menos energía por servidor físico y, a su vez, generan menos calor sobre una base global. Sin embargo,
puesto que las eficiencias de calor reducida y el poder se logran mediante el aumento de la densidad de la CPU y la
memoria, aumento de potencia y calor generado por este tipo de equipos deben ser contabilizadas de refrigeración.
Copyright © 2017 CommScope Inc and Cabling Science Ltd. All rights reserved.
9: La virtualización.

Al igual que cualquier equipo que está acostumbrado a tratar con la actualidad, un servidor es capaz de ejecutar
múltiples aplicaciones, por lo que mediante la ejecución de dos aplicaciones en un servidor esto podría reducir el
número de servidores necesarios en un 50 por ciento, que si se multiplica hasta reduce el número de dispositivos
físicos que se requieren aún más. La ejecución de múltiples sistemas operativos en un mismo servidor físico se
conoce como virtualización, donde una nueva aplicación puede ser añadido a una máquina virtual, en lugar de
añadir un nuevo dispositivo físico. Los beneficios de la virtualización son evidentes con la reducción de la
electrónica, que conduce a una reducción en la energía, la disipación de calor, y el cableado necesario, así como un
potencial de reducción en los costes de gestión y del mantenimiento de la. Poner más 'huevos en una sola canasta'
hace que el funcionamiento y la conexión a los servidores restantes más críticos. La virtualización está dando lugar a
la utilización de un mayor grado de cableado para manejar el aumento de las expectativas para el tráfico de datos
hacia y desde cada servidor.
Copyright © 2017 CommScope Inc and Cabling Science Ltd. All rights reserved.
10: La virtualización.

Los verdaderos beneficios de la virtualización sólo son plenamente cuando una infraestructura de almacenamiento
en red de extremo a extremo está en su lugar. La capacidad de mover máquinas virtuales entre servidores físicos e
incluso los centros de datos requiere no sólo una LAN para poder comunicarse con el activo físico, sino también una
robusta SAN, de manera que las aplicaciones que se mueven, mantener el acceso y la comunicación a un conjunto
común de dispositivos de almacenamiento.
Copyright © 2017 CommScope Inc and Cabling Science Ltd. All rights reserved.
11: DAS y NAS gráficamente.

DAS (Direct Attached Storage) es el almacenamiento de equipo que está conectado directamente a un ordenador o
servidor y no se puede acceder directamente a otros queridos. NAS (Network Attached Storage) es el
almacenamiento de disco duro que se ha creado con su propia dirección de red en lugar de estar conectados al
equipo del departamento, que está sirviendo aplicaciones a los usuarios de estaciones de trabajo de una red.
Eliminando el acceso de almacenamiento y su gestión desde el servidor del departamento, tanto la programación
como archivos de aplicación se pueden servir más rápido porque no están compitiendo por los mismos recursos del
procesador. Un NAS es direccionable IP y por lo general se encuentra en la LAN donde recibe asigna las peticiones
de archivo desde el servidor principal.
Copyright © 2017 CommScope Inc and Cabling Science Ltd. All rights reserved.
12: SAN gráficamente.

Hablamos de lo que era anteriormente una SAN, explicando que es una red de alta velocidad de los dispositivos de
almacenamiento compartido. Su arquitectura funciona de una manera que hace que todos los dispositivos de
almacenamiento disponibles para todos los servidores en una red LAN o WAN. A medida que se añaden más
dispositivos de almacenamiento a una SAN ellos también serán accesibles desde cualquier servidor de la red más
grande. En este caso, el servidor simplemente actúa como un camino entre el usuario final y los datos almacenados
y porque estos datos almacenados no reside directamente en cualquiera de los servidores de una red, de
alimentación del servidor se utiliza para aplicaciones de negocios y por lo tanto la capacidad de red se libera al
usuario final.
Copyright © 2017 CommScope Inc and Cabling Science Ltd. All rights reserved.
13: El almacenamiento y el Canal de Fibra.

El término SAN se utiliza comúnmente para referirse a los servidores de almacenamiento dedicados que utilizan ya
sea el canal de fibra (FC) o iSCSI (Interfaz estándar de Internet Small Computer) conjunto de comandos. Al ejecutar
comandos SCSI sobre redes IP, iSCSI se utiliza para facilitar la transferencia de datos a través de intranets y para
administrar el almacenamiento a largas distancias. Una SAN iSCSI funciona sobre la red de área local (LAN) y
simplifica la implementación y gestión de la red SAN. Por el contrario, el almacenamiento de canal de fibra
tradicionalmente requiere conmutadores caros patentados y tarjetas de adaptador de bus de host (HBA) y por las
fuerzas de diseño de la SAN para estar en una red FC completamente separados que no se comunica con la red
Ethernet existente. Los beneficios de una SAN es sin embargo que es tiene una alta eficiencia de transporte de
datos con baja latencia y calidad garantizada de los niveles de servicio. En la segunda parte de esta lección vamos a
ver en los protocolos de red que se encuentran típicamente en el centro de datos en un poco más de detalle,
incluyendo FCoE, (canal de fibra sobre Ethernet), que ha dado lugar a nuevas arquitecturas y los que se analizarán
en lecciones posteriores.
Copyright © 2017 CommScope Inc and Cabling Science Ltd. All rights reserved.
14: La matriz de almacenamiento de servidor y características.

En el contexto del mundo de almacenamiento en red, un servidor se refiere como un host y el disco se conoce como
la matriz de almacenamiento. Una red de área de almacenamiento está compuesto por el anfitrión, matriz de
almacenamiento, y el interruptor de almacenamiento que conecta estos dispositivos entre sí. Hay algunas
características comunes y contrastantes de hosts y matrices de almacenamiento. Para empezar, un servidor host
puede tener una unidad de disco duro y la memoria del acceso que las provisiones para los sistemas operativos y el
procesamiento local. Por el contrario, una matriz de almacenamiento puede constar de miles de unidades de disco
duro individuales y las tarjetas de memoria caché cuyos recursos son compartidos en el sistema y sobre la red de
almacenamiento. En un canal de fibra SAN pura, anfitriones requieren una tarjeta de adaptador de bus de host que
se convierte en la interfaz entre el anfitrión y el SAN, mientras que las matrices de almacenamiento presentan
múltiples front-end de los puertos de canal de fibra a la red de almacenamiento. Los anfitriones y matrices de
almacenamiento requieren el uso de un puerto de gestión de banda, por lo general una interfaz RJ45 que permite el
acceso remoto del sistema operativo. Una matriz de almacenamiento tiene su propio sistema propietario aunque,
operativo que se puede acceder de forma remota por los administradores de almacenamiento.
Copyright © 2017 CommScope Inc and Cabling Science Ltd. All rights reserved.
15: Las matrices y anfitriones.

Una matriz de almacenamiento es un conjunto de dispositivos físicos de almacenamiento (unidades de disco) que
abarcan una entidad física. Las características incluyen conectividad backend (conexión entre la CPU, memoria
caché, las unidades), conectividad frontend (SAN cableado) y diferentes niveles de almacenamiento (primaria /
secundaria). Un host es un servidor físico que necesitan almacenamiento SAN adjunta (Dell, HP, SUN, IBM ...), al
menos 1 adaptador de bus host y al menos 1 tarjeta de interfaz de red (NIC). Por lo general, los puertos de datos
Ethernet no están disponibles en las matrices de almacenamiento de canal de fibra, sin embargo, con el movimiento
hacia 10G iSCSI esto puede no ser siempre el caso. características de conmutación por error y redundancia son de
suma importancia para la estabilidad de una SAN FC y por lo tanto el almacenamiento compartido debe estar
siempre disponible. Las aplicaciones que se ejecutan en servidores también pueden bloquearse si pierden el acceso
a sus discos remotos. Sin embargo, si un host se bloquea, encontrará los discos remotos sobre el reinicio y la matriz
de almacenamiento no se verá afectada.
Copyright © 2017 CommScope Inc and Cabling Science Ltd. All rights reserved.
16: Edge - Core - SAN borde de topología.

Este diagrama muestra un borde de núcleo típico borde SAN topología. De izquierda a derecha se encuentran los
conmutadores de acceso SAN conectados a interruptores de la base de SAN. Los interruptores de la base sirven
como la columna vertebral SAN y también están conectados a los conmutadores de extremo de almacenamiento.
Estos conmutadores de almacenamiento proporcionan conexiones tanto con las matrices de almacenamiento y red
central. El número de conexiones entre el almacenamiento a borde es 16, el borde de la base es 4, y el núcleo de
borde es 2. Esto es típico en un entorno SAN, donde por alto que existe la posibilidad de E / S entre las matrices de
almacenamiento y conmutadores de núcleo. Típicamente, las conexiones entre conmutadores centrales y de borde
se hacen en las tarjetas de línea no exceso de solicitudes para evitar cuellos de botella entre el núcleo y los bordes.
El borde a servidores y conexiones de borde a almacenamiento puede ser un exceso de solicitudes, ya que llena el
rendimiento de velocidad de línea es poco frecuente durante un período de tiempo prolongado.
Copyright © 2017 CommScope Inc and Cabling Science Ltd. All rights reserved.
17: Edge - Core - SAN borde de topología.

Aquí es una implementación típica de SAN. Los siguientes puntos deben tenerse en cuenta. Un servidor es un
cliente típico SAN con adaptadores de bus de host de canal de fibra y una tarjeta de red Ethernet. Tenga en cuenta
que los clientes SAN tendrán múltiples HBA de canal de fibra para soportar archivos de mayor tamaño y mayor
rendimiento. Un único host podría tener docenas de estos adaptadores, si su arquitectura interna y el sistema
operativo permite. El servidor B es un cliente NAS y sólo se puede acceder a la red SAN a través del dispositivo de
NAS. Se trata de acceso a nivel de archivo, únicamente por lo que hay un nivel de bloque de E / S es posible.
Servidor C tiene un adaptador de bus host iSCSI y se puede acceder a la red SAN directamente a través de la
conexión Ethernet a la pasarela iSCSI. Dado que también tiene una tarjeta de red Ethernet, también puede
comunicarse con la red SAN a nivel de archivo, a través del dispositivo de NAS también. Un servidor tiene
adaptadores SAN nativas y tendría que estar en proximidad física a la red SAN. Servidores B y C el uso de Ethernet
para acceder a la red SAN, por lo que podría estar en cualquier lugar remoto y utilizar la red WAN (no se muestra
aquí) para acceder a la LAN que la SAN está conectado. El servidor de copia de seguridad recibe la información del
servidor de copia de seguridad de la LAN y la envía a la red SAN para ser archivados. La programación de respaldo
utiliza las conexiones Ethernet a los anfitriones para iniciar los procesos de copia de seguridad de los anfitriones, y, o
bien enviar sus datos al servidor de copia de seguridad a través de Ethernet o al respaldo a través de la propia red
SAN. La pasarela iSCSI tiene tanto una conexión iSCSI a la LAN y una conexión de canal de fibra a la SAN y sirve
como una pasarela iSCSI para otros hosts iSCSI. Todas las conexiones entre switches SAN se llaman Enlaces
interruptor Inter (ISL).
Copyright © 2017 CommScope Inc and Cabling Science Ltd. All rights reserved.
18: NAS.

Networked Attached Storage o NAS es un sistema de almacenamiento basado en disco con una interfaz de red IP
para servir archivos en una red Ethernet. Esta porción de archivos dedicado ofrece mucho mayor capacidad de
almacenamiento que los servidores de archivos tradicionales que tienen sólo unos pocos discos. NAS también se
observa para una conectividad superior y el rendimiento de almacenamiento, permitiendo que las aplicaciones y los
usuarios reciban servicio más rápido y más fiable que los servidores de archivos comunes. Un sistema NAS es fácil
de implementar que requiere poco más que una fuente de alimentación y una conexión de red IP para la operación
básica. Utiliza un sistema operativo propietario que a menudo se incluye para mejorar su rendimiento y garantizar la
seguridad. NAS es reconocido por tres ventajas principales: la consolidación, la sencillez de implementación y
facilidad de gestión. También es flexible, lo que permite la capacidad de aumentar fácilmente, puede ser programado
para limitar la cantidad de ancho de banda de red, pueden estar separados de la red y hace más fácil la
recuperación de desastres debido a la tecnología de recuperación granular (GRT) para restaurar ciertos elementos
individuales de los conjuntos de copia de seguridad cuando sea necesario.
Copyright © 2017 CommScope Inc and Cabling Science Ltd. All rights reserved.
19: Consideraciones La elección de la ubicación física.

Veamos algunos conceptos básicos de planificación NAS empezando con la ubicación. A NAS no necesariamente
tiene que estar situado en un centro de datos. Podría ser en un armario de almacenamiento o incluso debajo de un
escritorio, donde quiera que termina siendo situados hay algunos parámetros ambientales que deben tenerse en
cuenta. Es la zona propuesta físicamente lo suficientemente grande como para dar cabida a la NAS y un SAI junto a
él y tendrá que tener lugar el acceso adecuado de energía, refrigeración y de la red. Es ambiente relativamente
limpio? A menudo, algunos dispositivos NAS de sucursales terminan en el armario de mantenimiento, junto con una
alta humedad, el polvo, la mala alimentación y un cable de red enmarañada. Si bien no es alto en la mayoría de los
ingenieros lista de tareas pendientes, la falta de refrigeración poder y el acceso puede llegar a ser incluso mejor a la
aplicación planificada en una pesadilla caro. Incluso con el SAI asegurar la calificación es más que adecuado y
entender la relación entre el crecimiento del almacenamiento y el poder. condiciones ambientales inadecuadas
también atribuyen a la falta de hardware y pueden aumentar las posibilidades de múltiples fallos que pueden causar
una interrupción.
Copyright © 2017 CommScope Inc and Cabling Science Ltd. All rights reserved.
20: Determinar la red de ancho de banda.

Asegúrese de que tiene un ancho de banda de red adecuada para su uso propuesto, de modo dependiendo del
dispositivo comprado, puede necesitar más de un puerto y dirección IP. Algunos dispositivos NAS agregar múltiples
conexiones de red para ofrecer un mayor rendimiento, por lo que planificar puertos contiguos conmutador de la red
para este tipo de expansión para reducir la complejidad y asegurar una ruta de actualización de ancho de banda
muy fácil. velocidades de datos de 10 / 100Mb solamente equivalen a 10 usuarios transferir archivos 10Mb mientras
Gigabit Ethernet escala hasta 500 usuarios con archivos de 20 MB. Si las velocidades de transferencia de datos o el
número de usuarios superará este 10 Gb debería ser más que suficiente. Los tamaños de archivo cada vez van en
aumento por lo que no hay que subestimar en esta área. Instalar una infraestructura de calidad que los planes a
escala con varias generaciones de la solución. Una vez NASs están en uso son difíciles de bajar. Muchos
proveedores tienen ciclos cortos al final de su vida para el soporte de código NAS y hardware, ya que se puede
esperar que ser reemplazados cada 3-5 años.
Copyright © 2017 CommScope Inc and Cabling Science Ltd. All rights reserved.
21: ¿Dónde está NAS de almacenamiento físico?

Una pregunta común por lo general formulado acerca de NAS es - "¿Dónde está todo el almacenamiento físico
detrás de la puerta de enlace NAS? ' Hay dos respuestas y que se explicaron anteriormente en esta lección. La
primera opción es el uso de almacenamiento de conexión directa conectado directamente a la puerta de enlace NAS
que es ideal, ya que no requiere de una red de almacenamiento, pero está limitada en la capacidad que la pasarela
puede compartir. La segunda opción es hacer que la puerta de enlace NAS una gran cantidad de SAN y permite su
almacenamiento "back-end" para conectarse en red. Una SAN permite una puerta de enlace NAS crezca a medida
que sea necesario y no limita la cantidad de espacio compartido se puede aprovisionar. Aunque a menudo nos
referimos a NAS como un dispositivo dedicado (por ejemplo, una caja NAS) con su propio almacenamiento interno,
algunas organizaciones optan por renunciar a un nuevo aparato cuando una SAN ya existe en la empresa. En lugar
de utilizar un servidor NAS pueden utilizar una puerta de enlace NAS para servir archivos de SAN o algún otro
dispositivo de almacenamiento externo. La presencia de una puerta de enlace añade funcionalidad NAS y utiliza el
SAN o la matriz de disco conectado por separado para el almacenamiento real. La ventaja de una puerta de enlace
es que el almacenamiento NAS no está limitado por la capacidad del propio aparato, sino por la capacidad de
almacenamiento de la matriz separada o SAN, que puede ser considerablemente mayor.
Copyright © 2017 CommScope Inc and Cabling Science Ltd. All rights reserved.
22: Que completa esta lección.

Esto completa la primera parte de la lección 1 en la tecnología de los centros de datos. Por favor continúe la
segunda parte. Gracias.
Copyright © 2017 CommScope Inc and Cabling Science Ltd. All rights reserved.

También podría gustarte