Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Documentacion Cloud Connect (Alfa1.2)
Documentacion Cloud Connect (Alfa1.2)
Documentacion Cloud Connect (Alfa1.2)
Version 1.0
Autores: Ivan Fortunesky, Juan Moleon, Leonardo Gonzalez, Cristian Ramos y Agustin Paulo
Tabla de contenido
Cloud Connect es un servicio de conectividad a la nube otorgado por un proveedor de Cloud computing
(Amazon, Google, Azure, etc) a sus clientes para que los mismos a través de uno o más enlaces
dedicados puedan conectar uno o más sitios directamente a dicho proveedor, así el usuario final pueda
hacer uso de las herramientas ofrecidas por el Cloud provider.
Neutrona es partner directo con AWS (Amazon), Azure (Microsoft) y Google, los cuales tienen presencia
y conexión directa con Neutrona en USA y Brasil. Esto con el fin de ser uno de los proveedores de
transporte entre los proveedores de Cloud anteriormente mencionados y el cliente final en cualquier
parte de Latinoamérica, como se muestra en la ilustración 1.
Para más información sobre que proveedores son partners directos en cada continente, ingresar a los
siguientes links:
https://aws.amazon.com/es/directconnect/partners/
La solución puede abarcar desde conexiones punto a punto, punto – multipunto, transporte L3 o L2 y
con dobles conexiones entre dos o más proveedores de Cloud; cada solución puede variar según las
necesidades del cliente.
Neutrona vende el servicio de transporte entre los proveedores de Cloud y el cliente final a través de la
plataforma de los mismos. Dentro de las soluciones que ofrece Neutrona se encuentran las siguientes:
Esta solución permite brindarle al cliente conectividad a uno o mas proveedores de Cloud y
realizar el transporte hacia los diferentes PoPs a través del backbone de Neutrona, el como
punto diferencial para tener en cuenta es que el transporte local lo realiza el cliente final a
través de su propio enlace de internet, recibiendo un equipo Citrix SD-WAN mediante el cual se
levanta el túnel sobre internet a un concentrador en el POP más cercano, donde se tiene un
concentrador
(Mas información sobre SD-WAN en el próximo programa, espero que les haya gustado)
Esta solución transporta el enlace de Cloud para los diferentes proveedores dentro de una
misma región o entre diferentes regiones. Básicamente, es un circuito de transporte de Cloud a
Cloud.
Este es un producto usado para brindarle a un cliente con prescencia en un POP, transito a
través de nuestro backbone hacia los Cloud providers.
Topologia
Salvo la excepción del Pop de Miami, donde tenemos 4 switches (2 por rack), en los Pops que son parte
del proyecto tenemos 2 Mellanox SN2100, actualmente con Cumulus OS 3.4, redundantes Activo-
Backup.
Las conexiones con los Cloud provider’s se encuentran en los siguientes POPs:
Los POPs que son parte de la red overlay de Cloud Connect son los siguientes:
CIUDAD DE
8 MEXINTINTCC1SP1A MEXINTINTCC1SP1B
MEXICO MEXICO
USA
MIA RACK 1 USAMIAMI1CC1SP1A USAMIAMI1CC1SP1B
11
MIA RACK 2 USAMIAMI1CC2SP1A USAMIAMI1CC2SP1B
Pueden encontrar el sumario de con toda la información sobre los POPs, racks y equipos en el siguiente
link:
https://www.dropbox.com/home/Cloud%20Connect%20Project/2.%20Product%20Definition/Hostname
%20convention?preview=Hostname+sumary+-+phase1.xlsx
Por el momento, como no tenemos clientes ni ultimas millas directamente conectados (Por cuestiones
técnicas especificas del software) tenemos un uplink de 10Gb, interfaz que esta pinchada dentro de una
VRF de transporte en nuestro backbone y un downlink de 1Gb, que estra dentro de un Aggregate
Ethernet en el JunOs, donde se configuran los servicios.}
Cada switch tiene su propio sistema autónomo privado, el cual se usa para una sesión eBGP contra el
MX del POP a donde están conectados, y una sesión eBGP hacia todos los otros switches en la red (Full
mesh).
La sesión BGP entre Cumulus usa la familia EVPN, con la cual levanta un túnel de capa 2 (Similar a una
VPLS) para el transporte de MACs. A cada túnel le corresponde una VNI (Simil vlan) por lo que para ver la
mac que tenemos en un servicio, podemos ver la que aprende una VNI especifica (Detallado mas
adelante en el capítulo de troubleshooting).
Esta nueva red lógica es una red “Overlay”, siendo el “Underlay” nuestro backbone MPLS, por donde se
transporta el trafico a través de una VRF
Cumulus Linux como su nombre lo indica es una distribución del Sistema Operativo Linux. A diferencia
de otras distribuciones Linux, Cumulus esta específicamente creada para ser utilizada en White boxes
(dispositivos de Networking que no poseen sistema operativo, es decir, solo el hardware).
En nuestro caso la marca de la “White box” que vamos a utilizar va a ser Mellanox.
Al igual que toda distribución Linux, Cumulus, está dentro de la comunidad GNU open source, lo cual
quiere decir, entre otras cosas, que no posee algún tipo de licencia para habilitar características en el
SO.
Cumulus es simplemente el sistema operativo que vamos a poner en los equipos Mellanox, de la misma
manera que tenemos JunOS en los equipos Juniper y IOS en los equipos Cisco. Si bien es un SO diseñado
para networking, al igual que el resto, vamos a tener un poco más de visibilidad sobre las capacidades
del SO a comparación con otros. En simples palabras entraremos en la Shell o línea de comandos del
sistema operativo y desde allí administraremos protocolos, interfaces y demás configuración necesaria,
pero siempre dentro del SO, no como por ejemplo JunOS, que tiene montada una interfaz de comandos
(CLI = Command Line Interface), que en si está dentro de un FreeBSD.
En resumidas cuentas, Utilizaremos el sistema operativo Cumulus para administrar el equipo, no con
una interfaz de comandos sino con binarios (es decir una aplicación dentro del SO para administrar a la
cual llamaremos cada vez que tengamos que agregar alguna línea de configuración o hacer un Tshoot) o
bien modificando los archivos del sistema operativo, ya sea para interfaces o protocolos.
¿Como acceder?
Para acceder a los Cumulus, es necesario primero ingresar por ssh a un jump host. Por el momento el
que vamos a usar es el Ubuntu 7.188.101.212 (User: ubuntu Pass: Neutrona1)
Las IPs de management de los equipos están por DHCP, por lo que tendremos que entrar por hostname.
Una vez adentro del Jumphost, usamos la IP del equipo que queremos entrar con el comando SSH en el
Shell de Linux, usando -l para especificar el usuario.
Todos los Cumulus en la red actualmente tiene las siguientes credenciales locales.
User: cumulus
Pass: CumulusLinux!
Lista de hostnames:
ARGBUELVLCC1SP1A ARGBUELVLCC1SP1B
BRASAOSP2CC1SP1A BRASAOSP2CC1SP1B
BRASAOSP4CC1SP1A BRASAOSP4CC1SP1B
CHISCLLVLCC1SP1A CHISCLLVLCC1SP1B
PERLIMLVLCC1SP1A PERLIMLVLCC1SP1B
COLBOGWBPCC1SP1A COLBOGWBPCC1SP1B
CRCSJOUFICC1SP1A CRCSJOUFICC1SP1B
MEXINTINTCC1SP1A MEXINTINTCC1SP1B
MEXQROQROCC1SP1A MEXQROQROCC1SP1B
USALAXLA1CC1SP1A USALAXLA1CC1SP1B
USAMIAMI1CC1SP1A USAMIAMI1CC1SP1B
USAMIAMI1CC2SP1A USAMIAMI1CC2SP1B
En caso de no funcionar el servidor DNS, podemos ver las IPs de management por ARP en los MX de
cada POP.
Usamos LLDP para saber que IP corresponde a que equipo (A (primario) o B(secundario))
El sistema operativo y NCLU
Como mencionamos anteriormente, al ingresar al SO, este nos brindara un Shell en el cual
podremos configurar el equipo en cuestión, pero, a diferencia de otros SO de equipos este no nos
brindara una interfaz para poder configurar y mostrar las características de networking.
Para esto el SO utiliza un binario llamado NCLU (Network Command Line Utility ). Esto es,
simplemente un conjunto de comandos simplificados que con una línea de configuración modifican
archivos dentro del sistema y por consiguiente el comportamiento del equipo, pero de manera
simplificada.
El NCLU esta basado en comandos básicos de networking, la única diferencia es que antepone la
palabra NET para cada comando.
net commit
Si bien el NCLU nos simplifica la configuración y administración del equipo en cuestión, algunas veces es
necesario modificar ciertos atributos relacionados a la configuración ya sean cuestiones físicas o lógicas
a través del SO. Esto lo haremos en los archivos de configuración, para lo cual utilizaremos NANO, un
editor de texto básico y estándar del sistema operativo Cumulus Linux. Ej.:
Nos da acceso a la pantalla de edición del archivo interfaces, que esta en la ruta /etc/network/
Los archivos de configuración usados más frecuentemente en Networking son los siguientes:
Troubleshooting the Switches Mellanox con SO Cumulus Networks 3.4
Una vez adentro de la caja, podemos empezar revisando que los sensores de PSU y Hardware tengan
valores normales. Como de momento no tenemos casos reales con servicios en producción para mostrar
un troubleshooting, vamos a ver los principales comandos que podemos usar para encontrar un
problema en la caja y con un servicio de prueba.
Ya que los servicios en los Cumulus son configurados por un proceso automatizado, no debería de haber
errores de configuración y como la sintaxis es bastante diferente a lo que estamos acostumbrados, nos
vamos a centrar principalmente en comandos de diagnóstico.
Recordar que es probable, al ser Linux, necesitemos anteponer el comando “Sudo” a los comandos para
conseguir los permisos necesarios.
PSU1: OK
PSU2: OK
Sensors
Nos muestra los valores actuales de los sensores de voltaje y temperatura del hardware.
cumulus@CHISCLLVLCC1SP1A:mgmt-vrf:~$ sensors
mlnx-a2d-mnb-drv-i2c-4-6d
Adapter: i2c-2-mux (chan_id 1)
ddr3_0.675: +1.66 V (min = +0.61 V, max = +0.74 V)
cpu_0.9: +1.66 V (min = +0.81 V, max = +0.99 V)
sys: +3.28 V (min = +2.97 V, max = +3.63 V)
Para ver los niveles de señal en las interfaces opticas podemos usar la utilidad ethtool, con la siguiente
sintaxis. La misma se puede grepear para obtener un dato en especifico
(Ejemplo resumido)
IDENTIFIER : 0X 03 (SFP)
CONNECTOR : 0X 07 (LC)
……
Loggin
FRR
Nos permite ver el log de eventos del Daemon de routeo FRR (Sesiones BGP)
Linkstate
Nos permite ver los logs de cambio de estado de las interfaces.
=============================
Net show evpn mac vni all
Nos muestra las MACs que aprendemos por VNI (Similar a ver las MACs en una VPLS, cada VNI
corresponde a un circuito).
CUMULUS @CHISCLLVLCC1SP1A: MGMT - VRF :~$ NET SHOW EVPN MAC VNI ALL