Documentos de Académico
Documentos de Profesional
Documentos de Cultura
BackboneMPLS Version1
BackboneMPLS Version1
Supercanal Mendoza
Indice
1. Inventario de Recursos
1.1. Topología actual
1.2. Nuevo equipamiento Core + MPLS
2. Analisis de Ingenieria
2.1. Aproximación de la topología
2.2. Volumenes de tráfico (a diciembre 2019)
3. Diseño de la nueva topologia
3.1. Redes Privadas Virtuales
3.2. Vínculos físicos del Backbone
3.3. Vínculos lógicos del Backbone
3.3.1. Premisas
3.3.2. Migración
3.3.3. Avance de la migración
3.3.4. Pendientes
4. Nuevo Backbone MPLS
4.1. Equipos e interfaces
4.2. Avance. Diagrama a diciembre de 2019.
5. Tablas de ruteo del Backbone
5.1. Red de Gestion en la Tabla de Ruteo Principal o Defaut
5.2. Red de Internet (Vrf INTERNET)
5.3. Red de NAT (Vrf INTERNET-NAT)
6. Circuitos L2VPN
6.1. Circuito L2VPN-NAT (multipunto)
6.2. Circuitos L2VPN P2P (xconnect)
6.3. Definición de los L2VPN actuales
7. Configuracion de protocolos del Backbone
7.1. Configuracion eBGP
7.1.1. Definicion de Interfaces
7.1.2. Definicion del mpBGP
7.1.3. Definicion de prefix-sets y route-policies.
7.1.4. Comandos de Control (orientados al servicio de Internet)
7.2. MPLS + OSPF
7.2.1. Vinculo entre el Core1 y Core2
7.2.2. Vinculo entre el Core y las localidades (MPLS + LDP)
7.2.3. Comandos para verificacion de MPLS
7.2.4. Vinculo entre el Core y el C6500/6800
7.2.5 Configuracion OSPF
7.3. Configuracion mpBGP
7.4. Configuración OSPF para CDNs
7.4.1. Configuracion Core Viejo Cisco6800
7.4.2. Configuracion Nuevo Core
7.4.3. Tabla de Ruteo del Core MPLS
7.4.4 Tabla de Ruteo del Core Viejo
7.4.5. CDN Facebook
7.4.6. Problemas MTU & OSPF
7.5. Configuración BGP para CDNs
7.6. Configuracion de los CMTS en el nuevo Backbone MPLS
7.6.1. Plano de Gestion
7.6.2. Plano de Internet (VRF INTERNET)
7.6.3. Problemas MTU & OSPF
7.7. NAT CGN en el Core MPLS
7.8. Configuraciones para garantizar la interoperatividad
7.8.1. Red DMZ
7.8.2. Redes aprendidas desde el Core MPLS.
7.8.3. Red WAN y NAT (CGN funcionando en el Core no MPLS)
7.8.4. Red Iviza
8. Guias paso a paso
8.1. Paso a paso para sacar un prefijo de un CMTS del Core viejo (a) y agregarlo un nuevo
prefijo en un CMTS en el Core MPLS (b) -hasta que termine la migracion-
8.2. Habilitar todos los prefijos de Supercanal MDZ por el Core Viejo (en caso deuna caida
de TASA ). Este procedimiento es temporal, hasta que se migre un vinculo del Century
Link
9. Configuraciones
9.1. NCS5504 Core1
9.2. NCS5504 Core2
9.3. NCS540 Maipu
9.4. NCS540 Rodeo
9.5. NCS540 Lujan
9.6. NCS540 Guaymallen
9.7. NCS540 Ciudad
9.8. MX104-CGN
1. Inventario de recursos.
1.1.Topología actual
Mendoza
Funcion Marca Ver.Firmware
Router Borde Cisco ASR-9001
Switch Core Cisco Catalyst 6500
Switch Lujan de Cuyo Juniper QFX5110
Switch Maipu Juniper EX2300
Switch Maipu Nuevo Cisco 3850-24XS
Switch Rodeo del Medio Juniper EX2300
Switch Guaymallen Juniper EX2300
Mendoza
Funcion Marca Ver.Firmware
Router Core #1 Cisco NCS5504
Router Core #2 Cisco NCS5504
Router CGN #2 Juniper MX104
Switch Core Ciudad Cisco Catalyst 6800
Router NCS Ciudad Cisco NCS540
Router Lujan de Cuyo Cisco NCS540
Switch Lujan de Cuyo Juniper QFX5110
Router Maipu Cisco NCS540
Switch Maipu HTTP Cisco3850
Router Rodeo del Medio Cisco NCS540
Switch Rodeo del Medio Juniper EX2300
Router Guaymallen Cisco NCS540
Switch Guaymallen Juniper EX2300
2. Análisis de Ingenieria
La idea de este apartado es dar un pantallazo sobre la topologia actual, para despues ir
ahondando en los servicios desplegados en cada uno de los activos principales del
Backbone de la ciudad de Mendoza, involucrados en esta migracion.
Acutalmente, el router Cisco ASR9001 cumple las fuciones de router de borde y el switch
de C6500/6800 cumple las funciones de core. El vinculo entre el ASR9001 y el C6800 es
un port channel de 30 Gbps.-
Entre el router de borde y el switch de core hay un iBGP para intercambio de redes. Desde
el switch de Core a las localidades el transporte se realiza en capa 2, con enlaces de
10Gigas. Hay un switch en cada localidad (Juniper EX4600 o EX2300), y ahi se conecta un
CMTS (o mas de uno) un equipo de Gpon y varios clientes dedicados. El intercambio de
rutas entre los CMTS y el switch de core es con OSPF. En cuanto al Gpon está desplegado
Zhone en Lujan y Huawei en Guaymallen, Maipu y Mendoza.
Se estima que el 80 o 90% de las veces que el personal del NOC se conecta al C6800 es
para realizar cambios sobre la configuración de los clientes. Debido a este tema es que la
idea de el nuevo core es que se acceda lo menos posible a los equipo centrales. Con el
nuevo esquema, se ubican 2 routers potentes como core (2 para dar redundancia ante la
eventual caída de alguno) y routers en cada una de las localidades y encapsulando el
trafico con MPLS. Para el ruteo, se configura OSPF para gestion y la interconexion de los
equipos, y se crea un mpBGP en cada una de las localidades, llegando con L3 y MPLS a
cada una de ellas y ahi publicar los prefijos que se utilizarán en cada uno, disminuyendo
finalmente el acceso a los nuevos equipos centrales de Core.
3. Diseño de la nueva topologia
En el nuevo diseño el 6800 quedaría al mismo nivel que las localidades, quedando la
Ciudad de Mendoza como una nueva localidad en refernecia al Core.
Se dispone de 2 routers NCS5504 para el core y 5 router NCS540 para las localidades.
-Justificacion de la eleccion de los equipos-
En cuanto a estos equipos, los CDNs no son críticos en cuanto a una caida temporal, pero
el CGN sí es critico. Se necesita evaluar cual seria la mejor opcion para implementar el
CGN (probablemente con un HSRP o VRRP).
ISPs
Se dispone de TASA (2 fibras con 2 peers de BGP), Century (2 fibras con 2 peers de BGP),
Silica y Cabase por un puerto de TenG.
Se toma la default de los proveedores, salvo Cabase.
Protocolos Actuales
BGP a los ISP- IPv4 e IPv6
iBGP desde el ASR al C6800 - IPv4 e IPv6
OSPF desde el 6800 hacia los CMTS (aprox 10)
PBR hacia CGN
OSPF hacia los equipos Huawei
OSPFv3 a los equipos Huawei (en instalacion)
OSPFv3 al CMTS de prueba
OSPF hacia los equipos Zhone, con dhcp relay para el aprovisionamiento de las ONUs
Desde el plano de gestión, se puede acceder a los servicios actuales provistos por el
C6800.
3.3.1. Premisas
Se configuran /30 privados para los punto a punto entre todos los nuevos routers del
backbone, de acuerdo a las siguientes especificaciones:
a) Loopbacks para gestion: 10.10.10.0/24
b) P2P desde el Core1: 10.0.0.0/24
c) P2P desde el Core2: 10.1.0.0/24
d) P2P para la vrf INTERNET
e) P2P para la vrf INTERNET-NAT
3.3.2.Migración
Para mantener el servicio y lograr que estos cambios no afecten al cliente final
manteniendo la compatiblidad con los servicios actuales.
Se definen circuitos L2VPN sobre la red MPLS para garantizar servicios actuales, como
NAT, WAN y la red Iviza.
Se crea un L2VPN para cada localidad, en la que se va a conectar el switch actual
manteniendo los servicios brindados actualmente y paulatinamente se va a ir migrando
trafico al nuevo esquema.
El NCS540 de Ciudad se utiliza a fin de concentrar todos los L2VPN que van a ir a las
localidades. El puerto que se utilizaba en el C6800 hacia la localidad va directo a un puerto
de NCS540 que lo encapsula en un L2VPN y lo lleva a destino a traves de la red MPLS.
3.3.4. Pendientes
4. Nuevo Backbone
Core1 10.10.10.1
Core2 10.10.10.2
Maipu 10.10.10.3
Rodeo 10.10.10.4
Lujan 10.10.10.5
Guaymallen 10.10.10.6
C6800 Ciudad 10.10.10.7
NCS Ciudad 10.10.10.8
CGN Nuevo 10.10.10.9
Lo1: 10.10.10.1
ISP Tasa1: 200.63.152.38/30
ISP Century1:
Core #2: 10.0.0.1/30
Maipu / Rodeo #1: 10.0.0.5/30
Lujan #1: 10.0.0.9/30
Guaymallen#1: 10.0.0.13/30
Ciudad #1: 10.0.0.25/30
Ciudad Cisco 6800 10.0.0.21/30
CGN #1: 10.0.0.81/30
Netflix #1: 168.90.8.66/26
Facebook #1: 168.90.8.144/26
Interfaces – Router #2
Lo1: 2.2.2.2
ISP Tasa1: 200.63.152.54/30
ISP Century2: 67.73.139.117/30
Core #1: 10.0.0.2/30
Rodeo#1 10.1.0.5/30
Lujan #2: 10.1.0.9/30
Guaymallen #2: 10.1.0.13/30
Ciudad #2: 10.0.0.25/30
Ciudad Cisco 6800#2: 10.1.0.21/30
CGN #2: 10.1.0.81/30
4.2. Avance. Diagrama a Diciembre 2019
La gestion de los equipos a traves de las loopbacks y la vinculacion de los /30 van a
aparecer en esta tabla de ruteo principal.
Sobre los /30 se configura OSPF para poder ver todas las redes, y sobre las loopbacks
publicadas a traves de OSPF se configuracoin los neighbors para el mpBGP.
RP/0/RP0/CPU0:rc1-mdz-ncs5500#sh ip route
Wed Dec 18 11:55:20.140 UTC
- – a diciembre 2019
- 172.16.2.0/24 - para poder llegar a la red DMZ
Las redes 10.135/16 y 172.16.135/24 pertenecen al cBR8 de Maipu (hub ftth). Por la red de
gestion se realiza el aprovisionamiento de los CMs y acceso a portal, accediendo a la red
DMZ. Esas redes se aprenden por OSPF.
Para la red de DMZ se crea una estatica en los Cores y se redistribuye en el OSPF.
A traves de la VRF de Internet, se publican las redes que se anuncian a los proveedores.
Todo el trafico de Internet cursa en esta VRF.
Se distribuye a traves de mpBGP, sobre los /30 de gestion, se trasladan las VRF y sus rutas
de un router a otro.
Hacia internet, la interfaz de los ISP estan incluida en esta VRF., brindando acceso
Multihoming a los proveedores. La totalidad de las redes se publican por ambos routers
hacia internet, solo que de acuerdo a la cantidad de saltos definidos en el Core1 y Core2 es
que las redes terminan siendo anunciadas por uno u otro router.
En el proceso de migracion, sólo se van anunciando las redes de los equipos que queden en
el nuevo Core, migrando paulatinamente las redes hacia el nuevo entorno.
En cuanto a los bloques públicos, estan los destinados a clientes, aprendidos por BGP, y
los bloques asignados a los CDNs que se aprenden por un OSPF aparte. La publicacion de
estas redes permiten que los clientes de internet que esten en el nuevo backbone accedan
al contenido de los CDNs por via interna.
En esta vrf se define de forma estatica el bloque destinado para CGN, 201.190.245.0/24.
Se define el bloque completo para que se encuentre en el MX-104 y de ahi en mas se
encarga la placa multiservicio Juniper.
Tambien desde la vrf INTERNET garantizamos el acceso a la red DMZ en caso de ser
necesario, realizacion las configuraciones pertinentes en el Firewall.
Esta Vrf se utiliza para cursar todo el trafico nateado, proveniente de los CMTS, ONT y
demas equipos. Via OSPF se da conectividad a los bloques privados de ips definidas para
NAT (100.64/10) hacia la pata interna del equipo de CGN.
Por el momento no se esta utilizando ya que habia problemas en el nateo del MX-104.
Para solucionar este problema en el nateo se utiliza un circuito L2Vpn
6. Circuitos L2VPN
Para el tema del NAT de CGN, antes los inconvenientes que surgieron intentando rutear el
trafico interno del MX en capa 3, se define configurar un L2VPN del tipo multipunto.
Siendo el punto central la intefaz enfrentada a la pata interna del CGN, y los otros puntos
son interfaces de los routers en distintas localidades.
Se define un punto central en el Core1, que va a estar conectado al puerto interno del CGN,
vinculando a un puerto de cada router de las localidades por los que se va a conectar el
trafico de NAT del CMTS u ONT.
La finalidad de los L2VPN es brindar los servicios necesarios con la topología actual
mientras se van migrando servicios a la nueva topologia. Por ahora cursan varios servicios
pero la idea es que sólo se utilice para los servicios dedicados y eventualmente la Wan o
Iviza.
Para concentrar los servicios de L2VPN se utiliza el NCS540. Esto se hace para intentar
descargar en la mayor medida posible a los Cores 1 y 2, en cuanto a accesos y
configuraciones de cualquier tipo.
Con ese motivo se crearon los siguientes circuitos en el NCS Ciudad:
Estos circuitos vinculan una interfaz de cada localidad con el puerto del switch 6500 que
estaban utilizando antes de que se instalara el NCS en la localidad. Los beneficios de
utilizar estos circuitos L2VPN es que el trafico viaja desde el Core hacia el router de la
localidad por cualquier circuito de la red de MPLS, proveyendo redundancia ante la caída
enventual de algun enlace.
El circuito L2VPN se define desde un router origen hacia un router destino, utilizando la
interface loopback, permitiendo que el ruteo a nivel ospf se encargue de elegir el mejor
camino posible.
Maipu
Rodeo
San Martin
Lujan
Cisco 6800
NCS Ciudad- Te0/0/0/20 (l2vpn)
NCS Lujan– Te0/0/0/23 (l2vpn)
Switch Juniper QFX- Pendiente
Guaymallen
Cisco 6800
NCS Ciudad- Te0/0/0/19 (l2vpn)
NCS Guaymallen– Te0/0/0/23 (l2vpn)
Switch Juniper EX- Pendiente
Se decide la implementación de una estructura que sea lo más redundante posible con el
presupuesto obtenido, por ende, se decide utilizar 2 routers de Core potentes y con una
alta densidad de puertos.
Estos 2 routers de core están vinculados entre sí por 2 puertos de 100Gbps y cada uno de
estos routers va a estar vinculado a otros routers mas pequeños de la la misma linea (NCS)
a través de vínculos de 40Gbps; formando así una estrella.
Se utilizan vinculos /30 como se mencionó anteriormente, además se habilita LDP y MPLS
en todas las interfaces.
En el diseño final, cada Router de Core va a tener una conexión a TASA y una a Century
Link. Durante el proceso de migración se configura un servicio de TASA en el Core1.
En este vinculo se levanta el BGP y se anuncian las redes del nuevo Core solamente, con el
fin de forzar el trafico por el nuevo backbone. Para asegurarnos de esto, los prefijos
anunciados en el core nuevo, se deniegan en el core viejo. A medida que avance la
migración y crezca el trafico del nuevo core, se migrará un enlace de Century al Core2.
Hacia TASA se crea un Bundle-Ether1, con 2 puertos de TenG. En el BGP se publican los
prefijos y se inyectan directamente en la VRF INTERNET.
En el BGP se definen todos los prefijos pero solamente se advierten los prefijos que se ven
activos, ya sea recibidos por OSPF o mpBGP.
En cuanto a la publicación de los mismos, al ser un esquema Multihoming, se utiliza un
prependeo diferenciado entre el Core1 y el Core2.
En primera instancia, en el Core1, los nuevos prefijos (186.189.64.0/22 y 186.186.68.0/24)
se publican directamente mientras que a los antiguos se los agrega un prepend de 5;
mientras que en el Core2 se hace la inversa.
Las redes que se aprenden por OSPF -en azul-, corresponden a los CDN alojados en el viejo core (ver mas
abajo), mientras que las que se aprenden por BGP corresponden a los equipos del nuevo Core (CMTS, OLT).
En verde, se rutea de forma estatica el bloque /24 asignado para CGN en el MX104.
7.2. MPLS + OSPF
Para la configuración de las interfaces entre los routers, en el plano de gestion se utilizan
bloques /30.
Tal como se menciona anteriormente se utilizan:
- 10.0.0.x/30 para todos los enlaces hacia el Core1.
- 10.1.0.x /30 para todos los enlaces hacia el Core2.
- 10.10.10.x para las direcciones loopback de gestion.
Para este vinculo se crea un Port-Channel o Bundle-Ether con un puerto activo a 100Gbps,
teniendo en cuenta un crecimiento futuro.
interface Bundle-Ether10
description LAG--->CORE2
mtu 9192
ipv4 address 10.0.0.1 255.255.255.252
!
interface HundredGigE0/0/0/35
description LAG--->CORE2-1
bundle id 10 mode active
carrier-delay up 1 down 0
!
El feature carrier-delay es para cambiar los timers para declarar UP o DOWN una interface. En el caso de
down es exactamente para detectar la caida, y al ponerlo en 0 inmediatamente dicha interfaz se pone en
down, lo que hace que la reconvergencia sea mas rapida. En sentido up, es en cuanto tiempo tarda en poner
la interfaz operativa una vez que detecta que el link se encuentra arriba. Este punto es importante, mas que
nada en situaciones donde hay inestabilidad o flapeos, de esta manera podemos esperar N segundos antes
de declarar la interfaz UP
Se utilizan los /30 nombrados anteriormente. Se habilita LDP y MPLS en todos los
puertos.
0.0.0.0/0, rev 0
No local binding
Remote bindings: (1 peers)
Peer Label
----------------- ---------
10.10.10.5:0 ImpNull
10.0.0.0/30, rev 16
Local binding: label: ImpNull
Remote bindings: (7 peers)
Peer Label
----------------- ---------
10.10.10.2:0 ImpNull
10.10.10.3:0 64009
10.10.10.4:0 64012
10.10.10.5:0 64012
10.10.10.6:0 64013
10.10.10.8:0 64012
10.10.10.9:0 299776
10.0.0.4/30, rev 164
Local binding: label: ImpNull
Remote bindings: (7 peers)
Peer Label
----------------- ---------
10.10.10.2:0 64000
10.10.10.3:0 ImpNull
10.10.10.4:0 64013
10.10.10.5:0 64013
10.10.10.6:0 64014
10.10.10.8:0 64001
10.10.10.9:0 299776
10.0.0.8/30, rev 635
Local binding: label: ImpNull
Remote bindings: (7 peers)
Peer Label
----------------- ---------
10.10.10.2:0 64010
10.10.10.3:0 64010
10.10.10.4:0 64014
10.10.10.5:0 ImpNull
10.10.10.6:0 64025
10.10.10.8:0 64014
10.10.10.9:0 299776
10.0.0.12/30, rev 250
Local binding: label: ImpNull
Remote bindings: (7 peers)
Peer Label
----------------- ---------
10.10.10.2:0 64009
10.10.10.3:0 64011
10.10.10.4:0 64015
10.10.10.5:0 64023
10.10.10.6:0 ImpNull
10.10.10.8:0 64015
10.10.10.9:0 299776
10.0.0.20/30, rev 4
Local binding: label: ImpNull
Remote bindings: (7 peers)
Peer Label
----------------- ---------
10.10.10.2:0 64003
10.10.10.3:0 64008
10.10.10.4:0 64010
10.10.10.5:0 64009
10.10.10.6:0 64011
10.10.10.8:0 64010
10.10.10.9:0 299776
10.0.0.24/30, rev 10
Local binding: label: ImpNull
Remote bindings: (7 peers)
Peer Label
----------------- ---------
10.10.10.2:0 64016
10.10.10.3:0 64012
10.10.10.4:0 64016
10.10.10.5:0 64014
10.10.10.6:0 64015
10.10.10.8:0 ImpNull
10.10.10.9:0 299776
10.0.0.36/30, rev 190
Local binding: label: 64452
Remote bindings: (7 peers)
Peer Label
----------------- ---------
10.10.10.2:0 64022
10.10.10.3:0 ImpNull
10.10.10.4:0 64009
10.10.10.5:0 64011
10.10.10.6:0 64012
10.10.10.8:0 64023
10.10.10.9:0 300000
10.0.0.80/30, rev 181
Local binding: label: ImpNull
Remote bindings: (6 peers)
Peer Label
----------------- ---------
10.10.10.2:0 64005
10.10.10.3:0 64019
10.10.10.4:0 64022
10.10.10.5:0 64010
10.10.10.6:0 64010
10.10.10.8:0 64020
10.1.0.4/30, rev 131
Local binding: label: 64002
Remote bindings: (7 peers)
Peer Label
----------------- ---------
10.10.10.2:0 ImpNull
10.10.10.3:0 64013
10.10.10.4:0 ImpNull
10.10.10.5:0 64016
10.10.10.6:0 64017
10.10.10.8:0 64004
10.10.10.9:0 299984
10.1.0.8/30, rev 231
Local binding: label: 64009
Remote bindings: (7 peers)
Peer Label
----------------- ---------
10.10.10.2:0 ImpNull
10.10.10.3:0 64014
10.10.10.4:0 64017
10.10.10.5:0 ImpNull
10.10.10.6:0 64018
10.10.10.8:0 64018
10.10.10.9:0 300752
10.1.0.12/30, rev 238
Local binding: label: 64010
Remote bindings: (7 peers)
Peer Label
----------------- ---------
10.10.10.2:0 ImpNull
10.10.10.3:0 64015
10.10.10.4:0 64018
10.10.10.5:0 64022
10.10.10.6:0 ImpNull
10.10.10.8:0 64019
10.10.10.9:0 300768
10.1.0.20/30, rev 108
Local binding: label: 64557
Remote bindings: (7 peers)
Peer Label
----------------- ---------
10.10.10.2:0 ImpNull
10.10.10.3:0 64007
10.10.10.4:0 64011
10.10.10.5:0 64008
10.10.10.6:0 64009
10.10.10.8:0 64025
10.10.10.9:0 299936
10.1.0.24/30, rev 42
Local binding: label: 64011
Remote bindings: (7 peers)
Peer Label
----------------- ---------
10.10.10.2:0 ImpNull
10.10.10.3:0 64016
10.10.10.4:0 64019
10.10.10.5:0 64017
10.10.10.6:0 64019
10.10.10.8:0 ImpNull
10.10.10.9:0 299888
10.1.0.80/30, rev 144
Local binding: label: 64235
Remote bindings: (6 peers)
Peer Label
----------------- ---------
10.10.10.2:0 ImpNull
10.10.10.3:0 64018
10.10.10.4:0 64023
10.10.10.5:0 64018
10.10.10.6:0 64020
10.10.10.8:0 64017
10.10.10.1/32, rev 2
Local binding: label: ImpNull
Remote bindings: (7 peers)
Peer Label
----------------- ---------
10.10.10.2:0 64007
10.10.10.3:0 64000
10.10.10.4:0 64001
10.10.10.5:0 64000
10.10.10.6:0 64000
10.10.10.8:0 64002
10.10.10.9:0 299776
10.10.10.2/32, rev 32
Local binding: label: 64001
Remote bindings: (7 peers)
Peer Label
----------------- ---------
10.10.10.2:0 ImpNull
10.10.10.3:0 64001
10.10.10.4:0 64002
10.10.10.5:0 64001
10.10.10.6:0 64001
10.10.10.8:0 64003
10.10.10.9:0 299792
10.10.10.3/32, rev 92
Local binding: label: 64114
Remote bindings: (7 peers)
Peer Label
----------------- ---------
10.10.10.2:0 64013
10.10.10.3:0 ImpNull
10.10.10.4:0 64003
10.10.10.5:0 64002
10.10.10.6:0 64002
10.10.10.8:0 64009
10.10.10.9:0 299904
10.10.10.4/32, rev 119
Local binding: label: 64006
Remote bindings: (7 peers)
Peer Label
----------------- ---------
10.10.10.2:0 64002
10.10.10.3:0 64002
10.10.10.4:0 ImpNull
10.10.10.5:0 64003
10.10.10.6:0 64003
10.10.10.8:0 64005
10.10.10.9:0 299952
10.10.10.5/32, rev 233
Local binding: label: 64003
Remote bindings: (7 peers)
Peer Label
----------------- ---------
10.10.10.2:0 64015
10.10.10.3:0 64003
10.10.10.4:0 64004
10.10.10.5:0 ImpNull
10.10.10.6:0 64004
10.10.10.8:0 64006
10.10.10.9:0 300704
10.10.10.6/32, rev 242
Local binding: label: 64004
Remote bindings: (7 peers)
Peer Label
----------------- ---------
10.10.10.2:0 64017
10.10.10.3:0 64004
10.10.10.4:0 64005
10.10.10.5:0 64024
10.10.10.6:0 ImpNull
10.10.10.8:0 64007
10.10.10.9:0 300736
10.10.10.7/32, rev 106
Local binding: label: 64453
Remote bindings: (7 peers)
Peer Label
----------------- ---------
10.10.10.2:0 64018
10.10.10.3:0 64005
10.10.10.4:0 64006
10.10.10.5:0 64004
10.10.10.6:0 64005
10.10.10.8:0 64008
10.10.10.9:0 299920
10.10.10.8/32, rev 36
Local binding: label: 64005
Remote bindings: (7 peers)
Peer Label
----------------- ---------
10.10.10.2:0 64019
10.10.10.3:0 64006
10.10.10.4:0 64007
10.10.10.5:0 64005
10.10.10.6:0 64006
10.10.10.8:0 ImpNull
10.10.10.9:0 299840
10.10.10.9/32, rev 201
Local binding: label: 64445
Remote bindings: (7 peers)
Peer Label
----------------- ---------
10.10.10.2:0 64006
10.10.10.3:0 64020
10.10.10.4:0 64026
10.10.10.5:0 64006
10.10.10.6:0 64007
10.10.10.8:0 64021
10.10.10.9:0 ImpNull
10.10.10.33/32, rev 194
Local binding: label: 64415
Remote bindings: (7 peers)
Peer Label
----------------- ---------
10.10.10.2:0 64020
10.10.10.3:0 64023
10.10.10.4:0 64008
10.10.10.5:0 64007
10.10.10.6:0 64008
10.10.10.8:0 64022
10.10.10.9:0 300016
10.135.0.0/16, rev 195
Local binding: label: 64457
Remote bindings: (7 peers)
Peer Label
----------------- ---------
10.10.10.2:0 64023
10.10.10.3:0 64024
10.10.10.4:0 64020
10.10.10.5:0 64019
10.10.10.6:0 64021
10.10.10.8:0 64026
10.10.10.9:0 300032
172.16.2.0/24, rev 6
Local binding: label: 64000
Remote bindings: (6 peers)
Peer Label
----------------- ---------
10.10.10.2:0 64008
10.10.10.3:0 64017
10.10.10.4:0 64024
10.10.10.5:0 64021
10.10.10.6:0 64023
10.10.10.8:0 64024
172.16.4.0/24, rev 0
No local binding
Remote bindings: (1 peers)
Peer Label
----------------- ---------
10.10.10.3:0 ImpNull
172.16.135.0/24, rev 196
Local binding: label: 64459
Remote bindings: (7 peers)
Peer Label
----------------- ---------
10.10.10.2:0 64024
10.10.10.3:0 64025
10.10.10.4:0 64021
10.10.10.5:0 64020
10.10.10.6:0 64022
10.10.10.8:0 64027
10.10.10.9:0 300048
190.113.162.32/29, rev 0
No local binding
Remote bindings: (1 peers)
Peer Label
----------------- ---------
10.10.10.5:0 ImpNull
Con el fin de proveer distintos tipos de servicios, necesarios para la operación diaria de los
clientes de internet, se vincula al nuevo core con el viejo a traves de 2 puertos de TenG, uno
hacia cada Core.
Se crea un vinculo doble, uno en el plano de gestion y otro en el plano de internet,
encapsulandolo en la vlan 2.
Luego se configura OSPF para intercambiar rutas.
En el C6500/6800
interface TenGigabitEthernet5/4
description Core1.Te0/2/0/11
mtu 9192
ip address 10.0.0.22 255.255.255.252
carrier-delay 1
ipv6 enable
end
!
interface TenGigabitEthernet5/4.2
description Core1.Te0/2/0/11.2.vrf
encapsulation dot1Q 2
ip address 10.2.0.22 255.255.255.252
end
!
interface TenGigabitEthernet5/5
description Core2.Te0/2/0/11
mtu 9192
ip address 10.1.0.22 255.255.255.252
carrier-delay 1
ipv6 enable
!
interface TenGigabitEthernet5/5.2
description Core2.Te0/2/0/11.2.vrf
encapsulation dot1Q 2
ip address 10.2.1.22 255.255.255.252
end
Se utiliza OSPF para dar conectividad a toda la red de gestion, incluyendo las direcciones
loopbacks que permiten acceder a los dispositivos y levantar las sesiones de mpBGP del
nuevo backbone.
Se definen algunos parámetros en el OSPF explicados abajo (asociados a MPLS) y se
agregan las interfaces involucradas en el proceso OSPF 1.
router ospf 1
router-id 10.10.10.1
bfd minimum-interval 300
bfd multiplier 3
mpls ldp auto-config
fast-reroute per-prefix remote-lfa tunnel mpls-ldp
timers throttle lsa all 0 100 5000
timers throttle spf 1 100 5000
timers lsa min-arrival 50
redistribute connected
address-family ipv4 unicast
area 0
mpls traffic-eng
interface Bundle-Ether10
bfd fast-detect
network point-to-point
fast-reroute per-prefix
fast-reroute per-prefix remote-lfa tunnel mpls-ldp
!
interface Bundle-Ether11
!
interface Loopback0
!
interface TenGigE0/2/0/11
!
interface FortyGigE0/0/0/0
bfd fast-detect
network point-to-point
fast-reroute per-prefix
fast-reroute per-prefix remote-lfa tunnel mpls-ldp
!
interface FortyGigE0/0/0/1
bfd fast-detect
network point-to-point
fast-reroute per-prefix
fast-reroute per-prefix remote-lfa tunnel mpls-ldp
!
interface FortyGigE0/0/0/2
bfd fast-detect
network point-to-point
fast-reroute per-prefix
fast-reroute per-prefix remote-lfa tunnel mpls-ldp
!
interface FortyGigE0/0/0/3
bfd fast-detect
network point-to-point
fast-reroute per-prefix
fast-reroute per-prefix remote-lfa tunnel mpls-ldp
!
interface HundredGigE0/0/0/35
bfd fast-detect
network point-to-point
fast-reroute per-prefix
fast-reroute per-prefix remote-lfa tunnel mpls-ldp
!
!
En referencia al comando:
Sirve para setear los timers en la recepcion de avisos LSA del OSPF. Los LSA (link state
advertisement) contienen actualizaciones del estado de los enlaces, Cuando se recibe un
LSA (quizás por alguna reconvergencia o cambio en la topologia), el router reenvía el
mismo a sus vecinos. Modificando los timers podemos mejorar los tiempos de
reconvergencia, y además prevenir el flooding de LSA cuando tenemos alguna problema
en la red. En este caso, el primero valor en 0 es muy agresivo, lo cual en un principio se
podría poner en 10 (es lo utilizado en modo conservador). Este primer valor corresponde a
en cuanto tiempo reenvía el SLA una vez recibido. En 0 lo hace inmediatamente, poniendo
en 10, serian 10ms. Una vez que se cumple ese timer, el equipo hace un flood de dicha SLA
y comienza a correr el próximo timer "hold timer" (100), mientras corre dicho timer, si
sigue recibiendo SLA, este los descarta hasta no cumplir con el valor estipulado. Una vez
cumplido, realiza el flood del SLA y duplica el valor del hold timer (2x100), al finalizar dicho
timer vuelve a realizar el flood (si sigue recibiendo SLAs lo hace x4...y así sucesivamente
hasta llevar al valor máximo configurado (en este caso 5000).
Se recomienda configurar los mismos parámetros para el SLA y el SPF, como por ej:
timers throttle spf 10 100 5000
timers throttle lsa all 10 100 5000
Fast reroute-per-prefix
Este feature es para mejorar los tiempos de reconvergencia en escenarios de doble camino
u anillos. Básicamente esta funcionalidad nos permite ya tener señalizado, osea en la FIB,
un camino alternativo (en caso que exista). Al tener este feature configurado se pueden
lograr tiempos de 50ms, lo cual es imposible sin utilizar algún otro mecanismo de TE
(como RSVP). Lo que permite es hacer un pre-computo de una ruta alternativa al prefijo en
cuestión. Si ven en la tabla de ruteo, ejemplo en el Agg2, ven la loopback del Core1, la van a
ver por un camino primario y van a ver otra ruta en la tabla de ruteo como Protected. Al
caer el camino principal, no tiene que realizar ningún procesamiento o calculo de SPF.
Una forma fácil de verlo, es como funciona EIGRP con el feasible succesor (cosa que no se
tiene con OSPF).
Las opciones de per-prefix, básicamente es que calcula el camino alternativo por prefijo
independientemente. La opción mpls-ldp, básicamente quiere decir que señaliza el nuevo
camino alternativo mediante LDP, osea crea un LSP de "backup" o protección.
La opcion de BGP additonal-paths es una extension de BGP que permite los avisos de
multiples rutas para el mismo prefijo, sin que las nuevas rutas reemplacen a las anteriores.
Estas sesiones MP-BGP permiten intercambiar rutas entre las distintas VRFs que se
definan dentro del BGP, de forma que sobre el bloque /30 de gestion se pueden hacer el
intercambio de las rutas y VRFs que sean necesarios (todo sobre un /30).
Se establecen sesiones de BGP entre las loopbacks, que estan conectados a traves de los /
30 y por OSPF. Los Core 1 y 2 se definen como route reflectors.
En el Core 1 y 2:
neighbor 10.10.10.3
remote-as 28075
advertisement-interval 5
update-source Loopback0
address-family vpnv4 unicast
route-reflector-client
!
neighbor 10.10.10.4
remote-as 28075
advertisement-interval 5
update-source Loopback0
address-family vpnv4 unicast
route-reflector-client
!
!
neighbor 10.10.10.5
remote-as 28075
advertisement-interval 5
update-source Loopback0
address-family vpnv4 unicast
route-reflector-client
!
!
neighbor 10.10.10.6
remote-as 28075
advertisement-interval 5
update-source Loopback0
address-family vpnv4 unicast
route-reflector-client
!
!
neighbor 10.10.10.8
remote-as 28075
advertisement-interval 5
update-source Loopback0
address-family vpnv4 unicast
route-reflector-client
!
vrf INTERNET
………
address-family ipv4 unicast
redistribute static
redistribute ospf 1 metric 20
router static
….
vrf INTERNET
address-family ipv4 unicast
172.16.2.0/24 10.2.0.22
186.189.64.0/24 Null0
201.190.245.0/24 10.2.0.82
- OSPF: Se redistribuyen las redes aprendidas en el OSPF1 con el fin de que los bloques de
los CDNs alojados en el viejo Core estén accesibles al nuevo Core.
En las publicaciones recibidas aparecen las redes de los CDNs, estas redes se redistriyen a
los agregadores con el motivo de que los clientes en los CMTS puedan acceder a los CDNs
a traves de un circuito IP interno y sin necesidad de salir a Internet.
router ospf 1
…
vrf INTERNET
router-id 10.2.0.21
redistribute connected
redistribute bgp 28075 metric 20
address-family ipv4 unicast
area 0
interface TenGigE0/2/0/11.2
!
!
!
!
En los agregadores (Localidades), debemos configurar el BGP para transportar las rutas
que necesitamos dentro de cada VRFs que se utilice.
Se define un peer de BGP contra cada Core, y se definen opciones de redistribucion:
- Conectadas (redes loopback para pruebas)
- Estaticas (para pruebas con los CMTS y MPLS)
- OSPF: Se redistribuyen en el BGP las redes aprendidas por OSPF, desde el CBR de la
localidad.
Se debe tener en cuenta que las redes que se publiquen a los route reflectors, deben estar
configuradas debidamente en los Core1 y 2 si queremos que éstas a su vez se propaguen a
internet.
Por ejemplo, si publico un bloque /24 que a su vez no esta definido correctamente en el
Core, no habra publicación a internet por mas de que aparezca en la tabla de ruteo del
agregador.
Para que los CDNs estén disponibles en el nuevo Core MPLS hay que hacer una doble
comunicación:
- Publicar las redes de los nuevos CMTS con los CDNs.
- Publicar las redes de los CDNs en el nuevo Core.
Sobre este vínculo se configura un proceso OSPF nuevo, este OSPF se crea sobre una
subinterfaz encapsulada en la vlan2. Se ese /30 se publican puntualmente las redes de los
CDNs en el nuevo core MPLS. Y en Core viejo se publican las redes de los CMTS a los CDNs
sin publicarlos a internet.
router ospf 1
…..
vrf INTERNET
router-id 10.2.0.21
redistribute connected
redistribute bgp 28075 metric 20
address-family ipv4 unicast
area 0
interface TenGigE0/2/0/11.2
!
!
Se redistribuyen las redes conectadas y las aprendidas por BGP (desde los CMTs)
Para el caso de Facebook, se tuvo que implementar un pequeño cambio ya que el CDN de
Facebook trabaja con un P2P (/30) y un /26 ruteado a través del /30.
Por ende se tuvo que publicar el /26 de forma puntual, con una ACL y un route map
aplicado a las rutas estaticas ya definidas. De esta forma se evita la redistribución total de
rutas estaticas del viejo Core al nuevo.
Viejo Core
interface TenGigabitEthernet5/4
description Core1.Te0/2/0/11
mtu 9192
ip address 10.0.0.22 255.255.255.252
carrier-delay 1
ipv6 enable
end
Nuevo Core
interface TenGigE0/2/0/11
description Peering: C6500.Te5/4
mtu 9206
ipv4 address 10.0.0.21 255.255.255.252
carrier-delay up 1 down 0
!
En cuanto a la publicacion hacia el router de borde, se define un prefix donde se niegan las
redes advertidas en el nuevo Core MPLS. De forma de permitir la publicacion de las redes
a los CDNs pero no a internet.
La publicación de redes de los CMTS se hace a traves de una sesión OSPF desde el CMTS
hacia el Router de la localidad, cuya subinterfaz se encuentra en la VRF de Internet.
De esta forma logramos publicar las redes en la VRF en cuestion, y así se cursa el trafico en
una tabla de ruteo separada.
De esta forma el trafico ya ingresa a los circuitos VPN-V4 creados en el MP-BGP, saliendo
por los nuevos Cores a internet.
Una vez que el trafico ingresa al router NCS540 “aguas arriba”, ya ingresa a la nube MPLS
con VPNs-V4, y maneja distintas VRFs para cada servicio requerido.
En cuanto al ruteo, se establecen sesiones OSPF en el primer puerto, una sesion para el
plano de gestion y otra sesión para el plano de internet.
Se establece un proceso de OSPF para el plano de gestion. En esta sesion se publican las
redes de CM y CPE no Autorizado
cm2-mpu-cBR8Mpls#sh ip route
Codes: L - local, C - connected, S - static, R - RIP, M - mobile, B - BGP
D - EIGRP, EX - EIGRP external, O - OSPF, IA - OSPF inter area
N1 - OSPF NSSA external type 1, N2 - OSPF NSSA external type 2
E1 - OSPF external type 1, E2 - OSPF external type 2
i - IS-IS, su - IS-IS summary, L1 - IS-IS level-1, L2 - IS-IS level-2
ia - IS-IS inter area, * - candidate default, U - per-user static route
o - ODR, P - periodic downloaded static route, H - NHRP, l - LISP
a - application route
+ - replicated route, % - next hop override, p - overrides from PfR
Para internet se establece otra sesión de OSPF, en esta sesión el extremo del /30 en el
router superior esta en la VRF de Internet, y advierte las redes públicas que salen a internet
por el Core MPLS.-
interface TenGigE0/0/0/0
description CMTS
mtu 9192
ipv4 address 10.0.0.37 255.255.255.252
!
Como se comentaba anteriormente en el punto 6.1, se crea un L2Vpn del tipo punto-
multipunto.
Se define un punto central, en este caso en el Core1 donde se conecta uno de los puertos
del equipo de CGN, y se define un puerto en cada una de las localidades, en las que se
transportara el trafico desde el Core1, destinado al CGN.
Configuración en el Core1
RP/0/RP0/CPU0:rc1-mdz-ncs5500#sh runn int te 0/2/0/9
Wed Jan 15 17:00:06.616 UTC
interface TenGigE0/2/0/9
description L2Vpn.NAT
mtu 9192
load-interval 30
l2transport
!
!
l2vpn
pw-class test1
encapsulation mpls
transport-mode ethernet
!
!
bridge group BG-NAT
bridge-domain BDomain-NAT
interface TenGigE0/2/0/9
!
vfi multipunto-l2vpn
neighbor 10.10.10.2 pw-id 25
pw-class test1
!
neighbor 10.10.10.3 pw-id 25
pw-class test1
!
neighbor 10.10.10.4 pw-id 25
pw-class test1
!
!
!
!
!
Configuración en los agregadores (localidades)
interface TenGigE0/0/0/22
description L2Vpn.CGN
mtu 9192
load-interval 30
l2transport
!
!
bridge group BG-NAT
bridge-domain BDomain-NAT
interface TenGigE0/0/0/22
!
vfi multipunto-l2vpn
neighbor 10.10.10.1 pw-id 25
pw-class test1
!
!
!
!
!
A fin de garantizar la interoperatividad del nuevo Core MPLS y el Core viejo, se debe tener
en cuenta varias rutas y servicios entre la nueva estructura y la vieja, donde se encuentra la
red DMZ. En esta red se encuentran los servidores necesarios para el aprovisionamiento
de los distintos equipos, ademas debemos garantizar el acceso a la red WAN, la red de
Iviza y los servicios de NAT del viejo Core.
La red DMZ es la 172.16.2.0/24 y se puede acceder desde el Switch Cisco6800, por ende lo
que necesitamos es redistribuir esa red hacia el nuevo Core. Entonces, en el nuevo core se
crea una ruta estatica hacia el Core viejo (donde esta ruteada a su vez la DMZ) de forma
que siempre haya una redundancia para acceder a la red. Esta ruta estatica, a su vez, es
redistribuida desde el core hacia los agregadores.
Por otro lado, las redes a las que necesitamos acceder desde la DMZ (CPE no auth y CM,
por ej) también son distribuidas hacia el Core viejo, en este caso por OSPF.
Core 1
router static
address-family ipv4 unicast
172.16.2.0/24 10.0.0.22
!
address-family ipv6 unicast
::/0 2803:6600:0:10::1
!
vrf INTERNET
address-family ipv4 unicast
172.16.2.0/24 10.2.0.22
186.189.64.0/24 Null0
201.190.245.0/24 10.2.0.82
!
address-family ipv6 unicast
2803:6604::/32 Null0
!
!
!
RP/0/RP0/CPU0:rc1-mdz-ncs5500(config)#do sh ip route
Fri Jan 10 10:59:31.738 UTC
Core2
router ospf 3
router-id 10.10.10.7
network 10.0.0.20 0.0.0.3 area 0
network 10.1.0.20 0.0.0.3 area 0
network 10.10.10.7 0.0.0.0 area 0
router ospf 4
router-id 10.2.0.22
redistribute static subnets route-map RM.Fb.Mpls
network 10.2.0.20 0.0.0.3 area 0
network 10.2.1.20 0.0.0.3 area 0
network 168.90.8.0 0.0.0.255 area 0
network 201.190.174.0 0.0.0.255 area 0
Como se menciona en el punto 6, se utilizan L2Vpn del tipo xconnect para realizar la
migración hacia el nuevo Core MPLS.
Como paso previo a que los CMTS y OLTs se conecten directo al Core MPLS, se mantuvo el
mismo troncal de vlans en el switch de cada localidad. Este troncal de vlans es
transportado por un L2Vpn. Estas vlans incluyen las de la WAN y las del CGN conectado
en el Core viejo.
Todas las L2Vpn son concentradas en el NCS540 de Ciudad. En ese router ingresa el
troncal de vlans de cada localidad, y es transportado hasta el destino y entregado en un
puerto al que se conecta el switch que estaba anteriormente en la localidad.
Todo el trafico de estos troncales circulan en la red MPLS desde el origen hasta el destino.
Maipu
RP/0/RP0/CPU0:rc1-mpu-ncs540#sh int desc
Wed Jan 15 22:19:22.909 GMT-3
Te0/0/0/22 up up L2Vpn.CGN
Te0/0/0/23 up up L2Vpn.Maipu.To3850 (Trunk vlans hacia el switch)
TF0/0/0/24 admin-down admin-down
NCSCiudad
interface TenGigE0/0/0/19
description L2Vpn.Guaymallen
mtu 9192
l2transport
!
interface TenGigE0/0/0/20
description L2Vpn.Lujan
mtu 9192
l2transport
!
interface TenGigE0/0/0/21
description L2Vpn.SanMartin
mtu 9192
l2transport
!
interface TenGigE0/0/0/22
description L2Vpn.Rodeo
mtu 9192
l2transport
!
interface TenGigE0/0/0/23
description L2Vpn.Maipu
mtu 9192
load-interval 30
l2transport
!
!
l2vpn
pw-class test1 (Se define un pseudowire class con encapsulacion mpls de la trama ethernet)
encapsulation mpls
transport-mode ethernet
!
!
xconnect group test (Se crea el grupo de xconnect)
p2p Lujan (Se crea un punto a punto)
interface TenGigE0/0/0/20 (puerto origen)
neighbor ipv4 10.10.10.5 pw-id 20 (Se define el neighbor y el circuito que debe ser el mismo)
pw-class test1 (se aplica el pseudowire creado arriba)
!
!
p2p Maipu
interface TenGigE0/0/0/23
neighbor ipv4 10.10.10.3 pw-id 23
pw-class test1
!
!
p2p Rodeo
interface TenGigE0/0/0/22
neighbor ipv4 10.10.10.4 pw-id 22
pw-class test1
!
!
p2p NAT-WAN
interface GigabitEthernet0/0/0/2
neighbor ipv4 10.10.10.4 pw-id 1
pw-class test1
!
!
p2p SanMartin
interface TenGigE0/0/0/21
neighbor ipv4 10.10.10.4 pw-id 21
pw-class test1
!
!
p2p Guaymallen
interface TenGigE0/0/0/19
neighbor ipv4 10.10.10.6 pw-id 19
pw-class test1
!
!
!
!
NCS Maipu
interface TenGigE0/0/0/23
description L2Vpn.Maipu.To3850
mtu 9192
load-interval 30
l2transport
!
l2vpn
pw-class test1 (Se crea mismo pseudowire class)
encapsulation mpls
transport-mode ethernet
!
!
xconnect group test
p2p Maipu
interface TenGigE0/0/0/23 (Se agrega el puerto)
neighbor ipv4 10.10.10.8 pw-id 23 (Se define el neighbor manteniendo el pw-id y el pw-class)
pw-class test1
!
!
!
Por lo que la configuración en el nuevo Core Mpls va a ser similar al manejo de las redes
privadas de los CMTS (CM y CPE No Auth), es decir se publican las redes de los CMTS por
OSPF y en los Routers de Core1 y 2 se crean rutas estaticas que son redistribuidas a las
localidades indicando que los 2 dos bloques /30 de las Vlans 138 y 140 se alcanzan a traves
de los /30 del Cisco 6800.
Por un tema de seguridad, se puede aplicar un route-map a la redistribución de estáticas para limitar la
misma.
Se verifica en las tablas de ruteo del Router aguas arriba del CMTS, deben aparecer las
redes aprendidas del CMTS y las rutas estaticas redistribuidas desde el Core1 y 2. Las rutas
segurizadas a traves de OSPF por caminos multiples aparecer con (!).
RP/0/RP0/CPU0:rc1-mpu-ncs540#sh route
Fri Jan 17 18:23:27.930 GMT-3
…
O 10.135.0.0/16 [110/4] via 10.0.0.38, 3d09h, TenGigE0/0/0/0
O E2 30.30.30.0/30 [110/2] via 10.0.0.34, 20:20:40, FortyGigE0/0/1/1 (!) (aprendidas desde el Core2)
[110/20] via 10.0.0.5, 20:20:40, FortyGigE0/0/1/0 (aprendidas desde el Core1)
O E2 30.30.30.8/30 [110/2] via 10.0.0.34, 20:20:40, FortyGigE0/0/1/1 (!)
[110/20] via 10.0.0.5, 20:20:40, FortyGigE0/0/1/0
L 127.0.0.0/8 [0/0] via 0.0.0.0, 3d09h
O E2 172.16.2.0/24 [110/20] via 10.0.0.34, 20:15:51, FortyGigE0/0/1/1
[110/2] via 10.0.0.5, 20:15:51, FortyGigE0/0/1/0 (!)
C 172.16.4.0/24 is directly connected, 3d09h, MgmtEth0/RP0/CPU0/0
L 172.16.4.3/32 is directly connected, 3d09h, MgmtEth0/RP0/CPU0/0
O 172.16.55.0/24 [110/4] via 10.0.0.38, 20:28:32, TenGigE0/0/0/0 (aprendida desde el CMTS)
O 172.16.135.0/24 [110/4] via 10.0.0.38, 3d09h, TenGigE0/0/0/0
RP/0/RP0/CPU0:rc1-mdz-ncs5500#sh ip route
Fri Jan 17 12:29:14.475 UTC
...
O 10.135.0.0/16 [110/5] via 10.0.0.6, 3d09h, FortyGigE0/0/0/0
[110/2] via 10.0.0.2, 3d09h, Bundle-Ether10 (!)
S 30.30.30.0/30 [1/0] via 10.0.0.22, 20:27:11
S 30.30.30.8/30 [1/0] via 10.0.0.22, 20:27:11
L 127.0.0.0/8 [0/0] via 0.0.0.0, 13w2d
S 172.16.2.0/24 [1/0] via 10.0.0.22, 6d23h
O 172.16.55.0/24 [110/5] via 10.0.0.6, 20:31:06, FortyGigE0/0/0/0 (aprendida desde el agregador)
[110/2] via 10.0.0.2, 20:31:06, Bundle-Ether10 (!) (aprendida por el anillo)
O 172.16.135.0/24 [110/5] via 10.0.0.6, 3d09h, FortyGigE0/0/0/0
[110/2] via 10.0.0.2, 3d09h, Bundle-Ether10 (!)
En el cisco 6800 tambien deben aparecer las rutas (aprendidas por el OSPF ya
configurado)
sc1-mdz-c6509#sh ip route
Codes: L - local, C - connected, S - static, R - RIP, M - mobile, B - BGP
D - EIGRP, EX - EIGRP external, O - OSPF, IA - OSPF inter area
N1 - OSPF NSSA external type 1, N2 - OSPF NSSA external type 2
E1 - OSPF external type 1, E2 - OSPF external type 2
i - IS-IS, su - IS-IS summary, L1 - IS-IS level-1, L2 - IS-IS level-2
ia - IS-IS inter area, * - candidate default, U - per-user static route
o - ODR, P - periodic downloaded static route, H - NHRP, l - LISP
a - application route
+ - replicated route, % - next hop override
Finalmente se verifica conectividad desde el CMTS hasta la red del Core Viejo.
8.1. Paso a paso para sacar un prefijo de un CMTS del Core viejo (a) y agregarlo un nuevo
prefijo en un CMTS en el Core MPLS (b) -hasta que termine la migracion-
8. Verificar que la red aparezca en la tabla de ruteo del C6800 (para que llegue a los CDNs)
sc1-mdz-c6509#sh ip route 201.190.188.0
Routing entry for 201.190.188.0/30, 1 known subnets
O E2 201.190.188.0
[110/20] via 10.2.1.21, 00:01:45, TenGigabitEthernet5/5.2
[110/20] via 10.2.0.21, 00:01:45, TenGigabitEthernet5/4.2
9. Configuración de Equipos
9.8. MX104-CGN
noc@rn2-mdz-jmx104-CGN# show | display set
set version 15.1R7.9
set system host-name rn2-mdz-jmx104-CGN
set system time-zone America/Argentina/Buenos_Aires
set system authentication-order radius
set system authentication-order password
set system root-authentication encrypted-password "$5$yXDhiJBU$wxUOi90ThgFIFaGCS2nvKYDry3YWIjAWdrW2aJ/QPc0"
set system radius-server 172.16.2.3 secret "$9$RWwcSeLxNdVYXx.PTQn69ApuIEcyl8xN/Cu1IRSyWLx7-
waZUji.4aDk.mF3ylKvWxgoGjqfHqfzn/OBRhSevL7-waJDM8"
set system login user noc uid 2000
set system login user noc class super-user
set system login user noc authentication encrypted-password "$1$xJBxd2oI$CelnzZdXxTHPckYVMAbbw0"
set system login user super-users uid 2001
set system login user super-users class super-user
set system services ssh protocol-version v2
set system syslog user * any emergency
set system syslog host 172.16.2.6 any error
set system syslog file messages any notice
set system syslog file messages authorization info
set system syslog file messages match "!(.*msvcs_nat_mapping_create.*)"
set system syslog file interactive-commands interactive-commands any
set system syslog source-address 172.16.2.247
set system ntp boot-server 172.16.2.26
set system ntp server 172.16.2.26
set system ntp source-address 172.16.2.247
set chassis aggregated-devices ethernet device-count 2
set chassis fpc 1 pic 0 adaptive-services service-package extension-provider package jservices-nat
set services service-set sset0 nat-rules r0
set services service-set sset0 next-hop-service inside-service-interface ms-1/0/0.10
set services service-set sset0 next-hop-service outside-service-interface ms-1/0/0.20
set services nat pool pool1 address 201.190.245.0/24
set services nat pool pool1 port automatic
set services nat rule r0 match-direction input
set services nat rule r0 term t1 from source-address 100.69.0.0/18
set services nat rule r0 term t1 then translated source-pool pool1
set services nat rule r0 term t1 then translated translation-type napt-44
set services nat rule r0 term t1 then translated mapping-type endpoint-independent
set services nat rule r0 term t1 then translated address-pooling paired
set interfaces xe-0/0/0 description L2Vpn.Maipu
set interfaces xe-0/0/0 flexible-vlan-tagging
set interfaces xe-0/0/0 mtu 9192
set interfaces xe-0/0/0 unit 399 description L2Vpn.Nat.Maipu
set interfaces xe-0/0/0 unit 399 vlan-id 399
set interfaces xe-0/0/0 unit 399 family inet address 169.254.105.1/25
set interfaces ms-1/0/0 unit 10 description "NAT INSIDE"
set interfaces ms-1/0/0 unit 10 family inet
set interfaces ms-1/0/0 unit 10 service-domain inside
set interfaces ms-1/0/0 unit 20 description "NAT OUTSIDE"
set interfaces ms-1/0/0 unit 20 family inet
set interfaces ms-1/0/0 unit 20 service-domain outside
set interfaces xe-2/0/0 description LAG-CGN-Core1
set interfaces xe-2/0/0 gigether-options 802.3ad ae0
set interfaces xe-2/0/1 description LAG-CGN-Core2
set interfaces xe-2/0/1 gigether-options 802.3ad ae1
set interfaces xe-2/0/2 description LAG-SW-2
set interfaces xe-2/0/2 gigether-options 802.3ad ae0
set interfaces ae0 description Trunk-SW
set interfaces ae0 flexible-vlan-tagging
set interfaces ae0 native-vlan-id 1
set interfaces ae0 mtu 9192
set interfaces ae0 aggregated-ether-options lacp active
set interfaces ae0 unit 0 description CGN-Gestion
set interfaces ae0 unit 0 vlan-id 1
set interfaces ae0 unit 0 family inet address 10.0.0.82/30
set interfaces ae0 unit 0 family mpls
set interfaces ae0 unit 2 description CGN-Externo-Core1
set interfaces ae0 unit 2 vlan-id 2
set interfaces ae0 unit 2 family inet address 10.2.0.82/30
set interfaces ae0 unit 2 family mpls
set interfaces ae0 unit 3 description CGN-Interno-Core1
set interfaces ae0 unit 3 vlan-id 3
set interfaces ae0 unit 3 family inet address 10.3.0.82/30
set interfaces ae0 unit 3 family mpls
set interfaces ae0 unit 6 description Gestion-Trunk
set interfaces ae0 unit 6 vlan-id 6
set interfaces ae0 unit 6 family inet address 192.168.10.1/24
set interfaces ae1 description CGN-Core2
set interfaces ae1 flexible-vlan-tagging
set interfaces ae1 native-vlan-id 1
set interfaces ae1 mtu 9192
set interfaces ae1 aggregated-ether-options lacp active
set interfaces ae1 unit 0 description CGN-Gestion
set interfaces ae1 unit 0 vlan-id 1
set interfaces ae1 unit 0 family inet address 10.1.0.82/30
set interfaces ae1 unit 2 description CGN-Externo-Core2
set interfaces ae1 unit 2 vlan-id 2
set interfaces ae1 unit 2 family inet address 10.2.1.82/30
set interfaces ae1 unit 3 description CGN-Interno-Core2
set interfaces ae1 unit 3 vlan-id 3
set interfaces ae1 unit 3 family inet address 10.3.1.82/30
set interfaces fxp0 unit 0 description GESTION-LOCAL
set interfaces fxp0 unit 0 family inet address 172.16.2.247/24
set interfaces lo0 unit 0 family inet filter input local_acl
set interfaces lo0 unit 0 family inet address 10.10.10.9/32
set snmp location "Supercanal, General Paz, Mendoza, Mendoza"
set snmp contact NOC
set snmp community super64 authorization read-only
set snmp community super64 clients 172.16.2.0/24
set routing-options static route 0.0.0.0/0 next-hop 10.2.0.81
set routing-options router-id 10.10.10.9
set protocols mpls interface ae0.0
set protocols ospf area 0.0.0.0 interface ae0.0
set protocols ospf area 0.0.0.0 interface ae1.0
set protocols ospf area 0.0.0.0 interface lo0.0
set protocols ldp interface ae0.0
set protocols ldp interface ae0.2
set policy-options prefix-list pf-pasa-todo 0.0.0.0/0
set policy-options policy-statement pasa-todo term 1 then accept
set policy-options policy-statement reject-policy term term1 then reject
set firewall family inet filter local_acl term terminal_access from source-address 190.113.131.122/32
set firewall family inet filter local_acl term terminal_access from source-address 190.113.128.12/32
set firewall family inet filter local_acl term terminal_access from source-address 190.113.128.3/32
set firewall family inet filter local_acl term terminal_access from source-address 190.113.128.1/32
set firewall family inet filter local_acl term terminal_access from source-address 190.113.128.0/25
set firewall family inet filter local_acl term terminal_access from source-address 172.16.2.0/24
set firewall family inet filter local_acl term terminal_access then accept
set firewall family inet filter local_acl term terminal_access_denied from protocol tcp
set firewall family inet filter local_acl term terminal_access_denied from port ssh
set firewall family inet filter local_acl term terminal_access_denied from port telnet
set firewall family inet filter local_acl term terminal_access_denied then reject
set firewall family inet filter local_acl term default-term then accept
set routing-instances VRF-NAT instance-type vrf
set routing-instances VRF-NAT interface xe-0/0/0.399
set routing-instances VRF-NAT interface ms-1/0/0.10
set routing-instances VRF-NAT route-distinguisher 100:100
set routing-instances VRF-NAT vrf-import reject-policy
set routing-instances VRF-NAT vrf-export reject-policy
set routing-instances VRF-NAT routing-options static route 0.0.0.0/0 next-hop ms-1/0/0.10
set routing-instances VRF-NAT routing-options static route 100.69.0.0/18 next-hop 169.254.105.4