Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Teleinformatica
Teleinformatica
VALLEDUPAR
Julio de 2012
INTRODUCCIN
El curso Redes y Sistemas Avanzados de Telecomunicaciones 2, es de tipo metodolgico,
electivo del programa ingeniera de Telecomunicaciones, su metodologa es educacin a
distancia y corresponde a dos (3) crditos acadmicos.
Las redes tanto de conmutacin como de transporte y acceso, evolucionan en el tiempo
para aportar mayor capacidad y conectividad, a la vez que ofrecen una mayor fiabilidad
y seguridad. As, la banda ancha es necesaria para soportar los servicios avanzados
multimedia que incorpora voz, datos e imgenes y que requiere grandes velocidades de
transmisin para que sus cualidades no se vean alteradas y la informacin llegue sin
demora a su destino.
Con el objetivo de facilitar el estudio del curso, el material se estructura en tres unidades.
En la primera unidad se describe las Redes de alta velocidad. En la segunda el control
de congestin y calidad de servicio en las redes de alta velocidad y la tercera unidad se
dedica a las Redes de Transporte ptico y las redes de acceso.
INDICE DE CONTENIDO
UNIDAD 1 REDES DE ALTA VELOCIDAD
CAPITULO 1RED INTERNET
LECCION 1 Descripcin de internet
LECCION 2 Redes de acceso
LECCION 3 ISP y troncales internet
LECCION 4 Retardo
LECCION 5 Internet en Colombia
CAPITULO 2. INTERCONEXIN DE REDES
LECCION 1 Arquitectura
LECCION 2 Opciones para el transporte de IP
LECCION 3 Router
LECCION 4 Encaminamiento IP
LECCION 5 GIGA Ethernet
CAPITULO 3 REDES ATM
LECCION 1 Frame Relay
LECCION 2 Estructura de las celdas y las redes ATM
LECCION 3 Arquitectura y modelos de capas ATM
LECCION 4 Conexin y encaminamiento ATM
LECCION 5 Capas de adaptacin ATM
UNIDAD 2 CONGESTION Y CALIDAD DE SERVICIO EN REDES DE ALTA VELOCIDAD
CAPITULO 1CONTROL DE CONGESTIN
LECCION 1 Trafico de datos
LECCION 5 Congestin y prestaciones de red
LECCION 2 Control de congestin
LECCION 3 Control de la congestin TCP
LECCION 4 Control de la congestin en FRAME RELAY
CAPITULO 2 CALIDAD DE SERVICIO
LECCION 1TEcnicas para mejorar la calidad de servicio
LECCION 2 Servicios integrados
LECCION 3 Servicios diferenciados
LECCION 4 QoS en FRAME RELAY
LECCION 5. QoS en ATM
CAPITULO 3 SOPORTE PARA CALIDAD DE SERVICIO (QoS)
LECCION 1 IPv6
LECCION 2 RSVP
LECCION 3 MPLS
LECCION 4 RTP
LECCION 5 MULTIDIFUSION
UNIDAD 3 REDES DE TRANSPORTE OPTICO Y ACCESO
CAPITULO 1. REDES SDH
LECCION 1 PDH
LECCION 2 Modelos de capas SDH
LECCION 3 Multiplexacin SDH
LECCION 4 Elementos de red SDH
LECCION 5 Capa fsica SDH
CAPITULO 2 REDES DWDM
LECCION 1 Principios de operacin
LECCION 2 Amplificadores
LECCION 3 Topologas
LECCION 4 Multiplexores pticos
LECCION 5 Conexiones cruzadas
CAPITULO 3 REDES DE ACCESO
LECCION 1 xDSL
LECCION 2 HFC
LECCION 3 FTTX
LECCION 4 GPON
LECCION 5 FTTH - WDM
Nombre de la Unidad
Introduccin
Justificacin
Intencionalidades
Formativas
UNIDAD 1
REDES DE ALTA VELOCIDAD
En esta unidad iniciamos con la descripcin de la red Internet
como tema integrador del curso, arquitectura de las redes
IP/Ethernet y por ltimo las redes Frame Relay y ATM,
constituidos por nodos internos interconectados entre s por
enlaces de muy alta capacidad. Estos nodos realizan varias
funciones, entre las que cabe destacar el encaminamiento de
flujos de paquetes de alta velocidad o el aprovisionamiento de
circuitos o caminos pticos de gran capacidad.
La necesidad de redes de ms y ms capacidad viene
provocado por un incremento del nmero de sistemas y
aplicaciones de banda ancha accesibles al usuario como
consecuencia de la facilidad de acceso a internet de altas
prestaciones y a la constante aparicin de nuevas aplicaciones
multimedia sustentada por el protocolo de Internet IP.
PROPSITOS
OBJETIVOS
COMPETENCIAS
METAS
Al finalizar el curso:
Denominacin de
captulos
est de acuerdo en que hacen todos y cada uno de ellos, siendo aqu donde entran en
juego los estndares. Los estndares son desarrollados por el Internet Engineering Task
Force (IETF). Los documentos estndares de IETF se llaman RFC (solicitudes de
comentarios). Las solicitudes RFC comenzaron como solicitudes de comentarios
generales (de ah su nombre) para resolver los problemas de arquitectura a los que se
enfrentaba el precursor de Internet. Las solicitudes RFC, aunque no son estndares
formalmente, han evolucionado hasta el punto de que son citadas como tales. Las RFC
tienden a ser completamente tcnicas y detalladas Definen protocolos como TCP, IP,
HTTP (para la Web) y SMTP (para estndares abiertos de correo electrnico). Hay ms de
3.000 solicitudes RFC diferentes.
Leccin 2: Redes de acceso
El acceso a la red se puede clasificar aproximadamente en tres categoras:
Acceso residencial: conecta sistemas Terminales del hogar a la red.
Acceso de empresa: conecta sistemas Terminales de una empresa u
organizacin educativa a la red.
Estas categoras no son cerradas: por ejemplo, algunos sistemas Terminales de
empresa pueden utilizar tecnologa de acceso del tipo acceso residencial, y viceversa. Las
descripciones siguientes estn pensadas para mantener los casos comunes.
Acceso residencial.
El acceso residencial se refiere a la conexin de un sistema Terminal de hogar
(normalmente un PC, pero quiz una televisin Web o algn aparato Internet) a un
router de borde. Una forma predominante de acceso residencial es el modem telefnico
sobre una lnea telefnica analgica en un proveedor de servicios de Internet ISP. El
modem domstico convierte la salida digital del PC en un formato analgico de
transmisin sobre la lnea telefnica analgica. Esta lnea telefnica est formada por
pares de cables de cobre trenzados, y es la misma lnea que se utiliza para las llamadas
telefnicas ordinarias. En el otro extremo de la lnea telefnica, un modem en el ISP
convierte otra vez La seal analgica en digital para la entrada en el router del ISP. Por
tanto, el acceso a red es simplemente un par de modems a lo largo de una lnea
telefnica punto a punto.
Conceptualmente semejante a los modems telefnicos, DSL es una nueva tecnologa
de modem que corre tambin sobre lneas de telfono de par trenzado. Pero,
restringiendo la distancia entre el usuario y el modem del ISP, DSL puede transmitir y
recibir datos a tasas mucho ms elevadas. Las tasas de datos son normalmente
asimtricas en las dos direcciones, con una tasa ms elevada desde el router ISP al hogar
que desde el hogar hasta el router ISP.
DSL utiliza multiplexado por divisin de frecuencia, como se ha descrito en la seccin
previa. En particular. DSL divide los enlaces de comunicacin entre el hogar y el ISP en
tres bandas de frecuencia sin solapamiento:
proveedores de nivel 1 son tambin proveedores de nivel 2 (es decir, estn integrados
verticalmente), vendiendo el acceso a Internet directamente a los usuarios y proveedores
de contenidos, as como a los ISP de nivel inferior. Cuando dos ISP estn conectados
directamente entre s, se dice que son colegas (peer) entre ellos.
Dentro de la red de un ISP, los puntos en los que el ISP se conecta a otros ISP (sea de
nivel inferior, superior o del mismo nivel dentro de la jerarqua) se conocen como puntos
de presencia (POP, Point of Presence). Un POP es simplemente un grupo de uno o ms
routers de la red del ISP en los que los routers de otros ISP o de las redes que pertenecen
a los clientes del ISP pueden conectarse. Un proveedor de nivel 1normalmente tiene
muchos POP dispersos sobre las diferentes localizaciones geogrficas dentro de la red,
con mltiples redes y otros ISP conectados a cada POP. Normalmente cuando una red
cliente tiene que conectarse al POP de un proveedor, alquila un enlace de alta velocidad
de un proveedor de telecomunicaciones de una tercera empresa y conecta
directamente uno de sus routers a un router ubicado en el POP del proveedor. Adems,
dos ISP pueden disponer de varios puntos de conexin entre iguales, conectndose
entre s en mltiples pares de POP.
Adems, para conectar cada uno de los dems a los puntos privados entre colegas, los
ISP se interconectan, a menudo a los puntos de acceso a red (Network Access Points.
NAP), cada uno de los cuales puede pertenecer y ser dirigido por alguna de las
empresas de telecomunicaciones o por un proveedor de troncal de Internet. Los NAP
intercambian grandes cantidades de trfico sobre muchos ISP. Sin embargo, cada vez
ms, los ISP de nivel 1 estn prescindiendo de los NAP y se estn interconectando
directamente a puntos colegas privados. La tendencia es a interconectarse entre s
directamente para los ISP de nivel 1, y para los ISP de nivel 2 conectarse con otros del
mismo nivel y con ISP de nivel 1 en los NAP. Como los NAP organizan y conmutan
enormes volmenes de trfico, son en s mismos complejas redes de conmutacin de
alta velocidad, concentradas frecuentemente en un nico edificio. A menudo, un NAP
utiliza tecnologa de conmutacin de alta velocidad ATM en el ncleo del NAP,
montando IP en el extremo superior de ATM.
Resumiendo, la topologa de Internet es compleja, estando formado por docenas de
ISP de nivel 1 y de nivel 2 y miles de ISP de nivel inferior. Los ISP son diversos en cuanto a
su cobertura, abarcando algunos mltiples continentes y ocanos, y estando otros
limitados a pequeas regiones del mundo. Los ISP de nivel inferior se conectan a ISP de
niveles superiores, y stos se conectan (normalmente) a puntos colegas privados y NAP.
Los usuarios y los proveedores de contenidos son usuarios de los ISP de nivel inferior, y
stos son usuarios de ISP de nivel superior.
Leccin 4: Retardo
Vamos a considerar ahora qu es lo que le puede suceder a un paquete cuando va
desde su origen hasta su destino. Recuerde que un paquete comienza en un host (el
origen), pasa a travs de una serie de routers, y finaliza su viaje en otro host (destino).
Mientras un paquete va desde un nodo (host o router) hasta el nodo subsiguiente (host
A
B
Procesamiento
Transmisin
Nodal
Encolado (esperando Propagacin
Por la Transmisin)
Retardo de procesamiento
El tiempo requerido para examinar la cabecera del paquete y determinar hacia donde
debe dirigirse es parte del retardo de procesamiento. El retardo de procesamiento puede
incluir tambin otros factores, como el tiempo necesario para comprobar los errores a
nivel de BIT que han ocurrido durante la transmisin de los bits del paquete desde el
nodo anterior al router A. Los retardos de procesamiento en los routers de elevada
velocidad estn tpicamente en el orden de los microsegundos o menos. Despus del
procesamiento nodal, el router dirige el paquete a la cola que precede al enlace hacia el
router B.
Retardo de cola
En la cola, el paquete experimenta un retardo de cola mientras espera para ser
transmitido en el enlace. El retardo de cola de un paquete especfico depender del
nmero de paquetes que hayan llegado anteriormente y que estn encolados y
esperando para la transmisin sobre el enlace. El retardo de un paquete dado puede
variar significativamente de un paquete a otro. Si la cola est vaca y ningn otro
paquete se est transmitiendo actualmente, entonces el retardo de cola de nuestro
paquete es cero. Por otro lado, si el trfico es pesado y otros muchos paquetes estn
esperando para ser transmitidos, el retardo de cola ser largo.
Retardo de transmisin
Suponiendo que los paquetes se transmiten de la forma primero en llegar primero en
ser servido, como es normal en las redes de conmutacin de paquetes, nuestro paquete
slo puede ser transmitido despus de que todos los paquetes que han llegado antes
hayan sido transmitidos. Indicamos la longitud del paquete por L bits, y a la tasa de
transmisin del enlace desde el router A al router B por R bits/seg. La tasa R se determina
por la tasa de transmisin del enlace al router B. Por ejemplo, para un enlace Ethernet de
10 Mbps, la tasa es R =10 Mbps; para un enlace Ethernet de 100 Mbps. la tasa es R = 100
Mbps. El retardo de transmisin (tambin llamado retardo de almacenar y reenviar,) es
L/R..
Retardo de propagacin
Una vez que un BIT es empujado al enlace, necesita propagarse al router B. EI tiempo
necesario para propagarse desde el comienzo del enlace hasta el router B es el retardo
de propagacin. El BIT se propaga a la velocidad de propagacin del enlace. La
velocidad de propagacin depende del medio del enlace (es decir, fibra ptica, cable de
cobre de par trenzado, etc.) y est en el rango de: 2*10s metros/seg a 3*10s metros/seg
que es igual o un poco menos que la velocidad de la luz. El retardo de propagacin es
La distancia entre dos routers dividida por la velocidad de propagacin. Es decir, el
retardo de propagacin es d/s, donde d es la distancia entre el router A y el router B, y s
es la velocidad de propagacin del enlace.
BIT para propagarse desde un router hasta el siguiente; es una funcin de la distancia
entre los dos routers, pero no tiene nada que ver con la longitud del paquete o la tasa
de transmisin del enlace
Retardo de cola y prdida de paquetes
El componente ms complicado e interesante del retardo nodal es el retado de cola
Prdida de paquetes
Una cola que precede a un enlace tiene una capacidad limitada, aunque la capacidad
de la cola depende fundamentalmente del diseo y coste del switch. Como la capacidad
de la cola es finita, los retardos de paquetes no se aproximan realmente a infinito cuando
la intensidad de trfico se aproxima a 1. En lugar de esto, un paquete puede encontrar
una cola llena cuando llega. Si no hay lugar para almacenar el paquete, un router lo
abandonar, es decir, el paquete se perder. Desde un punto de vista de sistema
Terminal, esto parecer como un paquete introducido en el ncleo de la red que no ha
emergido nunca de la misma en su destino.
La fraccin de los paquetes perdidos aumenta a medida que aumenta la intensidad
de trfico. Por tanto, las prestaciones de un nodo se miden con frecuencia no slo en
funcin del retardo, sino tambin de la probabilidad de prdida de paquetes. Un
paquete perdido puede ser retransmitido en un contexto Terminal-a-Terminal, bien por
la aplicacin, bien por el protocolo de la capa de transporte.
Retardo Terminal-a-Terminal
Hasta este momento, nuestra discusin se ha enfocado en el retardo de nodo, es
decir, el retardo en un nico router. Vamos a finalizar nuestra discusin considerando
brevemente el retardo desde la fuente hasta el destino. Para conseguir una base sobre
este concepto, supongamos que hay N-1 routers entre la mquina origen y la mquina
destino. Supongamos tambin que la red no est congestionada (es decir, que los
retardos de cola son despreciables), que el retardo de proceso en cada router y en la
mquina origen es dproc que la velocidad de transmisin hacia fuera de cada router y de
la mquina origen es de R bits/seg, y que la velocidad de propagacin de cada enlace es
dprop, Los retardos de nodo se acumulan, y dan un retardo Terminal a Terminal de:
dend-end= N (dproc + dtrans + dprop) donde, una vez ms dtrans=L/R, donde L es el tamao
del paquete.
Retardo y rutas en Internet
Para tener un primer conocimiento sobre el retardo en una red de computadores,
podemos utilizar el programa de diagnstico Traceroute, Traceroute es un programa
sencillo que puede correr en cualquier mquina Internet. Cuando el usuario especifica
un nombre de mquina destino, el programa en la mquina origen enva mltiples
paquetes especiales hacia el destino. A medida que esos paquetes siguen su camino
hacia el destino, pasan a travs de una serie de routers. Cuando un router recibe uno de
estos paquetes especiales, enva un mensaje corto al origen. Este mensaje contiene el
nombre y la direccin del router.
De forma ms concreta, supongamos que hay N-1 routers entre el origen y el destino.
Entonces, el origen enviar N paquetes especiales a la red, cada uno diseccionado al
destino final. Hay N paquetes especiales, marcados de 1 a N con el primero marcado
con 1 y el ltimo con N y. Cuando el router n-simo recibe el n-simo paquete, sealado
como n, el router destruye el paquete y enva un mensaje hacia el origen. Y cuando la
mquina de destino recibe el N-simo paquete, el destino lo destruye tambin y
devuelve, de nuevo, un mensaje de vuelta al origen.
El origen registra el tiempo que transcurre desde que enva un paquete hasta que recibe
el correspondiente mensaje de vuelta; tambin registra el nombre y direccin del router
(o mquina de destino) que devuelve el mensaje. De esta forma, el origen puede
reconstruir la ruta seguida por los paquetes que fluyen desde el origen hasta el destino, y
el origen puede determinar los retardos de ida y vuelta para todos los routers que
intervienen. Traceroute en realidad repite el experimento descrito tres veces, de modo
que el origen en realidad enva 3 N paquetes hacia el destino. RFC 1393 describe
Traceroute en detalle.
GESTION DE RED
I ON
I ON
AC
AC
T RA
FI C
OI
AL
ERN
ON
NT
FI C
AL
T RA
NIVEL NACIONAL
NAP
NIVEL INTERNACIONAL
OTRAS CIUDADES
GESTION DE RED
En el pas existen dos grandes redes de propiedad de Internexa y Telefnica Telecom, las
cuales estn conformadas por anillos de fibra ptica, complementados con enlaces de
microondas y conexiones satelitales. Adems de lo anterior, algunos operadores de valor
agregado y los operadores de larga distancia poseen redes que utilizan para su propia
operacin, y en algunos casos para la prestacin del servicio portador nacional. Estas
redes estn constituidas por infraestructura propia de dichos operadores, la cual se
integra en algunos casos con infraestructura arrendada a los dos grandes operadores
mencionados inicialmente.
En la actualidad el servicio de portador internacional es prestado por 16 operadores - - el
mercado se distribuye principalmente en 4 de ellos - - principalmente a travs de cable
de fibra ptica, y en algunos casos puntuales a travs de enlaces satelitales o sistemas de
microonda para enlaces fronterizos con los pases vecinos.
Pero slo el primero garantiza la fiabilidad de la conexin extremo a extremo, dado que
recordamos que IP en s no garantiza la transmisin y reorganizacin fiable extremo a
extremo, pues eso corresponde al nivel de transporte.
Protocolo de datagramas de usuario (UDP)
UDP es un protocolo simple, sin conexin, descrito en la RFC 768. Cuenta con la ventaja
de proveer la entrega de datos sin utilizar muchos recursos. Las porciones de
comunicacin en UDP se llaman datagramas. Este protocolo de la capa de Transporte
enva estos datagramas como "mximo esfuerzo".
Entre las aplicaciones que utilizan UDP se incluyen:
Sistema de nombres de dominios (DNS),
Streaming de vdeo, y
Voz sobre IP (VoIP).
Protocolo de control de transmisin (TCP)
TCP es un protocolo orientado a la conexin, descrito en la RFC 793. TCP incurre en el
uso adicional de recursos para agregar funciones. Las funciones adicionales
especificadas por TCP estn en el mismo orden de entrega, son de entrega confiable y
de control de flujo. Cada segmento de TCP posee 20 bytes de carga en el encabezado,
que encapsulan los datos de la capa de Aplicacin, mientras que cada segmento UDP
slo posee 8 bytes de carga. Ver la figura para obtener una comparacin.
Las aplicaciones que utilizan TCP son:
Exploradores Web,
e-mail, y
Transferencia de archivos
Los servicios basados en TCP y UDP mantienen un seguimiento de las varias aplicaciones
que se comunican. Para diferenciar los segmentos y datagramas para cada aplicacin,
tanto TCP como UDP cuentan con campos de encabezado que pueden identificar de
manera exclusiva estas aplicaciones. Estos identificadores nicos son los nmeros de los
puertos.
En el encabezado de cada segmento o datagrama hay un puerto de origen y destino. El
nmero de puerto de origen es el nmero para esta comunicacin asociado con la
aplicacin que origina la comunicacin en el host local. El nmero de puerto de destino
es el nmero para esta comunicacin asociado con la aplicacin de destino en el host
remoto.
nmeros
de
puertos
en
IP
IP
IP
ATM
ATM
PPP
ETHERNET MAC
SDH
ETHERNET PHY
SDH
WDM
WDM
WDM
WDM
Alternativas para transmitir IP sobre capas ms bajas
Leccin 3: Router
En el centro de la red se encuentra el router. En pocas palabras, un router conecta una
red con otra red. Por lo tanto, el router es responsable de la entrega de paquetes a travs
de diferentes redes. El destino de un paquete IP puede ser un servidor Web en otro pas
o un servidor de correo electrnico en la red de rea local. Es responsabilidad de los
routers entregar esos paquetes a su debido tiempo. La efectividad de las comunicaciones
de internetwork depende, en gran medida, de la capacidad de los routers de enviar
paquetes de la manera ms eficiente posible.
En la actualidad, se estn incorporando routers a los satlites en el espacio. Estos routers
tendrn la capacidad de enrutar el trfico IP entre los satlites del espacio de un modo
muy similar al que se transportan los paquetes en la Tierra, reduciendo as los retardos y
ofreciendo una mayor flexibilidad para el trabajo en red.
Adems del envo de paquetes, un router tambin proporciona otros servicios. Para
satisfacer las demandas de las redes actuales, los routers tambin se utilizan para lo
siguiente:
Aseguran la disponibilidad las 24 horas del da, los 7 das de la semana. Para ayudar a
garantizar la posibilidad de conexin de la red, los routers usan rutas alternativas en caso
de que la ruta principal falle.
Proveen servicios integrados de datos, video y voz en redes conectadas por cable o
inalmbricas. Los routers dan prioridad a los paquetes IP segn la calidad de servicio
(QoS) a fin de asegurar que el trfico en tiempo real, como la voz, el video y los datos
esenciales, no se descarten ni retarden.
Enlaces
"How
Routers
Work",
Funcionamiento
http://computer.howstuffworks.com/router.htm
de
los
routers
nivel). Al igual que las interfaces LAN, cada interfaz WAN tiene su propia direccin IP y
mscara de subred, que la identifica como miembro de una red especfica.
Nota: Las direcciones MAC se usan en interfaces LAN, como Ethernet, y no se usan en
interfaces WAN. Sin embargo, las interfaces WAN usan sus propias direcciones de Capa
2 dependiendo de la tecnologa. Las direcciones y los tipos de encapsulacin WAN de
Capa 2 se analizarn en otro curso.
El router en la figura tiene cuatro interfaces. Cada interfaz tiene una direccin IP de Capa
3 y una mscara de subred que la configura para una red diferente. Las interfaces
Ethernet tambin tienen direcciones MAC Ethernet de Capa 2.
Las interfaces WAN usan encapsulaciones de Capa 2 diferentes. La Serial 0/0/0 usa
HDLC y la Serial 0/0/1 usa PPP. Estos dos protocolos seriales punto a punto usan
direcciones de broadcast para la direccin de destino de Capa 2 cuando encapsulan el
paquete IP en una trama de enlace de datos.
un enlace a su salida. Para ello, cada router mantiene una tabla de encaminamiento
que posee, en virtud del destino final, una o ms asignaciones de valores de nodos
adyacentes hacia los cuales puede enviarse el paquete a la salida del nodo actual. As,
cuando un paquete llega al router, ste inspecciona su cabecera donde se extrae la
direccin del nodo de destino final del paquete. Con esta informacin se va a la tabla de
encaminamiento y se determina el nodo adyacente al cual ha de enviarse el paquete y
una vez determinado, se encamina el paquete hacia l, tal y como muestra la figura.
router
1
Destino
final
Nodo
siguiente
3
5
Destino
final
Nodo
siguiente
Destino
final
Nodo
siguiente
aquellas con las que est directamente conectado. Esta lista se guarda en una tabla de
encaminamiento en la que cada entrada identifica una red o host de destino y a la
distancia a ella. Esta distancia se denomina mtrica y se mide tpicamente en saltos.
Peridicamente, cada router enva una copia de su tabla de encaminamiento a cualquier
otro router que pueda alcanzar directamente. Cuando un informe le llega al router B
del A, B examina el conjunto de destinos que recibe y la distancia a cada uno. B
actualizar su tabla de encaminamiento si:
A conoce un camino ms corto a cada destino.
A lista un destino que B no tiene en su tabla.
La distancia de A a un destino desde B pasando por A ha cambiado.
El protocolo de implementacin directa de los algoritmos de encaminamiento vectordistancia para LANs es el routing Information Protocol (RIP) y emplea UDP como
protocolo de transporte para sus mensajes de informacin (datagramas UDP).
Por cuestiones de tamao y operatividad, la red se divide en mltiples dominios
interconectados. Cada uno de ellos es un sistema autnomo. Para comunicar estos
dominios entre s se emplean protocolos de encaminamiento interdominio de entre los
cuales destaca el BGP o Border Gateway Protocol.
Direccionamiento sin clase
CIDR reemplaza la sintaxis previa para nombrar direcciones IP, las clases de redes. En vez
de asignar bloques de direcciones en los lmites de los octetos, que implicaban prefijos
naturales de 8, 16 y 24 bits, CIDR usa la tcnica VLSM (Variable-Length Subnet Mask Mscara de Subred de Longitud Variable), para hacer posible la asignacin de prefijos de
longitud arbitraria.
CIDR engloba:
La tcnica VLSM para especificar prefijos de red de longitud variable. Una
direccin CIDR se escribe con un sufijo que indica el nmero de bits de longitud
de prefijo, p.ej. 192.168.0.0/16 que indica que la mscara de red tiene 16 bits (es
decir, los primeros 16 bits de la mscara son 1 y el resto 0). Esto permite un uso
ms eficiente del cada vez ms escaso espacio de direcciones IPv4
La agregacin de mltiples prefijos contiguos en superredes, reduciendo el
nmero de entradas en las tablas de ruta globales.
Los primeros cuatro nmeros decimales se interpretan como una direccin IPv4, y el
nmero tras la barra es la longitud de prefijo, contando desde la izquierda, y representa
el nmero de bits comunes a todas las direcciones incluidas en el bloque CIDR.
Decimos que una direccin IP est incluida en un bloque CIDR, y que encaja con el
prefijo CIDR, si los N bits iniciales de la direccin y el prefijo son iguales. Por tanto, para
entender CIDR es necesario visualizar la direccin IP en binario. Dado que la longitud de
una direccin IPv4 es fija, de 32 bits, un prefijo CIDR de N-bits deja 32 N bits sin encajar,
y hay 2(32 N) combinaciones posibles con los bits restantes. Esto quiere decir que 2 (32 N)
direcciones IPv4 encajan en un prefijo CIDR de N-bits.
Ntese que los prefijos CIDR cortos (nmeros cercanos a 0) permiten encajar un mayor
nmero de direcciones IP, mientras que prefijos CIDR largos (nmeros cercanos a 32)
permiten encajar menos direcciones IP.
Una direccin IP puede encajar en varios prefijos CIDR de longitudes diferentes.
CIDR tambin se usa con direcciones IPv6, en las que la longitud del prefijo vara desde 0
a 128, debido a la mayor longitud de bit en las direcciones, con respecto a IPv4. En el
caso de IPv6 se usa una sintaxis similar a la comentada: el prefijo se escribe como una
direccin IPv6, seguida de una barra y el nmero de bits significativos.
Asignacin de bloques CIDR
El bloque 208.128.0.0/11, un bloque CIDR largo que contena ms de dos
millones de direcciones, haba sido asignado por ARIN, (el RIR Norteamericano) a
MCI.
Automation Research Systems, una empresa intermediaria del estado de Virginia,
alquil de MCI una conexin a Internet, y recibi el bloque 208.130.28.0/22,
capaz de admitir 1024 direcciones IP (32 22 = 10; 2 10 = 1.024)
ARS utiliz un bloque 208.130.29.0/24 para sus servidores pblicos, uno de los
cuales era 208.130.29.33.
Todos estos prefijos CIDR se utilizaron en diferentes enrutadores para realizar el
encaminamiento. Fuera de la red de MCI, el prefijo 208.128.0.0/11 se us para
encaminar hacia MCI el trfico dirigido no solo a 208.130.29.33, sino tambin a
cualquiera de los cerca de dos millones de direcciones IP con el mismo prefijo CIDR (los
mismos 11 bits iniciales). En el interior de la red de MCI, 208.130.28.0/22 dirigira el
trfico a la lnea alquilada por ARS. El prefijo 208.130.29.0/24 se usara slo dentro de la
red corporativa de ARS.
CIDR y Mscaras de Subred
Una mscara de subred es una mscara que codifica la longitud del prefijo de una forma
similar a una direccin IP - 32 bits, comenzando desde la izquierda, ponemos a 1 tantos
bits como marque la longitud del prefijo, y el resto de bits a cero, separando los 32 bits
en cuatro grupos de ocho bits.
CIDR usa mscaras de subred de longitud variable (VLSM) para asignar direcciones IP a
subredes de acuerdo a las necesidades de cada subred. De esta forma, la divisin
red/host puede ocurrir en cualquier bit de los 32 que componen la direccin IP. Este
proceso puede ser recursivo, dividiendo una parte del espacio de direcciones en
porciones cada vez menores, usando mscaras que cubren un mayor nmero de bits.
Las direcciones de red CIDR/VLSM se usan a lo largo y ancho de la Internet pblica, y en
muchas grandes redes privadas. El usuario normal no ve este uso puesto en prctica, al
estar en una red en la que se usarn, por lo general, direcciones de red privadas
recogidas en el RFC 1918.
Agregacin de Prefijos
Otro beneficio de CIDR es la posibilidad de agregar prefijos de encaminamiento, un
proceso conocido como "supernetting". Por ejemplo, diecisis redes /24 contiguas
pueden ser agregadas y publicadas en los enrutadores de Internet como una sola ruta
/20 (si los primeros 20 bits de sus respectivas redes coinciden). Dos redes /20 contiguas
pueden ser agregadas en una /19, etc.
Esto permite una reduccin significativa en el nmero de rutas que los enrutadores en
Internet tienen que conocer (y una reduccin de memoria, recursos, etc.) y previene una
explosin de tablas de encaminamiento, que podra sobrecargar a los routers e impedir
la expansin de Internet en el futuro.
CIDR IPv4
CIDR No. de redes por clase
Hosts*
Mscara
/32 1/256 C
1
255.255.255.255
/31 1/128 C
2
255.255.255.254
/30 1/64 C
4
255.255.255.252
/29 1/32 C
8
255.255.255.248
/28 1/16 C
16
255.255.255.240
/27 1/8 C
32
255.255.255.224
/26 1/4 C
64
255.255.255.192
/25 1/2 C
128
255.255.255.128
/24 1/1 C
256
255.255.255.0
/23 2 C
512
255.255.254.0
/22 4 C
1,024
255.255.252.0
/21 8 C
2,048
255.255.248.0
/20 16 C
4,096
255.255.240.0
/19 32 C
8,192
255.255.224.0
/18 64 C
16,384
255.255.192.0
/17 128 C
32,768
255.255.128.0
/16 256 C, 1 B
65,536
255.255.0.0
/15 512 C, 2 B
131,072
255.254.0.0
/14 1,024 C, 4 B
262,144
255.252.0.0
/13 2,048 C, 8 B
524,288
255.248.0.0
/12 4,096 C, 16 B
1,048,576
255.240.0.0
/11 8,192 C, 32 B
2,097,152
255.224.0.0
/10 16,384 C, 64 B
4,194,304
255.192.0.0
/9 32,768 C, 128B
8,388,608
255.128.0.0
/8 65,536 C, 256B, 1 A
16,777,216 255.0.0.0
/7 131,072 C, 512B, 2 A
33,554,432 254.0.0.0
/6 262,144 C, 1,024 B, 4 A
67,108,864 252.0.0.0
/5 524,288 C, 2,048 B, 8 A
134,217,728 248.0.0.0
/4 1,048,576 C, 4,096 B, 16 A
268,435,456 240.0.0.0
/3 2,097,152 C, 8,192 B, 32 A
536,870,912 224.0.0.0
/2 4,194,304 C, 16,384 B, 64 A 1,073,741,824 192.0.0.0
/1 8,388,608 C, 32,768 B, 128 A 2,147,483,648 128.0.0.0
/0 33,534,432 C, 65,536 B, 256 A 4,294,967,296 0.0.0.0
(*) En la prctica hay que restar 2 a este nmero. La direccin menor (ms baja - todos
los bits de host a 0) del bloque se usa para identificar a la propia red (toda la red), y la
direccin mayor (la ms alta - todos los bits de host a 1) se usa como direccin de
broadcast. Por tanto, en un bloque CIDR /24 podramos disponer de 2 8 2 = 254
direcciones IP para asignar a dispositivos.
Los protocolos de enrutamiento sin clase incluyen RIPv2, EIGRP, OSPF, IS-IS y BGP. Estos
protocolos de enrutamiento incluyen la mscara de subred con la direccin de red en
sus actualizaciones de enrutamiento. Los protocolos de enrutamiento sin clase son
necesarios cuando la mscara no puede suponerse ni determinarse con el valor del
primer octeto.
Leccin 5: GIGA Ethernet
Ethernet es el protocolo de conmutacin de paquetes ms empelado en la actualidad
en LANs. Inicialmente operaba a 10 Mb/s pero se ha experimentado ampliaciones a
100Mb/s, 1 Gb/s y, recientemente a 10 Gb/s. Ethernet funciona mediante la tcnica de
acceso CSMA/CD y a mayor velocidad y ms larga distancia su eficiencia decae. Gigabit
Ethernet GbE se ha empelado de forma creciente en redes metropolitanas para
interconectar mltiples redes de empresa y en 2002, el IEEE ratific el estndar 10
Gigabit Ethernet (10 GbE) para su empleo en redes de larga distancia sobre fibra ptica.
Contrariamente a los primeros sistemas Ethernet, 10-gigabit Ethernet est basado
principalmente en el uso de cables de fibra ptica (con la excepcin del 10 GBASE-CX4).
Sin embargo, el IEEE est desarrollando un estndar de 10-gigabit Ethernet sobre par
trenzado (10GBASE-T).
Las especificaciones de 10 Gigabit Ethernet est definidas en la norma IEEE 802.3ae que
complementa el estndar 802.3. en l se definen varias subcapas fsicas conocidas como
10GBASE-X, 10GBASE-R y 10-GBASE-W as como material adicional para la gestin e
interfaces como son el 10Gigabit Media Independent Interface (XGMII), el 10 Gigabit
Attachment Unit Interface (XAUI) y el 10Gigabit Sixteen Bit Interface (XSBI).
El sistema 10GBASE Gigabit Ethernet opera nicamente en modo full-duplex sobre fibra
ptica de forma muy flexible pues puede implementarse sobre siete medios fsicos
distintos, que se describirn a lo largo del apartado, diseados para trabajar en redes de
rea local (LAN), rea metropolitana (MAN) o rea amplia (WAN).
Prembulo (PRE): 7 bytes. Es un patrn alternante de unos y ceros que avisa a las
estaciones receptoras de que una trama va a llegar y provee la sincronizacin de las
distintas capas fsicas con la trama de bits.
Start-of-frame delimiter (SFD)-1byte. El SOF es un patrn alternante de unos y
ceros que finaliza con dos bits 1 consecutivos indicando que el siguiente bit es el
primer bit de la izquierda en el primer byte de la direccin de destino.
Destination adress (DA)- 6 bytes. El campo DA idntica qu estacin/es debe/n
recibir la trama.
Source address (SA)- 6 bytes. El campo SA identifica la estacin emisora.
Length/Type 2 bytes. Este campo indica el nmero de bytes de datos del cliente
MAC- que contiene el campo de datos de la trama, o el ID del protocolo
encapsulado en la trama si el valor del nmero es superior a 1536.
Data Secuencia de bytes, con un nmero cualquiera entre 46 y 1500 (El mnimo
para el total de la trama es 64 bytes).
Frame check sequence (FCS) - 4 bytes. Secuencia que contiene un valor de
comprobacin redundante cclica de 32-bit (cyclic redundancy check, CRC) creada
por el MAC emisor y recalculada por el MAC receptor para comprobar tramas
errneas.
Las capas fsicas especificadas en la norma IEEE 802.3 incluyen la denominada 10GBASES, que emplea seal a 850nm y dos fibras multimodo; 10GBASE-L4, que emplea un
transceptor WDM a 1310 nm con dos fibras multimodo o monomodo; 10GBASE-L, que
emplea 1310 nm con dos fibras monomodo; y 10GBASE-E, que usa 1550nm con dos
fibras monomodo.
Los medios fsicos empleados en 10 Gigabit se denominan con varias letras que indican
la longitud de onda empleada en el sistema ptico as como la seal de codificacin
empleada. La codificacin incluye una subcapa de interfaz WAN (WAN interface
sublayer, WIS) que compatibiliza cualquier equipo 10 Gigabit Ethernet con el formato
de transmisin SONET STS-192c, dado que SONET se utiliza comnmente para
comunicaciones de datos a largas distancias y STS-192c ofrece una capacidad de la
carga de 9.58464 Gbps. El subsistema WIS adapta la carga transportada por el sistema
10 Gigabit Ethernet a la capacidad de las tramas SONET STS-192c.
En los medios 10GBASE-X, la S significa que se emplea la longitud de onda de 850 nm,
la L hace referencia a 1310 NM, Y LA E se reserva para 1550nm. La letra X significa
que la codificacin de la seal es 8B/10B, mientras que R implica codificacin 66B y
W se refiere al interfaz WIS que encapsula las tramas Ethernet para su transmisin
sobre un canal SONET STS-192c.
Los medios 10GBASE-SR y 10GBASE-SW emplean la longitud de onda de 850nm y fibra
ptica multimodo (MMF). El alcance de estos sistemas presenta un rango entre 2 y 300
metros de fibra, e incluso mayores, dependiendo del tipo y calidad de la misma. El
primero se utiliza sobre una fibra oscura, o sea, que no est en uso ni conectado a
ningn equipo. El segundo est diseado para conectarse a equipos SONET que se
utiliza tpicamente para comunicaciones de larga distancia.
Los medios 10GBASE-LR y 10GBASE-LW emplean la longitud de onda de 1310nm y
fibra ptica monomodo (SMF), con un alcance en el rango entre 2m y 10 km de fibra y
las mismas caractersticas que los anteriores.
Los medios 10GBASE-ER y 10GBASE-EW emplean la longitud de onda de 1550nm y
fibra ptica monomodo (SMF) y su alcance presenta un rango entre 2m y 40 km.
Finalmente, el medio 10GBASE-LX4 emplea la tecnologa WDM para enviar informacin
sobre 4 canales distintos sobre un par de cables de fibra ptica. Est diseado para
trabajar a 1310nm sobre fibra oscura monomodo o multimodo. El alcance de estos
sistemas presenta un rango entre 2 y 300 m de fibra si se emplea fibra multimodo, pero
de 2 m a 10 km si se utiliza fibra monomodo.
Para la transmisin, ATM emplea celdas de tamao fijo de 53 bytes que resulta de un
compromiso entre los requisitos de las aplicaciones de voz (paquetes de tamao
reducido son preferibles para evitar retardos prolongados) y las aplicaciones de datos
(son preferibles paquetes de tamao mayor para rentabilizar el overead). A diferencia de
SDH, la transmisin de tramas no es de naturaleza continua, sino que las celdas se
transmiten slo cuando hay informacin que enviar. De los 53 bytes, 5 se reservan para
la cabecera (destino del paquete, etc.) y 48 bytes se reservan para la carga que
transporta la celda tal y como se muestra en la figura.
La red ATM suele ser de tipo mallado, donde los elementos centrales son los
conmutadores ATM que generalmente estn interconectados entre s a travs de
enlaces de tipo punto a punto e interfaces ATM. Esta conmutacin se realiza a nivel de
celda ATM. Por tanto, al ser stas de tamao fijo y reducido, puede garantizarse una
transmisin extremo a extremo en la red con muy poco retardo, habilitando adems la
posibilidad de proporcionar calidad de servicio (QoS). En la mayora de los casos, los
conmutadores ATM se conectan a equipos SDH por medio de interfaces pticos de
caractersticas compatibles a las descritas en la capa fsica de SDH.
Una red ATM est formada por conmutadores ATM y puntos finales ATM. El
conmutador ATM es responsable del trnsito de celdas a travs de la red ATM: acepta las
celdas que le llegan de un punto final ATM o un conmutador ATM, lee y actualiza la
informacin en la cabecera de la celda, y rpidamente conmuta la celda a una interfaz
de salida hacia su destino. Un punto final ATM o sistema final, contiene un adaptador de
interfaz a la red ATM, el cual s lee los bytes de datos de la celda. Ejemplos de puntos
finales son: las estaciones de trabajo, routers, unidades de servicio digitales,
conmutadores LAN, y codificadores y decodificadores de vdeo.
Los conmutadores ATM soportan dos tipos primarios de interfaces:
UNI (User to Network Interface). La interfaz UNI conecta sistemas finales ATM
(tales como servidores y routers) a un conmutador ATM.
NNI (Network to Network Interface). Conecta dos conmutadores ATM.
Los dispositivos ATM utilizan un formato de direcciones NSAP ( Network Service Access
Point) del modelo OSI de 20 bytes, en el caso de redes ATM privadas; y un formato de
direcciones E.164 del ITU-T, semejante a nmeros telefnicos, para las redes pblicas BISDN. Cada sistema ATM necesita de una direccin ATM, independiente de los
protocolos de nivel superior como IP.
Leccin 3: Arquitectura y modelos de capas ATM
La arquitectura de ATM utiliza un modelo de referencia para describir la funcionalidad
que soporta y que est relacionada con la capa fsica y la capa de enlace de datos del
modelo OSI. El modelo ATM comprende tres planos y cada plano abarca a todas las
capas:
Plano de control: genera y gestiona las peticiones de sealizacin.
Plano de usuario: gestiona la transferencia de datos.
Plano de gestin: incluye la gestin de capas, que incluye las funciones especficas de
cada capa y la gestin de planos, que tambin coordina las funciones del sistema
completo.
Especficamente hablando, y tal y como se ilustra en la figura, las capas de ATM son:
1) Capa fsica: anloga al nivel fsico del modelo OSI. Las celdas ATM pueden ser
transportadas por cualquier nivel fsico. ATM no limita el nivel fsico a SDH, tambin se
pueden emplear otras tecnologas, incluso inalmbricas.
2) La capa ATM: es anloga al nivel de enlace de datos de OSI. Se responsabiliza del
establecimiento de las conexiones y del envo y transporte de las celdas ATM a travs de
la red. Para ello, precisa de la informacin de la cabecera de las celdas.
Los sistemas finales utilizan los tres niveles mientras que los conmutadores solo utilizan los
dos niveles inferiores.
Leccin 4: Conexin y encaminamiento ATM
Como hemos mencionado anteriormente, ATM funciona como un servicio orientado a
conexin.
Con antelacin a la transferencia de datos se ha de establecer un canal y se han de
reservar los recursos oportunos de la red. Las conexiones en ATM se denominan canales
virtuales y a cada uno de ellos se les asigna un Identificador de Canal Virtual (VCI). El VCI
de un canal virtual no tiene por qu mantenerse constante a lo largo de toda la
trayectoria desde el nodo origen al destino. Ms an suele cambiarse en cada nodo
intermedio, de forma que se modifica su valor en los diferentes enlaces intermedios. La
tarea de un conmutador (switch) es inspeccionar el valor del VCI de la celda a su
entrada, ir a una tabla de asignaciones que se encuentra disponible y actualizada en
todo momento y obtener el puerto de salida de dicha celda y el valor de VCI que hay
que poner como nuevo para el enlace siguiente.
La tabla VCI es un elemento fundamental y muestra el establecimiento previo del circuito
antes de la transmisin de datos propiamente dicha. Como se ha mencionado
anteriormente dicha tabla ha de especificar para cada valor de VCI de entrada el enlace
o puerto de salida y el valor de VCI nuevo que habr de emplear la celda en dicho
enlace.
En la red puede haber un gran nmero (millones) de canales virtuales compartiendo el
mismo enlace. De acuerdo con el procedimiento anterior, cada uno tendra VCIs
diferentes y, al llegar a un nodo intermedio habra que consultar tablas de una
envergadura considerable. De hecho, el mirar ms de una tabla de ms de 2 16 =65536
entradas para encaminar cada cdula supondra un gran consumo de tiempo.
Si existiera un mecanismo para agrupar o agregar todos aquellos canales virtuales que al
menos comparten un elevado porcentaje de enlaces en el camino extremo a extremo,
esta propiedad podra emplearse para aliviar significativamente el proceso de
encaminamiento. Esta propiedad para agregar canales virtuales se implementa por
medio del uso de los identificadores de camino virtual o VPI (Virtual Path Identifier).
Para entender el funcionamiento del VPI nos referimos al ejemplo de la figura. En el
ejemplo, los dos canales virtuales comparten los enlaces 0- 1 y 1 2. As el VPI=u se
asigna a los dos canales en el enlace 0 1 y el VPI=v en el enlace 1-2. El conjunto de los
dos enlaces es un camino virtual donde el nodo 0 es el origen del camino y el nodo 2 el
final. Cualquier celda que pertenezca a un canal virtual agrupado a este camino virtual
ser enrutada a travs de ste empleando el indicador VPI que es de menor tamao
que el VCI. Al llegar al final de su camino virtual, las celdas son enrutadas a partir de all
en virtud del valor de su VCI. Este esquema de dos niveles es ms efectivo que emplear
la suma de bits de ambos (24) para UNI y 28 para NNI) directamente para conmutar.
El proceso de determinacin de las rutas que seguirn las celdas en una conexin ATM
extremo a extremo y el mantenimiento y cambio de las tablas de VCI, puertos y VPI en
cada conmutador de ATM se realiza a travs de un protocolo de encaminamiento. En el
caso de ATM este protocolo se conoce por las siglas PNNI (Private Network to Network
Interface) si la conexin es entre redes privadas y BCI (Broadband Carrier Interface) si la
conexin es entre redes pblicas.
El funcionamiento del protocolo es el siguiente: cada enlace de la red viene
caracterizado por una serie de parmetros que describen su estado (tasa de prdida de
celdas, retardo mximo, ancho de banda disponible, etc) as como por otro parmetro
de coste o factor de peso que indica el coste en que incurrir la red por emplearlo.
Cada conmutador ATM informa al resto de los dems del valor de estos parmetros para
cada uno de los enlaces que parten de sus puertos de salida. As, cada switch ATM
obtiene una informacin global de la topologa de la red y los estados de sus enlaces. El
conmutador de entrada puede emplear esta informacin para calcular la ruta que mejor
se ajusta a los requisitos de QoS establecidos y, al mismo tiempo minimizar el coste. Una
vez que la ruta se ha calculado, cada switch incluido en ella es informado acerca de la
nueva conexin y sus tablas de etiquetas VPI/VCI entrada/salida han de ser
reconfiguradas. Una vez terminada esta tarea, finaliza el proceso de conexin y PNNI es
invocado de nuevo.
Leccin 5: Capas de adaptacin ATM (AAL)
ATM emplea celdas de tamao fijo. Sin embargo, las aplicaciones que emplean ATM o
emplean paquetes de tamao variable como IP o son de tipo flujo contnuo como la
transmisin de vdeo o voz. La capa de Adaptacin de ATM, AAL es la responsable,
como ya vimos de transformar este diverso conjunto de diferentes tipos de seales
cliente en celdas de ATM. Para transportar diversos tipos de trfico se han definido
diferentes tipos de AAL, stos transforman paquetes, largas cadenas de seales de vdeo,
etc., en segmentos de 48 bytes susceptibles de incorporarse a la carga de celdas ATM.
La capa AAL se divide en dos subcapas o subtareas:
Capa de convergencia (adapta la informacin a mltiplos de octetos)
Capa de segmentacin y re ensamblaje o SAR, que segmenta la
informacin en unidades de 48 octetos en la fuente y la re-ensambla en el
destino.
ATM Adaptation Layer 2 (AAL2): AAL Tipo 2 soporta rt-VBR (Variable Bit Rate in
real time), de circuito orientado a la conexin de trfico sncrono. Su servicio es de
baja prioridad y garantizado. Se utiliza en compresin de video.
ATM Adaptation Layer 3 y 4 (AAL3 y AAL4): Soportan al VBR, trfico de datos,
circuitos orientados a la conexin, trfico asncrono (por ejemplo X.25 de datos) o
a los paquetes de datos no orientados a la conexin (ej.: trfico SMDS) con una
cabecera (header) adicional de 4 bytes en el payload de la celda. Por ejemplo
Frame Relay y X.25. Su servicio es de alta prioridad y no garantizado.
ATM Adaptation Layer 5 (AAL5): Este AAL ha sido diseado para utilizarse bajo
TCP/IP y est normalizado en la RFC 1577. AAL Tipo 5 es similar a AAL 3/4 con
un programa de simplificacin de cabecera (header) de informacin. Este AAL
asume que los datos son secuenciales desde el usuario final y usa el bit Payload
Type Indicator (PTI) para indicar la ltima celda en transmitirse. Ejemplos de este
servicio son el clsico IP sobre ATM, Ethernet sobre ATM, SMDS, y emulacin LAN
(LANE). Su servicio es de baja prioridad y no garantizado.
En el caso de AAL5 se definen 4 clases de servicio:
CBR (Constant Bit Rate): Tasa de velocidad constante. Divide la capacidad total del
ancho de banda y se encarga de la parte con un flujo constante de trfico. Se
emplea como simulacin de redes LAN o enlaces punto a punto. Es adecuado
para transmisiones de tiempo real como vdeo y voz.
VBR (Variable Bit Rate): Tasa de velocidad variable. Se utiliza sobre la capacidad
no aprovechada por CBR y est pensando para permitir el trfico a rfagas y
asegurar un caudal mnimo (similar a Frame Relay).
Se ofrecen 2 posibilidades. rt-VBR para aplicaciones de tiempo real y nrt-VBR para las de
no tiempo real. Por ejemplo la transmisin de video MPEG utiliza rt-VBR.
El servicio nrt-VBR es el ofrecido por los operadores de acceso a Internet para usuarios.
UBR (Unespecified Bit Rate): Tasa de velocidad no especificada. Utilizado en el
ancho de banda restante. El trfico que utiliza este servicio es el susceptible de ser
eliminado en caso de congestin en los conmutadores. Lo utilizan aplicaciones
tolerantes a prdidas de paquetes, como conexiones TCP.
ABR (Available Bit Rate): Tasa de velocidad libre. Se hace una mejor gestin de la
capacidad sobrante que con UBR. Se establece un caudal mnimo y existe una
realimentacin de paquetes para evitar la prdida de celdas y la congestin.
Nombre de la Unidad
Introduccin
UNIDAD 2
CONGESTION Y CALIDAD DE SERVICIO EN REDES DE ALTA
VELOCIDAD
El control de congestin y la calidad de servicio son dos
aspectos tan ntimamente relacionados que la mejora en uno
significa la mejora del otro e ignorar uno normalmente
significa ignorar el otro. La mayora de las tcnicas para
prevenir o eliminar la congestin tambin mejoran la calidad
de servicio en una red. Estos aspectos no estn relacionados
con un nivel, sino con tres: el nivel de enlace de datos, el nivel
de red y el nivel de transporte.
En esta unidad iniciamos con el control de congestin, calidad
de servicio y terminamos con mecanismos de soporte para
calidad de servicio en redes de alta velocidad.
Justificacin
Intencionalidades
Formativas
por la red.
Proporcionar un servicio justo -- otro objetivo deseable es
equidad. Aqu la palabra justicia hace referencia a la provisin
de una cantidad similar de capacidad. Para todos los paquetes
que confluyen con una misma calidad de servicio.
PROPSITOS
OBJETIVOS
COMPETENCIAS
METAS
Al finalizar el curso:
Denominacin de
captulos
ms, puede que haya problemas en la red. El tamao de la rfaga mxima normalmente
se refiere a la duracin mxima de tiempo en el que el trfico se genera a la tasa pico.
Ancho de banda efectivo
El ancho de banda efectivo es el ancho de banda que la red necesita asignar al flujo de
trfico. El ancho de banda efectivo es una funcin de tres valores: tasa de datos media,
tasa de datos pico y tamao de la rfaga mximo. El clculo de este valor es muy
complejo.
PERFILES DE TRFICO
Para el objetivo de este captulo, un flujo de datos puede tener uno de los siguientes
perfiles de trfico: tasa de bits constante, tasa de bit variable o tasa de bit a rfagas.
Tasa de bits constante
Un modelo de trfico con una tasa de bits constante (CBR) o tasa de datos fija, tiene una
tasa de datos que no cambia. En este tipo de flujo, la tasa de datos media y la tasa de
datos pico son iguales. El tamao de la rfaga mximo no es aplicable. Este tipo de
trfico es muy sencillo de tratar para una red puesto que es predecible. La red conoce
por adelantado cuanto ancho de banda necesita asignar para este tipo de flujo.
Datos a rfagas
En la categora de datos a rfagas, la tasa de datos cambia de forma repentina en un
tiempo muy corto. Puede saltar de cero, por ejemplo, hasta 1 Mbps en unos pocos
microsegundos y viceversa. Puede tambin permanecer en este valor durante un largo
periodo. La tasa media de bits y la tasa pico son muy diferentes en este tipo de flujo. El
tamao de la rfaga mxima es significativo. Este es el tipo de trfico ms difcil de tratar
debido a que el perfil de trfico es muy impredecible. Para manejar este tipo de trfico, la
red normalmente necesita reajustarse, utilizando tcnicas de ajuste, como se ver en
breve. El trfico de datos a rfaga es una de las principales causa de congestin en una
red.
Leccin 2: CONGESTIN
Un aspecto importante en una red de conmutacin de paquetes es la congestin. La
congestin en una red puede ocurrir si la carga de la red (el nmero de paquetes
enviados a la red) es mayor que la capacidad de la red (el nmero de paquetes que una
red puede tratar). El control de congestin se refiere a los mecanismos y tcnicas que
permiten controlar la congestin y mantener la carga por debajo de la capacidad.
Se puede preguntar por qu hay congestin en una red. La congestin en un sistema
que involucra espera. Por ejemplo, la congestin ocurre en una autopista debido a que
cualquier incidente en el flujo, como un accidente durante una hora punta, crea un
bloqueo.
La congestin en una red o interconexin de redes ocurre debido a que los routers y
conmutadores tienen colas bferes que almacenan los paquetes antes y despus de su
procesamiento. Un router, por ejemplo, tiene una cola de entrada y una cola de salida
para cada interfaz. Cuando un paquete llega a la interfaz de entrada, se llevan a cabo
tres etapas antes de su salida..
1. El paquete se coloca al final de la cola de entrada mientras espera a ser comprobado.
2. El mdulo de procesamiento del router extrae el paquete de la cola de entrada
cuando alcanza el frente de la cola y utiliza su tabla de encaminamiento y la direccin de
destino para encontrar el camino.
3. El paquete se coloca en la cola de salida de la interfaz apropiada y espera su turno
para ser enviado.
Se necesita tener en cuenta dos aspectos. En primer lugar, si la tasa de llegada de
paquetes es mayor que la tasa de procesamiento de paquetes, las colas de entrada se
harn cada vez ms largas. En segundo lugar, si la tasa de salida de paquetes es menor
que la tasa de procesamiento de los paquetes, las colas de salida se harn cada vez ms
largas.
PRESTACIONES DE UNA RED
El control de congestin involucra dos factores que miden las prestaciones de una red: el
retardo y la productividad.
Retardo frente a carga
Observe que cuando la carga es mucho menor que la capacidad de la red, el retardo
est al mnimo. El retardo mnimo se compone del retardo de propagacin y del retardo
de procesamiento, los cuales son insignificantes. Sin embargo, cuando la carga alcanza
la capacidad de la red, el retardo se incrementa bruscamente debido a que ahora se
necesita aadir el tiempo de espera en las colas (para todos los routers en el camino) al
retardo total. Observe que el retardo se hace infinito cuando la carga es mayor que la
capacidad. Si esto no es obvio, considere el tamao de las colas cuando casi ningn
paquete alcanza el destino, o alcanza el destino con un retardo de infinito; las colas se
hacen cada vez ms grandes. El retardo tiene un efecto negativo sobre la carga y
consecuentemente sobre la congestin. Cuando un paquete es retrasado, el origen no
recibe confirmacin y retransmite el paquete, lo que empeora el retardo y la congestin.
Paquete de contencin
Sealizacin implcita
En la sealizacin implcita, no hay comunicacin entre el nodo o nodos congestionados
y el origen. El origen adivina que hay congestin en algn punto de la red a travs de
otros sntomas. Por ejemplo, cuando un origen enva paquetes y no hay confirmacin
durante un cierto tiempo, puede asumir que la red est congestionada. El retardo en la
recepcin de los mensajes de confirmacin se puede interpretar como congestin en la
red; el origen podra ralentizarse. Se ver este tipo de sealizacin cuando se describa el
control de congestin de TCP ms tarde en el captulo.
Sealizacin explcita
El nodo que experimenta la congestin puede explcitamente enviar una seal al origen
o al destino. El mtodo de sealizacin explcita, sin embargo, es diferente del mtodo
que utiliza el paquete de contencin. En el mtodo del paquete de contencin, se utiliza
un paquete diferente para este objetivo. En el mtodo de sealizacin explcita, la seal
se incluye en los paquetes que transportan datos. La sealizacin explcita, como se ver
en el control de congestin de Frame Relay, puede ocurrir hacia delante o hacia atrs.
Sealizacin hacia atrs
Se puede activar un bit en un paquete que se mueve en el sentido contrario a la
congestin. Este bit puede advertir al emisor que hay congestin y que necesita
ralentizar su envo para evitar el descarte de paquetes.
Sealizacin hacia delante
Se puede activar un bit en un paquete que va en la direccin dela congestin. Este bit
puede advertir al destino de que hay congestin. El receptor en este caso puede utilizar
polticas, como ralentizar las confirmaciones, para aliviar la congestin.
Leccin 4: CONTROL DE CONGESTIN EN TCP
Ahora veremos el control de congestin que utiliza TCP para evitar o aliviar la congestin
de la red.
Ventana de congestin
Anteriormente se habl sobre el control de flujo y se intentaron describir soluciones a
emplear cuando el receptor se sobrecarga con datos. Se dijo que el tamao de la
ventana del emisor viene determinada por el espacio disponible en el bfer del receptor
(rwnd). En otras palabras, se asume que slo el receptor puede dictar al emisor el
tamao de la ventana del emisor. Se ignor a otra entidad la red. Si la red no puede
entregar los datos tan rpidamente como son originados por el emisor, debe decir al
emisor que se ralentice. En otras palabras, adems del receptor, la red es una segunda
entidad que determina el tamao de la ventana del emisor.
Hoy en da, el tamao de la ventana del emisor viene determinada slo por el receptor
pero tambin por la congestin de la red.
El emisor tiene dos elementos de informacin: el tamao de la ventana anunciado por el
receptor y el tamao de la ventana de congestin (cwnd). El tamao real de la ventana
es el mnimo de estos dos valores:
Tamao real de la ventana = mnimo (rwnd, cwnd)
Se va a mostrar brevemente como se determina el tamao de la ventana de congestin.
Poltica de congestin
La poltica general de TCP para tratar la congestin se basa en tres fases: comenzar lento,
evitacin de la congestin y deteccin de la congestin. En la fase de comienzo lento, el
emisor comienza con una tasa de transmisin muy baja, pero la incrementa rpidamente
hasta alcanzar un umbral. Cuando se alcanza el umbral, la tasa de datos se reduce para
evitar la congestin. Finalmente si se detecta congestin, el emisor vuelve a tras a la fase
de comienzo lento o a la fase de evitacin de la congestin dependiendo de cmo se
detecte la congestin.
Comienzo lento: incremento exponencial
Uno delos algoritmos utilizados por TCP en el control de congestin es el denominado
comienzo = 2comienza con un tamao de segmento mximo (MSS). El tamao MSS se
determina en la fase de establecimiento de la conexin utilizando una opcin del mismo
nombre. El tamao de la ventana se incrementa en un MSS cada vez que se recibe una
confirmacin. Como su nombre implica, la ventana comienza lentamente, pero crece
exponencialmente. Para mostrar la idea, observe la Figura 8. Observe que se han
utilizado tres simplificaciones para que el ejemplo sea ms sencillo. Se han utilizado
nmeros de segmentos en lugar de nmeros de bytes. Se ha asumido que el valor
rwnd es mucho ms grande que el valor de cwnd, de forma que el tamao de la
ventana del emisor siempre iguale a cwnd. Se ha asumido que cada segmento se
confirma de forma individual.
El emisor comienza con un valor para cwnd = 1 MSS. Esto significa que el emisor puede
enviar slo un segmento. Despus de recibir la confirmacin para el segmento 1, el
tamao de la ventana de congestin se incrementa en 1, lo que significa que el valor de
Cuando se han
cwnd = 22 = 4
cwnd = 23 = 8
Es necesario mencionar que si hay un ACK retrasado, el incremento en el tamao de la
ventana es menor que la potencia de 2.
Despus de la ronda 3
Comienzo
Despus de la ronda 1
cwnd = 1
cwnd = 1 + 1 = 2
Despus de la ronda 2
cwnd = 2 + 1 = 3
Despus de la ronda 3
cwnd = 3 + 1 = 4
Si se han recibido tres ACK hay una probabilidad baja de que haya una congestin;
se puede haber perdido un segmento, pero algunos segmentos ya han llegado
puesto que se han recibido tres ACK. Esto se conoce como transmisin rpida y
recuperacin rpida. En este caso, TCP tiene una reaccin menos agresiva:
a. Fija el valor del umbral a la mitad del tamao de la ventana actual.
b. Fija el valor de cwnd al valor del umbral (algunas implementaciones suman tres
segmentos al umbral).
c. Comienza con la fase de evitacin de la congestin.
Una implementacin reacciona a la deteccin de la congestin con uno de los
siguientes modos:
Si la deteccin se debe al vencimiento de un temporizador, comienza de nuevo la
fase de comienzo lento.
Si la deteccin se debe a tres ACK, comienza una nueva fase de evitacin de la
congestin.
Frame Relay. Frame Relay no tiene control de flujo. Adems, Frame Relay permite al
usuario transmitir datos a rfagas. Esto significa que una red Frame Relay tiene una
posibilidad real de congestionarse, por lo que requiere control de congestin.
Evitacin de la congestin
Para evitar la congestin, Frame Relay utiliza dos bits de la trama para avisar de forma
explcita al origen y al destino de la presencia de congestin.
Notificacin de congestin explcita hacia atrs (BECN)
El bit de notificacin de congestin explcita hacia atrs (BECN) avisa al emisor de que
existe una situacin de congestin en la red. La pregunta inmediata es cmo se puede
hacer esto si las tramas parten del emisor. Existen dos mtodos: el conmutador puede
utilizar las tramas de respuesta del receptor (modo full-dplex) o sino, el conmutador
puede utilizar una conexin predefinida (DLCI=1023) para enviar tramas especiales para
este propsito especfico. El emisor puede responder a este aviso simplemente
reduciendo la velocidad de transmisin. La figura muestra el empleo del BECN.
AJUSTE DE TRFICO
El ajuste de trfico es un mecanismo para controlar la cantidad y tasa de trfico enviado
a la red. Existen dos tcnicas de ajuste de trfico: algoritmo del cubo de escape y
algoritmo del cubo con testigo.
Algoritmo del cubo con escape
Si un cubo tiene un pequeo agujero su parte inferior, el agua deja el cubo a una
velocidad constante mientras haya agua en el cubo. La velocidad con la que el agua
deja el cubo no depende de la velocidad con la que el agua se introduce en l. La
Cubo de testigos
El cubo con escape es muy restrictivo. No da crdito a una estacin inactiva. Por
ejemplo, si una estacin no enva datos durante un cierto tiempo, su cubo est vaco.
Ahora s la estacin tiene datos a rfagas, el cubo con escape slo permite una tasa
media. El tiempo en el que la estacin est inactiva no se tiene en cuenta. Por otro lado,
cubo de testigos, permite a la estacin inactivas acumular crdito para que el futuro en
forma de testigos. En cada pulso de reloj, el sistema enva n testigos al cubo. El sistema
elimina un testigo para cada celda (o byte) de datos enviados. Por ejemplo, si n es 100 y
la estacin est inactiva durante 100 pulsos de reloj, el cubo tendr 10.000 testigos.
Ahora la estacin puede consumir todos estos testigos en un pulso de reloj con 10.000
celdas o la estacin tarda 1000 pulsos con 10 celdas por pulsos. En otras palabras, la
estacin puede enviar datos a rfagas siempre que el cubo no est vaco. En la figura
siguiente se muestra la idea.
El cubo de testigos se puede implementar de forma sencilla con un contador. El testigo
se inicializa a cero. Cada vez que se aade un testigo se incremente el contador en uno.
Cada vez que se enva una unidad de datos, al contador se le resta 1. Cuando el
contador se hace cero, la estacin no puede enviar datos.
modelo tambin se puede utilizar en otros niveles de enlace de datos. En esta seccin se
tratan los servicios integrados y en la seccin siguiente se describen los servicios
diferenciados.
IP fue originalmente diseado con una entrega lo mejor posible. Esto significa que cada
usuario recibe al mismo nivel de servicio. Este tipo de entrega no garantiza el mnimo de
servicios, como ancho de banda, a las aplicaciones que transmite audio o vdeo en
tiempo real. Si una aplicacin que necesita de forma accidental un ancho de banda
extra, puede ir en detrimento de otras aplicaciones, dando lugar a situaciones de
congestin.
Los servicios integrados, conocidas tambin como IntServ, constituyen un modelo de
QoS basada en flujo, lo que significa que un usuario necesita crear un flujo, un tipo de
circuito virtual, desde el origen hasta el destino e informar a todos los routers de sus
requisitos de recursos.
Los servicios integrados constituyen un modelo de QoS basada en flujo diseado para
IP.
SEALIZACIN
El lector puede recordar que IP es un protocolo no orientado a conexin, basado en
datagramas que utiliza conmutacin de paquetes. Cmo se puede implementar un
modelo basado en flujo sobre un protocolo no orientado a conexin? La solucin es un
protocolo de sealizacin que ejecuta sobre IP que at ofrece el mecanismo de
sealizacin por hacer la reserva. Este protocolo se denomina Protocolo de reservas de
recursos (RVSP) y se describir en breve.
ESPECIFICACIN DEL FLUJO
Cuando un origen hace una reserva, necesita definir una especificacin de
flujo. Una especificacin de flujo tiene dos partes: Rspec (especificacin del recurso) y
Tspec (especificacin de trfico). Rspec define los recursos que necesita reservar el flujo
(bfer, ancho de banda, etc.) Tspec define las caractersticas del trfico del flujo.
ADMISIN
Cuando un router recibe la especificacin del flujo de una aplicacin, decide admitir o
denegar el servicio. La decisin se basa en los compromisos previos del router y la
disponibilidad actual de recursos.
CLASES DE SERVICIOS
Se han definido dos clases de servicios para los servicios integrados: servicios
garantizados y servicios controlados por la carga.
Clase de servicios garantizados
Este tipo de servicio est diseado para trfico de tiempo real que necesita un retardo
extremo a extremo mnimo garantizado. El retardo extremo a extremo es la suma de los
Mensajes path. Recuerde que los receptores en un flujo hacen la reserva en el protocolo
RVSP. Sin embargo, los receptores no saben el camino atravesado por los paquetes antes
de que se haga la reserva. Es necesario el camino para hacer la reserva. Para solucionar
este problema, el protocolo RVSP utiliza mensajes path. Un mensaje path viaja desde el
emisor y alcanza a todos los receptores en el camino multienvo. Un mensaje path,
almacena la informacin necesaria para los receptores. Un mensaje path se enva en un
entorno de envo multidestino; un nuevo mensaje se crea cuando el camino diverge. La
figura siguiente muestra mensajes de tipo path.
Mensajes resv. Una vez que el receptor ha recibido un mensaje path, enva un mensaje
resv. El mensaje Resv viaja hacia el emisor (en el flujo ascendente) y hace la reserva de
recursos en los routers que soportan RVSP. Si un router en el camino no soporta RVSP
encamina el paquete de acuerdo a los mtodos de mejor entrega posible. La figura
siguiente muestra los mensajes resv.
Mezcla de reservas
En el protocolo RVSP, los recursos no se reservan para cada receptor en un flujo; las
reservas se mezclan. En la figura siguiente, Rc3 solicita un ancho de banda de
2 Mbps mientras que Rc2 solicita un ancho de banda de 1 Mbps. El router R3, necesita
hacer una reserva de ancho de banda, mezcla las dos solicitudes. La reserva se hace
para 2 Mbps, mayor de los dos, debido a que una reserva de 2 Mbps puede tratar
ambas solicitudes. La misma situacin es cierta para R2. El lector puede preguntarse por
qu Rc2 y Rc3, ambos pertenecientes a un mismo flujo, los visitan diferentes cantidades
de ancho de banda. La respuesta de que, en un entorno multimedia, diferentes
receptores pueden tratar diferentes grados de calidad. Por ejemplo, Rc2 puede ser capaz
de recibir vdeo slo a 1 Mbps (baja calidad) mientras que Rc3 puede ser capaz de
recibir vdeo a 2 Mbps (mayor calidad).
Estilos de reserva
Cuando hay ms de un flujo, el router necesita hacer la reserva para acomodar todos
ellos. El protocolo RVSP define tres tipos de estilos de reserva.
1. Estilo de filtro will card. En este estilo, el router crea una nica reserva para todos los
emisores. La reserva se basa en la peticin mayor. Este tipo de estilo que se utiliza cuando
los flujos de diferentes emisores no ocurren al mismo tiempo.
2. Estilo de filtro fijo. En este estilo, el router crea una reserva distinta para cada flujo. Esto
significa que si hay n flujos, se hace n diferentes reservas. Este tipo de estilo se utiliza
cuando hay una alta probabilidad de que los flujos de diferentes emisores no ocurran al
mismo tiempo.
3. Estilo explcito compartido. En este estilo, el router crea una nica reserva que es
compartida por todos los flujos.
Estado de tipo soft
La informacin de reserva (estado) almacenada en cada nodo para un flujo necesita ser
refrescada peridicamente. Esto se conoce como un estado de tipo soft comparado con
un estado de tipo hard utilizado en otros protocolos basados en circuitos virtuales como
ATM o Frame Relay, donde la informacin sobre el flujo se mantiene hasta que se borra.
El intervalo por defecto es actualmente de 30 s.
PROBLEMAS CON LOS SERVICIOS INTEGRADOS
Hay al menos dos problemas con los servicios Integrados que pueden evitar su completa
implementacin en Internet: la escalabilidad y la limitacin del tipo de servicio.
Escalabilidad
El modelo de servicios integrados requiere que cada router mantenga informacin para
cada flujo. Como Internet est creciendo da a da, esto es un serio problema.
Limitacin del tipo de servicio
El modelo de servicios integrados proporciona slo dos tipos de servicios, garantizado y
controlado por la carga. Aquellos que se oponen a este modelo argumentan que las
aplicaciones pueden necesitar ms de estos dos tipos de servicios.
diferenciados
un
modelo
QoS
basada
en
clases
CAMPO DS
En DifServ, cada paquete contiene un campo denominado campo DS. El valor de este
campo es fijado en los extremos de la red por las estaciones o por el primer encaminador
designado como encaminador frontera. El IETF propone sustituir el campo TOS (tipo de
servicio) existente en IPv4 o el campo de clase IPv6 por el campo DS, como se muestra
en la figura siguiente.
AF PHB. Este funcionamiento (PHB de reenvo asegurado) entrega el paquete con una
alta seguridad siempre que el trfico no exceda el perfil de trfico del nodo. Los usuarios
de la red necesitan ser conscientes de que algunos paquetes pueden ser descartados.
Acondicionador de trfico
Para implementar DifServ, el nodo DS utiliza acondicionadores de trfico como
contadores, marcadores, adaptadores y descartadores, como se muestra en la figura
siguiente.
Velocidad de acceso
Para cada conexin se define una velocidad de acceso (en bits/segundo). La velocidad
de acceso realmente depende del ancho de banda del canal que conecta al usuario con
la red. El usuario no puede nunca exceder esta velocidad. Por ejemplo, si el usuario se
conecta a una red Frame Relay mediante una lnea T-1, la velocidad de acceso es de
1,544 Mbps y sta no se puede sobrepasar.
Tamao de la rfaga comprometido
Para
cada
conexin,
Frame
Relay
define
un tamao de rfaga
comprometido (Bc). Este es el nmero mximo de Bits durante un periodo
predefinido de tiempo que la red se compromete a transferir sin descartar ninguna
trama o activar el bit DE. Por ejemplo si se compromete un valor para Bc de
400 kbits durante un periodo de cuatro segundos, el usuario puede enviar hasta 400
kbits durante un u intervalo de cuatro segundos sin preocuparse de que se pierdan
tramas. Observe que no se trata de una velocidad definida para cada segundo. Es una
medida acumulativa. El usuario puede enviar 300 kbits durante el primer segundo,
ningn dato durante los dos siguientes segundos y finalmente 100 kbits durante el
cuarto segundo.
Velocidad de informacin comprometida
La velocidad de informacin comprometida (CIR) es similar al concepto de tamao de
rfaga comprometido excepto que define una velocidad media de bits por segundo. Si
el usuario mantiene esta velocidad, la red se compromete entregar la trama. Sin
embargo debido a que es una medida media, un usuario puede enviar en algunos
instantes datos a una velocidad mayor al CIR. Siempre que se cumpla la media para el
perodo pre definido, las tramas sern entregadas.
El nmero acumulativo de bits enviados durante el periodo predefinido no debera
exceder de Bc Observe que el CIR no es una medida independiente; se puede calcular
utilizando la siguiente frmula:
Clases
El foro ATM define cuatro clases de servicios: CBR, VBR, ABR y UBR.
CBR. La clase de tasa de bits constante (CBR) se ha diseado para los clientes que
necesitan servicios de vdeo y audio de tiempo real. El servicio es similar al ofrecido por
una lnea dedicada como la lnea T.
VBR. La clase de tasa de bits variable (VBR) se divide en dos subclases: tiempo real (VBRNRT). VBR-RT se dise para los usuarios que necesitan servicio de tiempo real (como
transmisin de audio y vdeo) y utilizan tcnicas de compresin para crear una tasa de
bits variable. VBR-NRT se dise para aquellos usuarios que no necesitan servicios de
tiempo real de utilizan tcnica de compresin para crear una tasa de bits variable.
ABR. La clase de tasa de bits disponible (ABR) entrega las celdas a la mnima tasa. Si hay
ms capacidad de red, la tasa mnima puede incrementarse. ABR es particularmente
adecuado para aplicaciones que utilizan por su naturaleza rfagas.
UBR. La clase de tasa de bits no especificada (UBR) es un servicio de mejor entrega
posible que no garantiza nada.
La figura 31 muestra la relacin entre las diferentes clases y la capacidad total de la red.
ATRIBUTOS RELACIONADOS CON EL USUARIO
ATM define dos conjuntos de atributos. Los atributos relacionados con el usuario son
aquellos que definen la velocidad con la que el usuario quiere enviar los
datos. Estos atributos se negocian cuando se realiza el contrato entre un usuario y una
red. A continuacin se describen algunos atributos relacionados con el usuario.
SCR. La tasa de celdas sostenida (SCR) es la tasa de celdas media en un intervalo de
tiempo largo. La tasa de celdas real puede ser mayor o menor, pero la media debera ser
igual o menor que la SCR.
PCR. La tasa de celdas pico (PCR) define la mxima tasa de celdas del emisor. La tasa de
celdas del usuario puede en algunas ocasiones alcanzar este pico, mientras que se
mantenga la SCR
MCR. La tasa de celdas mnima (MCR) define la tasa de celdas mnima aceptable para el
emisor. Por ejemplo, si la MCR 50.000, la red debe garantizar que el emisor puede enviar
al menos 50.000 celdas por segundo.
CVDT. La tolerancia en el retardo a la variacin de celdas (CVDT) es una medida de la
variacin en los instantes de transmisin de celdas. Por ejemplo, si la CVDT es de 5 ns,
entonces la diferencia entre los retardos mnimos y mximos en la entrega de celdas no
debera exceder los 5 ns.
Las direcciones IPv6, de 128 bits de longitud, se escriben como ocho grupos de cuatro
dgitos hexadecimales. Por ejemplo,
2001:0db8:85a3:08d3:1319:8a2e:0370:7334
es una direccin IPv6 vlida.
Se puede comprimir un grupo de cuatro dgitos si ste es nulo (es decir, toma el valor
"0000"). Por ejemplo,
2001:0db8:85a3:0000:1319:8a2e:0370:7344
---2001:0db8:85a3::1319:8a2e:0370:7344
Siguiendo esta regla, si ms de dos grupos consecutivos son nulos, tambin pueden
comprimirse como "::". Si la direccin tiene ms de una serie de grupos nulos
consecutivos la compresin slo se permite en uno de ellos. As, las siguientes son
representaciones posibles de una misma direccin:
2001:0DB8:0000:0000:0000:0000:1428:57ab
2001:0DB8:0000:0000:0000::1428:57ab
2001:0DB8:0:0:0:0:1428:57ab
2001:0DB8:0::0:1428:57ab
2001:0DB8::1428:57ab
Son todas vlidas y significan lo mismo, pero
2001::25de::cade
-- -No es vlida porque no queda claro cuntos grupos nulos hay en cada lado.
Los ceros iniciales en un grupo tambin se pueden omitir:
2001:0DB8:02de::0e13
2001:DB8:2de::e13
Si la direccin es una direccin IPv4 empotrada, los ltimos 32 bits pueden escribirse en
base decimal, as:
::ffff:192.168.89.9
::ffff:c0a8:5909
No se debe confundir con:
::192.168.89.9
::c0a8:5909
El formato ::ffff:1.2.3.4 se denomina direccin IPv4 mapeada, y el formato ::1.2.3.4
direccin IPv4 compatible.
Las direcciones IPv4 pueden ser transformadas fcilmente al formato IPv6. Por ejemplo, si
la direccin decimal IPv4 es 135.75.43.52 (en hexadecimal, 0x874B2B34), puede ser
convertida a 0000:0000:0000:0000:0000:0000:874B:2B34 o ::874B:2B34. Entonces, uno
puede usar la notacin mixta direccin IPv4 compatible, en cuyo caso la direccin
debera ser ::135.75.43.52. Este tipo de direccin IPv4 compatible casi no est siendo
utilizada en la prctica, aunque los estndares no la han declarado obsoleta.
Los tipos de direcciones IPv6 pueden identificarse tomando en cuenta los primeros bits
de cada direccin.
::
La direccin con todo ceros se utiliza para indicar la ausencia de direccin, y no
se asigna ningn nodo.
::1
La direccin de loopback es una direccin que puede usar un nodo para
enviarse paquetes a s mismo (corresponde con 127.0.0.1 de IPv4). No puede
asignarse a ninguna interfaz fsica.
::1.2.3.4
La direccin IPv4 compatible se usa como un mecanismo de transicin en las
redes duales IPv4/IPv6. Es un mecanismo que no se usa.
::ffff:0:0
La direccin IPv4 mapeada se usa como mecanismo de transicin en terminales
duales.
fe80::
El prefijo de enlace local (en ingls link local) especfica que la direccin slo es
vlida en el enlace fsico local.
fec0::
El prefijo de emplazamiento local (en ingls site-local prefix) especfica que la
direccin slo es vlida dentro de una organizacin local. La RFC 3879 lo declar
obsoleto, estableciendo que los sistemas futuros no deben implementar ningn
soporte para este tipo de direccin especial. Se deben sustituir por direcciones
Local IPv6 Unicast.
ff00::
El prefijo de multicast. Se usa para las direcciones multicast.
Hay que resaltar que no existen las direcciones de difusin (en ingls broadcast) en IPv6,
aunque la funcionalidad que prestan puede emularse utilizando la direccin multicast
FF01::1, denominada todos los nodos (en ingls all nodes)
LECCION 2: RSVP
Una de las tareas primordiales, quizs la ms importante, de una interred, es llevar los
datos desde una fuente hasta su destino o destinos, con la calidad de servicio deseada
(rendimiento, retardo, variabilidad de retardo, etc). Esta tarea se vuelve cada vez ms
complicada en cualquier interred que vea incrementarse el nmero de usuarios, la
velocidad de transmisin de los datos de las aplicaciones y el empleo de la multidifusin.
Ya hemos visto que una herramienta para hacer frente a esta fuerte demanda es el
encaminamiento dinmico. Un esquema de encaminamiento dinmico, contemplado
por protocolos OSPF y BGP, puede responder con rapidez a fallos en la interred,
esquivando los puntos en donde se produzcan estos fallos. Ms importante an, un
esquema de encaminamiento dinmico puede, hasta cierto punto, hacer frente a la
congestin, en primer lugar equilibrando las cargas para suavizar la carga total de la
interred, y en segundo lugar, encaminando el trfico de manera que esquive las reas
en las que se est desarrollando congestin, empleando para ello el encaminamiento de
menor coste para la interred. En el caso de la multidifusin, los esquemas de
encaminamiento para multidifusin (de una misma fuente a mltiples destinos), que
aprovechan las rutas compartidas para minimizar el nmero de paquetes duplicados.
Otra herramienta disponible para los encaminadores es la posibilidad de procesar los
paquetes asignndoles un etiquetado referente a la calidad de servicio. Ya hemos visto
que los encaminadores pueden: (1) utilizar una disciplina de colas que d preferencias a
los paquetes segn la QoS establecida;(2)seleccionar una entre las diferentes rutas
alternativas, segn sean las caractersticas de QoS de cada ruta;y (3) cuando sea posible,
invocar un tratamiento QoS en la subred del siguiente salto.
Todas estas tcnicas son medios de hacer frente al trfico que se presenta en una
interred,
pero
no
suponen
medidas
preventivas
en
modo
alguno. Basndose nicamente en la utilizacin del encaminamiento dinmico y en la
QoS, un encaminador no puede anticipar la congestin y evitar que las aplicaciones
originen una sobrecarga. En su lugar, el encaminador puede nicamente proporcionar
un servicio de entrega de best-effort (de mayor esfuerzo), segn el cual algunos
paquetes pueden perderse y otros entregarse con una QoS menor de la solicitada.
Segn aumenta la demanda en una interred, parece que la prevencin, as como una
capacidad de reaccin ante la congestin, son muy necesarias. Como muestra el ttulo
de esta seccin, una forma de implementar una estrategia de prevencin es la reserva
de recursos.
La reserva de recursos en Internet difiere del tipo de reserva de recursos que puede
ser implementado en una red orientada a conexin, como una ATM o Frame Relay.
Un mecanismo de reserva de recursos en una interred debe actuar de manera
conjunta con una estrategia de encaminamiento dinmica, que permita que la ruta
seguida por los paquetes, en una determinada transmisin vare. Cuando la ruta
cambia, las reservas de recursos deben ser modificadas. Para manejar esta situacin
dinmica, se utiliza el concepto de estado no permanente. Un estado no
permanente. Un estado no permanente es simplemente un conjunto de informacin
de estado en un encaminador, que expira, a menos que sea generada de manera
regular por la entidad que solicit el estado. Si la ruta de una determinada
transmisin vara, entonces algunos de los estados no permanentes expirarn y las
pueden resultar inadecuados en una red muy sobrecargada. En cambio, una red
orientada a conexin, como ya hemos visto, cuenta con unas capacidades QoS y de
gestin del trfico muy potente. MPLS impone un marco orientado a conexin a una
interred IP y, por tanto, proporciona el fundamento de unos contratos de trfico con una
QoS sofisticada y fiable.
Ingeniera de trfico. MPLS facilita conjugar los recursos de la red, para equilibrar el trfico
ante una determinada demanda y conjugar los diferentes niveles de soporte para
satisfacer
los
diversos
requisitos
de
trfico
del
usuario. La capacidad de definir rutas dinmicamente, planificar entregas de trfico
segn la demanda conocida y optimizar la utilizacin de la red es lo que se conoce
como ingeniera de trfico.
Dentro del mecanismo bsico de IP, hay una forma primitiva de ingeniera de trfico
automatizada. Concretamente, los protocolos de encaminamiento, como OSPF,
permiten a los encaminadores modificar la ruta dinmicamente, basndose en una
planificacin paquete a paquete, para intentar equilibrar el trfico.
Pero tal
encaminamiento dinmico reacciona de una manera muy simple ante la congestin y
no
proporciona
manera
alguna
de
soporte
a
la
QoS. Todo el trfico que circula entre dos extremos sigue una misma ruta, que puede
modificarse si se produce congestin. MPLS, por otra parte, conoce no slo los paquetes
individuales, sino tambin los flujos de paquetes en los que cada flujo tiene ciertos
requisitos QoS, as como una demanda de trfico predecible. Con MPLS es posible
establecer rutas en base a estos flujos individuales, an en el caso de flujos diferentes
entre unos mismos extremos finales que quiz sigan encaminadores distintos. Adems,
cuando la congestin amenaza, las rutas MPLS pueden reencaminarse de manera
inteligente, es decir, en lugar de cambiar simple y llanamente la ruta, paquete a paquete,
con MPLS, las rutas se modifican segn un esquema flujo a flujo, aprovechando las
demandas de trfico conocidas de cada flujo. Un uso eficaz de la ingeniera de trfico
puede incrementar de manera sustancial la capacidad disponible de la red.
para
Redes
Privadas
Virtuales
o
VPN
(Virtual Private
Networks). MPLS proporciona un importante mecanismo de soporte para las redes
Soporte
privadas virtuales. En una VPN, el trfico de una determinada empresa o grupo circula
de modo transparente a travs de la interred, de manera que se distinga eficazmente de
otros tipos de paquetes de la interred, garantizando el rendimiento y la seguridad.
Soporte multiprotocolo. MPLS puede emplearse con diversas tecnologas de redes. En la
parte VI nos centrbamos en las interredes IP y ste parece ser el rea principal de
utilizacin. MPLS supone una mejora del funcionamiento de una red IP no orientada a
conexin, siendo necesaria una actualizacin a los encaminadores IP para poder dar
soporte a las caractersticas de MPLS. Los encaminadores activados por MPLS pueden
coexistir con los encaminadores IP habituales, facilitando la introduccin de una posible
evolucin a los esquemas MPLS. MPLS tambin ha sido diseado para operar en redes
ATM y Frame Relay. De nuevo, los conmutadores ATM con soporte para MPLS y los
conmutadores Frame Relay con soporte para MPLS pueden ser configurados para que
coexistan con los conmutadores habituales. Adems, MPLS puede utilizarse en una red
totalmente IP, totalmente ATM para que coexistan con los conmutadores habituales.
Adems, MPLS puede utilizarse en una red totalmente IP, totalmente ATM, totalmente
Frame Relay, o una interred que incluya dos o incluso las tres tecnologas. Esta
naturaleza universal de MPLS podra resultar atractiva para usuarios que ya han
mezclado varias tecnologas y que buscan maneras de optimizar recursos y ampliar el
soporte QoS.
Por lo que respecta al resto del presente tema, nos centraremos en la utilizacin de MPLS
en redes IP, con algunos comentarios breves acerca de cuestiones de formato para redes
ATM y Frame Relay. La Tabla 18.2. define los trminos clave de MPLS empleados en
nuestro estudio.
Tabla 2. Terminologa de MPLS
Clase de equivalencia de renvo (FEC). Punto de mezcla. Nodo en el que se
Grupo de paquetes IP que se reenvan realiza la mezcla de etiquetas.
de la misma forma (por ejemplo, por la Dominio MPLS. Conjunto de nodos
misma ruta, con el mismo tratamiento de contiguos
que
operan
con
reenvo).
encaminamiento y reenvo MPLS y que
Mezcla de tramas. Mezclado de se encuentran tambin en un dominio
etiquetas, cuando se aplica a la de encaminamiento o administrativo.
operacin con medios basados en Nodo frontera MPLS. Nodo MPLS que
tramas, de modo que el problema conecta un dominio MPLS con un nodo
potencial del intercalado de clulas deja que est fuera del dominio, bien porque
de serlo.
no funciona con MPLS, y/o porque se
Etiqueta. Identificador corto, de longitud encuentra en otro dominio. Observe que
fija, y fsicamente contiguo, que se usa si un LSR tiene un sistema vecino que no
para identificar una FEC normalmente de est ejecutando MPLS, entonces dicho
significacin local.
LSR es un nodo frontera MPLS.
Mezcla de etiquetas. Sustitucin de Nodo de egresin MPLS. Nodo frontera
mltiples etiquetas entrantes de una FEC MPLS cuyo rol es la gestin del trfico
concreta por una nica etiqueta saliente. que abandona el dominio MPLS.
Intercambio de etiquetas. Operacin Nodo de ingreso MPLS. Nodo frontera
bsica de reenvo, consistente en MPLS cuyo rol es la gestin de trfico
examinar una etiqueta entrante para que entra en un dominio MPLS.
determinar la etiqueta saliente, el Etiqueta MPLS. Identificador corto, de
encapsulado, el puerto, y otra longitud fija, y fsicamente contiguo, que
informacin de gestin de datos.
se usa para identificar una FEC,
Salto conmutado por etiqueta. Salto normalmente de significacin local. Se
entre dos nodos MPLS, en los que se transporta una etiqueta en la cabecera
realiza el reenvo mediante el uso de del paquete.
etiquetas.
Nodo MPLS. Nodo en el que funciona
Ruta conmutada por etiqueta. Ruta a MPLS. Un nodo MPLS ser consciente del
travs de uno o ms LSR de un nivel de uso de protocolos de control de MPLS,
la jerarqua, seguida por los paquetes de ejecutar uno o ms protocolos de
una FEC en particular.
encaminamiento a nivel 3 y ser capaz
Encaminador de conmutacin de de reenviar paquetes segn sus
etiquetas
etiquetas. Un nodo MPLS puede,
(LSR). Nodo MPLS que es capaz de opcionalmente, ser tambin capaz de
reenviar paquetes nativos de nivel 3.
reenviar paquetes nativos de nivel 3.
Pila de etiquetas. Conjunto ordenado de
etiquetas.
FUNCIONAMIENTO DE MPLS
Una red o interred MPLS se compone de un conjunto de nodos, denominados
encaminadores de conmutacin de etiquetas o LSR (label switched routers), capaces de
conmutar y encaminar paquetes segn cual sea la etiqueta que se haya asignado a cada
paquete. Las etiquetas definen un flujo de paquetes entre dos extremos o, en el caso de
la multidifusin, entre un extremo fuente y un grupo destino. Para cada flujo distinto se
define un camino especfico a travs de la red de LSR, llamado clase de equivalencia de
reenvo o FEC (forwarding equivalence class). As pues, MPLS es una tecnologa
orientada a conexin. Asociada a cada FEC tenemos una caracterizacin del trfico que
define los requisitos QoS de ese flujo. Los LSR no necesitan examinar o procesar la
cabecera IP, sino ms bien enviar simplemente cada paquete basndose en el valor de
su etiqueta. Por tanto, el proceso de envo es ms simple que con un encaminador IP.
La Figura 18.5., basada en lo que aparece en REDF00, describe el funcionamiento de
MPLS dentro de un dominio de encaminadores MPLS. A continuacin, vemos los
elementos clave del funcionamiento:
1. Antes del encaminamiento y la entrega de paquetes en una determinada FEC, hay
que definir una ruta en la red, conocida como ruta conmutada de etiquetas o LSP
(label switched path) y hay que establecer los parmetros QoS a lo largo de dicha
ruta. Los parmetros QoS determinan: 1. Cuntos recursos asignar a la ruta, y 2.
Que poltica de colas y de descarte de paquetes establecer en cada LSR para los
paquetes de esta FEC. Para acometer dichas tareas, se emplean dos encaminadores
que realizarn el intercambio de informacin necesaria entre encaminadores:
a. Un protocolo de encaminamiento interior, como OSPF, que se emplea para
intercambiar informacin de encaminamiento y alcance.
b. Las etiquetas deben ser asignadas a los paquetes para una FEC en particular.
Como la utilizacin de etiquetas nicas y globales impondra una carga aadida a
la gestin de paquetes y limitara el nmero de etiquetas de que se podra
disponer, las etiquetas son de uso local nicamente, como ya se ver ms
adelante. Un operador de red puede especificar manualmente las rutas explcitas
y asignar los valores oportunos de las etiquetas. Tambin se puede emplear un
protocolo alternativo para determinar el camino o ruta y establecer los valores de
etiquetado entre los LSR adyacentes. Cualquiera de estos dos protocolos puede
ser utilizado con esta finalidad: el protocolo de distribucin de etiquetas o LDP
(Label Distribution Protocol) o una versin mejorada de RSVP.
2. Un paquete entra en un dominio MPLS a travs de un LSR de ingreso, donde es
procesado para determinar qu servicios requiere a nivel de red, definiendo su QoS.
El LSR asigna este paquete a una FEC en particular y, por tanto, a una LSP en
particular; asigna la etiqueta adecuada al paquete y lo reenva. Si no existe todava
una LSP para esta FEC, el LSR debe cooperar con los otros LSR en la definicin de una
nueva LSP.
3. Dentro del dominio MPLS, conforme cada LSR recibe un paquete etiquetado, ste:
a. Retira la etiqueta entrante y asocia al paquete la etiqueta de salida apropiada.
b. Reenva el paquete al siguiente LSR a lo largo de la ruta LSP.
4. El nodo de egresin LSR extrae la etiqueta, la etiqueta de paquete IP y enva el
paquete a su destino final.
Nombre de la Unidad
Introduccin
Justificacin
Intencionalidades
Formativas
UNIDAD 3
REDES DE TRANSPORTE OPTICO Y ACCESO
En esta unidad se describe las redes SDH, DWDM y sus
elementos, tambin las principales redes de acceso fijas.
La explosin de la banda ancha en nuestros das ha obligado
a las operadoras de telecomunicaciones a incrementar el
tamao y alcance de sus redes de transporte para poder
soportar todo el trfico generado en la red de acceso de sus
clientes residenciales y empresariales. La demanda de
capacidad de transporte es cada vez mayor, debido a la
introduccin y proliferacin de servicios y aplicaciones con
gran consumo de ancho de banda (Internet de banda ancha,
vdeo bajo demanda, redes de almacenamiento, etc.), a partir
de tecnologas en la red de acceso como: ADSL, HFC, FTTx,
PLC, etc. En la actualidad, solo la tecnologa de fibra y en
concreto la basada en sistemas de transmisin de canales por
multiplexacion densa de longitud de onda (DWDM) puede
hacer frente a este incremento en la demanda.
PROPSITOS
OBJETIVOS
Describir el funcionamiento de una red SDH mediante
el estudio de los componentes y sus interconexiones.
Describir el funcionamiento de una red DWDM
mediante el estudio de los componentes y sus
interconexiones.
Examinar el acceso a la redes de alta velocidad que es
la ms prxima al usuario final y proporciona conexin
entre estos y la red de transporte.
COMPETENCIAS
y sus
y sus
METAS
Al finalizar el curso:
Denominacin de
captulos
INTRODUCCIN
La Jerarqua Digital Sncrona o SDH (Synchronous Digital Hierarchy) constituye el primer
esfuerzo serio por estandarizar las comunicaciones de voz de forma que se eliminaran
los inconvenientes presentados por PDH. El desarrollo se inici en principio en Estados
Unidos por la ANSI con el estndar SONET (Synchronous Optical Network) seguido
posteriormente por el SDH, desarrollado por ETSI (European Telecommunication
Standarization Institute) y la ITU (International Telecommunication Union) y que se ha
implementado en Europa y Japn. Posteriormente ambos estandartes (SDH y SONET)
se han compatibilizado.
Algunos de los principales inconvenientes que presenta PDH, a los que haremos
referencia son superados por SDH, como son el acceso en SDH a todos los tributarios de
baja velocidad, directamente en una seal agregada de mayor capacidad, sea cual sea
sta, y el hecho de que la multiplexacin es directa, puesto que no hay bits de relleno.
Estas dos propiedades son posibles ya que a principios de los 90 comenz a ser
tecnolgica y econmicamente viable tener sincronizados una serie de nodos de una
red relativamente extensa.
Por otro lado, las estructuras de multiplexacin son altamente recurrentes. Esto quiere
decir que, por ejemplo, una seal de mayor velocidad tiene una forma similar a una
menor, es decir, las mismas partes, aunque sean de tamao diferente. Podremos
comprobar esta propiedad un poco ms adelante, cuando analicemos el proceso de
multiplexacin de SDH.
En cuanto a la capacidad de operacin, gestin y administracin de red (OAM), SDH
incluye informacin extra que viaja con los canales tributarios a travs de toda la red.
La flexibilidad que introduce el sincronismo, as como la sencillez que aporta la estructura
recurrente de multiplexacin, permite adems que aparte de voz, puedan transmitirse
datos empleando SDH.
LECCION 1 PDH
La jerarqua digital plesicrona o PDH surge a finales de la dcada de los 60 del siglo XX.
Hasta dicho momento la transmisin telefnica era de naturaleza analgica y es
entonces cuando comienzan los primeros esfuerzos para digitalizar el canal de voz de 4
KHz que cristalizan en la aparicin de PDH como una tecnologa capaz de transmitir de
forma simultnea mltiples canales telefnicos digitales.
Como es bien sabido, la digitalizacin de un canal telefnico de 4KHz mediante muestras
de 8 bits requiere una velocidad de trasmisin de 64 Kb/s que constituye la unidad
bsica de PDH. La transmisin multicanal se consigue agregando canales digitales o
tributarios en grupos (tributarios de orden superior) y dichos grupos a su vez en otros
mayores (ordenacin jerrquica), empleando multiplexacin por divisin de tiempo
(TDM) por lo que cada vez se requiere una mayor velocidad binaria. se muestra
mediante una tabla las diversas jerarquas de PDH tal y como han evolucionado en las
tres regiones principales del mundo; Europa, Amrica y Japn. Puede observarse como
en todos los casos la unidad bsica o nivel 0 de la jerarqua es el canal de 64 Kb/s y
como a partir de ste se constituyen agregados (jerarquas superiores). La forma de
agregar sin embargo difiere en las diversas regiones, ya que PDH nunca ha llegado a
estar estandarizada de forma global.
Norteamrica
Europa/Colombia
Japn
Niv
el Circuit Kbit/s Denominac Circuit Kbit/s Denominac Circuit Kbit/s Denominac
os
in
os
in
os
in
1
2
24
96
1,544 (T1)
6,312 (T2)
30
120
2,048 (E1)
8,448 (E2)
24
96
1,544 (J1)
6,312 (J2)
672
44,73
(T3)
6
480
34,36
(E3)
8
480
32,06
(J3)
4
274,1
139,2
97,72
(T4)
1920
(E4)
1440
(J4)
76
64
8
Los flujos de datos que llegan a los multiplexores se les suele llamar como tributarios,
afluentes o cargas del mltiplex de orden superior.
4
4032
En la capa de circuito tenemos por ejemplo, los servicios que se pueden proporcionar
hoy en da a travs de SDH como conexiones extremo a extremo. Estos pueden ser por
ejemplo la telefona bsica, acceso a Internet, servicio ATM, e incluso transporte de otras
capas clientes de SDH.
La capa de trayecto de SDH se divide en dos subcapas. Esta divisin est relacionada
con la operacin de agregacin o multiplexacin de flujos de informacin que se van a
transportar y ser objeto de comentario en breve. Finalmente, la capa de transmisin
hace referencia a los medios fsicos de transmisin que pueden ser cable o radio.
Pasamos a continuacin a estudiar con un poco ms de detenimiento las estructuras
correspondientes a las capas de trayecto y de transmisin. La capa de trayecto SDH se
subdivide en dos subcapas que hacen referencia a los denominados trayectos de orden
inferior (LOP, low order path) y los de orden superior (HOP, high order path),
respectivamente. En el primer caso se trata de trayectos correspondientes a seales de
baja velocidad que deben ser agrupados o multiplexados en seales de alta velocidad
(pero todava no de formato SDH) para constituir un trayecto de orden superior que ya
puede introducirse o multiplexarse en una trama de tipo SDH antes de acceder a la capa
de transmisin. Este proceso es bastante complejo, pero tendremos oportunidad de
analizarlo con un poco ms de detenimiento ms adelante. Es posible tambin, si la
aplicacin a la que da soporte el circuito es de suficiente velocidad (como para poder
incorporarse o multiplexarse directamente a la carga de una trama SDH) el acceder
directamente desde la capa de circuito a la capa de trayecto de orden superior.
Por debajo, en la capa de transmisin, existe otra subdivisin. En concreto, sta se divide
en los medios fsicos en s, abajo del todo, y en la capa de seccin, que se subdivide a su
vez en seccin de multiplexacin y seccin entre regeneradores. Para comprender el
cometido de cada una de estas subcapas vamos a elaborar un ejemplo ilustrativo que
muestras los distintos segmentos de red que atraviesa un circuito SDH.
La figura muestra los distintos segmentos de red que atraviesan los circuitos, nuestros
circuitos, para llegar desde el nodo origen al nodo destino de la red SDH. La estructura
de segmentos es ms o menos simtrica, y por ello se muestras un eje de simetra.
Los circuitos, contenidos en caminos de orden bajo y/o alto, llegan al multiplexor, que se
encarga de juntar varios de estos caminos para su transmisin a travs de la lnea. La
seccin de multiplexacin es aquella contenida entre multiplexores. Esta seccin puede
contener a su vez regeneradores que corrijan o arreglen las imperfecciones que pueda
haber sufrido la seal al propagarse. La parte de red contenida entre dos
regeneradores o entre un multiplexor y un regenerador se denomina seccin de
regeneracin. Como puede observarse, una seccin de multiplexacin puede
comprender una o ms secciones de regeneracin. El motivo de estructurar las capas
en diversas secciones se explicar y justificar ms adelante.
LECCION 3 Multiplexacin SDH
La figura muestra la configuracin de la trama elemental de SDH denominada STM-1
(Synchronous Transport Mode1). Como se puede observar est constituida por 270
columnas y 9 filas de bytes. Esta estructura de trama se repite cada 125 seg, por lo que
corresponde a una velocidad de transmisin bsica de 155.52Mb/s. Los bytes de la
trama se transmiten en el tiempo de izquierda a derecha y de arriba abajo.
La trama se divide en dos partes, la primera constituida por las 9 primeras columnas se
conoce como cabecera y transporta la informacin diversa, necesaria para administrar la
red, corregir errores, sincronizar y para acceder al contenido de la informacin real
transportada por la trama que se encuentra en la parte de la carga de la trama
constituida por las 261 columnas siguientes.
La cabecera est dividida en tres partes. La primera que comprende las tres primeras filas
se denomina RSOH (Regenerator Section Overhead), la segunda compuesta por la fila
4 est destinada a los punteros, cuya funcin se explicara a continuacin y la tercera
constituida por las filas 5 a 9 es la denominada MSOH ( Multiplexing SEction Overhead).
Los overheads (o taras) son bytes de informacin que se aaden a la carga con el fin
de monitorizarla para la deteccin de errores. Incluyen adems capacidad extra para
sealizacin entre elementos de la seccin, para envo de seales de alarma,
sincronizacin, etc. Estas tareas pueden realizarse tanto entre regeneradores, mediante
la RSOH, como entre multiplexores, mediante la MSOH.
Una de las particularidades de SDH es que la carga no tiene por qu comenzar
sncronamente con el principio de la zona de carga de la trama, sino que puede
comenzar en cualquier punto de esta, desbordndose si es preciso a la zona de carga de
la trama o tramas siguientes. Tal y como indica la figura, los punteros sirven para indicar
en qu lugar de la zona de carga comienza la informacin. La ventaja fundamental de
este mecanismo estriba en la reduccin en el nmero de buffers en los nodos, y por lo
tanto, del tiempo de espera que sufre una seal antes de que sea transportada. La
informacin que se entrega en la zona de carga se encapsula previamente, como
veremos ms adelante en estructuras conocidas como Contenedores Virtuales (VC). En
Velocidad binaria
Equivalencia SDH
(Mbps)
STS-1
STS-3
STS-9
OC-1
OC-3
OC-9
51,84
155,52
466,56
STM-0
STM-1
-
STS-12
STS-18
OC-12
OC-18
622,08
933,12
STM-4
-
STS-24
STS-36
OC-24
OC-36
1.244,16
1.866,24
STS-48
OC-48
2.488,32
STM-16
STS-96
OC-96
4.976,64
STS-192
STS-256
STS-384
OC-192
OC-256
OC-384
9.953,28
13.271,04
19.906,56
STM-64
-
STS-768
STS-1536
OC-768
OC-1536
39.813,12
79.626,24
STM-256
-
STS-3072
OC-3072
159.252,48
SONET/SDH
SONET
Optical
Carrier Level
SONET
Formato
trama
OC-1
STS-1
STM-0
50.112
51.840
OC-3
STS-3
STM-1
150.336
155.520
OC-12
STS-12
STM-4
601.344
622.080
de
OC-24
STS-24
1.202.688
1.244.160
OC-48
STS-48
STM-16
2.405.376
2.488.320
OC-192
STS-192
STM-64
9.621.504
9.953.280
OC-768
STS-768
STM-256
38.486.016
39.813.120
OC-3072
STS-3072
STM-1024
153.944.064
159.252.480
Se multiplexan tanto las cabeceras como la carga, por columnas en todos los casos. Ello
implica que cada STM-1 conserva sus punteros, por lo que la carga de cada uno de ellos
flota independientemente. Hay que resaltar tambin que toda la estructura se repite otra
vez cada 125 microsegundos, por lo que al haber ms bytes (bits) la velocidad de
transmisin en lnea ser mayor. As pues una trama STM-1 se obtiene al entrelazar N
tramas STM-1. Sin embargo, el valor de N no puede ser cualquier sino que el estndar
fija unos valores predeterminados. En la tabla vemos las combinaciones posibles, tanto
para SDH, como para SONET en los EEUU. Las siglas STS significan Synchronous
Transfer Signal, mientras que los STM corresponden a Synchronous Transfer Mode.
Algunas de las velocidades de SONET no se recogen en SDH, por lo que estn abocadas
a desaparecer o ser de uso exclusivo en USA. Tambin se puede encontrar para SONET,
las siglas OC, de Optical Carrier, en vez de STS. La diferencia principal estriba en que la
especificacin STS hace referencia a la seal en el dominio elctrico, mientras que a OC
se refiere a la seal SONET en el dominio ptico. En SDH no existe esta distincin.
Como se ha mencionado anteriormente, existe una compatibilidad entre SDH y SONET
ya que la seal STS-3 de SONET corresponde a la STM-1 de SDH. A partir de ah las
seales mltiplos de ellas estn relacionadas. Por ejemplo, OC-3 correspondera a STM-1,
OC-12 a STM-4, OC-48, a STM-16 y OC-192 a STM-48.
Proceso de encapsulamiento y multiplexacin en SDH
En el apartado anterior nos hemos ocupado de describir la estructura de la trama bsica
de SDH as como la forma de construir a partir de ella tramas de mayor velocidad o
jerarqua, incluyendo el proceso en el que se incorpora la informacin que hay que
transmitir a la zona de carga de la trama. Precisamente el proceso en el que se prepara
la informacin para su incorporacin en la zona de carga es el objeto de la presente
seccin. Este proceso tiene como origen el circuito o canal que se desea transmitir y
como resultado la incorporacin de ste junto con otros circuitos a una serie de
estructuras conocidas como contenedores virtuales (VC) que son las aptas para ser
introducidas en la zona de carga de la trama SDH.
Las formas de encapsulamiento de circuito para obtener contenedores virtuales son muy
diversas y en la parte superior de la figura se muestra un rbol con las diversas
alternativas de empleo ms frecuente. En el centro, se ilustra una barra en la que se
muestra a qu capa de la red pertenecen los elementos que hay en la parte superior de
la figura.
de las funciones bsicas, aunque la mayora de las veces los nodos de equipos
comerciales realizan varias de esta funciones.
La primera y ms sencilla es la de Terminal Multiplexer, TM, o Equipo terminal de lnea y
combinacin lineal que es aquel elemento que se emplea en un enlace punto a punto.
Tambin se les denomina Line Terminating Equipment, LTE, por estar situados al final de
un enlace.
Si en algn punto de ese enlace lineal queremos extraer o agregar algn tributario al
flujo, hemos de situar para ello un nodo que de insercin/extraccin, denominado Add
/ Drop Multiplexer (ADM), o Insertor/extractor de canales. Tendremos entonces una
configuracin denominada combinacin lineal. Los ADM poseen dos tipos de
interfaces: Los troncales (trunk) se emplean para interconectar con multiplexores (MUX)
y otros ADMs. Los tributarios (tributary) se emplean para conectar equipos de clientes,
TM, routers IP, conmutadores ATM, y otro tipo de equipos de otras capas cliente de la
SDH a los ADM.
Una configuracin muy tpica en redes de fibra ptica SDH, es la de anillo, puesto que su
topologa fsica la hace robusta frente a cortes de los enlaces. En caso de emplear esta
topologa, los ADM incorporan funcionalidad extra para proteccin ante fallos. La
configuracin en anillo se puede emplear tanto en redes de acceso y metropolitanas, as
como en el ncleo de la red.
Hay dos tipos de anillos bsicamente, el unidireccional, ms usado en las redes de
acceso, donde suele existir un nodo que acta como hub o concentrador del trfico que
proviene o tiene como destino el resto, y el bidireccional de 2 4 fibras, que se emplea
ms en el ncleo de la red, donde las velocidades son mayores y los nodos suelen ser de
igual entidad jerrquica.
Para interconectar anillos, ya sean de acceso, en el ncleo o una combinacin de
ambos, se utilizan los DXC, siglas de Digital Cross Connect (DCS en Estados Unidos) o
Centrales de Conmutacin Digitales en las centrales, COs de Central Office. Su funcin
es interconectar flujos, y el control se realiza mediante software. Adems, pueden
monitorizar el trfico que los atraviesa. Como se ha mencionado..?
Funciones. Los DXC pueden tener capacidad tambin de multiplexar y demultiplexar
tributarios en los agregados que interconectan. Inicialmente los DCS slo podan
conmutar canales de tipo PDH, hoy en da pueden conmutar canales completos de
SDH.
Los centrales DCS pueden tener cientos y hasta miles de puertos de entrada/salida. La
operacin principal que realiza un DCS se denomina grooming y se trata del
agrupamiento conjunto del trfico de caractersticas similares en cuanto a destino,
calidad de servicio, tipo de trfico, etc. Incluye diferentes funciones entre las que
podemos destacar:
1) La multiplexacin de tramas de baja velocidad a tramas de alta velocidad.
2) La extraccin de tramas de baja velocidad desde tramas de alta velocidad y su
posterior combinacin atendiendo a diversos criterios.
LECCION 2 Amplificadores
El xito de la tecnologa DWDM en la prctica, cuyo equipo trabaja como troncal en las
redes de la mayora de los prestadores de servicio de comunicaciones ms avanzados,
ha determinado en muchos aspectos la aparicin de los amplificadores de fibra ptica.
Dichos dispositivos pticos amplifican directamente las seales de luz en el rango de
1550 nm, con lo que eliminan la necesidad de la conversin intermedia de dichas
seales a seales elctricas, como es el caso de los regeneradores que se utilizan en las
redes SDH. Adems, los sistemas de regeneracin de seales elctricas son costosos y
dependen del protocolo debido a que necesitan percibir un mtodo especfico de
codificacin de las seales. Los amplificadores pticos, los cuales transmiten informacin
de manera transparente permiten aumentar la velocidad de transmisin en la troncal
sin tener que utilizar las unidades amplificadoras.
La longitud de la seccin entre dos unidades de amplificacin ptica puede alcanzar un
valor de 150 km o ms, lo cual garantiza la eficiencia econmica de las troncales DWDM,
en las que la longitud de una seccin de multiplexaje es de 600 a 3000 km, siempre y
cuando se utilicen de uno a siete amplificadores pticos intermedios.
La recomendacin G.692 del ITU-T define tres tipos de secciones amplificadoras (es decir,
secciones entre dos multiplexores DWDM vecinos):
Larga (L): la seccin abarca ocho tramos de enlace de comunicaciones por fibra
ptica y siete amplificadores pticos. La distancia mxima entre amplificadores es de
hasta 80 km, lo que hace una longitud mxima de la seccin igual a 640 km.
Muy larga (V): la seccin incluye no ms de cinco tramos de lnea de comunicacin
por fibra ptica y cuatro amplificadores pticos. La distancia mxima entre
amplificadores es de hasta 120 km y la longitud mxima de la seccin es de 600 km.
Ultralarga (U): la seccin no contiene amplificadores intermedios y tiene una longitud
de 160 km.
MULTIPLEXOR TERMINAL
DWDM
AMPLIFICADOR
OPTICO
B
AMPLIFICADOR
OPTICO
P
T
SDH
MUX
SDH
MUX
SDH
SDH
SDH
B
SDH
EQUIPO DE
INTERCONEXION DE RED
(ROUTER /SWITCH)
Los transpondedores convierten las seales de entrada de las fuentes cuyas longitudes
de onda no corresponden a la malla de frecuencias del multiplexor en ondas con la
longitud requerida. Cuando el dispositivo conectado a la red DWDM puede generar la
seal a una de las longitudes de onda soportadas por el multiplexor DWDM (de
acuerdo con la rejilla de frecuencias de la recomendacin G.692 de la ITU-T o la rejilla de
frecuencias de un fabricante especfico), los transponedores no se utilizan. En este caso,
se dice que el dispositivo conectado a la red DWDM tiene una interfaz de colores.
En el mtodo proporcionado con anterioridad, el intercambio dplex entre los usuarios
de la red se lleva a cabo a costa de la transmisin unidireccional de todas las ondas que
pasan a travs de las dos fibras. Existe otra variante de la operacin de las redes DWDM
cuando slo se utiliza una fibra para realizar la comunicacin entre nodos. El modo
dplex en este caso se garantiza por la transmisin de seales bidireccionales al emplear
fibra: la mitad de las ondas del plan de frecuencias transmiten informacin en una
direccin, y la otra mitad de las ondas utilizadas para la transmisin de datos en la
direccin opuesta.
Red con conexin intermedia: la red en la que los nodos de transito llevan a cabo
funciones de multiplexores de adicionar/quitar es un diseo natural de la topologa
anterior.
SDH
SDH
SDH
SDH
SDH
SDH
SDH
OADM
MUX
MUX
3
OADM
SDH
3
SDH
N
SDH
I
SDH
SDH
Multiplexores pticos de adicionar/quitar: los OADM pueden separar (quitar) una onda
de una longitud especifica de la seal ptica agregada y adicionar ah una seal de la
misma longitud de onda de tal modo que el espectro de la seal de transito no cambie y
la conexin pueda establecerse con uno de los abonados conectados a un multiplexor
de trnsito. El OADM puede agregar o quitar ya sea por mtodos pticos o al convertir
la seal a una forma elctrica. Por lo general, los multiplexores de agregar/quitar
totalmente pticos (pasivos) puede eliminar un pequeo nmero de ondas. Esto se
debe a que cada operacin de remocin requiere que la seal ptica pase a travs del
filtro ptico, el cual incrementa la atenuacin de la seal. Si el multiplexor utiliza
regeneracin elctrica de la seal se podr eliminar cualquier nmero de ondas dentro
de los lmites del grupo de longitudes de onda disponibles, ya que la seal ptica de
transito fue totalmente demultiplexada con anterioridad.
OADM
SDH
SDH
OADM
OADM
SDH
SDH
OADM
SDH
El factor comn de todas las tecnologas DSL es que funcionan sobre el par
trenzado del cable telefnico y usan la modulacin para alcanzar elevadas
velocidades de transmisin. Las diferentes tecnologas se caracterizan por la
ADSL G.Lite es una tecnologa que extiende el alcance de ADSL a costa de una
menor velocidad. G.Lite puede alcanzar los 5.4Km de distancia pero su velocidad
mxima est limitada a 1.3Mbps de bajada y los 512Kbps de subida.
Habitualmente G.Lite se ha utilizado para conectar usuarios que eran inaccesibles
por distancia previamente mediante el estndar ADSL.
VDSL es la modalidad ms rpida de las tecnologas xDSL ya que puede alcanzar
una velocidad de entre 13 y 52 Mbps desde la central hasta el abonado y de 1,5
a 2,3 Mbps en sentido contrario, por lo que se trata de un tipo de conexin
tambin asimtrica. La mxima distancia que puede haber entre los dos mdems
VDSL no puede superar los 1.371 metros.
HDSL es una tecnologa DSL de alta velocidad simtrica y bidireccional por lo que
la velocidad desde la central al usuario y viceversa ser la misma. Las conexiones
HDSL son ms apropiadas para servidores (web, FTP, ficheros) y otros usos
comerciales, como la videoconferencia, que requieren altas velocidades en
ambos sentidos. HDSL utiliza el par de cobre para enviar y recibir datos a travs
de dos bandas, lo que permite velocidades superiores a los 2.3Mbps en ambos
sentidos. Incluyendo un segundo par de cobre, las tecnologas HDSL pueden
proporcionar velocidades de hasta 4.6Mbps en cada sentido. Estas velocidades
son posibles hasta una distancia de unos 3Km siendo los tasas de transferencia
inferiores para distancias mayores. Las dos bandas de frecuencias utilizadas por
las tecnologas SHDSL ocupan la zona de bajas frecuencias haciendo imposible el
Todos los usuarios de cable de un rea pequea comparten los mismos canales para
enviar y recibir datos, y la cantidad de ancho de banda que dichos usuarios reciben est
sujeto a la cantidad de ancho de banda que estn utilizando sus vecinos. En el caso
hipottico de que ningn otro usuario estuviera usando un nodo de cable en un
momento determinado, un usuario de cable podra tericamente disponer de todo el
ancho de banda combinado disponible para l y sus vecinos. Por el contrario, en el caso
de un uso elevado, los usuarios de cable-modem podran sufrir reducciones significativas
de ancho de banda.
Una cifra tpica de transmisin puede ser una tasa binaria de 30 Mbps con un retorno
variable de 128 kbps a 10 Mbps (dependiendo del sistema) [compartidos].
Ventajas
1. Redes muy fiables, de muy alta capacidad y capaces de prestar todo tipo de
servicios interactivos.
2. Redes atractivas desde el punto de vista de negocio para entornos urbanos
densos.
3. Ventajas derivadas del cableado: seguridad, robustez, resistencia a interferencias y
no comparticin de espectro con otros operadores.
4. Escalabilidad: oportunidad de aumentar la capacidad ofrecida al usuario
acercando la fibra ptica al hogar a medida que crece la demanda de ancho de
banda y bajan los costes de los equipos pticos.
Limitaciones:
1. Complicaciones importantes en la en obra civil (zanjas, permisos, etc.) que
implican elevados costes.
2. Baja rentabilidad econmica en zonas rurales y poblaciones muy dispersas.
3. Gran inversin inicial en infraestructura.
4. Canal de retorno, a travs de la propia red de cable tiene altos niveles de ruido e
interferencias. Se requieren modulaciones poco eficientes pero robustas, cdigos
de correccin de errores y monitorizacin de canales.
5. La incorporacin de nuevos usuarios condiciona el despliegue de red (hogares
pasados).
LECCION 3 Fiber To The x (FTTx)
La fibra ptica es, en la actualidad, la gua de onda comercial con mayor capacidad de
transmisin en trminos de ancho de banda y resistencia al ruido electromagntico.
El acrnimo FTTx es conocido ampliamente como Fibre-to-the-x, donde x puede denotar
distintos destinos. Los ms importantes son:
FTTH (home). En FTTH o fibra hasta el hogar, la fibra llega hasta el interior o fachada de
la misma casa u oficina del abonado
Un mdulo OLT (Optical Line Terminal - Unidad ptica Terminal de Lnea) que se
encuentra en el nodo central.
Uno o varios divisores pticos (splitter) que sirven para ramificar la red de fibra
ptica.
Tantas ONUs (Optical Network Unit - Unidad ptica de Usuario) como viviendas.
La transmisin se realiza entre la OLT y la ONU.
En definitiva, PON trabaja compartiendo la capacidad entre las ONU de los usuarios,
para lo que necesita utilizar dos frecuencias, una para el canal ascendente y otra para el
descendente.
Caractersticas tcnicas
Para que no se produzcan interferencias entre los contenidos en canal descendente y
ascendente se utilizan dos longitudes de onda diferentes superpuestas utilizando
tcnicas WDM (Wavelength Division Multiplexing). Al utilizar longitudes diferentes es
necesario, por lo tanto, el uso de filtros pticos para separarlas.
Finalmente, las redes pticas pasivas han de estar ajustadas en funcin de la distancia
entre el usuario y la central, el nmero de splitters y su atenuacin; de tal manera, que
para que el nivel luminoso que reciba cada ONU est dentro de los mrgenes, o bien se
ajusta la el nivel del lser o la atenuacin de los splitters.
Canal descendente
En canal descendente, una red PON es va desde el OLT hacia el ONU de usuario, en
forma de red punto-multipunto donde la OLT enva una serie de contenidos que pasan
por los divisores y llegan a las unidades ONU, cuyo objetivo es el de filtrar los contenidos
y enviar al usuario slo aquellos que vayan dirigidos a l. Se utiliza una multiplexacin en
el tiempo (TDM) para enviar la informacin en diferentes instantes de tiempo.
Canal ascendente
En canal ascendente una PON es una red punto a punto donde las diferentes ONUs
transmiten contenidos a la OLT. Por este motivo tambin es necesario el uso de TDMA
para que cada ONU enve la informacin en diferentes instantes de tiempo, controlados
por la unidad OLT. Al mismo tiempo, todos las ONU se sincronizan a travs de un
proceso conocido como "Ranging".
Ventajas de las redes pticas pasivas (PON)
Aumenta el alcance hasta los 20 km (desde la central). Con tecnologas xDSL
como mximo se alcanzan los 5,5 km
Ofrecen mayor ancho de banda
Mejora la calidad del servicio debido a la inmunidad que presenta la fibra frente a
los ruidos electromagnticos.
Se simplifica el despliegue de fibra ptica gracias a su topologa
Se reduce el consumo por no haber equipos activos
Ms baratas que las punto a punto
LECCION 5 Metro Ethernet
Los organismos de estandarizacin (IEEE, IETF, ITU) y los acuerdos entre fabricantes,
estn jugando un papel determinante en su evolucin. Incluso se ha creado el MEF
(Metro Ethernet Forum), organismo dedicado nicamente a definir Ethernet como
servicio metropolitano.
EVC (Ethernet Virtual Connection)
Un EVC es la asociacin entre una o ms interfaces UNIs (User Network Interface). Es un
tubo virtual que proporciona al usuario servicio extremo a extremo atravesando mltiples
redes MEN (Metro Ethernet Network). Un EVC tiene dos funciones:
Conectar dos o ms sitios (UNIs) habilitando la transferencia de tramas Ethernet entre
ellos.
Impedir la transferencia de datos entre usuarios que no son parte del mismo EVC,
permitiendo privacidad y seguridad.
Un EVC puede ser usado para construir VPN (Virtual Private Network) de nivel 2.
El MEF (Metro Ethernet Forum) ha definido dos tipos de EVC:
Punto a Punto (E-Line)
Multipunto a Multipunto (E-LAN)
E-LINE
El servicio E-Line proporciona un EVC punto a punto entre dos interfaces UNI (User
Network Interface). Se utiliza para proporcionar una conexin Ethernet punto a punto.
Dentro del tipo de servicio E-Line se incluye una amplia gama de servicios. El ms sencillo
consistente en un ancho de banda simtrico para transmisin de datos en ambas
direcciones y no fiable, entre dos interfaces UNI a 10 Mbps. Un servicio ms sofisticado
considerado dentro del tipo de servicio E-Line sera, por ejemplo, una lnea E-Line, que
ofrezca una CIR concreta junto con una CBS, y una EIR junto con una EBS, y un retardo,
variacin del retardo y ver mximos asegurados entre dos interfaces UNI.
E-LAN
El tipo de servicio E-LAN proporciona conectividad multipunto a multipunto. Conecta
dos o ms interfaces UNI (User Network Interface). Los datos enviados desde un UNI
llegarn a 1 ms UNI destino. Cada uno de ellos est conectado a un EVC multipunto.
A medida que va creciendo la red y se van aadiendo ms interfaces UNI, stos se
conectarn al mismo EVC multipunto, simplificando enormemente la configuracin de la
misma. Desde el punto de vista del usuario, la E-LAN se comporta como una LAN.
Su estructura esta basa en modelo de capas, las capas que lo conforman son: Core,
Distribucin, y acceso.
Atributos de los servicios Metro Ethernet
Los atributos se definen como las capacidades de los diferentes tipos de servicio. Algunos
atributos aplican a los puntos de acceso UNI (User Network Interface), mientras que
otros a los canales virtuales (EVC).
Para los puntos de acceso (UNI) aplican los siguientes atributos:
- Medio fsico: son los especificados en el estndar 802.3 2000. Ejemplos de medios
fsicos incluye 10Base-T, 100Base-T, 1000 Base-SX.
- Velocidad: las velocidades son las especificadas en el estndar Ethernet son las
caractersticas de la "negociacin ethernet, aadindose algunos valores intermedios:
10Mbps, 20Mbps, 45Mbps, 100Mbps, 1Gbps y 10Gbps.
- Modo: un enlace puede soportar Full Duplex, Half Duplex o auto negociacin.
- Capa MAC: las especificadas en IEEE 802.3 2000.
Caractersticas del ancho de banda
Para Metro Ethernet se tienen en cuenta los siguientes parmetros:
CIR (Committed Information Rate): es la cantidad promedio de informacin que se ha
transmitido, teniendo en cuenta los retardos, prdidas, etc.
CBS (Committed Burst Size): es el tamao de la informacin utilizado para obtener el
CIR respectivo.
EIR (Excess Information Rate): especifica la cantidad de informacin mayor o igual que
el CIR, hasta el cual las tramas son transmitidas sin prdidas.
EBS (Excess Burst Size): es el tamao de informacin que se necesita para obtener el
EIR determinado.