Está en la página 1de 69

II. Calidad de servicio (QoS).

En una red convergente las redes acarrean voz, video y trfico de datos, estos
flujos usan los mismos medios. Estas diferentes rfagas de trfico difieren
dramticamente debido a sus requerimientos, que nos acarrean varios
problemas. Los ms crticos son la voz y el video ya que son muy sensibles al
tiempo y deben tener mayor prioridad.

En una red convergente, constantemente paquetes pequeos de voz compiten


con el trfico de datos. Los paquetes de voz en una red convergente son my
pequeos, estos no son tolerantes al retardo y las variaciones de retardo que
estos sufren al atravesar la red. Cuando esto ocurre en la voz se interrumpe y
las palabras no son comprensibles.
Los paquetes IP son grandes y por naturaleza los paquetes toleran retardos y
prdidas. Estos es posible porque se pueden retransmitir parte de un archivo
de datos. Pero no es factible retransmitir parte de una conversacin de voz. La
voz y el video deben tener mayor prioridad sobre los datos.
Los administradores de red y los arquitectos de red requieren verificar el
performance de la red para manejar el retardo, la variacin del retardo (jitter),
ancho de banda y los parmetros de paquetes perdidos con las tcnicas de
calidad de servicio (QoS).
Las rfagas multimedia, como las usadas en la telefona IP o en las
videoconferencias son muy sensibles al retardo y crean una nica demanda de
QoS. Si el servicio esta basado en el mtodo Best-effort, los paquetes no
llegaran en orden, desfazados en tiempo o talvez no todos lleguen. Dando
como resultado imgenes borrosas, con movimientos lentos y el sonido no
estar sincronizado con las imgenes.

Problemas de calidad en una red convergente


Dentro de los problemas ms comunes en una red convergente se encuentran:

La falta de ancho de banda: los flujos de mltiples compiten por una cantidad limitada de ancho
de banda.
Retraso de extremo a extremo(fijos y variables): Los paquetes tienen que atravesar muchos
dispositivos de red y enlaces; este viaje se suma a la demora en general.
La variacin de retardo (jitter): A veces hay una gran cantidad de trfico de otros, lo que resulta
en la demora variada y creciente.
La prdida de paquetes: Los paquetes pueden tener que ser descartados cuando se congestiona
un enlace.

Medicin de ancho de banda disponible


El ancho de banda mximo disponible es el ancho de banda del enlace ms lento.
Mltiples flujos estn compitiendo por el mismo ancho de banda, dando como resultado un
menor ancho de banda disponible para una sola aplicacin.
La falta de ancho de banda puede tener impactos en el rendimiento en las aplicaciones de red.

2.1 Introduccin a la Calidad de Servicios (QoS).

Calidad de servicio (QoS, Quality of Service) se refiere a la capacidad de una


red de proporcionar servicio preferencial al trfico de la red seleccionado. El
objetivo principal de QoS es proporcionar prioridad, incluyendo ancho de banda
dedicado, latencia, fluctuaciones controladas y menor prdida de paquetes.

Al crear las polticas de QoS para una organizacin, es importante enfocarse en


el tipo de trfico que necesita tratamiento preferencial. Los diseadores de red
deben considerar de qu manera los problemas de QoS afectan no slo a los
dispositivos de una red, sino tambin a las aplicaciones que utilizan la red.

Los usuarios perciben la calidad del servicio segn dos criterios:


La velocidad con la que la red reacciona a sus solicitudes
La disponibilidad de las aplicaciones que desean usar

QoS permite controlar estos aspectos para los flujos de trfico dentro de la
infraestructura de la red y para las aplicaciones que utilizan la red.

Algunos de los dispositivos Cisco, como los routers, cuentan con mecanismos
de QoS incorporados.

INCREMENTANDO EL ANCHO DE BANDA DISPONIBLE

La mejor manera de aumentar el ancho de banda es aumentar la capacidad del enlace


de la red para dar cabida a todas las aplicaciones y usuarios, permitiendo ancho de
banda adicional. Aunque esta solucin parece simple, el aumento de ancho de banda
es caro y lleva tiempo poner en prctica. A menudo hay limitaciones tecnolgicas en la
mejora de un mayor ancho de banda.
La mejor opcin es clasificar el trfico en las clases de calidad de servicio y dar
prioridad a cada clase de acuerdo a su importancia relativa. El mecanismo de colas de
base es First In First Out (FIFO). Otros mecanismos de cola proporcionar granularidad
adicionales para atender la voz y el trfico crticos. Diferentes tipos de de trfico
deberan tener suficiente ancho de banda para apoyar sus requerimientos de
aplicacin. El trfico de voz debe recibir mayor prioridad de reenvo, y el trfico menos
importante debe recibir el ancho de banda no asignados que queda despus de
acomodar el trfico que es de prioridad.

Cisco IOS software QoS proporciona una variedad de mecanismos para dar prioridad de
ancho de banda a determinadas clases de trfico:
Prioridad de cola (PQ) o la uso de cola (CQ)
Ronda Modificado Dficit Robin (MDRR) (en Cisco 12000 Series Routers)
Tipo de servicio distribuido (ToS)-basado y el grupo de QoS basado en colas
equitativas (WFQ) (en el 7x00 de la serie Cisco Routers)
Clase base equitativa de cola (CBWFQ)
Baja latencia de cola (CII)

Una manera de aumentar la relacin ancho de banda disponible es optimizar el uso de


enlaces mediante la compresin de la carga til de los marcos (virtualmente). La
compresin, sin embargo, tambin aumenta la demora debido a la complejidad de los
algoritmos de compresin. El uso de la compresin de hardware puede acelerar las
compresiones de carga til del paquete. Stacker y Predictor son dos algoritmos de
compresin que estn disponibles en el software Cisco IOS.

Otro mecanismo que se utiliza para vincular la eficiencia de ancho de banda es la


compresin de encabezado. La compresin del encabezado es especialmente eficaz en
las redes donde la mayora de los paquetes de datos son pequeos (es decir, cuando la
carga a razn de encabezado es pequeo). Ejemplos tpicos de la compresin de
encabezado son la compresin de encabezado TCP y Real-Time Transport Protocol
(RTP).

USANDO EL ANCHO DE BANDA DISPONIBLE EFICIENTEMENTE


Usando los mecanismos de cola avanzada y de compresin de encabezado, el ancho de
banda disponible puede utilizarse de manera ms eficiente:
Voz: LLQ y compresin de encabezado RTP
Trfico interactivo: CBWFQ y la compresin de encabezado TCP
TIPOS DE RETARDO
Existen cuatro tipos de retardo:

Retardo en el procesamiento: Retardo en el procesamiento es el tiempo que le toma a


un router (o switch de capa 3) para poner un paquete de una interfaz de entrada y
ponerlo en la cola de salida de la interfaz. El retraso en el procesamiento depende de
varios factores:
Velocidad de la CPU
Uso de la CPU
IP modo de cambio
Arquitectura de router
Caractersticas configuradas en ambas interfaces.

Retardo de cola: El retardo de cola es el tiempo que un paquete se encuentra en la cola


de salida de un router. Este depende del nmero de paquetes que ya estn en la cola y
el tamao de los paquetes. Tambin depende del ancho de banda de la interfaz y el
mecanismo de manejo de cola que utilize.

Retardo de serializacin: Es el tiempo que se tarda en colocar un frame en el medio


fsico para transportarlo. Este retraso suele ser inversamente proporcional al ancho de
banda del enlace.

Retardo de propagacin: Retardo de propagacin es el tiempo que tarda el paquete de


cruzar el enlace de un extremo a otro. Este por lo general depende del tipo de medios
de comunicacin que se utilizan, ya sea de datos, voz o vdeo. Por ejemplo, los enlaces
por satlite producen el retardo de propagacin ms largo debido a la gran altura de
los satlites de comunicaciones.

EL IMPACTO DEL RETARDO Y DEL JITTER EN LA CALIDAD


Retardo de extremo a extremo: Es la suma de todos los retardos, propagacin,
transformacin, serializacin, y los retrasos de cola en la ruta.
Jitter: es la variacin del retardo. En las redes best-effort, la propagacin y los retrasos
de serializacin son fijos, mientras que el procesamiento y la cola son retardos
impredecibles.

CAMINO PARA REDUCIR EL RETARDO


Al considerar las soluciones al problema de retardos, hay dos cosas a considerar:
El procesamiento y el retardo de colas estn relacionados con los dispositivos y estn
vinculados con el comportamiento del sistema operativo.
La propagacin y los retardos de sealizacin estn relacionados con los medios de
comunicacin.

Hay muchas formas de reducir la demora en un router. Suponiendo que el router tiene
el poder suficiente para tomar decisiones de reenvo rpidamente, hay factores que
influyen en la mayora de colas y retardos de sealizacin:
Tamao promedio de la cola.
Tamao promedio de los paquetes en la cola
Ancho de banda del enlace

Los administradores de red pueden acelerar el envo de paquetes para los flujos
sensibles:

Aumentar la capacidad del enlace: ancho de banda suficiente para reducir las colas,
con la finalidadde que los paquetes no esperen mucho tiempo antes de poder
transmitirse. El aumento de ancho de banda reduce el tiempo de serializacin. Este
enfoque puede ser poco realista debido a los costos que estn asociados con la
actualizacin.

Dar prioridad a los paquetes sensibles: Este enfoque puede ser ms efectivo en
relacin con el costo, que el aumento de la capacidad de enlace. WFQ, CBWFQ, y LLQ
pueden servir en primer lugar para el manejo de las colas (este es un tipo de medidas
preventivas de las colas de servicio).

Cambiar la prioridad de los paquetes: En algunos casos, es necesario cambiar la


prioridad de los paquetes importantes cuando se entra o sale de un dispositivo.

Compresin de carga: La compresin de carga reduce el tamao de los paquetes, lo


que aumenta virtualmente el ancho de banda del enlace. Los paquetes comprimidos
son ms pequeos y se utiliza menos tiempo para su transmisin. La compresin usa
algoritmos complejos que aaden demora. Si est utilizando la compresin de carga
para reducir los retardos, asegrese de que el tiempo que se necesita para comprimir
la carga no afecta los beneficios de tener menos datos que transferir por el enlace.
Compresin de encabezado: la compresin de encabezado no es tan intensivo con el
CPU como la compresin de la carga. La compresin de encabezado reduce el retardo
cuando se usa con otros mecanismos. La compresin de encabezado es especialmente
til para los paquetes de voz que tienen una mala relacin de carga entre el
encabezado y los datos(el encabezado es grande relativamente en comparacin con la
carga), que es mejorada por la reduccin de la cabecera del paquete (compresin de
encabezado RTP).

Al minimizar la demora, los administradores de redes tambin puede reducir el jitter (el
retardo es ms predecible que el jitter y ms fcil de reducir).

EL IMPACTO DE PAQUETES PERDIDOS


Despus del retardo, la preocupacin ms grave para las redes es la prdida de
paquetes. Por lo general, la prdida de paquetes se produce cuando los routers se
quedan sin espacio de almacenamiento para una interfaz particular (cola de salida).

TIPOS DE DESCARTE DE PAQUETES

Cola de interfaz de salida llena, hace que los paquetes nuevos que llegan van a ser
retirados. El trmino que se utiliza para el descarte es "descarte de salida" o "cola de
descarte" (descarta los paquetes en la cola de la cola).

Los Routers tambin pueden eliminar paquetes por otras razones menos
comunes:
Cada de la cola de entrada: La CPU principal est ocupado y no puede procesar los
paquetes (la cola de entrada est llena).
No haga caso de: El router se queda sin espacio en el buffer.
Sobrecarga: La CPU est ocupado y no puede asignar un espacio libre en el buffer al
nuevo paquete.
Errores del frame: El hardware detecta un error en el frame, por ejemplo, controles de
redundancia cclica (CRC), incompleto y gigante.
Politicas de trfico y configuracin de trfico
Cisco IOS software QoS proporciona los siguientes mecanismos para evitar la
congestin:
Politicas de Trfico se propaga en forma desencadenada. Cuando la tasa de trfico
alcanza la tasa mxima configurada, el exceso de trfico se descarta. El resultado es
una tasa de salida que aparece como un diente de sierra, con crestas y valles.
La configuracin de trfico en contraste con las polticas de trfico, retiene el exceso de
paquetes en una cola y luego programan la transmisin ms tarde por los incrementos
de tiempo. El resultado de la configuracin del trfico es una versin filtrada de la tasa
de salida de paquetes.
Hacer implica la existencia de una cola y de la memoria suficiente para almacenar los
paquetes con retraso, mientras que las politicas no lo hacen. La cola es un concepto de
salida, los paquetes que vayan a salir por una interfaz pasan a la cola y puede ser
clasificado. Slo la politica puede aplicar al trfico entrante en una interfaz. Asegrese
de que tiene suficiente memoria al habilitar la configuracin. Adems, la configuracin
requiere una funcin de programacin para la transmisin posterior de los paquetes
con retraso. Esta funcin de programacin le permite organizar la cola de la formacin
en diferentes colas. Ejemplos de funciones de programacin estn CBWFQ y LLQ.

2.2 Modelos de Qos: Best-Effort, IntServ , DiffServ


Existen tres modelos de QoS

Modelo Caracteristicas

Best effort No se aplica QoS a los paquetes. Si no es importante cundo o cmo los
paquetes llegan, este es el modelo ms adecuado.

Servicios Configuracin a la seal de la red para las aplicaciones que requieren


Integrados ciertos parmetros de QoS (calidad de servicio).
(IntServ)
Servicios La red reconoce las clases de trfico que requieren QoS.
Diferencia
dos
(DiffServ)

2.2.1 Best effort


El diseo bsico de la Internet se basa en el modelo best-effort para la entrega de
paquetes de mayor esfuerzo y no ofrece garantas. Este planteamiento sigue siendo
predominante en Internet hoy en da y sigue siendo apropiado para la mayora de
propsitos. El modelo best-effort trata a todos los paquetes de la red de la misma
manera, as que un mensaje de voz de emergencia se trata de la misma manera que
una fotografa digital adjunta a un e-mail. Sin calidad de servicio, la red no puede decir
la diferencia entre los paquetes y, en consecuencia, no puede tratar a los paquetes de
preferencia.
Cuando usted enva una carta utilizando el correo postal tradicional, est utilizando el
modelo best-effort. Su carta es tratada exactamente igual que todas las letras de otros.
Con el modelo de best-effort, la carta no puede o no llegar, a menos que tenga un
acuerdo de notificacin por separado con los que recibieron la carta, usted nunca
puede saber que la carta no lleg.

Beneficios:
El modelo tiene una escalabilidad prcticamente ilimitada. La nica manera de
llegar a los lmites de escalabilidad es llegar a los lmites de ancho de banda, en
cuyo caso todo el trfico se ve igualmente afectado.
No es necesario emplear mecanismos de QoS especial para utilizar el modelo
best-effort. Ademas de que es el ms fcil y rpido de implementar.
Desventajas:
No hay garantas de entrega. Los paquetes llegarn siempre que puedan y en
cualquier orden posible, si es que llegan todos.
No hay paquetes que tengan un trato preferencial. Los datos importantes
se tratan del mismo modo casual que el e-mail se trata.

2.2.2 INTSERV
Servicios Integrados (IntServ) proporciona una manera de lograr el end-to-end QoS,
que aplicaciones en tiempo real requieren, de forma explcita realiza la gestin de los
recursos de red para proporcionar calidad de servicio para flujos de paquetes
especficos de usuarios, a veces llamado microflujos. IntServ utiliza recursos de reserva
y admisin de los mecanismos de control como elementos fundamentales para
establecer y mantener la calidad de servicio. Esta prctica es similar a un concepto
conocido como calidad de servicio duro (Hard QoS).Este garantiza las caractersticas
del trfico, tales como el ancho de banda, retraso, y las tasas de prdida de paquetes,
de extremo a extremo. Hard QoS asegura garantizados y predecibles los niveles de
servicio para aplicaciones crticas.
IntServ utiliza el Protocolo de reserva de recursos (RSVP) para indicar de forma
explcita la calidad de servicio de las necesidades de trfico de una aplicacin a lo largo
de los dispositivos de extremo a extremo a travs de la ruta de red. Si los dispositivos
de red a lo largo de la ruta de acceso pueden reservar el ancho de banda necesario, se
puede empezar a transmitir. Si la reserva solicitada no se realiza por el camino, no se
enva ningn dato.
En el modelo IntServ, la aplicacin solicita un tipo especfico de servicio de la red antes
de enviar datos. La aplicacin informa a la red de su perfil de trfico y pide un
determinado tipo de servicio que puede abarcar el ancho de banda y los requisitos de
demora. La aplicacin enva los datos slo despus de que reciba la confirmacin de los
requisitos de ancho de banda y retardo de la red.
La red realiza el control de admisin basado en la informacin de la aplicacin y
recursos de red disponibles. La red se compromete a cumplir los requisitos de calidad
de servicio de la solicitud, siempre que el trfico se mantenga dentro de las
especificaciones del perfil. La red cumple con su compromiso de mantener el estado
por flujo y luego de realizar la clasificacin de paquetes, la aplicacin de politicas, y el
manejo de colas inteligente basado en ese estado.

FUNCIONES DE INTSERV

Como un medio de ilustrar la funcin del modelo IntServ, la figura muestra la parte de
control y de datos. Adems la sealizacin de extremo a extremo, IntServ requiere de
varias funciones, a fin de estar disponibles en los routers y switches a lo largo de la
ruta de red. Estas funciones son las siguientes:

Control de acceso: Control de acceso determina si un nuevo flujo solicitado por los
usuarios o los sistemas se puede conceder con la calidad de servicio requerido, sin
afectar las reservas existentes a fin de garantizar QoS de extremo a extremo. Control
de acceso garantiza que los recursos estn disponibles antes de permitir una
reservacin.

Clasificacin: Supone el uso de un descriptor de trfico para categorizar un paquete


dentro de un grupo especfico, para definir ese paquete y hacer posible el manejo de
QoS en la red. La clasificacin es fundamental para las tcnicas de polticas que los
paquetes utilizan antes de seleccionar los diferentes tipos de servicio QoS.

Politicas: Toma la accin, incluido el posible descarte de paquetes, cuando el trfico


no se ajusta a sus caractersticas especificadas. Las politicas son definidas por los
parmetros de velocidad y promedio, as como por las acciones en el perfil y fuera del
trfico de perfil.

De cola: La cola acomoda la congestin temporal, en una interfaz de un dispositivo de


red mediante el almacenamiento de los paquetes excesivos, hasta que se tenga el
acceso al ancho de banda disponible.

Programacin: Un componente de calidad de servicio, el programador de calidad de


servicio, negocia solicitudes simultneas de acceso a la red y determina que la cola es
la prioridad principal. IntServ utiliza la programacin de round robin. La programacin
de Round Robin es un enfoque de tiempo compartido en el que el programador le da
una porcin de tiempo breve para cada puesto de trabajo antes de pasar a la siguiente
tarea. De esta manera, todas las tareas se ejecutan, poco a poco, de forma controlada.
La programacin de paquetes debe de cumplir con la reservacin de colas y la
programacin de paquetes para su transmisin.

Beneficios:
IntServ apoya el control de admisin que permite que le permite a una red rechazar o
rebajar nuevas sesiones RSVP si una de las interfaces en el camino ha llegado al lmite
(esto es, si todo el ancho de banda que puede ser reservado es reservado).
RSVP seales de peticiones de QoS para cada flujo individual. En la solicitud, se enva
el usuario autorizado (objeto de la autorizacin) y la poltica de trfico necesarios
(objeto de la poltica). La red puede ofrecer garantas a estos flujos individuales.
RSVP informa a los dispositivos de red de los parmetros de flujo (las direcciones IP y
nmeros de puerto). Algunas aplicaciones utilizan nmeros de puertos dinmicos, tales
como las aplicaciones basadas en H.323, lo que puede ser difcil para los dispositivos
de red a reconocer. La Red de aplicaciones basada en el reconocimiento (NBAR) es un
mecanismo que complementa RSVP para las aplicaciones que utilice los nmeros de
puertos dinmicos.

Desventajas:
No es continua, porque la sealizacin de la arquitectura de RSVP con estado que se
suma a la sobrecarga de ancho de banda. RSVP sigue la sealizacin para toda la
duracin del flujo. Si los cambios de red, o los vnculos de enrutamiento y la
convergencia no se produce, la red puede no ser capaz de soportar la reservacin.
El flujo de enfoque no es escalable para implementaciones de gran tamao, como la
Internet pblica, porque en el RSVP se lleva registro de cada flujo individual. Esta
circunstancia hace la sealizacin de extremo a extremo difcil. Una posible solucin es
combinar IntServ con los elementos del modelo DiffServ para proporcionar la
escalabilidad necesaria.

PROTOCOLO DE RESERVACIN DE RECURSOS (RSVP)


Protocolo de reservacin de recursos (RSVP) se utiliza para implementar modelos
IntServ.
El Protocolo de reserva de recursos (RSVP) es una red de protocolos de control que
permite a las aplicaciones de Internet obtener distintas calidades de servicio (QoS)
para sus flujos de datos. Esta capacidad reconoce que las diferentes aplicaciones
tienen diferentes requisitos de rendimiento de la red. Algunas aplicaciones, como los
ms tradicionales y aplicaciones interactivas, exigen la entrega fiable de datos, pero no
imponen ningn requisito estricto para la puntualidad de la entrega. Ms nuevos tipos
de aplicaciones, incluyendo videoconferencia, telefona IP, y otras formas de
comunicaciones multimedia requieren casi exactamente lo contrario: la entrega de
datos debe ser oportuna, pero no necesariamente fiables. Por lo tanto, RSVP tiene por
objeto proporcionar redes IP con la capacidad de soportar los requisitos de rendimiento
divergentes de los diferentes tipos de aplicaciones.
Es importante tener en cuenta que RSVP no es un protocolo de enrutamiento. RSVP
trabaja en conjunto con los protocolos de enrutamiento e instala el equivalente de las
listas de acceso dinmico a lo largo de las rutas que utilizan los protocolos de
enrutamiento. Por lo tanto, la aplicacin de RSVP en una red existente no requiere la
migracin a un nuevo protocolo de enrutamiento.
Si los recursos estn disponibles, RSVP acepta una reservacin e instala un clasificador
de trfico para asignar una clase de calidad de servicio temporal, para darle una
determinada QoS al flujo del trfico. El clasificador de trfico indica la ruta de
transmisin de QoS la forma de clasificar los paquetes de un flujo particular y qu
tratamiento de transmisin a proporcionar.
RSVP es un protocolo IP que utiliza el protocolo IP ID 46 y TCP y el puerto UDP 3455.
En RSVP, un flujo de datos es una secuencia de datagramas que tienen el mismo
origen, destino (independientemente de que el destino es una o ms mquinas fsicas),
y los requisitos de QoS. Los requisitos de QoS se comunican a travs de una red a
travs de un pliego de condiciones de flujo. Una especificacin de flujo describe el nivel
de servicio que se requiere para que el flujo de datos.

RSVP se centra en los siguientes dos tipos principales de trfico:


Tasa de trfico sensible: El trfico que requiere una tasa de entrega garantizada y
constante (o casi constante) desde su origen hasta su destino. Un ejemplo de tal
aplicacin es la videoconferencia H.323. RSVP permite una tasa de bits constantes en
las redes de conmutacin de paquetes a travs de su ndice de nivel de sensibilidad de
servicio. Este servicio se refiere a veces como garanta de tasa de servicio de bits.
Trfico sensible al retraso: El trfico que requiere puntualidad de la entrega y que
vara segn su tipo de consecuencia. De vdeo MPEG-II, por ejemplo, un promedio de 3
a 7 Mbps, dependiendo de la velocidad a la que la imagen est cambiando. RSVP apoya
a los servicios de trfico sensible al retraso que se denominan servicio de control de
retardo (no servicio en tiempo real) y el servicio de prediccin (servicio en tiempo real).

DEMONIO RSVP

Cada nodo que utiliza RSVP consta de dos mdulos de decisiones locales:

De control de admisin: El control de admisin realiza un seguimiento de los


recursos del sistema y determina si el nodo tiene los recursos suficientes para
satisfacer la calidad de servicio requerida. El demonio de RSVP monitorea estas
acciones de control. Si cualquier accin de verificacin falla, el programa RSVP
devuelve un mensaje de error a la aplicacin que origin la peticin. Si ambas
comprobaciones tienen xito, el demonio de RSVP establece los parmetros en el
clasificador de paquetes y el Programador de paquetes QoS para obtener el pedido.
Poltica de Control: Control de directiva que determina si el usuario tiene permisos
de administrador para realizar la reservacin.
Si tanto el control de admisin como el control de polticas tienen xito, el demonio a
continuacin, establece los parmetros en las dos entidades, clasificador de paquetes y
Programador de paquetes.

Clasificador de paquetes: El clasificador de paquetes RSVP determina la clase de ruta y


la calidad de servicio para cada paquete.
Programador de paquetes: el Programador de paquetes RSVP ordena los paquetes para
su transmisin con el fin de lograr la calidad de servicio prometida para cada flujo. El
planificador asigna recursos para la transmisin en un medio de la capa de enlace de
datos para cada interfaz.
Proceso de enrutamiento-El demonio de RSVP tambin se comunica con el proceso de
enrutamiento para determinar la ruta de acceso para enviar sus solicitudes de
reservacion y de manejar cambios entre las rutas. Cada router que participa en la
reservacion de recursos pasa los paquetes de datos entrantes a un clasificador de
paquetes y los paquetes de las colas en caso necesario a un planificador de paquetes.
Una vez que el clasificador de paquetes determina la clase de ruta y la calidad de
servicio para cada paquete, y el programador asigna recursos para la transmisin,
RSVP pasa la solicitud a todos los nodos (routers y hosts) a lo largo de las rutas de
datos inversa a las fuentes de datos. En cada nodo, el programa RSVP aplica un
procedimiento de decisin local llamado control de admisin para determinar si ese
nodo puede proporcionar la calidad de servicio requerida. Si tiene xito el control de
admisin en la prestacin de la calidad de servicio requerida, el programa RSVP
establece los parmetros del clasificador de paquetes y planificador para obtener la
calidad de servicio deseado. Si falla el control de admisin en cualquier nodo, el
programa RSVP devuelve una indicacin de error a la aplicacin que origin la peticin.
Los Routers a lo largo de la ruta de datos de la secuencia inversa repiten esta reserva
hasta que la reserva se fusiona con otra reserva para el flujo de la misma fuente.

Diffserv
Los servicios diferenciados (DiffServ) especifican una arquitectura simple, escalable y
granular gruesa para la clasificacin y gestin de trfico de red y proporcionar
garantas de QoS. Por ejemplo, Diffserv puede proporcionar servicio garantizado de
baja latencia (SG) para el trfico de red crticos, tales como voz o video mientras que
proporciona la garantas best-effor a los servicios no crticos, tales como el trfico web
o transferencias de archivos.

2.3 Descripcin de DiffServ QoS.


El diseo DiffServ supera las limitaciones tanto del modelo best-effor como IntServ.
DiffServ puede proporcionar una calidad de servicio "casi garantizado" sin dejar de ser
rentable y escalable.
El concepto de calidad de servicio suave es la base del modelo DiffServ. Hay que
recordar que IntServ (QoS duro) utiliza la sealizacin en la que el host final tiene sus
propias QoS en base a las necesidades de la red. DiffServ no utiliza la sealizacin,
pero trabaja en el provisionamiento del modelo QoS, donde los elementos de red estn
configurados para dar servicio de mltiples clases de trfico a cada uno con diferentes
requisitos de QoS. Al clasificar los flujos en agregados (clases), y proporcionar calidad
de servicio adecuado para los agregados, DiffServ puede evitar una complejidad
significativa, los costos y problemas de escalabilidad.
Por ejemplo, en los grupos de DiffServ todos los flujos TCP se toman como una sola
clase, y asigna el ancho de banda para esa clase, en lugar de para los flujos
individuales como QoS duro (DiffServ). Adems de la clasificacin de trfico y
sealizacin, DiffServ minimiza los requisitos de mantenimiento del estado de cada
nodo de la red.
DiffServ divide el trfico de red en las clases basadas en las necesidades de negocios.
Cada una de las clases se les puede asignar diferentes niveles de servicio. Como a los
paquetes al atravesar una red, cada uno de los dispositivos de red identifica la clase de
paquetes y servicios el paquete de acuerdo a esa clase.
El modelo de QoS duro (IntServ), prev una solucin end-to-end QoS, utilizando la
sealizacin de extremo a extremo, el estado de mantenimiento y control de admisin.
Este mtodo consume importantes gastos, restringiendo as su capacidad de
ampliacin. Por otra parte, DiffServ no puede hacer cumplir las garantas de extremo a
extremo, pero es un enfoque ms escalable para la aplicacin de QoS. Los mapas
DiffServ divide muchas aplicaciones en pequeos grupos de clases. DiffServ asigna a
cada clase un conjunto similar de calidad de servicio y cumple las conductas y aplica
mecanismos de QoS en base a un salto a salto, aplicando de manera uniforme el
sentido global de cada clase de trfico para proporcionar la flexibilidad y la
escalabilidad.
DiffServ funciona como un servicio de entrega de paquetes. Usted pide (y paga) un
nivel de servicio al enviar su paquete. A lo largo de la red de paquetes, el nivel de
servicio es reconocido y tu paquete es ya sea preferencial o normal de servicio,
dependiendo de lo que se solicite.
Beneficios:
Altamente escalable
Muchos niveles de calidad posible
Desventajas:
No hay garanta absoluta de servicio
Requiere un conjunto de mecanismos complejos para trabajar en conjunto en
toda la red

2.4 Clasificacin y Marcado de Trfico.

La clasificacin es el proceso de identificacin y de categorizacin de una clase


de trafico. La clasificacin utiliza un descriptor de trfico para categorizar un
paquete dentro de un grupo especfico que define ese paquete. Despus de
que el paquete ha sido clasificado o identificado, el paquete es accesible para
el manejo de QoS en la red.
Los descriptores de trfico que se suelen utilizar incluyen:
Interfaz de entrada
Precedencia IP
Punto de cdigo de servicios diferenciados (DSCP)
Direccin origen o destino
Aplicacin

Usando la clasificacin, los administradores de red pueden partir el trfico de


red en mltiples clases de servicio (CoS). Cuando los descriptores de trfico se
utilizan para clasificar el trfico, la fuente implcitamente se compromete a
cumplir las condiciones contratadas y las promesas de QoS para la red. Varios
mecanismos de QoS, tales como las politicas de trfico, y tcnicas de puesta
en cola, utilizar el descriptor de trfico del paquete (es decir, la clasificacin de
los paquetes) para garantizar el cumplimiento de ese acuerdo.
La clasificacin debe tener lugar en el borde de la red, tpicamente en el
armario de cableado, dentro de los telfonos IP, o en los extremos de la red.
Cisco recomienda que la clasificacin se produzca tan cerca de la fuente del
trfico como sea posible.
NOTA: El termino clasificacin es intercambiable con el termino clasificacin de
paquetes.

El Marcado est relacionado con la clasificacin. Las Herramientas de


clasificacin de QoS clasifican los paquetes al examinar el contenido del frame,
celda , y el encabezado de los paquetes, mientras que el marcado de QoS
proporcionan una herramienta para cambiar la cabecera del paquete para
facilitar la clasificacin.
El marcado consiste en colocar un valor en uno de los pocos frames bien
definido, un paquete, o campos de cabecera de la celda especficamente
diseado para el marcado de QoS. Al marcar un paquete, otras funciones de
calidad de servicio pueden realizar una clasificacin basada en el campo
marcado dentro del encabezado. El marcado simplifica el diseo de la red en
QoS, que facilita la configuracin de otras herramientas de QoS, y reduce los
gastos generales requeridos por cada una de las otras herramientas de QoS
para clasificar los paquetes.

Marcar un paquete o un frame con su clasificacin permite a los dispositivos de


red con posterioridad distinguir fcilmente el paquete o frame marcado como
pertenecientes a una clase especfica. Despus de los paquetes o frames se
identifican como pertenecientes a una clase especfica, los mecanismos de QoS
pueden aplicarse de manera uniforme para garantizar el cumplimiento de las
normas administrativas de QoS.

Marcadores comunes:
Capa de enlace:
CoS (ISL, 802.1p)
MPLS EXP bits
Frame Relay
Capa de red:
DSCP
Precedencia IP

CLASIFICACION Y MARCADO EN LA RED LAN CON IEEE 802.1Q


El estndar 802.1Q es la especificacin para implementar VLANs en la capa 2
de las redes. Esta especificacin define 2 campos de 2 bytes (TPID Etiqueta
identificador de protocolo y TCI Etiqueta de control de informacin) esta es
insertada dentro de un frame ethernet despus del campo del la direccin
origen.
El campo TCI incluye 3 bits que son utilizados para identificar la prioridad del
usuario. Estos bits pueden ser usados para marcar los paquetes para
especificar la clase del servicio a la que pertenecen (CoS).
El marcado CoS permite al frame de capa 2 ethernet que son etiquetados con 8
niveles de prioridad (valores de 0 a 7). 3 bits permiten 2^3 niveles de
clasificacin, permitiendo una correspondencia directa con IP versin 4
(precedencia IP) y los valores de tipo de servicio (ToS).
Una desventaja de usar marcado CoS es que los frames pierden el marcado
CoS mientras transitan en un enlace no-802.1Q. El enlace troncal con 802.1Q
debe ser activado antes de que el campo CoS exista.
Tan pronto como el paquete de capa 3 sea enviado, cualquiera con un router o
con un switch de capa 3, el antiguo encabezado LAN sea descartado y el
campo CoS se puede perder. Por lo tanto, una marca permanente en todas
partes debe utilizarse para el trafico de la red . Esto es tipicamente logrado
cuando trasladamos un marcado CoS dentro de otro marcado o simplemente
utilizando otro mecanismo de marcado.

CLASIFICACION Y MARCADO EN LA EMPRESA


Frame relay provee un simple mecanismo de QoS para asegurar el tasa de
transmisin comprometida (CIR):
Las notificaciones de congestin llamadas notificacin explicita de congestin
hacia adelante (FECN) y las notificaciones de congestion explicita inversa
(BECN), adicionalmente de la fragmentacin de los frames de datos, cuando los
frames de voz estn presentes, como se describe en el estndar Frame Relay
FRF.12.
Un componente de frame relay QoS es descartar los paquetes elegibles cuando
se experimenta congestion en la red. Frame relay permite que el trafico de la
red que va ser enviado exceda el CIR. Los frames que excedan la tasa de
transmisin comprometida deben de ser marcados como elegibles para
descartar (DE) al ingresar al switch frame relay. Si la congestion ocurre dentro
de la red, los frames marcados con elegibles para descartar (DE)
preferentemente deben de ser descartados antes que los frames que no estn
marcados.
Cuando un cliente transmite paquetes IP de un sitio a otro, el campo de
precedencia IP (los 3 primeros bits del campo DSCP en el encabezado de un
paquete IP) especifica el CoS. Usando la precedencia IP, el administrador de
red debe asignar valores de 0 (por defecto) a 7 para clasificar y priorizar los
tipos de trfico. Basados en el marcado de precedencia IP, el paquete se le da
el tratamiento deseado, como es garantizar el ancho de banda o latencia. La
precedencia IP es eliminado gradualmente en favor del DSCP, pero es
soportada por muchas aplicaciones y routers.

Los bits MPLS experimentales comprenden un campo de 3 bits que se puede


utilizar para asignar prioridad IP en una etiqueta MPLS. Esto permite que los
enrutadores que tengan MPLS habilitado puedan realizar funciones de QoS
basada indirectamente en el campo original de precedencia IP dentro de los
paquetes IP encapsulados por MPLS, sin necesidad de gastar recursos para
buscar en la cabecera del paquete IP y examinar el campo de precedencia IP. Si
el proveedor de servicios de red es una red MPLS, a continuacin, los bits de
precedencia de IP se copian en el Campo Experimental MPLS (CAD) de campo
en el borde de la red. El campo MPLS EXP permite que el proveedor de
servicios pueda ofrecer QoS sin sobrescribir el valor en el campo de los clientes
de precedencia IP. El encabezado IP queda disponible para uso del cliente, y el
marcado de paquetes IP no se cambia, mientras que el paquete viaja a travs
de la red MPLS

En contraste con servicios integrados (IntServ), que es de grano fino, el flujo de


mecanismo basado en el servicio diferenciado (DiffServ) es un mecanismo
basado en el grano grueso, clase para la gestin del trfico. La arquitectura
DiffServ se basa en un modelo simple en el que los paquetes de datos se
colocan en un nmero limitado de clases de trfico, en lugar de diferenciar el
trfico de red basada en las necesidades de un flujo individual. Cada clase de
trfico se pueden manejar de otra manera, asegurando un trato preferencial
para trfico de prioridad ms alta en la red.
Uno de los principios fundamentales de DiffServ es que se debe marcar los
paquetes tan cerca del borde de la red como sea posible. A menudo es una
tarea difcil y toma tiempo, para determinar qu la clase de trafico a la que un
paquete de datos pertenece. Se deben clasificar los datos lo menos que sea
posible. Al marcar el trfico en el borde de la red, los dispositivos de la red
bsica y otros dispositivos a lo largo de la ruta de transmisin sern capaces de
determinar rpidamente el CoS adecuada para aplicar a un determinado flujo
de trfico. Un beneficio clave de DiffServ es la facilidad de escalabilidad en
comparacin con IntServ.

HERRAMIENTAS DE CLASIFICACION PARA LA PRECEDENCIA IP Y PUNTOS DE


CODIGO DIFFSERV

El byte de Tipo de Servicio IP en la capa 2 cambia a menudo, de acuerdo a los


medios de comunicacin que los paquetes atraviesen desde el origen al
destino, una clasificacin ms omnipresente que se producen en la capa 3. El
segundo byte de un paquete IPv4 es el byte tipo de servicio (ToS). Los tres
primeros bits del byte ToS solo se conocen como la prioridad de la propiedad
intelectual (PPI) de bits. Estos mismos tres bits, en relacin con los prximos
tres bits, se conocen colectivamente como los bits DSCP.

Los bits de precedencia IP, como 802.1p bits de CoS, permiten slo 8 valores
de marca de (0-7).

IPP valores de 6 y 7 son generalmente reservada para el trfico del control de


la red(como el enrutamiento).
IPP valor 5 es recomendado para la voz.
IPP Valor 4 es compartida por videoconferencia y streaming de video.
IPP valor 3 es para el control de voz.
IPP valores 1 y 2 puede ser utilizado para aplicaciones de datos.
El valor IPP 0 es el valor por defecto.

Muchas empresas encuentran al marcado IPP, como excesivamente restrictivo


y limitante, favoreciendo en cambio el modelo de marcado DSCP 6-Bit/64-
value.

IP byte ToS y el campo DS dentro del encabezado IP

Para apoyar DiffServ, el IPv4 Tipo de servicio (ToS) octeto se ha redefinido de 3-


bit para precedencia IP a 6-bit para el campo DSCP. Antes de DiffServ, las redes
IP podra utilizar el campo de precedencia en el tipo de servicio (TOS) de bytes
de la cabecera IP para marcar el trfico de prioridad.
Como el byte TOS y la precedecnia IP no era ampliamente utilizado, el IETF
acord volver a utilizar el byte TOS como el campo DS para las redes de
DiffServ. A fin de mantener la compatibilidad con dispositivos de red que an
utilizan el campo de precedencia, DiffServ define el PHB selector de clase.
El Selector de puntos de cdigo de clase son de la forma 'xxx000'. Los tres
primeros bits son los bits de precedencia IP. Cada valor de precedencia IP
puede ser asignada a una clase de DiffServ. Si se recibe un paquete de un
router no-DiffServ consciente de que utiliza las marcas de prioridad de
investigacin, el router DiffServ todava puede entender la codificacin de
punto de cdigo como un selector de clase.
PRECEDENCIA IP Y COMPATIBILIDAD CON DSCP
RFC 2474 sustituye el campo TOS con el campo DiffServ, en el que una serie de
ocho valores (selector de clase) se utiliza para la compatibilidad con IP
precedente. No hay compatibilidad con otros bits utilizados por el campo TOS.
El selector de clase Per Hop Behavior (PHB) fue definido para proporcionar
compatibilidad hacia atrs para DSCP con Tos-basada prioridad de
investigacin.
RFC 1812 simplemente da prioridad a los paquetes de acuerdo con el valor de
prioridad. En este sentido, el PHB se define como la probabilidad de
transmisin puntual.
Por ejemplo, considere una oferta de proveedor de servicios de los llamados
"Juegos Olmpicos" clases de servicio (Oro, Plata, Bronce) para que los
paquetes en la experiencia de la clase de oro tengan la carga ms ligera, y por
lo tanto tienen mayor probabilidad de transmisin oportuna que los paquetes
asignados a la clase plata. Los paquetes con mayor precedencia IP debera ser
(en promedio) los que se transmitan en menos tiempo que los paquetes con
prioridad IP ms bajos.
Los ltimos 3 bits del DSCP (bits 2 a 4) se ponen a 0 para identificar una clase
selectora de PHB.

COMPORTAMIENTO POR SALTOS

Ahora que los paquetes pueden ser marcados con el DSCP, cmo podemos
proveer de CoS significativa, y proporcionar la calidad de servicio que se
necesita?

En primer lugar, la organizacin de los paquetes que tienen el mismo valor


DSCP (tambin llamado punto de cdigo) en ellos, y de paso en una direccin
determinada se denomina "el comportamiento global (BA). Los paquetes de
mltiples aplicaciones y fuentes podran pertenecer a la misma BA.
Formalmente, RFC-2475 define un Per Hop Behavior (PHB) como el
comportamiento de reenvo externamente observables aplicado a un nodo DS
compatible con un BA DS. En trminos ms concretos, un PHB se refiere a la
programacin de paquetes, de cola, la politica, o la configuracin del
comportamiento de un nodo en cualquier paquete dado que pertenecen a una
BA, y tal como est configurado por un Acuerdo de Nivel de Servicio (SLA) o la
poltica.
Hasta la fecha, cuatro PHBs estndares estn disponibles para construir un
DiffServ habilitado para red de grano grueso, de extremo a extremo de CoS y
QoS: Default, EF, AF y de clase-selector.
PHBs se definen en trminos de las caractersticas de comportamiento
pertinentes para las polticas de provisin de servicio, y no en trminos de
mecanismos de aplicacin en particular. En general, una variedad de
mecanismos de aplicacin pueden ser adecuados para la aplicacin de un
grupo de PHB en particular. La arquitectura DiffServ define el campo DiffServ
(DS) para hacer el comportamiento por saltos (PHB) las decisiones sobre la
clasificacin de paquetes y funciones de acondicionamiento de trfico, como la
medicin, marcado, dar forma, y la politica. El PHB por defecto (definida en el
RFC-2474). El valor por defecto PHB especifica que un paquete marcado con un
valor DSCP (recomendado) de `000000 'obtiene el mejor servicio posible
tradicionales de un nodo DS compatible (una red que cumple todos los
requisitos bsicos DiffServ). Adems, si un paquete llega a un nodo DS
compatible y su valor DSCP no est asignado a cualquiera de los otros PHBs,
obtendr el valor por defecto asignado a PHB. Class-Selector de PHB (definido
en el RFC-2474). Para preservar la compatibilidad con el sistema de propiedad
intelectual de precedencia, los valores DSCP de la forma `xxx000", donde x es
0 o 1, se definen. Estos puntos de cdigo se denominan de clase puntos de
cdigo de seleccin. El PHB asociado con un punto de cdigo de seleccin de
clase es una clase de selector de PHB. Estos PHBs retienen casi el mismo
comportamiento de reenvo como nodos que implementan la propiedad
intelectual basados en la clasificacin y prioridad de reenvo. Por ejemplo, los
paquetes con un valor DSCP de `110000 '(IP-precedencia 110) tienen un
tratamiento preferencial de transmisin (programacin, colas, etc) en
comparacin con los paquetes con un valor DSCP de` 100000' (IP-precedencia
100). Estos PHBs garantizar que los DS-compatible con los nodos pueden
coexistir con la propiedad intelectual prioridad nodos consciente, con la
excepcin de los bits DTS.

ESTANDARES DE GRUPOS PHB

2.5 Mecanismos de QoS para administrar y evitar la


congestin de la red.

Una manera de manejar elementos de la red de un desbordamiento o


congestin de trfico es utilizar un algoritmo de cola para ordenar el trfico y, a
continuacin, establecer un mtodo de prioridad en un enlace de salida. El
software Cisco IOS incluye las herramientas de cola siguientes:
Primero en entrar, primero en salir (FIFO), cola
Prioridad de cola (PQ)
Uso de cola(CQ)
flujo basado en ponderacin de cola justo(WFQ)
Clase basada en ponderacin de cola justa(CBWFQ)
Cada algoritmo de cola fue diseado para resolver un problema especfico de
trfico de la red y tiene un particular efecto sobre el rendimiento de la red.
FIFO bsicamente es la capacidad de almacenamiento y envio
En su forma ms simple, hacer cola FIFO implica el almacenamiento de
paquetes, cuando la red est congestionada y la transmisin por orden de
llegada cuando la red ya no est congestionado. FIFO es el valor
predeterminado del algoritmo de cola, en algunos casos, por lo que no requiere
configuracin, pero tiene varios defectos. Importante, FIFO no hace cola de
decisin sobre la prioridad de paquetes, el orden de llegada determina el ancho
de banda, rapidez, y la asignacin de amortiguamiento. Tampoco prev la
proteccin contra los malos comportamientos de las aplicaciones (fuentes).
Rafagas de las fuentes puede causar retrasos en el tiempo de entrega de
aplicaciones sensible al trfico, y potencialmente para el control de la red y los
mensajes de sealizacin. La cola FIFO es necesario en primer lugar el paso en
el control de trfico de la red, pero las redes inteligentes de hoy necesitan
algoritmos ms sofisticados.
Adems, una cola completa causa gotas de cola. Esto no es deseable porque el
paquete podra haberse descartado siendo un paquete de alta prioridad. El
enrutador no puedo evitar que este paquete se elimine porque no haba lugar
en la cola para almacenarlo (adems del hecho de que FIFO no puede decidir
de un paquete de alta prioridad a uno de mnima prioridad). El software Cisco
IOS implementa algoritmos de cola que evitar las deficiencias de cola FIFO.

PQ: priorizacin del trfico


PQ garantiza que el trfico importante sea manejado mejor en cada punto
donde se utiliza. Fue diseado para dar prioridad al trfico de estricta
importante. La prioridad de cola flexible puede priorizar de acuerdo al
protocolo de red (por ejemplo, IP, IPX o AppleTalk), interfaz de entrada, el
tamao de paquete, direccin de la fuente/destino, y as sucesivamente. En PQ,
cada paquete se coloca en una de las cuatro colas, alta, media, normal, o baja
sobre la base de una de las prioridades asignadas. Los paquetes que no estn
clasificados por esta prioridad en las listas
mecanismo de descarte en la cola normal (ver Figura Siguiente). Durante la
transmisin, el algoritmo da las colas de mayor prioridad trato preferencial
absoluto sobre las colas de prioridad baja.
PQ es til para asegurarse de que el trfico de misin crtica que atraviesa
varios enlaces WAN se le de tratamiento prioritario.

CQ: Garanta de ancho de banda


CQ fue diseado para permitir que varias aplicaciones u organizaciones puedan
compartir la red entre las aplicaciones con ancho de banda mnimo o requisitos
especficos de latencia. En estos entornos, el ancho de banda debe ser
compartido proporcionalmente entre las aplicaciones y los usuarios. Usted
puede utilizar la caracterstica de Cisco para proporcionar CQ ancho de banda
garantizado en un punto de congestin potenciales, asegurando el trfico
especificado en una parte fija del ancho de banda disponible y dejando el
ancho de banda restante para la circulacin. Usando una cola para el manejo
de trfico mediante la asignacin de una cantidad especfica de espacio en la
cola a cada clase de paquetes y, a continuacin el servicio de las colas en un
round-robin (ver Figura Siguiente).
Basadas en flujos WFQ: Realizando equidad entre diferentes flujos
Para las situaciones en las que es conveniente establecer el tiempo de
respuesta coherente a la red de datos entre los paquetes pesados y ligeros de
los usuarios, por igual sin necesidad de aadir ancho de banda excesivo, la
solucin est basada en el flujo de WFQ (comnmente denominado
como el justo WFQ). WFQ es una de las tcnicas de colas de cisco. Es un flujo
basado en el algoritmo de cola que crea bits de equidad al permitir a cada cola
ser atendidos de forma equitativa en trminos de cantidad de bytes.
WFQ asegura que las colas no se priven de ancho de banda y el trafico reciba
un servicio predecible. El bajo volumen de flujos de trfico, que constituyen la
mayora de trfico, recibir el servicio de aumento de que se transmite el mismo
nmero de bytes como los arroyos de gran volumen. Este comportamiento
resulta en lo que parece a un trato preferencial para trfico de bajo volumen,
cuando en realidad es hacer justicia, como se muestra en la siguiente figura.

WFQ est diseado para reducir al mnimo el esfuerzo de configuracin, y


automticamente se adapta a los cambios de red y las condiciones del trfico.
De hecho, WFQ hace un trabajo tan bueno para la mayora de las aplicaciones
que se ha hecho la modalidad por defecto de cola en la mayora de las
interfaces de serie configurado para ejecutarse en o por debajo de las
velocidades de E1 (2,048 Mbps). Basado en flujos WFQ crea corrientes sobre la
base de una serie de caractersticas en un paquete. Cada flujo (tambin
llamado como una conversacin) tiene su propia cola de bfer si se
experimenta congestin.

La parte ponderada de WFQ proviene de la utilizacin de bits de precedencia IP


para proporcionar un mejor servicio para las colas. Utilizando los valores 0 a 5
(6 y 7 estn reservados), WFQ utiliza su algoritmo para determinar cmo una
cola puede prestar muchos ms de servicios. WFQ es eficiente dado que utiliza
cualquier ancho de banda disponible para reenviar el trfico de baja prioridad.
Si no hay flujos de trfico de los flujos de mayor prioridad est presente. Esto
es diferente de tiempo estrictos divisin Multiplexing (TDM), que simplemente
divide al ancho de banda y permite que se queden sin utilizarse, si no hay
trfico presente para un tipo de trfico particular. WFQ funciona tanto con
precedencia de IP y Protocolo de reserva de recursos
(RSVP).
El algoritmo de WFQ tambin aborda el problema de la ronda de la variabilidad
de retardo de disparo. Si el volumen de mltiples conversaciones activas es
alta, sus tasas de transferencia y los perodos entre llegadas se hacen mucho
ms previsible. Esto es creado por el bit-equidad. Si las conversaciones son
atendidos de manera consistente con un enfoque round-robin, la variacin de
retardo (o jitter) se estabiliza. WFQ mejora enormemente algoritmos como
SNA, control de enlace lgico (LLC) y el Protocolo de Control de Transmisin
(TCP), el control de la congestin. El resultado es que es ms predecible el
rendimiento y tiempo de respuesta para cada flujo activo, como muestra en
siguiente figura.

La cooperacin entre WFQ y QoS tecnologias de sealizacin


Como se mencion anteriormente, WFQ es prioridad IP-consciente, es decir, es
capaz de detectar la mayor prioridad de los paquetes marcados con prioridad
por el despachador IP y puede programarlos con mayor rapidez, dando siempre
mejor tiempo de respuesta para este trfico. Esta es la parte ponderada de
WFQ. El campo de precedencia IP tiene valores entre 0 (por defecto) y 7 (6 y 7
estn reservados y normalmente no son fijados por los administradores de
red). A medida que aumenta el valor de prioridad, el algoritmo asigna ms
ancho de banda para que la conversacin pueda asegurarse de que se sirve
con ms rapidez aun cuando se produzca congestin. WFQ asigna un peso a
cada flujo, con el fin de determinar como se van a transmitir los paquetes en la
cola. En este esquema, bajo peso se dan ms servicio. Precedencia IP sirve
como un divisor de este factor de ponderacin. Por ejemplo, el trfico con una
IP Valor de un campo de precedencia de 7 recibe un peso ms bajo que el
trfico con el valor de un campo de precedencia IP de 3, y por lo tanto, tiene
prioridad en el orden de transmisin.

WFQ es tambin RSVP-aware; RSVP WFQ utiliza para asignar espacio de


amortiguacin y los paquetes de programacin, y es garanta de ancho de
banda para los flujos reservados. Adems, en una red Frame Relay, la
presencia de la congestin est marcado por la notificacin de la congestin
con inters explcito (FECN) y hacia atrs explcita la notificacin de la
congestin (BECN) bits. Los pesos WFQ se ven afectados por Frame Relay al
descartar elegibles (DE),
FECN, y los bits BECN cuando el trfico se cambia por el mdulo de
conmutacin Frame Relay. Cundo se marca congestin, las ponderaciones
utilizadas por el algoritmo se alteran de manera que la conversacin transmite
con menos frecuencia.
Basada en clases WFQ: Garantizar ancho de banda para la red
Basada en clases WFQ (CBWFQ) es una de de las nuevas herramientas de
administracin de la congestion de Cisco para proporcionar una mayor
flexibilidad. Cuando se desea proporcionar una mnima cantidad de ancho de
banda, el uso CBWFQ. Esto es en comparacin con un deseo de proporcionar
una cantidad mxima de ancho de banda. CAR y de trfico se utilizan en ese
caso.
CBWFQ permite a un administrador de red crear clases de ancho de banda
mnimo garantizado. En lugar de proporcionar una cola para cada flujo
individual, se define una clase que consta de uno o ms flujos. A cada clase se
le puede garantizar un mnimo de ancho de banda.

La baja latencia de cola permite a una clase ser atendidos como una cola de
prioridad estricta. El trfico en esta clase se le dara servicio antes de
cualquiera de las otras clases. Una reserva de una cantidad de ancho de banda
que se haga. Cualquier trfico por encima de esta reserva se descarta. Fuera
de CBWFQ, puede utilizar la propiedad intelectual prioridad RTP (tambin
conocido como
PQWFQ) o IP reserva RTP para prestar un servicio similar para el trfico RTP
solamente.

Administracin de colas (Herramientas para evitar la congestin)


Evitar la congestin es una forma de administracin de colas. Las tcnicas para
evitar la congestin monitorean las cargas de trfico de red en un esfuerzo
para anticipar y evitar la congestin en los cuellos de botella de la red comn,
como opuesto de las tcnicas de manejo de congestin estas operan el control
de la congestin despus de que esta ocurre. La herramienta primaria para
evitar la congestin del Cisco IOS es Weighted Random Early Detection (WRED).

WRED: Evita congestin


Los algoritmos de deteccin temprana de azar (Ramdom Early Detection RED)
estn diseados para evitar la congestin en las Internetworks antes de que se
convierta en un problema. RED funciona mediante el monitoreo en los puntos
de carga de trfico en la red y estocsticamente
descarta paquetes si la congestin comienza a aumentar. El resultado de la
cada es que la fuente detecta que el trfico se descarta y disminuye su
transmisin. RED es principalmente diseado para trabajar con TCP en IP en
entornos de redes.

WRED Cooperacin con las tecnologas de sealizacin QoS


WRED combina las capacidades del algoritmo de RED con precedencia IP. Esta
combinacin proporciona preferencia para el trfico de manipulacin para los
paquetes de mayor prioridad. De manera selectiva se puede descartar el
trafico de menor prioridad cuando la interfaz comienza a estar congestionada y
puede proporcionar un rendimiento diferenciado de acuerdo a las
caractersticas de las diferentes clases de servicio. WRED es como RSVP-aware
y puede proporcionar un servicio integrado de carga controlada para QoS.
Dentro de cada cola, un nmero finito de paquetes pueden ser alojados. Una
cola completa causa gotas de cola. Gotas de cola es descartar los paquetes
que no caben en la cola porque la cola esta llena. Esto no es deseable porque
el paquete descartado puede haber sido de alta prioridad de paquetes y el
router no tiene la oportunidad de meterlo a la cola. Si la cola no est llena, el
router puede ver la prioridad de todos los paquetes que llegan y descartar los
paquetes con menor prioridad, permitiendo que los paquetes de alta prioridad
entren en la cola. A travs de la gestin de la capacidad de la cola (el nmero
de paquetes en la cola), descartando varios paquetes, el router puede hacer
todo lo posible para asegrese de que la cola no se llene, y que las gotas de la
cola no se experimenten. Esto permite que el router tenga que tomar la
decisin de los paquetes que debe descartar cuando aumenta la capacidad de
la cola. WRED tambin ayuda a evitar la congestin general en una
interconexin de redes. WRED utiliza un umbral mnimo para cada nivel de
precedencia IP para determinar cuando un paquete se puede descartar. (El
umbral mnimo debe ser superado para que WRED pueda considerar un
paquete como un candidato para ser descartados).

Flujo RED: RED para No-TCP-Cumplimiento de los flujos


WRED se utiliza principalmente para los flujos TCP que permite el reenvo si se
interrumpe la transmisin de un paquete. Esto es no-TCP-cumplimiento de
flujos que no permiten el reenvo si los paquetes son descartados. El Flujo RED
se utiliza para tratar con esos flujos. El enfoque consiste en aumentar la
probabilidad de descartar un flujo si supera un umbral.
Basado en flujo WRED se basa en estos dos enfoques principales para
solucionar el problema de los paquetes lineal dumping:
Se clasifica el trfico entrante en los flujos en funcin de parmetros tales
como direcciones de destino y origen y los puertos.
Se mantiene el estado sobre los flujos de activos, que son los flujos que
tienen los paquetes en las colas de salida.

El flujo basado en WRED utiliza esta clasificacin y el estado de la informacin


para asegurar que cada flujo no consuma ms de su cuota permitida de los
recursos de bfer de salida. El flujo basado en WRED determina los flujos que
monopolizan los recursos, y en mayor medida penaliza a estos flujos.
As es como el flujo basado en WRED asegura la equidad entre los flujos:
Este mantiene un conteo del nmero de flujos activos que existen a travs de
una interfaz de salida. Dado el nmero de los flujos de activos y el tamao de
la cola de salida, el flujo basadas en WRED determina el nmero de bferes
disponibles por flujo.
Para que haya una cierta explosividad, el flujo basado en WRED escala el
nmero de bferes disponibles por flujo por un factor configurado y permite
que cada flujo activo pueda tener un cierto nmero de paquetes en la cola de
salida.
Este factor de escala es comn para todos los flujos. La salida de escala por el
nmero de buffers trata de limitar el flujo. Cuando un flujo excede el lmite por
flujo, la probabilidad de que un paquete de ese flujo se descarte se incrementa.
2.6 AutoQoS

Cisco AutoQoS: Automatizando la entrega de las redes QoS


El auto Qos de Cisco automatiza el despliegue de politicas de QoS en un
entorno de negocios, particularmente para las grandes y medianas empresas.
AutoQoS ofrece algunos beneficios como:
Incorpora valor agregado de inteligencia en CISCO IOS y en el sistema
operativo de los CISCO catalyst que proporcionan la implementacin y la
administracin de QoS.
Protege los datos crticos de negocios en la empresa que maximiza su
disponibilidad.
Provee QoS para routers y switches, simplificando el despliegue de QoS.
Los clientes pueden implementar requerimientos de QoS para voz, video
y el trafico de datos externo, independientemente de la tecnologa(PPP,
Frame Relay, ATM, Politicas de Servicio y mecanismo de eficiencia del
enlace).
Simplifica la implementacin del QoS y aumenta la velocidad mediante
la tecnologa de QoS en una red CISCO. Esto reduce el potencial de un
error humano y minimiza los costos de capacitacin.
Crea un mapa de clases y mapas de polticas en la experiencia de Cisco
y las mejores practicas. AutoQoS crea una configuracin de QoS,
siguiendo los estndares industriales, como el modelo DiffServ, para
lograr un ambiente interoperable.
Los clientes pueden utilizar los comandos de CISCO IOS para modificar la
configuracin automtica generada por el AutoQoS, que se necesita para
requerimientos especficos.

Cisco AutoQoS: Automatizando los elementos clave de la


implementacin de QoS

El Cisco AuoQoS se basa en 5 elementos claves:


Clasificacion de las aplicaciones: AutoQoS usa una clasificacin
inteligente en los routers, utilizando Reconocimiento de la Aplicacin
Basada en la Red (NBAR) que provee una inspeccin de paquetes
profunda y completa. El AutoQoS usa el Protocolo de Descubrimiento de
Cisco (CDP) para reconocer los dispositivos, ayuda para descubrir si es
que un dispositivo de la red es realmente un Cisco IP Phone.
Generacion de Politicas: El AutoQoS evalua el rendimiento de la red y
genera una politica inicial. Esta automticamente determina las
configuraciones WAN para la framentacin, compresin,
encapsulamiento y Frame Relay ATM internetworking, elimando la
necesidad de entender la teora de QoS y disear practicas en varios
escenarios. El cliente debe conocer los requerimientos adicionales o
especiales para modificar la poltica inicial.
Configuracin: Con un comando AutoQoS configura la interfaz para
priorizar el trafico critico mientras ofrecen flexibilidad para ajustar la
configuracin QoS para los requerimientos de cada red. El AutoQoS no
solamente detecta los Cisco Ip Phones y activa la configuracin QoS para
el puerto del telfono, tambin puede desactivar las configuraciones QoS
para prevenir la actividad maliciosa cuando se mueve o reubica un Cisco
IP phone.
Monitoreo y reportes: El AutoQoS provee visibilidad dentro de las clases
del servicio usando el sistema de ingreso y el protocolo simple de
administracin de red (SNMP) trampas con notificaciones o eventos
anormales( por ejemplo la perdida de paquetes VoIP). El Cisco QoS
Administrador de Politicas (QPM) es el monitor de la plataforma QoS,
cuando usas el Cisco inteligencia de red IP para proveer visibilidad de las
operaciones de red. Tambien se puede medir la salida de trafico para las
aplicaciones y clases de servicios. Podemos resolver problemas con un
historial en tiempo real de QoS feedback. AutoQoS despliega el trafico y
estadsticas en graficas de lneas o barras, en bits o paquetes por
segundo, por interface o poltica. Cisco QPM activa la vista de graficos
antes y despus de QoS deployment, tied al filtro de trafico y polticas,
como resultado de las polticas QoS.
Consistencia: Las polticas AutoQoS trabajn junto con los dispositivos
Cisco, ayudando a la consistencia en el QoS de Fin Fin. Cisco QPM
activa las siguientes vistas:
o Estadisticas sobreponiendo polticas y filtros especficos,
incluyendo NBAR filtros de aplicaciones.
o El promedio de trafico antes de aplicar las polticas QoS y el
trafico transmitido posteriormente, adems del trafico descartado
como consecuencia de las polticas.
o Estadisticas de accin QoS: weighted random early detection
(WRED), politicas, organizacin de trafico y colas.

CONFIGURACION MANUAL DE QoS CONTRA AUTOQoS


CONFIGURANDO CISCO AUTOQoS: PREREQUISITOS DEL ROUTER
Antes de configurar Cisco AutoQos debemos de conocer sus prerrequisitos:
Debemos asegurarnos que la interfaz no tenga polticas de QoS
agregadas. No se puede configurar AutoQoS en una interfaz que ya
tenga polticas QoS agregadas.
Activar el Cisco envio express(CEF). AutoQoS utiliza NBAR para
identificar varios tipos de trafico de las aplicaciones y CEF es un
prerrequisito para NBAR.
Cisco AutoQoS clasifica los enlaces y la alta o baja velocidad depende
del ancho de banda del enlace. Recuerde que si en una interfaz serial no
se especifica el ancho de banda se le pone 1.544 Mbps por defecto.
Entonces debemos asegurarnos de tener el correcto ancho de banda en
las interfaces o subinterfaces cuando Cisco AutoQoS este activado.

Implementacin de QoS en 2 fases


Fase 1: Ejecutar Auto Descubrimiento para conocer el trafico:
Se debe recolectar datos para el trafico ofrecido por algunos dias o semanas
como se desee.
Usar NBAR basado en el protocolo de descubrimiento.
Realizar anlisis estadsticos.

Fase 2: Generar e implementar MQC basada en polticas QoS.


Mapear las aplicaciones que correspondan con las clases Diffserv. Asignando
valores apropiados para el ancho de banda y programando parmetros.

FASE 1: PERFILES DE TRAFICO EN LOS ROUTERS CON AUTO


DESCUBRIMIENTO
Iniciar la fase de auto descubrimiento usando el comando auto discovery qos
en la interfaz seleccionada.
Cuando se ejecute el auto descubrimiento, observe estas restricciones:
El comando auto discovery qos no es soportado por la subinterfaces.
No cambie el ancho de banda en la interfaz cuando utilize el comando auto
discovery qos.
Se deben quitar todas las polticas aplicadas en la interfaz.
La palabra opcional trust indica que los paquetes son marcados en base al
DSCP (basado en) la clasificacin de voz, video y trafico de datos. Si no se
especifica esta opcin CiscoAutoQos clasifica voz, video y el trafico de datos
usando NBAR y los paquetes van a ser marcados con el valor apropiado DSCP.

Notas sobre la fase de auto descubrimiento:


Si queremos parar el autodescubrimiento, usaremos el comando no auto
discovery qos. Este comando detendr el proceso de recoleccin de datos y
eliminara todos los datos recolectados.
Si queremos verificar el resultado parcial de el auto descubrimiento usaremos
el comando show auto discovery qos.

EJEMPLO DE ACTIVACIN DE AUTO DESCUBRIMIENTO QoS

FASE 2 Configurando polticas QoS en los routers

El comando auto qos genera para la empresa plantillas basadas en datos


recogidos durante la fase de auto descubrimiento y luego instala las plantillas
de la interfaz. AutoQoS utiliza estas plantillas para crear mapas de la clase y
mapas de las polticas de la red y luego los instala en la interfaz.

Para eliminar el Cisco AutoQoS de una interfaz se utiliza la forma no del


comando auto qos.
Se utiliza la palabra clave voip para generar plantillas con Cisco AutoQoS VoIP.
La palabra clave trust se utiliza para la confianza (es decir, depende de) las
marcas DSCP para la clasificacin de trfico de voz. Si no se especifica la
palabra clave de la confianza opcional, Cisco AutoQoS clasifica el trfico de voz
utilizando NBAR, y las marcas de los paquetes con el valor DSCP apropiado.
La opcin fr-atm activa Cisco AutoQoS VoIP para los enlaces de frame relay a
ATM.

EJEMPLO DE LA APLICACION DE AutoQoS

COMO SE VERIFICA EL AUTOQoS EN LOS ROUTERS Y LOS SWITCHES

Muestra los datos recolectados durante el auto descubrimiento para una


interfaz o para todas la interfaces.
Despliega las plantillas de Cisco AutoQoS (Mapas de polticas, mapas de clases
y ACL), creadas para una o todas las interfaces.

Muestra las estadsticas para todas las clases de paquetes configurados para
todas las polticas de servicio en una interfaz especifica, subinterfaz o PVC.

Despliega la configuracin de Cisco AutoQoS VoIP que fue inicialmente creada.

Muestra la informacin QoS a nivel de interfaz.

Muestra los mapas que se utilizan para generar la clasificacin de valores


DSCP, que representa la prioridad del trafico.

III. VoIP

Objetivo: El alumno configurar protocolos de VoIP en una red convergente


para establecer comunicaciones de voz.

3.1 Introduccin a la tecnologa y arquitecturas de VoIP.

Las redes convergentes permiten transmitir seales de voz y datos sobre la


misma red. Muchas empresas de telecomunicaciones usan estas redes
convergentes proporcionar servicios de telefona y datos con una
infraestructura nica de red basada en IP.

Los beneficios que se obtienen al utilizar la misma infraestructura para


transferir distintos tipos de seales son:
Uso eficiente del ancho de banda y equipamiento.
Bajos costos de transmisin.
Reduccin de los costos de equipamiento y operacin.
Mejoramiento de la productividad al utilizar aplicaciones de telefona IP
Acceso a nuevos dispositivos de comunicacin.

La telefona IP tambin es conocida como IP Telephony o Packet Telephony


Requerimientos de una red para soportar VoIP
A continuacin se mencionan aspectos importantes que se deben tener en la
red IP para implantar este servicio en tiempo real
Manejar peticiones RSVP que es un protocolo de reservacin de recursos.
El costo de servicio debe estar basado en el enrutamiento para las redes
IP.
Donde se conecta con la red publica conmutada un interruptor de
telefona IP debe soportar el protocolo del Sistema de Sealizacin 7
(SS7). SS7 se usa eficazmente para fijar llamadas inalmbricas y con
lnea en la PSTN y para acceder a los servidores de bases de datos de la
PSTN. El apoyo de SS7 en interruptores de telefona IP representa un
paso importante en la integracin de las PSTN y las redes de datos IP.
Se debe trabajar con un comprensivo grupo de estndares de telefona
(SS7, Recomendacin H.323) para que los ambientes de telefona IP y
PBX/PSTN/ATM vdeo y Gateway telefnica puedan operar en conjunto en
todas sus caractersticas

3.2 Funciones y componentes de VoIP.

La tecnologa basada en VoIP consiste en varios componentes como son:


Telfonos: Telfonos IP, Software utilizado desde una PC, Analgicos o
ISDN.
Gateways: Dispositivos que interconectan la telefona IP con la telefona
tradicional, pueden ser telfonos analgicos o ISDN, faxes, sistemas
PBX(conmutadores) o switches PSTN.

El Gateway es un elemento esencial en la mayora de las redes pues su


misin es la de enlazar la red VoIP con la red telefnica analgica o RDSI.
Podemos considerar al Gateway como una caja que por un lado tiene un
interface LAN y por el otro dispone de uno o varios de los siguientes
interfaces:
o FXO. Para conexin a extensiones de centralitas a la red
telefnica bsica.
o FXS. Para conexin a enlaces de centralitas o a telfonos
analgicos.
o E&M. Para conexin especfica a centralitas.
o BRI. Acceso bsico RDSI (2B+D)
o PRI. Acceso primario RDSI (30B+D)
o G703/G.704. (E&M digital) Conexin especifica a centralitas a 2
Mbps.

Los distintos elementos pueden residir en plataformas fsicas separada, o


nos podemos encontrar con varios elementos conviviendo en la misma
plataforma. De este modo es bastante habitual encontrar juntos
Gatekeeper y Gateway.

Multipoint Control Unit (MCU): Requerido para conferencias y


establecer comunicacin con varios participantes a la vez.
GateKeepers: proveen control de administracin de llamada (Call
Admision Control, CAC). Traducen nmeros telefnicos o IP para
llamadas routeadas en redes H.323

El Gatekeeper es un elemento opcional en la red, pero cuando est


presente, todos los dems elementos que contacten dicha red deben
hacer uso de el. Su funcin es la de gestin y control de los recursos de
la red, de manera que no se produzcan situaciones de saturacin de la
misma.

Call Agents: Proveen CAC, control de ancho de banda y traduccin de


servicios a telefona IP.
Video EndPoints: Provee caractersticas de video sobre telefona para
videoconferencias. Permite combinar seales de video y audio digital.

En una red de telefona IP algunas funciones se transmiten en DSPs(digital


signal processors) que se usa para convertir seales de voz analgica en
formato digital y viceversa. Tambin proveen funciones como compresin de
voz, transcoding(cambio de entre varios formatos de voz), conferencias. Los
DSPs se encuentran en los mdulos de voz dentro de los gateways.

En la las redes VoIP que incluye dispositivos tradicionales como telfonos


analgicos, se necesita un Gateway para convertir la seal, pero si todos los
dispositivos son IP la conversin no es necesaria.
Etapas de una llamada telefnica IP
En general el control de llamada telefnica incluye las etapas siguientes:
Establecimiento: Determina la ruta destino, especifica requerimientos
de ancho de banda, enva mensaje de conexin al destino. A travs de
protocolos como H.323, MGCP, SIP se definen diferentes tipos de
mensajes para negociar las direcciones IP para los dos dispositivos IP, los
flujos RTP y el formato a utilizar(por ejemplo la compresin).
Mantenimiento de la Sesin: establece medios para mantener activa la
sesin, utilizando mecanismos de control que permiten determinar la
calidad de la conexin.
Desconexin: Termina la sesin liberando los dispositivos para futuras
llamadas.
3.3 Principales Protocolos de VoIP de acuerdo al Modelo OSI.

Para realizar envos de voz sobre una red basada en IP, esta debe primero
digitalizarse para encapsularse en un paquete IP. IP no proporciona por si
mismo mecanismos de transferencia de voz, por lo que utiliza otro conjunto de
protocolos de transporte. Los protocolos que se utilizan para realizar la
transmisin son TCP(Transmission Control Protocol), UDP(User Datagram
Protocol) y RTP(Real Time Protocol).

Las siguientes caractersticas de esos protocolos proporcionan a IP el


mecanismo de transporte de voz:
Confiabilidad: TCP ofrece mecanismos orientados a conexin a travs de
acuses de recibo de paquetes y retransmisiones.
Reordenamiento: Como los paquetes pueden llevar en distinto orden,
TCP provee la manera de reconstruir ordenadamente los paquetes en el
destino.
Time-Stamping: RTP Provee control para manipular los retardos
apropiados entre paquetes y reordenamiento utilizados en aplicaciones
de tiempo real.
Multiplexacin. Un dispositivo VoIP puede tener mltiples llamadas
activas y debe trabajar con paquetes que vienen de cada llamada. UDP
proporciona un nmero de puerto para identificar cada paquete que
proviene de cada llamada. Los puertos usados por UDP para RTP van del
rango de 16348 al 32767.
Otros: TCP (20 bytes)ocupa ms bytes que UDP (8 bytes) por lo tanto
significa qie el ancho de banda requerido ser menor o mayor segn el
protocolo utilizado.

3.4 Calculo de requerimientos de ancho de banda.


Para enviar voz sobre redes digitales, se requiere un proceso de conversin de
seales analgicas que son generadas por los telfonos a seales digitales que
se enviar a travs de las redes basadas en TCP/IP. Una vez que las seales de
voz son digitalizadas, se deben encapsular en estructuras soportadas por los
protocolos, este proceso causa una sobrecarga de tiempo y de proceso en los
dispositivos de la red.

El ancho de banda que se requiere para la telefona IP depende de lo siguiente:


Packet Rate: especifica la el nmero de paquetes enviados en un cierto
intervalo de tiempo.
Paketization Size: especifica el nmero de bytes que se necesitan para
representar la informacin de voz que ser encapsulada por paquete.
IP Overhead: especifica el nmero de bytes que se agregan a la
informacin de voz durante el encapsulamiento. Si se utiliza RSTP, UDP o
IP la suma de los encabezados es el resultado.
Data Link Overhead: especifica el nmero de bytes que se necesitan
durante el encapsulamiento en la capa de enlace de datos. Depende del
tipo del enlace que se utilice.
Tuneling Overhead: especifica el nmero de bytes que se agregan para
los protocolos de seguridad o tuneling.

Los decodificadores(codecs) establecen el ancho de banda utilizado, de tal


manera que se puede calcular el ancho de banda a travs del protocolo
utilizado. Este costo es el mnimo y no incluye packetization overhead.

El tamao de los paquetes cambia dependiendo el tamao de los segmentos


de voz (chunk)
El ncho de banda depende directamente del cdec y del tamao del paquete
de voz, un ejemplo es el siguiente

En la capa de enlace de datos la diferencia es el encapsulado por tipo de


enlace, ejemplo:

Cuando se utilizan protocolos de seguridad y/o tunneling se incluyen


encabezados que modifican el tamao del paquete ejemplos:

Un ejemplo de los elementos agregados en un ambiente de red privada virtual


(VPN)
Calculo del ancho de banda pata VoIP
Bsico: se puede establecer un procedimiento con los siguientes pasos:
1. Determinar el ancho de banda del cdec a utilizar,
2. Determinar el tipo de enlace a utilizar
3. Determinar el tamao o periodo del segmento de voz
4. Sumar los encabezados y segmentos definidos en los pasos
anteriores
5. Calcular la tasa de envo paquetes (packet rate)
Packet rate [pps] = 1 / (packetization period [ms per
packet] / 1000)
Packetization period [ms per packet] = (Packetization size
[bytes per packet] * 8 / 1000) / (codec bandwidth [kbps] /
1000)
Packetization size [bytes per packet] = Packetization period
[ms per packet] * codec bandwidth [kbps] / 8

6. Calcular el total de ancho de banda total:


Total packet size [bytes per packet] = Data-link overhead
[bytes per packet] + other overhead [bytes per packet] + IP
overhead [bytes per packet] + packetization size [bytes per
packet]
En resumen se pueden especificar lo siguiente:

Si el empaquetamiento es en milisegundos:
Bandwidth [kbps] = (8 * (data-link overhead [bytes per packet] + other
overhead [bytes per packet] + IP overhead [bytes per packet]) +
packetization period [ms per packet] * codec bandwidth [kpbs]) /
packetization period [ms per packet]

Si el empaquetamieto sedetermina en bytes en vez de tiempo:


Bandwidth [kbps] = (Codec bandwidth [kbps] / packetization size [bytes
per packet]) * (packetization size [bytes per packet] + data-link
overhead [bytes per packet] + other overhead [bytes per packet] + IP
overhead [bytes per packet])

Rpido: Una manera rpida de calcular el ancho de banda total es


tener en cuenta que la que la tasa total efectiva de informacin de voz
(payload) es determinada por los codecs de tal manera que la siguiente
formula obtiene el ancho de banda basado en clculos rpidos
3.5 Configuracin de puertos e interfaces de voz en un router.

La implementacin de VoIP en una red utiliza componentes como Gateways,


Gatekeepers, Cisco Unified Call Manager y Telefonos IP.

Funcin del Gateway


Los Gateway convierten la seal analgica a seal digital para encapsularla en
paquetes IP, proporcionan el servicio de empaquetamiento para reducir la tasa
de transferencia

3.6 Protocolo H.323

El H.323 es una familia de estndares definidos por el ITU para las


comunicaciones multimedia sobre redes LAN. Est definido especficamente
para tecnologas LAN que no garantizan una calidad de servicio (QoS). Algunos
ejemplos son TCP/IP e IPX sobre Ethernet, Fast Ethernet o Token Ring. La
tecnologa de red ms comn en la que se estn implementando H.323 es IP
(Internet Protocol).

Este estndar define un amplio conjunto de caractersticas y funciones.


Algunas son necesarias y otras opcionales. El H.323 define mucho ms que los
terminales. El estndar define los siguientes componente ms relevantes:
Terminal
Gateway
Gatekeeper
Unidad de Control Multipunto

El H.323 utiliza los mismos algoritmos de compresin para el vdeo y el audio


que la norma H.320, aunque introduce algunos nuevos. Se utiliza T.120 para la
colaboracin de datos.
El H.323 soporta vdeo en tiempo real, audio y datos sobre redes de rea local,
metropolitana, regional o de rea extensa. Soporta as mismo Internet e
intranets. En Mayo de 1997, el Grupo 15 del ITU redefini el H.323 como la
recomendacin para "los sistemas multimedia de comunicaciones en aquellas
situaciones en las que el medio de transporte sea una red de conmutacin de
paquetes que no pueda proporcionar una calidad de servicio garantizada.
Ntese que H.323 tambin soporta videoconferencia sobre conexiones punto a
punto, telefnicas y RDSI. En estos casos, se debe disponer un protocolo de
transporte de paquetes tal como PPP.

Componentes H.323

Entidad
La especificacin H.323 define el trmino genrico entidad como
cualquier componente que cumpla con el estndar.

Extremo
Un extremo H.323 es un componente de la red que puede enviar y
recibir llamadas. Puede generar y/o recibir secuencias de informacin.

Terminal
Un terminal H.323 es un extremo de la red que proporciona
comunicaciones bidireccionales en tiempo real con otro terminal H.323,
gateway o unidad de control multipunto (MCU). Esta comunicacin
consta de seales de control, indicaciones, audio, imagen en color en
movimiento y /o datos entre los dos terminales. Conforme a la
especificacin, un terminal H.323 puede proporcionar slo voz, voz y
datos, voz y vdeo, o voz, datos y vdeo.

Gatekeeper
El gatekeeper (GK) es una entidad que proporciona la traduccin de
direcciones y el control de acceso a la red de los terminales H.323,
gateways y MCUs. El GK puede tambin ofrecer otros servicios a los
terminales, gateways y MCUs, tales como gestin del ancho de banda y
localizacin de los gateways o pasarelas.

El Gatekeeper realiza dos funciones de control de llamadas que


preservan la integridad de la red corporativa de datos. La primera es la
traslacin de direcciones de los terminales de la LAN a las
correspondientes IP o IPX, tal y como se describe en la especificacin
RAS. La segunda es la gestin del ancho de banda, fijando el nmero de
conferencias que pueden estar dndose simultneamente en la LAN y
rechazando las nuevas peticiones por encima del nivel establecido, de
manera tal que se garantice ancho de banda suficiente para las
aplicaciones de datos sobre la LAN. El Gatekeeper proporciona todas las
funciones anteriores para los terminales, Gateways y MCUs, que estn
registrados dentro de la denominada Zona de control H.323.

Gateway
Un gateway H.323 (GW) es un extremo que proporciona comunicaciones
bidireccionales en tiempo real entre terminales H.323 en la red IP y otros
terminales o gateways en una red conmutada. En general, el propsito
del gateway es reflejar transparentemente las caractersticas de un
extremo en la red IP a otro en una red conmutada y viceversa.

MCU (Multipoint Control Units)


La Unidad de Control Multipunto est diseada para soportar la
conferencia entre tres o ms puntos, bajo el estndar H.323, llevando la
negociacin entre terminales para determinar las capacidades comunes
para el proceso de audio y vdeo y controlar la multidifusin.

La comunicacin bajo H.323 contempla las seales de audio y vdeo. La


seal de audio se digitaliza y se comprime bajo uno de los algoritmos
soportados, tales como el G.711 o G.723, y la seal de vdeo (opcional)
se trata con la norma H.261 o H.263. Los datos (opcional) se manejan
bajo el estndar T.120 que permite la comparticin de aplicaciones en
conferencias punto a punto y multipunto.

IV. Tecnologas WAN.

4.1 Servicios de Banda Ancha y 3G

Qu es una WAN?
Una WAN es una red de comunicacin de datos que tiene una cobertura
geogrfica relativamente grande y suele utilizar las instalaciones de
transmisin que ofrecen compaas portadoras de servicios como las
telefnicas. Las tecnologas WAN operan en las tres capas inferiores del
modelo OSI. La figura muestra algunas de las tecnologas WAN Y el nivel OSI en
la que operan.

Fig. 4.1: Tecnologas WAN y Su Relacin con las Capas OSI

Las WAN se diferencian de las LAN en varios aspectos. Mientras que una LAN
conecta computadoras, dispositivos perifricos y otros dispositivos de un solo
edificio u de otra rea geogrfica pequea, una WAN permite la transmisin de
datos a travs de distancias geogrficas mayores. Adems, la empresa debe
suscribirse a un proveedor de servicios WAN para poder utilizar los servicios de
red de portadora de WAN. Las LAN normalmente son propiedad de la empresa
o de la organizacin que las utiliza.
Por qu son necesarias las WAN?
Con frecuencia, las organizaciones desean compartir informacin con otras
organizaciones que se encuentran a grandes distancias. Como, obviamente, no
es posible conectar computadoras a nivel nacional o mundial de la misma
manera en la que las computadoras de una LAN se conectan con cables, han
evolucionado diferentes tecnologas para cubrir esta necesidad. Internet se
est utilizando cada vez ms como una alternativa econmica al uso de una
WAN empresarial para algunas aplicaciones. Hay nuevas tecnologas
disponibles para las empresas que proporcionan seguridad y privacidad para
las comunicaciones y las transacciones a travs de Internet. El uso de redes
WAN solas o en combinacin con Internet permite a las organizaciones y a los
particulares satisfacer sus necesidades de comunicaciones de rea extensa.

Fig. 4.2 Redes de rea extensa

Tipo de redes WAN


Los tipos de redes WAN se clasifican en redes pblicas y redes privadas, las
cuales describiremos a continuacin.

Redes Pblicas.
Las redes pblicas son recursos WAN pertenecientes a las compaas de
telecomunicacin que operan tanto en el pas como en el mundo. Estos
recursos son ofrecidos a los usuarios a travs de suscripcin. Estas operadoras
incluyen a todas las compaas de servicios de comunicacin local, las
compaas de servicios de comunicacin a larga distancia y los proveedores de
servicios de valor agregado, quienes ofrecen con frecuencia, servicios de
comunicacin WAN como complemento a su verdadero negocio.

Redes Privadas.
Una red privada es una red de comunicaciones privada construida, mantenida
y controlada por la organizacin o compaa a la que sirve. Como mnimo una
red privada requiere sus propios equipos de conmutacin y de comunicaciones.
Puede tambin, emplear sus propios servicios de comunicacin o alquilar los
servicios de una red pblica o de otras redes privadas que hayan construido
sus propias lneas de comunicaciones. Aunque una red privada es costosa, en
compaas donde la seguridad y el control sobre el trfico de datos son de alta
prioridad, las lneas privadas constituyen la nica garanta de un alto nivel de
servicio
Fig. 4.3 Pequea empresa en crecimiento

Tecnologa 3G
La tecnologa 3G (tecnologa inalmbrica de tercera generacin) es un servicio
de comunicaciones inalmbricas que le permite estar conectado
permanentemente a Internet a travs del telfono mvil, el ordenador de
bolsillo, el Tablet PC o el ordenador porttil. La tecnologa 3G promete una
mejor calidad y fiabilidad, una mayor velocidad de transmisin de datos y un
ancho de banda superior (que incluye la posibilidad de ejecutar aplicaciones
multimedia). Con velocidades de datos de hasta 384 Kbps, es casi siete veces
ms rpida que una conexin telefnica estndar.
Lo que permite que podamos tener video llamadas, dado que dichas llamadas
se harn con una conexin directa a internet Telme ofrece este servicio de
manera gratuita

Qu ventajas aporta la tecnologa 3G?


Se dice que los usuarios de GPRS y 3G estn "siempre conectados", dado que
con estos mtodos de conexin tienen acceso permanente a Internet. Mediante
los mensajes de texto cortos, los empleados de campo pueden comunicar su
progreso y solicitar asistencia. Los ejecutivos que se encuentran de viaje
pueden acceder al correo electrnico de la empresa, de igual modo que puede
hacerlo un empleado de ventas, que tambin puede consultar el inventario.
Puede automatizar su casa o su oficina con dispositivos GPRS y 3G supervisar
sus inversiones.
4.2 Estndares WAN

Modelo de red jerrquico


El modelo de red jerrquico divide la red en tres capas.

Capa de acceso: permite el acceso de los usuarios a los dispositivos de la red.


En una red de campus, la capa de acceso generalmente incorpora dispositivos
de conmutacin de LAN con puertos que proporcionan conectividad a las
estaciones de trabajo y a los servidores. En el entorno de la WAN, puede
proporcionar a los trabajadores a distancia o a los sitios remotos acceso a la
red corporativa a travs de la tecnologa WAN.

Capa de distribucin: agrupa los armarios de cableado y utiliza switches


para segmentar grupos de trabajo y aislar los problemas de la red en un
entorno de campus. De manera similar, la capa de distribucin agrupa las
conexiones WAN en el extremo del campus y proporciona conectividad basada
en polticas.

Capa ncleo (backbone): enlace troncal de alta velocidad que est diseado
para conmutar paquetes tan rpido como sea posible. Como el ncleo es
fundamental para la conectividad, debe proporcionar un alto nivel de
disponibilidad y adaptarse a los cambios con rapidez. Tambin proporciona
escalabilidad y convergencia rpida.

Redes WAN y modelo OSI


Como se describi en relacin con el modelo de referencia OSI, las operaciones
de una WAN se centran principalmente en las Capas 1 y 2. Los estndares de
acceso WAN normalmente describen tanto los mtodos de entrega de la capa
fsica como los requisitos de la capa de enlace de datos, incluyendo la direccin
fsica, el control del flujo y la encapsulacin. La definicin y la administracin
de los estndares de acceso WAN estn a cargo de varias autoridades
reconocidas, entre ellas la Organizacin Internacional de Normalizacin (OIE ),
la Asociacin de la Industria de las Telecomunicaciones
(TIA,Telecommunications Industry Association) y la Asociacin de Industrias
Electrnicas (EIA, Electronic Industries Alliance).
Los protocolos de capa fsica (capa 1 del modelo OSI) describen cmo
proporcionar las conexiones elctricas, mecnicas, operativas y funcionales a
los servicios brindados por un proveedor de servicios de comunicaciones.
Los protocolos de la capa de enlace de datos (Capa 2 del modelo OSI) definen
cmo se encapsulan los datos para su transmisin a lugares remotos y los
mecanismos de transferencia de las tramas resultantes. Se utiliza una variedad
de tecnologas diferentes, como Frame Relay y ATM. Algunos de estos
protocolos utilizan los mismos mecanismos bsicos de entramado, control de
enlace de datos de alto nivel (HDLC, High-Level Data Link Control), una norma
ISO o uno de sus subgrupos o variantes.

Terminologa de la capa fsica de la WAN


Una de las diferencias primordiales entre una WAN y una LAN es que una
empresa u organizacin debe suscribirse a un proveedor de servicio WAN
externo para utilizar los servicios de red de una portadora WAN. Una WAN
utiliza enlaces de datos suministrados por los servicios de una operadora para
acceder a Internet y conectar los sitios de una organizacin entre s, con sitios
de otras organizaciones, con servicios externos y con usuarios remotos. La
capa fsica de acceso a la WAN describe la conexin fsica entre la red de la
empresa y la red del proveedor de servicios. La imagen muestra la
terminologa utilizada comnmente para describir las conexiones fsicas de la
WAN, por ejemplo:

Equipo local del cliente (CPE, Customer Premises Equipment):


dispositivos y cableado interno localizados en las instalaciones del suscriptor y
conectados con un canal de telecomunicaciones de una portadora. El suscriptor
es dueo de un CPE o le alquila un CPE al proveedor de servicios. En este
contexto, un suscriptor es una empresa que contrata los servicios WAN de un
proveedor de servicios u operadora.

Equipo de comunicacin de datos (DCE, Data Communications


Equipment): tambin llamado equipo de terminacin de circuito de datos, el
DCE est compuesto por dispositivos que ponen datos en el bucle local. La
tarea principal del DCE es suministrar una interfaz para conectar suscriptores a
un enlace de comunicacin en la nube WAN.

Equipo terminal de datos (DTE, Data Terminal Equipment): dispositivos


del cliente que pasan los datos de la red o la computadora host de un cliente
para transmisin a travs de la WAN. El DTE se conecta al bucle local a travs
del DCE.

Punto de demarcacin: punto establecido en un edificio o un complejo para


separar los equipos del cliente de los equipos del proveedor de servicios.
Fsicamente, el punto de demarcacin es la caja de empalme del cableado que
se encuentra en las instalaciones del cliente y que conecta los cables del CPE
con el bucle local. Normalmente se coloca en un lugar de fcil acceso para los
tcnicos.
PPPoE y PPPoA
PPPoE: Significa Protocolo de Punto a Punto sobre Ethernet, se implementa
una capa IP sobre dos puertos Ethernet, dando la posibilidad de transferir
paquetes de datos entre los dispositivos que estn conectados. Estndar oficial
RFC 2516 (PPPoE)
PPPoA: Igual que PPPoE pero, en vez de ser un protocolo sobre una capa
Ethernet, se realiza sobre una capa ATM. Gracias a este protocolo, las seales
del router pueden negociar los parmetros de conexin o de red entre el router
y el ISP, con lo que slo necesitas saber tu Identificador de Usuario y
contrasea para poder comenzar a navegar, puesto que el resto de datos se
obtienen automticamente en el momento en que se efecta la conexin.
Estndar oficial RFC 2364 (PPPoA)
El protocolo PPPoA se utiliza principalmente en conexiones de banda ancha,
como cable y DSL. Este ofrece las principales funciones PPP como
autenticacin, cifrado y compresin de datos. Actualmente es algo mejor que
PPPoE debido a que reduce la prdida de calidad en las transmisiones. Al igual
que PPPoE, PPPoA puede usarse en los modos VC-MUX y LLC.
Con PPPoE el router efecta el encaminamiento IP con Network Address
Translation (NAT) para la LAN. El router que cuente con PPPoE tambin es
compatible con la asignacin dinmica de direcciones IP a nodos de red local.
Cuando se use la asignacin dinmica, el router actuar como servidor DHCP.
Dispositivos WAN
Las WAN utilizan numerosos tipos de dispositivos que son especficos para los
entornos WAN, entre ellos:
Mdem: modula una seal portadora analgica para codificar informacin
digital y demodula la seal portadora para decodificar la informacin
transmitida.
CSU/DSU: las lneas digitales, por ejemplo las lneas portadoras T1 o T3,
necesitan una unidad de servicio de canal (CSU, channel service unit) y una
unidad de servicio de datos (DSU, data service unit). Con frecuencia, las dos se
encuentran combinadas en una sola pieza del equipo, llamada CSU/DSU. La
CSU proporciona la terminacin para la seal digital y garantiza la integridad
de la conexin mediante la correccin de errores y la supervisin de la lnea. La
DSU convierte las tramas de la lnea Portadora T en tramas que la LAN puede
interpretar y viceversa.
Servidor de acceso: concentra las comunicaciones de usuarios de servicios
de acceso con marcacin. Un servidor de acceso puede tener una mezcla de
interfaces analgicas y digitales y admitir a cientos de usuarios al mismo
tiempo.
Switch WAN: dispositivo de internetworking de varios puertos que se utiliza
en redes portadoras. Estos dispositivos normalmente conmutan el trfico, por
ejemplo Frame Relay, ATM o X.25, y operan en la capa de enlace de datos del
modelo de referencia OSI. Dentro de la nube tambin es posible utilizar
switches de red pblica de telefona conmutada (PSTN, Public Switched
Telephone Network) para conexiones de conmutacin de circuitos, por ejemplo
red digital de servicios integrados (ISDN, Integrated Services Digital Network) o
conexin telefnica analgica.
Router: proporciona puertos de interfaz de internetworking y acceso WAN que
se utilizan para conectarse con la red del proveedor de servicios. Estas
interfaces pueden ser conexiones seriales u otras interfaces WAN. En algunos
tipos de interfaces WAN se necesita un dispositivo externo, como una CSU/DSU
o un mdem (analgico, por cable o DSL) para conectar el router al punto de
presencia (POP, point of presence) local del proveedor de servicios.
Estndares de la capa fsica de una WAN
Los protocolos de la capa fsica de las WAN describen cmo proporcionar
conexiones elctricas, mecnicas, operativas y funcionales para los servicios
WAN. La capa fsica de la WAN tambin describe la interfaz entre el DTE y el
DCE. La interfaz DTE/DCE utiliza diversos protocolos de capa fsica, entre ellos:
EIA/TIA-232: este protocolo permite velocidades de seal de hasta 64 Kbps en
un conector D de 25 pins en distancias cortas. Antiguamente denominado RS-
232. La especificacin ITU-T V.24 es en efecto lo mismo.
EIA/TIA-449/530: este protocolo es una versin ms rpida (hasta 2 Mbps) del
EIA/TIA-232. Utiliza un conector D de 36 pins y admite cables ms largos.
Existen varias versiones. Este estndar tambin se conoce como RS-422 y RS-
423.
EIA/TIA-612/613: este estndar describe el protocolo de interfaz serial de alta
velocidad (HSSI, High-Speed Serial Interface), que brinda acceso a servicios de
hasta 52 Mbps en un conector D de 60 pins.
V.35: este es el estndar de ITU-T para comunicaciones sncronas entre un
dispositivo de acceso a la red y una red de paquetes. Originalmente
especificado para soportar velocidades de datos de 48 kbps, en la actualidad
soporta velocidades de hasta 2.048 Mbps con un conector rectangular de 34
pins.
X.21: este protocolo es un estndar de UIT-T para comunicaciones digitales
sncronas. Utiliza un conector D de 15 pins.

Estos protocolos establecen los cdigos y parmetros elctricos que los


dispositivos utilizan para comunicarse entre s. La seleccin del protocolo est
determinada en mayor medida por el mtodo de comunicacin del proveedor
de servicios.

Protocolos de enlace de datos


Los protocolos de la capa de enlace de datos definen cmo se encapsulan los
datos para su transmisin a lugares remotos, as como tambin los
mecanismos de transferencia de las tramas resultantes. Se utiliza una variedad
de tecnologas diferentes, como ISDN, Frame Relay o ATM. Muchos de estos
protocolos utilizan los mismos mecanismos bsicos de entramado, HDLC, un
estndar ISO o uno de sus subgrupos o variantes. ATM se diferencia de los
dems porque utiliza celdas pequeas de un tamao fijo de 53 bytes (48 bytes
para datos), mientras que las dems tecnologas de conmutacin de paquetes
utilizan paquetes de tamao variable.
Los protocolos de enlace de datos WAN ms comunes son:
o HDLC
o PPP
o Frame Relay
o ATM
ISDN y X.25 son protocolos de enlace de datos ms antiguos que en la
actualidad se utilizan con menor frecuencia. Sin embargo, ISDN se sigue
incluyendo en este curso porque se utiliza para proporcionar redes VoIP con
enlaces PRI. X.25 se menciona para ayudar a explicar la importancia de Frame
Relay.

Frame Relay
Frame Relay ofrece una conectividad permanente, compartida, de ancho de
banda mediano, que enva tanto trfico de voz como de datos. Frame Relay es
ideal para conectar las LAN de una empresa. El router de la LAN necesita slo
una interfaz, an cuando se estn usando varios VC. La lnea alquilada corta
que va al extremo de la red Frame Relay permite que las conexiones sean
econmicas entre LAN muy dispersas.

Acceso inalmbrico de banda ancha


La tecnologa inalmbrica utiliza el espectro de radiofrecuencia sin licencia
para enviar y recibir datos. El espectro sin licencia est disponible para todos
quienes posean un router inalmbrico y tecnologa inalmbrica en el dispositivo
que estn utilizando.
Hasta hace poco, una de las limitaciones del acceso inalmbrico era la
necesidad de encontrarse dentro del rango de transmisin local (normalmente,
menos de 100 pies) de un router inalmbrico o un mdem inalmbrico que
tuviera una conexin fija a Internet. Los siguientes nuevos desarrollos en la
tecnologa inalmbrica de banda ancha estn cambiando esta situacin:
WiFi municipal: muchas ciudades han comenzado a establecer redes
inalmbricas municipales. Algunas de estas redes proporcionan acceso a
Internet de alta velocidad de manera gratuita o por un precio marcadamente
menor que el de otros servicios de banda ancha. Otras son para uso exclusivo
de la ciudad, lo que permite a los empleados de los departamentos de polica y
de bomberos, adems de otros empleados municipales, realizar algunas de sus
tareas laborales de manera remota. Para conectarse a una red WiFi municipal,
el suscriptor normalmente necesita un mdem inalmbrico que tenga una
antena direccional de mayor alcance que los adaptadores inalmbricos
convencionales

V . Switches multicapa.

5.1 Introduccin a los Swtiches Multicapa.


Mientras que muchos switches operan a nivel 2 (enlace de datos) segn el
modelo OSI, algunos incorporan funciones de router y operan a nivel 3 (red)
tambin. De hecho, un multilayer switch o switch de nivel 3 es increblemente
similar a un router. Cuando un router recibe un paquete, mira dentro de el y
verifica las direcciones de origen y destino para determinar el camino que el
paquete debera tomar. Un switch estndar relega en la direccin MAC para
determinar el origen y destino de un paquete, locual es puramente nivel 2.

La diferencia fundamental entre un router y un multilayer switch es que estos


ltimos tienen hardware optimizado para pasar datos igual de rpido que los
switches de nivel 2. Sin embargo, toman decisiones de cmo debe ser
transmitido el trfico a nivel 3, igual que un router. Dentro de un entorno LAN,
un multilayer switch es normalmente ms rpido que un router porque est
construido en la electrnica que usan los switches.

La manera que tienen los multilayer switches de tratar los paquetes y gestionar
el trfico es muy similar a la de los routers. Ambos usan un protocolo de
enrutamiento y una tabla de rutas para determinar el mejor camino. Sin
embargo, un switch de nivel 3 tiene la habilidad de reprogramar el hardware de
una forma dinmica con la informacin de rutas que tiene. Esto es lo que le
permite procesar los paquetes mucho ms deprisa. En los multilayer switches
actuales, la informacin que se recibe de los protocolos de routing, es usada
para actualizar las tablas hardware de almacenamiento cach.

Normalmente estos equipos se usan compaas para uso interno donde hacen
de punto central de comunicaciones en edificio, comunicndolo con otros
edificios o nodos. Tienen las tpicas tarjetas de red donde los usuarios se
pueden conectar a sus puertos, y una tarjeta que hace la funcin de enrutar
trfico a nivel 3. Decimos que hacen de punto central porque tambin suele
interconectar otros switches de nivel 2 que estn distribuidos por las plantas
del edificio.

5.2 VLAN's.
Bsicamente, una vlan es una coleccin de nodos que estn agrupadas en un
solo dominio broadcast, el cual no est limitado estrictamente a una
localizacin fsica. Los routers no pasan los broadcasts o paquetes de amplia
difusin.

Un dominio broadcast es una red, o porcin de red, que recibir un paquete


broadcast de cualquier nodo localizado dentro de la red. En una red tpica, todo
lo que est en el mismo lado del router, forma parte del mismo dominio
broadcast. En un switch donde se han creado muchas vlans, tiene mltiples
dominios broadcast. Aun as, se sigue necesitando un router, o un multilayer
switch, para realizar un enrutamiento de paquetes de una vlan a otra el
switch no puede hacer esto por si mismo.

En una red LAN, cada uno de los puertos es una tubera(tuneling) dedicada a
cada una de las computadoras dentro de la red, donde cada computadora
dispone de toda la ancho de banda que la red proporciona, en este caso 10 o
100 Mbps, con objeto de evitar las colisiones que pudieran existir en un medio
compartido, por ello cada computadora tiene un tubo individual enlazado con
el punto central de distribucin que es el switch.

Una Red de rea Local Virtual (VLAN) puede definirse como una serie de
dispositivos conectados en red que a pesar de estar conectados en diferentes
equipos de interconexin (hubs o switches), zonas geogrficas distantes,
diferentes pisos de un edificio e, incluso, distintos edificios, pertenecen a una
misma Red de rea Local.

Con los switchs , el rendimiento de la red mejora en los siguientes aspectos:


Asla los dominios de colisin por cada uno de los puertos.
Dedica el ancho de banda a cada uno de los puertos y, por lo tanto, a
cada computadora.
Asla los dominios de broadcast, en lugar de uno solo, se puede
configurar el switch para que existan ms dominios.
Proporciona seguridad, ya que si se quiere conectar a otro puerto del
switch que no sea el suyo, no va a poder realizarlo, debido a que se
configuraron cierta cantidad de puertospara cada VLAN.
Controla ms la administracin de las direcciones IP. Por cada VLAN se
recomienda asignar un bloque de IPs, independiente uno de otro, as ya
no se podr configurar por parte del usuario cualquier direccin IP en su
mquina y se evitar la repeticin de direcciones IP en la LAN.
No importa en donde nos encontremos conectados dentro del edificio de
oficinas, si estamos configurados en una VLAN, nuestros compaeros de
rea, direccin, sistemas, administrativos, etc., estarn conectados
dentro de la misma VLAN, y quienes se encuentren en otro edificio,
podrn vernos como una Red de rea Local independiente a las
dems.

El funcionamiento e implementacin de las VLANs est definido por un
organismo internacional
llamado IEEE Computer Society y el documento en donde se detalla es el IEEE
802.1Q.

En el estndar 802.1Q se define que para llevar a cabo esta comunicacin se


requerir de un dispositivo dentro de la LAN, capaz de entender los formatos
de los paquetes con que estn formadas las VLANs. Este dispositivo es un
equipo de capa 3, mejor conocido como enrutador o router, que tendr que ser
capaz de entender los formatos de las VLANs para recibir y dirigir el trfico
hacia la VLAN correspondiente

CLASES DE VLAN
Las VLAN (Virtual Local Area Networks; Redes virtuales de rea local ) forman
grupos lgicos para definir los dominios de broadcast. De esta forma existe el
dominio de los rojos, donde el broadcast
que genera el rojo solo le afectara a este color y el broadcast que genera el
amarillo solamente afectara a esta parte de la red.

Aunque fsicamente estn conectadas las maquinas al mismo equipo,


lgicamente pertenecern a
una VLAN distinta dependiendo de sus aplicaciones con lo que se logra un
esquema mas enfocado
al negocio.

Existen dos clases de VLAN: implcitas y explcitas. Las implcitas no necesitan


cambios en el frame, pues de la misma forma que reciben informacin la
procesan, ejemplo de ello son las VLAN basadas en puertos. En esta clase de
VLAN el usuario no modifica ni manipula el frame, ya que solo posee una marca
y por lo tanto el sistema se vuelve propietario.

Las VLAN explcitas si requieren modificaciones, adiciones y cambios (MAC) al


frame, por lo que sacaron los estndares 802.1p y 802.1q, en donde se colocan
ciertas etiquetas o banderas en el frame para manipularlo.

Las VLAN deben ser rpidas, basadas en switchs para que sean interoperables
totalmente porque los routers no dan la velocidad requerida- , su informacin
deber viajar a travs del backbone y debern ser movibles, es decir, que el
usuario no tenga que reconfigurar la maquina cada vez que se cambie de lugar.
GENERACIONES DE VLAN
1. Basadas en puertos y direcciones MAC
2. Internet Working; se apoya en protocolo y direccin capa tres.
3. De aplicacin y servicios: aqu se encuentran los grupos multicast y las VLAN
definidas por el usuario.
4. Servicios avanzados: ya se cumple con los tres criterios antes de realizar
alguna asignacin a la VLAN; se puede efectuar por medio de DHCP (Dynamic
Host Configuration Protocol ; Protocolo de configuracin dinmica) o por AVLAN
( Authenticate Virtual Local Area Networks; Redes virtuales autenticadas de
rea local).

VLAN por Puerto


Este tipo es el ms sencillo ya que un grupo de puertos forma una VLAN -un
puerto solo puede pertenecer a una VLAN - , el problema se presenta cuando
se quieren hacer VLAN por MAC ya que la tarea es compleja. Aqu el puerto del
switch pertenece a una VLAN , por tanto, si alguien posee un servidor
conectado a un puerto y este pertenece a la VLAN amarilla , el servidor estar
en la VLAN amarilla.

VLAN por MAC


Se basa en MAC Address, por lo que se realiza un mapeo para que el usuario
pertenezca a una determinada VLAN. Obviamente depender de la poltica de
creacin. Este tipo de VLAN ofrece mayores ventajas, pero es complejo porque
hay que meterse con las direcciones MAC y si no se cuenta con un software
que las administre, ser muy laborioso configurar cada una de ellas.

VLAN por Protocolo


Lo que pertenezca a IP s enrutara a la VLAN de IP e IPX se dirigir a la VLAN
de IPX , es decir, se tendr una VLAN por protocolo. Las ventajas que se
obtienen con este tipo de VLAN radican en que dependiendo del protocolo que
use cada usuario, este se conectara automticamente a la VLAN
correspondiente.

VLAN por subredes de IP o IPX


Aparte de la divisin que ejecuta la VLAN por protocolo, existe otra subdivisin
dentro de este para que el usuario aunque este conectado a la VLAN del
protocolo IP sea asignado en otra VLAN subred que pertenecer al grupo 10 o
20 dentro del protocolo.

VLAN definidas por el usuario


En esta poltica de VLAN se puede generar un patrn de bits, para cuando
llegue el frame. Si los primeros cuatro bits son 1010 se irn a la VLAN de
ingeniera, sin importar las caractersticas del usuario protocolo, direccin MAC
y puerto.

Si el usuario manifiesta otro patrn de bits, entonces se trasladara a la VLAN


que le corresponda;
aqu el usuario define las VLAN.
VLAN Binding
Se conjugan tres parmetros o criterios para la asignacin de VLAN: si el
usuario es del puerto x, entonces se le asignara una VLAN correspondiente.
Tambin puede ser puerto, protocolo y direccin MAC, pero lo importante es
cubrir los tres requisitos previamente establecidos, ya que cuando se cumplen
estas tres condiciones se coloca al usuario en la VLAN asignada, pero si alguno
de ellos no coincide, entonces se rechaza la entrada o se manda a otra VLAN.

VLAN por DHCP


Aqu ya no es necesario proporcionar una direccin IP, sino que cuando el
usuario enciende la computadora automticamente el DHCP pregunta al
servidor para que tome la direccin IP y con base en esta accin asignar al
usuario a la VLAN correspondiente. Esta poltica de VLAN es de las ltimas
generaciones.

VLAN de voz

Es fcil apreciar por qu se necesita una VLAN separada para admitir la Voz
sobre IP (VoIP). Imagine que est recibiendo una llamada de urgencia y de
repente la calidad de la transmisin se distorsiona tanto que no puede
comprender lo que est diciendo la persona que llama. El trfico de VoIP
requiere:

Ancho de banda garantizado para asegurar la calidad de la voz


Prioridad de la transmisin sobre los tipos de trfico de la red
Capacidad para ser enrutado en reas congestionadas de la red
Demora de menos de 150 milisegundos (ms) a travs de la red

Definicin de enlace troncal de la VLAN


Un enlace troncal es un enlace punto a punto entre dos dispositivos de red que
lleva ms de una VLAN. Un enlace troncal de VLAN le permite extender las
VLAN a travs de toda una red. Cicso admite IEEE 802.1Q para la coordinacin
de enlaces troncales en interfaces Fast Ethernet y Gigabit Ethernet. Un enlace
troncal de VLAN no pertenece a una VLAN especfica, sino que es un conducto
para las VLAN entre switches y routers.

Sin Trunking se requiere de varios puertos dedicados a cada vlan

Utilizando trunking se requiere un nico puerto etiquetando las tramas

5.3 STP, RSTP,PVST+, PVRST, MSTP y EtherChannel

Es claro que las redes de computadoras representan un componente


fundamental para la mayora de las pequeas y medianas empresas. En
consecuencia, los administradores de TI deben implementar la redundancia en
sus redes jerrquicas. Sin embargo, cuando se agregan enlaces adicionales a
switches y routers de la red, se generan bucles en el trfico que deben ser
administrados de manera dinmica. Cuando se pierde la conexin con un
switch, otro enlace debe reemplazarlo rpidamente sin introducir ningn bucle
nuevo en el trfico. El protocolo spanning-tree (STP) evita los inconvenientes
relacionados con bucles en la red. STP ha evolucionado en un protocolo que
determina de forma rpida aquellos puertos que deben bloquearse, de forma
que una red basada en red de rea local virtual (VLAN, Virtual Local Area
Network) no experimente bucles en el trfico.

STP
El protocolo spanning tree (STP) fue desarrollado para enfrentar los
inconvenientes de la redundancia.

STP asegura que exista slo una ruta lgica entre todos los destinos de la red,
al realizar un bloqueo de forma intencional a aquellas rutas redundantes que
puedan ocasionar un bucle. Un puerto se considera bloqueado cuando el trfico
de la red no puede ingresar ni salir del puerto. Esto no incluye las tramas de
unidad de datos del protocolo de puentes (BPDU) utilizadas por STP para evitar
bucles. El bloqueo de las rutas redundantes es fundamental para evitar bucles
en la red. Las rutas fsicas an existen para proporcionar la redundancia, pero
las mismas se deshabilitan para evitar que se generen bucles. Si alguna vez la
ruta es necesaria para compensar la falla de un cable de red o de un switch,
STP vuelve a calcular las rutas y desbloquea los puertos necesarios para
permitir que la ruta redundante se active.

Al igual que con muchos estndares de redes, la evolucin de STP se ha


enfocado en la necesidad de crear especificaciones para toda la industria
cuando los protocolos de propiedad son estndares de hecho. Cuando un
protocolo de propiedad es tan predominante que todos sus competidores del
mercado deben contar con soporte para el mismo, las agencias como el IEEE
intervienen y crean una especificacin pblica. La evolucin de STP ha seguido
este mismo camino, como puede verse en la tabla.

Existen muchos tipos de variantes de STP. Algunas de estas variantes son


propiedad de Cisco y otras son estndares de IEEE.

Protocolo spanning tree por VLAN (PVST):


Mantiene una instancia de spanning-tree para cada VLAN configurada en la
red. Utiliza el protocolo de enlace troncal ISL propiedad de Cisco que permite
que un enlace troncal de la VLAN se encuentre en estado de enviar para
algunas VLAN y en estado de bloqueo para otras. Debido a que PVST trata a
cada VLAN como una red independiente, puede realizar un balanceo de carga
del trfico de la Capa 2 mediante el envo de algunas VLAN en un enlace
troncal y otras en otro enlace troncal sin generar bucles. Para PVST, Cisco
desarroll varias extensiones de propiedad del IEEE 802.1D STP original, como
BackboneFast, UplinkFast y PortFast.

Protocolo spanning tree por VLAN plus (PVST+)


Cisco desarroll PVST+ para proporcionar soporte a los enlaces troncales de
IEEE 802.1Q. PVST+ proporciona la misma funcionalidad que PVST, incluidas
las extensiones de STP propiedad de Cisco. PVST+ no cuenta con soporte en
aquellos dispositivos que no son de Cisco. PVST+ incluye una mejora de
PortFast denominada proteccin de BPDU y proteccin de raz.

Cisco desarroll PVST+ para que una red pueda ejecutar una instancia de STP
para cada VLAN de la red. Con PVST+ puede bloquearse ms de un enlace
troncal en una VLAN y puede implementarse la carga compartida. Sin embargo,
implementar PVST+ implica que todos los switches de la red se comprometan
con la convergencia de la red y los puertos de switch deben ajustarse al ancho
de banda adicional utilizado para cada instancia de PVST+ a fin de poder
enviar sus propias BPDU.

En un entorno de PVST+ de Cisco se pueden ajustar los parmetros de


spanning-tree de manera que la mitad de las VLAN puedan enviar en todos los
enlaces troncales.
Protocolo spanning tree por VLAN rpido (PVST+ rpido)
Se basa en el estndar IEEE 802.1w y posee una convergencia ms veloz que
STP (estndar 802.1D). PVST+ rpido incluye las extensiones propiedad de
Cisco, como BackboneFast, UplinkFast y PortFast.

Protocolo Rapid spanning tree (RSTP)


Se introdujo por primera vez en 1982 como evolucin de STP (estndar
802.1D). Proporciona una convergencia de spanning-tree ms veloz despus de
un cambio de topologa. RSTP implementa las extensiones de STP propiedad de
Cisco, como BackboneFast, UplinkFast y PortFast en el estndar pblico. A partir
de 2004, el IEEE incorpor RSTP a 802.1D, mediante la identificacin de la
especificacin como IEEE 802.1D-2004. De manera que cuando se haga
referencia a STP, debe pensarse en RSTP.

RSTP aumenta la velocidad de reclculo del spanning tree cuando cambia la


topologa de la red de la Capa 2. RSTP puede lograr una convergencia mucho
ms rpida en una red configurada en forma adecuada, a veces slo en unos
pocos cientos de milisegundos. RSTP redefine los tipos de puertos y sus
estados. Si un puerto se configura para ser alternativo o de respaldo puede
cambiar de manera automtica al estado de enviar sin esperar la convergencia
de la red.
STP mltiple (MSTP)
Permite que se asignen VLAN mltiples a la misma instancia de spanning-tree,
de modo tal que se reduce la cantidad de instancias necesarias para admitir
una gran cantidad de VLAN. MSTP se inspir en STP de instancias mltiples
(MISTP) propiedad de Cisco y es una evolucin de STP y RSTP. Se introdujo en
el IEEE 802.1s como enmienda de la edicin de 802.1Q de 1998. El estndar
IEEE 802.1Q-2003 ahora incluye a MSTP. MSTP proporciona varias rutas de
envo para el trfico de datos y permite el balanceo de carga.

Etherchannel

Cisco EtherChannel construye su tecnologa en base a estndares 802.3 full-


duplex de Fast Ethernet.

EtherChannel agrupa varios enlaces Ethernet en un nico enlace lgico,


proveyendo as ms ancho de banda de hasta 16 veces la capacidad mxima
del enlace (full-duplex). Por ejemplo, agrupando enlaces Fast Ethernet de 100
Mbps cada uno, pudindose agrupar hasta 8 enlaces, se puede lograr una
capacidad de hasta 1600 Mbps en full-duplex.

Esta tecnologa aplica tanto para Fast EthernetChannel (FEC) o Gigabit


EtherChannel (GEC).
Las caractersticas ms resaltantes que se puede lograr con esta tecnologa
son:

Incremento de ancho de banda.


Convergencia rpida con tolerancia a fallas.
Balanceo de cargas.

Configuracin de EtherChannel

EtherChannel maneja dos protocolos:

Port Aggregation Control Protocol (PAgP, propietario de Cisco) y Link


Aggregation Conrol Protocol (LACP, IEEE 802.3ad). Los protocolos ya
mencionados son incompatibles.

Los modos de configuracin son:

on: en este modo, un EtherChannel til existe si dos grupos de puertos


en modo on estn conectados entre s. En este modo no existe trfico de
negociacin.
auto: modo PAgP que coloca un puerto en estado de negociacin pasiva,
slo responde a los paquetes PAgP.
desirable: modo PAgP que coloca un puerto es estado de negociacin
activa, es decir, el puerto inicia el envo de paquetes PAgP a otros
puertos LAN.
pasive: modo LACP que pone a un puerto en modo pasivo de
negociacin, slo recibe paquetes LACP.
active: modo LACP que coloca a un puerto en modo activo de
negociacin.

Ejemplos:

1) Tenemos dos switches, SW1 y SW2, de la misma marca (Cisco), cuyas


interfases Fast Ethernet 0/1 y 0/2 de cada switch sern configurados como
EtherChannels en modo trunk, dentro de la VLAN 99 (para esto, los puertos 0/1
y 0/2 deben estar en la VLAN 99).

SW1#config t
SW1(config)#int range fast 0/1 2
SW1(config-if)#no switchport mode access
SW1(config-if)#switchport mode trunk
SW1(config-if)#switchport trunk native vlan 99
SW1(config-if)#channel-group 2 mode active // El rango de nmero asignado a
un grupo EtherChannel es de 1 64
SW1(config-if)#end

SW2#config t
SW2(config)#int range fast 0/1 2
SW2(config-if)#no switchport mode access
SW2(config-if)#switchport mode trunk
SW2(config-if)#switchport trunk native vlan 99
SW2(config-if)#channel-group 2 mode pasive
SW2(config-if)#end

2) Configuraremos un switch SW3 para crear un EtherChannel PAgP y asociarlo


a la VLAN 5. Tomarenos cuatro interfases Gigabit Ethernet, 0/1 al 0/4.

SW3#config t
SW3(config)#interface range gigabitethernet 0/1 4
SW3(config-if)#switchport mode access
SW3(config-if)#switchport access vlan 5
SW3(config-if)#channel-group 3 mode desirable
SW3(config-if)#end

3) Ahora realizaremos una configuracin de Capa 3 para el switch SW3 del


ejemplo anterior, asignndole una direccin IP.

SW3#config t
SW3(config)#interface port-channel 3
SW3(config-if)#no switchport //Este comando funciona para switches
multicapas, el cual es para entrar a configuracin de Capa 3
SW3(config-if)#ip address 192.168.20.10 255.255.255.0
SW3(config-if)#end

4) Ahora, si ya tenemos un EtherChannel, conformado por Fast Ethernets, ya


configurado en el switch SW4 y queremos agregar una interfase ms a ese
puerto, debemos configurarlo de la siguiente manera:

SW4#config t
SW4(config)#interface range fast 0/6 7
SW4(config-if)#no ip address
SW4(config-if)#channel-group 4 mode desirable
SW4(config-if)#end

5) Para configurar un switch con EtherChannel y agregarle balanceo de cargas,


basta con seguir las siguientes lneas:

SW5#config t
SW5(config)#port channel load-balance {dst-mac | src-mac} // balanceo por
MAC address destino u origen, respectivamente. Por defecto src-mac
SW5(config)#end

* Comandos de control EtherChannel

#show etherchannel X port-channel


#show interface {fastethernet | gigabitethernet} X/X etherchannel
#show etherchannel load-balance

5.4 Ruteo InterVLAN.


Configurando un switch multilayer
Para esto, se tomar como base una topologa simple que servir de ejemplo:
Se han configurado w VLANs (VLAN 2 y 3) en un switch capa 2 (Catalyst 2960).
Cada VLAN ha sido mapeada a una subred diferente: VLAN 2 a la 172.16.2.0/24, VLAN 3
a la 172.16.3.0/24.
Nuestro switch capa 2 se conecta al switch multicapa utilizando un enlace troncal IEEE
802.1Q a travs del cual se transportan todas las VLANs.
El switch multilayer, a su vez, est conectado el router de borde utilizando un enlace capa
3 que corresponde a la subred 172.16.1.0/24.

Considerse ahora los aspectos especficamente referidos a capa 3 en el switch Catalyst 3560.

version 12.2
!
! Activa el enrutamiento IP
ip routing
!
! Creacin y configuracin de VLAN
! Esto no aparece en el archivo de configuracin
vlan 2
name VENTAS
vlan 3
name ADMIN
!
!
! Configuracin del enlace troncal
interface FastEthernet0/2
description puerto troncal
switchport mode trunk
switchport trunk encapsulation dot1q

!
! Definicin de la interfaz capa 3
interface FastEthernet0/24
description conexion Cat3560 -- Cisco28xx
no switchport
ip address 172.16.1.10 255.255.255.0
no shutdown
!
! Creacin de una SVI para la VLAN 2
interface Vlan2
description Gateway de la VLAN 2
ip address 172.16.2.1 255.255.255.0
no shutdown
!
! Creacin de una SVI para la VLAN 3
interface Vlan3
description Gateway de la VLAN 3
ip address 172.16.3.1 255.255.255.0
no shutdown
!
! Configuracin del protocolo de enrutamiento
no ip classless
router rip
version 2
network 172.16.0.0
!
!
end

5.5 Alta disponibilidad en un Campus.


Las redes que usan segmentos en campus, obtienen su funcionalidad basada
en la organizacin, polticas, aplicaciones, equipos de trabajo o simplemente
por ubicaciones geogrficas.

Para lograr ahorros considerables en servicios, costos y equipos se utiliza la


arquitectura de las VLAN en vez de instalar redes independientes fsicamente y
unidas por routers

Se recomienda el uso de vlans que adems estn basadas en una


segmentacin a travs de subnetting.

VI IPv6
6.1 Esquema de direccionamiento IPv6.
.
Para poder entender como IPv6 puede solucionar problemas actuales y futuros
encontrados en IPv4, hay que entender primero porque fue motivado. Adems,
se analizarn algunos aspectos de IPv6, en cuanto a beneficios sobre IPv4
como tambin sus esquemas de direccionamiento pueden servirnos para
construir redes mas eficientes y escalables.
Una de las soluciones iniciales al problema de direccionamiento en IPv4 fue
conocido como SIPP (Simple IP Plus), donde simplemente se aumentaba el
tamao de las direcciones IP a 64bits y se mejoraban ciertos aspectos de IPv4,
como lo eran mejores estrategias de
enrutamiento. SIPP era lo mas cercano a lo que la Internet necesitara despus
de unas modificaciones. Las direcciones pasaron de 64bits a 128 y se le asign
el nombre de IPv6 (IPv5 ya habia sido asignado a otro protocolo, conocido
como ST-2, que servia para soporte nativo de ATM en Internet).

Qu es el IPv6?
IPv6 (Internet Protocol Version 6) o IPng (Next Generation Internet Protocol) es
la nueva versin del protocolo IP (Internet Protocol). Ha sido diseado por el
IETF (Internet Engineering Task Force) para reemplazar en forma gradual a la
versin actual, el IPv4.
Por qu surge?
El motivo bsico para crear un nuevo protocolo fue la falta de direcciones. IPv4
tiene un espacio de direcciones de 32 bits, en cambio IPv6 ofrece un espacio
de 128 bits. El reducido espacio de direcciones de IPv4, junto al hecho de falta
de coordinacin para su asignacin durante la dcada de los 80, sin ningn tipo
de optimizacin, dejando incluso espacios de direcciones discontinuos, generan
en la actualidad, dificultades no previstas en aquel momento.
Caractersticas principales

Los cambios en IPv6 se pueden clasificar en 6 categoras.

Direcciones ms grandes. Este es el cambio ms notorio de IPv6, se


cuadruplica el tamao de 32 bits a 128 bits. El espacio de direcciones de IPv6
es tan grande que no puede ser llenado en un futuro prximo.

Jerarquas de direccionamiento extendidas. IPv6 al usar un espacio de


direccionamiento ms amplio, permite crear niveles adicionales de
direccionamiento.

Formato de encabezado flexible. IPv6 usa un formato nuevo y complemente


incompatible con el anterior con encabezados opcionales en su formato
estandar.

Opciones mejoradas. IPv6 permite incluir en el datagrama informacin de


control. Se incluyen facilidades que IPv4 no proveia.

Se proveen extensiones del protocolo. Esto permite que la IEFT a medida que
vayan saliendo nuevas especificaciones de un protocolo o hardware, se hagan
los cambios necesarios para el mejor manejo de la informacin a nivel de la
capa de red.

Direccionamiento
Las direcciones son de 128 bits e identifican interfaces individuales o conjuntos
de interfaces. Al igual que en IPv4 en los nodos se asignan a interfaces.
Tipos de direcciones IP
Unicast:
Este tipo de direcciones son bastante conocidas. Un paquete que se enva a
una direccin unicast debera llegar a la interfaz identificada por dicha
direccin.

Multicast:
Las direcciones multicast identifican un grupo de interfaces. Un paquete
destinado a una direccin multicast llega a todos los los interfaces que
se encuentran agrupados bajo dicha direccin.

Anycast:
Las direcciones anycast son sintcticamente indistinguibles de las direcciones
unicast pero sirven para identificar a un conjunto de interfaces. Un
paquete destinado a una direccin anycast llega a la interfaz ms
cercana (en trminos de mtrica de routers). Las direcciones anycast
slo se pueden utilizar en routers.

Direcciones Global Unicast


Formato de las direcciones global unicast

Prefijo de ruteo global: es un prefijo asignado a un sitio, generalmente est


estructurado jerrquicamente por los RIRs e ISPs.

Identificador de Subred: es el identificador de una subred dentro de un sitio. Est


diseado para que los administradores de los sitios lo estructuren jerrquicamente

Identificador de Interfaz: es el identificador de una interfaz. En todas las direcciones


unicast, excepto las que comienzan con el valor binario 000, el identificador de interfaz
debe ser de 64 bits y estar construdo en el formato Modified EUI-64.

6.2 Tipos de tunneling IPv4 a IPv6.


Qu es un tnel IPv6 en IPv4?
Es un mecanismo de transicin que permite a mquinas con IPv6 instalado
comunicarse entre si a travs de una red IPv4.
El mecanismo consiste en crear los paquetes IPv6 de forma normal e
introducirlos en un paquete IPv4. El proceso inverso se realiza en la mquina
destino, que recibe un paquete IPv6.
Configuracin de RIPng en un router

El crecimiento de las redes genero la necesidad de repensar protocolos que


hasta hace unos aos eran suficientes para cubrir las necesidades de
conectividad a nivel mundial especialmente en Internet, debido a esta
necesidad se crean alternativas como Ipv6 una forma de solucionar el
problema de falta de direcciones. Este cambio necesita tambin del avance de
protocolos que permitan el enrutamiento, no solo para grandes redes sino
tambin para redes pequeas que necesiten una fcil configuracin y
administracin.
De esta necesidad surge el protocolo RIPng el cual se dio como evolucin de
otros protocolos.
El primero de ellos fue RIPv1[ 1 ]este protocolo utiliza el mtodo de
encaminamiento vector distancia[ 2 ], es un protocolo con clase por ese motivo
no soporta mascaras variables, utiliza el conteo de saltos para su mtrica, una
mtrica de 16 saltos significa que la ruta es inalcanzable, enva sus mensajes a
la direccin Broadcast. Para cada destino RIPv1almacena informacin en el
router como: la direccin IP del destino, la mtrica (numero de saltos), la
direccin IP del prximo salto, las banderas para indicar la prxima
actualizacin y los temporizadores, RIPv1 usa UDP (User Datagram Protocol)[1]
para comunicarse con los routers por el puerto UDP 520. Este protocolo enva
sus mensajes a la direccin Broadcast.

Espesificaciones
RIPng debe ser implementado solo en routers, sigue implementando la misma
mtrica que RIPv1, las tablas de enrutamiento presentes en los routers
contienen entradas con la siguiente informacin:
RIPng usa el puerto UDP 521, por este puerto se envan todas las
comunicaciones destinadas a otros procesos del router, todos los mensajes de
actualizacin aun los no solicitados las
respuestas se envan al mismo puerto de donde vino la pregunta las consultas
si pueden ser enviadas desde distintos puestos pero deben ser redirigidas a
este puerto en el equipo destino.

Funcionamiento
Cuando un router arranca o necesita actualizar algunas entradas en su tabla de
enrutamiento, generalmente enva un paquete de peticin a sus vecinos. El
router que recibe la peticin procesa el RTE: si este es nicamente un RTE con
el prefijo IPv6, la longitud del prefijo iniciando en 0 y con un valor en la mtrica
de 16, enviara una respuesta con la informacin completa de la tabla de
enrutamiento. Si en el mensaje de peticin el router recibe varias RTE, este
examina cada una, actualiza la mtrica y enva la informacin Al router que le
hizo la peticin. El paquete de respuesta contiene la tabla de enrutamiento
local la cual se genera como una respuesta a una peticin, una actualizacin
peridica o un trigger update causado por un cambio en la ruta. Despus de
que recibe la respuesta, un router chequea la valides de la misma antes de
agregar la ruta a su tabla de enrutamiento.

Seguridad
En RIPng no se especifica ningn mecanismo de seguridad simplemente se
confa en los mecanismos de Ipv6:

Configuracin
Antes de realizar la configuracin de RIPng en un router es necesario tener
habilitado el protocolo IPv6 en el host y tener configurado el router para
habilitar el mecanismo sin estado
(stateless) en el host para luego implementar RIPng en el router.
Configuracin del mecanismo sin estado (stateless)

Router 1> enable


Router # configure terminal
Router (config) # interface fa0/0
Router (configif)#
ipv6 address 3ffe:38e1:0100:a001::/64
Router (configif)#
ipv6 enable
Router (configif)#
no shutdown
Router (configif)#
exit
Router (config) # Ip unicast router
Router (config) # exit
Router # wr
Implementacin de RIPng.
Router 1> enable
Router # configure terminal
Router (config) # interface fa0/0
Router (configif)#
ipv6 rip UTPL enable
Router (configif)#
no shutdown
Router (configif)#
exit
Router (config) # interface s0/0
Router (config if)
# ipv6 address 3ffe:38e1:0100:a001::/96
Router (configif)#
ipv6 enablefijo IPv6
Router (configif)#
ipv6 rip UTPL enable
Router (configif)#
clockrate 56000
Router (configif)#
no shutdown
Router (configif)#
exit
Router (config) # exit
Router # wr

También podría gustarte