Está en la página 1de 27

2.

Priorización del Tráfico

En el video anterior, aprendiste sobre el propósito de Calidad de Servicio (QoS). QoS es


un requisito cada vez mayor de las redes hoy en día. Las nuevas aplicaciones, como las
transmisiones de voz y video en vivo, crean mayores expectativas de entrega de calidad
entre los usuarios.

La congestión ocurre cuando se agregan varias líneas de comunicación en un solo


dispositivo, como un router, y luego gran parte de esos datos se colocan en unas pocas
interfaces de salida o en una interfaz más lenta. La congestión también puede producirse
cuando los grandes paquetes de datos impiden que se transmitan oportunamente los
paquetes más pequeños.

Cuando el volumen de tráfico es mayor que el que se puede transportar a través de la


red, los dispositivos ponen en cola (retienen) los paquetes en la memoria hasta que los
recursos estén disponibles para transmitirlos. Los paquetes en cola causan retrasos, dado
que los nuevos paquetes no se pueden transmitir hasta que no se hayan procesado los
anteriores. Si sigue aumentando la cantidad de paquetes que se pondrán en cola, la
memoria del dispositivo se llenará y los paquetes se descartarán. Una técnica de la QoS
que puede ayudarte con este problema es la clasificación de datos en varias colas, como
se muestra en la figura.

Nota: Un dispositivo implementa QoS solo cuando está experimentando algún tipo de
congestión.
Uso de colas para priorizar las comunicaciones

Uso de colas para priorizar tráfico

3. Ancho de Banda, Congestión, Retraso y Fluctuación

El ancho de banda de la red es la medida de la cantidad de bits que se pueden transmitir


en un segundo, es decir, bits por segundo (bps). Por ejemplo, un dispositivo de red
puede tener la capacidad de funcionar a 10 gigabits por segundo (Gbps).
La congestión de la red produce demoras. Una interfaz experimenta congestión cuando
tiene más tráfico del que puede gestionar. Los puntos de congestión de la red son
candidatos ideales para los mecanismos de QoS. La figura muestra tres ejemplos de
puntos de congestión típicos.

Ejemplos de puntos de congestión

Ejemplos de puntos de congestión


El retraso (delay) o la latencia se refiere al tiempo que demora un paquete en viajar de
origen a destino. Dos tipos de demoras son las fijas y las variables. Una demora fija es
la cantidad determinada de tiempo que lleva un proceso específico, como el tiempo que
lleva colocar un bit en los medios de transmisión. Un retraso variable lleva una cantidad
de tiempo no especificada y se ve afectado por factores como la cantidad de tráfico que
se procesa.

Las fuentes de retraso se resumen en la tabla.

Fuentes de retraso

Retraso/Delay Descripción

Demora de código La cantidad fija de tiempo que lleva comprimir datos en la


fuente antes transmitiendo al primer dispositivo de
interconexión, generalmente un switch.

Demora de paquetización El tiempo fijo que se tarda en encapsular un paquete con


toda la información de cabecera necesaria.

Demora de asignación de La cantidad variable de tiempo que una trama o paquete


cola espera para ser transmitido en el enlace.

Demora de serialización La cantidad fija de tiempo que se necesita para transmitir


una trama en el cable.

Demora de propagación La cantidad variable de tiempo que le toma a la trama viajar


entre el origen y el destino.

Demora de eliminación de La cantidad fija de tiempo que se necesita para amortiguar


fluctuación (de-jitter delay) un flujo de paquetes y luego enviarlos a intervalos
uniformemente espaciados.

La fluctuación (Jitter) es la variación en la demora (delay) de los paquetes recibidos. En


el extremo emisor, los paquetes se envían de manera permanente con los paquetes de
espacio uniforme por separado. Debido a la congestión de la red, las colas inadecuadas
o los errores de configuración, el retraso entre cada paquete puede variar en lugar de
permanecer constante. Es necesario controlar y minimizar tanto la demora como las
fluctuaciones para admitir el tráfico en tiempo real e interactivo.

4. Pérdida de Paquetes

Sin ningún mecanismo de QoS, los paquetes se procesan en el orden en que se reciben.
Cuando ocurre una congestión, los dispositivos de red como routers y switches pueden
descartar paquetes. Esto significa que los paquetes urgentes, como el video y la voz en
tiempo real, se descartarán con la misma frecuencia que los datos que no son urgentes,
como el correo electrónico y la navegación web.

Cuando un router recibe una transmisión de audio digital del Protocolo en tiempo real
(RTP, Real-Time Protocol) para Voz sobre IP (VoIP), debe compensar el jitter que se
encuentra. El mecanismo que maneja esta función es el búfer de retardo de
reproducción. El búfer de retardo de reproducción debe almacenar estos paquetes en un
búfer y luego reproducirlos en un flujo continuo, como se muestra en la figura. Los
paquetes digitales se convierten más tarde en un flujo de audio analógico.

El búfer de retardo de reproducción compensa la fluctuación

Búfer de retardo de reproducción

Si las fluctuaciones son tan grandes que hacen que los paquetes se reciban fuera del
alcance de este búfer, se descartan los paquetes que están fuera del rango, y se escuchan
interrupciones en el audio, como se muestra en la Figura.
Paquete descartado debido a fluctuación (jitter) excesiva

Paquete descartado debido a fluctuación excesiva


Para pérdidas tan pequeñas como un paquete, el procesador de señal digital (DSP,
Digital Signal Processor) interpola lo que cree que debería ser el audio y ningún
problema es audible para el usuario. Sin embargo, cuando el jitter excede lo que el DSP
puede hacer para compensar los paquetes faltantes, se escuchan problemas de audio.

La pérdida de paquetes es una causa muy común de problemas de calidad de voz en una
red IP. En una red diseñada adecuadamente, la pérdida de paquetes debería ser casi
nula. Los códecs de voz utilizados por el DSP pueden tolerar cierto grado de pérdida de
paquetes sin un efecto dramático en la calidad de la voz. Los ingenieros de redes
utilizan mecanismos de calidad de servicio para clasificar los paquetes de voz para que
la pérdida de paquetes sea cero. El ancho de banda se garantiza para las llamadas de voz
dando prioridad al tráfico de voz sobre el tráfico que no es sensible a los retrasos.

2. Tendencias en el Tráfico de Red

En un tema anterior, aprendiste acerca de la calidad de la transmisión de red. En este


tema aprenderás acerca de las características del tráfico (voz, vídeo y datos). A
principios de la década del 2000, los tipos de tráfico IP predominantes eran voz y datos.
El tráfico de voz tiene una necesidad de ancho de banda predecible y tiempos de llegada
de paquete conocidos. El tráfico de datos no es en tiempo real, y tiene una necesidad
impredecible de ancho de banda. El tráfico de datos puede tener estallidos
temporalmente, como cuando se descarga un archivo grande. Este estallido puede
consumir todo el ancho de banda de un enlace.

Más recientemente, el tráfico de video se ha vuelto cada vez más importante para las
comunicaciones y las operaciones empresariales. Según el Índice de redes visuales de
Cisco (VNI, Visual Networking Index), el tráfico de video representó el 70% de todo el
tráfico en 2017. Para 2022, el video representará el 82% de todo el tráfico. Además, el
tráfico de vídeo móvil alcanzará 60,9 exabytes por mes para 2022, en comparación con
6,8 exabytes por mes en 2017.
3. Voz

El tráfico de voz es predecible y uniforme, como se muestra en la figura. Sin embargo,


la voz es muy sensible a los retrasos y a los paquetes descartados. No tiene sentido
retransmitir la voz si se pierden paquetes; por lo tanto, los paquetes de voz deben recibir
una prioridad más alta que otros tipos de tráfico. Por ejemplo, los productos de Cisco
utilizan el rango de puerto de 16384 a 32767 de RTP para priorizar el tráfico de voz. La
voz puede tolerar una cierta cantidad de latencia, fluctuación y pérdida sin efectos
aparentes. La latencia no debe superar los 150 milisegundos (ms). Las fluctuaciones no
deben superar los 30 ms y la pérdida de paquetes de voz no debe ser superior al 1%. El
tráfico de voz requiere al menos 30 Kbps de ancho de banda. La tabla ofrece un
resumen de las características y requisitos del tráfico de voz.

Características del tráfico de Requerimientos de sentido único


voz

 Fluida  Latencia ≤ 150ms


 Favorable  Fluctuación ≤ 30ms
 Sensible a las caídas  Pérdida ≤ 1% de ancho de banda (30 – 128
 Sensible al retraso Kbps)
 Prioridad UDP

4. Vídeo

Sin QoS y una cantidad significativa de capacidad de ancho de banda extra, la calidad
del video típicamente se degrada. La imagen aparece borrosa, dentada o en cámara
lenta. La porción de audio de la alimentación puede quedar desincronizada con el video.

El tráfico de video tiende a ser impredecible, inconsistente y explosivo comparado con


el tráfico de voz. En comparación con la voz, el video es menos resistente a la pérdida y
tiene un mayor volumen de datos por paquete. Observa en la figura cómo los paquetes
de voz llegan cada 20 ms y son unos predecibles 200 bytes cada uno.

Paquetes de Vídeo
En cambio, el número y el tamaño de los paquetes de vídeo varía cada 33 ms en función
del contenido del vídeo, como se muestra en la figura. Por ejemplo, si el flujo de vídeo
consiste en un contenido que no cambia mucho de una trama a otra, entonces los
paquetes de vídeo serán pequeños y se necesitarán menos para mantener una
experiencia aceptable para el usuario. Sin embargo, si el flujo de vídeo consiste en un
contenido que cambia rápidamente, como una secuencia de acción en una película,
entonces los paquetes de vídeo serán más grandes. Se requieren más por el intervalo de
tiempo de 33 ms para mantener una experiencia de usuario aceptable.

Tamaño paquetes de vídeo


Los puertos UDP, como el 554, se utilizan para el protocolo de transmisión en tiempo
real (RSTP, Real-Time Streaming Protocol) y deben tener prioridad sobre otro tráfico
de red menos sensible a la demora. Al igual que la voz, el vídeo puede tolerar una cierta
cantidad de latencia, fluctuaciones y pérdidas sin efectos perceptibles. La latencia no
debería ser superior a 400 milisegundos (ms). El jitter no debe ser superior a 50 ms, y la
pérdida de paquetes de vídeo no debe ser superior al 1%. El tráfico de video requiere al
menos 384 Kbps de ancho de banda. La tabla ofrece un resumen de las características y
requisitos del tráfico de vídeo.

Características del tráfico de video Requerimientos de sentido único

 Ráfagas (Bursty)  Latencia ≤ 200-400 ms


 Voraz (Greedy)  Jitter ≤ 30-50 ms
 Sensible a las caídas  Pérdida ≤ 0.1–1%
 Sensible al retraso  Ancho de banda (384 Kbps – > 20 Mbps
 Prioridad UDP

5. Datos

La mayoría de las aplicaciones usan TCP o UDP. A diferencia de UDP, TCP realiza la
recuperación de errores. Las aplicaciones de datos que no tienen tolerancia a la pérdida
de datos, como el correo electrónico y las páginas web, utilizan TCP para asegurarse de
que, si se pierden paquetes en tránsito, se reenvíen. El tráfico de datos puede ser fluido o
en ráfagas (bursty). El tráfico de control de la red suele ser fluido y predecible. Cuando
hay un cambio de topología, el tráfico de control de la red puede explotar durante unos
segundos. Pero la capacidad de las redes actuales puede manejar fácilmente el aumento
del tráfico de control de la red a medida que la red converge.

Sin embargo, algunas aplicaciones del TCP pueden consumir una gran parte de la
capacidad de la red. El FTP consumirá todo el ancho de banda que pueda obtener
cuando descargue un archivo grande, como una película o un juego. En la tabla se
resumen las características del tráfico de datos.

Características del tráfico de datos

 Fluido o con ráfagas (Smooth/bursty)


 Benigno/voraz (Benign/greedy)
 Insensible a las caídas
 Insensible al retraso
 Retransmisiones de TCP

Aunque el tráfico de datos es relativamente insensible a las caídas y los retrasos en


comparación con la voz y el vídeo, el administrador de la red debe tener en cuenta la
calidad de la experiencia del usuario, a veces denominada calidad de la experiencia o
QoE. Hay dos factores principales que un administrador de red debe preguntar acerca
del flujo de tráfico de datos:

 ¿Los datos provienen de una aplicación interactiva?


 ¿Es la misión de los datos crítica?

En la tabla se comparan estos dos factores.

Factores a considerar para el retraso de Datos

Factor Misión Crítica No es Misión crítica

Interactivo Prioriza el menor retraso de todo Las solicitudes podrían beneficiarse de


el tráfico de datos y procura que una menor demora.
el tiempo de respuesta sea de 1 a 2
segundos.

No El retardo puede variar Obtiene cualquier ancho de banda


Interactivo enormemente siempre que se sobrante después de que todas las
suministre el mínimo de ancho de necesidades de voz, video y otras
banda necesario. aplicaciones de datos sean satisfechas.
2. Resumen Formación de Colas

El tema anterior abarcaba las características del tráfico. En este tema se explicarán los
algoritmos de colas utilizados para implementar la calidad de servicio. La política de
QoS implementada por el administrador de la red se activa cuando se produce una
congestión en el enlace. La cola es una herramienta de gestión de la congestión que
puede almacenar en un búfer, priorizar y, si es necesario, reordenar los paquetes antes
de que se transmitan al destino.

Se dispone de varios algoritmos de colas. Para los propósitos de este curso, nos
centraremos en lo siguiente:

 First-In, First-Out (FIFO)


 Weighted Fair Queuing (WFQ)
 Class-Based Weighted Fair Queuing (CBWFQ)
 Low Latency Queuing (LLQ)

3. First In First Out (FIFO)

En su forma más simple, la cola Primero en entrar, primero en salir (FIFO, First In


First Out), también conocida como colas por orden de llegada, amortigua y reenvía los
paquetes en el orden de su llegada.

FIFO no tiene un concepto de prioridad o clases de tráfico y, en consecuencia, no toma


ninguna decisión sobre la prioridad de los paquetes. Sólo hay una cola, y todos los
paquetes son tratados por igual. Los paquetes se envían por una interfaz en el orden en
que llegan, como se muestra en la figura. Aunque cierto tráfico puede ser más
importante o sensible al tiempo según la clasificación de prioridades, observa que el
tráfico se envía en el orden en que se recibe.

Cuando se utiliza el sistema FIFO, el tráfico importante o sensible al tiempo puede ser
descartado cuando hay congestión en la interfaz del router o switch. Cuando no se
configuran otras estrategias de colas, todas las interfaces, excepto las interfaces serie en
E1 (2.048 Mbps) e inferiores, utilizan FIFO por defecto. (Las interfaces seriales en E1 e
inferiores usan WFQ por defecto).

El método FIFO, que es el más rápido de poner en cola, es efectivo para enlaces grandes
que tienen poco retraso y una mínima congestión. Si su enlace tiene muy poca
congestión, la cola FIFO puede ser la única cola que se necesite usar.

Ejemplo de colas FIFO


Ejemplo de colas FIFO

4. Weighted Fair Queuing (WFQ)

Espera equitativa ponderada (WFQ, Weighted Fair Queuing) es un método de


programación automatizado que proporciona una asignación justa de ancho de banda a
todo el tráfico de la red. El WFQ no permite configurar las opciones de clasificación.
WFQ aplica prioridad, o pesos, al tráfico identificado y lo clasifica en conversaciones o
flujos, como se muestra en la figura.

Ejemplo de cola de espera equitativa y ponderada

Ejemplo cola WFQ


El WFQ determina entonces cuánto ancho de banda se permite a cada flujo en relación
con otros flujos. El algoritmo basado en el flujo utilizado por WFQ programa
simultáneamente el tráfico interactivo al frente de una cola para reducir el tiempo de
respuesta. Luego comparte equitativamente el ancho de banda restante entre los flujos
de alto ancho de banda. WFQ permite dar prioridad al tráfico interactivo de bajo
volumen, como las sesiones de Telnet y la voz, sobre el tráfico de alto volumen, como
las sesiones de FTP. Cuando se producen simultáneamente varios flujos de transferencia
de archivos, se da a las transferencias un ancho de banda comparable.

El WFQ clasifica el tráfico en diferentes flujos basándose en el direccionamiento del


encabezamiento del paquete, incluyendo características tales como las direcciones IP de
origen y destino, las direcciones MAC, los números de puerto, el protocolo y el valor
del Tipo de Servicio (ToS). El valor ToS del encabezado IP puede utilizarse para
clasificar el tráfico.

Los flujos de tráfico de ancho de banda bajo, que constituyen la mayor parte del tráfico,
reciben un servicio preferencial que permite enviar oportunamente toda su carga
ofrecida. Los flujos de tráfico de alto volumen se reparten proporcionalmente la
capacidad restante entre ellos.

Limitaciones

El WFQ no es compatible con el tunelado y la encriptación porque estas características


modifican la información del contenido de los paquetes que requiere el WFQ para su
clasificación.

Aunque WFQ se adapta automáticamente a las condiciones cambiantes del tráfico de la


red, no ofrece el grado de control preciso sobre la asignación del ancho de banda que
ofrece CBWFQ.

5. Class-Based Weighted Fair Queuing (CBWFQ)

La cola de Espera equitativa ponderada basado en clases (CBWFQ, Class-Based


Weighted Fair Queuing) amplía la funcionalidad estándar del WFQ para proporcionar
soporte a las clases de tráfico definidas por el usuario. Con CBWFQ, se definen las
clases de tráfico basadas en criterios de coincidencia, incluyendo protocolos, listas de
control de acceso (ACL) e interfaces de entrada. Los paquetes que satisfacen el criterio
de coincidencia para una clase constituyen el tráfico para esa clase. Se reserva una cola
FIFO para cada clase y el tráfico perteneciente a una clase se dirige a la cola de esa
clase, como se muestra en la figura.

Cuando una clase se ha definido según sus criterios de coincidencia, se le pueden


asignar características. Para caracterizar una clase, se le asigna el ancho de banda, el
peso y el límite máximo de paquetes. El ancho de banda asignado a una clase es el
ancho de banda garantizado entregado a la clase durante la congestión.

Para caracterizar una clase, también debes especificar el límite de cola para esa clase,
que es el número máximo de paquetes que se permite acumular en la cola de la clase.
Los paquetes pertenecientes a una clase están sujetos a los límites de ancho de banda y
de cola que caracterizan a la clase.

Ejemplo de CBWFQ
Ejemplo de CBWFQ
Después de que una cola ha alcanzado su límite de cola configurado, añadir más
paquetes a la clase hace que la caída de la cola o la caída de paquetes tenga efecto,
dependiendo de cómo se configure la política de la clase. La caída de cola significa que
un router simplemente descarta cualquier paquete que llegue al final de una cola que
haya agotado completamente sus recursos de retención de paquetes. Esta es la respuesta
por defecto de la cola a la congestión. La caída de cola trata todo el tráfico por igual y
no diferencia entre clases de servicio.

6. Low Latency Queuing (LLQ)

La característica de Cola de Baja Latencia (LLQ, The Low Latency Queuing) trae la


estricta cola de prioridad (PQ) al CBWFQ. La PQ estricta permite que los paquetes
sensibles al retraso, como la voz, se envíen antes que los paquetes de otras colas. La
LLQ proporciona una estricta cola de prioridad para el CBWFQ, reduciendo las
fluctuaciones en las conversaciones de voz, como se muestra en la figura.

Sin LLQ, el CBWFQ proporciona WFQ basado en clases definidas sin una cola de
prioridad estricta disponible para el tráfico en tiempo real. El peso de un paquete
perteneciente a una clase específica se deriva del ancho de banda que le asignó a la clase
cuando la configuró. Por lo tanto, el ancho de banda asignado a los paquetes de una
clase determina el orden en que se envían los paquetes. Todos los paquetes son
atendidos equitativamente en función del peso; no se puede conceder una prioridad
estricta a ninguna clase de paquetes. Este esquema plantea problemas para el tráfico de
voz que no tolera en gran medida el retraso, especialmente la variación del mismo. Para
el tráfico de voz, las variaciones en la demora introducen irregularidades en la
transmisión que se manifiestan como fluctuaciones en la conversación escuchada.

La LLQ permite que los paquetes sensibles al retardo, como la voz, se envíen primero
(antes que los paquetes en otras colas), dando a los paquetes sensibles al retardo un
tratamiento preferencial sobre el resto del tráfico. Aunque es posible clasificar varios
tipos de tráfico en tiempo real en la cola de prioridad estricta, Cisco recomienda que
sólo el tráfico de voz se dirija a la cola de prioridad.

Ejemplo de LLQ
Ejemplo de LLQ

2. Selección de Modelo Adecuado de Política de QoS

 Modelo de mejor esfuerzo


 Servicios integrados (IntServ)
 Servicios diferenciados (DiffServ)

La tabla resume estos tres modelos. QoS se implementa en una red utilizando IntServ o
DiffServ. Si bien IntServ ofrece la mayor garantía de QoS, requiere muchos recursos y,
por lo tanto, no es fácilmente escalable. En cambio, DiffServ consume menos recursos y
es más escalable. En algunas ocasiones, los dos se emplean juntos para la
implementación de la QoS en redes.

Modelos para Implementar QoS

Modelo Descripción

Modelo de mejor  Esto no es realmente una implementación ya que la QoS


esfuerzo (Best-effort no está explícitamente configurada.
model)  Usa esto cuando la QoS no sea necesaria.

Servicios integrados  IntServ proporciona paquetes de QoS a IP muy altos con


(IntServ) entrega garantizada.
 Define un proceso de señalización para que las
aplicaciones indiquen a la red que requieren una QoS
especial durante un período y que se debe reservar el
ancho de banda.
IntServ puede limitar severamente la escalabilidad de
una red.

Servicios  DiffServ proporciona una alta escalabilidad y flexibilidad


diferenciados en la implementación de la QoS.
(DiffServ)  Losdispositivos de red reconocen las clases de tráfico y
proporcionan diferentes niveles de QoS a las diferentes
clases de tráfico.

3. Mejor Esfuerzo

El diseño básico de Internet es la entrega de paquetes de mejor esfuerzo y no ofrece


garantías. Este enfoque sigue siendo predominante en la Internet de hoy en día y sigue
siendo apropiado para la mayoría de los propósitos. El modelo de mejor esfuerzo trata
todos los paquetes de la red de la misma manera, así que un mensaje de voz de
emergencia es tratado de la misma manera que una fotografía digital adjunta a un correo
electrónico. Sin QoS, la red no puede diferenciar entre los paquetes y, como resultado,
no puede tratar los paquetes de forma preferente.

El modelo de mejor esfuerzo es similar en concepto a enviar una carta usando el correo
postal estándar. Tu carta se trata exactamente igual que cualquier otra carta. Con el
modelo de mejor esfuerzo, es posible que la carta nunca llegue, y, a menos que tenga un
acuerdo de notificación por separado con el destinatario de la carta, es posible que
nunca sepas que la carta no llegó.

La tabla enumera las ventajas y desventajas del modelo de mejor esfuerzo.

Ventajas y desventajas del modelo de mejor esfuerzo

Beneficios Desventajas

El modelo es el más escalable. No hay garantías de entrega.

La escalabilidad sólo está limitada por el ancho de Los paquetes llegarán cuando
banda disponible, en cuyo caso todo el tráfico se puedan y en cualquier orden posible,
ve igualmente afectado. si es que llegan.

No se requieren mecanismos especiales de calidad Ningún paquete tiene un tratamiento


de servicio. preferencial.

Es el modelo más fácil y rápido de desplegar. Los datos críticos se tratan del
mismo modo que el correo
electrónico informal..

4. Servicios Integrados
El modelo de arquitectura IntServ (RFC 1633, 2211 y 2212) se desarrolló en 1994 para
satisfacer las necesidades de las aplicaciones en tiempo real, como el vídeo remoto, las
conferencias multimedia, las aplicaciones de visualización de datos y la realidad virtual.
IntServ es un modelo de servicios múltiples que puede acomodar muchos requisitos de
calidad de servicio.

IntServ ofrece la QoS de extremo a extremo que requieren las aplicaciones en tiempo
real. IntServ gestiona explícitamente los recursos de la red para proporcionar la QoS a
flujos o corrientes individuales, a veces llamados microflujos. Utiliza mecanismos de
reserva de recursos y de control de admisión como bloques de construcción para
establecer y mantener la QoS. Esto es similar a un concepto conocido como «hard
QoS«. La QoS dura garantiza las características del tráfico, como el ancho de banda, el
retardo y las tasas de pérdida de paquetes, de un extremo a otro. La QoS dura asegura
niveles de servicio predecibles y garantizados para aplicaciones de misión crítica.

La figura muestra una ilustración simple del modelo IntServ.

Ejemplo simple de IntServ

Ejemplo simple de IntServ


IntServ utiliza un enfoque orientado a la conexión heredado del diseño de redes de
telefonía. Cada comunicación individual debe especificar explícitamente su descriptor
de tráfico y los recursos solicitados a la red. El router de borde realiza el control de
admisión para asegurar que los recursos disponibles son suficientes en la red. La norma
IntServ supone que los routers a lo largo de una ruta establecen y mantienen el estado
para cada comunicación individual.

En el modelo IntServ, la aplicación solicita un tipo específico de servicio a la red antes


de enviar los datos. La aplicación informa a la red de su perfil de tráfico y solicita un
tipo de servicio concreto que puede abarcar sus necesidades de ancho de banda y de
retardo. IntServ utiliza el protocolo de reserva de recursos (RSVP, Resource
Reservation Protocol) para señalar las necesidades de calidad de servicio del tráfico de
una aplicación a lo largo de los dispositivos en el trayecto de extremo a extremo a través
de la red. Si los dispositivos de la red a lo largo del trayecto pueden reservar el ancho de
banda necesario, la aplicación de origen puede comenzar a transmitir. Si la reserva
solicitada falla a lo largo del camino, la aplicación de origen no envía ningún dato.
El router de borde realiza un control de admisión basado en la información de la
aplicación y los recursos de red disponibles. La red se compromete a cumplir los
requisitos de calidad de servicio de la aplicación siempre que el tráfico se mantenga
dentro de las especificaciones del perfil. La red cumple con su compromiso
manteniendo el estado por flujo y luego realiza la clasificación de paquetes, la vigilancia
y las colas inteligentes basadas en ese estado.

En la tabla se enumeran las ventajas y las desventajas del modelo IntServ.

Ventajas y desventajas del modelo IntServ

Ventajas Desventajas

 Control explícito de  Intensivo en recursos debido al requisito de


admisión de recursos de la arquitectura estatal para la señalización
extremo a extremo continua.
 Política de control de  El enfoque basado en el flujo no es
admisión por solicitud escalable a grandes implementaciones
 Señalización de números de como la Internet.
puertos dinámicos

5. Servicios Diferenciados

El modelo de QoS de servicios diferenciados (DiffServ) especifica un mecanismo


sencillo y escalable para clasificar y gestionar el tráfico de la red. Por ejemplo, DiffServ
puede proporcionar un servicio garantizado de baja latencia al tráfico de red crítico,
como la voz o el vídeo, y al mismo tiempo proporcionar garantías de tráfico simple de
mejor esfuerzo a los servicios no críticos, como el tráfico web o las transferencias de
archivos.

El diseño de DiffServ supera las limitaciones de los modelos de mejor esfuerzo y de


IntServ. El modelo DiffServ se describe en las RFC 2474, 2597, 2598, 3246, 4594.
DiffServ puede proporcionar una QoS «casi garantizada» sin dejar de ser rentable y
escalable.

El modelo DiffServ es similar en concepto al envío de un paquete mediante un servicio


de entrega. Tú solicitas (y pagas) un nivel de servicio cuando envías un paquete. A
través de la red de paquetes, se reconoce el nivel de servicio por el que pagaste y tu
paquete recibe un servicio preferencial o normal, dependiendo de lo que hayas
solicitado.

DiffServ no es una estrategia de QoS de extremo a extremo porque no puede hacer


cumplir las garantías de extremo a extremo. Sin embargo, DiffServ QoS es un enfoque
más escalable para implementar la QoS. A diferencia de IntServ y de la QoS dura, en la
que los hosts finales señalan sus necesidades de QoS a la red, DiffServ no utiliza la
señalización. En su lugar, DiffServ utiliza un enfoque de «soft QoS» (QoS suave).
Trabaja con el modelo de QoS aprovisionada, en el que los elementos de la red se
configuran para dar servicio a múltiples clases de tráfico, cada una con diferentes
requisitos de QoS.

La figura muestra una ilustración sencilla del modelo DiffServ.

Ejemplo Simple de DiffServ

Ejemplo Simple de DiffServ


Mientras el host envía tráfico a un router, el router clasifica los flujos en agregados
(clases) y proporciona la política QoS apropiada para las clases. DiffServ impone y
aplica los mecanismos de la QoS en base a saltos, aplicando uniformemente el
significado global a cada clase de tráfico para proporcionar flexibilidad y escalabilidad.
Por ejemplo, DiffServ podría configurarse para agrupar todos los flujos de TCP como
clase única y asignar el ancho de banda para dicha clase, en vez de para los flujos
individuales, como lo haría IntServ. Además de clasificar el tráfico, DiffServ minimiza
los requisitos de mantenimiento de señales y estados en cada nodo de red.

Específicamente, DiffServ divide el tráfico de red en clases según los requisitos de la


empresa. Se puede asignar a un nivel diferente de servicio a cada una de las clases. A
medida que los paquetes atraviesan una red, cada uno de los dispositivos de red
identifica la clase de paquete y brinda servicios al paquete según esa clase. Es posible
elegir muchos niveles de servicio con DiffServ. Por ejemplo, el tráfico de voz de los
teléfonos IP suele recibir un tratamiento preferencial sobre todo el resto del tráfico de
aplicaciones, el correo electrónico suele recibir un servicio de mejor esfuerzo, y el
tráfico no comercial puede recibir un servicio muy pobre o ser bloqueado por completo.

La tabla enumera los beneficios y las desventajas del modelo DiffServ.

Nota: Las redes modernas utilizan principalmente el modelo DiffServ. Sin embargo,
debido a los volúmenes crecientes de tráfico sensible a demoras y fluctuaciones, en
ocasiones IntServ y RSVP se implementan juntos.
Ventajas y desventajas del modelo DiffServ

Ventajas Desventajas

 Altamente escalable  Sin garantía absoluta de la calidad del


 Proporciona muchos niveles servicio.
diferentes de calidad  Requiere un conjunto de mecanismos
complejos para trabajar en conjunto en la
red.

2. Evitar Pérdida de Paquetes

Ahora que has aprendido sobre las características del tráfico, los algoritmos de colas y
los modelos de QoS, es hora de aprender sobre las técnicas de implementación de QoS.

Empecemos con la pérdida de paquetes. La pérdida de paquetes suele ser el resultado de


la congestión en una interfaz. La mayoría de las aplicaciones que utilizan TCP
experimentan una ralentización porque TCP se ajusta automáticamente a la congestión
de la red. Los segmentos de TCP que se pierden hacen que las sesiones de TCP
reduzcan el tamaño de sus ventanas. Algunas aplicaciones no utilizan TCP y no pueden
manejar caídas (flujos frágiles).

Los siguientes enfoques pueden evitar las caídas en aplicaciones sensibles:

 Aumentar la capacidad del enlace para facilitar o prevenir la congestión.


 Garantizar un ancho de banda suficiente y aumentar el espacio del búfer para
acomodar las caídas de tráfico de los flujos frágiles. WFQ, CBWFQ y LLQ
pueden garantizar el ancho de banda y proporcionar un reenvío prioritario a
las aplicaciones sensibles a las caídas.
 Dejar caer los paquetes de menor prioridad antes de que se produzca la
congestión. Cisco IOS QoS proporciona mecanismos de cola, como la
detección temprana aleatoria ponderada (WRED), que empiezan a soltar los
paquetes de menor prioridad antes de que se produzca la congestión.

3. Herramientas de la QoS

Hay tres categorías de herramientas de QoS, como se describe en la tabla:

 Herramientas de clasificación y marcación


 Herramientas para evitar la congestión
 Herramientas de administración de congestión

Herramientas para Implementar QoS

Herramientas de Descripción
QoS

Herramientas de  Lassesiones, o flujos, se analizan para determinar qué clase


clasificación y de tráfico a los que pertenecen.
marcación  Cuando se determina la clase de tráfico, se marcan los
paquetes.

Herramientas para  Las clases de tráfico son porciones asignadas de los


evitar la congestión recursos de la red, como se define en la política de QoS.
La política de QoS también identifica cómo se puede
interrumpir, retrasar o remarcar selectivamente parte del
tráfico para evitar la congestión.
La principal herramienta para evitar la congestión es
WRED y se utiliza para regular el tráfico de datos TCP
de forma eficiente en cuanto al ancho de banda antes de
que se produzcan caídas de cola causadas por
desbordamientos de cola.

Herramientas de  Cuando el tráfico excede los recursos de red disponibles, el


administración de tráfico se pone en cola para esperar la disponibilidad de
congestión los recursos.
 Las herramientas comunes de gestión de la congestión
basadas en Cisco IOS incluyen los algoritmos CBWFQ y
LLQ.

Consulta la figura para ayudar a comprender la secuencia de cómo se utilizan estas


herramientas cuando QoS se aplica a los flujos de paquetes.

Secuencia de QoS

Secuencia de QoS
Como se muestra en la ilustración, se clasifican los paquetes de ingreso (cuadros grises)
y se marca su encabezado IP respectivo (cuadros de color). Para evitar la congestión,
luego se asignan recursos a los paquetes en base a las políticas definidas. Los paquetes
son luego puestos en la cola y reenviados a la interfaz de egreso según la política
definida de modelado y regulación de tráfico de la QoS.

Nota: La clasificación y la marcación se pueden aplicar en el ingreso o en el egreso,


mientras que las otras acciones de la QoS, como la organización de la cola y el
modelado, generalmente se realizan al egreso.

4. Clasificación y Marcación
Antes de que a un paquete se le pueda aplicar una política de la QoS, el mismo tiene que
ser clasificado. La clasificación y la marcación (Classification & Marking) nos permiten
identificar o “marcar” los tipos de paquetes. La clasificación determina la clase de
tráfico al cual los paquetes o tramas pertenecen. Solo pueden aplicarse las políticas al
tráfico después del marcado.

El cómo se clasifica un paquete depende de la implementación de la QoS. Los métodos


de clasificación de flujos de tráfico en la capa 2 y 3 incluyen el uso de interfaces, ACL y
mapas de clase. El tráfico también se puede clasificar en las capas 4 a 7 mediante el uso
del Reconocimiento de aplicaciones basado en la red (NBAR, Network Based
Application Recognition).

Nota: NBAR es una característica de clasificación y descubrimiento de protocolo del


software Cisco IOS que funciona con características de QoS. NBAR excede el ámbito
de este curso.
La marcación significa que estamos agregando un valor al encabezado de paquetes. Los
dispositivos que reciben el paquete se basan en este campo para ver si coincide con una
política definida. La marcación debe realizarse tan cerca de la fuente como sea posible.
Esto determina el límite de confianza.

La forma en la que se marca el tráfico generalmente depende de la tecnología. La tabla


de la figura describe algunos de los campos de marcado que se usan en diversas
tecnologías. La decisión de marcar el tráfico de las capas 2 o 3 (o ambos) no es
despreciable y debe tomarse tras considerar los siguientes puntos:

 La marcación de tramas de capa 2 se puede realizar para el tráfico no IP.


 La marcación de tramas de la capa 2 es la única opción de QoS disponible para
los switches que no tienen «reconocimiento de IP».
 La marcación de capa 3 llevará la información de QoS de extremo a extremo.

Marcación de Tráfico para QoS

Herramientas de la Capa Campo de Marcación Ancho en


QoS bits

Ethernet (802.1Q, 2 Class of Service (CoS) 3


802.1p)

802.11 (Wi-Fi) 2 Wi-Fi Traffic Identifier (TID) 3

MPLS 2 Experimental (EXP) 3

IPv4 e IPv6 3 IP Precedence (IPP) 3

IPv4 e IPv6 3 Differentiated Services Code Point 6


(DSCP)

5. Marcación en Capa 2

802.1Q es el estándar IEEE que admite etiquetado VLAN en la capa 2 de las redes
Ethernet. Cuando se implementa 802.1Q, se agregan dos campos a la trama de Ethernet.
Como se muestra en la figura, estos dos campos se insertan en la trama de Ethernet
después del campo de la dirección MAC de origen.

Valores de Clase de Servicio Ethernet (CoS)

Valores de Clase de Servicio Ethernet


El estándar 802.1Q también incluye el esquema de priorización de la QoS conocido
como IEEE 802.1p. El estándar 802.1p usa los tres primeros bits del campo de
información de control de etiqueta (TCI). Conocido como campo de prioridad (PRI),
este campo de 3 bits identifica las marcas de clase de servicio (CoS). Tres bits significan
que una trama Ethernet de capa 2 se puede marcar con uno de los ocho niveles de
prioridad (valores 0-7) como se muestra en la figura.

Valores de Clase de Servicio Ethernet (CoS)

Valor de CoS Valor Binario de CoS Descripción

0 000 Datos de mejor esfuerzo

1 001 Datos de prioridad media

2 010 Datos de alta prioridad


3 011 Señalización de llamadas

4 100 Videoconferencia

5 101 Portador de voz (tráfico de voz)

6 110 Reservado

7 111 Reservado

6. Marcación en Capa 3

IPv4 e IPv6 especifican un campo de 8 bits en sus encabezados de paquetes para marcar
los paquetes. Como se muestra en la figura, tanto IPv4 como IPv6 admiten un campo de
8 bits para marcar: el campo Tipo de servicio (ToS) para IPv4 y el campo Clase de
Tráfico para IPv6.

Encabezados de Paquetes IPv4 e IPv6

Encabezados Paquetes IPv4 e IPv6


7. Campo Tipo de Servicio y Clase de Tráfico

El tipo de servicio (IPv4) y la clase de tráfico (IPv6) llevan el marcado de paquetes


según lo asignado por las herramientas de clasificación de QoS. Luego se hace
referencia al campo mediante dispositivos receptores que reenvían los paquetes en
función de la política de QoS asignada apropiada.

La figura muestra el contenido del campo de 8 bits. En RFC 791, el estándar original de
IP especificaba el campo de preferencia de IP (IPP) que se utilizará para las
marcaciones de la QoS. Sin embargo, en la práctica, estos tres bits no proporcionaban
suficiente granularidad para implementar QoS.

RFC 2474 reemplaza RFC 791 y redefine el campo de ToS al cambiar el nombre y
ampliar el campo de IPP. El nuevo campo, como se muestra en la figura, tiene 6 bits
asignados para QoS. Conocido como campo de punto de código de servicios
diferenciados (DSCP, Differentiated Services Code Point), estos seis bits ofrecen un
máximo de 64 clases de servicio posibles. Los dos bits restantes de notificación de
congestión extendida (ECN, Explicit Congestion Notification) de IP pueden usarse en
los routers con reconocimiento de ECN para marcar paquetes en lugar de descartarlos.
La marcación de ECN informa a los routers downstream que hay congestión en el flujo
de paquetes.

Campo Tipo de Servicio y Clase de Tráfico

8. Valores DSCP

Los 64 valores DSCP están organizados en tres categorías:

 Mejor Esfuerzo (BE, Best-Effort) – Este es el valor por defecto para todos los
paquetes IP. El valor DSCP es 0. El comportamiento por salto es un
enrutamiento normal. Cuando un router experimenta congestión, estos
paquetes serán eliminados. No se implementa ningún plan de QoS.
 Reenvío Expedito (EF, Expedited Forwarding) – El RFC 3246 define EF
como el valor decimal de DSCP 46 (binario 101110). Los primeros 3 bits
(101) se asignan directamente al valor 5 de CoS de la capa 2 utilizado para el
tráfico de voz. En la Capa 3, Cisco recomienda que EF sólo se utilice para
marcar paquetes de voz.
 Reenvío Asegurado (AF, Assured Forwarding) – El RFC 2597 define AF
para utilizar los 5 bits DSCP más significativos para indicar las colas y la
preferencia de caída. La definición de AF se ilustra en la figura.

Valores de Reenvío Asegurado

Valores de Reenvío Asegurado


La fórmula de AFxy se especifica de la siguiente manera:

 Los 3 primeros bits más significativos se usan para designar la clase. La clase 4
es la mejor cola y la clase 1 es la peor cola.
 Los 4 y 5 bits más significativos se usan para designar la preferencia de caída.
 El 6º bit más significativo se establece en cero.

Por ejemplo, AF32 pertenece a la clase 3 (binario 011) y tiene una preferencia media de
descarte (binario 10). El valor completo de DSCP es 28 porque incluye el 6º bit en 0
(binario 011100).

9. Bits Selectores de Clase

Como los primeros 3 bits más significativos del campo DSCP indican la clase, estos bits
también se denominan bits de selector de clase (CS). Estos 3 bits se asignan
directamente a los 3 bits del campo CoS y el campo IPP para mantener la
compatibilidad con 802.1p y RFC 791, como se muestra en la figura.

ToS de Capa 2 CoS y Capa 3


ToS de Capa 2 CoS y Capa 3
La tabla en la figura muestra cómo los valores de CoS se correlacionan con los
selectores de clase y el valor DSCP correspondiente de 6 bits. Esta misma tabla se
puede usar para asociar los valores de IPP a los selectores de clase.

Asignación de CoS a los Selectores de Clase en DSCP

AsignaciónCoS a Selectores de Clase

10. Límites de Confianza


¿Dónde deberían producirse las marcaciones? El tráfico se debe clasificar y marcar lo
más cerca su origen como sea técnicamente y administrativamente posible. Esto define
el límite de confianza, como se muestra en la figura.

1. Los terminales confiables tienen las capacidades y la inteligencia para marcar


el tráfico de aplicaciones con las CoS de capa 2 apropiadas y/o los valores de
DSCP de la Capa 3. Algunos ejemplos de terminales de confianza incluyen
teléfonos IP, puntos de acceso inalámbrico, gateways y sistemas de
videoconferencia, estaciones de conferencia IP y más.
2. Los terminales seguros pueden hacer que el tráfico se marque en el switch de
la capa 2.
3. El tráfico también puede marcarse en los switches/routers de la capa 3.

Por lo general, es necesario volver a marcar el tráfico, por ejemplo, volver a marcar los
valores de CoS en los valores de precedente IP o DSCP.

Varios Límites de Confianza

Varios Límites de Confianza

11. Prevención de Congestión

La gestión de la congestión incluye métodos de programación y colas en los que el


exceso de tráfico se almacena en un búfer o en una cola (y a veces se descarta) mientras
espera a que se le envíe una interfaz de salida. Las herramientas para evitar la
congestión son más sencillas. Supervisan las cargas de tráfico de la red en un esfuerzo
por anticipar y evitar la congestión en los cuellos de botella comunes de la red y la
Internet antes de que la congestión se convierta en un problema. Estas herramientas
pueden monitorear la profundidad promedio de la cola, como se representa en la figura.
Cuando la cola está por debajo del umbral mínimo, no hay caídas. A medida que la cola
se llena hasta el umbral máximo, un pequeño porcentaje de paquetes se descarta.
Cuando se supera el umbral máximo, se dejan caer todos los paquetes.

Mecanismos de Prevención de Congestión


Mecanismos de Prevención de Congestión
Algunas técnicas de evitación de la congestión proporcionan un tratamiento preferencial
por el que se dejan caer los paquetes. Por ejemplo, el IOS QoS de Cisco incluye la
detección temprana aleatoria ponderada (WRED, Weighted Random Early Detection)
como una posible solución para evitar la congestión. El algoritmo WRED permite evitar
la congestión en las interfaces de red proporcionando una gestión de búferes y
permitiendo que el tráfico TCP disminuya, o se reduzca, antes de que los búferes se
agoten. El uso de WRED ayuda a evitar las caídas de cola y maximiza el uso de la red y
el rendimiento de las aplicaciones basadas en TCP. No se evita la congestión del tráfico
basado en el Protocolo de Datagrama de Usuario (UDP), como el tráfico de voz. En el
caso del tráfico basado en UDP, los métodos como las técnicas de cola y compresión
ayudan a reducir e incluso prevenir la pérdida de paquetes UDP.

12. Shaping y Policing

La conformación (shaping) del tráfico y la vigilancia (policing) del tráfico son dos
mecanismos proporcionados por el software IOS QoS de Cisco para prevenir la
congestión.

Ejemplo de Conformación (shaping) del Tráfico

Conformación (shaping) del Tráfico


La conformación (shaping) implica la existencia de una cola y de suficiente memoria
para almacenar paquetes retrasados, mientras que la vigilancia (policing) no.
Asegúrate de tener suficiente memoria cuando habilites el «shaping». Además, el
«shaping» requiere una función de programación para la transmisión posterior de
cualquier paquete retrasado. Esta función de programación te permite organizar la cola
de envío del «shaping» en diferentes colas. Ejemplos de funciones de programación son
CBWFQ y LLQ.

El «shaping» es un concepto de salida; los paquetes que salen de una interfaz se ponen
en cola y pueden ser formados. Por el contrario, el «policing» se aplica al tráfico
entrante en una interfaz. Cuando la tasa de tráfico alcanza la tasa máxima configurada,
el exceso de tráfico se elimina (o se remarca).

La vigilancia se aplica comúnmente por los proveedores de servicios para hacer cumplir
una tasa de información al cliente (CIR) contratada. Sin embargo, el proveedor de
servicios también puede permitir el estallido por CIR si la red del proveedor de servicios
no experimenta actualmente congestión.

Ejemplo de Vigilancia (Policing) del Tráfico

Vigilancia (Policing) del Tráfico

13. Pautas de Directivas de QoS

La directiva QoS debe tener en cuenta la ruta completa desde el origen hasta el destino.
Si un dispositivo en la ruta está utilizando una directiva diferente a la deseada, entonces
toda la directiva de QoS se ve afectada. Por ejemplo, el tartamudeo (stutter) en la
reproducción de vídeo podría ser el resultado de un switch en la ruta que no tiene el
valor CoS establecido adecuadamente.

Algunas pautas que ayudan a garantizar la mejor experiencia para los usuarios finales
incluyen las siguientes:

 Habilitar la puesta en cola en todos los dispositivos de la ruta entre el origen y el


destino.
 Clasificar y marcar el tráfico lo más cerca posible del origen.
 Conformar (Shape) y Vigilar (Police) los flujos de tráfico lo más cerca posible
de sus orígenes.

También podría gustarte