Está en la página 1de 10

CONGESTIN EN LA RED

Se llama congestin al exceso de trfico en alguna parte de una red, que da lugar al exceso
de demanda de algn recurso (ancho de banda, memoria, capacidad de procesamiento) la
principal consecuencia de la congestin de una red es que aumentan los retardos y las
prdidas.

Una propiedad tpica de la congestin es la realimentacin, que hace que la situacin


empeore con el paso del tiempo, pues un nodo congestionado provocar con el tiempo la
saturacin de los que envan trfico hacia l. La consecuencia final de la congestin, si sta
no es resuelta, es que los nodos entran en una situacin de bloqueo.

CONSECUENCIAS DE LA CONGESTIN
Retardos: Trabajar cerca de la capacidad de los enlaces es ideal desde el punto de vista de
la productividad, pero no lo es respecto al retardo. Se experimentan grandes retardos en una
cola segn la tasa de llegadas de paquetes se acerca a la capacidad del enlace.
Prdidas: Como los bferes no son de tamao infinito el emisor debe realizar
retransmisiones para compensar los paquetes perdidos debido al desbordamiento de los
bferes.
Desperdicio de recursos: Las retransmisiones innecesarias realizadas por el emisor en
presencia de grandes retardos, que provocan que venzan los temporizadores de
retransmisin antes de que lleguen los asentimientos, hacen que el ancho de banda de los
enlaces se utilice para encaminar copias innecesarias de los paquetes.
Cuando un paquete es desechado a lo largo de un camino, la capacidad de almacenamiento,
procesamiento y transmisin que fue utilizada en cada uno de los nodos y enlaces
anteriores, para encaminar ese paquete hasta el punto en el que es desechado, est siendo
desperdiciada.

TCNICAS DE CONTROL DE CONGESTIN


El problema del control de congestin puede enfocarse matemticamente desde el punto de
vista de la teora de control de procesos, y segn esto pueden proponerse soluciones
en bucle abierto y en bucle cerrado.
Soluciones en bucle abierto.
Tambin llamadas soluciones pasivas. Combaten la congestin de las redes mediante un
adecuado diseo de las mismas. Existen mltiples variables que influirn en el
comportamiento de la red frente a la congestin ( Nivel, Enlace, Red y Transporte )
Soluciones en bucle cerrado.
Tambin llamadas soluciones activas. Actan cuando se detectan problemas. Tienen tres
fases:
Monitorizacin de parmetros.
Reaccin.
Ajuste del sistema
OTRA CLASIFICACION
Contrapresin
Efecto similar a la contrapresin en fluidos que pasan por un tubo. Si se cierra el extremo
final del tubo el lquido ejerce una presin hacia el origen donde el flujo es nulo. En una red
de comunicaciones la restriccin de flujo se propaga desde el destino por los nodos de la
ruta hacia el origen.

Contrapresin
La contrapresin se puede aplicar selectivamente a algunas conexiones lgicas de mayor
trfico, se puede utilizar en redes orientadas a conexin y que permiten control de flujo a
nivel de enlace, por ejemplo X.25 (FR, ATM, Internet no presentan esta caracterstica).

Paquetes de obstruccin
Al presentarse congestin en un nodo, este enva un paquete de control por la ruta inversa
del paquete hasta el nodo origen o estacin de origen, que deber reducir el trfico. Un
buen ejemplo de la utilizacin de paquetes de obstruccin es el protocolo ICMP (Internet
Control Message Protocol).
Sealizacin implcita de congestin
Las estaciones emisoras detectan la congestin de la red y reducen el flujo de paquetes
automticamente. La forma en que se detecta la congestin consiste en incrementar
excesivamente el retardo de los paquetes enviados y el nmero de paquetes rechazados por
el destino. Es responsabilidad de los sistemas finales (no precisa acciones por parte de los
nodos) y es efectiva en redes no orientadas a conexin (Internet).
Sealizacin explicita de congestin
La red alerta a los sistemas finales acerca del incremento de la congestin en la red. Los
sistemas finales toman medidas oportunas para reducir la carga de entrada a la red. Operan
sobre redes orientadas a conexin (FR, ATM). Controlan el flujo de paquetes de
conexiones individuales y pueden hacerse hacia atrs y hacia adelante:
Sealizacin hacia atrs
Se enva un mensaje de notificacin de congestin en sentido opuesto al que viajan los
paquetes de una conexin lgica. El mensaje indica que los paquetes transmitidos sobre
esta conexin lgica pueden encontrar recursos congestionados.
Formas de envi del mensaje:

Alterando bits en la cabecera de un paquete de datos encabezado con la direccin


del emisor
Con un paquete de control diferente a los datos.

Sealizacin hacia adelante


El mensaje de notificacin de congestin se enva en el mismo sentido de los paquetes de
datos, en el mensaje se indica que un paquete dado sobre una conexin lgica dada ha
encontrado recursos congestionados. Las formas en que se transmite pueden ser en bits o en
paquetes de control.
En algunos sistemas el sistema final destino recibe la notificacin y devuelve un eco de ella
sobre la conexin lgica hacia el emisor, en otros sistemas el sistema final destino realiza
un control de flujo sobre el sistema final origen (a nivel de capa de transporte).

CONTROL DE TRFICO
Dado que una de las principales causas de la congestin es que el trfico es a rfagas, los
mecanismos de regulacin de trfico fuerzan a las fuentes a transmitir de forma ms
predecible. En realidad, lo que se pretende es regular la tasa media y la variabilidad del
trfico de entrada a la red. Aunque esta regulacin es ms fcil de implementar con
circuitos virtuales, puede aplicarse igualmente a redes de datagramas.
El trfico a rfagas es la principal causa de congestin. Si todos los ordenadores
transmitieran siempre un flujo constante sera muy fcil evitar la congestin.
OPERACIONES BASICAS DEL CONTROL DE TRFICO

Ajuste (Shaping)
Es el mecanismo por el que un paquete es retrasado en la cola de salida transmisin para
ajustar el flujo de salida a la tasa establecida.

Es la operacin bsica para limitar la anchura de banda que utiliza el flujo que se
transmite.

Es una operacin no conservativa y por tanto requiere de un buffer (queue) para


soportarlo.
Conlleva el incremento de la latencia del flujo sobre el que opera, a cambio sirve
para garantizar la latencia del resto de los flujos.

Planificacin (Scheduling)
Reorganiza los paquetes de la cola de acuerdo con una cierta poltica de planificacin:

FIFO: First Input first output.


SFQ (Stochastic Fair Queieing): Planifica los paquetes de forma que se transmitan
equitativamente entre todos los flujos

WRR (Wide Round-Robin): Asigna a los paquetes de cada flujo tiempos iguales de
transmisin.

GREF(Generic Random Early Drop):

ESFQ: (Extended Stochastic Fair Queieing): Permite controlar el algoritmo de


hashing.

Clasificador (Classifying)
El clasificador ordena o clasifica el flujo en diferentes flujos que son gestionados con
diferentes caractersticas.

La clasificacin se puede realizar por diferentes criterios: por las marcas que llevan
los paquetes, por la direccin de destino, por la direccin de origen, etc.

En control de trfico, la clasificacin se realiza mediante cascadas de filtros.

Supervisin (Policing)
En esta operacin se ejecutan medidas y en funcin de ellas se limita el trfico en las colas.

Es un mecanismo acepta trfico a una cierta tasa, y el trfico que sobrepasa el valor
especificado o bien se reclasifica, o bien se elimina.

Se utiliza para garantizar que los flujos entre interlocutores se mantienen a las tasas
que admiten el ms lento.

Son operaciones de alternativas, sin capacidad de retrasar los paquetes.

Eliminacin (Dropping)
Es la operacin de eliminar, paquetes, flujos y clasificacin

Marcado (Marking)
Es la operacin a travs de la que se modifica el contenido de un paquete.

TC modifica el campo DSCP (DiffServ Code Point), el cual es utilizado por otros
elementos para gestionar el flujo en el propio TC, o en otros elementos (Router) de
la red.

A continuacin se explican dos algoritmos para regular el trfico de entrada: Leaky Bucket
y Token Bucket.

ALGORITMO LEAKY BUCKET

Cada fuente se conecta a la red a travs de una interfaz que contiene un leaky bucket, es
decir una cola finita, capaz de almacenar un mximo de C paquetes, de forma que cualquier
paquete que llegue estando la cola llena ser descartado. De esa cola se envan los paquetes
a la red a una tasa constante de pkt/s, independientemente de cul sea la tasa de llegada al
Leaky bucket.

Ejemplo: Algoritmo Leaky Bucket

ALGORITMO TOKEN BUCKET

El algoritmo Leaky Bucket fuerza a una tasa constante, independientemente de lo variable


que sea el trfico. Para muchas aplicaciones se prefiere, sin embargo, que para rfagas
cortas esa tasa pueda ser incrementada. Se necesita un algoritmo ms flexible. En el
algoritmo Token Bucket, se aade un Bucket que contiene testigos (Token), que son
generados a una tasa de testigos/s, hasta un mximo de C testigos, de forma que cada
testigo da derecho a transmitir un paquete. As, este algoritmo permite ahorrar testigos
cuando no hay datos que transmitir, comportndose de la misma manera que Leaky Bucket
cuando siempre hay datos para transmitir.
Para una rfaga de longitud S segundos, y si la tasa mxima de salida permitida es de M
pkt/s, una rfaga de salida contendr como mucho C + * S paquetes. Por otro lado, el
nmero de paquetes en una rfaga a velocidad de salida mxima es M*S.
Por tanto, la duracin mxima Smx de una rfaga de salida ser:

Para suavizar el trfico de entrada a la red se puede combinar un Leaky Bucket (de tasa
(l)) tras un Token Bucket (de tasa (t)), de forma que (t) < (l) < M.

Ejemplo: Token Bucket

bibliografia
Tanenbaum, A. S.: Redes de Computadoras. Prentice Hall. (1997).

NetScope: Traffic Engineering for IP Networks. Paper de AT&T Labs. Autores:


Anja Feldmann, Albert Greenberg, Carsten Lund, Nick Reingold y Jennifer
Rexford. Marzo 2000.
.Stallings, W: Comunicaciones y redes de computadores. Prentice Hall. (1997).
- Marsh, Mattew G. Policy Routing Using Linux

También podría gustarte