Está en la página 1de 7

Ingeniera de Trfico en Redes MPLS

Adrin Delfino
Facultad de Ingeniera Universidad de la Repblica Montevideo, Uruguay a-delfino@adinet.com.uy

Sebastin Rivero
Facultad de Ingeniera Universidad de la Repblica Montevideo, Uruguay sebarivero@mercurio.com.uy

Marcelo San Martn


Facultad de Ingeniera Universidad de la Repblica Montevideo, Uruguay msanmar@adinet.com.uy

RESUMEN
El rpido crecimiento de la Internet y de los distintos servicios ofrecidos (como ser voz sobre IP (VoIP), videoconferencia, etc.) estimula la necesidad de los Internet Service Providers (ISPs) de poseer sofisticadas herramientas de gestin de redes de manera de lograr un uso ptimo de los recursos de la red, al mismo tiempo que se debe determinar con cuidado por dnde dirigir el trfico de cada demanda de manera de no ver comprometidos los Service Level Agreements (SLAs). El presente trabajo introduce una herramienta de software que permite analizar las distintas prestaciones que se pueden obtener al aplicar algoritmos de Ingeniera de Trfico sobre una red de computadoras basadas en Multi Protocol Label Switching (MPLS). Ofrece una interfaz grfica para el diseo de la topologa de la red, distintas herramientas de visualizacin del estado actual de la misma y varios algoritmos para el establecimiento de Label Switch Paths (LSPs). Se pudo comprobar el correcto funcionamiento de los algoritmos en base a pruebas y ensayos y comparando contra ejemplos ya conocidos, as como la carga automtica de la red de manera exitosa en la red multiservicio del Instituto de Ingeniera Elctrica de la Facultad. Todo esto le permite a un proveedor de red el experimentar con cambios en la configuracin de la red en un ambiente simulado, en vez de en una red operacional, basndose en una plataforma para investigaciones del tipo whatif de ingeniera de trfico.

1.

INTRODUCCIN La Ingeniera de Trfico (TE) es una disciplina que procura la optimizacin de la performance de las redes operativas. La Ingeniera de Trfico abarca la aplicacin de la tecnologa y los principios cientficos a la medicin, caracterizacin, modelado, y control del trfico que circula por la red (Ver[5]). Las mejoras del rendimiento de una red operacional, en cuanto a trfico y modo de utilizacin de recursos, son los principales objetivos de la Ingeniera de Trfico. El objetivo es en este caso el optimizar la utilizacin de los recursos de la red de manera que no se saturen partes de la misma mientras otras permanecen subutilizadas. Todo lo anterior apunta a un objetivo global, que es minimizar la congestin al mismo tiempo que intentar incrementar la eficiencia de la utilizacin de los recursos. Claramente, la congestin es un fenmeno nada deseable y es causada por ejemplo por la insuficiencia de recursos en la red. En casos de congestin de algunos enlaces, el problema se resolva a base de aadir ms capacidad a los enlaces. La otra causa de congestin es la utilizacin

ineficiente de los recursos debido al mapeado del trfico. El objetivo bsico de la Ingeniera de Trfico es adaptar los flujos de trfico a los recursos fsicos de la red. La idea es equilibrar de forma ptima la utilizacin de esos recursos, de manera que no haya algunos que estn sobre-utilizados, creando cuellos de botella, mientras otros puedan estar subutilizados. La componente del packet forwarding de TE contiene a MPLS, responsable de dirigir un flujo de paquetes IP a lo largo de un camino predeterminado a travs de la red por medio del intercambio de etiquetas. Esas etiquetas son las que permiten que se establezcan las rutas que siguen los paquetes entre dos nodos de la red, conocidas con el nombre de ruta conmutada de etiquetas o LSPs. De ahora en ms se asume el lector posee los conocimientos bsicos de MPLS (Ver[2]). Debido a la importancia del establecimiento de los LSPs, cmo elegirlos y dnde ubicarlos de manera de cubrir de la mejor manera posible las demandas es que desarrollamos una herramienta de software que tiene cuatro distintos mecanismos para ofrecer al usuario, al momento de elegir cmo y por dnde ubicar a los LSPs. En primer lugar, dentro de los algoritmos que podramos considerar online tenemos al Ruteo Explcito y al Constraint Shortest Path First (CSPF). En ambos se considera que las demandas van llegando una a la vez, de manera que la clave es ver la manera de alojar tal demanda por determinado LSP considerando las restricciones exigidas por el usuario en trminos del ancho de banda y el estado actual de la red (posibles LSPs ya existentes que ocupan recursos de la red). Por otro lado tenemos a los algoritmos offline que son el Minimum Interference Routing Algorithm (MIRA) y los de Fairness. En este caso, se consideran todas las demandas existentes hasta el momento de manera conjunta y se determina la mejor manera de alojarlas en la red, haciendo un aprovechamiento inteligente de los recursos de manera que la mayora de ellos vean sus requerimientos satisfechos. Otra importante funcionalidad en la que se hizo hincapi fue la de implementar un mecanismo automtico de carga de la red, que consiste bsicamente en descubrir todos los routers presentes en la red, que estn intercambiando informacin de ruteo mediante el protocolo Open Shortest Path First (OSPF). sta es una manera muy prctica de poder levantar la topologa de la red en caso que el usuario no tenga conocimiento de la misma, o en caso que se trate

de una red de gran tamao en cuyo caso se consumira mucho tiempo en crearla manualmente. En todo momento el usuario tiene la posibilidad de visualizar el estado actual de la red, como ser informacin sobre utilizacin de los enlaces, LSPs establecidos, enlaces que conforman los LSPs, etc. Esta informacin puede ser desplegada tanto de manera numrica como grfica, visualizando en pantalla la utilizacin de los enlaces, por medio de la diferenciacin por colores de los mismos. Los conceptos bsicos sobre CSPF, MIRA, y Fair Networks, son explicados en la seccin 2 del presente documento, mientras que en la seccin 3 presentaremos los principales casos de uso. En una cuarta seccin haremos una comparacin de los algoritmos de ruteo usados y finalmente en una quinta y ltima seccin se presentarn las conclusiones. 2. CSPF, MIRA y FAIR NETWORKS Veremos a continuacin los principales conceptos y diferencias entre estos tres diferentes mecanismos de establecimiento de LSPs. 2.1 CSPF La computacin de caminos para protocolos de ruteo intradominio se basa en un algoritmo que optimiza (minimiza) una mtrica escalar en particular. Para el caso del protocolo Open Shortest Path First (OSPF) un administrador de red asigna a cada enlace en la red una mtrica administrativa. Dada la opcin de mltiples caminos a un destino dado, OSPF usa el algoritmo de Dijkstra del camino ms corto, tambin conocido en ingls como Shortest Path First (SPF), para computar el camino que minimiza la mtrica administrativa del camino. Para el caso de algoritmos de ruteo basados en restricciones, Constraint Based Routing (CBR), se requiere la habilidad de computar un camino de manera tal que sea ptimo respecto a alguna mtrica escalar y que no viole un conjunto de restricciones. La computacin de un camino se puede lograr usando un algoritmo de SPF. El algoritmo SPF plano, computa un camino que es ptimo con respecto a cierta mtrica escalar. Entonces, para computar un camino que no viole restricciones, todo lo que necesitamos es modificar el algoritmo de manera tal que pueda tomar en cuenta esas restricciones. Nos referiremos a tal algoritmo como CSPF (Ver [1]). El algoritmo CSPF requiere que el router que realiza la computacin del camino tenga informacin sobre todos los enlaces en la red, lo cual impone una restriccin en el tipo de protocolo de ruteo a usar restringindonos a protocolos de estado de enlace como Intermediate System to Intermediate System (IS-IS) u OSPF. La capacidad de ruteo explcito necesaria es provista por MPLS. 2.2 MIRA El objetivo es minimizar la interferencia que provoca el establecimiento de un nuevo LSP a potenciales nuevos LSPs que son desconocidos (Ver [3] y [6]). Mapear un LSP en la

red puede reducir el mximo ancho de banda disponible entre algunos pares de nodos ingreso-egreso crticos en la red, dependiendo de por dnde se dirija el mismo. Este fenmeno es conocido como interferencia. Si los caminos que reducen el BW entre nodos ingreso-egreso son evitados entonces la creacin de cuellos de botella se evitar tambin. En otras palabras, dada una nueva demanda entre los nodos (s,d), se considera el impacto de mapear esta demanda, en futuras demandas entre nodos ingreso-egreso. Dicho impacto se caracteriza al asignarle pesos a los enlaces que pueden ser usados por estas futuras demandas y pasando luego a calcular SPF con dichos pesos. Veamos ahora la implementacin propia del algoritmo. 1. Una vez identificados los nodos ingreso-egreso (s, d), se calcula el mximo flujo de red (MNF) para cada uno de ellos y lo llamamos s 'd ' .El MNF representa el mximo ancho de banda que puede traficar la red entre el par de nodos (s, d), ya sea por varios caminos o por uno slo. 2. Calculamos el peso w(l) para cada enlace de la red: calculamos la contribucin de cada enlace de la red a este MNF entre s y d, lo cual se representa por:

s 'd '

f l s 'd '

donde

flsd representa la cantidad de trfico de MNF que pasa por el enlace l. Se caracteriza entonces el BW disponible en el enlace l de modo de incorporar la capacidad de mapear futuras demandas por el enlace, mediante el clculo de la contribucin normalizada de ancho de banda del enlace l:

f l s 'd ' . Luego asignamos a cada enlace el peso total s 'd ' R(l )

debido a las contribuciones de todos los pares de nodos ingreso-egreso (s, d) que pueden originar LSPs en el futuro:

w(l ) =

f l s 'd ' s 'd ' R(l ) , l E ( s ', d ')L

3. Se eliminan todos los enlaces que no cumplen con la restriccin de ancho de banda del nuevo LSP. 4. Corremos el SPF a una topologa reducida con los w(l) hallados. 5. Establecemos el LSP en la red, actualizando los BW disponibles en cada enlace. 2.3 FAIR NETWORKS El determinar cunto trfico de cada flujo debe ser admitido por la red y por dnde rutear al mismo una vez que ingresa, satisfaciendo los requerimientos de alta utilizacin de la red y garantizando justicia a los usuarios, es uno de los retos ms grandes en el diseo de las redes de telecomunicaciones de hoy en da. La pregunta que nos debemos hacer es la siguiente: qu principio debemos seguir al alojar las demandas entre los recursos que la red tiene pare ofrecer, de manera de cumplir con algn criterio de justicia? Una posible respuesta es utilizar el esquema de asignacin de recursos llamado Max-Min Fairness (MMF).

La idea bsica de Max-Min Fairness es incrementar lo mximo posible el ancho de banda (BW) de una demanda sin que sea a expensa de otra demanda (Ver [7]). En nuestro software, implementamos cuatro distintos algoritmos de MMF: Max-Min Fairness bsico para caminos fijos, Max-Min Fairness para caminos fijos acotados, Max-Min Fairness con mltiples caminos y MaxMin Fairness con mltiples caminos acotados. 2.3.1 Max-Min Fairness bsico para caminos fijos Consideremos una red con enlaces de capacidades fijas y con caminos prefijados nicos asignados para transportar los flujos de las demandas (o sea que en caso de existir varios caminos posibles calculados por CSPF entre determinado par de nodos, nos quedamos solamente con uno slo de ellos, pudiendo ste ser elegido por el usuario a su gusto). El usuario tiene como opciones de mtrica para calcular los caminos en CSPF, por peso (se le asigna a cada enlace un determinado peso administrativo) o minhop (se le asignan a los enlaces un peso igual a uno y se calcula el camino en base a la cantidad de saltos). Bsicamente la idea es incrementar de a pasos el BW de cada demanda hasta que satura al menos un enlace por el que pasan una o varias demandas. El valor de dicho paso se calcula de la siguiente manera: Paso = mnimo {capacidad/cantidad de damandas que pasan por l} Nuestro objetivo es hallar el vector de asignacin de * * * recursos x* = ( x1 , x2 ,..., xD ) donde D es la cantidad de demandas. Dicho vector indicar cunto BW llevar cada demanda. Los pasos para resolver este algoritmo se resumen en los siguientes: Paso 0: Poner

y cotas superior e inferior a los flujos asignados a sas demandas. Agrega a cada demanda un enlace virtual de capacidad igual al BW deseado multiplicado por la prioridad. En este caso, los ndices d y e siguen sealando a las demandas y enlaces respectivamente. A su vez, las constantes ed y ce se definen de igual manera que anteriormente. Las nuevas constantes son wd que indica el peso de la demanda d; hd que indica el lmite inferior para el flujo de la demanda d y Hd que corresponde al lmite superior para el flujo de la demanda d. Los pasos para resolver este algoritmo son los siguientes: * Paso 0: Poner xd = hd para d = 1, 2,, D y

ce := ce ed wd hd
d

para

e = 1, 2,..., E;

Incrementar de a pasos el bw de cada demanda hasta que satura al menos un enlace por el que pasan una o varias demandas o alcanza el bw deseado por la demanda. Remover todos los enlaces saturados (todos los e con ce = 0). Para cada enlace removido e remover todos los caminos y correspondientes demandas que usan el enlace removido (todas las d con ed = 1 ). Paso 1: Calculamos t de manera de maximizarlo sujeto a: t wd ed ce e = 1, 2,..., E d Paso 2:
d

ce = ce - t( wd ed ) ; e = 1,2, ..., E ; x* = x* + t con d = 1,2,...D d d

x* = 0

Paso 1: t := min c / : e = 1, 2,..., E e ed

para d =1,2,..., D

Remover todos los enlaces saturados (todos los e con ce=0). Para cada enlace removido e remover todos los caminos y correspondientes demandas que usen el enlace removido (todas las d con ed = 1 ). Paso 3: Si no quedan ms demandas entonces detenerse. En caso contrario ir al paso 1. La implementacin de este algoritmo consiste bsicamente en agregar un enlace y nodo ficticio para cada demanda, de manera de asegurarse que por dicho enlace pase solamente sa demanda en particular. O sea que cada demanda tendr un enlace y nodo ficticio propio de ella. La capacidad de dicho enlace ficticio ser igual al ancho de banda requerido para la demanda en cuestin. De esta manera, nos aseguramos que el ancho de banda no se aumente ms que el ancho de banda requerido por el usuario. Es una manera de poner un tope superior al ancho de banda. 2.3.3 Max-Min Fairness para mltiples caminos Calcula todos los caminos posibles para cada demanda, sin considerar mtrica alguna. Esto permite separar cada demanda en varias sub demandas. Tomemos xdp como el flujo (en trminos del BW) asignado al camino p de la demanda d, y a Xd como el flujo total asignado a la demanda d, X = (X1, X2,,XD). Para este algoritmo aparece el ndice p = 1, 2,, Pd para

Paso 2:
ce := ce t ed d para e =1,2,..., E;
* * xd := xd + t

En donde, d = 1, 2,, D son las demandas y e = 1, 2,, E los enlaces. Por otro lado, las constantes se definen de manera tal que ed = 1 si el enlace e pertenece al camino fijo de la demanda d y 0 en otro caso; y ce es la capacidad del enlace e. Removemos todos los enlaces saturados (todos los enlaces e con ce=0). Para cada enlace removido e, remover todos los caminos y correspondientes demandas que usan ese enlace removido (todas las d con ed = 1 ). Paso 3: Si no queda ninguna demanda ms, entonces detenerse. En caso contrario ir al paso 1. 2.3.2 Max-Min Fairness bsico para caminos fijos con cotas Ahora seguiremos considerando el caso del MMF para caminos fijos, pero agregndole ahora pesos a las demandas

indicar los caminos candidatos para la demanda d. Dentro de las constantes tenemos ahora edp = 1 si el enlace e pertenece al camino p de la demanda d y 0 en caso contrario. Y finalmente, dentro de las variables tenemos a xdp para representar el flujo (ancho de banda) asignado al camino p de la demanda d; y a Xd como el flujo total asignado a la demanda d, X = (X1, X2,, XD). Los pasos para resolver este algoritmo son los siguientes: Paso 0: Resolvemos el problema de optimizacin lineal (LP) siguiente: maximizar t sujeto a

X d = xdp
p

d = 1, 2,..., D d = Z1 d = Z0 (td const ) e = 1, 2,..., E

t Xd 0 td X d 0


d p

edp

con ce los xdp 0 xdp todos Nombremos (t*, x*, X*) a la solucin del ltimo problema LP. Pongamos td := t* para cada d Z1 y vayamos entonces al Paso 1 nuevamente. Observar que puede suceder que la solucin ptima de lo anterior no incremente al t* porque puede que haya ms demandas que bloqueen adems de la detectada en el Paso 1. La salida del test de no bloqueo es positiva, lo cual significa que la demanda d es no bloqueadora si el ptimo Xd es estrictamente mayor que t*. En otro caso, la demanda considerada resulta ser bloqueadora en realidad. Los clculos deben ser realizados usando la solucin resultante del Paso 0 (o Paso 2) como solucin inicial del test de no bloqueo para cada d Z1. El vector final de volmenes de asignacin total * * X * = ( X 1* , X 2 ,..., X D ) , que resulta de la solucin del paso 2 obtenida en la ltima iteracin del algoritmo, es nico y constituye la solucin buscada. 2.3.4 Max-Min Fairness para mltiples caminos acotado La idea detrs de este algoritmo es la siguiente. Es bsicamente el mismo algoritmo que el expuesto anteriormente; la principal diferencia es que se detiene una vez que se llega a obtener el ancho de banda requerido por el usuario. Como vemos entonces, los pasos para resolver el algoritmo 4 son los mismos que los usados en el algoritmo 3. La nica diferencia es que se hace un tratamiento de los resultados arrojados por el algoritmo 3 de manera de, en caso de ser suficiente el ancho de banda que porta cada demanda, detenerse en cuanto se llega al valor del ancho de banda requerido. 3. PROBLEMAS A RESOLVER Veremos ahora cules son los principales problemas planteados en el proyecto y cules fueron las distintas soluciones creadas para cada uno de ellos dentro del software NET-TE (Networking Traffic Engineering). Se distinguieron tres grandes problemas u objetivos trazados dentro de NET-TE: construccin de la topologa de la red de trabajo, establecimiento de los LSPs por los cules pasar el trfico de cada demanda y visualizacin del estado actual de la red. 3.1 CONSTRUCCIN DE LA TOPOLOGA NET-TE ofrece dos maneras al usuario de construir la topologa de la red sobre la cual va a trabajar: una manual y otra automtica.

X d = xdp
p

d = 1, 2,..., D d = 1, 2,..., D e = 1, 2,..., E

t Xd 0


d p

edp dp

x = ce

con todos los xdp 0 Observar que el objetivo en el que estamos interesados es en realidad: maximizar min {Xd : d = 1, 2,, D} Ahora nombremos (t*, x*, X*) a la solucin ptima del mismo. Pongamos n := 0, Z0 := , Z1 := {1, 2,,D}, y td:= t* para cada d Z1. Paso 1: Pongamos n := n + 1. Empecemos considerando las demandas d Z1 una por una, para chequear si el volumen total de asignacin X d puede hacerse mayor a t*, sin decrementar las mximas asignaciones ya encontradas td para el resto de todas las demandas d. El chequeo es llevado a cabo por el test de no bloqueo siguiente: maximizar Xd sujeto a X d ' = xd ' p d ' = 1, 2,..., D
p

td ' X d ' 0

d ' = 1, 2,..., D ce e = 1, 2,..., E


d' p

(td ' const )

ed ' p d ' p

con todos

Si no hay demandas que bloqueen en Z1 (demanda d Z1 se considera que bloquea, si Xd no puede incrementarse ms) entonces ir al Paso 2. En caso contrario, cuando la primer demanda que bloquee se encuentre, digamos demanda d, agregar d al conjunto Z0 y borrarla del conjunto Z1 (Z0 := Z0 {d}, Z1 := Z1\{d}). Si Z1 = , entonces detenerse el vector
* * X * = ( X 1* , X 2 ,..., X D ) = (t1 , t2 ,..., t D ) es la solucin

los xd ' p 0

para este problema. En caso contrario proceder al Paso 2. Paso 2: Solucionar el problema LP siguiente para mejorar las mejores asignaciones totales actuales: maximizar t sujeto a

En el caso del mtodo manual de construccin, el usuario dispone de dos posibles objetos para crear su topologa: routers (Label Edge Routers o LERs y Label Switch Routers o LSRs) y links. Los campos que ofrece NET-TE para configurar los enlaces son los siguientes: ancho de banda, peso administrativo y afinidad. La opcin del uso de pesos administrativos es especialmente til en los casos en los que el usuario desea darle ms prioridad a ciertos enlaces sobre otros. Mediante el uso de la Afinidad, el usuario tiene la posibilidad de crear grupos de enlaces que se diferencien unos a otros de acuerdo al tipo de trfico que pasa a travs de ellos. NET-TE ofrece tambin un mecanismo automtico, mediante el cual, tras ingresar determinados parmetros obligatorios comienza a iterar hasta descubrir completamente la red. Para NET-TE, el cargar la topologa se entiende como descubrir todos los routers presentes en la red que estn intercambiando informacin de ruteo mediante el protocolo OSPF. Los parmetros obligatorios a ingresar son la direccin IP de algn router de la red (en general es la del router a la que la computadora est directamente conectada), la versin Simple Network Management Protocol (SNMP) que se desea ejecutar (versiones 1 o 2) y el community o password usado por SNMP para permitir slo el acceso al router a personas con permiso. Dentro de los parmetros opcionales encontramos el puerto (NET-TE usa el 161 por defecto), nmero de reintentos y timeout. Una vez cargada la topologa en forma automtica, el usuario vuelve a ser libre de poder modificarla a su gusto, tal como lo hace si la cargara manualmente. 3.2 ESTABLECIMIENTO DE LOS LSPs NET-TE tiene cuatro distintos mecanismos para ofrecer al usuario, al momento de elegir cmo y por dnde ubicar a los LSPs. 3.2.1 Ruteo Explcito Se le ofrece al usuario una ventana en la cual, a partir de la eleccin del nodo de origen, se le van desplegando los posibles enlaces para que pueda ir creando salto a salto el LSP de manera explcita de origen a fin. En NET-TE, la demanda se expresa en trminos del ancho de banda. Esta es una manera que no utiliza algoritmo alguno, sino que slo se basa en la decisin que tome el usuario y depende exclusivamente del camino que ste desee. 3.2.2 CSPF NET-TE le muestra al usuario cules son todos los posibles caminos por los cuales puede rutear su trfico, asegurndose que cumplan con el BW solicitado por el cliente, adems de un conjunto pre-definido de restricciones que l mismo puede ingresar. Finalmente, ser decisin del usuario el elegir el camino que ms le convenga, dentro de toda la gama de soluciones. Dentro de los parmetros obligatorios a ingresarse se encuentran el nodo de origen, el nodo destino y el BW requerido por el cliente. Se incorpor tambin al NET-TE la

posibilidad de elegir la Afinidad como parmetro opcional. Se incorporaron tambin otros dos parmetros opcionales a elegir: Enlace Presente y Enlace Ausente. Los mismos le aseguran al cliente que las soluciones a mostrar (en el caso que existan) cumplirn con estas restricciones. Ahora bien, ya que el CSPF se basa en el algoritmo Dijkstra, se debe determinar cul es la mtrica a usar para elegir el camino ms corto. NET-TE ofrece 4 diferentes tipos de pesos a asignar a los enlaces: Ruteo Mnimo por Pesos Administrativos, Ruteo por Mnima Cantidad de Saltos, 1/(BWreservado) y 1/(BWlibre). El primero de todos es bsicamente basarse en los pesos que fueron pre-definidos por el usuario para cada enlace. El segundo, es establecer la cantidad de saltos como la mtrica elegida. La tercera usa pesos que equivalen al inverso del BWreservado en cada enlace (Ver [4]). Es una manera de procurar seguir usando los enlaces que ya estn siendo ms utilizados por otros LSPs, y no tocar los que estn ms libres dejndolos disponibles para satisfacer futuras demandas. En caso de desear lo contrario se incorpor el cuarto peso. Por ltimo, NET-TE le ofrece al usuario la posibilidad de usar o no, determinado criterio de TE sobre los caminos encontrados: Elegir manualmente, No saturacin de enlaces crticos y Minhop. El primer criterio simplemente le indica a NET-TE que despliegue todas las soluciones posibles que encontr Dijkstra, tomando en cuenta las restricciones y pesos seleccionados. Con el segundo criterio, NET-TE compara las soluciones encontradas y se queda slo con aquella cuyos enlaces que la componen, tienen el mayor ancho de banda disponible. Finalmente el ltimo, tal como su nombre lo indica, de todas las soluciones encontradas, se queda slo con aquellas que tienen la menor cantidad de saltos de origen a destino. 3.2.3 MIRA La idea bsica de este tipo de algoritmos es la de minimizar la interferencia que provoca el establecimiento de un nuevo LSP a potenciales nuevos LSPs que son desconocidos de modo de reservar recursos para demandas a las que considero ms importantes. Como datos de entrada al programa para este algoritmo se destaca la matriz de trfico previamente configurada, la cual contiene las demandas a mapear y los pares de nodos que sern referencia como los futuros generadores de LSPs (se podrn elegir manualmente, o tomarlos a todos o slo a los LERs). As se corre el CSPF usando los pesos hallados en base a la informacin anterior y tal como se explic en secciones anteriores, se despliegan las demandas en pantalla. En caso de no encontrar solucin para cierta demanda entonces se desplegar un mensaje de advertencia. 3.2.4 Fairness Supongamos ahora que el usuario lo que desea es, teniendo una matriz de trfico que contiene a todas las demandas que desean establecerse sobre la red (la cual ya puede contener viejos LSPs establecidos), ver cmo

satisfacerlas a todas ellas de una manera lo ms justa posible. Bsicamente la pregunta que nos estaramos haciendo es la siguiente: Cuntos recursos me puede ofrecer la red en su estado actual, para cada uno de los caminos que satisfacen las demandas de los clientes? As, en un principio usamos al CSPF para encontrar todos aquellos caminos posibles que cumplen con la restriccin del ancho de banda. Para todas las demandas, el objetivo es ver cmo se asignan los recursos de la red a cada una de ellas, de manera que se obtenga el mximo aprovechamiento posible de la red. NET-TE brinda cuatro algoritmos distintos: fairness bsico, acotado, con mltiples caminos y con mltiples caminos acotado. El primero y el tercero brindan informacin sobre cul es la cantidad mxima de BW que puedo tomar de la red para cada una de las demandas. La nica diferencia es que el primer algoritmo slo me considera un camino solucin fijo para cada demanda, mientras que el tercero toma todos los caminos solucin posibles. El segundo considera tambin slo un camino solucin fijo por demanda, pero le brinda al usuario la opcin de ingresar prioridades a cada una de ellas y el elegir una cota inferior de BW para cada demanda. El cuarto algoritmo es similar al tercero con la diferencia que en vez de detenerse el clculo cuando ya no quedan ms recursos que la red pueda ofrecer, se detiene cuando se lleg a cumplir con el ancho de banda requerido para cada demanda. En caso de saturar primero la red antes que se llegue al ancho de banda requerido, se detendr el clculo. Para el tercer y cuarto algoritmo, se tiene la posibilidad de apreciar cada una de las sub-demandas o caminos que conforman las demandas principales en forma separada, pudiendo ver cunto ancho de banda rutean cada una de ellas, as como apreciarlas en forma grfica. 3.3 VISUALIZACIN DEL ESTADO ACTUAL DE LA RED Con tan slo apretar un botn, al usuario se le desplegar una pantalla donde figurarn todos los nodos que conforman la red, los enlaces, as como los LSPs establecidos hasta ahora. Podr ver las caractersticas de cada uno de ellos, as como tambin por cul o tal nodo o enlace pasa cierto LSP, entre otros valores. Al usuario tambin le podra interesar el poder clasificar a los enlaces de la red, de acuerdo al porcentaje de utilizacin que tienen y visualizar esa clasificacin de una manera rpida y sencilla en pantalla. NET-TE permite realizar eso por medio de la herramienta Utilizacin. Con tan slo ingresar dos valores de porcentajes, una cota inferior y otra superior, NET-TE pintar de distintos colores cada uno de los tres niveles de utilizacin para cada enlace. Esta es una manera sencilla de visualizar en pantalla qu zonas de la red estn ms saturadas que otras, especialmente prctico para redes de gran tamao donde ver valores numricos no es tan intuitivo.

COMPARACIN DE ALGORITMOS El usuario deber buscar el algoritmo de establecimiento de LSPs que ms se ajuste a sus necesidades particulares en cada situacin ya que unos sern mejores que otros dependiendo de lo que se quiera optimizar. El primer algoritmo (ruteo explcito) claramente es el que le brinda al usuario la mayor libertad al elegir el LSP. Puede resultar adecuada esta forma cuando la red tiene recursos suficientes como para no restringir ningn posible LSP o ya sea que el usuario posee un conocimiento muy grande de la red. Tambin puede ocurrir que haya un acuerdo con el cliente el cual obligue al LSP a seguir un camino explcito de manera obligatoria. Supongamos ahora que el usuario tiene una red la cual satisface ya ciertas demandas de otros clientes con lo cual ya hay LSPs establecidos. Adems hay varios tipos de trfico circulando por la red y esto se ve reflejado en las afinidades creadas. Aparece ahora un nuevo cliente solicitando un LSP para rutear su trfico y requiere se le asigne cierto BW. Salvo que el tamao de la red sea lo suficientemente pequeo como para que la solucin sea obvia, el usuario necesitara cierto algoritmo que le halle dicho LSP teniendo en cuenta el estado actual de la red. Este es un caso donde el CSPF podra resultar el algoritmo a usar. Tambin es ideal para el caso en que por razones poltico-administrativas de parte del cliente, o por determinado SLA a cumplirse, el usuario necesite que los posibles caminos pasen por un enlace en particular y no lo hagan por otro, ya que se le brinda al usuario esta opcin. Hay que tomar en cuenta que este tipo de algoritmo considera cada demanda de a una a la vez, a medida que van llegando y tomando en cuenta el estado actual de la red previo al arribo de la nueva demanda, pero sin modificarlo para acomodarla. Muestra la/las soluciones posibles en caso que exista un camino con el BW necesario disponible, y en caso de no llegar al BW requerido da por resultado que no es posible alojar la nueva demanda en la red. Para el tercer algoritmo supongamos ahora que el usuario quiere querer establecer varios caminos de acceso a Internet para clientes a los que no se les garantiza ningn tipo de calidad de servicio (trfico Best Effort) y al mismo tiempo, caminos con altos requerimientos de calidad de servicio para ofrecer servicios corporativos de voz y video. Con los algoritmos clsicos como el anterior del tipo SPF, los caminos se mapearn indistintamente por el camino ms corto degradando el servicio de los clientes corporativos ya establecidos e interfiriendo con futuras demandas. La solucin aqu sera el MIRA, ya que al introducir al programa la lista de nodos crticos y la matriz de demanda conteniendo los caminos menos importantes (de Internet), el MIRA los mapear en la red de manera que no interfieran con los caminos mas crticos. Luego podr usar un algoritmo como el anterior de tipo CSPF para alojar las demandas ms importantes (servicios corporativos). Ya vimos cmo se pueden complementar el segundo y tercer algoritmo.

4.

Por ltimo puede pasar que los algoritmos anteriores no encuentren solucin posible para cierta demanda debido a la distribucin actual de las demandas ya existentes sobre la red. En ese caso, el cuarto algoritmo (fairness) puede ser el ideal a usar ya que podra quizs hallar una manera de alojar la nueva demanda cuando los dems algoritmos no pudieron. Intenta lograrlo tomando todas las demandas como un conjunto y distribuyndolas de la mejor manera con el objetivo de que queden todas satisfechas, o en caso de no ser posible, queden cubiertas de la manera ms justa. Uno de los algoritmos ofrecidos de fairness ofrece la posibilidad adems de asignar prioridades a las demandas. Esto es prcticamente til para aquellos casos donde se desea poder diferenciar a los clientes desde un punto de vista econmico, priorizando a aquellos que por ejemplo pagan ms de los que pagan menos. Tambin es til cuando el usuario debe asegurarse que las demandas lleguen a obtener al menos un BW mnimo obligatorio en el reparto. 5. CONCLUSIONES Presentaremos a continuacin los supuestos que se plantearon en el proyecto y cerraremos la seccin con las conclusiones. 5.1 Supuestos El nico supuesto que podemos considerar importante al momento de instalar el software, es que se debe hacer sobre una red MPLS cuyos routers manejen el protocolo de ruteo OSPF. Este supuesto es necesario en caso de desear utilizar NET-TE para levantar la red en forma automtica y desplegarla en pantalla. La hiptesis sobre la red MPLS no afecta ninguna otra funcionalidad del software, ya que es principalmente una herramienta de trabajo offline, usada por el usuario para analizar distintos mtodos de bsqueda de caminos para el establecimiento de LSPs. 5.2 Conclusiones Se logr implementar una interfaz grfica sencilla y fcil de usar que permite la creacin de una red, visualizar su estado actual y poder modificarla de acuerdo a las necesidades. El problema del establecimiento de los LSPs fue solucionado utilizando el algoritmo CSPF. Realizamos varias pruebas sobre distintas topologas y situaciones, y pudimos apreciar el correcto funcionamiento del mismo. Se pudo comprobar tambin la gran utilidad que ofrece el algoritmo MIRA mediante pruebas de chequeo que demostraron cmo el algoritmo tenda a evitar los enlaces crticos para futuras demandas. En cuanto a los algoritmos de fairness pudimos apreciar con xito como se lograba ubicar demandas sobre la red, imposibles de alojar usando el CSPF. Adems, comprobamos con xito como NET-TE lograba asignar los recursos de una manera justa en aquellos casos donde no era posible satisfacer por completo a todas las demandas. Todo esto se realiz mediante pruebas y ensayos y comparando

con ejemplos cuyos resultados confiables ya se conocan y observando los resultados esperados. En cuanto a la escalabilidad de los algoritmos a medida que la red crece de tamao, pudimos corroborar en la prctica, que el tercer y cuarto algoritmo de fairness son los que consumen ms tiempo de operacin debido a la gran cantidad de iteraciones que realizan. En topologas de 30 nodos aproximadamente vimos que el tiempo que demora en desplegar los resultados fue prcticamente de un par de segundos como mximo. Con respecto a la carga automtica de la red, se pudo comprobar con xito su funcionamiento en una red multiservicio desde el IIE de la Facultad. Vale destacar aqu que el NET-TE solamente levanta la topologa de la red con las velocidades de cada enlace, permitiendo luego determinar por dnde rutear los LSPs. No fue implementada y constituye una tarea a futuro el desarrollar una interfaz que permita cargar en los routers de la red real los LSPs calculados por NET-TE. Es por todo lo anterior que creemos que NET-TE constituye una til herramienta que puede ser usada por cualquier usuario que desee realizar pruebas en un ambiente simulado creando distintos escenarios de Ingeniera de Trfico, sin temor de afectar de alguna manera la red real, ya que se est en todo momento trabajando sobre escenarios de prueba y no sobre la red en cuestin. Ofrece adems varios criterios y algoritmos para el clculo de los LSPs, los cuales pueden ser luego expandidos en futuras versiones del software. 6. REFERENCIAS [1]MPLS: Technology and Applications. Cap.7: ConstraintBased Routing. Autores: Bruce Davie y Yakov Rekhter. Ao 2000. [2]NetScope: Traffic Engineering for IP Networks. Paper de AT&T Labs. Autores: Anja Feldmann, Albert Greenberg, Carsten Lund, Nick Reingold y Jennifer Rexford. Marzo 2000. [3]Minimum interference routing with applications to MPLS traffic engineering. Proceedings of International Workshop on QoS. Pennsylvania. Autores: M. Kodialam y T.V.Lacksham. Junio 2000. [4]Data Networks: Routing, Security, and Performance Optimization. Captulo 8: Quality of Service. Autor: Tony Kenyon. Ao 2002. [5]Request for Comments (RFC): 3272. Visin y Principios de la Ingeniera de Trfico en Internet. Autores: D. Awduche, A. Chiu, A. Elwalid, I. Widjaja, X. Xiao. Mayo 2002. [6]A New Bandwidth Guaranteed Routing Algorithm for MPLS Traffic Engineering. Autores: Bin Wang, Xu Su y C.L. Philip Chen. Noviembre 2002. [7] Routing, Flow and Capacity Design in Communication and Computer Networks. Captulo 8: Fair Networks. Autores: Michal Pioro y Deepankar Medhi. Ao 2004.

También podría gustarte