Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1 Historia
Sin embargo, no es hasta 1985 cuando aparecen los primeros routers, con
lo que se comienza la etapa de la interconexión de redes y los pasos que llevarían
a diluir las fronteras de los entornos locales para convertirlos en globales. Pero es
en 1988 cuando el emergente networking empieza a apuntar hacia lo que sería su
consolidación y formalización como mercado y como sector. La aparición de
OpenView, la plataforma de administración y gestión de redes de Hewlett-Packard;
y del Lan Manager, el sistema operativo de red de Microsoft que sustituía al MS-
Net, hoy se perciben como relevantes acontecimientos que contribuyeron a la
expansión de las redes.
Los años 1997 y 1998 destacan por dos características: el carácter crítico
de la gestión de redes y el refuerzo de la oferta de entornos y tecnologías de alta
velocidad basados en la conmutación de nivel 3, hasta el punto de llegar a
superarse la frontera del Megabit para entrar en los terabits por segundo, sin
olvidar xDSL (Digital Suscribers Line), WDM (Wave Data Multiplexing), canal de
fibra y Token Ring también de alta velocidad.
Durante estos últimos años también han ido ganando peso las funciones
de seguridad, entre las que se encuentran la encriptación, la autenticación de
usuarios y los firewalls.
Volver arriba
2 Definición de QoS
Jitter
Tasa de error
001 Background 1
Volver arriba
4 Clasificación de QoS
1. QoS IMPLÍCITA
Hoy en día todos los routers, y algunos conmutadores, ofrecen este tipo
de QoS.
El proceso es el siguiente:
Lugar: Centralmente
2. QoS EXPLÍCITA
También conocida como “soft QoS” es el punto medio entre los dos tipos
anteriores. Para este tipo se realiza una diferenciación de tráfico, siendo
tratados algunos mejor que el resto (expedición más rápida, más ancho de
banda promedio, menos tasa de error promedio). Es el utilizado, como se
explicará más adelante, por DiffServ.
Con este tipo de QoS se simplifican, sin embargo, los puentes, cuya
función se reduce a observar la marca de los paquetes (en el caso de 802.1p),
sin tener que calcular la clase de servicio de cada paquete reducido. Otra
ventaja es que las aplicaciones podrían seleccionar dinámicamente el nivel de
QoS, almacenándose temporalmente en los directorios de red o en los puentes
una información estática de clases de servicio.
Actualmente, la política de las empresas dedicadas al networking es
conseguir una calidad de servicio extremo a extremo, por lo que se están
estudiando y aplicando diferentes técnicas para conseguirlo. A lo largo de los
capítulos posteriores este tipo de QoS será referenciada en multitud de
ocasiones, especificando cómo conseguirla.
Para visualizar más claramente estos dos tipos de QoS acudir al estudio
de los diferentes protocolos y arquitecturas de QoS, tratados en el capítulo 5 de
este proyecto.
Volver arriba
5 Parámetros de QoS
a. TRÁFICO DE RED
De forma simple, podríamos decir que tráfico de una red son los datos que
la atraviesan. Es pues dependiente del tipo de aplicación que por ella circulan. De
esta manera podríamos establecer una diferenciación del tráfico.
b. RETARDO
c. LATENCIA
e. ANCHO DE BANDA
Aumentar el ancho de banda significa poder transmitir más datos (algo así
como aumentar el número de carriles de una autopista), pero también implica un
incremento económico y, en ocasiones, resulta imposible su ampliación sin
cambiar de tecnología de red.
f. PÉRDIDA DE PAQUETES
g. DISPONIBILIDAD
h. RENDIMIENTO
i. PRIORIZACIÓN
j. ENCOLADO
k. PLANIFICACIÓN
l. FLUJO
Volver arriba
Volver arriba
7 Algoritmos para la obtención de QoS
b. ALGORITMOS DETERMINISTAS
c. ALGORITMOS INTERMEDIOS
1. SERVICIOS
ESTADÍSTICOS
Para entender sus ventajas podemos suponer por ejemplo una red con
un ancho de banda de 10 Mbps y flujos que requieren 1Mbps de frecuencia
constante y 2 Mbps en ráfagas. En un algoritmo determinista podríamos
transmitir como máximo cinco flujos. En cambio en uno estadístico podríamos
transmitir hasta nueve con una probabilidad bastante alta, puesto que
presentarían un comportamiento correcto exceptuando los casos en los que
dos o más flujos transmitieran en ráfaga al mismo tiempo.
2. SERVICIOS DE
DEGRADACIÓN LIMITADA
Con este método, cuando un flujo entra en la red divide sus paquetes en
varios tipos, cada uno con una prioridad distinta y con un retardo máximo
diferente. Así, en caso de congestión, los paquetes importantes tendrán mayor
prioridad.
3. SERVICIOS PREDICTIVOS
Volver arriba
Hoy en día, todas las empresas están considerando Internet como una
nueva vía para incrementar su negocio y, en consecuencia, las expectativas
que se tienen para garantizar una calidad son las mismas que si se tratase de
una red privada o controlada. Internet está siendo utilizada para la formación y
el crecimiento de intranets dentro de la empresa y extranets que permiten el
comercio electrónico con los socios del negocio. Es evidente, por tanto, que se
está incrementando el acercamiento de los negocios hacia la Web, siendo cada
vez más importante que los administradores de las redes aseguren que éstas
entreguen unos niveles apropiados de calidad. Es aquí donde las tecnologías
de QoS cobran especial importancia, proporcionando a los administradores las
utilidades para la entrega de datos críticos del negocio en los periodos y con
unas garantías determinadas.
Las aplicaciones están consiguiendo ser cada vez más exigentes. Las
denominadas críticas requieren cada vez más calidad, confiabilidad, y asegurar
la puntualidad en la entrega. Un ejemplo claro son las aplicaciones de voz o
vídeo, éstas deben ser manejadas cuidadosamente dentro de una red del IP
para preservar su integridad. Además es necesario tener en cuenta que el
tráfico no es predecible, ni constante, si no que funciona a ráfagas,
produciéndose en ocasiones picos máximos de tráfico que son los causantes,
en parte, de la saturación de la red. Ejemplos clarificadores de este tipo de
tráfico es el producido por el mundo Web, el correo electrónico y las
transferencias de ficheros, que son virtualmente imposibles de predecir.
Manejar las aplicaciones sensibles al jitter, como las que manejan audio
y vídeo.
Volver arriba
La QoS sin embargo, conlleva, entre otras cosas, una correcta gestión del ancho
de banda. Presentándose como la forma más eficiente, hoy en día, para la mejora
de toda red que se precie. Es, en definitiva, la solución por la que deberían apostar
todas las empresas para mejorar su red y, en consecuencia, su negocio.
Volver arriba
MECANISMOS Y HERRAMIENTAS
Volver arriba
Figura 17. GTS. EL conformado del tráfico se realiza por la base del interfaz.
GTS se aplica sobre cada base del interfaz, puede usar las listas de acceso
para seleccionar el tráfico para formar y trabaja con una variedad de tecnologías de
capa 2, incluyendo Frame Relay, ATM, SMDS y Ethernet.
Permite configurar los valores de la tasa de tráfico, el CIR u otro valor, así
como la prioridad y el encolamiento, dando un mayor control sobre el flujo de tráfico
en cada circuito virtual individual. Combinando, además, CQ con FRTS se permite
el tratamiento de múltiples tipos de tráfico, como IP, SNA e IPS, garantizando un
ancho de banda para cada tipo.
FRTS puede eliminar los cuellos de botella en las redes Frame Relay con
conexiones de gran velocidad en los puntos centrales y conexiones de baja
velocidad en los extremos. El administrador podría configurar la tasa de tráfico
entre los distintos puntos de la red.
Volver arriba
Volver arriba
Por otro lado, los nodos también necesitan utilizar algún mecanismo de
gestión para asegurarse de que algunas conexiones obtengan los recursos
prometidos (en procesamiento y ancho de banda). Este mecanismo además
asegura que cualquier capacidad “de repuesto” esté distribuida de la manera más
justa. Algunos ejemplos son Generalized Processor Sharing (GPS), Weighted
Round robin (WRR), Weighted Fair Queueing (WFQ) y Class Based Queueing
(CBQ) [3], explicados algunos de ellos posteriormente en este capítulo.
Volver arriba
5 Protocolos de señalización
Para obtener la QoS requerida por una red, los sistemas extremos
necesitan indicárselo a la red, para ello se usan los protocolos de señalización.
Esto ha sido fundamental para redes orientadas a conexión (ATM). Sin
embargo, para otro tipos de redes (como IP) esto es prácticamente nuevo. Un
ejemplo de protocolo de señalización, como ya vimos, es RSVP (Resource
Reservation Protocol) [4], LDP (Label Distribution Protocol) [5] e IP Precedence
[6]. Su escalabilidad y las capacidades de la señalización es un tema que ha
estado y estará bajo estudio.
Hay que pensar en la señalización de QoS como una forma que tiene la
red de comunicarse. Proporciona una manera de que cada elemento de a red
pueda pedir algo a un vecino. Por ejemplo, una red IP puede usar parte de la
cabecera IP para solicitar un manejo especial de ala prioridad o del tráfico
sensible al tiempo. La señalización es útil para coordinar el tráfico que se ocupa
de cualquiera de las herramientas de QoS que se explican en este capítulo y es
muy importante para conseguir de forma exitosa la QoS extremo a extremo.
Volver arriba
6 Eficiencia del enlace
Figura 10. Dividiendo grandes datagramas con LFI el retardo se reduce en las
uniones de menor velocidad.
Esta herramienta fue diseñada especialmente para enlaces de poca
velocidad en los que el retardo al serializar es significativo. LFI es equivalente al
borrador del IETF denominado Multiclass Extensions to Multilink PPP (MCML) [7] .
Volver arriba
Figura 13. Algoritmo CQ. Maneja el tráfico asignando una cantidad específica
de espacio de la cola a cada clase de paquetes y sirviéndolas hacia 17 colas
aplicando Round-Robin.
WFQ [12] asegura que las colas no se quedarán sin ancho de banda,
proporcionando a ese tráfico un servicio predecible. Así mismo, las ráfagas de
tráfico de bajo volumen –la mayoría del tráfico- reciben servicio preferencial,
transmitiéndolas rápidamente. Las ráfagas de tráfico de gran volumen compartirán
la capacidad restante de forma proporcional entre ellos, como muestra la siguiente
figura.
Figura 14. WFQ. Si hay varias conversaciones de gran volumen activas, sus
velocidades de transferencia y periodos entre llegadas se hacen más predecibles.
Volver arriba
8 Herramientas de prevención de congestión
Para poder realizar una buena elección y una buena administración de los
recursos de la red, decidir qué protocolo de QoS usar y dónde aplicarlo, existen, a
su vez, protocolos que pueden ser usados para la distribución de la política, que
serán estudiados a continuación. Además, es necesario que los diferentes
dispositivos de la red trabajen en la gestión de políticas. Pueden participar hosts,
routers, conmutadores, firewalls, los administradores de ancho de banda de la
subred, los servidores de acceso a la red, servidores de políticas (específicos) y los
“brokers” de ancho de banda.
Definición de política
Condición Acción
a) Toma de decisiones.
Comparando el estado actual de la red con el estado deseado
(establecido en los SLAs entre cliente-proveedor) y estudia la forma de
cómo conseguirlo.
b) Aplicación. Permite
conseguir una política deseada utilizando comandos que, aplicados
sobre los distintos dispositivos de la red, permiten cambiar su
configuración para conseguir QoS.
La condición sería:
IF el usuario es un miembro de un grupo autorizado
(UsuariosAutorizados) que son autorizados a tener este servicio
AND el servicio pedido es soportado (Servicios_de_video)
AND los recursos pedidos están permitidos (en el grupo de
Fuentes_de_video)
AND el tiempo solicitado está OK (dentro de
Periodos_de_Tiempo_Permitidos)
La acción se describiría:
IF las condiciones son satisfechas(usuario, servicio, fuente, destino,
tiempo)
THEN proporcionar al usuario solicitante de tráfico de vídeo la QoS
definida por el servicio JitterFreeMPEG2
Volver arriba
2 Posición de los fabricantes
Durante los dos últimos años los grandes nombres de empresas del
mundo del networking se han estado preparando para suministrar QoS
mediante gestión de políticas, acondicionando todos los dispositivos de
redes LAN/WANs para que éstos permitan algunas de las alternativas en
protocolos de QoS existentes, para proporcionar QoS extremo-a-extremo,
punto-a-punto y de arriba-a-abajo. Además, la mayoría de ellos, han
orientado sus estrategias en conseguir aplicaciones que permitan
monitorizar todos los recursos y acciones que se produzcan en la red para la
aplicación de políticas y facilitar la gestión al administrador del sistema,
basándose en el documento del IETF anteriormente descrito. Como esta es
una tecnología inmadura, durante todo este tiempo cada compañía ha ido
tomando su propio enfoque, por lo que, para tener un conocimiento de los
trabajos realizados por determinada empresa es necesario visitar su página
web.
Algunos ejemplos son : QoS Policy Manager 1.0 (QPM) de Cisco [20],
Optivity Polices Services 1.0 (OPS) de Nortel [21] y Spectrum Policy Aware
de Cabletron [22].
Propuesta de 3Com :
Propuesta de Cabletron :
Propuesta de Cisco :
Propuesta de Extreme:
El significado es :
Figura 18. Ejemplo de puesta en práctica por distintas empresas.
Volver arriba
Aplicaciones :
Servidores de políticas :
Dispositivos de red:
políticas
políticas
1.5 802.1p
X MPLS
Volver arriba
2 RSVP
QoS CL CL CL, GS CL
MIB
T.Ring,
FDDI
QoS CL CL CL, GS CL
MIB
Tanto los mensajes Path como los mensajes Resv se van generando
periódicamente para refrescar el estado del camino, hasta que la sesión
finaliza.
sesión unicast entre dos equipos de la misma LAN bajo los mismos
sistemas operativos (SUN,SOLARIS). Los resultados obtenidos son,
correcto envío y recepción de mensajes Path y Resv.
Volver arriba
3 DIFFSERV
A) Premium Service
: proporciona bajo retardo y bajo nivel de jitter para aquellos clientes
que generen grandes picos tráfico. Este nivel de servicio está
especificado en el SLA que el cliente contrata con el ISP. El SLA
especifica la velocidad pico deseada y ofrecida y el ancho de banda
proporcionado. El ISP debe responsabilizarse de proporcionarla y el
cliente en no superar esa tasa.
Las aplicaciones apropiadas son las mismas que las que utilizarían el
servicio Best Effort.
1. Clasificador de
tráfico (capacitados para DS)
2. Condicionadores
de tráfico
Altera los paquetes para que cumplan las reglas de los servicios.
Rinden, por lo tanto, funciones sofisticadas de etiquetado, modelado y
monitorización. Normalmente se trata de los routers de acceso a la red.
En la siguiente figura podemos comprobar el funcionamiento de los
PHBs. (comportamiento por salto ) en los encaminadores, visualizando cómo
se clasifica, marca y condiciona el tráfico en los mismos de acuerdo a unos
criterios de política predeterminados. El tráfico será marcado y encaminado de
acuerdo a las marcas.
3.4 CONCLUSIONES
Volver arriba
Cada paquete MPLS tiene una cabecera que contiene 20 bits para
etiquetato, un campo de 3 bits para especificar la Clase de Servicio (CoS), 1 bit
que funciona como indicador de etiquetas y un campo de 8 bits que indica el
tiempo de vida (Time-to-live (TTL)). Ver la siguiente figura:
Figura 28 : Etiquetado de MPLS.
1) Label
Switched Paths (LSP) : es el protocolo que utiliza MPLS para la distribución de
etiquetas. Está incluido dentro de un protocolo genérico denominado Label
Distribution Protocol (LDP). Un LSP es similar a un circuito virtual en ATM y es,
además unidireccional, desde el emisor hasta el receptor.
2) Label
Switched Router (LSR) : es el tipo de routers que permiten MPLS. Los MPLSs
miran la escritura de la etiqueta asociada a un paquete entrante, y la utilizan
como índice en un vector para determinar la conexión de salida a la cual el
paquete debe ser remitido. El LSR entonces asignará típicamente una nueva
escritura de la etiqueta y remitirá el paquete en la conexión de salida. Cada
paquete es remitido salto a salto a través de la red de MPLS, tan solo con
escribir en la etiqueta en cada nodo LSR.
Figura 29. Detalle de la tabla de envío de un LSR
Ingeniería de tráfico
1 Ingeniería de tráfico
2 Clases de servicio
La configuración es manual.
Como resumen, las ventajas que MPLS ofrece para IP VPNs son:
MPLS permitirá a los ISPs escalar sus redes y que resuelvan requisitos
de la ingeniería del tráfico sin tener que recurrir a redes ATM.
MPLS es, por tanto, una técnica con futuro, pues se trata una técnica
prometedora para integrar las redes ATM e IP, siguiendo las tendencias
generales de convergencia de redes que se suceden en la industria de hoy.
Volver arriba
B) Módulo del
cliente (Requestor Module, RM) : reside en cada estación final. La
relación entre el RM y los parámetros de protocolos de QoS superiores
son definidas de acuerdo a una política determinada.
5.2 FUNCIONAMIENTO
Volver arriba
6 Arquitecturas de QoS
1 Características de ATM
1.1 Direccionamiento
Cada celda ATM enviada a través de la red contiene una información de
direccionamiento, la cual le permite establecer una conexión virtual desde el
origen hasta el destino. De esta manera, todas las celdas pertenecientes a esta
conexión son enviadas en secuencia a través de esta conexión virtual. ATM
Provee conexiones virtuales tanto permanentes (Permanent Virtual
Connections, PVCs) como conmutadas (Switched Virtual Connections, SVCs) .
1.2 Multiplexación
1.3 Arquitectura
Los estándares de ATM han definido una celda de tamaño fijo con una
longitud de 53 octetos [36]. Consta de dos partes: la carga útil o payload de 48
octetos que transporta la información generada por un emisor o transmisor, y el
encabezamiento o header de 5 octetos que contiene la información necesaria
para la transferencia de la celda. Las celdas son enviadas sobre una estructura
de transmisión física, como por ejemplo el DS1, DS3 o SONET de Norte
América; el E1, E3, E4 o STM de Europa y Venezuela.
1.4 Conmutación
El ATM Forum prevé que la mayoría de los servicios ATM sobre una
área amplia serán provistos por una red ATM pública, entendiéndose por red
pública aquella red que posee la habilidad de conectar cualquier usuario con
cualquier otro usuario.
Volver arriba
2 TRÁFICO Y QoS
Para una conexión dada, los parámetros de tráfico de una fuente son
agrupados en lo que se denomina descriptor del tráfico de la fuente, el cual
a su vez es un componente del descriptor de tráfico de una conexión. Las
redes ATM, por otro lado, también ofrecen un serie específica de categorías de
servicio. El usuario debe solicitar a la red, durante el establecimiento de la
conexión, una clase de servicio para esta conexión. Las categorías de servicio
son empleadas para diferenciar entre diferentes tipos específicos de
conexiones, en donde cada una de las mismas posee unas características de
tráfico y de parámetros QoS particulares. Como resultado, se obtienen las
características negociadas de una conexión, la cual constituye el contrato de
tráfico.
Volver arriba
3 Categorías de servicio
Transferencia
0 Sin
UBR X no garantizada / con baja
especificar
calidad
GFR X X TCP/IP
El principal compromiso que la red debe mantener es que una vez que la
conexión ha sido establecida, la QoS negociada debe ser asegurada para
todas las celdas conformes. Se asume que las celdas que son retardadas más
allá del valor especificado por la CTD deben ser de valor muy poco significativo
para la aplicación.
Se asume que las celdas que son retardadas más allá del valor
especificado por la CTD deben ser de valor muy poco significativo para la
aplicación. El servicio VBR-rt puede soportar el multiplexaje estadístico de
fuentes de tiempo real.
ABR esta diseñado para mapear los protocolos LAN existentes, los
cuales emplean tanto ancho de banda como sea disponible desde la red, el
cual puede ser retrocedido o almacenado en buffer en presencia de congestión.
Debido a esto ABR es ideal para el tráfico LAN a través de redes ATM.
CBR Si Si Si
VBR Si Si Si
UBR No No No
ABR Si No Si
Volver arriba
4 Mecanismos de control
La QoS solicitada.
Las rutas.
Volver arriba
5 Conclusión
1. LIMITACIONES DE X.25
Hay que tener en cuenta que una red de conmutación tiene recursos
compartidos, y su funcionamiento depende de la carga de la red (a mayor
carga el retardo se incrementa y el rendimiento disminuye). Como no resulta
posible predecir el estado de la red, no sabemos cuanto tardará en
transmitirse un paquete, ni podemos garantizar un caudal mínimo. Es
decir: X.25 no garantiza Calidad de Servicio (QoS). Este problema se ha
resuelto en Frame Relay, y existen garantías respecto al caudal.
El rango de caudales en acceso en que X.25 opera normalmente va
desde 1.2Kb/s hasta 64 Kb/s. Existen equipos que permitirían operar a una
velocidad mucho mayor en la línea de acceso. Pero eso implicaría una
congestión mayor en las líneas troncales (que conectan sistemas
intermedios) de la red. Y precisamente lo que resultaría muy costoso
económicamente es aumentar las velocidades a las que operan estos
sistemas intermedios.
Volver arriba
Suprime el Nivel 3 del plano de usuario. Pero como Frame Relay ofrece
un servicio orientado a conexión, nos surge la siguiente pregunta: ¿Qué
ocurre con el establecimiento y liberación de las llamadas? Pues que se
lleva al plano de control del nivel 3. ¿ Y con la función de multiplexión de
conexiones ? La función de multiplexión se pasa al nivel 2 en FR.
Transparencia Transparencia
Retransmisiones ---
Reinicio ---
---
Multiplexación
(se lleva al nivel 2)
---
Establecimiento / liberación de llamadas
(se hace en el plano de control)
Volver arriba
Es orientación a conexión(CO).
Volver arriba
4. Arquitectura de protocolos
4.1 INTRODUCCIÓN
DATOS: . En este campo es donde van los datos del Nivel superior, es
decir, esta información se mete en la trama y, en recepción, se pasa
directamente al nivel superior. Su longitud máxima no está definida en el
estándar de facto (no está normalizada), pues no se pudo llegar a un
acuerdo. Normalmente los operadores de redes FR la sitúan alrededor de
1600 bytes. Esta gran diferencia con X.25 (128 octetos) es debida a la
escasa Pe. El Nivel superior entrega los datos, y estos son encapsulados en
una trama. Por último, añadir que este campo está alineado a octeto, es
decir se exige al usuario del servicio que entregue un número entero de
octetos.
DLCI: Data Link Circuit Identifier. Estos diez bits son el identificador de
conexión de enlace de datos. Permite definir hasta 1024 circuitos virtuales.
Ya habíamos avanzado que la función de multiplexión se realiza en el nivel
2, y con el DLCI se identifica al canal lógico al que pertenece cada trama.
Los números de canal lógico se asignan por contratación. Equivale
al NCL de X.25.
E A: Extended Address. Campo de extensión de dirección. Puesto que
se permiten más de dos octetos en el campo de control, este primer bit de
cada octeto indica (cuando está marcado con un '0') si detrás siguen más
octetos o bien (cuando está marcado con un '1') si se trata del último del
campo de control. Emplear más de dos bytes resulta bastante infrecuente y
se utiliza en el caso de que la dirección de multiplexión (en el campo DLCI)
supere los 10 bits.
2. Tráfico cursado:
DE (Discard Eligibility): Las tramas que tienen este bit a "1" son
susceptibles de descarte en situaciones de congestión.
El bit BECN y el FECN se usan para avisar que hay congestión (la red
los cambia de 0 a 1 y viceversa):
Figura 49. Muestra de los campos FECN y BECN para control de congestión.
Hay que señalar que la congestión es unidireccional, pues puede haber
caminos distintos para los dos sentidos de la transmisión y mientras uno puede
estar sufriendo problemas de tráfico (congestión), el otro puede no tenerlos.
Los bits FECN y BECN notifican congestión a los dos extremos de una
conexión de la siguiente forma: a una trama que atraviesa una zona
congestionada se le pone su bit FECN a '1'. La red identifica las tramas de esa
conexión que circulan en sentido contrario y en ellas marca el bit BECN
también a '1'.
4.4 QoS
Existe un bit en la trama (bit DE) que es activado por la red en tramas
que superen Bc (es decir aquellas que pertenezcan a Be) para indicar que esas
tramas deberían ser descartadas en preferencia a otras, si es necesario. El
servicio permite que el propio usuario también pueda marcar este bit para
indicar la importancia relativa de una trama respecto a otras (en este caso,
estas tramas no se contabilizan como pertenecientes a la zona bajo B c, sino
como perteneciente a la zona sobre B c y bajo Bc + Be, no contando para el
CIR).
Bc = CIR·Tc
Volver arriba
Puerto Comp. No Sí Sí Sí
Volver arriba
6. Conclusión
Por otro lado también existe la posibilidad de marcar tramas para indicar
la importancia de unas respecto a otras, a través de la activación del bit DE
existente en la trama Frame Relay.
NORMA 802.1P
1 Norma 802.1D
Volver arriba
2 Características de los puentes
2.1 FUNCIONAMIENTO
RENDIMIENTO DE UN PUENTE
1. Determinar puente raíz. Lo definimos como aquel que posee más alta
prioridad y en caso de empate menor valor de identificador.
2. Determinar puerto raíz de cada puente activo. Se trata de determinar
uno de los puertos de los dos o más que tiene un puente. Este puerto
raíz se determina según las velocidades de transmisión de los
segmentos a los que se conecta cada puente. Es decir, si tenemos un
puente con dos puertos y uno de ellos conectado a un segmento de
velocidad X y el otro puerto a un segmento de velocidad 2X, el puerto
raíz será el de mayor velocidad(en caso de empate; el de menor valor de
identificador). El puerto raíz de cada puente lo que viene a representar
es el puerto por donde se van a transmitir datos desde ese puente hacia
el puente raíz. Podríamos decir que el puerto raíz es aquel que nos da el
mínimo tiempo posible para ir al puente raíz, con lo que parece lógico
quedarse con aquel camino de menor coste.
3. Determinar puerto designado de cada segmento. Físicamente el puente
tiene dos o más puertos, el puente se comunica a través del puerto a
otro segmento. El puerto designado de un segmento será de todos los
puertos que se encuentran conectados a ese segmento aquel que dé un
valor menor en una función de coste, si coincide elegimos el puerto del
puente de menor valor de identificador. De este modo, designamos un
único puente para transmitir o recibir datos desde o hacia el puente raíz
y designamos un único segmento para transmitir o recibir datos desde o
hacia el puente raíz; todo esto con la intención de determinar un único
camino para llegar a este puente raíz.
En este paso se establece el estado de cada puerto de cada uno de los
puentes en transmisión o bloqueo. Inicialmente, la totalidad de los puertos del
puente raíz son puertos designados y por tanto, se establecen en estado de
transmisión. Para el resto de los puentes, sólo los puertos raíces y los
designados se configuran en estado de transmisión, y el resto en bloqueo.
Donde :
Software.
El puente copia todas y cada una de las tramas en su memoria interna,
comprobando el valor del bit de mayor orden. Sólo cuando este bit tiene el valor
uno se realiza una mayor análisis de la trama.
Híbrido.
Hardware.
Estas tres distintas versiones presentan cada una de ellas una serie de
ventajas e inconvenientes con respecto a las demás. En la primera se necesita
un procesador muy rápido para el adecuado tratamiento de todas las tramas.
La última, al requerir un hardware especial, puede utilizar un procesador más
lento, o bien, el puente puede tratar un número mayor de redes LAN.
Volver arriba
a) DISPONIBILIDAD
c) REORDENACIÓN DE TRAMAS
d) DUPLICACIÓN DE TRAMA
e) RETARDO DE TRÁNSITO
MAC introduce retardo dependiendo del tipo de medio utilizado.
j) RENDIMIENTO
1) Primitiva
M_UNITDATA.indication {
frame_type,
mac_action,
destination_address,
source_address,
mac_service_data_unit,
user_priority,
frame_check_sequence
}
2) Primitiva
M_UNITDATA.request {
frame_type,
mac_action,
destination_address,
source_address,
mac_service_data_unit,
user_priority,
access_priority,
frame_check_sequence
}
NÚMERO DE
COLAS TIPOS DE TRÁFICO
1 {a, b, c, d, e, f ,g}
{a, b, c, d }
2
{e, f , g}
3 {a, b}
{c , d }
{e, f , g}
{a , b}
{c, d }
4
{e , f }
{g}
{a , b}
{c}
5 {d }
{e, f}
{g}
{a ,b}
{c}
{d}
6
{e}
{f }
{g}
a
b
c
7 d
e
f
g
Volver arriba
4 Filtrado del tráfico Multicast
4.1 TIPOS
Los tipos de filtrado existentes son :
a) Filtrado Básico. Soportados por el proceso de envío de tramas y por
las entradas de filtrado estáticas y dinámicas existentes en lo que se
denomina base de datos de filtrado.
Hay que tener en cuenta que para aquellos puentes que solo soporten
servicios básicos de filtrado el funcionamiento será enviar las tramas a todos
los grupos para todos los puertos del puente.
Volver arriba
5 GARP
5.1 FUNCIONAMIENTO
En el funcionamiento del protocolo GARP es necesario tener en cuenta
varios elementos: la aplicación GARP, los participantes GARP y las
declaraciones de atributos. Cuya nomenclatura ya deja entrever sus funciones.
El primero define el ámbito de aplicación del protocolo (como por ejemplo
GMRP). En el segundo caso nos estaremos refiriendo a los miembros que
participan en el intercambio de valores dentro de una aplicación (ejemplo, un
grupo). Por último, las declaraciones de atributos son los valores que se van a
intercambiar entre sí los miembros.
Por otro lado, dentro de los participantes GARP existen dos tipos
especiales por la función específica que realizan. Así tenemos :
EVENTO
rJoinIn IN IN IN
rjoinEmpty IN IN IN
rEmpty IN LV MT
rLeaveIn SV LV MT
rLeaveEmpty LV LV MT
LeaveAll LV LV MT
Leavetimer! X MT X
Del mismo se construiría una tabla entre los eventos y los estados
de las aplicaciones, que aquí no se va a reflejar, tan solo citar que los
posibles estados son : VA (miembro activo muy ansioso), AA (miembro
activo ansioso), QA (miembro activo tranquilo), LA (miembro activo
saliendo), VP( miembro pasivo muy ansioso), VO (observador muy
ansioso), etc.
5.7 La lista de atributos: contiene a uno o más atributos de los que indica la
longitud, el evento y el valor del mismo. La longitud está entre 2 y 255.
La codificación de los eventos está asignada, así nos encontramos con
que el valor 1 identifica a JoinEmpty, 4 a LeaveIn, etc. En último lugar el
valor del atributo puede ocupar hasta N octetos.
PARÁMETRO VALOR
(centisegundos)
JoinTime 20
LeaveTime 60
LeaveAllTime 100
Volver arriba
6 GMRP
GMRP, igualmente, permite que los puentes envíen aquellas tramas que
van dirigidas a un determinado grupo solo a los miembros de ese grupo y que
cualquier puente por el que estas tramas pasen modifiquen su comportamiento
para lograrlo.
Volver arriba
7 802.1Q
1 1
2 1
3 2
4 1
1212354145121 1
2389234873743 2
3045834758445 2
5483573475843 1
El principal problema de este método es que los miembros deben
asignarse inicialmente. En redes formadas por miles de usuarios esta no es
una tarea fácil. Además en entornos donde se utilizan portátiles la dirección se
asocia a la estación donde éste se conecta. De esta forma, cuando un portátil
se conecta desde otro lugar la VLAN debe reconfigurarse.
IP Subnet VLAN
23.2.24 1
26.21.35 2
En este caso los usuarios pueden mover sus estaciones de trabajo sin
tener que reconfigurar su dirección de red. El único problema es que
generalmente se tarda más en enviar paquetes basándose en la información de
la capa 3 que usando direcciones MAC.
1) Conexión troncal
2) Enlace de acceso
3) Conexión híbrida
Es una combinación entre las dos anteriores. En este caso las tramas
podrán estar etiquetadas o no.
2. Etiquetado
Volver arriba
8 Conclusión
La propuesta es la siguiente:
“Acme Industrias está instalando un LAN en un nuevo edificio. El
edificio tiene cinco plantas. Cada planta soporta 100 usuarios. Cada grupo
de usuario está conectado a un armario de cableado (uno por planta) con
cable de cobre de categoría 5 UTP. A su vez, los distintos armarios de cada
piso están conectados entre sí a través de un cable de fibra. Por otra parte,
el armario del primer piso se encuentra en el centro de datos”.
2 Solución de CISCO
3 Solución de Lucent
El presupuesto presentado es :
Figura 83. Presupuesto para la segunda propuesta.
Los servicios de gestión y de políticas son los siguientes:
Volver arriba
4 Solución de Extreme
El presupuesto es el siguiente:
Figura 86. Segundo presupuesto
CONCLUSIONES
1 Conclusiones
Las fases en las que se ha dividido el proyecto han sido las siguientes:
Recopilación de material bibliográfico: artículos de revistas, web,
monografías y normas oficiales.
Como vemos, para poder realizar un estudio sobre un tema tan complejo
y de tanta actualidad como es calidad de servicio en primer lugar ha sido
necesario realizar la recopilación de toda aquella información que nos permita
llevarlo a cabo, seleccionando entre toda ella al tratarse de un término que
engloba muchísima documentación. Ha sido a partir de ese momento cuando
ha comenzado el verdadero trabajo que nos ha permitido desarrollar el resto de
fases.
Por otro lado nos encontramos con Frame Relay. Esta no es una
tecnología protocolo especialmente diseñada para soportar tráfico multimedia,
audio y vídeo en tiempo real. No hay garantías sobre el retardo de tránsito,
pero en la práctica las redes suelen estar bien dimensionadas y el retardo de
tránsito es pequeño y no varía apreciablemente.