Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Objetivos
1. Los servicios deben ser independientes de la tecnología del enrutador.
Información de estado. Los enrutadores no contienen Cada CV requiere espacio de tabla del
información de estado sobre las enrutador por cada conexión.
conexiones.
Efecto de fallas del enrutador. Ninguno, excepto para paquetes Terminan todos los CVs que pasaron por
perdidos durante una caída. el enrutador defectuoso.
5.2.2
Algunas características del algoritmo de la ruta más corta de Dijkstra:
5.2.2
• Cada nodo se etiqueta (entre paréntesis) con su distancia desde el nodo de
origen a través de la mejor ruta conocida.
• Las distancias no deben ser negativas, como lo serán si se basan en
cantidades reales como ancho de banda y retardo.
• Al principio no se conocen rutas, por lo que todos los nodos tienen la
etiqueta infinito.
• A medida que avanza el algoritmo y se encuentran rutas, las etiquetas
pueden cambiar para reflejar mejores rutas.
• Una etiqueta puede ser tentativa o permanente.
• En un principio todas las etiquetas son tentativas.
• Una vez que se descubre que una etiqueta representa la ruta más corta
posible del origen a ese nodo, se vuelve permanente y no cambia más.
Inundación 5.2.3
La idea básica que se usa para el enrutamiento móvil en las redes de Internet y celulares es
que el host móvil indique su posición actual a un host que se encuentre en la ubicación base.
Este host, que actúa en beneficio del host móvil, se denomina agente de base (home agent).
Una vez que conoce la ubicación actual del host móvil, puede reenviar paquetes para que
sean entregados.
Ejemplo Práctico.
5.2.10
Envío de datos de un emisor a un Host móvil.
ENRUTAMIENTO EN REDES AD HOC 5.2.11
Cuando hay demasiados paquetes en una red, puede llegar a causar un retardo o pérdida en
la llegada de los paquetes y se complica su desempeño. A esto se le denomina como
congestión. Las capas de red y de transporte tienen la responsabilidad de administrar la
congestión. Esto inicia en la capa de red siendo que es la primera afectada de la congestión y
también debe determinar qué hacer con los paquetes que sobraron. La solución más rápida y
efectiva de reducir la congestión es reducir la carga que la capa de transporte coloca en la
red. Por esto es que las dos capas deben de trabajar en conjunto.
Como todos los problemas siempre se piensa una solución, pero si se diseña una red que
evitará la congestión y que sufriera colapsos por culpa de la congestión, pero esto no se
puede llegar a hacer por completo. Si a la red empiezan a llegar flujos de tres o más líneas
siempre tendrán que salir por la misma salida, en esto es donde se genera una cola y si no
hay suficiente memoria para almacenarlos, se llegara a perder paquetes.
Una demostración de un algoritmo de control de congestión es el llamado Algoritmo de paquetes
reguladores.
Al paquete regulador se le llama como (Choke packet). Esto se aplica en un bucle cerrado. El algoritmo 5.3
hace que se asocie un peso a cada línea que cambia con el tiempo. Si el peso supera un cierto límite, la
línea se pondrá en un estado de alerta y se puede indicar que puede llegar a haber congestión. Si pasa un
determinado tiempo sin recibir notificaciones de congestión, se vuelve a subir el flujo que puede cursar el
origen.
• Un es una función del peso que depende del instante actual a través de f y del instante anterior a
través de Un-1
• a es una constante, cuyo valor debe estar entre 0 y 1 y que debe de asignarse según la importancia
dada a cada enlace.
Pueden mandarse paquetes reguladores con información de estado (grave, muy grave, etc.) .
En vez de monitorizar las líneas de salida pueden medirse otros parámetros, tales como el tamaño de las
colas en los nodos.
Métodos para el control de congestión. 5.3.1
Pero no es tan simple como eso, la formas más adecuada de prevenir la congestión de la red es
construir la red para que coincida con el tráfico que transmita, siempre cabe la probabilidad de
que haya congestión.
Si hay un enlace con poco ancho de banda en la ruta a través de la cual se dirige la mayor parte
del tráfico, es probable que haya congestión.
5.3.2
Enrutamiento Consciente del tráfico.
El objetivo al tener en cuenta la carga al calcular las rutas es desviar el tráfico de los
puntos más activos que serán los primeros lugares en la red en experimentar congestión.
Una técnica que se utiliza mucho en las redes de circuitos virtuales para la congestión es
el control de admisión. La idea es simple: no se debe establecer un nuevo circuito
virtual a menos que la red pueda transportar el tráfico adicional sin congestionarse.
Siempre habrá la posibilidad de fallar en los intentos para conectarse al circuito virtual.
Primero debemos dejar claro que es un circuito virtual:
Un circuito virtual (VC por sus siglas en inglés) es un sistema de comunicación por el cual
los datos de un usuario origen pueden ser transmitidos a otro usuario destino a través de
más de un circuito de comunicaciones real durante un cierto periodo de tiempo, pero en
el que la conmutación es transparente para el usuario.
Es una forma de comunicación mediante conmutación de paquetes en la cual la
información o datos son empaquetados en bloques que tienen un tamaño variable a los
que se les denomina paquetes de datos. El tamaño de los bloques lo estipula la red.
EJEMPLO :
-La ETD A solicita el envío de paquetes a la ETD E
5.3.3
El desprendimiento de carga actúa cuando se inunda los enrutadores con paquetes que no
pueden manejar, entonces se opta por tirarlos. El término viene de generaciones de
energía eléctrica, donde se refieren a la práctica de instalaciones que producen apagones
intencionales en ciertas áreas para salvar a la red completa de colapsarse en días
calurosos de verano, en los que la demanda de energía eléctrica excede por mucho el
suministro.
Esto se debe a que los paquetes se vuelven inútiles si se retrasan y se pasa el tiempo en
el que se deben reproducir para el usuario.
En una transferencia de archivos vale más un paquete viejo que uno nuevo, dado que, si
el enrutador se deshace del paquete 6 y mantiene los paquetes 7 a 10, por ejemplo, sólo
obligará al receptor a esforzarse más por colocar en el búfer los datos que no puede usar
todavía.
A la primera política se lo conoce comúnmente como vino (wine) y a la segunda con
frecuencia se la llama leche (milk), ya que la mayoría de las personas preferirían beber
leche nueva y por lo contrario vino viejo.
DETECCIÓN TEMPRANA ALEATORIA. 5.3.5
Es más efectivo lidiar con la congestión cuando apenas empieza que dejar que dañe la
red y luego tratar de solucionarlo. Esta observación conduce a un giro interesante sobre
el desprendimiento de carga: descartar paquetes antes de que se agote realmente el
espacio en el búfer.
La motivación para esta idea es que la mayoría de los hosts de Internet todavía no
obtienen señales de congestión de los enrutadores en la forma de ECN; la única
indicación confiable de congestión que reciben los hosts de la red es la pérdida de
paquetes. Después de todo, es difícil construir un enrutador que no descarte paquetes
cuando esté sobrecargado. Por ende, los protocolos de transporte (como TCP) están
predeterminados a reaccionar a la pérdida como congestión, y en respuesta reducen la
velocidad de la fuente.
CALIDAD DEL SERVICIO 5.4
En esta sección continuaremos con nuestro estudio del desempeño de la red por lo que se
quiere buscar es una gran calidad del servicio, sólo que ahora con un enfoque más
pronunciado en las formas de proporcionar una calidad de servicio que coincida con las
necesidades de la aplicación.
Una solución sencilla para proporcionar una buena calidad del servicio es construir una
red con la suficiente capacidad para cualquier tráfico que maneje. El nombre de esta
solución es exceso de aprovisionamiento (overprovisioning). La red resultante
transportará el tráfico de la aplicación sin pérdidas considerables y, suponiendo que hay
un esquema de enrutamiento decente, entregará los paquetes con una latencia baja.
El problema con esta solución es que tiene un costo elevado. Básicamente el problema se
resuelve con dinero.
El problema con esta solución es que tiene un costo elevado. Básicamente el problema se
resuelve con dinero. Los mecanismos de calidad del servicio permiten que una red con
menos capacidad cumpla con los requerimientos de la aplicación con la misma eficiencia, 5.4
a un menor costo. Además, el exceso de aprovisionamiento se basa en el tráfico
esperado. No se puede asegurar nada si el patrón de tráfico cambia demasiado. Con los
mecanismos de calidad del servicio, la red puede honrar las garantías de desempeño que
hace incluso cuando hay picos de tráfico, a costa de rechazar algunas solicitudes.
Es necesario considerar cuatro aspectos para asegurar la calidad del servicio:
Ninguna técnica maneja todos estos aspectos en forma eficiente. Sin embargo, se ha
desarrollado una variedad de técnicas para usarlas en la capa de red (y de transporte).
Las soluciones prácticas de calidad del servicio combinan varias técnicas. Para este fin,
describiremos dos versiones de calidad del servicio para Internet, conocidas como
Servicios integrados y Servicios diferenciados.
REQUERIMIENTOS DE LA APLICACIÓN 5.4.1
El modelado de tráfico (traffic shaping) es una técnica para regular la tasa promedio y
las ráfagas de un flujo de datos que entra a la red. El objetivo es permitir que las
aplicaciones transmiten una amplia variedad de tráfico que se adapte a sus
necesidades (incluyendo algunas ráfagas) y tener al mismo tiempo una manera simple
y útil de describir los posibles patrones de tráfico a la red.
El modelado de tráfico reduce la congestión y, por ende, ayuda a la red a cumplir con
su promesa.
Al monitoreo de un flujo de tráfico se le conoce como supervisión de tráfico (traffic
policing).
5.4.2
Los algoritmos que asignan recursos de enrutadores entre los paquetes de un flujo y
entre los flujos competidores se llaman algoritmos de programación de paquetes.
Se pueden reservar potencialmente tres tipos distintos de recursos para diversos
flujos:
1. Ancho de banda.
2. Espacio de búfer.
3. Ciclos de CPU.
El primero, ancho de banda, es el más obvio. Si un flujo requiere 1 Mbps y la línea de salida
tiene una capacidad de 2 Mbps, no va a ser posible tratar de dirigir tres flujos a través de esa
línea. Por lo tanto, reservar ancho de banda significa no sobrecargar ninguna línea de salida.
5.4.3
Un segundo recurso que por lo general escasea es el espacio en búfer. Cuando llega un
paquete, se pone en un búfer dentro del enrutador hasta que se pueda transmitir en la línea de
salida elegida. El propósito del búfer es absorber pequeñas ráfagas de tráfico a medida que los
flujos compiten entre sí.
Por último, los ciclos de CPU también pueden ser un recurso escaso. Para procesar un paquete
se necesita tiempo de CPU del enrutador, por lo que un enrutador sólo puede procesar cierta
cantidad de paquetes por segundo.
Para asignar ancho de banda y otros recursos del enrutador, los algoritmos de programación de
paquetes determinan cuál de los paquetes en el búfer van a enviar en la línea de salida a
continuación.
Ya describimos el programador más simple al explicar cómo funcionan los enrutadores. Cada
enrutador coloca los paquetes en una cola de búfer para cada línea de salida hasta que se
puedan enviar, y se envían en el mismo orden en el que llegaron. Este algoritmo se conoce
como FIFO (Primero en Entrar, Primero en www.FreeLibros.me 354 LA CAPA DE RED CAP. 5
Salir, del inglés First-In First-Out) o su equivalente, FCFS (Primero en Llegar, Primero en Servir,
del inglés First-Come, First-Serve).
CONTROL DE ADMISIÓN 5.4.4
Después de ver necesarios para la calidad del servicio (QoS); es tiempo de reunirlos
para realmente proporcionarla. Las garantías de QoS se establecen por medio del
proceso de control de admisión.
Las garantías de QoS se establecen por medio del proceso de control de admisión.
Primero vimos cómo se utilizaba el control de admisión para controlar la congestión,
lo cual es una garantía de desempeño, aunque algo débil. Las garantías que
consideraremos ahora son más sólidas, pero el modelo es el mismo. El usuario ofrece
un flujo junto con un requerimiento de QoS para la red. Después la red decide si
acepta o rechaza el flujo, con base en su capacidad y a los compromisos que tiene con
otros flujos. Si acepta, reserva la capacidad por adelantado en los enrutadores para
garantizar la QoS cuando se envíe el tráfico por el nuevo flujo.
SERVICIOS INTEGRADOS 5.4.5
Este método se conoce como calidad de servicio basada en clase (en contraste a la
basada en flujo). La IETF ha estandarizado una arquitectura para él, conocida
como servicios diferenciados.
5.4.6
REENVÍO ASEGURADO:
INTERCONEXIÓN DE REDES 5.5
Hasta ahora hemos supuesto de manera implícita que hay una sola red homogénea, en donde
cada máquina usa el mismo protocolo en cada capa. Por desgracia, este supuesto es
demasiado optimista. Existen muchas redes distintas, entre ellas PAN, LAN, MAN y WAN. Ya
describimos Ethernet, Internet por cable, las redes telefónicas fija y móvil, 802.11, 802.16 y
muchas más. Hay numerosos protocolos con un uso muy difundido a través de estas redes, en
cada capa. En las siguientes secciones estudiaremos con cuidado los aspectos que surgen
cuando se conectan dos o más redes para formar una interred o simplemente una internet.
Si siempre habrá una variedad de redes, sería más simple que no necesitáramos
interconectarlas. Esto también es muy poco probable. Bob Metcalfe postuló que el valor de
una red con N nodos es el número de conexiones que se pueden hacer entre los nodos, o N 2
(Gilder, 1993). Esto significa que las redes grandes son mucho más valiosas que las pequeñas,
ya que permiten muchas más conexiones, por lo que siempre habrá un incentivo para
combinar redes pequeñas.
CÓMO DIFIEREN LAS REDES 5.5.1
Cómo se pueden conectar las redes 5.5.2
Cada red o enlace impone un tamaño máximo a sus paquetes. Estos límites tienen varias razones, entre
ellas:
1. El hardware (por ejemplo, el tamaño de una trama Ethernet).
2. El sistema operativo (por ejemplo, todos los búferes son de 512 bytes).
3. Los protocolos (por ejemplo, la cantidad de bits en el campo de longitud de paquete).
4. El cumplimiento de algún estándar (inter) nacional.
5. El deseo de reducir hasta cierto nivel las retransmisiones inducidas por errores.
6. El deseo de evitar que un paquete ocupe el canal demasiado tiempo.
Esto quiere decir que el diseñador de red no puede elegir el tamaño de los paquetes.
Las cargas útiles máximas para algunas tecnologías comunes son de 1500 bytes para Ethernet y 2 272 para
802.11. El protocolo IP es más generoso, ya que permite paquetes de hasta 65 515 bytes.
Fragmentación de paquetes 5.5.5
La fragmentación transparente es
sencilla, pero tiene algunos problemas.
Por una parte, el enrutador de salida
debe saber cuándo ha recibido todas
las piezas, por lo que debe incluirse un
campo de conteo o un bit de “fin de
paquete”.
Principios generales:
1. Asegurarse de que funciona.
2. Mantener la simplicidad.
3. Elegir opciones claras.
4. Explotar la modularidad.
5. Prevenir la heterogeneidad.
6. Evitar las opciones y parámetros
estáticos.
8. Ser estricto cuando envíe y
tolerante cuando reciba.
9. Pensar en la escalabilidad.
10. Considerar el desempeño y el
costo.
EL PROTOCOLO IP VERSIÓN 4 5.6.1
-ARP
El Protocolo de Resolución de Dirección permite que un equipo conozca la dirección física de
una tarjeta de interfaz de red relacionada a una dirección IP (dirección lógica).
Para que se relacionen las direcciones físicas con las lógicas, ARP pregunta a todos equipos de
la red, mediante un broadcast (comunicación de uno a todos), sus direcciones físicas y crea
una tabla de búsqueda entre las direcciones lógicas y físicas en una memoria caché.
La comunicación normal de IP está entre un emisor y un receptor. Sin embargo, para algunas
aplicaciones es útil que un proceso pueda enviar a una gran cantidad de receptores en forma
simultánea.