Está en la página 1de 43

Protocolos de Enrutamiento

Ing. Darwin Aguilar S.

Agosto 2020
Introducción

El enrutamiento es fundamental para cualquier red de datos,


ya que transfiere información a través de una internetwork
de origen a destino. Los routers aprenden sobre redes
remotas ya sea de manera dinámica o utilizando protocolos
de enrutamiento o de manera manual, manual, utilizando
rutas estáticas. Las rutas estáticas son muy comunes y no
requieren la misma cantidad de procesamiento y sobrecarga
que requieren los protocolos de enrutamiento dinámico.

trafico de OVERFLOW, es todo aquel trafico que no es necesario a nivel de usuario, pero si es necesario a nivel de
dispositivos, este trafico trabaja en broatcast, enviando informacion

Las rutas estatitcas se coloca cuando se conose la red


Enrutamiento Dinamico me permite llegar al destino sin conocer las rutas
Enrutamiento estático & dinámico

Ruteo: Es colocar los posibles caminos que puede un


paquete recorrer entre las redes para poder llegar a su
destino.
Ruteo Estático: Es indicar manualmente los caminos
posibles desde una red hacia las demás redes. Uso de una
única ruta predeterminada que se usa para representar una
ruta hacia cualquier red. Selasindica las rutas de ida y
de regreso.
Se puede hacer una sola ruta esatica
el resto de backcup

Ruteo Dinámico: Utiliza diferentes protocolos cuyo fin es


el de intercambiar rutas entre dispositivos intermedios con
el objetivo de tener una red totalmente accesible. En este
caso, los routers envían y reciben información de
enrutamiento que utilizan para armar sus tablas de ruteo.
Diferencias entre Enrutamiento Estático y
Dinámico
Dispositivos de capa 3

Losrouters envían paquetes al aprender sobre redes


remotas y al mantener la información de enrutamiento.

El router es la unión o intersección que conecta múltiples


redes IP. La principal decisión de envió de los routers se
basa en la información de Capa 3, la dirección IP de destino.

La tabla de enrutamiento del router se utiliza para


encontrar la mejor coincidencia entre la dirección IP de
destino de un paquete y una dirección de red en la tabla de
enrutamiento. La tabla de enrutamiento determinara
finalmente la interfaz de salida para enviar el paquete y el
router lo encapsulara en la trama de enlace de datos
apropiada para dicha interfaz de salida.
Enrutamiento estático

Es posible que se crea que el enrutamiento estático es sólo


un método antiguo de enrutamiento y que el enrutamiento
dinámico es el único método usado en la actualidad. Esto
no es así, además, se destaca que escribir una ruta estática
en un router no es más que especificar una ruta y un
destino en la tabla de enrutamiento, y que los protocolos
de enrutamiento hacen lo mismo, sólo que de manera
automática. Sólo hay dos maneras de completar una tabla
de enrutamiento: manualmente (el administrador agrega
rutas estáticas) y automáticamente (por medio de
protocolos de enrutamiento dinámico).
Configuración de rutas estáticas

El comando para configurar rutas estáticas es:


ip route [dirección_destino] [máscara_destino]
[dirección_siguiente_salto]
Donde [dirección_destino] es la dirección de red
destino a la cual queremos comunicarnos,
[máscara_destino] es la máscara de red de la dirección
de red destino y [dirección_siguiente_salto] es la
dirección IP de la interfaz del siguiente salto o la
interfaz de salida, es decir, es la dirección IP del router
directamente conectado por el cual queremos enrutar
los paquetes.
Ejercicios
Router 1 Router 2
Ejercicio
Ejercicio
Enrutamiento dinámico
Protocolos de enrutamiento dinámico

 Se pueden clasificar en diferentes grupos según sus características. Los


protocolos de enrutamiento que se usan con más frecuencia son:
cuanto me toma llegar de un sitio a otro

 RIP: un protocolo de enrutamiento interior vector distancia


 IGRP: el enrutamiento interior vector distancia desarrollado por Cisco (en
desuso desde el IOS 12.2 y versiones posteriores) es obsoleto porverifica
que aparecio OSPF
que el enlace esta activo
trabaja en capa 3
 OSPF: un protocolo de enrutamiento interior de link-state trabaja con etiquetas en capa 2
enruta mas rapido
 IS-IS: un protocolo de enrutamiento interior de link-state Son protocolos de proposito es
pecifico
 EIGRP: el protocolo avanzado de enrutamiento interior vector distancia
desarrollado por Cisco Es propietaria de cisco, IGRP es un problema para distintas marcas de router
 BGP: un protocolo de enrutamiento exterior vector ruta
cuestion seguridad
Con clase y sin clase
 Protocolos de enrutamiento con clase.
Se puede utiliza protocolos para

 Los protocolos de enrutamiento con clase no envían información de la máscara de


subred en las actualizaciones de enrutamiento.

 Los primeros protocolos de enrutamiento, como el RIP, tenían clase. En aquel


momento, las direcciones de red se asignaban en función de las clases; clase A, B o
C. No era necesario que un protocolo de enrutamiento incluyera una máscara de
subred en la actualización de enrutamiento porque la máscara de red podía
determinarse en función del primer octeto de la dirección de red.

 Protocolos de enrutamiento sin clase


Son protocolos mas utilizados, estan subneteadas, trabajan con VLSM

 Estos protocolos de enrutamiento incluyen la máscara de subred con la dirección


de red en sus actualizaciones de enrutamiento. Las redes de la actualidad ya no se
asignan en función de las clases y la máscara de subred no puede determinarse
según el valor del primer octeto. La mayoría de las redes de la actualidad requieren
protocolos de enrutamiento sin clase porque admiten VLSM, redes no contiguas y
otras funciones que se analizarán en capítulos posteriores
Convergencia

 La convergencia ocurre cuando todas las tablas de enrutamiento de los routers se


encuentran en un estado de uniformidad. La red ha convergido cuando todos los
routers tienen información completa y precisa sobre la red. El tiempo de
convergencia es el tiempo que los routers tardan en compartir información, calcular
las mejores rutas y actualización sus tablas de enrutamiento. Una red no es
completamente operativa hasta que la red haya convergido; por lo tanto, la mayoría
de las redes requieren tiempos de convergencia breves.
 La convergencia es cooperativa e independiente al mismo tiempo. Los routers
comparten información entre sí pero deben calcular en forma independiente los
impactos del cambio de topología en sus propias rutas. Dado que establecen un
acuerdo con la nueva topología en forma independiente, se dice que convergen
sobre este consenso.
 Las propiedades de convergencia incluyen la velocidad de propagación de la
información de enrutamiento y el cálculo de los caminos óptimos. Los protocolos
de enrutamiento pueden clasificarse en base a la velocidad de convergencia; cuanto
más rápida sea la convergencia, mejor será el protocolo de enrutamiento. Por lo
general, RIP e IGRP tienen convergencia lenta, mientras que EIGRP y OSPF tienen
una convergencia más rápida.
Métrica

 En algunos casos, un protocolo de enrutamiento obtiene


información sobre más de una ruta hacia el mismo destino. Para
seleccionar el mejor camino, el protocolo de enrutamiento debe
poder evaluar y diferenciar entre las rutas disponibles. Para tal fin, se
usa una métrica. Una métrica es un valor utilizado por los
protocolos de enrutamiento para asignar costos a fin de alcanzar las
redes remotas. La métrica se utiliza para determinar qué ruta es más
preferible cuando existen múltiples rutas hacia la misma red remota.

 Cada protocolo de enrutamiento usa su propia métrica. Por


ejemplo, RIP usa el conteo de saltos, EIGRP usa una combinación de
ancho de banda y retardo, y la implementación de OSPF de Cisco
usa el ancho de banda. El conteo de saltos es la métrica más sencilla
para hacer previsiones. El conteo de saltos se refiere a la cantidad de
routers que debe atravesar un paquete para llegar a la red de
destino.
Parámetros de las métricas
Los diferentes protocolos de enrutamiento pueden usar diferentes métricas. La
métrica utilizada por un protocolo de enrutamiento no es comparable con la
métrica utilizada por otro protocolo de enrutamiento. Dos protocolos de
enrutamiento diferentes pueden elegir diferentes rutas hacia el mismo destino
debido al uso de diferentes métricas.
Las métricas utilizadas en los protocolos de enrutamiento IP incluyen:

 Conteo de saltos: una métrica simple que cuenta la cantidad de routers que
un paquete tiene que atravesar.
 Ancho de banda: influye en la selección de rutas al preferir la ruta con el
Q enlace esta mas ocupado, las redes
ancho de banda más alto. tienen un comportameinto en sentido
de la usabilidad, se mide la carga en el tiempo
 Carga: considera la utilización de tráfico de un enlace determinado.
 Retardo: considera el tiempo que tarda un paquete en atravesar una ruta.
 Confiabilidad: evalúa la probabilidad de una falla de enlace calculada a partir
del conteo de errores de la interfaz o las fallas de enlace previas.
 Costo: un valor determinado ya sea por el Cisco IOS o por el administrador
de red para indicar la preferencia de una ruta. El costo puede representar una
métrica, una combinación de las mismas o una política.
El campo Métrica en la tabla de enrutamiento

Las métricas de cada protocolo de enrutamiento son:

 RIP: conteo de saltos; el mejor camino se elige teniendo en cuenta la ruta


con la menor cantidad de saltos.
 IGRP y EIGRP: ancho de banda, retardo, confiabilidad y carga; el mejor
camino se elige según la ruta con el valor de métrica compuesto más bajo
calculado a partir de estos múltiples parámetros. De manera
Protocolos mas utiles,
predeterminada, sólo se usan el ancho de banda y el retardo. aqui selecciono la mejor metrica
 IS-IS y OSPF: costo; el mejor camino se elige según la ruta con el costo
más bajo. La implementación de OSPF de Cisco usa el ancho de banda. El
IS-IS se analiza en CCNP. Se utiliza para gestiones avanzadas

**Los protocolos de enrutamiento determinan el mejor camino en base a la


ruta con la métrica más baja.
Distancia administrativa

La distancia administrativa (AD) define la preferencia de un origen de


enrutamiento. A cada origen de enrutamiento, entre ellas protocolos de
enrutamiento específicos, rutas estáticas e incluso redes conectadas
directamente, se le asigna un orden de preferencia de la más preferible a la
menos preferible utilizando el valor de distancia administrativa. Los routers
Cisco usan la función de AD para seleccionar el mejor camino cuando obtiene
información sobre la misma red de destino desde dos o más orígenes de
enrutamiento diferentes.

La distancia administrativa es un número entero entre 0 y 255. Cuanto menor


es el valor, mayor es la preferencia del origen de ruta. Una distancia
administrativa de 0 es la más preferida. Solamente una red conectada
directamente tiene una distancia administrativa igual a 0 que no puede
cambiarse.
Enrutamiento dinámico (RIP)
 RIP (Routing Information Protocol) es un protocolo
dinámico y tiene 2 versiones (RIP y RIPv2). La versión 1
de RIP es con clase (no soporta VLSM), no utiliza
autenticación y utiliza broadcast. La versión 2 de RIP es
sin clase (soporta VLSM), añade la autenticación y utiliza
multicast.
Con multicast hago una seleccion a los que voy a enrutar RIPv2 es masutilizada.
 Procedimiento de configuración de RIP

Router(config)#router rip network (seguida de la red


que deseamos declarar en el protocolo)

Nota: El protocolo interpreta las direcciones por clase, por


ejemplo la dirección “172.16.1.0” es interpretada como
“172.16.0.0” ya que esta dirección es clase B, es decir que solo
se toman en cuenta los dos primeros octetos.
[R2#show ip route]

Ejercicio

[R1#show ip route] [R2#show ip route]


[R3#show ip route]
Ejercicio
Fundamentos de Redes de Datos

Protocolos TCP y UDP


Facilitador:
Ing. Darwin Aguilar
dlaguilar@espe.edu.ec

Agosto 2020
TCP
El protocolo TCP (Protocolo de Control de Transmisión) es uno de los
protocolos fundamentales en Internet, nos permite que las aplicaciones
puedan comunicarse con garantías independientemente de las capas
inferiores del modelo TCP/IP. Esto significa que los routers (capa de red en
el modelo TCP/IP) solamente tienen que enviar los segmentos (unidad de
medida en TCP), sin preocuparse si van a llegar esos datos correctamente o
no. TCP da soporte a múltiples protocolos de la capa de aplicación,
como, por ejemplo, HTTP (web), HTTPS (web segura), POP3 (correo
entrante) y SMTP (correo saliente) así como sus versiones seguras
utilizando TLS. También se utiliza TCP en protocolos tan importantes
como FTP, FTPES y SFTP para transferir archivos desde un origen a un
destino, e incluso el protocolo SSH para administrar equipos de forma
local y remota de manera segura utiliza el protocolo TCP.
Este protocolo fue definido en el RFC 793 y
el RFC 1323. El RFC 1323 lo caracteriza
como que: “fue diseñado para operar de
manera confiable durante casi cualquier
medio de transmisión, independientemente
de la velocidad de transmisión, demora,
corrupción, duplicación o reordenación de
segmentos.
Principales características
• TCP sirve a una gran cantidad de protocolos de la capa de
aplicación, por esto es fundamental que los datos (segmentos)
lleguen correctamente al destino, sin errores, y, en orden. Si en la
transmisión de los segmentos, se corrompen o pierden,
automáticamente el protocolo TCP inicia la retransmisión, sin
intervención de la capa de aplicación. De esta manera, se garantiza
que los datos llegan al destinatario sin errores.
• El MSS (Maximum Segment Size) es el tamaño máximo en bytes
que TCP puede recibir en un solo segmento, es similar al MTU (1500
bytes normalmente), pero el MSS es a nivel de capa de transporte.
Con el fin de obtener el mejor rendimiento, MSS debe ser lo
suficientemente pequeño para evitar fragmentación IP. El MSS se
anuncia normalmente en cada lado del canal de comunicación, a
través de la propia cabecera de TCP. Normalmente el tamaño del
MSS es el MTU menos la cabecera de TCP (que tiene longitud
variable de al menos 20 bytes) menos la cabecera IP (que tiene
longitud variable de al menos 20 bytes). MSS = MTU (1.500 bytes)
– 20 bytes cabecera TCP – 20 bytes cabecera IP
• TCP tiene un mecanismo complejo de control de errores, se utiliza la
técnica de ventana deslizante para que todos los segmentos lleguen
correctamente. Esta característica utiliza diferentes métodos para
detectar posibles errores que se produzcan:

• Checksum
• Numeración de todos los segmentos para llevar correctamente el control
• Confirmaciones ACK selectivas, aunque también permite «acumular»
segmentos para que con un úncio ACK se confirmen varios.
• Temporizadores: si pasa mucho tiempo, automáticamente TCP
retransmite el segmento que se ha «perdido».
• Se descartan los segmentos duplicados: en caso de que llegue un
segmento duplicado (porque uno ha tardado más de lo normal y se ha
vuelto a enviar) lo elimina.

Por supuesto, si TCP detecta un error, iniciará la retransmisión


automáticamente sin que la capa de aplicación tenga que hacer
absolutamente nada
Otra característica muy importante en la información que viaja
desde un origen hasta un destino, es que los datos lleguen en
orden, es decir, en el mismo orden que fueron emitidos, ya que el
protocolo IP es un protocolo best-effort, hace todo lo que puede
para que los paquetes lleguen en orden y correctos, pero no es
confiable ya que no garantiza nada. TCP dispone de una ventana
deslizante en el emisor y en el receptor, de tal forma que, si
recibimos un segmento que no está en orden, automáticamente
«esperará» hasta que llegue el segmento que falta, o sino, pedirá
una retransmisión únicamente del segmento que falte. Con cada
segmento recibido por el receptor, se enviará un ACK indicando
al emisor que todo está llegando correctamente, no obstante, en la
vida real las implementaciones de TCP permiten que se envíe un
ACK para confirmar la recepción de varios segmentos
simultáneamente, con el objetivo de no saturar la red de tantas
confirmaciones.
El protocolo TCP permite realizar control de flujo, es decir,
es capaz de mitigar la posible saturación de la red o del host
remoto. En el caso de que un equipo esté transmitiendo a
una velocidad de 500Mbps, y el equipo de destino
solamente pueda recibir información a 100Mbps, el
protocolo TCP se adapta dinámicamente. De esta forma, el
protocolo TCP siempre intentará aprovechar al máximo el
ancho de banda disponible entre origen y destino. El
funcionamiento de la esta ventana deslizante es complejo,
pero funciona básicamente en que el receptor tiene una
ventana TCP disponible con una cantidad de bytes que
puede almacenar en un buffer, el emisor podrá enviar datos
hasta llenar esta cantidad. Para que el emisor envíe más
datos, es necesario que el receptor le envíe un ACK
indicando que todo está correcto y que procede a «subirlo» a
la capa de aplicación.
TCP también dispone de control de congestión, esto
permite que no se pierdan paquetes en Internet porque
haya congestión en los routers. Si el router no es capaz
de procesar o reenviar paquetes al ritmo que los recibe,
el propio router los descartará y se perderá, ya que su
buffer se llenará. No debemos confundir control de flujo
con el control de congestión. La ventana de congestión
(es complementaria a la ventana de recepción), si se
produce congestión, el tamaño de la ventana de
congestión se va reduciendo, y si desaparece, va
aumentando. El número máximo de bytes que puede
enviar el emisor es el mínimo de ambos tamaños de
ventana (si la ventana de congestión son 1500 bytes, y
la ventana de recepción son 2000 bytes, entonces se
envían 1500 bytes, el menor).
Con el fin de evitar la congestión, y que se aproveche al
máximo el ancho de banda disponible entre origen y
destino, hay un total de tres fases. La fase de arranque
lento (slow start) se encarga de hacer crecer
exponencialmente (así que realmente no se puede
considerar arranque lento) la ventana de congestión,
posteriormente la fase de evitación de congestión que
se encarga de que crezca la ventana de congestión
linealmente, y, finalmente, la fase constante donde la
ventana de recepción es la misma que la ventana de
congestión.
Actualmente TCP dispone de diferentes algoritmos para gestionar de manera
eficiente la congestión, los primeros fueron TCP Tahoe y Reno, aunque también
tenemos otros como TCP Vegas, pero, a lo largo de los años, con las nuevas redes
de datos TCP/IP, han aparecido otros algoritmos que son más eficientes. Por
ejemplo, tenemos TCP BBR que nos permite enviar información lo más
rápidamente posible, ya que es mucho más eficiente que el protocolo TCP original
(tendremos mayor velocidad). También tenemos TCP Cubic el cual es el control de
congestión que utilizan los sistemas operativos Linux y Unix.
Por último, otra característica interesante de TCP es que nos
permite multiplexar datos, de esta forma, podremos recibir información de
diferentes hosts simultáneamente. También nos permite Full-Dúplex, ya que
podremos enviar y recibir datos simultáneamente por el mismo canal de
comunicación.

Figura. Segmento de datos TCP


TAREA:

Realice la investigación de los distintos algoritmos que utiliza


TCP para realizar la gestión de manera más eficiente de la
congestión:

TODOS: Técnica de Ventana Deslizante

• G1. TCP Reno


• G2. TCP Tahoe
• G3. TCP Vegas
• G4. TCP BBR
• G5. TCP Cubic
UDP
El protocolo UDP (Protocolo de Datagramas de usuario) es uno de los
protocolos fundamentales en Internet, nos permite que las aplicaciones
puedan comunicarse con garantías independientemente de las capas
inferiores del modelo TCP/IP. Esto significa que los routers (capa de red en
el modelo TCP/IP) solamente tienen que enviar los datagramas (unidad de
medida en UDP). UDP da soporte a múltiples protocolos de la capa de
aplicación, como los populares DNS e incluso el protocolo DHCP para
obtener (y proporcionar) direccionamiento IP automáticamente.

Principales características

• El protocolo UDP permite el envío de datagramas sin necesidad de


establecer previamente una conexión, tan solo es necesario tener abierto
un socket en el destino para que acepte los datagramas del origen. UDP
es un protocolo no orientado a conexión, es decir, no ocurre como en
TCP donde hay una fase de establecimiento de la conexión, aquí
directamente se envían sin establecimiento previo «aviso».
• Este protocolo no proporciona ningún tipo de control de flujo, si un
equipo es más rápido que otro y envía información, es muy posible que se
pierda información debido a que colapsará al más lento, y tendremos que
proceder al reenvío de la información. Un detalle importante es que la
gestión de reenvío de los datagramas la realiza la capa de transporte, ya que
UDP es muy simple y no dispone de mecanismos de control de reenvío de
datagramas por haberse perdido. (best effort)
• UDP tampoco proporciona ningún tipo de control de congestión, si hay
congestión en la red, se podrían perder paquetes, y, lógicamente no se va a
encargar de reenviarlos como sí ocurre con TCP. Por tanto, UDP al no
disponer de control de congestión, control de flujo ni control de errores, se
podría decir que UDP es un protocolo no fiable. Además, tampoco
proporciona orden en los datagramas enviados, ni información si un
datagrama ha llegado correctamente, ya que no hay confirmación ni de
entrega ni de recepción. Cualquier tipo de garantías para la transmisión de la
información deben ser implementadas en capas superiores.

Este protocolo se utiliza principalmente en DHCP y DNS donde es más


importante la rapidez que la fiabilidad. UDP es muy utilizado en tareas de
control de transmisiones de audio y vídeo a través de una red. UDP sólo añade
multiplexado de aplicación y suma de verificación de la cabecera y la carga
útil.
El protocolo UDP, User Datagram Protocol
es un protocolo no orientado a conexión de
la capa de transporte del modelo TCP/IP. La
simplicidad de este protocolo es grande ya
que no proporciona detección de errores.
Este protocolo se definió en el RFC 768.
Cabecera de UDP
UDP añade 8 bytes de cabecera en cada datagrama. En esta cabecera
UDP encontraremos el puerto de origen y puerto de destino de la
conexión (socket), la longitud del datagrama y el checksum de dicho
datagrama para comprobar que no tiene errores ni la cabecera ni los
datos del datagrama. Los puertos (Source Port y Destination
Port) son fundamentales para el buen funcionamiento de UDP. UDP
usa estos números de puertos para identificar un socket, es decir, una
aplicación que emite datos o que recibe datos.

Figura. Cabecera de UDP


TCP vs UDP en la web

Actualmente cuando navegamos por diferentes webs, hacemos uso del


protocolo TCP, ya que HTTP y HTTPS utilizan TCP por debajo. Si
hacemos uso de HTTP, el puerto por defecto es TCP 80, en caso de
hacer uso de HTTPS, el puerto por defecto es TCP 443. Al usar TLS 1.2
o TLS 1.3, por debajo hacemos uso siempre del protocolo TCP.
• Una de las novedades de HTTP/3 es
el uso de QUIC, un nuevo protocolo
de comunicación que se está
empezando a utilizar ampliamente, el
cual funciona por encima de UDP en
lugar de TCP, para proporcionar una
mayor velocidad. QUIC se encargará
de proporcionar la conectividad desde
el cliente hasta el servidor web, y lo
hará usando TLS 1.2 o TLS 1.3, ya
que lógicamente, también tenemos
soporte para estos protocolos de
comunicación seguros.

También podría gustarte