Documentos de Académico
Documentos de Profesional
Documentos de Cultura
La sincronización de una red digital se implementa temporizando los relojes de todas las
centrales de conmutación. Normalmente, se tiene un primer reloj de red, ubicado en los
controles del nodo fuente, desde donde los bits, los intervalos de tiempo y las tramas son
transmitidos, y un segundo reloj, ubicado en el nodo receptor, controlando la tasa con la
que la información es leída. El objetivo de la temporización de la red es mantener los relojes
de la fuente y del receptor en una misma frecuencia y fase, de modo que el receptor pueda
interpretar apropiadamente la señal digital. Cualquier diferencia en la temporización de los
nodos de la red causaría una interpretación diferente en la información recibida, es decir,
deslizamiento.
Fig 65. El emisor (fuente de información) introduce mensajes en el sistema (de transmisión
y conmutación) hasta alcanzar al abonado llamado (el receptor). Todos los relojes del
sistema deben estar sincronizados para que el receptor interprete adecuadamente la
información recibida.
Los bits llegan a cada central con su propia velocidad, que depende de factores como el
reloj de la central de origen, la distancia recorrida, la temperatura ambiente, etc., y son
llevados a un almacén temporal en la central de destino. La misión de este almacén
temporal, utilizado en cada uno de los enlaces entrantes en la central, es el de adaptar la
fase de la señal entrante (F1) con el reloj de la central (F2) (ver figura 66).
Fig 66. Señales de sincronismo en una central digital.
Si la tasa promedio del reloj entrante es diferente de la del reloj de la central, la memoria
elástica eventualmente se desbordará o vaciará, dependiendo de cuál tasa sea la más
grande. Cuando la tasa de bits entrantes es mayor que la del reloj de la central, algunas de
las unidades de información almacenadas en la memoria elástica no alcanzan a ser leídas
antes de la llegada de las nuevas unidades, por lo que estas últimas se almacenan sobre las
anteriores produciéndose el desbordamiento de la memoria elástica y una pérdida de
información. Si la tasa de bits entrantes es menor que la del reloj de la central, algunas de
las unidades de información almacenadas en la memoria elástica alcanzan a ser leídas varias
veces antes de la llegada de las nuevas unidades, lo que causa la repetición de uno o más
bits de información ya transferidos y eventualmente, la memoria elástica se vacía. En ambas
situaciones, se produce la distorsión de la información (el deslizamiento).
Dependiendo del tipo de memoria elástica utilizada, las unidades de información que se
manejan pueden ser canales o tramas, por lo que se habla de "deslizamiento de canal" o
"deslizamiento de trama". La memoria elástica de trama es la más utilizada puesto que con
cada deslizamiento sólo se pierde una muestra de cada canal, y a la siguiente trama se
vuelve a recibir la información correcta. Con la memoria elástica de canal, en cambio, un
deslizamiento produce un desplazamiento de la información que transporta cada intervalo
de tiempo al siguiente, lo cual tiene efectos sobre las tramas subsiguientes.
Si las velocidades de lectura y escritura de los flujos digitales en las memorias elásticas no
son iguales, ocurrirán intervalos de tiempo repetidos o faltantes, o sea deslizamientos. Esto
significa que los deslizamientos consisten en la modificación de los intervalos de tiempo o
tramas en los sistemas reales, es decir, constituyen un proceso de supresión o inserción de
bits (tramas) dentro de un flujo digital debido a desigualdades en la temporización.
En lo que se refiere a los deslizamientos, tres son las causas fundamentales que los
ocasionan:
1. Relojes imperfectos: los relojes no son ideales sino que, al contrario, poseen
características que limitan su precisión y estabilidad. Por esta razón, relojes distintos
no operarán en un momento dado a la misma frecuencia, a menos que se tomen las
medidas necesarias.
3. Fluctuaciones: se llaman así a las variaciones en los tiempos de llegada de los bits a
la central, y se presentan de dos tipos: de alta frecuencia (jitter) y de muy baja
frecuencia (wander). El jitter es causado por los equipos de línea o repetidores
localizados a lo largo del trayecto de transmisión, y el wander es originado por las
características de los relojes, por las variaciones de los retardos de transmisión y por
el propio equipo de control del reloj.
Los deslizamientos no pueden eliminarse pero sí pueden controlarse, bien sea mediante el
uso de relojes altamente precisos, que minimizan la frecuencia del deslizamiento, o
asegurando que todas las señales y procesos dentro de la red sean sincrónicos lo cual, en
una situación ideal, elimina el deslizamiento.
Limitar las desviaciones de frecuencia entre todos los relojes de las centrales
digitales de la red, mediante su sincronización, eligiendo el método y la
configuración de red más adecuados.
El efecto causado por un deslizamiento depende en alto grado del tipo de información que
se ve involucrada. Los diferentes servicios prestados por la red digital de
telecomunicaciones poseen distintos grados de redundancia en la codificación de su
información; de este modo, si un deslizamiento afecta a un servicio con mayor redundancia,
las consecuencias del mismo serán menores que en el caso de un servicio con poca
redundancia.
La señal de voz digitalizada mediante la técnica PCM posee una gran redundancia, por lo
que un deslizamiento sólo produce un pequeño ruido a menudo inaudible para el usuario.
En centrales que sólo conmutan voz, bastaría con utilizar relojes con una precisión de 1 ppm
(partes por millón).
En el caso de datos a 64 kbps, la redundancia es menor que con la voz digitalizada con PCM,
lo cual hace necesaria la utilización de técnicas de detección y recuperación de errores en
la transmisión. Cuando un deslizamiento afecta el canal de datos, los códigos de detección
de errores permiten identificar esta situación, frente a la cual generalmente se solicita la
retransmición de la información. Esto tiene como consecuencia retardos en la transmisión.
Sin embargo, al principio un enrutador no conoce ninguna otra red que no sea la que está
directamente conectada al enrutador mismo. Para que un enrutador pueda llevar a cabo el
enrutamiento, primero debe saber de la existencia de redes remotas y, como explicamos
anteriormente, para que esto suceda, el enrutador tiene que estar configurado
con enrutamiento dinámico y / o enrutamiento estático. Aprendamos más sobre estos tipos
de enrutamiento.
Los enrutadores no necesitan ninguna configuración en absoluto para que puedan alcanzar
sus redes conectadas directamente, por lo contrario, tanto el enrutamiento estático,
el enrutamiento dinámico o ambos, se requieren para que unenrutador pueda aprender
sobre cualquier red remota.
Enrutamiento dinámico:
El enrutamiento dinámico se logra mediante el uso de un o más protocolos de
enrutamiento, como ser RIP, IGRP, EIGRP u OSPF.
1. Recibir y procesa las actualizaciones enviadas por enrutadores vecinos, que ejecutan
el mismo protocolo de enrutamiento.
2. Aprender sobre redes remotas por medio de las actualizaciones recibidas de
enrutadores vecinos.
3. Si existiesen múltiples rutas a una mismo red remota, aplicar un algoritmo para
determinar la mejor ruta, la más rápida.
5. Actualizar sus rutas cuando, por algún motivo, ocurre algún cambio en la topología.
Enrutamiento estático:
Con el enrutamiento estático, el enrutador es literalmente ordenado, por el administrador
de la red, por donde llegar a las redes remotas.
En otras palabras, el administrador configura manualmente las rutas estáticas en el
enrutador.
Es como decirle al enrutador, literalmente; "Para enviar paquetes a la red X, envíalos por la
interfaz X o, a la dirección IP del próximo salto X".
2. Disponibilidad:
Debido a la naturaleza autónoma de los protocolos dinámicos, y en caso que ocurra
alguna falla, no siempre estará disponible la misma ruta, es decir, podría haber una
ruta alternativa en su lugar si la original falla.
Con rutas estáticas esto no es una opción. A menos que algo falle físicamente con la
ruta estática, la misma siempre estará allí ... es ... estática.
QUÉ ES UN PROTOCOLO.
Protocolo de enrutamiento.
Un protocolo de enrutamiento, como hemos visto anteriormente, le indica al enrutador
como enrutar. Es decir, un protocolo de enrutamiento se configura en un enrutador para
que el mismo aprenda las mejores rutas disponibles y luego "enrute" los paquetes a través
de estas rutas, hasta su destino final.
Básicamente, el protocolo de enrutamiento establece las reglas sobre cómo un enrutador
aprende redes remotas y luego anuncia estas redes a enrutadores vecinos dentro del
mismo sistema autónomo (o AS por sus siglas en ingles).
Nota: En breve veremos lo que es un sistema autónomo.
Protocolo enrutado.
Un protocolo enrutado, por lo contrario, es el protocolo que está siendo enrutando por el
protocolo de enrutamiento, a través de las rutas más rápidas hacia, su destino final.
Recuerda esto;
En este caso, el protocolo enrutado se encarga de establecer las reglas sobre cómo se
preparan los datos antes de ser enrutados. Por ejemplo, el protocolo IP es un protocolo
enrutado, transporta datos de usuario tales como archivos, correos electrónicos, etc., y
determina (entre otras cosas) cómo estos datos se "dividen" en paquetes, de modo que
puedan ser enrutados por el protocolo de enrutamiento.
Cual de los protocolos enrutados será enrutado por el protocolo de enrutamiento -decir
esto 10 veces rápido : O) - depende del tipo de red en sí, por ejemplo; IP es el protocolo
utilizado en las redes TCP / IP, IPX se utiliza en redes Novell NetWare y AppleTalk se ejecuta
en redes de computadoras Apple.
La siguiente tabla muestra los protocolos enrutados y los protocolos de enrutamiento que
son capaces de enrutarlos:
Protocolos enrutados y de enrutamiento.