Está en la página 1de 11

SINCRONIZACIÓN DE REDES DE TELECOMUNICACIONES

La sincronización es un aspecto intrínseco de los sistemas digitales y su objetivo es el de


satisfacer la necesidad de calidad de los servicios ofrecidos por la red, asignando tolerancias
de frecuencia en los nodos de conmutación y estableciendo los métodos de sincronización
más adecuados. La función de la sincronización es lograr que todas las centrales digitales
de la red trabajen con una señal de reloj básica idéntica o lo más parecida posible en
frecuencia y fase, a fin de controlar precisamente la tasa a la cual las señales digitales se
transmiten y procesan a través de dicha red.

La sincronización permite mantener todos los equipos de la red de telecomunicaciones


operando a una misma tasa promedio de datos, y deberá mantenerse en todo momento
frente a cualquier cambio en la topología de la red causado por factores tales como
interrupciones en los enlaces y en la conmutación, reconfiguración de la red, expansión, e
introducción de elementos de red de nuevas tecnologías.

La sincronización de una red digital se implementa temporizando los relojes de todas las
centrales de conmutación. Normalmente, se tiene un primer reloj de red, ubicado en los
controles del nodo fuente, desde donde los bits, los intervalos de tiempo y las tramas son
transmitidos, y un segundo reloj, ubicado en el nodo receptor, controlando la tasa con la
que la información es leída. El objetivo de la temporización de la red es mantener los relojes
de la fuente y del receptor en una misma frecuencia y fase, de modo que el receptor pueda
interpretar apropiadamente la señal digital. Cualquier diferencia en la temporización de los
nodos de la red causaría una interpretación diferente en la información recibida, es decir,
deslizamiento.

En las velocidades de comunicación primarias E1 (2 Mbps), se usan memorias para controlar


los deslizamientos. Los datos son temporizados en la memoria del equipo receptor a una
velocidad determinada por la tasa del transmisor. Estos datos son leídos desde la memoria
usando el reloj del receptor.
En una red digital integrada, las centrales pueden ser consideradas como fuentes de
información, que introducen mensajes en el sistema en forma de impulsos eléctricos
espaciados uniformemente: los bits. Los mensajes se envían a través del sistema de
transmisión y son conmutados hacia una nueva ruta desde cada central, a fin de alcanzar al
abonado llamado (ver Figura 65).

Fig 65. El emisor (fuente de información) introduce mensajes en el sistema (de transmisión
y conmutación) hasta alcanzar al abonado llamado (el receptor). Todos los relojes del
sistema deben estar sincronizados para que el receptor interprete adecuadamente la
información recibida.

Los bits llegan a cada central con su propia velocidad, que depende de factores como el
reloj de la central de origen, la distancia recorrida, la temperatura ambiente, etc., y son
llevados a un almacén temporal en la central de destino. La misión de este almacén
temporal, utilizado en cada uno de los enlaces entrantes en la central, es el de adaptar la
fase de la señal entrante (F1) con el reloj de la central (F2) (ver figura 66).
Fig 66. Señales de sincronismo en una central digital.

La operación de recepción y almacenamiento (escritura-E) de los bits entrantes, en el


almacén temporal, se realiza en una memoria elástica (intervalo de tiempo o "buffer") por
una señal de reloj que se extrae del flujo de bits entrante (Regenerador de Reloj). Los bits
almacenados son leídos (L) por el reloj de la central (F2) quien controla la conmutación
digital. La tasa de bits entrantes (F1) y la tasa del reloj de la central (F2) deben tener el
mismo valor medio a largo plazo para evitar deslizamientos.

Si la tasa promedio del reloj entrante es diferente de la del reloj de la central, la memoria
elástica eventualmente se desbordará o vaciará, dependiendo de cuál tasa sea la más
grande. Cuando la tasa de bits entrantes es mayor que la del reloj de la central, algunas de
las unidades de información almacenadas en la memoria elástica no alcanzan a ser leídas
antes de la llegada de las nuevas unidades, por lo que estas últimas se almacenan sobre las
anteriores produciéndose el desbordamiento de la memoria elástica y una pérdida de
información. Si la tasa de bits entrantes es menor que la del reloj de la central, algunas de
las unidades de información almacenadas en la memoria elástica alcanzan a ser leídas varias
veces antes de la llegada de las nuevas unidades, lo que causa la repetición de uno o más
bits de información ya transferidos y eventualmente, la memoria elástica se vacía. En ambas
situaciones, se produce la distorsión de la información (el deslizamiento).

Dependiendo del tipo de memoria elástica utilizada, las unidades de información que se
manejan pueden ser canales o tramas, por lo que se habla de "deslizamiento de canal" o
"deslizamiento de trama". La memoria elástica de trama es la más utilizada puesto que con
cada deslizamiento sólo se pierde una muestra de cada canal, y a la siguiente trama se
vuelve a recibir la información correcta. Con la memoria elástica de canal, en cambio, un
deslizamiento produce un desplazamiento de la información que transporta cada intervalo
de tiempo al siguiente, lo cual tiene efectos sobre las tramas subsiguientes.

Si las velocidades de lectura y escritura de los flujos digitales en las memorias elásticas no
son iguales, ocurrirán intervalos de tiempo repetidos o faltantes, o sea deslizamientos. Esto
significa que los deslizamientos consisten en la modificación de los intervalos de tiempo o
tramas en los sistemas reales, es decir, constituyen un proceso de supresión o inserción de
bits (tramas) dentro de un flujo digital debido a desigualdades en la temporización.

En lo que se refiere a los deslizamientos, tres son las causas fundamentales que los
ocasionan:

1. Relojes imperfectos: los relojes no son ideales sino que, al contrario, poseen
características que limitan su precisión y estabilidad. Por esta razón, relojes distintos
no operarán en un momento dado a la misma frecuencia, a menos que se tomen las
medidas necesarias.

2. Variaciones en los retardos de transmisión: los cambios en la temperatura ambiente


influyen sobre las características de propagación de los medios de transmisión,
modificando la longitud eléctrica de los mismos. Como consecuencia de ello, se
presentan variaciones en el retardo de transmisión de la señal que afectan su
velocidad de llegada.

3. Fluctuaciones: se llaman así a las variaciones en los tiempos de llegada de los bits a
la central, y se presentan de dos tipos: de alta frecuencia (jitter) y de muy baja
frecuencia (wander). El jitter es causado por los equipos de línea o repetidores
localizados a lo largo del trayecto de transmisión, y el wander es originado por las
características de los relojes, por las variaciones de los retardos de transmisión y por
el propio equipo de control del reloj.

4. Interrupción de la transmisión/Falla: debido a la interrupción por un instante en la


transmisión o por condición de falla, reencaminamientos, cambios automáticos de
la referencia de sincronización, interferencias, etc., puede generarse un
deslizamiento como resultado de un cambio en los factores antes mencionados.

Los deslizamientos no pueden eliminarse pero sí pueden controlarse, bien sea mediante el
uso de relojes altamente precisos, que minimizan la frecuencia del deslizamiento, o
asegurando que todas las señales y procesos dentro de la red sean sincrónicos lo cual, en
una situación ideal, elimina el deslizamiento.

El objetivo de la sincronización de red es el establecimiento de la tasa máxima permitida de


deslizamientos. Dicha tasa puede determinarse, tanto analizando la sensibilidad a los
deslizamientos de los servicios ofrecidos, como mediante el uso de una norma general
recomendada por la UIT-T que sea suficiente para todos los servicios.

Para cumplir los objetivos de tasa de deslizamientos, es necesario reducir su frecuencia,


para lo cual se requiere lo siguiente:

 Limitar las desviaciones de frecuencia entre todos los relojes de las centrales
digitales de la red, mediante su sincronización, eligiendo el método y la
configuración de red más adecuados.

 Reducir los efectos de la fluctuación de fase mediante la incorporación de memorias


de entrada elásticas, cuya lectura, para extraer la señal recibida, se retrasa
sistemáticamente un tiempo superior al valor máximo admisible de la fluctuación
de fase. Los equipos de sincronización deben admitir una fluctuación de fase a su
entrada que esté dentro de los límites máximos especificados por la UIT-T. Este
organismo ha establecido que no debe presentarse más de un deslizamiento en
setenta (70) días por enlace entre centrales.

El efecto causado por un deslizamiento depende en alto grado del tipo de información que
se ve involucrada. Los diferentes servicios prestados por la red digital de
telecomunicaciones poseen distintos grados de redundancia en la codificación de su
información; de este modo, si un deslizamiento afecta a un servicio con mayor redundancia,
las consecuencias del mismo serán menores que en el caso de un servicio con poca
redundancia.

La señal de voz digitalizada mediante la técnica PCM posee una gran redundancia, por lo
que un deslizamiento sólo produce un pequeño ruido a menudo inaudible para el usuario.
En centrales que sólo conmutan voz, bastaría con utilizar relojes con una precisión de 1 ppm
(partes por millón).

En el caso de datos a 64 kbps, la redundancia es menor que con la voz digitalizada con PCM,
lo cual hace necesaria la utilización de técnicas de detección y recuperación de errores en
la transmisión. Cuando un deslizamiento afecta el canal de datos, los códigos de detección
de errores permiten identificar esta situación, frente a la cual generalmente se solicita la
retransmición de la información. Esto tiene como consecuencia retardos en la transmisión.

Cuando se tienen varios canales de datos multiplexados en un mismo canal de 64 kbps, un


deslizamiento puede causar la pérdida de la alineación de trama de los datos y por
consiguiente un mal enrutamiento de la información hasta cuando se detecte la pérdida de
alineación.

Dependiendo de la técnica de codificación empleada, el efecto sobre el servicio de fax


puede ser crítico, ya que un deslizamiento puede producir el desplazamiento de una línea
y consecuentemente destruir la imagen haciendo necesaria su retransmisión.
¿QUÉ ES EL ENRUTAMIENTO?

Enrutamiento se refiere al proceso en el que los enrutadores aprenden sobre redes


remotas, encuentran todas las rutas posibles para llegar a ellas y luego escogen las mejores
rutas (las más rápidas) para intercambiar datos entre las mismas.
En otras palabras, los enrutadores deciden -después de examinar la dirección IP de
destino- dónde enviar los paquetes, para que eventualmente lleguen a su red de destino, o
simplemente descartan los paquetes si es que, por algun motivo, fallan todos los intentos
de enrutarlos.

Sin embargo, al principio un enrutador no conoce ninguna otra red que no sea la que está
directamente conectada al enrutador mismo. Para que un enrutador pueda llevar a cabo el
enrutamiento, primero debe saber de la existencia de redes remotas y, como explicamos
anteriormente, para que esto suceda, el enrutador tiene que estar configurado
con enrutamiento dinámico y / o enrutamiento estático. Aprendamos más sobre estos tipos
de enrutamiento.

ENRUTAMIENTO DINÁMICO Y ESTÁTICO.

Los enrutadores no necesitan ninguna configuración en absoluto para que puedan alcanzar
sus redes conectadas directamente, por lo contrario, tanto el enrutamiento estático,
el enrutamiento dinámico o ambos, se requieren para que unenrutador pueda aprender
sobre cualquier red remota.

Enrutamiento dinámico:
El enrutamiento dinámico se logra mediante el uso de un o más protocolos de
enrutamiento, como ser RIP, IGRP, EIGRP u OSPF.

Un enrutador configurado con un protocolo de enrutamiento dinámico puede:

1. Recibir y procesa las actualizaciones enviadas por enrutadores vecinos, que ejecutan
el mismo protocolo de enrutamiento.
2. Aprender sobre redes remotas por medio de las actualizaciones recibidas de
enrutadores vecinos.

3. Si existiesen múltiples rutas a una mismo red remota, aplicar un algoritmo para
determinar la mejor ruta, la más rápida.

4. Anunciar, a enrutadores vecinos, sobre sus rutas a redes remotas.

5. Actualizar sus rutas cuando, por algún motivo, ocurre algún cambio en la topología.

El enrutamiento dinámico posee un tiempo de convergencia más rápido y escala mucho


mejor en redes más grandes, comparándolo con el enrutamiento estático, pero el costo es
la utilización de más cantidad de recursos como ser RAM, ciclos del CPU (micro-procesador
del enrutador) y también más ancho de banda de la propia red.

Enrutamiento estático:
Con el enrutamiento estático, el enrutador es literalmente ordenado, por el administrador
de la red, por donde llegar a las redes remotas.
En otras palabras, el administrador configura manualmente las rutas estáticas en el
enrutador.
Es como decirle al enrutador, literalmente; "Para enviar paquetes a la red X, envíalos por la
interfaz X o, a la dirección IP del próximo salto X".

El enrutamiento estático, como ya hemos mencionado, tiene algunas desventajas en


comparación con el enrutamiento dinámico, con respecto a rendimiento y escalabilidad, sin
embargo, tiene sus ventajas también:

1. Control total sobre selección de ruta:


Una ruta estática le indica al enrutador, exactamente dónde enviar los datos, por lo
tanto, implementando enrutamiento estático también en los otros enrutadores de
la red, el administrador puede crear una ruta específica y controlada, por donde los
paquetes pueden llegar a su destino final.

2. Disponibilidad:
Debido a la naturaleza autónoma de los protocolos dinámicos, y en caso que ocurra
alguna falla, no siempre estará disponible la misma ruta, es decir, podría haber una
ruta alternativa en su lugar si la original falla.
Con rutas estáticas esto no es una opción. A menos que algo falle físicamente con la
ruta estática, la misma siempre estará allí ... es ... estática.

3. Fácil de implementar (en redes pequeñas):


Las rutas estáticas se configuran una línea de comandos a la vez, por lo tanto, si su
red sólo tiene unos pocos enrutadores, configurar enrutamiento estático es muy
fácil. Pero recordemos que se puede tornar muy complicado muy rápido en redes
más y más grandes.

4. Bajos "Gastos Generales" (Overhead).


Debido que al enrutador se le ha indicado literalmente por donde o a dónde enviar
los datos, no es necesario para el mismo hacer cálculos para encontrar el mejor
camino. Y ademas, y si por alguna razón la/s rutas estáticas fallan, el enrutador no
calculará una ruta alternativa.

QUÉ ES UN PROTOCOLO.

La definición de un protocolo es bastante corta y simple, sin embargo, es el "como" el que


va a requerir más tiempo y esfuerzo de nuestra parte cuando lleguemos a ese punto.
Aquí está la definición de ahora:

-Un protocolo es un estándar compuesto de reglas, procedimientos y formatos que definen


cómo lograr... algo.-

En cuanto a redes específicamente, un ejemplo sería un protocolo de enrutamiento, como


ser RIP, IGRP, EIGRP u OSPF. Estos protocolos de enrutamiento dictan cómo los paquetes se
transmiten de una red remota a otra.
O un protocolo enrutado, como ser IP, IPX o AppleTalk, que dicta la forma en que se
preparan los datos antes de que se pueda enrutar a otras redes.
PROTOCOLOS DE ENRUTAMIENTO VS ENRUTADOS.

Es posible que hayas escuchado los términos "protocolo de enrutamiento", y también


"protocolo enrutado", pero... ¿Cual es la diferencia?

Protocolo de enrutamiento.
Un protocolo de enrutamiento, como hemos visto anteriormente, le indica al enrutador
como enrutar. Es decir, un protocolo de enrutamiento se configura en un enrutador para
que el mismo aprenda las mejores rutas disponibles y luego "enrute" los paquetes a través
de estas rutas, hasta su destino final.
Básicamente, el protocolo de enrutamiento establece las reglas sobre cómo un enrutador
aprende redes remotas y luego anuncia estas redes a enrutadores vecinos dentro del
mismo sistema autónomo (o AS por sus siglas en ingles).
Nota: En breve veremos lo que es un sistema autónomo.

Protocolo enrutado.
Un protocolo enrutado, por lo contrario, es el protocolo que está siendo enrutando por el
protocolo de enrutamiento, a través de las rutas más rápidas hacia, su destino final.
Recuerda esto;

El "protocolo enrutado", es enrutado por el "protocolo de enrutamiento".

En este caso, el protocolo enrutado se encarga de establecer las reglas sobre cómo se
preparan los datos antes de ser enrutados. Por ejemplo, el protocolo IP es un protocolo
enrutado, transporta datos de usuario tales como archivos, correos electrónicos, etc., y
determina (entre otras cosas) cómo estos datos se "dividen" en paquetes, de modo que
puedan ser enrutados por el protocolo de enrutamiento.
Cual de los protocolos enrutados será enrutado por el protocolo de enrutamiento -decir
esto 10 veces rápido : O) - depende del tipo de red en sí, por ejemplo; IP es el protocolo
utilizado en las redes TCP / IP, IPX se utiliza en redes Novell NetWare y AppleTalk se ejecuta
en redes de computadoras Apple.
La siguiente tabla muestra los protocolos enrutados y los protocolos de enrutamiento que
son capaces de enrutarlos:
Protocolos enrutados y de enrutamiento.

De estos protocolos enrutados, el más popular y por mucho, es el Protocolo de Internet (o


simplemente IP por sus siglas en ingles). Esto se debe a que las redes TCP/IP son el tipo de
redes más populares del planeta.

También podría gustarte