Está en la página 1de 20

Departamento de Control y de Telecomunicaciones. Evolución de Ethernet.

3. ETHERNET CONMUTADO

En las redes Ethernet compartidas, las estaciones que están conectadas a un mismo segmento de red
constituyen un dominio de colisión; es decir, todas las estaciones, en su afán de apoderarse del medio
compartido, eventualmente provocan una colisión.

Una de las maneras de controlar el número de colisiones consiste en emplear un dispositivo de capa 2
(es decir, que entiende de direcciones MAC), como es el caso de un puente.

3.1 PUENTES

El término puenteo se refiere a la tecnología en la cual un dispositivo conocido como puente conecta dos
o más segmentos de la LAN. Un puente transmite datagramas de un segmento a sus destinos en otros
segmentos. Cuando un puente se activa y empieza a operar, examina la dirección MAC de los
datagramas entrantes y crea una tabla de destinos conocidos. Si el puente sabe que el destino de un
datagrama se encuentra en el mismo segmento que el origen del datagrama, descarta el datagrama ya
que no hay necesidad de transmitirlo. Si el puente sabe que el destino se encuentra en otro segmento,
transmite el datagrama a ese segmento solamente. Si el puente no conoce el segmento destino,
transmite el datagrama a todos los segmentos salvo el segmento origen (técnica conocida como
inundación). La ventaja principal de la técnica de puenteo es que limita el tráfico a ciertos segmentos de
red.

Un puente puede eliminar el tráfico innecesario en una red con mucha actividad dividiendo la red en
segmentos y filtrando el tráfico basándose en la dirección MAC de la estación. El tráfico entre los
dispositivos del mismo segmento no cruza el puente ni afecta a otros segmentos. Esto funciona bien,
siempre y cuando el tráfico entre segmentos no sea demasiado pesado. Caso contrario, el puente se
puede transformar en un cuello de botella, y de hecho puede reducir la velocidad de la comunicación.
Esto se debe a que para realizar el filtrado de tramas el puente tiene que chequear la dirección MAC
destino que viene en la trama y esto representa un cierto tiempo de trabajo. En términos generales,
cuando un dispositivo, por efectuar labores de control o chequeo, demora el paso de la información, se
dice que introduce un retardo (latency). El puente al examinar la dirección MAC destino introduce un
retardo.

Los puentes operan en la capa de enlace de datos, o sea, en la Capa 2 del modelo OSI. Los puentes
filtran el tráfico de red observando sólo la dirección MAC, no las direcciones IP o protocolos. De allí que
es habitual que un puente transporte protocolos y otro tipo de tráfico entre dos o más redes. Como los
puentes sólo verifican las direcciones MAC, pueden enviar rápidamente tráfico que provenga de
cualquier protocolo de capa de red. Para filtrar de forma selectiva el tráfico de red, un puente utiliza
tablas que contienen todas las direcciones MAC de todas las estaciones conectadas en aquellos
segmentos de red directamente conectados al mismo (Figura 3.1).

Tradicionalmente, el término puente se refiere a un dispositivo con dos puertos. Sin embargo, también es
posible hallar puentes con 3 o más puertos.

Dr. Luis Corrales Pág. - 61 -


Departamento de Control y de Telecomunicaciones. Evolución de Ethernet.

Figura 3.1. Segmentación de una red con puentes.

El puente compara la dirección MAC destino que contiene la trama con las direcciones MAC de las
tablas. Si el puente determina que la dirección MAC destino de la trama pertenece al mismo segmento
de red que el origen, no deja pasar la trama hacia los otros segmentos de la red. Si el puente determina
que la dirección MAC destino de la trama no está en el mismo segmento de red que la fuente, envía los
datos al segmento correspondiente. Al hacer esto, los puentes pueden reducir significativamente la
cantidad de tráfico. Los puentes tienen como única función entonces pasar o no dejar las tramas,
basándose en la dirección destino MAC.

Las LAN Ethernet que utilizan un puente para segmentar la LAN proporcionan más ancho de banda por
usuario porque existen menos usuarios en cada segmento. En comparación, las LAN que no utilizan
puentes para la segmentación proporcionan menos ancho de banda por usuario ya que existen más
usuarios en una LAN no segmentada.

Existe un problema que no puede resolver un puente. Los puentes siempre difunden ciertos paquetes de
datos. Estos paquetes de datos aparecen cuando un dispositivo de la red desea comunicarse con otro
dispositivo, pero no conoce la dirección destino del dispositivo. Cuando esto ocurre, el origen envía un
broadcast a todos los dispositivos de la red. Como todos los dispositivos de la red tienen que prestar
atención a estos broadcasts, los puentes siempre los envían. Si se envían demasiados broadcasts a
través de la red, se puede provocar lo que se denomina una tormenta de broadcast. Una tormenta de
broadcast puede retrasar la información más allá de los límites de tiempo tolerables, causar demoras en
el tráfico y hacer que la red no pueda operar a un nivel óptimo.

3.1.1. ¿Cómo un puente aprende las direcciones?

Los puentes "aprenden" las direcciones de las estaciones de las redes construyendo tablas de
direcciones que contienen la dirección MAC de cada dispositivo y qué segmento utilizar para alcanzar
esos dispositivos. Además, los puentes son transparentes para los demás dispositivos de la red.

Dr. Luis Corrales Pág. - 62 -


Departamento de Control y de Telecomunicaciones. Evolución de Ethernet.

El puenteo transparente es llamado “transparente” porque las estaciones conectadas a la red no


necesitan saber que un Puente(s) existe. En otras palabras, las computadoras conectadas a la LAN no
se comportan diferentes, en la presencia o ausencia de un puente.

Los puentes transparentes dejan pasar las tramas solo cuando es necesario hacerlo, logrando así
reducir tráfico innecesario en las redes. Para conseguir esto, los puentes transparentes realizan tres
tareas:

• Aprenden las direcciones MAC examinando la dirección MAC fuente de cada trama que
el Puente recibe.
• Deciden cuando enviar o no una trama, basados en la dirección MAC destino.
• Crean un ambiente libre de lazos (loop-free environment) con otros puentes, empleando
el protocolo “Spanning Tree”.

Para entender la lógica del puenteo transparente, considere la actividad que se ilustra en la Figura 3.2. Un
cliente primeramente solicita por una resolución de nombre al servidor DNS para luego conectarse al
servidor Web server. Se supone que todos los dispositivos están en el mismo segmento de red. Si bien el
gráfico muestra una conexión 10Base2 o 10Base5 se aplica igual para una 10BaseT que usa un hub.

Figura 3.2 Ejemplo de flujo de mensajes en un segmento simple Ethernet.

La lista siguiente provee mayor explicación sobre las tareas realizadas en la Figura 3.2:

Dr. Luis Corrales Pág. - 63 -


Departamento de Control y de Telecomunicaciones. Evolución de Ethernet.

1 La PC está preconfigurada con la dirección IP del servidor DNS; por lo tanto debe hacer
una petición ARP para encontrar la dirección MAC del DNS.
2 El DNS responde a la petición ARP con la dirección MAC, 0200.2222.2222.
3 La PC ahora solicita una resolución de nombre al DNS del servidor Web.
4 El DNS regresa la dirección IP del servidor Web a la PC.
5 La PC no sabe la dirección MAC del servidor Web, pero si sabe la su dirección IP, así
que la PC genera una petición ARP broadcast para saber la dirección MAC del servidor
Web.
6 El servidor Web responde a la petición ARP, indicando que su dirección MAC es
0200.3333.3333.
7 La PC puede ahora enviar sus tramas directamente al servidor Web.

Un punto vale la pena enfatizar: todas las tramas son recibidas por todas las estaciones. Esto se debe a
que Ethernet es una tecnología tipo broadcast; es decir, cuando un dispositivo envía un mensaje, todas
las estaciones del segmento reciben el mensaje. Cada dispositivo debe luego decidir si procesa o no la
trama recibida.

¿Porqué molestarse señalando que todos los dispositivos en el segmento de red reciben la trama? Es
que debe entenderse que un Puente transparente no siempre envía una copia de una trama a cada
segmento conectado al mismo. Para ver la diferencia considere el flujo de mensajes cuando el servidor
DNS está en un segmento aparte con un puente separando los segmentos, tal como se muestra en la
Figura 3.3. Las computadoras no actúan diferente en su función de enviar las tramas. (Recuerde, un
Puente “transparente” es transparente a los dispositivos del usuario final). El puente transparente envía
todos los broadcasts, todos los mensajes unicast cuyo destino no está en la tabla del puente, y los
multicasts.

Dr. Luis Corrales Pág. - 64 -


Departamento de Control y de Telecomunicaciones. Evolución de Ethernet.

Figura 3.3. Ejemplo de flujo de mensajes cuando fuente y destino no están en mismo segmento

La Figura 3.3 ilustra varias importantes ideas relacionadas a la segmentación. Para visualizar la
verdadera function del puente, considere el Paso 7 y el estado de la tabla de direcciones después del
Paso 6. Debido a que el puente conoce la dirección MAC unicast de todos los tres dispositivos, cuando
los clientes envían la trama al servidor Web (Paso 7), el puente simplemente se pregunta: “Debería
enviar esta trama?” Debido a que la trama llegó al puerto E0 del puente y el servidor Web
(0200.3333.3333) está también en ese puerto E0 no hay necesidad de enviar la trama.

La lista que sigue detalla la lógica usada en cada paso del proceso de la Figura 3.3:

1 La primera trama es una broadcast, entonces el Puente envía la trama. La dirección


MAC de la fuente, 0200.1111.1111, es añadida a la tabla de direcciones.
2 La respuesta ARP es una unicast destinada a 0200.1111.1111, por lo tanto el Puente
sabe que tiene que enviarla por el Puerto E0, en concordancia con la tabla de
direcciones. La MAC fuente de la trama, 0200.2222.2222, es añadida a la tabla de
direcciones.
3 El pedido del DNS request es una trama unicast, y el Puente sabe donde la dirección
destino, 0200.2222.222, está. El Puente consecuentemente envía la trama. El Puente
chequea la dirección fuente (0200.1111.1111) y nota que ya está en la tabla.

Dr. Luis Corrales Pág. - 65 -


Departamento de Control y de Telecomunicaciones. Evolución de Ethernet.

4 La respuesta DNS es unicast, con una dirección destino conocida (0200.1111.1111) y


una dirección fuente también conocida (0200.2222.2222). El Puente deja pasar la trama.
5 El mensaje ARP broadcast está destinado a una dirección MAC FFFF.FFFF.FFFF, así
que es enviada por el Puente, a pesar del hecho que el mensaje ARP broadcast llegará
al servidor Web sin que el puente envíe la trama.
6 La respuesta ARP desde el servidor Web es una unicast a 0200.1111.1111, y el Puente
tiene ya esa dirección MAC en su tabla de direcciones. El puente no envía la trama
porque llegó por el Puerto E0 y está destinada hacia fuera del mismo puerto. La
dirección MAC de la fuente, 0200.3333.3333, es añadida a la tabla de direcciones.
7 La última trama es una unicast cuya dirección MAC destino (0200.3333.3333) está en la
tabla de direcciones, y el puente no debería dejarla pasar.

En resumen, las redes que usan puentes tienen las características generales siguientes:

• Las tramas Broadcasts y multicast son permitidas pasar por el puente.

• Los puentes transparentes realizan la conmutación de las tramas empleando los


headers de la Capa 2 y la lógica de la misma Capa 2 y son independientes del protocolo
de la Capa 3. Esto significa que su instalación es simple pues no hay que hacer ninguna
planificación de grupos de direcciones de Capa 3 y no hay necesidad de cambios de
direcciones. Además, debido a que el puente conforma un solo dominio de broadcast,
todos los dispositivos conectados a todos los segmentos del puente son vistos como una
subred única.

• La operación de almacenar-y-enviar (Store-and-forward) es típica de los puentes


transparentes. Puesto que una trama entera debe ser recibida antes de ser enviada, una
latencia adicional se introduce en comparación con una red Lan simple.

• El Puente transparente debe realizar cierto procesamiento de la trama lo que también


aumenta la latencia (así mismo en comparación a un segmento simple de LAN).
Los puentes aumentan la latencia en una red de 10% a 30%. El tiempo que lleva realizar todas estas
tareas hace que las transmisiones de red sean más lentas, lo que provoca latencia.

Cada bit de Ethernet de 10 Mbps posee una ventana de 100 ns para realizar la transmisión. Un byte es
igual a 8 bits Por lo tanto, 1 byte tarda un mínimo de 800 ns para transmitirse. Una trama de 64 bytes
tarda 51.200 ns o 51,2 microsegundos para transmitirse (64 bytes a 800 ns equivalen a 51.200 ns y
51.200 ns/1000 equivalen a 51,2 microsegundos). El tiempo de transmisión de un paquete de 1000 bytes
desde una estación de trabajo 1 a un servidor o estación de trabajo 2, requiere 800 microsegundos
debido a la latencia de los dispositivos de la red.

3.2. LAN Switching

Se dijo que la conmutación es una tecnología que reduce la congestión en las LAN Ethernet, Token Ring
y la Interfaz de datos distribuida por fibra (FDDI) reduciendo el tráfico y aumentando el ancho de banda.
Los switches LAN se utilizan frecuentemente para reemplazar hubs compartidos. Están diseñados para
funcionar con infraestructuras de cable ya existentes, de manera que se puede instalar sin provocar
disturbios en el tráfico de red existente.
Actualmente en la comunicación de datos, todos los equipos de conmutación realizan dos operaciones
básicas:

• Conmutación de tramas de datos: Esto ocurre cuando una trama llega a un medio de entrada y
se transmite a un medio de salida.

Dr. Luis Corrales Pág. - 66 -


Departamento de Control y de Telecomunicaciones. Evolución de Ethernet.

• Mantenimiento de las operaciones de conmutación: un switch desarrolla y mantiene las tablas de


conmutación.

Tanto puentes como switches que conectan los segmentos de LAN, utilizan una tabla de direcciones
MAC para determinar el segmento al que se debe transmitir un datagrama y reducen el tráfico. Los
switches son más funcionales que los puentes en las redes actuales porque operan a una velocidad
mucho más grande que los puentes y soportan nueva funcionalidad, tal como, las LAN virtuales (VLAN).

Los puentes se conectan generalmente utilizando software; los switches se conectan generalmente
utilizando hardware.

Una LAN que utiliza una topología de Ethernet conmutada crea una red que se comporta como si tuviera
solamente dos nodos: el nodo emisor y el nodo receptor. Estos dos nodos comparten el ancho de banda
de 10 Mbps entre sí, lo que significa que casi todo el ancho de banda está disponible para la transmisión
de datos. Dado que una LAN Ethernet conmutada utiliza el ancho de banda de manera tan eficiente,
puede proporcionar una topología de la LAN más rápida que las LAN Ethernet. En la implementación de
Ethernet conmutado, el ancho de banda disponible puede alcanzar cerca de 100%.

Figura 3.4. Microsegmentqación con un switch.


La conmutación de Ethernet aumenta el ancho de banda disponible en una red creando segmentos de
red dedicados (es decir, conexiones punto a punto) y conectando dichos segmentos en una red virtual
dentro del switch. Un switch de LAN permite que varios usuarios puedan comunicarse en paralelo
usando circuitos virtuales y segmentos de red dedicados en un entorno sin colisiones. Este circuito de
red virtual existe solamente cuando dos nodos necesitan comunicarse. Es por ello que se llama circuito
virtual, existe solamente cuando se necesita y se establece dentro del switch. Esto maximiza el ancho de
banda disponible en el medio compartido. Finalmente, el poder del switch combinado con el software
para la configuración de las LAN, otorga a los administradores de red gran flexibilidad para el manejo de
la red.

Un switch Ethernet emplea la misma lógica que un Puente transparente. Sin embargo, los switches
realizan mas funciones, tiene más caractrísticas, y tiene más puertos físicos. Los Switches emplean
hardware para aprender las direcciones y para tomar sus decisions de envío o filtraje. Los puentes
emplean software que corre en procesadores de propósito general, así que tienden a ser más lentos que
los switches. La razón para estas diferencias es simplemente la época de tiempo en que cada tecnología

Dr. Luis Corrales Pág. - 67 -


Departamento de Control y de Telecomunicaciones. Evolución de Ethernet.

fue desarrollada: Los Switches se desarrollaron más tarde y aprovecharon las ventajas del nuevo
hardware, tal como circuitos integrados de aplicación específica (ASICs).

3.2.1 ¿Cómo un switch aprende sus direcciones?

Un switch Ethernet puede aprender la dirección de cada dispositivo de la red leyendo la dirección origen
de cada paquete transmitido y anotando el puerto por donde la trama se introdujo en el switch. El switch
luego agrega esta información a su base de datos de envío. Las direcciones se aprenden de forma
dinámica. Esto significa que, a medida que se leen las nuevas direcciones, éstas se aprenden y se
almacenan en una memoria de contenido direccionable (CAM). Cuando se lee un origen que no se
encuentra en la CAM, se aprende y almacena para su uso futuro.
Cada vez que una dirección se almacena, se le agrega una marca horaria. Esto permite almacenar las
direcciones durante un período de tiempo determinado. Cada vez que se hace referencia a una dirección
o que se encuentra en CAM, recibe una nueva marca horaria. Las direcciones a las cuales no se hace
referencia durante un determinado período de tiempo, se eliminan de la lista. Al eliminar direcciones
antiguas, CAM mantiene una base de datos de envío precisa y funcional.
Si se mira la lógica básica de envío / filtrado, al igual que en un puente, la lógica un switch LAN es:

1 Se recibe una trama.


2 Si el destino es una dirección broadcast o multicast, enviarla por todos los puertos.
3 Si el destino es unicast y la dirección no está en la tabla de direcciones, entregarla por
todos los puertos.
4 Si el destino es unicast y la dirección está en la tabla de direcciones, y si la interfaz
asociada no es aquella por donde la trama llegó, dejar pasar la trama.

Para entender esta lógica tome el ejemplo de la Figura 3.5.

Dr. Luis Corrales Pág. - 68 -


Departamento de Control y de Telecomunicaciones. Evolución de Ethernet.

Figura 3.5. Flujo de mensajes con un switch.

Parecería que pasa lo mismo que en el Puente, pero hay algunas diferencias. La diferencia física más
importante es que cada dispositivo está conectado a Puerto separado, mientras en el puente le cliente y
el servidor Web comparten el mismo pórtico del puente.

Lo siguiente provee información adicional sobre el flujo que se produce en el caso de la Figura 3.5

1 La PC esta preconfigurada con la dirección IP del DNS. La PC nota que la IP del DNS
está en el mismo segmento de su propia dirección IP; por consiguiente, la PC envía una
petición broadcast ARP con el fin de conocer la dirección MAC del DNS. Esta trama es
enviada por todos los puertos del switch, igual como lo hizo el puente transparente.
2 El DNS responde a la petición ARP con su dirección MAC, 0200.2222.2222. La dirección
MAC destino es 0200.1111.1111, la cual está ya en la tabla de direcciones, así que el
switch envía esta trama solo por el puerto E0.
3 La PC solicita una resolución de nombre para el servidor Web enviando un paquete con
dirección IP destino la del DNS. La MAC destino es 0200.2222.2222, que está ya en al
tabla de direcciones, entonces el switch envía esta trama solo por el puerto E2.
4 El DNS responde a la PC con la dirección IP del servidor Web. La MAC destino es
0200.1111.1111, la cual ya está en la tabla de direcciones, por lo que el switch envía
esta trama solo por el puerto E0.
5 La PC no sabe la dirección MAC del servidor Web, por lo tanto envía una petición ARP
broadcast para conocer esa dirección MAC. Puesto que es un MAC broadcast, el switch
envía la petición por todos los puertos.
6 El servidor Web responde a la petición ARP, indicando que su dirección MAC es
0200.3333.3333. Esta trama tiene como dirección destino MAC 0200.1111.1111, la cual
está ya en la tabla de direcciones, así que el switch envía esta trama solo por el puerto
E0.
7 La PC puede ahora conectarse con el servidor Web server. Esta trama tiene una MAC
destino 0200.3333.3333, que está ya en la tabla de direcciones, entonces el switch
envía esta trama solo por el puerto E1.

El switch se comporta exactamente como un Puente transparente lo haría si tuviera tres puertos en vez
de dos. Como se ve, el switch aprende las direcciones MAC examinando las direcciones MAC fuente y
tomando decisiones basado en el contenido de la tabla de direcciones.

Se dijo que un switch de LAN permite que varios usuarios puedan comunicarse en paralelo usando
circuitos virtuales y segmentos de red dedicados en un entorno sin colisiones. Esto maximiza el ancho
de banda disponible en el medio compartido. Otra gran ventaja es que se puede trabajar con segmentos
de red que trabajan a distintas velocidades.

3.3. CONMUTACION SIMETRICA Y ASIMETRICA

La conmutación simétrica describe a un switch de LAN que proporciona conexiones conmutadas entre
puertos con el mismo ancho de banda, tal como todos los puertos de 10 Mbps o todos los puertos de
100 Mbps. Como aparece en la Figura 2.6 un switch de LAN asimétrico proporciona conexiones
conmutadas entre puertos con distinto ancho de banda por ejemplo, una combinación de puertos de 10
Mbps y de 100 Mbps.

Dr. Luis Corrales Pág. - 69 -


Departamento de Control y de Telecomunicaciones. Evolución de Ethernet.

Figura 2.6. Conmutación asimétrica.


La conmutación asimétrica hace que la mayor parte del tráfico de red cliente/servidor fluya donde
múltiples clientes se están comunicando con un servidor al mismo tiempo, por lo que se necesita más
ancho de banda dedicado al puerto del switch al cual está conectado el servidor a fin de evitar el cuello
de botella en ese puerto. Como se ve más adelante, se requiere un búfering de memoria en un switch
asimétrico para permitir que el tráfico del puerto de 100 Mbps pueda enviarse al puerto de 10 Mbps sin
provocar demasiada congestión en el puerto de 10 Mbps.

La conmutación de LAN compensa la escasez de ancho de banda y los cuellos de botella de la red,
como los que aparecen entre varios PCs y un servidor de archivos remoto. Un switch puede segmentar
una LAN en microsegmentos, que son segmentos de un solo host. Esto crea dominios libres de colisión
a partir de un dominio de colisión grande. Aunque el switch de LAN elimina los dominios de colisión,
todos los hosts conectados al switch siguen estando en el mismo dominio de broadcast. Por lo tanto,
todos los nodos conectados a través del switch de LAN pueden ver un broadcast desde un solo nodo.

Otra alternativa para satisfacer la demanda de más ancho de banda consiste en aumentar la velocidad
de los dispositivos de redes involucrados en la conectividad: Fast Ethernet.

3.4. FAST ETHERNET

En 1993 un grupo de 60 compañías fabricantes de productos para redes se juntaron y formaron la


alianza de Fast Ethernet entre ellas se puede nombrar Asante, Bay Network, Chipcom, Digital, IBM entre
otras. El objetivo de este grupo fue promover la estandarización de Fast Ethernet que llamaron 802.3u
100Base-T de la IEEE. El esfuerzo técnico de esta alianza acelera el proceso de desarrollo del estándar
y su posterior aprobación en junio de 1995 por la IEEE. Dentro de los objetivos específicos perseguidos
por este grupo se puede citar:

1. Mantener el CSMA/CD (Protocolo de transmisión Ethernet, "Carrier Sense Multiple


Access Collision Detection") que consiste en que las estaciones detectan si la linea esta
libre antes de empezar a transmitir, si el canal esta disponible comienza a trasmitir. Si

Dr. Luis Corrales Pág. - 70 -


Departamento de Control y de Telecomunicaciones. Evolución de Ethernet.

hay alguna colisión (Choque de dos o más paquetes de información) debido a que dos
estaciones comenzaron a transmitir al mismo tiempo, las estaciones esperaran un
tiempo aleatorio y vuelven a intentar la transmisión.
2. Soportar los esquemas populares de cableados (ej. 10Base-T).
3. Asegurar que la tecnología Fast Ethernet no requiera cambios en los protocolos de las
capas superiores, ni en el software que corre en las estaciones de trabajo de la red LAN.
Como por ejemplo no se necesita cambios para el software de SNMP (Simple Network
Management Protocolo) ni para MIBS (Management Information Bases).

El objetivo principal de la alianza fue asegurar que se pueda pasar del Ethernet tradicional a Fast
Ethernet, manteniendo el protocolo tradicional de transmisión de Ethernet (CSMA/CD). Además, el grupo
de trabajo realizó importantes aportes al desarrollo de Fast Ethernet, como : Contribución en el multi-
level transmit (MLT-3), tecnología de codificación en línea que permite transmisiones a 100 Mbps, tanto
a Fast Ethernet como a FDDI (Fiber Distributed Data Interface), corriendo bajo cable categoría 5 UTP.
Desarrollo de la especificación MII (Media Independent interface), la cual soporta tranceiver externos en
la capa física y que equivale a un AUI (Auxiliay Unit Interface) en 10Base-T.

Entonces, Fast Ethernet es una Ethernet que se ha actualizado a 100 Mbps. Este estándar utiliza la
topología de bus lógica tipo broadcast similar al estándar de 10BASE-T, junto con el método CSMA/CD
para el Control de Acceso al Medio (MAC) el mismo que puede ser desactivado para topologías full-
duplex punto-a-punto en las que no pueden ocurrir colisiones.
El estándar Fast Ethernet en realidad se compone de varios estándares distintos basados en cable de
par de cobre (100BASE-TX) y en cable de fibra óptica (100BASE-FX), y se utiliza preferentemente para
las acometidas que conforman el backbone o cableado vertical; por ejemplo para conectar el MDF al
IDF.

Figura 3.7. Aplicación de Fast Ethernet.


Las dos características claves de Fast Ethernet, en comparación con 10-Mbps Ethernet, son ancho de
banda más alto y auto-negociación. Se tiene además la gran ventaja que supone el pequeño gasto de
actualización a Fast Ethernet, si se lo compara con soluciones como FDDI o ATM, al mismo tiempo que
mantiene una total compatibilidad e interoperabilidad con Ethernet.

De la primera característica basta decir que opera a 100 Mbps. La auto-negociación le permite a una
tarjeta Ethernet o a un switch operar a 10 o 100 Mbps. También, se negocia la operación half-duplex o
full-duplex. Si un dispositivo, por ejemplo una NIC 10BaseT, no posee auto-negociación, la auto-
negociación escoge operación half-duplex a 10 Mbps. Se han reportado fallas de la auto-negociación por
lo que se suele recomendar que para dispositivos que rara vez se mueven se debería configurar el
switch LAN y el dispositivo para que usan una configuración predefinida antes que dependan de la auto-
negociación.

Dr. Luis Corrales Pág. - 71 -


Departamento de Control y de Telecomunicaciones. Evolución de Ethernet.

A medida que la red crece, aumenta la necesidad de contar con mayor cantidad de ancho de banda. En
el cableado vertical entre el MDF y los IDF, las fibras ópticas no utilizadas se pueden conectar desde el
VCC hacia los puertos de 100 Mbps en el switch. La red que se muestra en la Figura 3.8 duplica la
capacidad del cableado vertical al activar otro enlace.

Figura 3.8. Migración desde 10 Mbps a 100 Mbps.


En el cableado horizontal, se puede aumentar el ancho de banda a 10 veces su tamaño realizando una
nueva conmutación desde el HCC hacia un puerto de 100 Mbps en el switch y cambiando un hub de 10
Mbps por un hub de 100 Mbps. Cuando se establece el tamaño del switch de LAN de Capa 2, es
importante asegurarse de que haya suficientes puertos de 100 Mbps para permitir esta migración hacia
un ancho de banda mayor. Es importante documentar la velocidad a la que funciona cada derivación de
cable activa.

Características

Full-Duplex

La comunicación Full-Duplex para 100BaseTX y 100BaseFX es llevada a cabo desactivando la


detección de las colisiones y las funciones de loopback. Esto es necesario para asegurar una
comunicación fiable en la red. Sólo los switches pueden ofrecer Full-Duplex cuando están directamente
conectados a estaciones o a servidores. Los hubs compartidos en 100BaseT deben operar a Half-
Duplex para detectar colisiones entre las estaciones de los extremos.

Auto-negociación

La especificación 100BaseT describe un proceso de negociación que permite a los dispositivos a cada
extremo de la red intercambiar información y automáticamente configurarse para operar juntos a la
máxima velocidad. Por ejemplo, la auto-negociación puede determinar si un nodo de100 Mbps se
conecta a uno de 10 Mbps o a un adaptador de 100 Mbps y entonces ajusta su modo de funcionamiento.

Dr. Luis Corrales Pág. - 72 -


Departamento de Control y de Telecomunicaciones. Evolución de Ethernet.

Esta actividad de la auto-negociación se realiza por medio de lo que se llama Pulso de Enlace Rápido
(FLP), identifica la tecnología de la capa física más alta y puede ser usada a través de ambos
dispositivos, como 10BaseT, 100BaseTX, o 100BaseT4. La definición de la auto-negociación también
proporciona una función de descubrimiento paralela que permite 10BaseT Half y Full-Duplex,
100BaseTX Half y Full-Duplex, y 100BaseT4. Las capas físicas pueden ser reconocidas, aun cuando
uno de los dispositivos conectados no tenga implementada la auto-negociación.

El control del flujo puede implementarse en base a un enlace-enlace o en base a un extremo-extremo y


permite a todos los dispositivos reducir la cantidad de datos que reciben. Como el control del flujo tiene
implicaciones más allá de Full-Duplex y de la subcapa MAC, los métodos y normas todavía están bajo
consideración por el comité IEEE 802.3x.

3.5. GIGABIT ETHERNET

Necesidades

La aparición de aplicaciones de tipo intranet pronosticaron una migración a nuevos tipos de datos,
incluso vídeo y voz. Antes se pensaba que el vídeo podría requerir una tecnología de gestión de redes
diferente, diseñada específicamente para la multimedia. Pero hoy es posible mezclar datos y vídeo sobre
Ethernet a través de una combinación de:

• Aumentos del ancho de banda proporcionados por Fast Ethernet y Gigabit Ethernet, reforzados por
LANs conmutadas.
• La aparición de nuevos protocolos, como RSVP, que proporciona reserva del ancho de banda.
• La aparición de nuevas normas como 802.1q y/o 802.1p que proporcionará VLANs y la información
de prioridad explícita para los paquetes en la red.
• El uso extendido de compresión de vídeo avanzada, como MPEG-2.

Estas tecnologías y protocolos se combinan para hacer a Gigabit Ethernet una solución sumamente atractiva
para la entrega de vídeo y tráfico multimedia.

La Tecnología

Gigabit Ethernet es una extensión a las normas de 10-Mbps y 100-Mbps IEEE 802.3. Ofreciendo un
ancho de banda de 1000 Mbps. Gigabit Ethernet mantiene compatibilidad completa con la base instalada
de nodos Ethernet.

Gigabit Ethernet soporta nuevos modos de operación Full-Duplex para conexiones conmutador-
conmutador y conexiones conmutador-estación y modos de operación Half-Duplex para conexiones
compartidas que usan repetidores y los métodos de acceso CSMA/CD. Inicialmente operando sobre
fibra óptica, Gigabit Ethernet también podrá usar cableados de par trenzado sin apantallar (UTP) y
coaxiales de Categoría 5.

Las implementaciones iniciales de Gigabit Ethernet emplearán Cableados de Fibra de gran velocidad, los
componentes ópticos para la señalización sobre la fibra óptica serán 780-nm (longitud de onda corta) y
se usará el esquema 8B/10B para la serialización y deserialización. Está reforzándose la tecnología de
Fibra actual que opera a 1.063 Gbps para correr a 1.250 Gbps, proporcionando así los 1000-Mbps
completos. Para enlaces a más largas distancias, por encima de al menos 2 Km usando fibra monomodo
y por encima de 550 metros con fibra multimodo de 62.5. También se especificarán ópticas de 1300-nm
(longitud de onda larga).

Dr. Luis Corrales Pág. - 73 -


Departamento de Control y de Telecomunicaciones. Evolución de Ethernet.

Se espera que en un futuro, cuando los avances tecnológicos en procesos digitales lo permitan, Gigabit
Ethernet opere sobre par trenzado sin apantallar (UTP). Para acomodar esto, se especificará una
interfaz lógica entre las capas MAC y PHY. Las contribuciones técnicas a IEEE están investigando
mecanismos para soportar distancias de enlaces cortas para el uso entre los armarios concentradores,
así como las distancias superiores a 100 metros sobre cables UTP de Categoría 5.

Conclusión:

Los objetivos importantes son desarrollar una norma Gigabit Ethernet que:
• Permita Half y Full Dúplex a velocidades de 1000 Mbps.
• Use el formato de trama del 802.3/Ethernet.
• Use los métodos de acceso CSMA/CD con soporte para un repetidor por dominio de colisión.
• Mantenga total compatibilidad con las tecnologías 10BaseT y 100BaseT.

Además, se especifican tres objetivos específicos para los enlaces a distancia:

1. Un enlace de fibra óptica multimodo con una longitud máxima de 500 metros;
2. Un enlace de fibra óptica monomodo con una longitud máxima de 2 Km; y
3. Un enlace basado en cobre (cable coaxial por ejemplo), con una longitud máxima de al menos 25
metros.

El IEEE está investigando tecnologías que puedan dar soporte a enlaces de distancias de al menos 100
metros sobre cableados UTP de categoría 5. También han decidido incluir una especificación para una
Media Independent Interface (MII) opcional.

Generalmente, para los puertos que se emplean para los dispositivos del usuario final, la auto
negociación se habilita ya que estos dispositivos tienden a ser movidos con relativa frecuencia en
comparación con otros dispositivos como servidores y routers.

CSMA/CD todavía se emplea pero se deshabilita para dar soporte a comunicaciones full-duplex. Es muy
probable que puertos de switch Gigabit Ethernet serán empleados más comúnmente para Gigabit
Ethernet, así como trunk entre switches and routers de alto rendimiento (high-throughput)
.
Gigabit Ethernet es similar a sus parientes más lentos en varias maneras, pero, la más importante es
que usa los mismos encabezados y colas Ethernet, no importa si es 10 Mbps, 100 Mbps, or 1000 Mbps.
Si se entiende como Ethernet trabaja para 10 y 100 Mbps, entonces ya se sabe la mayoría de lo que
mecesita saber acerca de Gigabit Ethernet.

Gigabit Ethernet difiere de las especificaciones de menor velocidad en como codifica las señales en el
cable. Gigabit Ethernet es obviamente más rápido, a 1000 Mbps, o 1 Gbps.

Ambos, Fast Ethernet (FE) y Gigabit Ethernet (GE) alivian la congestion de maneras un tanto obvias. Las
colisiones y tiempo de espera son menores en comparación con 10-Mbps Ethernet simplemente porque
toma un 90 por ciento (FE) o un 99 por ciento (GE) menos tiempo transmitir la misma trama en las LANs
más rápidas. La Capacidad es grandemente incrementada también: Si todas las tramas fueran de 1250
bytes, un máximo teórico de 10,000 tramas por Segundo podría alcanzarse en Fast Ethernet, y un
máximo teórico de 100,000 tramas por Segundo en Gigabit Ethernet (Por supuesto, los cálculos simples
mencionados están ignorando detalles como los espacios (gaps) entre tramas o el caso poco probable
de tramas de longitud idéntica).

3.6. EL SISTEMA 10 Gigabit Ethernet

Dr. Luis Corrales Pág. - 74 -


Departamento de Control y de Telecomunicaciones. Evolución de Ethernet.

El sistema 10 Gigabit Ethernet representa la más alta velocidad de operación en Ethernet. Este estándar
fue ratificado formalmente por el IEEE el 12 de Junio del 2002.

El sistema 10GBASE Gigabit Ethernet opera solamente en modo full-duplex, sobre fibra óptica. Existen
siete tipos de media, los cuales están diseñados para uso sea en LANs o WANs. Esto le provee al
sistema 10 Gigabit Ethernet la flexibilidad necesaria para operar en local area networks (LAN),
metropolitan area networks (MAN), regional area networks (RAN) and wide area networks (WAN).

El estándar 10 Gigabit Ethernet

Las especificaciones de 10 Gigabit están contenidas en el suplemento IEEE 802.3ae del estándar 802.3.
La introducción del suplemento 802.3ae proporciona una breve descripción del estándar 10 Gigabit:

"This supplement to IEEE Std. 802.3 provides support to extend the 802.3 protocol and MAC
specification to an operating speed of 10 Gb/s. Several Physical Coding Sublayers known as 10GBASE-
X, 10GBASE-R and 10GBASE-W are specified, as well as significant additional supporting material for a
10 Gigabit Media Independent Interface (XGMII), a 10 Gigabit Attachment Unit Interface (XAUI), a 10
Gigabit Sixteen-Bit Interface (XSBI) and management.

Las capas física especificadas incluyen: 10GBASE-S, un transceiver serial con una longitud de onda de
850nm que emplea dos fibras multimodo; 10GBASE-L4, un transceiver con multiplexión de longitud de
onda de 1310nm (wavelength division multiplexing, WDM) que emplea dos fibras multi-modo o modo
único; 10GBASE-L, un transceiver serial con una longitud de onda de 1310nm que usa dos fibras de
modo único; y 10GBASE-E, un transceiver serial con una longitud de onda de 1550nm que emplea dos
fibras de modo único".

4. REDES WAN: CONEXIONES ENTRE SEGMENTOS DE LAN.

Pocas organizaciones realmente exitosas desarrollan sus actividades en un solo lugar. El propietario de un
negocio al por menor sueña con establecer una cadena. Las organizaciones de servicios abren sucursales
en otros vecindarios y ciudades. Las corporaciones con oficinas en un país se expanden hacia otro. El ciclo
de vida del negocio es similar al patrón de la naturaleza crecer y multiplicarse. Las organizaciones que
confían en las redes de computadoras usualmente establecen nuevas LANs cuando se trasladan a otros
lugares. Pronto descubren que necesitan unir las LANs separadas de manera que mantengan el negocio
incorporado.

Estudios de tráfico en sistemas de teléfono corporativo interno, demuestran que la clásica regla 80/20 se
aplica: 80% de las llamadas se hacen dentro de una oficina local, y el 20 % van hacia oficinas distantes. La
división del tráfico en redes de información es casi siempre la misma. Esa es la razón por la que las
organizaciones que manejan su negocio en más de un lugar rápidamente se dan cuanta de la necesidad de
conectar sus redes para movilizar importantes volúmenes de información entre localidades. Y no es
solamente que las redes necesiten ser conectadas; a menudo las compañías están igualmente interesadas
en llevar el poder de sus LANs a clientes y empleados no incluidos en la red, o incluso puentear los
terminales de comunicaciones con sucursales más pequeñas que no necesitarían estar en la red.

La conectividad LAN to LAN y las opciones para comunicaciones en areas amplias van desde los arreglos
relativamente simples, usando líneas telefónicas y modems a complicados recursos tecnológicos que
examinan cada paquete Ethernet o Token Ring y toman decisiones sofisticadas basadas en tal inspección. El
costo de las conexiones Interlan varían de prácticamente nada a varios miles de dólares al mes. Crear
sistemas efectivos de comunicación Interlan es un reto que puede influenciar el límite de eficacia de una
organización o negocio.

Dr. Luis Corrales Pág. - 75 -


Departamento de Control y de Telecomunicaciones. Evolución de Ethernet.

Para unir segmentos de red cercanos o lejanos el dispositivo de red ideal es el ruteador (router). Los
routers son más avanzados que los puentes típicos. El puente no sabe de direcciones de red y opera en
la capa de enlace de datos, mientras que el router opera en la capa de red y basa todas sus decisiones
de envío entre segmentos en la dirección de protocolo de la Capa 3. El router logra esto examinando la
dirección destino del paquete de datos y buscando las instrucciones de envío en la así denominada tabla
de enrutamiento. Los routers producen el nivel más alto de segmentación debido a su capacidad para
determinar exactamente dónde se debe enviar el paquete de datos.

Los routers también pueden conectar distintas tecnologías de Capa 2, como por ejemplo Ethernet,
Token-ring y FDDI. Sin embargo, dada su aptitud para enrutar paquetes basándose en la información de
Capa 3, los routers se han transformado en el backbone de Internet, ejecutando el protocolo IP.

El propósito de un router es examinar los paquetes entrantes (datos de capa 3), elegir cuál es la mejor
ruta para ellos a través de la red y luego conmutarlos hacia el puerto de salida adecuado. Los routers
son los dispositivos de regulación de tráfico más importantes en las redes de gran envergadura.
Permiten que prácticamente cualquier tipo de computador se pueda comunicar con otro computador en
cualquier parte del mundo.
Como los routers ejecutan más funciones que los puentes, operan con un mayor nivel de latencia. Los
routers deben examinar los paquetes para determinar la mejor ruta para enviarlos a sus destinos.
Inevitablemente, este proceso lleva tiempo e introduce latencia (demora). Los protocolos que requieren
acuse de recibo por cada paquete enviado tienen un rendimiento de 30-40%. Estos protocolos se
denominan protocolos orientados a acuse de recibo. Los protocolos que requieren un acuse de recibo
mínimo, o protocolos de ventanas deslizantes, sufren una pérdida de rendimiento del 20-30% debido a la
reducción de tráfico entre el emisor y el receptor.

Un router posee un cierto número de conectores que le permiten conectarse al mundo exterior, tal como
se muestra en la figura a continuación.

Un router requiere de cierta configuración para poder empezar a trabajar. Puede configurar el router desde
varias ubicaciones externas, como se indica en la figura, incluyendo las siguientes:

• desde la terminal de consola (un computador conectado al router a través de un puerto de


consola) durante su instalación

Dr. Luis Corrales Pág. - 76 -


Departamento de Control y de Telecomunicaciones. Evolución de Ethernet.

• mediante un módem utilizando el puerto auxiliar

• desde las Terminales Virtuales 0-4, después de su instalación en la red

• desde un servidor TFTP en la red

Las interfaces le permiten al router conectarse a una red o a otro router. Las interfaces para conectarse
a una red lan pueden identificarse como Ethernet o Token Ring. Las interfaces para comunicarse con
otro router es serial y se identifican como tal: Serial 1, serial 2, etc.

Cuando se instala un protocolo, como IP, en una estación se deben proveer las direcciones IP
siguientes:

IP de la estación: 192.160.72.31

Mascara de la red: 255.255.255.0 (para un red clase C)

Default Gateway: 192.160.72.1

En el router, en la interfaz pertinente, se debe ingresar a más del número de la red conectado a la misma
(192.160.72.0) la máscara de dicha red (255.255.255.0). Cuando un paquete arriba a la interfaz, el router
hace una operación AND entre la dirección IP destino del paquete y la máscara. De esa forma averigua
si el paquete está dirigido a una estación en tal red o en otra diferente. En el primer caso, no deja pasar
el paquete (lo filtra) mientras que en el caso segundo lo deja ingresar al router. Después emplea las
tablas de enrutamiento para decidir porque interfaz dejar salir el paquete.

Para que el paquete llegue al router utiliza la dirección IP del gateway por defecto, la cual es ingresada
durante la configuración del router, y es una dirección que debe pertenecer a la red conectada a dicha
interfaz (192.160.72.1 pertenece a la red 192.160.72.0). Si no se especifica el gateway por defecto, el
paquete no puede ser aceptado y remitido por el router. El host origen compara la dirección IP destino
con su propia dirección IP para determinar si las dos direcciones IP se encuentran ubicadas en el mismo
segmento. Si el dispositivo receptor no está ubicado en el mismo segmento, el dispositivo origen envía
los datos al gateway por defecto.

Pero, ¿cómo llega la información de ruta a la tabla de enrutamiento? El administrador de red puede
introducir manualmente la información en el router. O bien, los routers pueden captar la información, en
un instante, uno de otro. Las entradas manuales en las tablas de enrutamiento se denominan "rutas
estáticas". Las rutas que se aprenden automáticamente se denominan "rutas dinámicas".

El método más común para transferir información de enrutamiento entre routers ubicados en la misma
red es RIP. Este protocolo de gateway interior calcula las distancias hacia un destino. RIP permite que
los routers que usan este protocolo actualicen sus tablas de enrutamiento a intervalos programables,
normalmente cada treinta segundos. Sin embargo, como el router se conecta constantemente con otros
routers vecinos, esto puede provocar el aumento del tráfico en la red.

RIP permite que el router determine cuál es la ruta que usará para enviar datos, basándose en un
concepto que se conoce como vector-distancia. Siempre que se transportan datos en un router y, por lo
tanto, a través de un nuevo número de red, se considera que han realizado un salto. Una ruta cuyo
número de saltos es cuatro indica que los datos que se transportan a través de la ruta deben pasar a
través de cuatro routers antes de llegar a su destino final en la red.

Si hay múltiples rutas hacia un destino, el router, usando RIP, selecciona la ruta que tiene el menor
número de saltos. Sin embargo, dado que el número de saltos es la única métrica de enrutamiento que
usa RIP para determinar cuál es la mejor ruta, esta no necesariamente es la ruta más rápida. Sin

Dr. Luis Corrales Pág. - 77 -


Departamento de Control y de Telecomunicaciones. Evolución de Ethernet.

embargo, RIP continúa siendo muy popular y se sigue implementando ampliamente. Esto se debe
principalmente a que fue uno de los primeros protocolos de enrutamiento que se desarrollaron.

Otro de los problemas que presenta el uso del RIP es que a veces un destino puede estar ubicado
demasiado lejos y los datos no pueden alcanzarlo. RIP permite un límite máximo de quince para el
número de saltos a través de los cuales se pueden enviar datos. Por este motivo, si la red destino está
ubicada a más de quince routers de distancia, se considera inalcanzable.

OSPF significa "primero la ruta libre más corta". Sin embargo, una descripción más adecuada podría ser
"determinación de la ruta óptima", ya que este protocolo de gateway interior en realidad usa varios
criterios para determinar cuál es la mejor ruta hacia un destino. Entre estos criterios se incluyen las
métricas de costo, que influyen en elementos tales como velocidad, tráfico, confiabilidad y seguridad de
la ruta.

El IGRP y el EIGRP son protocolos de enrutamiento desarrollados por Cisco Systems, por lo tanto, se
consideran protocolos de enrutamiento propietarios.

El IGRP se desarrolló específicamente para ocuparse de los problemas relacionados con el


enrutamiento en grandes redes, que no se podían manejar con protocolos como, por ejemplo, RIP.
Como RIP, IGRP es un protocolo de vector distancia, sin embargo, al determinar cuál es la mejor ruta
también tiene en cuenta elementos como, por ejemplo, el ancho de banda, la carga, el retardo y la
confiabilidad. Los administradores de red pueden determinar la importancia que se le otorga a cualquiera
de estas métricas o bien permitir que IGRP calcule automáticamente cuál es la mejor ruta.

EIGRP es una versión avanzada de IGRP. Específicamente, EIGRP suministra una eficiencia de
operación superior y combina las ventajas de los protocolos de estado de enlace con las de los
protocolos de vector distancia.

SUBNETTING

Los routers son particularmente importantes para segmentar una red. Son los únicos que no permiten
que pase tráfico de broadcast. Cuando un mensaje ll llega con una dirección destino como
192.160.72.255, al realizar la operación AND con la submascara 255.255.255.0, el resultado
(192.160.172.0) le dice que es un mensaje para el mismo segmento de red y no le permite pasar.

Se ha dicho que segmentar una red reduce el tráfico en cada segmento, de allí que se busca su
implementación.

En este esfuerzo se encamina el dividir una red a partir de un solo número IP. Suponga la red
192.160.72.0, el subnetting consiste en hacer varias redes pidiendo “prestado” algunos bits de la parte
del host. Por ejemplo, en una IP clase C como la indicada, de los 8 bits del área de host al pedir
3
prestados 3 bits se podrían hacer 2 redes; es decir, 2 elevado al número de bits prestados = 8 como
sigue:

1ª. 192.160.72.000xxxxx 192.160.72.0

2ª. 192.160.72.001xxxxx 192.160.72.32

3ª. 192.160.72.010xxxxx 192.160.72.64

4ª. 192.160.72.011xxxxx 192.160.72.96

5ª. 192.160.72.100xxxxx 192.160.72.128

6ª. 192.160.72.101xxxxx 192.160.72.160

Dr. Luis Corrales Pág. - 78 -


Departamento de Control y de Telecomunicaciones. Evolución de Ethernet.

7ª. 192.160.72.110xxxxx 192.160.72.192

8ª. 192.160.72.111xxxxx 192.160.72.226

Claramente se puede ver que la primera y la última no pueden ser redes útiles pues coinciden con la
dirección de red y de broadcast, respectivamente. Esto quiere decir que el número de redes que pueden
ser usables es: 2 elevado al número de bits prestados menos 2. Así mismo, se puede ver que la 5ª. Red
útil en el ejemplo es en realidad la 6ª red (192.160.72.160).

Igual razonamiento se puede aplicar para calcular el número de estaciones que se puede conectar en
cada subred con una dirección IP válida, 2 elevado al número de bits restantes menos 2. Para el ejemplo
5
esto es 2 – 2 = 32 – 2 = 30. Para las direcciones IP válidas así mismo se aplicarìa que la 5ª. Dirección
IP válida es la 6ª. De todo el rango de números IP de la red 192.160.72.32, por ejemplo, la número 3
válida será la 192.160.72.35.

La máscara para una red se construye poniendo un 1 en todos los bits que corresponden a la red. Es por
esto que para una red tipo C (por ejemplo la 192.160.72.0) la máscara resulta: 255.255.255.0. De igual
forma la máscara para una subred se obtiene poniendo un 1 en todos los bits que identifican a ésta. Para
la 192.160.72.32 el cálculo resultaría: 255.255.255.224.

Dividir en subredes tiene un problema, el número total de estaciones que se pueden conectar en una
8
red clase C sin segmentar es de 2 – 2 = 254. Al segmentar este número disminuye tal como se ilustra
en la figura siguiente:

Finalmente, no hay que olvidar que en cada clase hay un grupo de números reservados los que se listan
abajo.

Dr. Luis Corrales Pág. - 79 -


Departamento de Control y de Telecomunicaciones. Evolución de Ethernet.

Con las direcciones privadas es posible crear redes privadas. Son útiles en aquellas aplicaciones en las
que se requiere conectividad dentro de una sola red, y no necesitan conectividad externa. En redes de
gran tamaño, a menudo se usa el protocolo TCP/IP a pesar que no se necesite de conectividad fuera de
la red. Los bancos son buenos ejemplos. Pueden utilizar TCP/IP para conectar los cajeros automáticos
(ATM). Estas máquinas no se conectan a la red pública, de manera que las direcciones privadas son
ideales para ellas. Las direcciones privadas también se pueden utilizar en una red en la que no hay
suficientes direcciones públicas disponibles.

Dr. Luis Corrales Pág. - 80 -

También podría gustarte