Está en la página 1de 12

Investigación

REDES CONMUTADAS

JUAN ANTONIO SAMPAYO CRUZ


¿QUÉ ES UN CONMUTADOR?
Un conmutador, en el contexto de redes informáticas, es un dispositivo que conecta varios
dispositivos dentro de una red de área local (LAN) y utiliza direcciones MAC para reenviar
datos al dispositivo correcto. Los conmutadores pueden ser gestionados o no
gestionados. Los conmutadores gestionados ofrecen más control y características, como
la capacidad de configurar VLANs, calidad de servicio (QoS), y monitoreo de la red a
través de SNMP, mientras que los conmutadores no gestionados son más simples y
funcionan automáticamente sin necesidad de configuración

Los conmutadores gestionados permiten a los administradores de red configurar,


administrar y supervisar la red de varias maneras, lo que puede incluir el control de cómo
se transfieren los datos y quién puede acceder a ellos. Estos conmutadores también
pueden proporcionar estadísticas de rendimiento del tráfico y estado del puerto, y
soportan funciones de seguridad avanzadas

Por otro lado, los conmutadores no gestionados son dispositivos plug-and-play que no
requieren configuración y son adecuados para redes pequeñas o para añadir grupos de
trabajo temporales a redes más grandes

Los conmutadores también se clasifican según las capas del modelo OSI en las que
operan. Los conmutadores de capa 2 operan en la capa de enlace de datos y se encargan
de la conmutación basada en direcciones MAC. Los conmutadores de capa 3, por otro
lado, pueden realizar funciones de enrutamiento y operan en la capa de red, lo que les
permite gestionar el tráfico entre diferentes subredes y VLANs

En resumen, los conmutadores son dispositivos esenciales en una red LAN que
facilitan la comunicación entre dispositivos conectados y pueden ofrecer una
variedad de funciones y niveles de gestión dependiendo del tipo de conmutador y
las necesidades de la red.
¿QUÉ ES UNA RED CONMUTADA?
Una red conmutada es una infraestructura de telecomunicaciones en la que los nodos
interconectados funcionan como puntos de intercambio para la transmisión de información
entre dispositivos. En una red conmutada, el proceso de comunicación se realiza en tres
fases principales: el establecimiento de la conexión, la transferencia de la información y la
liberación de la conexión

Existen dos tipos principales de conmutación utilizados en las redes conmutadas:

• Conmutación de Paquetes: En este tipo de conmutación, la información se divide


en paquetes que son reenviados por los nodos de la red. Cada paquete lleva una
cabecera con información de enrutamiento que permite a los nodos dirigirlo hacia
su destino final
• Conmutación de Circuitos: Este proceso establece una conexión exclusiva y
dedicada para la transmisión de datos entre dos puntos durante una sesión de
comunicación. La conmutación de circuitos se realiza a través de la multiplexación,
que puede ser por división de frecuencia (FDM) o por división de tiempo (TDM)

Las redes conmutadas funcionan de manera jerárquica, lo que permite una escalabilidad y
mantenimiento más sencillos, así como un aumento en el nivel de seguridad de la red.
Esta jerarquía se divide en niveles o capas específicas

En resumen, una red conmutada es una red que utiliza nodos intermedios para
establecer conexiones y transmitir datos entre dispositivos, ya sea mediante la
conmutación de paquetes o la conmutación de circuitos, dependiendo de la
tecnología y la aplicación específica.
¿CUÁL ES LA FUNCIÓN PRINCIPAL DE UNA RED CONMUTADA?
La función principal de una red conmutada es facilitar la comunicación entre dispositivos
mediante el establecimiento de una conexión, la transferencia de información y la
liberación de la conexión una vez que la comunicación ha finalizado. Este proceso se
realiza a través de nodos interconectados que actúan como puentes para el intercambio
de información.
FACTORES DE FORMA
Al seleccionar un switch para una red, los diseñadores y administradores de red deben
considerar varios factores de forma, que se refieren a las características físicas y
de configuración del switch. Estos factores de forma incluyen la elección entre
una configuración fija o modular, y si el dispositivo es apilable o no.

CONFIGURACIÓN FIJA VS. CONFIGURACIÓN MODULAR


• Switches de Configuración Fija: Son dispositivos que vienen con un número
específico de puertos y funcionalidades predefinidas. No permiten añadir o
cambiar módulos de expansión, lo que significa que la cantidad de puertos y el tipo
de puertos (como Ethernet, fibra óptica, etc.) están fijos desde el momento de la
compra.

Switches de Configuración Modular: Ofrecen una mayor flexibilidad en comparación con


los switches de configuración fija. Permiten a los usuarios añadir o cambiar módulos de
expansión para aumentar el número de puertos o cambiar el tipo de puertos según las
necesidades cambiantes de la red. Esto los hace ideales para redes en crecimiento o para
aquellas que pueden requerir diferentes tipos de conexiones en el futuro.
DISPOSITIVOS APILABLES VS. NO APILABLES

• Switches Apilables: Permiten a los usuarios conectar múltiples switches entre sí


para operar como una única entidad. Esta característica simplifica la gestión de la
red, ya que los switches apilados pueden ser configurados y monitoreados como si
fueran un solo switch. Además, proporcionan una forma de expandir la red sin
sacrificar la gestión centralizada.

Switches No Apilables: Son switches independientes que no pueden ser
conectados de esta manera. Cada switch debe ser gestionado individualmente, lo
que puede aumentar la complejidad de la administración de la red en entornos con
múltiples switches.
ENTORNO DE UNA RED CONMUTADA
El entorno de una red conmutada se refiere al conjunto de características, tecnologías
y principios de diseño que permiten la interconexión eficiente y segura de dispositivos
dentro de una red. Este entorno ha evolucionado significativamente desde las primeras
LAN con repetidores Hub hacia arquitecturas más complejas y jerárquicas que utilizan
switches multicapa y routers de alta escalabilidad para optimizar la conectividad y la
administración del tráfico.

CARACTERÍSTICAS PRINCIPALES

• Flexibilidad y Administración de Tráfico: Las redes conmutadas ofrecen una mayor


flexibilidad en la gestión del tráfico, permitiendo una comunicación más eficiente
entre dispositivos. Esto se logra mediante el uso de VLANs, EtherChannel en
conexiones gigabit, y switches multicapa que pueden manejar grandes cantidades
de datos.
• Seguridad y Privacidad: Las redes conmutadas permiten implementar medidas de
seguridad avanzadas, como listas de acceso y VPNs, para proteger la privacidad y
la integridad de los datos transmitidos.
• Convergencia de Soluciones: Para admitir la colaboración y el acceso a recursos
desde cualquier lugar, las redes conmutadas emplean soluciones convergentes
que integran sistemas de voz, teléfonos IP, Gateway de voz, soporte de video y
videoconferencias.

PRINCIPIOS DE DISEÑO

• Jerarquía: Facilita la comprensión de la función de cada dispositivo en cada nivel,


simplifica la implementación, el funcionamiento y la administración, y reduce los
dominios de error en cada nivel
• Modularidad: Permite la expansión de la red y la habilitación de servicios
integrados de manera fluida y a petición.
• Capacidad de Recuperación: Asegura que la red permanezca siempre activa,
satisfaciendo las expectativas de los usuarios.
• Flexibilidad: Permite compartir la carga de tráfico de forma inteligente mediante el
uso de todos los recursos de red disponibles.
IMPLEMENTACIÓN

La implementación de una red conmutada requiere seguir principios de diseño sólidos


para asegurar la máxima flexibilidad, seguridad y facilidad de administración. Esto incluye
la creación de una infraestructura jerárquica que sea escalable y recuperable. Un ejemplo
de esto es la arquitectura Cisco Borderless Networks, diseñada para enfrentar desafíos
comerciales y de TI, permitiendo la conexión segura y confiable de cualquier persona, en
cualquier lugar, en cualquier momento, en cualquier dispositivo

En resumen, el entorno de una red conmutada se caracteriza por su capacidad para


proporcionar una comunicación eficiente, segura y flexible entre dispositivos,
utilizando principios de diseño y tecnologías avanzadas que han evolucionado para
satisfacer las necesidades cambiantes de las redes modernas.
CAPAS DE ACCESO DISTRIBUCION Y NUCLEO CENTRAL
En el diseño jerárquico de redes, las capas de acceso, distribución y núcleo
central son fundamentales para estructurar una red de manera eficiente y
escalable. Cada capa tiene funciones específicas:
CAPA DE ACCESO
La capa de acceso es la primera capa del modelo TCP/IP y cubre los
servicios determinados por las capas 1 y 2 del modelo OSI. Esta capa gestiona la
conexión física y lógica de los dispositivos finales a la red. En ella se manejan las
codificaciones físicas y se utilizan las direcciones MAC para la identificación
única de dispositivos dentro de la red. Los protocolos más conocidos de esta capa
son ARP/RARP y la familia de protocolos Ethernet.
CAPA DE DISTRIBUCIÓN
La capa de distribución se encarga de conectar redes locales independientes y
controlar el tráfico que circula entre ellas. Esta capa agrega los datos recibidos de
los switches de la capa de acceso antes de transmitirlos a la capa núcleo para el
enrutamiento. También implementa políticas de red, como listas de acceso y
filtros, para controlar el flujo de tráfico y proporciona enrutamiento entre VLANs y
otras subredes.
CAPA DE NÚCLEO
La capa de núcleo o capa Core es el backbone de la red, proporcionando un
transporte rápido y confiable de grandes cantidades de datos entre diferentes redes.
Esta capa debe ser altamente disponible y redundante, y está diseñada para
conmutar paquetes lo más rápido posible. Los dispositivos en esta capa suelen
ser switches y routers de alta velocidad y eficacia.
DOMINIOS DE COLISIÓN
Un dominio de colisión es un segmento de una red de computadoras donde las tramas de
datos pueden colisionar si dos dispositivos intentan enviar información simultáneamente a
través del mismo medio de transmisión. En redes Ethernet, esto ocurre típicamente en
un entorno donde los dispositivos están conectados a través de un hub o repetidor, ya que
estos dispositivos no segmentan el tráfico y envían todas las tramas recibidas a todos
los puertos, excepto por el que recibió la trama.
CARACTERÍSTICAS DE LOS DOMINIOS DE COLISIÓN:
• Transmisión Compartida: Solo un dispositivo puede enviar datos a la vez a través
del medio físico de transmisión
• Colisiones: Cuando dos o más dispositivos intentan transmitir simultáneamente,
sus señales se superponen, causando una colisión que impide que los datos
lleguen a su destino.
• CSMA/CD: Para detectar y evitar colisiones, las redes Ethernet utilizan el protocolo
de control de acceso al medio Carrier Sense Multiple Access with Collision
Detection (CSMA/CD), que permite a los dispositivos "escuchar" el medio antes de
transmitir y, si detectan una colisión, esperar un tiempo aleatorio antes de intentar
retransmitir.
IMPACTO DE LOS DOMINIOS DE COLISIÓN:
• Rendimiento: Un número elevado de colisiones puede disminuir el rendimiento de
la red, ya que los dispositivos deben esperar para retransmitir sus datos
• Escalabilidad: Los dominios de colisión grandes limitan la escalabilidad de la red,
ya que más dispositivos comparten el mismo medio y aumentan la probabilidad de
colisiones.
REDUCCIÓN DE DOMINIOS DE COLISIÓN:
• Switches y Routers: Al utilizar switches y routers en lugar de hubs, se pueden
reducir los dominios de colisión, ya que estos dispositivos segmentan la red y cada
puerto de un switch o cada interfaz de un router forma su propio dominio de
colisión.
• Full Duplex: En una red moderna con switches que operan en modo full dúplex, los
dominios de colisión se eliminan, ya que cada enlace puede enviar y recibir datos
simultáneamente sin colisiones.
En resumen, los dominios de colisión son áreas de una red donde las colisiones de
tramas pueden ocurrir debido a la naturaleza compartida del medio de transmisión.
La utilización de tecnologías modernas como switches y la operación en modo full
dúplex son esenciales para reducir o eliminar los dominios de colisión y mejorar el
rendimiento de la red.

MÉTODOS DE CONMUTACIÓN EN SWITCHES

En los switches, existen principalmente dos métodos de conmutación que definen cómo los datos
son procesados y reenviados de un puerto a otro: el método de corte (cut-through) y el método
de almacenamiento y reenvío (store-and-forward).

MÉTODO DE CORTE (CUT-THROUGH)


El método de corte permite que el switch comience a reenviar un paquete de datos tan
pronto como la dirección de destino de la trama es leída, sin esperar a que se reciba la trama
completa. Esto reduce la latencia ya que el switch no necesita almacenar toda la trama antes de
empezar a reenviarla. Sin embargo, una desventaja de este método es que no puede detectar
errores en la trama completa, ya que no la analiza en su totalidad antes de reenviarla.

MÉTODO DE ALMACENAMIENTO Y REENVÍO (STORE-AND-FORWARD)


En el método de almacenamiento y reenvío, el switch espera a recibir la trama completa y la
verifica en busca de errores antes de reenviarla.

. Este método permite detectar errores como tramas dañadas o colisiones y descartarlas antes de
que sean propagadas por la red, lo que mejora la integridad de los datos. La desventaja es que
introduce una mayor latencia en la conmutación, ya que el switch debe almacenar temporalmente
y procesar cada trama completa antes de reenviarla.

CONMUTACIÓN SIN FRAGMENTOS (FRAGMENT-FREE)


Existe también un método intermedio conocido como conmutación sin fragmentos (fragment-
free), en el cual el switch almacena solo los primeros 64 bytes de la trama antes de reenviarla. Esto
se debe a que la mayoría de los errores y colisiones ocurren en los primeros 64 bytes de la trama.
Este método intenta ser un compromiso entre la baja latencia del método de corte y la detección
de errores del método de almacenamiento y reenvío.

La elección entre estos métodos de conmutación depende de las necesidades específicas de la red,
como la importancia de la latencia frente a la integridad de los datos. Los switches modernos a
menudo pueden configurarse para utilizar el método más adecuado para el entorno de red
particular en el que se implementan.
¿QUÉ ES UNA VLAN?
Una VLAN (Virtual Local Area Network) es una tecnología que permite segmentar una red física
en múltiples redes lógicas independientes. A través de las VLANs, los administradores de red
pueden agrupar dispositivos en redes separadas sin la necesidad de reconfigurar la infraestructura
física de la red o mover dispositivos físicamente

Esto ofrece varias ventajas en términos de seguridad, administración y optimización del tráfico de
red.

FUNCIONES Y BENEFICIOS DE LAS VLANS


• Mejora de la Seguridad: Al segmentar la red en VLANs, se puede controlar el
acceso y limitar la comunicación entre grupos de dispositivos, reduciendo así el
riesgo de accesos no autorizados y ataques internos
• Optimización del Tráfico de Red: Las VLANs reducen el dominio de broadcast,
limitando la difusión de tráfico innecesario solo a los dispositivos dentro de la
misma VLAN. Esto mejora el rendimiento general de la red al disminuir la carga en
los dispositivos y en la red
• Flexibilidad y Escalabilidad: Permiten una gestión más flexible de la red, ya que los
cambios y la adición de nuevos dispositivos o grupos de trabajo se pueden realizar
mediante configuración de software sin necesidad de cambios físicos en la red
• Mejora de la Gestión de la Red: Facilitan la administración de la red al permitir a
los administradores configurar, monitorear y aplicar políticas a grupos específicos
de dispositivos de manera más eficiente
TIPOS DE VLANS
• VLANs basadas en Puerto: Los dispositivos se asignan a una VLAN específica
según el puerto del switch al que están conectados
• VLANs basadas en Dirección MAC: Los dispositivos se asignan a VLANs
basándose en sus direcciones MAC
• VLANs basadas en Etiquetas (802.1Q VLAN Tagging): Utilizan etiquetas en los
paquetes de datos para identificar a qué VLAN pertenecen, permitiendo múltiples
VLANs a través de un mismo enlace físico
La implementación de VLANs es una práctica común en redes empresariales,
educativas y de grandes instituciones, donde la necesidad de segmentación de la
red, seguridad y eficiencia en la gestión del tráfico son críticas.

DIFERENCIAS ENTRE UN ENLACE DE ACCESO Y TRONCAL


La diferencia principal entre un enlace de acceso y un enlace troncal (o troncal) en una red
conmutada se refiere al tipo de tráfico de VLAN que cada uno puede transportar y su uso en la red.

ENLACE DE ACCESO
• Tráfico de VLAN: Un puerto de acceso está configurado para transportar tráfico de
red solo para una VLAN específica.
• Conectividad: Estos puertos de switch están conectados con dispositivos de
usuario final, como computadoras o impresoras, dentro de una VLAN.
• Paquetes de Datos: Los puertos de acceso facilitan la comunicación utilizando
paquetes de datos no etiquetados, ya que la VLAN para un puerto de acceso en
particular está preasignada.
• Uso: Se utilizan en la conmutación de capa 2 y no ofrecen transferencia de datos
de subred cruzada.
ENLACE TRONCAL
• Tráfico de VLAN: Un puerto troncal está configurado para transportar tráfico de
múltiples VLANs
• Conectividad: Se utiliza entre switches o entre un switch y un dispositivo de nivel
superior, como un router
• Paquetes de Datos: Los puertos troncales manejan tráfico para numerosas VLANs
etiquetadas, utilizando etiquetas VLAN 802.1Q o Inter-Switch Link (ISL) para
identificar a qué VLAN pertenece cada paquete
• Uso: Los puertos troncales se pueden utilizar tanto en la conmutación de capa 2
como en la de capa 3, ya que ofrecen transferencias de datos entre subredes IP y
VLAN
En resumen, un enlace de acceso conecta dispositivos a una única VLAN y maneja
tráfico no etiquetado, mientras que un enlace troncal conecta diferentes
dispositivos en diferentes redes y maneja tráfico etiquetado de múltiples VLANs.
Los enlaces troncales son fundamentales para el funcionamiento de redes con
múltiples VLANs, ya que permiten la transmisión de datos entre ellas sin la
necesidad de enlaces físicos separados para cada VLAN

También podría gustarte