Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Fundamentos de Redes PDF
Fundamentos de Redes PDF
Volumen 1: Principios
de Redes y Protocolos
.
Marcas Registradas
No elimine las páginas en blanco que aparecen al final de cada unidad y entre dos
unidades. Estas han sido insertadas en forma deliberada.
Guía del Estudiante Fundamentos de Redes
Contenido
Descripción del Curso 1
Descripción de Unidades 3
Unidad 1: Principios de Redes 5
Objetivos de Aprendizaje 5
1. Introducción a las Redes 6
2. Beneficios de las Redes 6
3. Áreas de Aplicación de las Redes 7
4. Topología 9
5. Tipos de Redes 16
6. Conmutación (Switching) 18
7. Componentes de una Red 21
8. Interconexión de Redes (Internetworking) 25
9. El Modelo ISO-OSI 29
10. Protocolo TCP/IP 34
11. Familias de Protocolos 36
Resumen 38
Unidad 1: Examen de Autoevaluación 39
Unidad 1: Respuestas del Examen de Autoevaluación 41
Unidad 2: Dispositivos de Redes 43
Objetivos de Aprendizaje 43
1. Introducción 44
2. Componentes de una Red 44
3. Dispositivos Especiales de Redes 47
4. Elegir un Dispositivo de Red Apropiado 57
5. Tipos de Transmisión 58
6. Redes Cableadas 59
7. Tecnologías de Redes Inalámbricas 63
8. Estándares LAN 70
9. Estándares WAN (Medios de Transmisión Públicos) 74
Resumen 78
Unidad 2: Examen de Autoevaluación 79
Unidad 2: Respuestas del Examen de Autoevaluación 81
Unidad 3: Protocolo Internet 83
Objetivos de Aprendizaje 83
i
© Copyright IBM Corp. 2007
El material del curso no puede ser reproducido total o
parcialmente sin el permiso escrito previo de IBM.
Fundamentos de Redes Guía del Estudiante
ii
© Copyright IBM Corp. 2007
El material del curso no puede ser reproducido total o
parcialmente sin el permiso escrito previo de IBM.
Guía del Estudiante Fundamentos de Redes
1. Introducción 156
2. Sockets 156
3. API de Sockets 163
4. Llamadas al Sistema de Sockets 164
5. RPC 165
6. ¿Qué Influye en la Transparencia? 170
Resumen 171
Unidad 7: Examen de Autoevaluación 172
Unidad 7: Respuestas del Examen de Autoevaluación 174
Unidad 8: Fundamentos de la Administración de Redes 175
Objetivos del Aprendizaje 175
1. Introducción 176
2. ¿Por qué Administración de Redes? 177
3. Servicios de Red 178
4. Implementación de los Servicios de Redes 181
5. Seguridad de la Red 182
6. Métodos de Seguridad en la Red 184
7. Administración de Datos, Protección y Planificación ante Desastres 191
8. Riesgos en la Red Debido a los Virus 198
9. Firewalls 199
Resumen 204
Unidad 8: Examen de Autoevaluación 205
Respuestas a Unidad 8: Examen de Autoevaluación 207
iii
© Copyright IBM Corp. 2007
El material del curso no puede ser reproducido total o
parcialmente sin el permiso escrito previo de IBM.
Guía del Estudiante Fundamentos de Redes
Fundamentos de Redes.
Duración
Propósito
El objetivo de este curso es introducir al estudiante a los conceptos del ambiente de las
redes de computadoras. Proporciona una visión general de los componentes de una red
y los diferentes tipos de redes de comunicación de datos. Además, se discuten los
protocolos y cómo se trabaja en el ambiente de redes.
Los estudiantes aprenderán acerca del Protocolo de Internet (Internet Protocol - IP), el
concepto de direcciones IP y datagramas de Internet. Aprenderán acerca del Protocolo
de Control de Transmisión (Transmission Control Protocol - TCP), UDP (User Datagram
Protocol) para conexiones entre sistemas, las operaciones del TCP y los protocolos de
la capa de aplicación. También, se estudian los sockets y las llamadas a procedimientos
remotos (remote procedure calls ).
En el curso se tocan aspectos acerca de los dispositivos de redes, así como los
fundamentos de la administración de las mismas. También se discuten temas como la
administración, protección de datos y planificación ante desastres.
Audiencia
Prerrequisitos
Ninguno.
Objetivos
Descripción de Unidades
Volumen 1: Principios de Redes y Protocolos
Unidad 1: Principios de Redes
Esta unidad proporciona un conjunto de preguntas para permitir al estudiante aplicar los
conceptos aprendidos en las unidades previas, especialmente con referencia a las
direcciones IP y la creación de subredes.
Esta unidad trata las operaciones del TCP, además de los puertos y sockets que usan.
Explica la cabecera del TCP y sus detalles, así como la comunicación punto a punto
usando TCP. También es cubierto el Protocolo de Datagrama de Usuario (User
Datagram Protocol - UDP). Se discute acerca de las operaciones UDP, sus puertos,
sockets y cabeceras.
En esta unidad se presentan los conceptos requeridos para conectar dos máquinas en
una red. Se aprende acerca de los sockets y sus usos, así como, la familia de sockets y
sus tipos. Aunado a esto, se explican los sockets orientados a conexión y sin conexión.
Se discuten en detalle las llamadas a procedimientos remotos, sus usos y los aspectos
de transparencia.
de la red. Esto simplemente significa que los mensajes pueden ser enviados y
recibidos rápidamente a través de correo electrónico y otras aplicaciones de
mensajes instantáneos. Los proyectos pueden ser mejor planificados,
administrados y monitoreados ya que todos los miembros del proyecto pueden
tener acceso a los mismos datos.
• Acceso desde Múltiples Ubicaciones: El trabajo en red permite a los usuarios
trabajar desde diferentes partes del mundo simultáneamente. A través de la
interconexión de redes, una persona sentada en Buenos Aires puede
comunicarse con su colega en lugares tan lejanos como Singapur y Moscú.
También permite a las organizaciones en cualquier parte del mundo interactuar
con sus clientes en cualquier otra parte del mundo. Las redes también permiten
a una organización o a un usuario tomar copias de respaldo del trabajo y
almacenarlas en diferentes ubicaciones. Esta facilidad reduce las posibilidades
de pérdida de datos debido a fallas del sistema en una máquina.
• Incremento en la Rentabilidad: El advenimiento de la tecnología ha hecho que
las computadoras más pequeñas sean más rentables que los grandes sistemas.
Es muy fácil, en la actualidad, conectar un grupo de pequeñas computadoras y
obtener la misma potencia, velocidad y capacidades de los grandes sistemas.
• Mejora del Soporte al Cliente: El trabajo en red permite a una organización
expandir su base de clientes a través del planeta. La organización tiene el poder
de transmitir información y actualizaciones acerca de sus productos a clientes,
en forma rápida y en tiempo real. El trabajo en red, de hecho, ha generado la era
en línea, donde los clientes realizan sus órdenes y transacciones en línea. Los
clientes pueden ser atendidos 24 horas al día, 7 días a la semana, 365 días al
año.
Se presenta a continuación una breve introducción a los diferentes tipos de redes, antes
de proceder a aprender acerca de las áreas de aplicación de las redes.
Inicialmente, fueron desarrolladas las Redes de Área Local (Local Area Networks - LAN)
lo cual permitió que se conociera la importancia y los beneficios del trabajo en red. Las
LAN operaban dentro de distancias cortas y se utilizaban dentro de organizaciones de
negocios. Pronto, este concepto se expandió y llevó a la creación de las Redes de Área
Metropolitana (Metropolitan Area Networks - MAN). Las MAN operan dentro de
ciudades. Más tarde, este concepto fue desarrollado para expandir el alcance de las
redes entre países. Estas redes, que se expanden a través de países y continentes, son
llamadas Redes de Área Amplia (Wide Area Networks - WAN).
Las tasas de transferencia de datos más comunes del sistema del T-Portador se
presentan en la Tabla 1.1.
T-Carrier Velocidades
T1 1,544 Mbps
T2 6,312 Mbps
T3 44,736 Mbps
T4 274,176 Mbps
Tabla 1.1: Velocidades de T-Carrier
Una sola línea de 64-Kbps se conoce como línea DS0. Una línea T1 soporta 24 canales
DS0. Cada uno de los 24 canales es un circuito T1, que puede llevar la transmisión de
la voz o datos. En Japón, se utiliza el sistema del J-portador. Este sistema tiene las
mismas velocidades que el sistema T-Portador. El Fractional T1 (T1 Fraccionario),
también llamado FT1, permite a los clientes rentar los canales 64 Kbps individualmente,
en vez de rentar la línea completa T1.
Como consecuencia de los rápidos avances en tecnología, las máquinas que transfieren
datos a velocidades de unos pocos Gigabits por segundo serán muy comunes. Hoy en
día, existen máquinas y redes con esas velocidades de transferencia, pero no son las
más usadas debido a varios factores como disponibilidad, rentabilidad, etc.
Después de comprender las diferentes aplicaciones que poseen las redes, se puede
aprender acerca de los diversos tipos de topologías.
4. Topología
La topología de una red es la disposición de los nodos y otros dispositivos de red.
Existen diferentes tipos de topologías basados en la forma de comunicación. Se
clasifican ampliamente en:
• Topología de Comunicación Punto a Punto (Point-to-Point).
• Topología de Comunicación por Difusión (Broadcast).
Volumen 1: Principios de Redes y Protocolo Unidad 1: Principios de Redes 9
• Topologías Híbridas.
4.1 Topología de Comunicación Punto a Punto (Point-to-Point)
Las siguientes son las topologías de comunicación punto a punto más usadas:
• Topología Estrella.
• Topología Anillo.
4.1.1 Topología Estrella
En la topología anillo todas las máquinas están conectadas una con otra en forma de un
anillo, como se muestra en la Figura 1. 2.
Existen diferentes formas de implementar esta topología. Las siguientes son las más
usadas:
• Bus.
• Satélite.
• Anillo.
En la topología de bus, todos los sistemas en la red están conectados a un único cable,
como se muestra en la Figura 1.3. Los datos transmitidos por un sistema se envían a
otro sistema a través del cable. Todos los sistemas conectados a este cable recibirán
los datos, debido a que el cable es común a todos los sistemas.
Las redes grandes combinan las topologías de redes de bus, estrella y anillo, esta
combinación permite la expansión de las redes en grandes corporaciones. Como
ejemplo están las redes: Bus-Estrella, Anillo-Estrella y Mallas.
4.3.1 Bus-Estrella
Como se puede observar en la Figura 1.6, se tienen varias redes estrellas conectadas al
bus troncal, este puede ser un canal de fibra óptica de alta velocidad. Esta topología es
una de las más usadas en la conexión de varias redes LANs que posea una
corporación.
5. Tipos de Redes
Las redes se pueden clasificar de acuerdo a su función y al contexto. A continuación se
presentan diferentes clasificaciones de las redes.
Cantidad de usuarios Conecta muchos usuarios Conecta más usuarios que una LAN
Área relativamente
Área de alcance Entre ciudades y países
pequeña
Propiedad del canal de
Privada Propiedad de un tercero
comunicación
Capacidad de
Alta Menor que en una LAN
transmisión
Medida en Megabits por Medida en kilobits por segundo
Velocidad de
segundo (Mbps) o Gigabits (kbps), o a veces, en Megabits por
transmisión
por segundo (Gbps). segundo (Mbps)
Errores en transmisión Bajos Más que en una LAN
Algunas empresas públicas como las redes telefónicas, tienen redes de computadoras
que abarcan grandes distancias. Las redes telefónicas utilizan conmutadores (switchs),
lo cual también es importante desde el punto de vista de las redes de computadoras,
pues permiten conectar redes de distintos lugares del mundo. A continuación se discute
acerca de la conmutación (switchs).
6. Conmutación (Switching)
Las redes de computadoras operan a través de diferentes tipos de medios. Las redes
que operan a través de grandes distancias usualmente utilizan medios públicos para
alcanzar sus destinos. La red telefónica es la red más utilizada en tales casos.
Como se muestra en la Figura 1.11, los paquetes deben transitar varias estaciones a
través de las redes, pero los host A y B deben poseer un conjunto de reglas para poder
comunicarse y controlar el envío y recepción de los paquetes.
Las aplicaciones de software para redes LAN proporcionan soporte para servicios de
red y aplicaciones de red. Algunos ejemplos son Sistemas Operativos de Red (Network
Operating System -NOS), software cliente de red y aplicaciones de red.
Varios componentes de red conforman una red de computadoras. Estos a menudo son
llamados dispositivos de red (network devices). Los dispositivos de red serán
estudiados en detalle en la Unidad 2 de este Volumen. Aquí, sólo se listarán algunos de
los componentes de hardware y sus principales funciones.
• Nodos: Los nodos son dispositivos de cómputo conectados a otros dispositivos
en la red.
• Backbone: El backbone es el medio físico principal de una red que soporta altas
velocidades y por consiguiente tiene un gran ancho de banda.
• Servidores: Un servidor es un nodo especial que se encarga de
responsabilidades específicas y realiza funciones especializadas. Un nodo
puede también actuar como servidor.
• Cables: Los cables son el medio físico a través del cual se envían los datos.
• Repetidores (Repeaters): Los repetidores ayudan a mantener la señal fuerte
cuando es enviada a través de grandes distancias y a pasarla a otras partes de
la red.
• Concentrador (Hubs): Los hubs permiten conectar nodos individuales, como
PCs y periféricos de red a través de la red.
• Puentes (Bridges): Los puentes sencillamente permiten conectar dos redes.
• Conmutadores (Switches): Un conmutador es un puente multipuerto que
puede combinar la conectividad de un hub con la regulación de tráfico de un
puente en cada puerto.
• Enrutadores (Routers): Los enrutadores permiten direccionar los datos a varias
partes específicas de una red.
La Figura 1.12 muestra una red que contiene los componentes de hardware discutidos
en las secciones anteriores.
Conmutador
Nodo Nodo
Una forma de evitar estas complicaciones es estructurar las funciones de red implicadas
en la transferencia de información, como una serie de capas o niveles. Cada capa
individual está basada en ciertos protocolos y las capas deben seguir un conjunto
específico de reglas.
• Capas (Layers): Una red está organizada en una serie de capas para asegurar
que la estructura sea simple y que el proceso de transferencia de datos se
realice sin problemas. Una capa también se conoce como un nivel (level). La
Figura 1.13 muestra un ejemplo de una arquitectura con capas.
Cada capa en la red ofrece un conjunto de servicios. Los servicios son un conjunto de
operaciones que una capa inferior le presenta a la capa superior y describe lo que
entrega la capa inferior. Estos servicios son accedidos por la capa superior a través de
interfaces presentadas por la capa inferior. Una función del software de red es proveer
estos servicios.
En las últimas décadas, los desarrolladores han realizado esfuerzos concertados para
diseñar y desarrollar tecnologías que puedan conectar dos redes completamente
diferentes, además de permitirles funcionar como una única unidad eficiente. A esto se
le llama Tecnología de Interconexión de Redes (Internetworking Technology).
Asuma que se desea conectar dos redes, se va a tomar como ejemplo un componente
de red genérico, que se llamará ”Unidad de Interconexión de Redes” (Internetworking
Unit). Esto se ilustra en la Figura 1.16.
Servidor PC PC
LAN Backbone
PC
PC
LAN Backbone
a otras LAN’s
Figura 1.16: Componentes de Interconexión de Redes LAN
Servidor PC
LAN Backbone
PC
Modem Modem
PC
WAN
LAN Backbone
Se estudió que una WAN puede hacer interfaz con la computadora host en la red o con
la unidad de interconexión de redes. Una WAN puede hacer uso de un modem o
cualquier unidad de servicio digital para extender su alcance a ubicaciones más lejanas.
Una red, también puede tener dispositivos de conmutación de paquetes para controlar
el tráfico interno de la misma.
Servidor PC
LAN Backbone
PC
Modem Modem
PC
Conmutador
de Paquetes
LAN Backbone
A otros Conmutadores de
Paquetes
WAN
A continuación se estudia el modelo ISO-OSI que provee los estándares para los
diferentes protocolos.
9. El Modelo ISO-OSI
El modelo OSI (Open Systems Interconnect) o modelo de Interconexión de Sistemas
Abiertos fue desarrollado originalmente por la International Organization for Standards
(ISO). Es uno de los modelos de protocolos más usados y estudiados.
El modelo OSI posee siete capas. Cada capa tiene la responsabilidad de realizar una
función específica y el resultado es enviado a la siguiente capa. La Figura 1.19 muestra
el modelo OSI.
La Figura 1.20 muestra cómo los datos que la computadora X intenta enviar a la
computadora Y, son primero transformados en una solicitud de red (network request).
Luego, pasa a través de la capa de aplicación hasta la capa física de la computadora X.
En cada etapa, se aplican operaciones específicas de cada capa sobre los datos.
Usando la ruta de comunicación física, los datos (que ahora están en la forma de
señales en el nivel físico), se transmiten al nivel físico de la computadora Y. En cada
capa de la computadora Y, se aplican operaciones específicas y los datos finalmente
alcanzan la capa de aplicación de la computadora Y.
En la Figura 1.21 se observa cómo se van agregando los encabezados de las capas del
OSI a los datos generados en la capa de aplicación del computador X. En el
computador Y ocurre el proceso inverso, es decir, se van eliminando los encabezados
hasta que se llega a la capa de aplicación del computador Y.
Una vez entendido cómo pasan los datos a través de las capas de ambos
computadoras, se discute brevemente cada una de las capas. Se comienza con el nivel
físico hasta llegar al nivel de aplicación.
Esta capa está a cargo de actividades tales como: recibir los datos provenientes de la
capa de enlace de datos, convertir los datos en señales apropiadas y transmitir las
señales sobre un canal de transmisión dedicado o compartido. Este canal es el medio
físico. La capa física también se encarga de otros aspectos como las dimensiones del
conector y la distancia entre pines.
Esta capa recibe datos de la capa de red, los procesa y los envía a la capa física para
transmitirlos en la forma de señales. Antes de enviar los datos al nivel físico, la capa de
enlace de datos, primero coloca los datos procesados en bloques de datos y le agrega
información de control, añadiendo a los datos procesados, una cabecera y una cola al
inicio y final respectivamente. La capa de enlace de datos, en algunos casos, también
es responsable de la traducción de los protocolos DLL (Data Link Layer) y asegurar
transmisiones libres de errores que sean aceptables. También monitorea el control de
flujo y regula la dirección del tráfico.
Esta capa recibe datos de la capa de Sesión y los divide en bloques (segmentos) más
pequeños para facilitar su procesamiento. Los segmentos de datos procesados son
luego transmitidos a la capa de Red para procesar solicitudes adicionales. Esta capa se
encarga de proveer un transporte confiable y transparente de los datos entre los
computadores origen y destino. También se encarga del manejo y corrección de errores
y el manejo del control de flujo en las comunicaciones de red.
Una breve comparación de las cuatro capas de TCP/IP y las siete capas del modelo
OSI se muestra a continuación:
Los protocolos, los crea cada fabricante para satisfacer determinados requerimientos de
los clientes, de allí, la necesidad de tener un solo conjunto de estándares para todos los
diferentes protocolos. El modelo ISO-OSI, como se estudió anteriormente, proporciona
el estándar para la industria de las comunicaciones.
Resumen
Ahora que ha finalizado esta unidad, usted debe ser capaz de:
10) ¿Cuáles de los siguientes servicios de aplicación son provistas por el protocolo
TCP/IP?
a) Correo electrónico
b) Transferencia de Archivos
c) Acceso remoto
d) Encriptación de datos
1. Introducción
En la Unidad 1 se estudiaron los componentes básicos y los componentes de
interconexión de redes. En esta unidad se detallan los componentes de hardware
destacando sus funciones y características. También, se estudian los medios de
transmisión de datos, ya sean de tecnología cableada o inalámbrica. Además, se
discuten los estándares dados por la industria tanto para redes LAN como para redes
WAN.
2.2 Segmento
Es una fracción o parte de una red más grande; en los casos de redes LAN puede
considerarse una de las partes de la red o subred que se conecta mediante un
dispositivo de interconexión de red como el puente o el router.
Para redes WAN como es Internet, el backbone que conecta los nodos principales de
acceso a Internet, se considera un segmento de la red Internet. También para redes
WAN, una LAN puede ser considerada un segmento.
Los concentradores o hubs permiten conectar varios nodos individuales, como PCs y
periféricos de red para formar un segmento de red, utilizando un proceso de
concentración. Todos los dispositivos conectados al concentrador, comparten el ancho
de banda del concentrador para sus comunicaciones. La conexión se realiza a través de
los puertos disponibles en el concentrador.
Los concentradores controlan y regulan las señales entre los diferentes nodos en la red
y también pueden hacer el proceso físico del cableado más ordenado. Un concentrador
simplemente repite las señales de entrada a todos los dispositivos conectados a sus
puertos, por esa razón también son conocidos como repetidores multipuertos.
2.4 Backbone
El backbone es el medio físico principal de un red que soporta altas velocidades y por
consiguiente tiene un gran ancho de banda.
Es necesario tener un medio físico para que los datos sean enviados y recibidos a
través de una red. Pero para poder acceder a una red, es necesario poseer en los
nodos (PCs, impresoras, etc.) un dispositivo que permita identificarlos en la red y
convertir los bits en señales adecuadas al medio de transmisión que se debe usar, ésta
es la tarjeta de interfaz de red (NIC).
Una NIC es una tarjeta adaptadora de hardware que puede conectarse en una de las
ranuras (slots) de un sistema de computadora. Es a través de esta tarjeta que una
computadora se conecta a la red.
Los puentes sencillamente permiten conectar dos segmentos de red. A menudo, son
útiles para conectar dos redes diferentes, como por ejemplo, aquellas basadas en
Ethernet y algún otro tipo de red.
Cuando los datos se envían entre dos redes diferentes, es posible que la estación
destino no sea capaz de leer los datos pertenecientes a redes diferentes. Los puentes
permiten superar este problema convirtiendo los datos que deben llegar a una estación
destino en un formato entendible.
De manera indirecta, los puentes ayudan a regular y controlar el tráfico de red, a través
de las direcciones físicas (MAC). Cada dispositivo de interconexión (networking) posee
una dirección física (MAC) exclusiva en la NIC, el puente rastrea cuáles son las
direcciones físicas (MAC) que están ubicadas a cada lado del puente y toma sus
decisiones basándose en esta lista de direcciones físicas (MAC) que mantiene en su
memoria principal. Ver Figura 2.4.
el tiempo de recepción pase antes que el puente transmita todos los datos a la LAN más
lenta. Después de un número específico de intentos, la transmisión puede fallar,
informándose a la capa de transporte que la LAN destino está inactiva o no funcional.
Los enrutadores permiten direccionar los datos a varias partes específicas de una red,
basándose en la dirección IP del mensaje.
3.4 Brouters
• El switch capa 3 Red (OSI), nombrado como switch enrutador (router) que
permite que trabaje con protocolos para el manejo de paquetes, tales como IP e
IPX.
• Switch capa 4 Transporte (OSI), es capaz de decidir el despacho de la
información a los protocolos TCP/UDP de acuerdo a los puertos suministrados
por una aplicación del usuario.
Los conmutadores o switches hoy día están sustituyendo a los concentradores(hubs),
puentes (bridges) y los enrutadores (routers), la razón es que los switches operan
mucho más rápido porque pueden proveer a cada par de líneas de
transmisión/recepción el ancho de banda completo, en lugar de compartir el ancho de
banda con el resto de los nodos de red.
Las ventajas de los switches ya sean en redes Ethernet o Token Ring son:
• Permiten crear redes de Área Local Virtuales (VLAN/Virtual Local Area Network):
Con el uso de los switches es posible organizar sistemas según su función
lógica en la red, en comparación con su localización física. De manera que, los
usuarios de un sistema pueden tener acceso al mismo desde cualquier
localidad. Por ejemplo, si se tiene una VLAN de una corporación que posee
sucursales en Miami, New York y Roma, los usuarios definidos en esa VLAN
podrán acceder a los sistemas a pesar de las diferentes ubicaciones físicas.
• Mayor seguridad por defecto: Uno de los problemas de seguridad más comunes
es evitar los husmeadores o sniffers (intrusos que examinan los datos que viajan
sobre una red). Una forma de hacerlo es usando una VLAN, debido a que se
pueden aislar los sistemas más sensibles en la organización para que sólo sean
accedidos por grupos elegidos, ya que cada conexión hecha por un switch es
dedicada, en cambio en una red basada en concentrador (hub), cualquier
sistema puede considerar todas las conexiones hechas en la red.
• Facilidad de instalación: Solo requiere desenchufar las conexiones de los
dispositivos existentes y reconectarlos a los puertos del switch.
• Aumento de la velocidad en el circuito de las tarjetas madres (motherboard) de
los switches: Permite que dos usuarios de segmentos distintos de una red LAN
posean el mismo ancho de banda, lo que evita que un switch se convierta en un
elemento cuello de botella en la red.
• Control del Ancho de Banda: Al usar un switch, es posible controlar el ancho de
banda disponible para un cliente o un servidor.
Cuando se tiene que administrar el tráfico creciente en una red LAN se debe tener en
cuenta que:
• Se deben usar los puentes con la finalidad de dividir la red en dos segmentos,
también es válido utilizar switches LANs de capa 2 en cualquiera de la
tecnologías Ethernet, Fast Ethernet, Token Ring y FDDI (Fiber Distributed Data
Interface).
Una vía de acceso proporciona una entrada para la comunicación entre sistemas que
no son capaces de comunicarse entre ellos. No están restringidos en sus funciones a
ninguna capa específica del modelo OSI y pueden trabajar en todas las capas. Son
básicamente como traductores.
Considere que un cliente quiere conectarse a un mainframe IBM que está disponible
sobre una red SNA. Más que conectar físicamente cada estación de trabajo cliente a
ambas redes LAN y SNA, puede instalarse una vía de acceso en LAN (ver Figura 2.5).
La vía de acceso puede estar conectada físicamente a ambos, la LAN y el enlace de la
SNA. Los clientes pueden enviar sus solicitudes a la vía de acceso y la vía de acceso
puede transformar la solicitud y enviarla al mainframe a través del enlace al SNA.
Una vía de acceso puede ser diseñada ya sea como un componente de hardware o
como software. Usualmente, una vía de acceso es un servidor dedicado que tiene un
software de vía de acceso. Para que la transformación de datos ocurra, una vía de
acceso necesita memoria adicional y capacidad de procesamiento.
Las ventajas de las vías de acceso son:
• Actúan como puertas de acceso a una variedad de recursos de red.
• Mejoran la forma en la cual es utilizado el hardware.
• Reducen las obligaciones de administración en una estación de trabajo del
cliente.
En la Tabla 2.1 se muestran los dispositivos de interconexión de red y los niveles OSI
que abarcan.
3.7 MODEM
El Patch Panel es un panel que contiene todos los puertos de la red en forma
organizada, dentro de un armario de telecomunicaciones. Este punto central permite
conectar los cables que vienen de diferentes unidades administrativas, para que se
forme una LAN y también permite conectar una o más redes a Internet o a alguna otra
WAN.
5. Tipos de Transmisión
Cuando se instala una red, los datos deben ser transmitidos por un medio, bien sea a
través de un cable o el espacio, por tanto, es necesario conocer algunos términos como
son los siguientes:
• Banda Base.
• Banda Ancha.
• Modo de Transmisión Síncrona.
• Modo de Transmisión Asíncrona.
• Flujo de Transmisión.
A continuación se detallan los términos mencionados anteriormente:
• Banda Base: La Banda Base usa el ancho de banda del medio para un solo
canal y es comúnmente usado para señales digitales al igual que señales
analógicas. En las redes LANs (Ethernet o Token Ring) utilizan señalización
digital. En banda base se utiliza la tecnología de multiplexado por división de
tiempo (TDM), es decir, se envían múltiples señales por el mismo medio
intercalando las señales en función del tiempo, por ejemplo; si se envían las
señales A, B y C en un patrón AABBCCAABBCC, el dispositivo receptor será
capaz de separar cada señal A, B o C del flujo de señales recibidas.
• Banda Ancha: La Banda Ancha divide el ancho de banda del medio entre
múltiples canales y cada canal lleva una señal por separado. Este método
permite que por un solo medio de transmisión se realicen varias conversaciones
simultáneas sin interferencias entre ellas. La banda ancha es usada solamente
con señales analógicas y no puede aplicarse a señales digitales porque estas
señales pueden interferir unas con otras. Por tanto, la transmisión en banda
ancha requiere el uso de módem para convertir las señales digitales a
analógicas y viceversa. La Banda Ancha utiliza la tecnología de transmisión de
multiplexión por división de frecuencia (FDM), es decir, se envían múltiples
señales por el mismo medio cada una correspondiendo a una frecuencia dentro
de un rango de frecuencias predefinidas, el dispositivo receptor será capaz de
distinguir la señal por la frecuencia que le fue asignada La transmisión en Banda
Ancha, es también usada en televisión por cable y en medios inalámbricos
(wireless).
• Transmisión Síncrona: Los dispositivos de red y los dispositivos de acceso a la
red comparten un mismo reloj a una tasa de transmisión, es decir, están
sincronizados, pues ocurre una transmisión de un flujo de datos enmarcados con
una secuencia de parada y espera asociada a cada transmisión.
• Transmisión Asíncrona: Una transmisión asincrónica se caracteriza porque los
dispositivos de red y de acceso al medio no poseen el mismo reloj, aunque la
tasa de transmisión sea la misma, de modo que la transmisión se realice como
caracteres individuales, donde cada carácter es sincronizado por una
información de los bits de encabezado y parada.
• Flujo de Transmisión de datos: Define la dirección del flujo de datos entre dos
dispositivos en una red.
Existen tres tipos de flujo de datos que son:
• Simplex: Los datos viajan en una sola dirección, por ejemplo cuando se realiza
una transmisión de los programas de televisión.
• Half duplex: Los datos viajan en dos direcciones (origen-destino, destino-
origen), pero no simultáneamente, un ejemplo son los dispositivos de
comunicación conmutados nombrados como walkie-talkie.
• Full duplex: Los datos viajan en dos direcciones (origen-destino, destino-
origen), pero simultáneamente, ejemplos de esto son: una conversación
telefónica y las tecnologías Ethernet full-duplex que trabajan en el orden de los
Gigabits.
6. Redes Cableadas
Las redes utilizan varios medios para transmitir los datos. Los cables fueron el medio
físico que se utilizó principalmente en los inicios de las redes. El uso de los cables fue
determinante en las topologías y velocidades de las redes, por esto, es necesario
comprender las características técnicas de estos medios de transmisión.
6.1 Cables
Los cables son el medio físico a través del cual se envían los datos y enlazan
físicamente entre sí los elementos en una red. Existen diferentes tipos de cables cuya
función básica es actuar como portadores de datos, pero que difieren en sus
propiedades y funcionamiento. Los tipos de cables son:
• Cable de par trenzado.
• Cable coaxial.
• Cable de fibra óptica
A continuación se discute brevemente acerca de cada uno de estos tipos de cable.
Los cables de par trenzado son cables que poseen cuatro pares de cables de cobre
trenzados, que son similares a los alambres utilizados para conectar los teléfonos.
• Existe un límite de 100 metros en la distancia entre dos sistemas conectados por
cables de par trenzado.
Las desventajas de los cables de par trenzado son:
• No pueden ser utilizados para una comunicación de larga distancia debido a la
atenuación de la línea.
• Propensos a errores, debido a que tienden a adquirir ruido en el curso de la
transmisión.
El cable de par trenzado se usa en muchas redes estándar. Por ejemplo, las redes
10BaseT Ethernet lo usan. El nombre "10BaseT" denota una red con una velocidad de
10 Mbps y usa transmisión banda base y cable par trenzado (T).
La Tabla 2.2 muestra las categorías de Cable de Par Trenzado TIA/EIA 568.
Un cable coaxial tiene dos conductores, los cuales comparten el mismo eje. El primer
cable, es aislado en el centro por una goma espuma. Después de este cable se
encuentra el segundo cable. Estos dos cables están juntos envueltos en papel aluminio,
los cuales a su vez están dentro de un tubo externo de plástico.
Un cable coaxial puede transmitir ya sea una sola señal de alta velocidad (Banda Base),
o múltiples señales de diferentes frecuencias (Banda Ancha).
Note que el valor de la impedancia se lista por cada tipo de cable. La impedancia es la
medida de la resistencia del cable al cambio de la señal.
Los cables de fibra óptica están hechos de vidrio conductor de luz o en fibras de
plástico, rodeados de una envoltura protectora y una envoltura exterior durable.
Las redes inalámbricas hoy día tienen una gran importancia debido a que los usuarios
poseen equipos móviles con mayor capacidad de proceso como Laptops, PDAs,
celulares, etc. y desean mantener conectividad a la red de su hogar o de su empresa
sin importar donde se encuentren ubicados, esto ha proliferado de tal manera que en
los hoteles, aeropuertos, centros comerciales y universidades ofrecen estos servicios
gratis o a un costo muy bajo.
que transita la luz. Un sistema estándar que utiliza una NIC inalámbrica se llama punto
terminal (end point).
Si se desea que una cantidad de datos puedan ser transportadas a una alta velocidad
por ejemplo un T1 (1,544 Mbps) o T3 (44,736 Mbps), es necesario utilizar la tecnología
de espectro ensanchado (Spread Spectrum). Esta metodología consiste en organizar la
energía de las radiofrecuencias sobre una gama de frecuencias, con la finalidad de que
el transmisor opere en una frecuencia y en otro instante opere en otra. Del mismo
modo, el receptor esta sincronizado para conmutar los patrones de frecuencias que
utiliza el transmisor. Esto previene la interferencia de intrusos.
Una célula inalámbrica viene a ser una colección de clientes que se conectan a un
WAP. Si alguno de estos clientes se aleja del WAP, es menos probable que pertenezca
a ese WAP, por que el alcance de las señales electromagnéticas que emite el WAP es
muy débil, siendo este propenso a interferencias. Las células también son llamadas
“esferas de influencia” de un WAP especifico.
Un usuario puede trasladarse con su equipo móvil por ejemplo un PDA, Laptop, etc. y
puede pasar a través de varias células inalámbricas e ingresar a ellas y a sus recursos
a veces en forma ilícita, por esto la protección que deben poseer las WAPs.
Entre los recursos a los que puede acceder un usuario móvil están: bases de datos,
servicios de correos, conexión a Internet y a otras redes.
Siempre que un WAP este listo para aceptar conexiones, el software que administra el
indicador de presencia-baliza (beacon) del WAP envía un marco especial de Ethernet
llamado un marco de la gerencia del indicador de presencia-baliza (beacon). Este
indicador informa a los clientes sobre la disponibilidad del WAP. Aquellos clientes que
no se configuran para hacer un uso particular del WAP, el indicador de presencia-baliza
determina su participación en una red inalámbrica. Si un cliente sabe a donde ir, no
utiliza el indicador de un WAP. El indicador contiene el SSID.
puedan utilizar los servicios que ofrecen los servidores centrales y comunicarse
entre ellos como si están en una sola red LAN.
Al ser proporcionado la NIC va a permitir que el administrador del sistema decida entre
usar el modo infraestructura o el modo ad hoc.
Los WAPs como los enrutadores (routers) inalámbricos proveen las características que
ayudan a parar la conducción de la guerra “war driving”, y son las siguientes:
Tanto WEP como el Filtrado de Direcciones MAC son herramientas útiles para un
administrador de redes, ya que permite mantener fuera de la red a los usuarios ilícitos
que desean conectar sus sistemas a la red. Los sistemas ilícitos que se conectan a la
red a menudo se llaman sistemas destructivos.
Existen varios factores a considerar cuando se evalúa el sentido práctico de una red
LAN inalámbrica en una organización. Usar la radiofrecuencia puede ser menos costoso
que instalar cables nuevos, especialmente si es en un edificio viejo. Sin embargo, si la
red está distribuida en una región geográfica amplia, se debe considerar cuántos puntos
de acceso necesitará.
8. Estándares LAN
El Instituto de Ingenieros Eléctricos y Electrónicos IEEE (Institute of Electrical and
Electronics Engineers) es una organización de profesionales que definen los estándares
de las computadoras y las comunicaciones. La serie de estándares IEEE 802 especifica
varias tecnologías de redes LAN. Para más información consulte el sitio Web IEEE en
www.ieee.org.
Un factor que distingue entre tecnologías de redes LAN, es sus métodos de acceso.
Los métodos de acceso se refieren a la manera que los datos se ponen en el alambre
físico para la transmisión. Las series 802 incluyen el Múltiple Acceso Sensible a
Portadora/Detección de Colisión (CSMA/CD, Carrier Sense Multiple Access/Collision
Detection), uso de Pase de Testigo (token) y métodos de acceso de la prioridad por
demanda.
• IEEE 802.3u — Fast Ethernet: Ethernet rápida (fast Ethernet) es una versión
más rápida de IEEE 802.3. Fue desarrollada originalmente por los vendedores:
3Com, Cabletron, SynOptics, Digital, Grand Junction Networks e Intel. El comité
de IEEE 802.3 es responsable de Ethernet rápida. El objetivo principal del
estándar rápido de Ethernet es promover el uso de Ethernet a 100 Mbps usando
el mismo método de acceso, CSMA/CD. Ethernet rápida apoya los estándares
del cableado 100BaseTX y 100BaseT4, que requieren el cableado de la
categoría 5 UTP para soportar 100 Mbps. Puede también utilizar 100BaseFX,
que es el cableado de fibra óptica. Los vendedores apoyan las tarjetas rápidas
de Ethernet que utilizan velocidades de transmisión de datos a 10 Mbps y 100
Mbps.
Muchos administradores de red están actualizando sus redes de 10BaseT a
100BaseTX o a 100BaseT4. En muchos casos, esta mejora se puede obtener
substituyendo las NICs de 10BaseT por NICs de 100BaseTX o NICs de
100BaseT4, además de actualizar los concentradores para apoyar el 10BaseT y
100BaseTX o 100BaseT4. Este proceso es generalmente menos costoso que
actualizar a 100BaseFX o a un anillo con token (token-ring) a 16-Mbps, a
100VG-AnyLAN o una red FDDI.
• IEEE 802.3z y 802.3ab — Gigabit Ethernet: Ethernet Gigabit es la tecnología
más rápida del LAN 802.3 y se utiliza sobre todo para los backbones de la red.
El estándar de Ethernet gigabit transfiere datos a 1.000 Mbps usando el método
de acceso de CSMA/CD. Los dos tipos de Ethernet Gigabit son:
− IEEE 802.3z: Este estándar se especifica especialmente para el cable de
cobre y el cable de fibra óptica.
− IEEE 802.3ab: Este estándar especifica Ethernet Gigabit sobre el cable UTP
de categoría 5.
Ethernet Gigabit soporta el cableado el estándar 1000BaseT, el cual usa cable
categoría 5 UTP que soporta 1.000 Mbps, también puede utilizar 1000BaseCX,
1000BaseSX y 1000BaseLX, que utilizan cables de fibra óptica.
• IEEE 802.5 — Token Ring: La red Token Ring se especifica en la definición de
IEEE 802.5. El token ring fue desarrollado inicialmente por IBM para su ambiente
de mainframe y el estándar de IEEE 802.5 se conforma con el desarrollo original
de la corporación. El token passing es el método de acceso del LAN usado por
las redes del token ring. Un marco (frame) de los datos o token se pasa de un
nodo al siguiente alrededor del anillo de la red.
Esta sección discutirá dos estándares de redes LAN, que no están incluidos con los
estándares de IEEE. Estos estándares son propietarios o estandardizados por otra
organización. Ellos son:
• Apple LocalTalk.
• Fiber Distributed Data Interface (FDDI).
8.1.1 Apple LocalTalk
8.1.2 Interfaz de Datos Distribuida por Fibra (FDDI /Fiber Distributed Data
Interface)
El estándar especifica la subcapa MAC de la capa de enlace de datos, así como las
capas físicas para una velocidad de 100 Mbps doble anillo, token ring, redes LAN con
cable de fibra óptica.
El FDDI utiliza dos anillos con token para proporcionar redundancia y para permitir que
la red funcione si un anillo falla. El FDDI funciona bien sobre distancias de hasta 200
kilómetros (con un solo anillo) y con 1.000 estaciones conectadas. En una topología del
doble-anillo, cada anillo se limita a 100 kilómetros. Debido a que se utiliza a menudo
para cubrir una ciudad o un área geográfica específica, una red FDDI se puede
clasificar como Red de Área Metropolitana (MAN). El FDDI soporta el tráfico síncrono y
asincrónico. Una red del FDDI se ilustra en la Figura 2.9.
.
Figura 2.9: Red FDDI
Para resumir los métodos de acceso, IEEE 802.3 y Ethernet usa CSMA/CD, las redes
LocalTalk utilizan CSMA/CA, las redes Token-Ring utilizan un método basado en testigo
(token) y las redes 100VG-AnyLAN usan demanda por prioridad.
9.1 X.25
X.25 es una tecnología bastante antigua cuyos servicios han sido reemplazados por
nuevos estándares.
9.2 ATM
La ATM series 1 ofrece cuatro clases sobre las cuales pueden operar los protocolos de
capas superiores y son las siguientes:
• Servicio sin conexión.
• Servicio orientado a la conexión.
• Servicio de envío a velocidad de bits constante.
• Servicio de envío a velocidad de bits variable con retrasos fijos.
Las siguientes son algunas características de ATM:
• Los servicios están diseñados para diferentes tipos de datos. Por ejemplo, las
redes de computadoras utilizan servicio sin conexión, mientras que audio y video
utilizan el servicio de velocidad de bits constante.
• En ATM, el tamaño del paquete estándar para la transmisión de datos es 53
bytes. A cada paquete se le conoce como celda. De los 53 bytes, la información
de cabecera ocupa 5 bytes, mientras que los datos ocupan los 48 bytes
restantes.
• ATM es considerado un protocolo WAN, pero tiene especificaciones para LAN y
MAN.
• Su velocidad varía en el rango de 52 Mbps a 2,5 Gbps.
• Muchos productos ATM típicamente trabajan con 155 Mbps y 622 Mbps.
• ATM trabaja en la capa LLC (Control de Enlace Lógico) de enlace de datos para
ofrecer comunicación asíncrona y algún control de errores.
• ATM trabaja en la capa de red para proveer retransmisión en la conmutación de
celdas de circuitos virtuales y servicio de selección de rutas estáticas.
9.3 Red Digital de Servicios Integrados y de Banda Ancha (ISDN)
ISDN requiere conversión de redes telefónicas en facilidades digitales, de modo que las
señales tanto analógicas y digitales pueden ser transmitidas sobre el mismo medio. Los
usuarios acceden a canales digitales a través de conexiones de conmutación de
circuitos o conmutación de paquetes conocidos como tuberías de bits (bit pipes).
La conmutación de tramas tiene las mismas bases que el X.25, sin embargo, asume
que la red es confiable y presenta pocos errores. Por esta razón, tales redes utilizan
pocos servicios de conectividad. Sus velocidades también son más rápidas que en
redes X.25. Es ideal para redes de datos públicas y provee funciones eficientes de la
capa de enlace de datos sobre redes PVC.
9.5 SONET/SDH
SONET implementa una arquitectura de anillo con por lo menos dos trayectorias o rutas
de datos. Si una trayectoria falla, el sistema utiliza la otra trayectoria. Debido a esta
característica, SONET/SDH es llamada la arquitectura de anillo auto-remediable (self-
Unidad 2: Dispositivos de Redes Volumen 1: Principios de Redes y Protocolos 76
Los niveles del portador óptico de OCx definen las velocidades de la transmisión usadas
en SONET/SDH.
Resumen
Ahora que ha finalizado esta unidad, usted debe ser capaz de:
3) Las vías de acceso (gateway) funcionan en todas las capas del modelo OSI.
a) Verdadero
b) Falso
Los protocolos host a red funcionan en la capa física y en la capa de enlace de datos
del modelo OSI. Estos protocolos son implementados en la Tarjeta de Interfaz de Red
(NIC - Network Interface Card). La interfaz host a red se ubica entre la NIC y la capa IP.
Se discute brevemente acerca de la NIC en la siguiente sección.
1.1 NIC
La NIC consiste de la capa física y la capa de enlace de datos las cuales trabajan en
conjunto como se muestra en la Figura 3.1.
00:80:5F:EA:C6:10
Se aprendió que la NIC provee los medios para conectar computadoras a una red y se
discutió cómo la NIC lleva a cabo estas tareas.
¿Cómo se logran las conexiones reales?. Las máquinas en una red están conectadas a
través de un cable u otro medio de comunicación único. Esto indica que debe haber un
método específico para que cada máquina en la red utilice el medio. Este método se
llama acceso al medio.
Los siguientes son los métodos principales de acceso al medio de redes de área local
(LAN):
• Acceso Múltiple por Detección de Portadora con Detección de Colisiones
(Carrier Sense Multiple Access with Collision Detection - CSMA/CD).
• Polling (Sondeo).
• Token Passing (Paso del Testigo).
• Acceso Múltiple por Detección de Portadora con Prevención de Colisiones
(Carrier Sense Multiple Access with Collision Avoidance - CSMA/CA).
1.2 CSMA/CD
En una red, cualquier dispositivo puede transmitir datos en cualquier instante de tiempo.
Considere un escenario donde dos computadoras empiezan a transmitir datos al mismo
tiempo en un medio compartido. Esto resulta en una colisión. Una colisión es una
condición de error. En tal situación, las dos computadoras intentan reenviar el mensaje
después de un período de tiempo. Cada computadora espera un período de tiempo fijo
antes de intentar reenviar el mensaje. El período de tiempo varía para diferentes
computadoras en una red. A continuación se aprenderá acerca de este método de
acceso al medio.
El proceso que ocurre cuando un protocolo utiliza CSMA/CD, tal como se muestra en la
Figura 3.2.
1.5 CSMA/CA
Se han estudiado los métodos de acceso al medio y las reglas de bajo nivel para la
comunicación en una red, a continuación se presentan las reglas de direcciones IP para
la comunicación a alto nivel.
3. Servicios IP
Los siguientes son algunos de los servicios IP:
• Determinar el tipo de tráfico: Una vez que el datagrama es recibido, la
cabecera del datagrama es verificada para determinar el tipo de tráfico. Esto es
usualmente hecho por un gateway.
• Editar y validar el datagrama: Si el datagrama es un datagrama Internet, será
enviado por el gateway a un verificador de cabeceras Internet para ser validado.
Allí, la cabecera Internet es verificada, editada y validada.
• Determinar el gateway destino: El datagrama validado será revisado para
obtener la dirección Internet destino y determinar si está dirigido a un gateway
particular.
• Dirigir el datagrama: Si el datagrama está dirigido a algún otro gateway,
entonces es dirigido al siguiente en la red haciendo uso de rutinas de reenvío IP.
• Descartar el datagrama: Si el datagrama falla en cualquier validación o se
encuentra erróneo, es descartado.
El enrutamiento es una de las principales funciones del IP. El dato es enviado de la
máquina emisor al receptor por diferentes caminos a través de la red. En la Internet, el
dato puede ser transmitido a través de múltiples redes.
IP puede localizar el gateway más cercano que puede ser alcanzado por la red actual,
esto se realiza usando una tabla. Esta tabla puede ser estática o dinámica y depende
de cómo esté implementado el IP. Usualmente se utiliza una tabla dinámica.
4. Direcciones IP
Una forma de identificar las diferentes máquinas conectadas a través de múltiples redes
es asignar una dirección única a cada máquina. Tener tal dirección hace el proceso de
comunicación entre máquinas diferentes, dentro y a través de redes, más simple y
confiable.
La familia TCP/IP proporciona una forma simple de hacer corresponder una dirección de
bajo nivel a una dirección de alto nivel. Tal correspondencia se realiza utilizando un
número de 4 bytes (32 bits). Este número se representa en notación decimal punteada.
Cada máquina en una red utilizando TCP/IP posee una dirección. Esta dirección es
conocida como la dirección IP de la máquina y es utilizada por el IP para enviar datos
en la forma de datagramas. Una dirección IP por ejemplo es 122.81.4.233.
A continuación se revisa la Tabla 3.1, para entender la relación entre los números en
notación decimal punteada y las clases de direcciones IP.
Clase Menor Dirección Mayor Dirección
A 1.0.0.1 126. 255.255.254
B 128.0.0.1 191.255. 255.254
C 192.0.0.1 223.255.255.254
D 224.0.0.0 239.255.255.255
E 240.0.0.0 247.255.255.255
Tabla 3.1: Rangos de Direcciones IP
Es posible para una máquina tener múltiples direcciones IP. Por ejemplo, un enrutador
que permite enlazar dos redes distintas en la Internet, tiene dos direcciones IP. Las
máquinas en la red local identifican un enrutador usando una dirección IP, mientras que
otras máquinas en la Internet lo identifican usando otra dirección IP. Esto se muestra en
la Figura 3.6.
La Figura 3.6 muestra el servidor llamado projects.ibm.com, que posee dos NICs, una
con la dirección IP 220.170.63.1 y la otra con la dirección IP 122.80.71.2. Una dirección
IP permite identificar las máquinas en la red local, mientras que la otra dirección permite
que otras máquinas en la Internet puedan identificarla. Las máquinas que posean
múltiples NICs también son llamadas máquinas “multi homed”.
5. Direcciones IP de Broadcast
Normalmente, un paquete IP puede ser enviado desde un origen a un receptor
designado con una única dirección IP. Sin embargo, la dirección IP puede también ser
difundida a todas las computadoras ubicadas en una red particular. Esta característica
puede ser útil cuando una computadora quiere difundir el mensaje a todas las
computadoras en una red particular. Una dirección IP de broadcast tiene todos los bits
del identificador de host con el valor 1.
En algunas ocasiones, se puede tener que difundir un paquete a todas las máquinas en
la red local. Esto se puede realizar, empleando la dirección de broadcast limitado,
donde los 32 bits de la dirección IP deben tener el valor 1, como se muestra en la Figura
3.7.
La Tabla 3.1 muestra que no todas las posibles direcciones en las clases han sido
reservadas, específicamente, el rango de direcciones a partir de 127.0.0.0 a
127.255.255.254 no han sido reservadas. Estas direcciones se llaman direcciones
loopback.
Si se utiliza una dirección loopback como destino del paquete, ningún dato llegará a esa
dirección. Los paquetes enviados a una dirección loopback no se mostrarán en ninguna
red. Esto se usa principalmente sólo en la máquina local. También se utiliza para probar
el TCP/IP y la comunicación entre procesos internos en la máquina local.
6. La Subred IP
Una máscara de subred (subnet mask) es una secuencia de bits que se utiliza para
separar las direcciones de red y host una de la otra. Los rangos de las máscaras para
las diferentes clases son:
• Máscara para la Clase A: 255.0.0.0
• Máscara para la Clase B: 255.255.0.0
• Máscara para la Clase C: 255.255.255.0
A través de los años, se han ido agotando las direcciones IP y ha sido debido a la
ineficiente asignación de direcciones. Por ejemplo, si una compañía requiere cerca de
1,000 direcciones, debe tener reservadas direcciones de Clase B, ya que usar
direcciones de Clase C será ineficiente. Esto resulta en un enorme desperdicio de
direcciones (65,534 - 1,000 direcciones).
Para resolver este problema, los administradores de direcciones Internet han adoptado
máscaras de subred para crear subredes, dentro de una red. Esta máscara divide la
porción de dirección del host en otro conjunto de direcciones red-host. Además, al crear
subredes se resuelve el problema del agotamiento de direcciones IP en una forma
limitada, pero efectiva.
En subredes de longitud variable, cada subred dentro de una red puede tener máscaras
de subred variables. Considerando el mismo ejemplo, en el caso de SN1 se puede usar
la máscara de subred 255.255.255.224 y para SN2 se puede usar la máscara de subred
255.255.255.192.
Para crear subredes a partir de una dirección IP de red padre, la idea es "tomar
prestado" los bits de host pasándolos a los bits de identificación de red. ¿Cuántos?
Bueno, depende de las subredes que se quieran obtener, teniendo en cuenta que
mientras más bits se tomen prestados, más subredes se obtienen pero con menos host
cada una. Por lo tanto, el número de bits a tomar prestado depende de las necesidades
de funcionamiento de la red final.
Para obtener la máscara de subred basta con presentar la dirección propia de la subred
en binario, poner a 1 todos los bits que se van a dejar para la parte de red, incluyendo
los que se tomaron prestados de la porción de host y poner a 0 todos los bits que
queden para los host. Por último, se pasará la dirección binaria resultante a formato
decimal separado por puntos y esa será la máscara de la subred.
150.10.x.x = 10010110.00001010.hhhhhhhh.hhhhhhhh
10010110.00001010.rrrrhhhh.hhhhhhhh
11111111.11111111.11110000.000000
255.255.240.0
Las máscaras de subred, al igual que ocurre con las máscaras de red, son muy
importantes, resultando imprescindibles para el trabajo de enrutamiento de los routers.
Se combinan los bits de host que se tomaron prestados para obtener las subredes que
son:21=2. Es decir, 2 subredes:
210.25.2.0 (11010010.00011001.00000010.0)
210.25.2.1 (11010010.00011001.00000010.1).
Pero no se puede disponer de la subred que toma el 0, porque contiene la IP de la red
padre, ni de la que toma el 1 ya que contiene la dirección de broadcast de la red padre.
En conclusión, robando 1 solo bit no se pueden crear subredes.
En este caso, los bits de host son 8, entonces el número de subredes obtenidas al
quitar r bits a la porción de host será 2r-2 y el número de host disponible en cada subred
será 2(8-r)-2.
Las direcciones de subred se obtienen haciendo las combinaciones posibles con los 2
bits que se tomaron prestados:
Subred #0:
11010010.00011001.00000010. 00 000000
Subred #1:
11010010.00011001.00000010.01000000
Subred #2:
11010010.00011001.00000010.10 000000
Resumiendo: se obtienen dos subredes válidas, con 62 direcciones IP válidas cada una.
La máscara de subred es la misma para todas las subredes que se obtienen robando 2
bits a la porción de host y lo mismo ocurre para el robo de otro número de bits.
7. Direcciones IP Privadas
Muchas empresas para ahorrar dinero, utilizan un conjunto reducido de direcciones IP
públicas y mantienen un conjunto privado de direcciones para sus operaciones internas.
La ICANN (Internet Corporation for Assigned Names and Numbers/Corporación de
Internet para la Asignación de Nombres y Números) sugiere que se utilicen direcciones
privadas bajo las siguientes condiciones:
• El host no se comunique con otra empresa u otro host en Internet.
• Los hosts que consultan Internet sean manejados por un gateway, por ejemplo
un gateway de capa aplicación. En este caso, los host pueden requerir solo
servicios de Internet limitados, tales como: correo electrónico, FTP, grupo de
noticias y navegación Web.
La Tabla 3.2 muestra una lista de direcciones IP privadas:
Clase Rango de Direcciones IP Privadas Máscara de Subred
A 10.0.0.0 a 10.255.255.255 255.0.0.0
B 172.16.0.0 a 172.31.255.255 255.240.0
C 192.168.0.0 a 192.168.255.255 255.255.0.0
Tabla 3.2: Direcciones Privadas IP
La tabla muestra que las clases B y C no usan las máscaras de sub-red estándar,
aunque, los administradores de redes frecuentemente usan las máscaras de subred
estándar de clases B y C, pero esto no es lo que recomienda la RFC 1918 (Request For
Comments. Visite www.rfc.org).
Hoy día, las direcciones IP no se asignan según su clase A, B o C, sino son asignadas
de acuerdo a un rango de direcciones específicas, a cada rango le será asignada una
máscara de subred, presentada en la notación Enrutamiento entre Dominios Sin Clases
(CIDR - Classless Interdomain Routing) con el siguiente formato:
La dirección de bloque y el prefijo son dados, este último indica la máscara de subred
designada para esa dirección IP. Por ejemplo, si se tiene un rango de direcciones desde
55.66.77.88 hasta 55.66.88.99 con una máscara de subred de 255.255.255.0 se escribe
de la siguiente manera:
Al usar la notación CIDR, permite a la ICANN conservar las direcciones IP, porque esta
organización sólo asigna a un cliente un número de dirección específica en lugar de un
conjunto de direcciones. Si se utiliza esta notación para las direcciones IP privadas se
tiene la Tabla 3.3.
en los enrutadores del backbone de Internet. Este esquema IPv4 posee varias
deficiencias como las siguientes:
• Espacio de Direccionamiento Limitado: Para IPv4 se tiene más de 4,2 mil
millones de direcciones asignables. Este número parece ser suficiente, pero no
es así, porque no provee suficiente direccionamiento IP para aquellos
dispositivos (computadores, PDA, teléfonos celulares, etc.) que aceptan
direcciones IP en el futuro.
• Carencia de Seguridad: IPv4 no provee cifrado nativo o mecanismos de
autenticación, la cual ha permitido que individuos o grupos inescrupulosos
emprendan ataques para obtener el acceso no autorizado a la información
sensible.
• Problemas de Velocidad: IPv4 es altamente dependiente de los routers de
redes que analizan las transmisiones, los cuales pueden aumentar el tráfico en
la red y hacer más lenta la velocidad de transmisión.
• Problemas de Configuración: La configuración de la dirección IPv4 puede ser
automatizada, pero el proceso todavía debe ser simplificado.
La versión IPv6 soluciona estos problemas y permitirá que la Internet funcione
eficientemente en el futuro. Esta versión soluciona no sólo los problemas de
direccionamiento y de la tabla de enrutamiento, sino que también mejora el protocolo.
Por ejemplo, es más eficiente y requiere menos gastos indirectos administrativos que
IPv4.
3001:0000:0000:0000:3BB:2FA:4F8E:FF12
Una dirección IPv6 será dada con un bloque de dirección con prefijo (CIDR) para una
zona geográfica, por ejemplo:
2001:2038/32
Este bloque de direcciones puede abarcar una zona geográfica bastante amplia como
un país o continente, pues puede albergar en sí 296 (más de 79,228x1027)
IPv6 es menos dependiente que IPv4 en los routers, las cuales ayudan a reducir la
probabilidad que los routers se sobrecarguen, es decir, se congestionen. Para más
información sobre IPv6, visite la página www.ipv6.org.
IPv6 se puede implementar a partir del 2005 hasta el 2015 y esto dependerá de que tan
rápido se utilicen las direcciones IP actuales. Lo más seguro es que empiecen a
coexistir las direcciones en formatos IPv6 e IPv4 ya que IPv4 será usado en Internet por
varias generaciones más.
9. Datagrama Internet
Un datagrama Internet es la unidad básica de transmisión de datos dentro y a través de
redes. También se le conoce como datagrama o datagrama IP. Las siguientes son
algunas de sus características:
• Posee un área de cabecera y un área de datos.
• Contiene las direcciones origen y destino, junto con campo de tipo. Este campo
identifica los contenidos del datagrama.
• La cabecera incluye las direcciones IP.
La Figura 3.8 muestra la representación de un datagrama.
En teoría, los datagramas pueden ser de cualquier longitud, pero en realidad, deben ser
de un cierto tamaño para asegurar que su transmisión esté en una sola trama o “frame”
físico. La encapsulación puede ser definida como la técnica de ubicar un datagrama en
un “frame” de red físico.
Ahora, ¿Cómo decidir el tamaño de un datagrama, para asegurar que siempre entre en
un solo “frame”? Un datagrama puede ser transportado a través de varios tipos de redes
físicas, mientras atraviesa la Internet en su camino a un destino específico. Existe un
límite en la cantidad de datos que pueden ser llevados por un solo “frame”, el cual es
llamado la Unidad de Transferencia Máxima (MTU -- Maximum Transfer Unit). Una MTU
muy pequeña producirá que el proceso de transporte del datagrama sea ineficiente, ya
que grandes cantidades de espacio no serían utilizadas cuando el datagrama atraviese
una red que posee la capacidad de transmitir “frames” grandes. Por otro lado, un MTU
grande afectaría adversamente el proceso de transporte ya que no entraría en un solo
“frame”. El software TCP/IP ha resuelto este problema al dividir los datagramas a través
de un proceso llamado fragmentación. A continuación se observará cómo funciona.
Resumen
Ahora que ha finalizado esta unidad, usted debe ser capaz de:
Ejercicios de Laboratorio
1. Una dirección IP se da como 145.32.59.24. Exprese la dirección IP en forma binaria
e identifique la clase de la dirección.
8. Considere la dirección 127.0.0.1. ¿Qué tiene de especial esta dirección y cuáles son
las restricciones para su uso?
Tanto TCP y UDP hacen uso de IP para proveer los servicios de transferencia de datos.
Sin embargo, una desventaja del IP es que no garantiza transferencias de flujo de datos
(stream) confiables, esto es, no hay garantía que un datagrama sea enviado
correctamente. El IP descarta los datagramas que hayan excedido el ‘tiempo de vida’
(TTL) y están desactualizados, también descarta los datagramas que hayan realizado
un número fijo de saltos a través de nodos intermedios en una red. El TCP resuelve
este problema, al proveer un mecanismo que asegura algún control sobre el movimiento
de paquetes en la red.
La Figura 5.2 muestra una representación de los protocolos provistos en cada nivel de
la arquitectura TCP/IP.
TCP utiliza servicios IP para la transmisión de datos. Por ser IP un protocolo sin
conexión, las funciones de confiabilidad, control de flujo y administración de conexión
son dejadas al TCP. Además, TCP provee un conjunto de servicios a las capas
superiores.
TCP proporciona un método de envío confiable que provee una forma consistente de
transferir datos entre dos computadoras en una red. Sin embargo, existe la posibilidad
de perdida de datos en los niveles más bajos de la red, ya sea cuando se envían los
mensajes o que exista un volumen de tráfico grande bloqueando la red. Además, se
deben enviar grandes volúmenes de datos al nivel de aplicación. TCP se encarga de
todos estos problemas al proveer un envío de flujo de datos confiable. Esta función la
realiza a través del acuse de recibo positivo con retransmisión (positive
acknowledgement with retransmission).
Una vez que la máquina destino obtiene el dato, tiene que informar esto al emisor,
usualmente a través de un acuse de recibo (acknowledgement). Hasta que el emisor no
reciba esta información, no empezará a transmitir el siguiente segmento. Esto implica
que un acuse de recibo es enviado por el receptor después de cada recepción segura
de un segmento. Si el emisor no recibe un acuse de recibo, retransmite el mismo
segmento.
Finalmente, ¿Cómo el módulo TCP del receptor lleva el registro de los datos erróneos?
Esto se realiza usando una rutina de checksum que verifica el dato buscando daños
durante la transmisión. Si el dato no está dañado, TCP retorna un acuse de recibo al
módulo TCP emisor; de otra forma, el TCP receptor descarta el dato e informa al TCP
emisor del problema.
TCP necesita tener algún control sobre el flujo, para asegurar el envío de segmentos de
datos y emplea los números de secuencia para esto. Aparte de tener los números de
secuencia, mientras se reciben los bytes, TCP también reconoce el número de bytes
más alto contiguos recibidos sin error. Esto contribuye a una mayor eficiencia de
monitoreo del flujo de datos. Sin embargo, este proceso, también tiene una desventaja.
En tal caso, TCP debe reconocer sólo el máximo número de bytes recibidos en forma
contigua y que hayan sido recibidos sin errores. La desventaja aquí, es que el máximo
número de bytes no puede ser reconocido hasta que todos los bytes intermedios
alcancen el destino. La consecuencia es la sobrecarga en la red debido a la
retransmisión.
Unidad 5: Protocolo de Control de Transmisión y Protocolo de Datagrama de Usuario
Volumen 1: Principios de Redes y Protocolos 118
El TCP receptor puede controlar el flujo de datos del emisor. Una ventaja de esto es que
el problema de desbordamiento del buffer puede ser manejado en forma efectiva, lo que
evita que la máquina receptora se sobrecargue. Esto funciona con un método
ligeramente diferente e implica emitir un valor de ventana al emisor, al cual le está
permitido enviar únicamente un número específico de bytes dentro de esa ventana.
Cualquier transmisión más allá de este número específico da como resultado el cierre
de la ventana. El emisor entonces tiene que parar de enviar los datos.
TCP permite transmisiones simultáneas entre dos entidades en ambos sentidos. A esto
se le llama transmisión “full duplex”.
Cuando una señal llega para cerrar una conexión TCP, hay un número de cosas que
necesitan ser limpiadas. Por ejemplo, puede haber algunos paquetes para los que aún
no se recibe el acuse de recibo. TCP realiza esta actividad de limpieza y luego termina
la conexión TCP. Esto asegura que no exista tráfico que se haya creado anteriormente
y no haya emitido un acuse de recibo antes que la conexión sea cerrada.
3.1 Campos Puerto Origen y Puerto Destino (Source Port, Destination Port)
Los campos de puerto origen y destino ayudan a proporcionar una identidad única a los
extremos de origen y destino de la conexión. Se ha visto anteriormente que un número
de puerto que es bien conocido está entre 1 y 1024. Sin embargo, un número de puerto
bien conocido más allá del 1024 puede ser seleccionado. Utilizando este número, un
número único es generado, representado por el socket, el cual ocupa 48 bits. A esto se
le llama Punto de Acceso al Servicio de Transporte (TSAP - Transport Service Access
Point).
Durante la comunicación, TCP debe asegurar que es capaz de identificar los paquetes
enviados y recibidos, incluso en el caso que el paquete se pierda u ocurran otros
problemas. Para esto, los mecanismos de comunicación hacen uso de dos números,
llamados el número de secuencia y el número de acuse de recibo. El uso de estos será
tratado en detalle en la sección de Comunicación Punto a Punto usando TCP. Por
ahora, lo importante es que ambos números son de 32 bits.
Existen 6 bits que permanecieron sin ser utilizados, para encargarse de las fallas en las
versiones y varios relanzamientos de TCP. Hasta ahora estos bits permanecen sin uso.
Existen seis banderas de 1-bit en el segmento TCP que se usan para especificar y
transmitir alguna información específica acerca de la transferencia del paquete y la
conexión TCP en sí misma.
3.7 Checksum
Algunas veces el puntero de urgencia es necesario para enviar datos que deben ser
leídos por el receptor, sin esperar que se consuman otros datos que estén en la
secuencia a ser transmitidos. En tales casos, el puntero URG se establece para indicar
datos urgentes. El puntero de urgencia apunta a los datos en el segmento TCP, donde
el primer elemento de datos urgentes está presente. Cuando el URG no se establece,
entonces, este campo no es utilizado.
Como muestra la Figura 5.6, el proceso no presenta ningún problema, debido a que los
números de secuencia, números de acuse de recibo y mensajes siempre son
transmitidos correctamente. El “three-way handshake” sólo indica como las conexiones
son manejadas. A continuación se verá cómo se transmiten los datos en TCP.
de recibo para el paquete anterior sea recibido (Figura 5.6). Se sabe que TCP provee
transmisiones “full-duplex”, permitiendo la comunicación en ambos sentidos. El método
de ventana deslizante permite proveer transmisiones “full-duplex” y también asegura
mejor eficiencia en la transmisión de datos y en el uso del ancho de banda disponible.
TCP no espera por un acuse de recibo del paquete previo antes de transmitir el
siguiente paquete. Pero el emisor no puede transmitir todos los paquetes sin esperar un
acuse de recibo. El Tamaño de Ventana (Figura 5.4) limita el número de paquetes que
puede ser transmitido sin esperar un acuse de recibo.
Asuma que mientras tanto, el receptor envía el acuse de recibo por el paquete 1. Con
esto, la ventana se desliza un paquete a la derecha. Ahora, la ventana incluye los
paquetes del 2 al 5. Considerando que los paquetes del 2 al 4 ya han sido transmitidos,
el paquete 5 puede ser transmitido. La idea general es que el emisor puede transmitir
los paquetes que se encuentren en la ventana. Cuando los acuses de recibo son
recibidos, la ventana se desliza a la derecha tantos paquetes como acuses de recibo se
reciban.
La configuración indica que los paquetes a la izquierda y fuera de la ventana han sido
transmitidos y se ha confirmado su recepción. Los paquetes dentro de la ventana
pueden ser transmitidos por el emisor. Y los paquetes a la derecha de la ventana no
han sido transmitidos aún y no se tiene un acuse de recibo por ellos.
Cuando el receptor envía WIN = 0, indica que no es capaz de aceptar más datos. Pero
cuando una aplicación retira 4 Kb del buffer (liberando 4 Kb de espacio), el receptor
envía un mensaje con WIN = 4096 (4 Kb), indicando que está listo para recibir hasta 4
Kb.
Sin embargo, el emisor podrá desear enviar algo urgente al receptor incluso si el
receptor ha indicado WIN = 0. Asignando a la bandera URG el valor de 1 se puede
hacer esto. Esto usualmente se hace cuando se necesita obtener la atención del
receptor, por ejemplo, para matar un proceso.
Se acaba de ver que en TCP, el emisor puede enviar todos los paquetes en su ventana
sin esperar un acuse de recibo. Esto también ofrece el envío confiable de flujo, sin
embargo, los paquetes pueden perderse en la transmisión ya que pueden ser recibidos
con errores en su destino. Un método para que el receptor indique que no ha recibido
un paquete es a través de la facilidad de acuse de recibo negativo.
¿Cuál debería ser la duración de este tiempo? Para entender esto, debemos darnos
cuenta que el tiempo en que un acuse de recibo puede ser recibido en la Internet puede
variar drásticamente, dependiendo de las velocidades de las redes a través de las
cuales viajan los segmentos y los enrutadores que encuentran en su camino.
Claramente, no puede ser un único valor que resulte en su utilización óptima. TCP hace
uso de un tiempo de transmisión adaptativo. Esto significa que TCP monitorea cómo se
comporta cada conexión con respecto al acuse de recibo. Con conexiones donde el
acuse de recibo se da en forma rápida, el tiempo puede ser pequeño, comparado a
aquellas conexiones en las cuales el acuse de recibo es recibido lentamente y por tanto
requiere un tiempo mayor.
Sin embargo, se debe entender que el proceso de fijar un tiempo de espera, no es muy
eficiente, en su lugar, lo que se puede hacer es iniciar con un tamaño de ventana de 1,
que implica que el emisor pueda enviar sólo un segmento, sin esperar un acuse de
recibo. Si la recepción del acuse de recibo se produce en forma rápida, se puede
incrementar el tamaño de ventana en forma dinámica. Cuando el acuse de recibo tarda
en ser recibido, se puede reducir el tamaño de ventana. Esto se realiza a través de un
algoritmo dinámico de tamaño de ventana. Este proceso forma la esencia de lo que se
conoce como el enfoque de inicio lento de Van Jacobson’s y tamaño de ventana
dinámica. Los detalles de este enfoque van más allá del alcance de este curso.
UDP utiliza números de puertos para diferenciar entre los numerosos programas de
aplicación que se ejecutan en un sistema. Envía mensajes a través de la red usando lo
siguiente:
• Número de puerto origen.
• Número de puerto destino.
UDP es un servicio de envío de datagramas no orientado a la conexión. Por lo tanto, no
puede y no provee ninguna garantía en el envío de datagramas. En este aspecto, es
como IP, que también utiliza un enfoque sin conexión y provee envío de datagramas no
confiable. El mensaje contiene suficiente información para que el software UDP lo
transmita al receptor correcto. Algunas de las características importantes de UDP se
indican a continuación:
• No utiliza un acuse de recibo para asegurar que los mensajes sean enviados a
través de una red y recibidos apropiadamente.
• No coloca el mensaje entrante en el orden apropiado.
• No ofrece ninguna retroalimentación que permita controlar la velocidad de
transmisión del mensaje entre sistemas en una red.
• Los mensajes UDP pueden perderse durante el proceso de la transferencia del
mensaje.
• La velocidad de llegadas de paquetes UDP puede no estar en proporción con la
velocidad a la cual ocurre el procesamiento de paquetes.
Unidad 5: Protocolo de Control de Transmisión y Protocolo de Datagrama de Usuario
Volumen 1: Principios de Redes y Protocolos 128
Los primeros cuatro campos del datagrama de usuario son de 16 bits cada uno y
especifican lo siguiente:
• El número de puerto origen.
• El número de puerto destino.
• La longitud del mensaje.
• El checksum (valor calculado).
Estos cuatro campos juntos representan la cabecera UDP.
Los números de puertos origen y destino son números de puertos del protocolo UDP.
Se usan para demultiplexar datagramas en el receptor final donde no se requiere tener
el número de puerto origen. En el caso de que el número de puerto sea 0, el sistema
operativo asignará por sí mismo un número de puerto. En caso de que un número de
puerto válido sea especificado, entonces las respuestas serán enviadas a ese número
de puerto.
Para resumir, UDP se utiliza cuando los mensajes deben ser encapsulados y
transmitidos entre dos computadoras en una red, sin establecer ninguna conexión entre
ellas. Esto implica que UDP es no orientado a la conexión y permite que los datos sean
enviados del emisor al receptor sin proveer el número de puerto del emisor. Esto lo
hace menos confiable que TCP. Los programas que utilizan UDP para transferir datos a
través de una red tienen que ser extremadamente cuidadosos con la eficiencia del
proceso.
Resumen
Ahora que ha finalizado esta unidad, usted debe ser capaz de:
• Explicar qué es TCP en detalle.
• Discutir acerca de los servicios ofrecidos por TCP.
• Describir la comunicación punto a punto usando TCP.
• Explicar el uso de UDP.
• Analizar las operaciones UDP.
10) En el protocolo UDP ¿Qué sucede si el número origen posee el valor cero?
a) El protocolo no permite enviar el datagrama
b) El sistema operativo asigna el número de puerto y envía el datagrama
c) Se mantiene el valor cero y el protocolo lo envía
d) Ninguna de las anteriores
1. Familia de Protocolos IP
La familia de protocolos IP (conocida además como el modelo DoD –Department of
Defense) se inició en la década del 70 como un proyecto para el Departamento de
Defensa Americano. Los protocolos, dentro de la familia de protocolos IP no pertenecen
a ningún grupo o empresa. Nadie tiene los derechos reservados sobre ellos. Como
resultado, la familia de protocolos IP tiene el mayor número de usuarios.
En la Figura 6.1 se observa que la familia de IP no maneja las capas de bajo nivel. Las
otras capas que maneja la familia IP pueden dividirse en protocolos de capas medias y
Los tres tipos de direcciones que se usan para afrontar el tema de la correspondencia
de direcciones físicas a lógicas son los siguientes:
• Direcciones físicas: Son incorporadas a la NIC y las capas físicas y de enlace
de datos, en donde son empleadas extensamente.
• Nombres lógicos: Son por lo general nombres comunes. Se usan debido a que
son fáciles de recordar. Por ejemplo, es más fácil recordar una dirección como
projects.ibm.com, que una colección de números, como 192.10.23.101.
• Direcciones IP: Son básicamente una cadena de números separados por
puntos y son algo difíciles de recordar. Un ejemplo, como el mencionado
anteriormente, es 192.10.23.101.
A continuación se discute acerca de algunos de los otros protocolos de capas medias.
Se comenzará con el Protocolo de Resolución de Direcciones (ARP - Address
Resolution Protocol).
Los siguientes tipos de escenarios son posibles cuando se transmite un paquete desde
la máquina origen a la máquina destino.
• Paquete enviado al destino final: La máquina que envía debe hacer
corresponder la dirección IP del destino final con la dirección física del destino
final.
• Paquete a ser enviado a un enrutador intermedio: La máquina que envía
debe hacer corresponder la dirección IP del enrutador intermedio con la
dirección física correcta.
La dirección IP de alto nivel tiene que ser correspondida con la dirección física de bajo
nivel en cada etapa en la ruta tomada por un paquete desde la máquina origen a la
máquina destino. El problema de hacer corresponder la dirección IP de alto nivel a una
dirección física correcta de bajo nivel, es conocido como el problema de la resolución de
las direcciones. Se puede adoptar cualquiera de los siguientes enfoques para manejar
este problema:
Difundir una solicitud ARP puede presentar problemas si la máquina destino está
apagada u ocupada. En tal situación, existen tres posibilidades, las cuales son:
• La respuesta a la solicitud del emisor es retardada.
• No hay respuesta para ninguna solicitud.
• Se pierde la solicitud inicial.
El host, entonces, tiene que almacenar el paquete saliente original. Esto le permite ser
enviado una vez que la dirección es recibida.
Es necesario para el software ARP procesar su tabla de vínculos como un caché. Por lo
tanto, debe eliminar las entradas del caché a intervalos fijos. El “timer” para una entrada
debe ser reiniciado cada vez que es recibida una emisión ARP que contenga el vínculo.
Volumen 1: Principios de Redes y Protocolos
Unidad 6: Protocolos de las Capas de Red y Aplicación 139
La segunda fase del código ARP se ocupa de los paquetes ARP que llegan desde la
red. Esto se ilustra en la Figura 6.4.
¿Qué sucede cuando una máquina obtiene la respuesta del ARP? Una entrada al caché
tiene que ser generada si éste aún no existe, el cual es vigilado por el manejador. El
proceso seguido en tal situación se muestra en la Figura 6.5.
La mayoría de las máquinas tienen al menos un disco duro residente, y por lo tanto, la
dirección IP siempre estará disponible cuando el sistema se inicie. Sin embargo, en
algunas instalaciones, hay máquinas que no tienen un disco duro residente. Estas
máquinas son llamadas nodos sin disco. Estas máquinas también deben tener una
dirección IP en la red.
Los nodos sin disco obtienen sus direcciones IP usando el RARP. El RARP es una
adaptación del ARP, diseñada principalmente para tratar con estas circunstancias y
utilizar el mismo formato de mensajes que ARP. El método por el cual un nodo sin disco
obtiene su dirección IP se muestra en la Figura 6.6.
Volumen 1: Principios de Redes y Protocolos
Unidad 6: Protocolos de las Capas de Red y Aplicación 141
Se observa de la Figura 6.6 que puede haber más de un servidor RARP en una red. A
pesar que ambos responden a un mensaje RARP, el emisor trabaja con la primera
respuesta e ignora la siguiente.
Cuando sólo hay un servidor RARP en la red, esto puede generar algunos problemas.
El servidor RARP puede estar caído, en cuyo caso, las solicitudes de mensajes RARP
se perderán y no serán atendidos. El único servidor RARP podría sobrecargarse, lo cual
puede dar como resultado que las solicitudes RARP se excedan en tiempo (timed out)”.
El emisor puede retransmitir el mensaje, pero dado que los mensajes son difundidos
A pesar de estos problemas, RARP posee varias ventajas. Hace fácil la tarea de
encontrar la dirección IP de un tercer nodo. Puede trabajar con múltiples redes físicas y
permite consultas acerca de una máquina destino arbitraria.
Como se indicó, un nodo sin disco puede utilizar el RARP para obtener su dirección IP.
De hecho, muchos nodos sin disco ejecutan su proceso de arranque utilizando RARP.
El RARP es además un protocolo muy útil y poderoso.
ICMP se usa principalmente para manejar problemas relacionados con los datagramas.
Permite que esos errores sean enviados de vuelta a la máquina donde se originó el
datagrama. ICMP también trata con el intercambio de información de control entre
enrutadores y varios hosts en una red.
2.5 Protocolo Abierto Primero la Ruta más Corta (OSPF -- Open Shortest
Path First)
Este es un protocolo, similar a RIP. Sin embargo, provee alguna forma de balance de
carga, a diferencia de la difusión simple hecha por RIP. Más aún, proporciona una mejor
eficiencia al manejar el enrutamiento basado en el tipo de servicio, como bajos retrasos
y alto rendimiento del proceso (throughput). Utiliza “multicasting” para sus
transmisiones. Por lo tanto, trabaja con menos sobrecargas que RIP.
El FTP permite que los archivos sean transferidos de una máquina a otra en la Internet.
El proceso FTP se muestra en la Figura 6.7.
De la Figura 6.7, se puede observar que un cliente puede establecer una sesión con un
servidor para transferir archivos desde y hacia el servidor. Un proceso de control y un
proceso de datos se ejecutan en ambas partes, el servidor y el cliente. Los procesos de
control proveen la capacidad de establecer una sesión y realizar un conjunto de tareas
mediante los comandos disponibles. Un comando de copia de archivos puede ser
iniciado para transferir un archivo particular del cliente al servidor. Los procesos de
control permiten esta conexión. Los procesos de datos manejan la tarea real de
transferir el archivo. Una vez que el proceso de control se termina, la sesión también
termina.
Los resultados, así como cualquier mensaje de error, también se enrutan a la máquina
cliente desde el servidor por el protocolo TELNET.
De la Figura 6.8, se puede observar que el SMTP trabaja con un demonio (un programa
que funciona en segundo plano). El demonio escucha en el puerto 25 por mensajes de
entrada. Cuando obtiene el mensaje, lo pasa al software SMTP. Una conexión TCP es
entonces establecida. Al recibir el mensaje de un cliente, el servidor anuncia su
identidad y se encuentra listo para aceptar mensajes del cliente.
El cliente en turno, envía los mensajes si el servidor está listo. El servidor acepta los
mensajes y envía un acuse de recibo (acknowledgement). Si el servidor no está listo
para aceptar mensajes, el cliente cierra la conexión e intenta nuevamente después de
un tiempo. Los mensajes recibidos por el servidor son colocados en una cola, para ser
distribuidos a los receptores indicados.
XDR es un protocolo que permite la transferencia de datos entre máquinas en una red
en forma máquina - independiente. Trabaja al nivel de ordenamiento de bytes, códigos
de caracteres y sintaxis de estructuras de datos para servir a este propósito. XDR es
responsable por la descripción de los datos, así como la codificación de los mismos.
Trabaja en la capa de presentación y se enfoca sólo en el manejo de flujo de datos.
Este protocolo otorga un gran poder a los desarrolladores al permitirles transferir
virtualmente cualquier estructura de datos arbitraria entre máquinas en una red.
Las solicitudes http (http requests) se hacen a través de un conjunto de métodos http.
Algunos de estos métodos son:
GET:Se utiliza para obtener un recurso del servidor. Por ejemplo si se hace clic sobre
un enlace el servidor enviará el documento correspondiente a la URL seleccionada, o
también se activará un módulo de Puerta de Interface Común(CGI-Common Gateway
Interface) que generará la información de retorno.
HEAD: Solicita la información sobre un objeto (documento o archivo) tal como: tamaño,
fecha de modificación, tipo, etc. Es utilizado por los gestores de caché de páginas Web
o por servidores proxy, para conocer cuándo es necesario actualizar la copia que se
mantiene de un archivo.
POST: Sirve para enviar información al servidor, se utiliza para enviar los datos
contenidos en los formularios de las páginas Web.
Las solicitudes http pueden ser solicitudes simples o completas. Una solicitud simple, no
especifica protocolos y las respuestas no tienen cabecera, MIME o codificación. Una
solicitud completa, por otro lado, especifica protocolos y las respuestas tienen cabecera,
MIME y codificación.
Solicitud
Simple GET
POST
Respuesta
Múltiples HTTP
Línea GET con solicitudes DELETE
protocolo
Forma Código de
Standard Status
Puede ser en (MIME)
múltiples
líneas Respuesta sin enca-
bezado MIME o
codificado
3.9 HTTPS
Los sitios Web que poseen modo seguro tienen URLs que empiezan con 'https://' en
lugar de 'http://'. Cuando se visita un sitio que posee modo seguro, el navegador
frecuentemente muestra un ‘candado cerrado’ o un símbolo similar en la parte inferior,
para indicar que SSL ha sido habilitado para la conexión.
• Encriptación de datos.
• Autentificación del cliente.
• Autentificación del servidor.
• Integridad del mensaje.
Todos los principales servidores Web y navegadores proveen soporte para SSL. La
mayoría de las compras en línea por Web y transacciones monetarias, que involucran la
transmisión de información sensible como números de tarjetas de crédito, tienen lugar a
través del modo SSL. A pesar de que el SSL es un método poderoso para proveer
seguridad a la transmisión de datos, ésta es más lenta debido a la encriptación y
desencriptación de cada bit de datos que se transfiere entre el servidor y el navegador
cliente.
Considere que en la Internet, los usuarios trabajan con nombres de sitios tales como
www.ibm.com. La Internet es beneficiosa en el nivel de aplicación y para los usuarios.
Pero se ha visto que los datos son transmitidos de una máquina a otra en la Internet
usando direcciones IP, las cuales están en notación decimal punteada para que sean
más fáciles de recordar. Cuando se usa un nombre como www.ibm.com, se debe hacer
corresponder su dirección IP. El DNS, el cual trabaja en la capa de aplicación,
proporciona la correspondencia entre nombres y direcciones para los clientes que
utilizan estos nombres.
Una aplicación especial resuelve nombres a direcciones IP, lo primero que la aplicación
'name resolver' (‘resolver nombres’) hace es intentar resolver el nombre en la misma
máquina local, empleando algunos archivos específicos como ‘.hosts’ en sistemas
de tipo Unix. Si el archivo no se encuentra o no se puede realizar la resolución,
entonces se busca un servidor DNS. El servidor DNS resuelve la tarea y proporciona la
dirección IP.
Con esto se completa la revisión de varios protocolos de las capas de nivel medio y
superior.
Resumen
Ahora que ha finalizado esta unidad, usted debe ser capaz de:
• Identificar protocolos de las capas medias y superiores de la familia de IP.
• Diferenciar entre el Protocolo de Resolución de Direcciones (ARP - Address
Resolution Protocol) y el Protocolo de Resolución de Direcciones de Retorno
(RARP - Reverse Address Resolution Protocol).
• Describir el Protocolo de Mensajes de Control por Internet (ICMP - Internet
Control Message Protocol).
• Indicar las funciones del Protocolo de Enrutamiento en Internet (RIP - Routing
Internet Protocol), Abrir Primero el Camino más Corto (OSPF - Open Shortest
Path First) y Sistema de Nombres de Dominio (DNS - Domain Name System).
• Describir el Protocolo de Transferencia de Archivos (FTP - File Transfer
Protocol).
• Explicar el funcionamiento del Protocolo TELNET.
• Discutir el Protocolo de Administración de Redes Simple (SNMP - Simple
Network Management Protocol) y el Protocolo de Transferencia de Correo
Simple (SMTP - Simple Mail Transfer Protocol).
1. Introducción
Hasta ahora se han estudiado los diferentes protocolos en el dominio de red y sus
funciones en la transferencia de datos en una red o a través de redes. A continuación se
discuten los mecanismos que usan las computadoras para permitir la transferencia de
datos. En esta unidad se estudian las dos maneras por las que se pueden conectar dos
máquinas sobre la red, conocidas como sockets y llamadas a procedimientos remotos
(remote procedure calls). Ambas permiten que dos máquinas sobre la red, distantes
geográficamente una de otra, envíen y reciban datos.
2. Sockets
Los sockets son el punto final (end-point) de un enlace de comunicación de dos vías
(two-way) entre dos programas en una red. Los sockets permiten la transferencia de
datos entre dos entidades a través de una red o a través de diferentes redes.
El intercambio de datos es permitido a través de la red por medio del uso de sockets en
el lado del emisor y del receptor. Los sockets permiten que los sistemas accedan a
TCP/IP y proporcionan los medios para que dos entidades envíen y reciban datos a
través de una red o a través de diferentes redes.
Los dos sockets que establecen los puntos finales de una comunicación son llamados
una par de sockets (socket pair).
En otras palabras, los sockets son programas de red que ayudan al usuario a llevar a
cabo tareas específicas en una red.
La Figura 7.1 muestra la comunicación entre dos computadoras con los sockets en
ambos lados.
Los sockets realizan los siguientes pasos para transferir datos a través de una o varias
redes:
• Conectar dos procesos.
• Leer o escribir datos.
• Cerrar la conexión.
Para establecer una conexión TCP entre dos entidades, se requiere la siguiente
información:
• Puerto TCP local.
• Puerto TCP remoto.
• Dirección IP local.
• Dirección IP remoto.
Antes de discutir acerca de esto, se define qué son los puertos y las direcciones IP.
Cada computadora en una red tiene una dirección específica. Esta dirección es llamada
dirección IP (donde IP significa Protocolo de Internet). Un puerto permite una conexión a
una computadora. Cada puerto tiene un número específico asignado, por ejemplo el
puerto No. 80. Este es el puerto por defecto que permite a un usuario conectarse a un
sitio Web utilizando el protocolo HTTP. Diferentes servicios están disponibles en
diferentes puertos de una máquina.
como dirección IP local. Similarmente, el puerto del proceso remoto es llamado puerto
remoto y la dirección IP asociada con el proceso remoto se conoce como dirección IP
remota. La dirección y el número de puerto de la máquina local así como de la máquina
remota, son necesarios para la transferencia de datos a través de una red.
Generalmente los pares de dirección IP y puerto TCP local, junto con la dirección IP y el
puerto TCP remoto son llamados el par de sockets.
La entidad que solicita la transferencia de datos utiliza un socket cliente, mientras que la
entidad que envía la información utiliza un socket servidor. En este punto, es importante
entender la diferencia entre un cliente y un servidor, que es la siguiente:
• Un cliente es una entidad que recibe cualquier tipo de servicio.
• Un servidor es una entidad que provee cualquier tipo de servicio.
El servidor y el cliente pueden estar:
• En la misma máquina.
• En diferentes máquinas en una red (LAN).
• En diferentes máquinas en redes diferentes (WAN).
¿Cómo interactúan los servidores y clientes si están ubicados en diferentes máquinas
en diferentes redes? Un cliente establece una conexión con el servidor y solicita datos.
El servidor acepta la conexión y envía los datos requeridos al cliente. Un ejemplo de
esto es el navegador HTTP (navegador o cliente Web) y el servidor HTTP (servidor
Web).
La Figura 7.3 muestra una representación de una conexión de red entre un cliente y un
servidor.
A continuación se discute brevemente acerca de los otros dos tipos de sockets, sockets
de flujo de datos (también conocidos como sockets orientados a la conexión) y sockets
de datagramas (también conocidos como sockets no orientados a la conexión).
Estos sockets proveen una ruta de comunicación confiable en doble sentido. Los datos
son pasados del emisor al receptor en bytes. Estos bytes son enviados y recibidos
como un “flujo” o “secuencia” de datos. Un ejemplo de una aplicación que utiliza sockets
orientados a la conexión es la aplicación TELNET.
Los sockets orientados a la conexión requieren que una conexión sea establecida entre
el cliente y el servidor. Todos los sockets TCP son orientados a la conexión, debido a
que el cliente TCP establece una conexión con el servidor, se comunica con él y luego
termina la conexión. Ninguna otra conexión puede ser establecida a través de un puerto
que ya esté conectado, hasta que la conexión actual sea cerrada.
Si una aplicación se desarrolla usando el concepto de sockets, puede ser sobre la base
de sockets orientados a la conexión (sockets de flujos de datos), o los sockets no
orientados a la conexión (orientados a datagramas). El primero de ellos se utiliza
usualmente en redes de conmutación de circuitos, mientras que el segundo se utiliza en
redes de conmutación de paquetes.
Tabla 7.1: Comparación entre Sockets Orientados a la Conexión y Sockets Sin Conexión
Paso 3: Una vez que el cliente se conecta al servidor y realiza una solicitud de servicio,
los datos se intercambian entre el servidor y el cliente.
Paso 1: El servidor crea un socket para comunicación con el cliente. El cliente no puede
comunicarse con el servidor sin un socket.
Paso 2: El servidor le otorga un nombre único al socket. El cliente verá al servidor con
este nombre único en la red.
Paso 4: El cliente envía datos al servidor en forma de paquetes y recibe datos del
servidor también en paquetes.
3. API de Sockets
API significa Interfaz de Programación de Aplicación (Application Programming
Interface). El API de socket tiene todos los datos relacionados con la programación. Las
siguientes son características de una API de socket:
• Provee detalles acerca de la programación para comunicación en redes.
• Está presente entre las capas de aplicación y transporte. Esto se muestra en la
Figura 7.5.
• No es una capa del modelo de comunicación.
• Permite la interacción entre dos capas, la capa de aplicación y la capa de
transporte y red.
Llamada
a Sistema Descripción de la Llamada Usado por
de Socket
Sockets primitivos, de flujo de
socket Crea un nuevo punto de comunicación.
datos y de datagramas.
Sockets primitivos, de flujo de
bind Enlaza una dirección local a un socket.
datos y de datagramas.
Anuncia la capacidad y debilidades de
listen Sockets de flujo de datos.
aceptar conexiones.
Permite bloquear la llamada de un emisor,
accept Sockets de flujo de datos
hasta que la conexión se materialice.
Sockets primitivos y de flujo de
connect Intenta establecer activamente una conexión.
datos.
Envía datos sobre las conexiones Sockets primitivos y de flujo de
send
establecidas. datos.
5. RPC
Usualmente, la transferencia de control de una parte del programa a otra, toma lugar a
través de llamadas a procedimientos. El término 'llamada a procedimiento' hace
referencia a cosas diferentes en lenguajes de programación diferentes. Por ejemplo, el
lenguaje BASIC hace referencia a estos como 'subrutinas', Pascal tiene dos
mecanismos, llamados 'procedimientos' y 'funciones,' y C utiliza 'funciones’ para
transferir el control. Se empleará el término genérico 'procedimiento' en esta sección.
Observe la Figura 7.6 para entender como tiene lugar la transferencia de control.
En una llamada a procedimiento, como se observa en la Figura 7.6, dos entidades están
involucradas. Uno es llamado el programa 'llamador' o 'invocador' y el otro es llamado
el programa 'llamado' o 'invocado'. En el ejemplo, s1 a s9 son sentencias en el
procedimiento main, pA_s1 a pA_s6 son sentencias en el procedimiento A y pB_s1
a pB_s5 son sentencias en el procedimiento B.
Esta característica del RPC que hace que el mecanismo de invocación del
procedimiento sea el mismo, independientemente de si el procedimiento reside en la
misma máquina o en una máquina remota, es llamada transparencia.
El programa cliente llama a un programa llamado “client stub”, que provee el nombre del
procedimiento, myProc, junto con cualquier argumento que myProc requiera.
Considerando que myProc no reside en la máquina cliente, los argumentos para
myProc necesitan ser enviados a la máquina remota en la red. En la red, esto tiene que
ser transmitido como un mensaje de red. Para permitir esto, el “client stub” empaqueta
los argumentos en un mensaje de red. Este acto de empaquetar los argumentos es
llamado marshaling (preparación). Entonces el “client stub” realiza una llamada al
sistema para enviar el mensaje de red al servidor remoto.
El kernel del sistema operativo en el cliente maneja esta llamada al sistema. Los
programas de red en el cliente envían el mensaje a la máquina servidor remoto. Al
enviar los mensajes, los programas de red emplearán un protocolo de red apropiado. El
mensaje viaja a través del medio de comunicación al servidor. El medio de
comunicación puede ser cables físicos o inalámbricos.
Los programas de red que residen en el servidor, reciben el mensaje. Los programas de
red envían este mensaje al “server stub” como una solicitud. El “server stub” es un
programa que reside en el servidor y que recibe la solicitud. Desempaqueta los
argumentos (unmarshaling). Los argumentos son desempaquetados de forma adecuada
para el uso del procedimiento al cual va dirigido. El “server stub” puede también
modificar la forma en que los argumentos estarán disponibles, específicamente para las
necesidades del proceso servidor particular.
El “server stub” empaqueta la respuesta en un mensaje de red, para que sea enviada
de vuelta al cliente a través de la red. Los programas de red en el servidor envían el
mensaje al cliente utilizando un protocolo apropiado. El mensaje viaja por el medio de
comunicación que conecta el servidor y el cliente, pero en dirección inversa. Los
programas de red en el cliente reciben el mensaje.
El “client stub” lee el mensaje de red, haciendo uso de una llamada de sistema al kernel
del sistema operativo en la máquina local. El “client stub” desempaca el mensaje y
realiza las modificaciones adecuadas a la respuesta, para que esté lista para su uso por
el programa cliente. El programa cliente recibe la respuesta y continua ejecutando el
proceso cliente.
Los aspectos de RPC que tienen efecto sobre la transparencia son el paso de
parámetros, el enlace de argumentos a valores y la representación de datos. Estos
aspectos juegan importantes roles. El paso de parámetros al procedimiento debe usar el
mecanismo de ‘paso por valor’. Los argumentos de entrada a la llamada al
procedimiento y los resultados del procedimiento tienen que ser definidos
explícitamente.
Uno de los pasos más importantes en RPC, es que la máquina cliente debe encontrar
el servidor correcto que pueda ejecutar la llamada al procedimiento. Este proceso es
llamado enlace (binding). El servidor registra el servicio que puede proveer en el DNS.
El cliente busca el DNS para encontrar el servidor correcto.
Datos que se mueven sobre una red pueden tener formatos diferentes. Para que esos
datos diferentes se muevan de un sistema a otro, se necesita definir formatos estándar.
De este modo, los formatos de bajo nivel no necesitan ser mostrados y un formato
estándar puede ser usado por todos.
Resumen
Ahora que ha finalizado esta unidad, usted debe ser capaz de:
• Explicar cómo se conectan las computadoras una con la otra.
• Describir los sockets y sus usos.
• Discutir sobre RPC.
• Explicar los factores que influyen en la transparencia del RPC.
Unidad 8: Fundamentos de la
Administración de Redes
Objetivos del Aprendizaje
Al final de esta Unidad, Ud. será capaz de:
• Explicar los fundamentos de la administración de redes.
• Listar los servicios de red.
• Discutir cómo administrar diferentes servicios de red como los servicios de
archivos, impresión y mensajería.
• Describir los detalles concernientes a la seguridad de la red.
• Discutir los métodos de seguridad de la red en sistemas operativos de red.
• Describir cómo proteger los datos.
• Explicar las opciones para la prevención de desastres y protección de los activos
de la red en sistemas críticos.
1. Introducción
En esta última Unidad del estudio de los Fundamentos de Redes la mayoría de los
temas que se han presentado se enfocaron en la estructura de capas del modelo OSI y
la familia TCP/IP. Se estudiaron las redes desde el punto de vista del rol, función y
significado de cada una de las capas. Una buena parte de las discusiones fue acerca de
los protocolos, datagramas / paquetes, transporte, entrega y manejo de errores. Sin
embargo, los usuarios interactúan directamente con la aplicación, la cual está disponible
en la capa de aplicación. Por ejemplo, en las aplicaciones de e-mail, a los usuarios no
les interesa los protocolos en las capas inferiores, su preocupación es sólo enviar y
recibir mensajes, aunado a la velocidad con la que pueden hacerlo.
La seguridad en las redes es otro factor que afecta a los negocios. Las redes con poca
seguridad son vulnerables a ataques. El daño puede variar desde pérdidas físicas
tangibles hasta la pérdida de la buena fe del cliente.
3. Servicios de Red
En esta sección, se discutirán los diferentes servicios de redes proporcionados por el
Sistema Operativo de Red (Network Operating System – NOS). También se explicará
brevemente la implementación de los servicios de redes. Esta visión general ayudará a
entender las capacidades de la red.
Los servicios de redes son altamente visibles a los usuarios de la red, por ello, su
funcionamiento es relevante para los usuarios. Permiten a las computadoras compartir
información, poder de procesamiento y dispositivos de entrada/salida.
La tendencia ahora es mover los servicios de redes al sistema operativo local en sí. El
sistema operativo local existe en un solo computador y administra los recursos de esa
máquina, mientras que el NOS puede estar distribuido en las máquinas a lo largo de la
red. El NOS fue diseñado específicamente para incrementar los niveles de rendimiento.
Los servicios que ofrecen incluyen:
• Servicios de Archivo.
• Servicios de Impresión.
• Servicios de Mensajería.
3.1 Servicios de Archivos
Los servicios de mensajería son similares a los servicios de archivos en que ofrecen un
conjunto común de características. Sus funciones principales incluyen el transporte de
datos entre dispositivos, alertar a los usuarios de nuevos mensajes y el
almacenamiento de datos.
5. Seguridad de la Red
Inicialmente, las redes de computadoras fueron utilizadas solamente en grandes
universidades y algunas casas corporativas. La función primordial de estas redes era
compartir recursos. En tal escenario, la seguridad de la red no era una preocupación
mayor. Sin embargo, en el mundo de hoy las redes de computadoras se están utilizando
para realizar diversas funciones. Las computadoras están siendo usadas extensamente
en actividades bancarias y en transacciones en línea. En este contexto, la seguridad en
la red llega a ser un tema vital, especialmente en situaciones donde son transferidos
grandes volúmenes de dinero.
Varios métodos pueden ser usados por el administrador de la red para manejar la
administración de usuarios. Algunos de éstos están listados aquí, especialmente con
referencia a los métodos de seguridad del sistema:
• Definiciones de usuario y grupo.
− La verificación de nombres de usuarios y palabras claves forma el primer
nivel de verificación de seguridad en el proceso de conexión.
− Es más fácil manejar ciertas características de seguridad en el nivel de
usuario que en el nivel de grupo.
• Política de cuentas.
− Esto trata con varias restricciones que pueden ser impuestas a las
palabras claves de usuario, tales como longitud, unicidad y cierre.
• Auditoria.
− Otra función importante de la administración de la red involucra conducir
auditorias de las diversas actividades de los usuarios a través de la red,
tales como actividad de conexión, patrones de utilización de recursos y
patrones de usos de Internet.
• Rastreo de seguridad.
− El administrador de la red puede guardar un control de los diversos
eventos de seguridad tales como ingreso y salida del sistema (logons y
logoffs). Estos eventos pueden ser almacenados en un archivo.
• Políticas de derechos de usuarios.
− Esto determina el tipo de acceso proporcionado a los grupos y usuarios
en un sistema a través de una red.
5.2 Administración de Cuentas de Usuario
Cada NOS tiene su propio método para administrar las cuentas de usuario. Las
definiciones de cuentas de grupo ayudan a manejar los permisos de acceso y derechos
de usuario. Todos los derechos y permisos otorgados a un grupo aplican también a los
miembros del grupo. Esto incrementa los niveles de eficiencia de la administración de
seguridad en la medida que el administrador de red puede juntar varios usuarios dentro
de diferentes grupos y hacer cambios para cada grupo.
Cada capa en una red ayuda a mantener la seguridad en la red de la siguiente manera:
• En la capa física, la seguridad en la red es mantenida evitando golpes en los
cables.
• La capa de enlace de datos proporciona un método de encriptación. Esto ayuda
en la encriptación y desencriptación de paquetes, realizado sobre la base de
punto a punto (point-to-point).
• La capa de red proporciona un firewall, el cual regula el movimiento de paquetes
a través de la red.
Dado que ninguno de los métodos mencionados resuelve el problema de autenticación
y aprobación, se requiere algún soporte de la capa de aplicaciones. Se discute
brevemente sobre algunos métodos de seguridad empleados a este nivel.
6.1 Criptografía
Note que el método de sustitución puede escoger cualquier patrón. Por ejemplo, cada
letra de la A a la Z puede ser sustituida a su vez por la secuencia QWERTY … VCXZ,
como ocurre en un teclado, o las letras pueden ser sustituidas por números fijos. En
realidad, cualquier patrón arbitrario aceptable para el emisor y receptor puede ser
usado.
Para este caso, escoja la clave SECURITY. Escriba la clave como columnas
numeradas en secuencia alfabética y escriba el texto plano como se muestra en la
Tabla 8.1. El primer carácter del alfabeto que aparece dentro de la clave SECURITY es
C. El siguiente carácter del alfabeto que aparece en la clave es E y el último carácter
del alfabeto que aparece es Y. Los caracteres de la clave son numerados basados en
esta secuencia alfabética:
S E C U R I T Y
5 2 1 7 4 3 6 8
Tabla 8.1: Asignación de Números para la Clave
Luego de realizar esto, se escribe una parte del texto plano original, con los espacios en
blanco eliminados, debajo de cada columna. El texto plano original con espacios en
blanco eliminados es 'bombardealazona'. La Tabla 8.2 muestra cómo se hace esto:
S E C U R I T Y
5 2 1 7 4 3 6 8
b O M b a r d e
Tabla 8.2: Parte Inicial del Texto Plano Original Encriptado
Esta parte del texto plano original es ahora re-escrita según la posición de la columna
sugerida en la tabla. Por ejemplo, la columna que tiene el número 1 tiene M, 2 tiene O y
así sucesivamente. Esto da como resultado el texto encriptado 'morabdbe'.
La parte restante del texto plano original, es decir, 'alazona' del texto plano completo
'bombardea la zona' es escrita de la misma forma que la parte inicial, tal como se
muestra en la Tabla 8.3:
S E C U R I T Y
5 2 1 7 4 3 6 8
a L A z o n A z
Tabla 8.3: Parte Restante del Texto Plano Original Encriptado
Las columnas adicionales son llenadas con cualquier conjunto de caracteres arbitrarios.
En este caso hemos usado el alfabeto comenzando desde el final.
Los algoritmos de clave pública hacen uso de dos claves. Una es una clave pública que
todos usan para encriptar cualquier mensaje de texto plano original. La segunda es una
clave privada, la cual es usada para descifrar el mensaje. Claramente, todos los
miembros de un grupo conocen la clave pública, mientras que las personas que
necesitan descifrar los mensajes conocen la clave privada. Un algoritmo de encriptación
usa la clave pública y un algoritmo de desencriptación usa la clave privada.
Las técnicas de encriptación y desencriptación están diseñadas para proteger los datos
de intrusos no autorizados. Al establecer comunicación con otra persona a través de
una red, se debe estar seguro de la identidad de la persona con quien se está
comunicando. Esto se logra a través de los protocolos de autenticación que serán
discutidos a continuación.
Los protocolos de autenticación son usados para verificar la identidad de la persona con
quien uno se está comunicando. Asuma que X quiere establecer una comunicación
segura con Y. X debe estar seguro de que está comunicándose con Y y con ningún
otro. Va más allá del alcance de este curso discutir los protocolos complejos
involucrados en la autenticación. Un método general y simple involucrado en el proceso
de autenticación se ilustra en la Figura 8.2.
De la Figura 8.2, se puede ver que X comienza enviando el mensaje inicial. Este
mensaje puede ser enviado en forma encriptada directamente a Y. La Figura muestra el
mensaje siendo enviado a través de un centro de distribución de claves confiable.
Después de eso, el proceso general involucra a X e Y intercambiando una serie de
mensajes, tratando de verificar las credenciales del otro. En cierto momento, X e Y
están ambos satisfechos de la autenticidad de la identidad (o credencial) del otro. Se
establece una clave secreta de sesión y ahora se tiene una comunicación segura. Note
que la clave establecida es válida solamente por esta sesión.
La figura describe además un intruso potencial que puede espiar y recoger mensajes
que están siendo intercambiados. Sin embargo, esto no causa ningún daño dado que al
final del proceso de autenticación, X sabe que está tratando con Y y con ningún otro.
Las fallas en disco pueden ocurrir a causa de varias razones, muchas de las cuales
están fuera del control del administrador de la red. El administrador de la red debe
poder minimizar el tiempo de caída del sistema y la pérdida de datos. Esto se debe a
que en aplicaciones de misión crítica, las fallas del disco que conllevan excesivo tiempo
de caída pueden causar un daño severo.
Existen seis niveles en los cuales RAID puede ser configurado (ver Figura 8.3). Éstos se
describen brevemente a continuación:
• RAID Nivel 0 – Fraccionamiento del disco (disk striping) sin paridad.
− Se puede crear con un solo disco, pero el rendimiento en velocidad no es
apreciable, por lo que se requiere de al menos dos discos para su
implementación. Es simple y fácil de instalar.
− Los datos son divididos en bloques y grabados en unidades de discos
diferentes. Esto permite lograr un buen rendimiento de Entradas/Salidas
(I/O) ya que la distribución de los datos ocurre por diversos canales y
discos.
− El mejor rendimiento se alcanza cuando los datos son divididos a través
de múltiples controladoras con tan solo un disco por controladora.
− No es recomendable para servidores de archivos ni en aplicaciones de
misiones críticas, debido a que la falla de cualquier unidad en un arreglo
de nivel 0 conlleva efectivamente a la pérdida de todos los datos del
arreglo. Por tanto, no se considera como un nivel tolerante a fallas de
disco.
A B C D
E F G H
I J K L
M N O P
RAID Nivel 0
A A E E
B = B F = F
C C G G
D D H H
Discos Espejos Discos Espejos
RAID Nivel 1
ECC(Ax,Ay,Az)
A0 A1 A6 A7
B0
C0
B1
C1
…. B6
C6
B7
C7
ECC(Bx,By,Bz)
ECC(Cx,Cy,Cz)
D0 D1 D6 D7 ECC(Dx,Dy,Dz)
ECC(Ax,Ay,Az) = ECC(Byte A)
Byte A = A0..A7 , Byte B= B0..B7, Byte C= C0..C7, Byte D = D0..D7 . . . . . . . . .
ECC(Dx,Dy,Dz) = ECC(Byte D)
RAID Nivel 2
O
EXCLUSIVO
A0 A1 A6 A7 Paridad A
B0 B1
…. B6 B7 Paridad B
Paridad C
C0 C1 C6 C7
D0 D1 D6 D7 Paridad D
Banda 0 Banda 1 Banda 6 Banda 7
RAID Nivel 3
Figura 8.3: Niveles RAID 0, 1, 2 y 3
O
EXCLUSIVO
A0 A1 A6 A7 Paridad A
B0
C0
B1
C1
…. B6
C6
B7
C7
Paridad B
Paridad C
D0 D1 D6 D7 Paridad D
Bloque 0 Bloque 1 Bloque 6 Bloque 7 Paridad de los Bloques
0..7
RAID Nivel 4
O
EXCLUSIVO
A0 B0 C0 D0 Paridad 0
Servidor A1 B1 C1
Paridad 1
E0
A2 B2 Paridad 2 D1 E1
Paridad
A3 2 Paridad 3 C2 D2 E2
Paridad 4 B3 C3 D3 E4
RAID Nivel 5
Esta solución puede ser usada con cualquier disco físico estándar siempre que el
sistema operativo lo soporte. Es más común encontrar implementación en hardware de
RAID en servidores. Estas implementaciones incluyen un controlador de disco RAID
comunicándose con un arreglo de disco. La solución de hardware proporciona un mejor
rendimiento y algunas características adicionales.
7.4 Respaldos
Sin importar qué tan sofisticado y elaborado sea el esquema de administración de disco
en la red, debe existir alguna forma de respaldo para los datos. Se tiene un amplio
rango de dispositivos de almacenamiento de respaldo que se pueden seleccionar. Éstos
son:
• Cintas magnéticas.
• Cintas de Audio Digital (DAT - Digital Audio Tapes).
• Discos ópticos.
9. Firewalls
Los firewalls son dispositivos de seguridad que regulan el acceso a Internet. Un firewall
es una capa protectora de seguridad localizada en la entrada a la Internet.
Un firewall implementa políticas de seguridad entre una red confiable y una red no
confiable. Puede ser un enrutador, una PC, un midrange o un mainframe. Un firewall se
encarga además de otros temas relacionados a la seguridad en la red, como es el
filtrado de una red particular o una entidad organizacional de cualquier comunicación no
deseada o no autorizada. El firewall puede evitar que los intrusos:
• Tengan acceso ilegal a la información.
• Modifiquen la información.
• Desestabilicen la comunicación.
El acceso a la Internet no puede ser regulado simplemente agregando características
de seguridad a los programas de aplicación. Se deben además hacer cambios a los
componentes básicos de la infraestructura de Internet. Los mecanismos de control de
acceso exitosos requieren lo siguiente:
• Restricciones en la topología de la red adoptada.
• Presentación de información intermedia.
• Mecanismo para filtrar paquetes que fluyen a través de la red.
En efecto, se requiere una combinación cautelosa de todos ellos para lograr un control
efectivo del acceso a Internet.
Una interface
conectada a la red
externa
Términos usados en el
contexto Firewalls
Utiliza
Restringe el acceso
enrutadores
a la red confiable
Filtrado de
Vía de Red Períme- Paquetes
Acceso tral(Zona (Screening)
(Gateway) Demilitarizada)
Se coloca entre
la Internet y la red
confiable Opera dentro de un
conjunto de reglas
• Proxy server: Todos los requerimientos para acceder a los recursos externos y
las respuestas de ellos son dirigidos a través de este servidor. Un conjunto de
reglas gobierna la manera en el que el acceso es proporcionado o negado.
Las razones principales para tener un firewall son:
• Proporcionar un punto central para la entrada y salida de tráfico.
• Proporcionar una entrada solamente al tráfico autorizado.
• Proporcionar una defensa minuciosa.
Los principios detrás del uso de firewalls son muy simples. Algunos de ellos se listan a
continuación:
• Pasar solamente aquellos paquetes de datos elegidos según decisiones
explícitas y rechazar todos los demás.
• Proporcionar una configuración basada en la política de seguridad de la
organización.
• Reexaminar y adaptar la política de seguridad continuamente, debido a que
nada es absoluto en el mantenimiento de la seguridad.
• Entender que los firewalls no proporcionan protección ante amenazas internas.
Un punto importante a notar aquí es que se requiere una administración profesional y
técnica para levantar un firewall.
Con el paso de los años, se han propuesto y usado diferentes estrategias de seguridad
de firewalls. Algunas de ellas son simples en concepto de implementación, mientras que
otras son complejas. Algunas de estas estrategias están ilustradas en la Figura 8.4.
• Infalible (Fail-safe): Permitir el acceso solo a usuarios legitimados y negar el
acceso a usuarios que pudieran ser potenciales hackers. Esto aplica para
extranets, Intranets e Internet.
• Axioma del enlace más débil (Weakest link axiom): La fortaleza de una cadena
de seguridad será tan fuerte como lo sea su eslabón más débil. Por lo que se
debe analizar la exposición al riesgo de los sistemas más sensibles de la
organización
• Sistemas simples (Simple systems): Permitir el acceso a sistemas de fácil
comprensión y operación, de manera de atender en forma rápida las posibles
amenazas al sistema.
• Formación de defensa minuciosa (In-depth defense set-up): Se debe revisar la
seguridad a nivel físico, personal y de red, incorporando esquemas de anillos o
capas de seguridad utilizando diversos mecanismos.
• Diversidad en la defensa: Uso de múltiples productos/servicios de seguridad,
con el objeto de no crear dependencia de proveedores y reducir la exposición al
riesgo de que algunos de los productos o servicios de un proveedor puedan ser
vulnerados por hackers. También es conveniente combinar las fortalezas de los
Volumen 1: Principios de Redes y Protocolos
Unidad 8: Fundamentos de la Administración de Redes 201
Resumen
Ahora que ha finalizado esta Unidad, usted debe ser capaz de:
d) Los procesos que proporcionan control sobre la integridad de los recursos del
sistema.