Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Este capítulo le ayudará a comprender tanto el modelo de referencia OSI como el modelo TCP / IP. Ambos modelos son muy
importantes para entender el de la asignatura. La mayor parte de este capítulo está dedicada a estos dos modelos de referencia.
Este capítulo también cubre aplicaciones de red, tecnologías Ethernet y termina con una discusión sobre el modelo de tres capas de
Cisco que fue creado por Cisco para ayudar a diseñar, implementar y solucionar problemas de redes.
Inicialmente, es importante comprender qué es una red y la importancia de las redes en sí mismas. En otros términos, una red es una
colección de dispositivos interconectados (como computadoras, impresoras, etc.). Para comprender la importancia de las redes,
veamos cómo funcionaban las cosas antes de que se crearan las redes. Para ello, considere una gran empresa multinacional que vende
productos alimenticios en una época en que las redes no existían.
Llamemos a esta empresa ACB. Imagine la cantidad de información como ventas, inventario, etc. que requiere la gerencia de la
empresa para tomar decisiones cotidianas. Para obtener esta información, deberán llamar a sus oficinas locales. Sus oficinas locales
necesitarán enviar informes impresos por correo (¡postal!) O fax o incluso enviar medios a través del servicio postal. En el momento en
que se recibe el correo, los datos ya tienen días. Incluso si los informes se envían por fax, será una tarea engorrosa consolidar todos
los informes. Esta tarea también aumenta la posibilidad de errores humanos, ya que se recopilan manualmente una gran cantidad de
informes. Esta es solo una parte de la ecuación. También debe considerar la información requerida por las oficinas locales. También
necesitan varios datos de la oficina central y otras oficinas de todo el mundo.
Ahora consideremos la misma empresa, pero en la actualidad con todas sus oficinas interconectadas. Utilizarían una sola aplicación en
todo el mundo que aproveche su red global. Los datos de todas las oficinas se almacenarían instantáneamente en la ubicación central
y, con un solo clic, el equipo de administración puede ver los datos de todo el mundo en el formato que desee. Estos datos también
serían en tiempo real. Esto significa que lo ven como si estuviera sucediendo. Dado que los datos están centralizados, cualquier
ubicación de la oficina puede ver los datos correspondientes a cualquier ubicación.
Como puede ver, el costo, el tiempo y el esfuerzo involucrados en la transferencia de datos fue mucho mayor sin redes. Por tanto, las
redes reducen costes, tiempo y esfuerzo y, por tanto, aumentan la productividad. También ayudan en la optimización de recursos al
ayudar a compartir recursos. Un ejemplo simple de uso compartido de recursos es una impresora en una oficina típica. Sin redes, cada
computadora requeriría una impresora dedicada. Sin embargo, con una red, la impresora se puede compartir entre muchas
computadoras diferentes.
Ahora que sabe lo beneficiosas que son las redes, es hora de ver cómo funcionan las redes. La figura 1-1 muestra la forma más básica
de una red. Esta figura muestra dos hosts (los dispositivos de usuario final, como las computadoras, se denominan comúnmente hosts
en términos de red) conectados directamente entre sí mediante un cable de red. Hoy en día, cada host tiene una tarjeta de interfaz
de red (NIC) que se utiliza para conectarlo a una red.
Un extremo del cable de red se conecta a la NIC en un host y el otro se conecta a la red. En este caso, el cable se conecta
directamente a otro host. En esta etapa, no se preocupe por los cables de red y cómo se comunican los hosts a través de la red. Esto
se tratará en detalle más adelante en el capítulo. En esta etapa, es importante comprender cómo se conectan los hosts a una red.
En la Figura 1-1, los hosts están "conectados en red" y pueden compartir información. Esta red es eficaz, pero no escalable. Si tiene
más de 2 hosts en esta "red", no funcionará sin una tarjeta NIC separada para cada conexión y eso no es escalable ni realista. Para
conectar más de 2 hosts en red, necesita un dispositivo de red, como un concentrador . La Figura 1-2 muestra tres hosts conectados
a un concentrador.
Un concentrador es un dispositivo de red que repite la información recibida de un host a todos los demás hosts conectados. En la Figura
1-2, el concentrador retransmitirá cualquier información recibida del HostA al HostB y al HostC. Esto significa que los tres hosts pueden
comunicarse entre sí. La comunicación entre hosts se puede clasificar en tres tipos:
1. Un concentrador repite la información recibida de un host a todos los demás hosts. Para comprender esto, considere que HostA en la
Figura 1-2 envía un mensaje de unidifusión a HostB. Cuando el concentrador recibe este mensaje; retransmitirá el mensaje tanto a
HostB como a HostC. Aunque el mensaje era unidifusión destinado únicamente a HostB, HostC también lo recibe. Depende de HostC
leer el mensaje y descartarlo después de ver que el mensaje no estaba destinado a él.
2. Un concentrador crea un medio de red compartido donde solo un host puede enviar paquetes a la vez. Si otro host intenta enviar
paquetes al mismo tiempo, se producirá una colisión. Luego, cada dispositivo deberá reenviar sus paquetes y esperar no volver a tener
una colisión. Este medio de red compartido se denomina dominio de colisión única . Imagine el impacto de tener un solo dominio de
colisión donde 50 o 100 hosts están conectados a concentradores que están interconectados y todos están tratando de enviar
datos. Esa es solo una receta para muchas colisiones y una red ineficiente.
Los problemas asociados con los concentradores pueden causar una degradación grave de una red. Para superarlos, se
utilizan conmutadores en lugar de concentradores. Al igual que los concentradores, los conmutadores se utilizan para conectar hosts
en una red, pero los conmutadores rompen el dominio de colisión al proporcionar un único dominio de colisión para cada puerto. Esto
significa que cada host (un host se conecta a un puerto del conmutador) obtiene su propio dominio de colisión, lo que elimina las
Recuerde que cada host en la Figura 1-3 está en su propio dominio de colisión y si HostA envía un paquete al HostC, HostB no lo
recibirá.
Las figuras 1-4 y 1-5 muestran dos redes. Vea si puede averiguar cuántos dominios de colisión existen en ellos.
Si respondió 5 en la Figura 1-4, entonces tiene toda la razón, ya que cada puerto de los conmutadores representa un único dominio de
colisión. Si respondió más de 5, debe recordar que un hub no rompe los dominios de colisión. De manera similar, la Figura 1-5 tiene 7
dominios de colisión.
Ahora que sabe cómo funciona un conmutador y cómo mejora una red, considere el único problema asociado con una red
conmutada. Anteriormente, aprendió que los concentradores inundan todos los paquetes, incluso los de unidifusión. Un conmutador no
desborda paquetes de unidifusión, pero sí desborda un paquete de difusión. Se dice que todos los hosts conectados a una red
conmutada están en el mismo dominio de transmisión . Todos los hosts conectados a él recibirán cualquier transmisión enviada en
este dominio. Si bien las transmisiones son útiles y esenciales para las operaciones de la red, en una gran red conmutada, demasiadas
transmisiones ralentizarán la red. Para remediar esta situación, las redes se dividen en tamaños más pequeños y estas redes separadas
se interconectan mediante enrutadores.. Los enrutadores no permiten que las transmisiones se transmitan a través de las diferentes
redes que interconecta y, por lo tanto, rompen un dominio de transmisión. La Figura 1-6 muestra tres redes conmutadas
interconectadas por un enrutador.
Además de dividir los dominios de transmisión, los enrutadores también realizan las siguientes cuatro funciones esenciales en su red:
• Conmutación de paquetes : como mínimo, los enrutadores son como conmutadores porque esencialmente cambian paquetes
entre redes.
• Comunicación entre redes: como se muestra en la Figura 1-6, los enrutadores permiten la comunicación entre las redes
conectadas a ellos.
• Selección de ruta : los enrutadores pueden comunicarse entre sí para conocer todas las redes conectadas a varios enrutadores y
luego seleccionar la mejor ruta para llegar a una red.
• Filtrado de paquetes : los enrutadores pueden descartar o reenviar paquetes según ciertos criterios, como su origen y destino.
Observación: recuerde que los conmutadores rompen los dominios de colisión y los enrutadores rompen los dominios de
difusión.
Como sabe, una red es una colección de dispositivos conectados entre sí. Las redes se clasifican además en varios tipos según su
tamaño, extensión, seguridad, propósito y muchos otros parámetros. Si bien cubrir todas estas clasificaciones se realiza más
adelante, hay dos clasificaciones de red importantes que debe conocer:
• Red de área local (LAN) : este es un término que se utiliza para describir una red que cubre un área geográfica limitada, como
un piso, un edificio o un campus. La LAN suele tener una alta tasa de transferencia de datos. El estándar Ethernet es la tecnología
más utilizada en LAN. Últimamente, la tecnología inalámbrica también se está volviendo cada vez más común para una LAN
local. Ambos estándares se tratan en profundidad más adelante en la asignatura.
• Red de área amplia (WAN) : este es un término que se utiliza para describir una red que cubre un área geográfica grande,
como varias ciudades, un país o incluso en todo el mundo. Se utilizan para conectar LAN en el área que cubren. Un ejemplo típico
serían las LAN en varias oficinas de una empresa conectadas por WAN. Más adelante en la asignatura se tratarán varios
estándares de tecnología utilizados en WAN.
Modelos de interconexión de redes
A medida que crecía la importancia de las computadoras, los proveedores reconocieron la necesidad de conectarlas en red. Crearon
varios protocolos cuyas especificaciones no se hicieron públicas. Por lo tanto, cada proveedor tenía diferentes formas de conectar las
computadoras en red y estas formas no eran compatibles entre sí. Esto significa que las computadoras de un proveedor no se pueden
conectar en red con las computadoras de otro proveedor. Lentamente, estas especificaciones se hicieron públicas y se creó cierta
compatibilidad entre proveedores, pero esto aún representaba demasiadas complicaciones. En 1977, la Organización Internacional de
Normalización (ISO) comenzó a trabajar en un modelo de red de estándar abierto que todos los proveedores apoyarían para
promover la interoperabilidad. Este estándar se publicó en 1984 y se conocía como Interconexión de sistemas abiertos
(OSI). Durante el mismo período de tiempo (1973 a 1985) otro esfuerzo de la Agencia de Proyectos de Investigación Avanzada de
Defensa (DAPRA) estaba en marcha para crear un modelo de red estándar abierto. Este modelo de red llegó a conocerse como
el modelo TCP / IP . En 1985, el modelo TCP / IP comenzó a ganar más prominencia y apoyo de los proveedores y finalmente
reemplazó al modelo OSI.
Esta sección comienza discutiendo el modelo de referencia OSI con cierta profundidad antes de pasar a una discusión profunda sobre
el modelo TCP / IP y sus protocolos.
El modelo OSI se creó para promover la comunicación entre dispositivos de varios proveedores. También promueve la comunicación
entre hosts dispares, como hosts que utilizan diferentes plataformas operativas (Windows, OSX, Linux, etc.). Recuerde que es muy
poco probable que trabaje en un sistema que utilice protocolos que se ajusten al modelo de referencia OSI. Pero se trata esencialmente
de conocer el modelo y su terminología porque otros modelos como el modelo TCP / IP a menudo se comparan con el modelo de
referencia OSI. Por tanto, la discusión sobre este modelo será limitada en comparación con la discusión sobre el modelo TCP / IP.
El modelo de referencia OSI, como la mayoría de los otros modelos de red, divide las funciones, protocolos y dispositivos de una red en
varias capas. El enfoque por capas proporciona muchos beneficios, algunos de los cuales son:
• La comunicación se divide en componentes más pequeños y más simples. Esto facilita el diseño, el desarrollo y la resolución de
problemas.
• Dado que es un enfoque en capas, los proveedores escriben en una especificación de entrada y salida común por capa. Las
entrañas de sus productos funcionan entre el código de entrada y salida de esa capa.
• Los cambios en una capa no afectan a otras capas. Por tanto, el desarrollo en una capa no está limitado por las limitaciones de
otras capas. Por ejemplo, las tecnologías inalámbricas son nuevas, pero las aplicaciones antiguas se ejecutan sin problemas sin
ningún cambio.
• Es más fácil estandarizar funciones cuando se dividen en partes más pequeñas como esta.
• Permite que varios tipos de hardware y software, tanto nuevos como antiguos, se comuniquen entre sí sin problemas.
El modelo de referencia OSI tiene siete capas de este tipo que se pueden dividir en dos grupos. Las capas superiores (Capas 7, 6 y 5)
definen cómo las aplicaciones interactúan con la interfaz del host, entre sí y con el usuario. Las cuatro capas inferiores (capas 4, 3, 2 y
1) definen cómo se transmiten los datos entre hosts en una red. La Figura 1-7 muestra las siete capas y un resumen de sus funciones.
Capa de aplicación
La capa de aplicación proporciona la interfaz entre la aplicación de software en un sistema y la red. Recuerde que esta capa no incluye
la aplicación en sí, pero proporciona los servicios que requiere una aplicación. Una de las formas más fáciles de entender la función de
esta capa es observar cómo funciona un navegador web como Internet Explorer o Firefox. IE o FF es la aplicación. Cuando necesita
buscar una página web, utiliza HTTPprotocolo para enviar la solicitud y recibir el contenido de la página. Este protocolo reside en la
capa de aplicación y puede ser utilizado por una aplicación como IE o FF para obtener páginas web de servidores web a través de la
red. Por otro lado, la aplicación del servidor web, como Apache o IIS, interactúa con el protocolo HTTP en la capa de aplicación para
recibir la solicitud HTTP y enviar la respuesta.
Capa de presentación
Como sugiere el nombre, esta capa presenta datos a la capa Aplicación. La capa de presentación es responsable de la traducción y
codificación de datos. Tomará los datos de la capa de aplicación y los traducirá a un formato genérico para transferirlos a través de la
red. En el extremo receptor, la capa de presentación toma datos formateados genéricamente y los traduce al formato reconocido por la
capa de aplicación. Un ejemplo de esto es una traducción de EBCDIC a ASCII . El modelo OSI tiene estándares de protocolo que
definen cómo se deben formatear los datos. Esta capa también participa en la compresión, descompresión, cifrado y descifrado de
datos.
Capa de sesión
En un host, diferentes aplicaciones o incluso diferentes instancias de la misma aplicación pueden solicitar datos de toda la red. Es
responsabilidad de la capa Sesiones mantener separados los datos de cada sesión. Es responsable de configurar, administrar y derribar
sesiones. También proporciona control de diálogo y coordina la comunicación entre los sistemas.
Capa de transporte
Cuando las capas superiores están relacionadas con aplicaciones y datos dentro del host, la capa de transporte se ocupa de la
transferencia real de un extremo a otro de los datos a través de la red. Esta capa establece una conexión lógica entre los dos hosts que
se comunican y proporciona una entrega de datos confiable o no confiable y puede proporcionar control de flujo y recuperación de
errores. Aunque no se desarrolló bajo el modelo de referencia OSI y no se ajusta estrictamente a la definición OSI de la capa de
transporte, los ejemplos típicos de la capa 4 son el Protocolo de control de transmisión (TCP) y el Protocolo de datagramas de
Capa de red
Para comprender mejor lo que hace la capa de red, considere lo que sucede cuando escribe una carta y utiliza el servicio postal para
enviarla. Pones la carta en un sobre y escribes la dirección de destino, así como tu propia dirección, de modo que te puedan devolver
una carta no entregada. En términos de red, esta dirección se denomina dirección lógica y es única en la red. Cada host tiene una
dirección lógica. Cuando la oficina de correos recibe esta carta, debe determinar el mejor camino para que esta carta llegue a su
destino. De manera similar, en una red, un enrutador debe determinar la mejor ruta a una dirección de destino. A esto se le llama
determinación de ruta. Finalmente, la oficina de correos envía la carta por el mejor camino y se mueve de la oficina de correos a la
oficina de correos antes de finalmente ser entregada a la dirección de destino.
Todas estas tres funciones (direccionamiento lógico, determinación de ruta y reenvío) se realizan en la capa de red. Se utilizan dos
tipos de protocolos para estas funciones: los protocolos enrutados se utilizan para el direccionamiento lógico y el reenvío, mientras
que los protocolos de enrutamiento se utilizan para las determinaciones de ruta. Hay muchos protocolos enrutados y protocolos de
enrutamiento disponibles. Algunos de los más comunes se comentan con detalle más adelante en la asignatura. Los enrutadores
funcionan en esta capa. Recuerde que los enrutadores solo se preocupan por la red de destino. No les importa el host de destino en
sí. La tarea de entrega al host de destino recae en la capa de enlace de datos.
Mientras que la capa de red se ocupa de los datos que se mueven a través de redes usando direcciones lógicas, la capa de enlace de
datos se ocupa de los datos que se mueven dentro de una red local usando direcciones físicas. Cada host tiene una dirección lógica y
una dirección física. La dirección física solo es significativa a nivel local y no se usa más allá de los límites de la red (a través de un
enrutador). Esta capa también define los protocolos que se utilizan para enviar y recibir datos a través de los medios. Recordará de
antes en el capítulo que solo un host puede enviar datos a la vez en un dominio de colisión o, de lo contrario, los paquetes colisionarán
y provocarán que un host retroceda durante algún tiempo. La capa de enlace de datos determina cuándo los medios están listos para
que el host envíe los datos y también detecta colisiones y otros errores en los datos recibidos. Los interruptores funcionan en esta capa.
Capa física
Esta capa se ocupa del propio medio de transmisión físico. Activa, mantiene y desactiva el enlace físico entre sistemas (host y
conmutador, por ejemplo). Aquí es donde se definen los conectores, pin-outs, cables, corrientes eléctricas, etc. Básicamente, esta capa
coloca los datos en los medios físicos como bits y los recibe de la misma manera. Los hubs funcionan en esta capa.
Encapsulación de datos
En las secciones anteriores, aprendió sobre varias capas del modelo de referencia OSI. Cada capa tiene su función distinta e interactúa
con la capa correspondiente en el extremo remoto. Por ejemplo, la capa de transporte en el origen interactuará con la capa de
transporte del destino. Para esta interacción, cada capa agrega un encabezado delante de los datos de la capa anterior. Este
encabezado contiene información de control relacionada con el protocolo que se utiliza en esa capa. Este proceso se
llama encapsulación . Este encabezado y los datos que se envían desde una capa a la siguiente capa inferior se denominan Unidad
de datos de protocolo (PDU) . La Figura 1-8 muestra cómo se encapsulan los datos a medida que viajan desde la capa 7 hasta la
capa 1.
Como se muestra en la Figura 1-8, la capa de aplicación agrega su encabezado dependiente del protocolo a los datos y crea la PDU de
capa 7 que luego se pasa a la capa de presentación. Luego, esta capa agrega su encabezado a la PDU de capa 7 para crear la PDU de
capa 6 y la envía a la capa de sesión. Esto continúa hasta que la capa 2 recibe la PDU de la capa 3. La capa 2 agrega un encabezado y
un tráiler a la PDU de capa 3 para crear la PDU de capa 2 que luego se envía a la capa 1 para su transmisión.
En el extremo receptor, la capa 1 toma los datos del cable y los envía a la capa 2. Aquí se examinan y eliminan el encabezado y el final
Como se mencionó anteriormente, el modelo de referencia OSI y el modelo TCP / IP son dos modelos de red
estándar abiertos que son muy similares. Sin embargo, este último ha encontrado más aceptación en la
actualidad y el conjunto de protocolos TCP / IP se usa con más frecuencia. Al igual que el modelo de
referencia OSI, el modelo TCP / IP adopta un enfoque en capas. En esta sección veremos todas las capas del
modelo TCP / IP y varios protocolos utilizados en esas capas.
El modelo TCP / IP es una versión condensada del modelo de referencia OSI que consta de las siguientes 4
capas:
• Capa de aplicación
• Capa de transporte
• Capa de Internet
• Capa de acceso a la red
Las funciones de estas cuatro capas son comparables a las funciones de las siete capas del modelo OSI. La
Figura 1-9 muestra la comparación entre las capas de los dos modelos.
Las siguientes secciones discuten cada una de las cuatro capas y protocolos en esas capas en detalle.
Capa de aplicación
La capa de aplicación del modelo TCP / IP consta de varios protocolos que realizan todas las funciones de las
capas de aplicación, presentación y sesión del modelo OSI. Esto incluye interacción con la aplicación,
traducción y codificación de datos, control de diálogo y coordinación de comunicaciones entre sistemas.
Los siguientes son algunos de los protocolos de capa de aplicación más comunes que se utilizan en la
actualidad:
Telnet : Telnet es un protocolo de emulación de terminal que se utiliza para acceder a los recursos de un
host remoto. Un host, llamado servidor Telnet, ejecuta una aplicación de servidor Telnet (o demonio en
términos de Unix) que recibe una conexión de un host remoto llamado cliente Telnet. Esta conexión se
presenta al sistema operativo del servidor telnet como si fuera una conexión de terminal conectada
directamente (usando el teclado y el mouse). Es una conexión basada en texto y generalmente proporciona
acceso a la interfaz de línea de comandos del host. Recuerde que la aplicación que utiliza el cliente suele
denominarse telnet también en la mayoría de los sistemas operativos. No debe confundir
la aplicación Telnet con el protocolo Telnet.
HTTP : el protocolo de transferencia de hipertexto es la base de la World Wide Web. Se utiliza para transferir
páginas web y dichos recursos desde el servidor web o el servidor HTTP al cliente web o al cliente
HTTP. Cuando utiliza un navegador web como Internet Explorer o Firefox, está utilizando un cliente
web. Utiliza HTTP para transferir las páginas web que solicita a los servidores remotos.
FTP : el protocolo de transferencia de archivos es un protocolo que se utiliza para transferir archivos entre
dos hosts. Al igual que telnet y HTTP, un host ejecuta la aplicación del servidor FTP (o demonio) y se
denomina servidor FTP mientras que el cliente FTP ejecuta la aplicación cliente FTP. Es posible que se
requiera que un cliente que se conecte al servidor FTP se autentique antes de tener acceso a la estructura de
archivos. Una vez autenticado, el cliente puede ver listados de directorios, obtener y enviar archivos y
realizar otras funciones relacionadas con archivos. Al igual que telnet, la aplicación de cliente FTP disponible
en la mayoría de los sistemas operativos se llama ftp . Por tanto, el protocolo y la aplicación no deben
confundirse.
SMTP : el protocolo simple de transferencia de correo se utiliza para enviar correos electrónicos. Cuando
configura un cliente de correo electrónico para enviar correos electrónicos, está utilizando SMTP. El cliente de
correo actúa aquí como cliente SMTP. SMTP también se usa entre dos servidores de correo para enviar y
recibir correos electrónicos. Sin embargo, el cliente final no recibe correos electrónicos mediante SMTP. Los
clientes finales utilizan el protocolo POP3 para hacer eso.
TFTP : Trivial File Transfer Protocol es una versión reducida de FTP. Donde FTP permite que un usuario vea
una lista de directorios y realice algunas funciones relacionadas con el directorio, TFTP solo permite enviar y
recibir archivos. Es un protocolo pequeño y rápido, pero no admite la autenticación. Debido a este riesgo de
seguridad inherente, no se usa ampliamente.
DHCP : como sabe, cada host requiere una dirección lógica, como una dirección IP, para comunicarse en una
red. El host obtiene esta dirección lógica mediante configuración manual o mediante un protocolo como el
Protocolo de configuración dinámica de host (DHCP). Con DHCP, se puede proporcionar a un host una
dirección IP automáticamente. Para comprender la importancia de DHCP, imagine tener que administrar
5000 hosts en una red y asignarles una dirección IP manualmente. Además de la dirección IP, un host
necesita otra información como la dirección del servidor DNS con el que necesita contactar para resolver
nombres, puertas de enlace, máscaras de subred, etc. Se puede usar DHCP para proporcionar toda esta
información junto con la dirección IP.
Capa de transporte
Los protocolos discutidos anteriormente son algunos de los protocolos disponibles en la capa de
aplicación. Hay muchos más protocolos disponibles. Todos ellos toman los datos del usuario y agregan un
encabezado y lo pasan a la capa de transporte para enviarlo a través de la red al destino. La función de la
capa de transporte TCP / IP es la misma que la capa de transporte de la capa OSI. Se ocupa del transporte
de datos de un extremo a otro y establece una conexión lógica entre los hosts.
Dos protocolos disponibles en esta capa son el Protocolo de control de transmisión (TCP) y el Protocolo de
datagramas de usuario (UDP). TCP es un protocolo confiable y orientado a la conexión que
utiliza ventanas para controlar el flujo y proporciona una entrega ordenada de los datos en
segmentos. Por otro lado, UDP simplemente transfiere los datos sin las campanas y silbidos. Aunque estos
dos protocolos son diferentes en muchos sentidos, realizan la misma función de transferir datos y utilizan un
concepto llamado números de puerto para hacer esto. Las siguientes secciones cubren los números de
puerto antes de analizar TCP y UDP en detalle.
Números de puerto
Un host en una red puede enviar o recibir tráfico de varios hosts al mismo tiempo. El sistema no tendría
forma de saber qué datos pertenecen a qué aplicación. TCP y UDP resuelven este problema utilizando
números de puerto en su encabezado. A los protocolos de capa de aplicación comunes se les han asignado
números de puerto en el rango de 1 a 1024. Estos puertos se conocen como puertos conocidos. Las
aplicaciones que implementan estos protocolos escuchan estos números de puerto. TCP y UDP en el host
receptor saben a qué aplicación enviar los datos en función de los números de puerto recibidos en los
encabezados.
En el host de origen, a cada sesión TCP o UDP se le asigna un número de puerto aleatorio por encima del
rango de 1024. De modo que el tráfico que regresa del destino se puede identificar como perteneciente a la
aplicación de origen. La combinación de la dirección IP, el protocolo (TCP o UDP) y el número de puerto
forma un sockettanto en el host receptor como en el emisor. Dado que cada socket es único, una aplicación
puede enviar y recibir datos desde y hacia múltiples hosts. La Figura 1-10 muestra dos hosts que se
comunican mediante TCP. Observe que los hosts de la izquierda y la derecha están enviando tráfico al host
del centro y ambos están enviando tráfico destinado al puerto 80, pero desde diferentes puertos de origen. El
anfitrión en el centro puede manejar ambas conexiones simultáneamente porque la combinación de dirección
IP, números de puerto y protocolos hace que cada conexión sea diferente.
La Tabla 1-1 muestra el protocolo de la capa de transporte y los números de puerto utilizados por diferentes
protocolos de la capa de aplicación común.
Alerta de examen : es importante recordar los números de puerto conocidos y el protocolo de capa de
aplicación al que están asignados, ya que lo verá en su examen CCNA en una pregunta de opción múltiple o una
pregunta de lista de acceso.
Cuando la capa de aplicación envía datos a la capa de transporte, TCP envía los datos mediante la siguiente
secuencia:
Establecimiento de conexión : TCP utiliza un proceso llamado protocolo de enlace de tres vías para
establecer una conexión o circuito virtual con el destino. El protocolo de enlace de tres vías utiliza
los indicadores SYN y ACK en la sección Code Bits del encabezado. Este proceso es necesario para inicializar
los campos de secuencia y número de reconocimiento. Estos campos son importantes para TCP y se
analizarán a continuación.
Como se muestra en la Figura 1-12, la fuente inicia el protocolo de enlace de tres vías enviando un
encabezado TCP al destino con la bandera SYN activada. El destino responde con la bandera SYN y ACK
enviada. Observe en la figura que el destino utiliza el número de secuencia recibido más 1 como número de
acuse de recibo. Esto se debe a que se supone que el intercambio contiene 1 byte de datos. En el paso final,
la fuente responde con solo el bit ACK establecido. Después de esto, puede comenzar el flujo de datos.
Segmentación de datos : el tamaño de los datos que se pueden enviar en una única PDU de capa de
Internet está limitado por el protocolo utilizado en esa capa. Este límite se denomina unidad máxima de
transmisión (MTU). La capa de aplicación puede enviar datos mucho más grandes que este límite; por lo
tanto, TCP tiene que dividir los datos en mandriles más pequeños llamados segmentos. Cada segmento está
limitado al tamaño de la MTU. Los números de secuencia se utilizan para identificar cada byte de datos. El
número de secuencia en cada encabezado significa el número de bytes del primer byte de ese segmento.
Control de flujo: la fuente comienza a enviar datos en grupos de segmentos. El bit de ventana en el
encabezado determina la cantidad de segmentos que se pueden enviar a la vez. Esto se hace para evitar
abrumar el destino. Al inicio de la sesión, la ventana es pequeña pero aumenta con el tiempo. El host de
destino también puede reducir la ventana para ralentizar el flujo. Por lo tanto, la ventana se llama ventana
deslizante . Cuando la fuente ha enviado la cantidad de segmentos permitidos por la ventana, no puede
enviar más segmentos hasta que se reciba un acuse de recibo del destino. La Figura 1-13 muestra cómo
aumenta la ventana durante la sesión. Observe que el host de destino aumenta la ventana de 1000 a 1100 y
luego a 1200 cuando envía un ACK de regreso al origen.
Entrega ordenada: TCP transmite datos en el orden en que se reciben desde la capa de aplicación y utiliza
el número de secuencia para marcar el pedido. Los datos pueden recibirse en el destino en el orden
incorrecto debido a las condiciones de la red. Por lo tanto, TCP en el destino ordena los datos de acuerdo con
el número de secuencia antes de enviarlos a la capa de aplicación al final. La entrega de este pedido es parte
del beneficio de TCP y uno de los propósitos del Número de secuencia.
Terminación de la conexión: después de que se hayan transferido todos los datos, la fuente inicia un
protocolo de enlace de cuatro vías para cerrar la sesión. Para cerrar la sesión, se utilizan las banderas FIN y
ACK.
Alerta de examen : TCP es uno de los protocolos más importantes que aprenderá mientras se prepara para el
examen CCNA. Comprender cómo funciona TCP es muy importante y es muy probable que vea una pregunta
ACK en el examen.
En esta etapa, podría pensar que TCP es un protocolo mejor que UDP, ya que es confiable. Sin embargo, hay
que considerar que las redes ahora son mucho más estables que cuando se concibieron estos protocolos. TCP
tiene una sobrecarga más alta con un encabezado y reconocimientos más grandes. La fuente también retiene
datos hasta que recibe reconocimiento. Esto crea un retraso. Algunas aplicaciones, especialmente aquellas
que se ocupan de voz y video, requieren un transporte rápido y se ocupan de la confiabilidad por sí mismas
en la capa de aplicación. Por lo tanto, en muchos casos, UDP es una mejor opción que TCP.
Capa de Internet
Una vez que TCP y UDP han segmentado los datos y han agregado sus encabezados, envían el segmento a la
capa de red. El host de destino puede residir en una red diferente lejos del host dividido por múltiples
enrutadores. Es tarea de la capa de Internet garantizar que el segmento se mueva a través de las redes a la
red de destino.
La capa de Internet del modelo TCP / IP corresponde a la capa de red del modelo de referencia OSI en
funcionamiento. Proporciona direccionamiento lógico, determinación de ruta y reenvío.
El Protocolo de Internet (IP ) es el protocolo más común que proporciona estos servicios. También
trabajan en esta capa los protocolos de enrutamiento que ayudan a los enrutadores a conocer las diferentes
redes a las que pueden llegar y el Protocolo de mensajes de control de Internet (ICMP) que se utiliza
para enviar mensajes de error a través de esta capa.
Casi la mitad del libro está dedicado a protocolos de enrutamiento e IP, por lo que se analizarán en detalle en
capítulos posteriores, pero las siguientes secciones tratan estos protocolos brevemente.
Cuando IP recibe segmentos de TCP o UDP, agrega un encabezado con la dirección IP de origen y la dirección
IP de destino, entre otra información. Esta PDU se llama paquete . Cuando un enrutador recibe un paquete,
mira la dirección de destino en el encabezado y lo reenvía hacia la red de destino. Es posible que el paquete
deba pasar por varios enrutadores antes de llegar a la red de destino. Cada enrutador por el que tiene que
pasar se llama salto .
Considere la Internetwork que se muestra en la Figura 1-14 para comprender mejor el proceso de
enrutamiento. Cuando el Host1 necesita enviar datos al Host2, no se enruta porque los hosts están en el
mismo rango de red. La capa de enlace de datos se encarga de esto. Ahora considere que Host1 envía datos
a Host3. Host1 reconocerá que necesita llegar a un host en otra red y enviará el paquete al Router1. El
Router1 comprueba la dirección de destino y sabe que la red de destino está hacia el Router2 y, por lo tanto,
la reenvía al Router2. De forma similar, el Router 2 reenvía el paquete al Router3. El Router3 está conectado
directamente a la red de destino. Aquí, la capa de enlace de datos se encarga de la entrega al host de
destino. Como puede ver, los campos de dirección IP en el encabezado IP juegan un papel muy importante
en este proceso.
Existen varias versiones del Protocolo de Internet. La versión 4 es la que se usa hoy y la versión 6 está
comenzando a reemplazarla lentamente, por lo que su presencia ha aumentado en el examen CCNA Routing
& Switching 200-120 en comparación con las versiones anteriores del examen CCNA. La Figura 1-15 muestra
la estructura del encabezado de IPv4. Los siguientes campos componen el encabezado:
Longitud del encabezado: especifica el tamaño del encabezado en sí. El tamaño mínimo es de 20
bytes. La figura no muestra el campo de opciones de uso poco frecuente que tiene una longitud variable. La
mayoría de los encabezados de IPv4 tienen 20 bytes de longitud.
Campo DS: el campo Servicios diferenciados se utiliza para marcar paquetes. Se pueden aplicar diferentes
niveles de calidad de servicio (QoS) en diferentes marcas. Por ejemplo, los datos que pertenecen a
protocolos de voz y video no tienen tolerancia al retraso. El campo DS se utiliza para marcar los paquetes
que transportan datos pertenecientes a estos protocolos para que reciban un tratamiento prioritario a través
de la red. Por otro lado, el tráfico entre pares se considera un problema importante y puede reducirse para
brindar el mejor tratamiento posible.
Longitud total: este campo especifica el tamaño del paquete. Esto significa el tamaño del encabezado más
el tamaño de los datos.
Identificación: cuando IP recibe un segmento de TCP o UDP; es posible que deba dividir el segmento en
mandriles llamados fragmentos antes de enviarlo a la red. Los campos de identificación sirven para
identificar los fragmentos que componen el segmento original. Cada fragmento de un segmento tendrá el
mismo número de identificación.
Desplazamiento de fragmentos: este campo identifica el número de fragmento y los hosts lo utilizan para
volver a ensamblar los fragmentos en el orden correcto.
Tiempo de vida: el valor de Tiempo de vida (TTL) se establece en el host de origen. Cada enrutador por el
que pasa el paquete reduce el TTL en uno. Si el TTL llega a 0 antes de llegar al destino, el paquete se
descarta. Esto se hace para evitar que el paquete se mueva por la red sin cesar.
Protocolo: este campo identifica el protocolo al que pertenecen los datos que transporta. Por ejemplo, un
valor de 6 implica que los datos contienen un segmento de TCP, mientras que un valor de 17 significa un
Suma de comprobación del encabezado: este campo se utiliza para verificar si hay errores en el
encabezado. En cada enrutador y en el destino, se realiza una verificación de redundancia cíclica en el
encabezado y el resultado debe coincidir con el valor almacenado en este campo. Si el valor no coincide, el
paquete se descarta.
Dirección IP de origen: este campo almacena la dirección IP del origen del paquete.
Dirección IP de destino: este campo almacena la dirección IP del destino del paquete.
La Figura 1-16 muestra cómo se usa la dirección IP de origen y destino en un paquete IP. Observe cómo
cambiaron las direcciones de origen y destino durante el intercambio entre HostA y HostB
Protocolos de enrutamiento
En la Figura 1-14, el Router1 sabía que necesitaba enviar el paquete destinado al Host3 hacia el
Router2. Router2, a su vez, sabía que el paquete tenía que dirigirse hacia Router3. Para tomar estas
decisiones, los enrutadores deben crear su tabla de enrutamiento . Esta es una tabla de todas las redes
conocidas por él y todos los enrutadores en la internetwork. La tabla también enumera el próximo enrutador
hacia la red de destino. Para crear esta tabla de forma dinámica, los enrutadores utilizan protocolos de
enrutamiento. Existen muchos protocolos de enrutamiento y su único propósito es garantizar que los
enrutadores conozcan todas las redes y la mejor ruta a cualquier red. El Capítulo 4 y el Capítulo 5 discuten el
proceso de enrutamiento y algunos protocolos de enrutamiento en detalle.
Red de destino inaccesible: si un paquete no se puede enrutar a la red en la que reside la dirección de
destino, el enrutador descartará el paquete y generará un mensaje ICMP de regreso a la fuente informando
que la red de destino es inaccesible.
Tiempo excedido: si el TTL de un paquete expira (se reduce a cero), el enrutador lo descartará y generará
un mensaje ICMP de vuelta a la fuente informándole que el tiempo excedido y el paquete no se pudo
entregar.
Respuesta de eco : ICMP se puede usar para verificar la conectividad de la red. La popular utilidad
llamada Ping se utiliza para enviar solicitudes de eco a un destino. En respuesta a la solicitud, el destino
enviará una respuesta de eco a la fuente. La recepción exitosa de la respuesta de eco muestra que el host de
destino está disponible y accesible desde la fuente.
La capa de acceso a la red del modelo TCP / IP se corresponde con las capas de enlace de datos y física del
modelo de referencia OSI. Define los protocolos y el hardware necesarios para conectar un host a una red
física y entregar datos a través de ella. Los paquetes de la capa de Internet se envían por la capa de acceso
a la red para su entrega dentro de la red física. El destino puede ser otro host en la red, él mismo o un
enrutador para reenvíos posteriores. Por lo tanto, la capa de Internet tiene una vista de toda la Internetwork,
mientras que la capa de acceso a la red está limitada al límite de la capa física que a menudo se define
mediante un dispositivo de capa 3, como un enrutador.
La capa de acceso a la red consta de una gran cantidad de protocolos. Cuando la red física es una
LAN, Ethernet en sus muchas variaciones son los protocolos utilizados más comúnmente. Por otro lado,
cuando la red física es una WAN, los protocolos como el Protocolo punto a punto (PPP) y Frame
Relay son comunes. En esta sección, analizamos en profundidad Ethernet y sus variaciones. Los protocolos
WAN se tratan en detalle en el Capítulo 11.
La capa de acceso a la red utiliza una dirección física para identificar hosts y entregar datos.
• La PDU de la capa de acceso a la red se denomina trama . Contiene el paquete IP, así como un
encabezado de protocolo y un tráiler de esta capa.
• El encabezado y el final de la capa de acceso a la red solo son relevantes en la red física. Cuando un
enrutador recibe una trama, elimina el encabezado y el final y agrega un nuevo encabezado y un final
antes de enviarlo a la siguiente red física hacia el destino.
Ethernet en el término utilizado para una familia de estándares que definen la capa de
acceso a la red del tipo más común de LAN que se usa en la actualidad. Los distintos
estándares difieren en términos de velocidades admitidas, tipos de cables y longitud de los
cables. El Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) es responsable de
definir los distintos estándares desde que asumió el proceso en 1980.
IEEE define varios estándares en la capa física mientras divide las funciones de enlace de
datos en las siguientes dos subcapas:
1. Los hosts que buscan transmitir una trama escuchan hasta que Ethernet no está
ocupado.
2. Cuando Ethernet no está ocupado, los hosts comienzan a enviar la trama.
3. La fuente escucha para asegurarse de que no haya ocurrido ninguna colisión.
4. Si ocurre una colisión, los hosts de origen envían una señal de interferencia para
notificar a todos los hosts de la colisión.
5. Cada host de origen aleatoriza un temporizador y espera ese tiempo antes de volver
a enviar el marco que colisionó.
CSMA / CD funciona bien pero crea algunos problemas de rendimiento porque:
1. Los hosts deben esperar hasta que los medios Ethernet no estén ocupados antes
de enviar tramas. Esto significa que solo un host puede enviar tramas a la vez en un
dominio de colisión (como en el caso de una red conectada a un concentrador). Esto
también significa que un host puede enviar o recibir al mismo tiempo. Esta lógica se
llama semidúplex .
2. Durante una colisión, ninguna trama atraviesa la red. Además, los hosts infractores
deben esperar un tiempo aleatorio antes de poder comenzar a reenviar los marcos.
Muchas redes sufrieron este tipo de degradación del rendimiento debido al uso de
concentradores hasta que los conmutadores se volvieron asequibles. De hecho, las
estadísticas mostraron que cualquier uso superior al 30 por ciento provocó una
degradación del rendimiento en Ethernet.
Recuerde que los switches rompen los dominios de colisión proporcionando un puerto
dedicado a cada host. Esto significa que los hosts conectados a un conmutador solo deben
esperar si el conmutador envía tramas destinadas al propio host.
Además de eliminar las colisiones, cada dispositivo usa el doble del ancho de banda
disponible porque ahora tiene el mismo ancho de banda en ambos pares de cables y cada
par se usa por separado para enviar y recibir.
La Figura 1-17 muestra cómo el transmisor en la tarjeta de interfaz del host está
conectado al receptor en la interfaz del interruptor, mientras que el receptor en la interfaz
del host está conectado al transmisor en la interfaz del interruptor. Ahora el tráfico enviado
por el host y el tráfico enviado al host tienen una ruta dedicada con el mismo ancho de
banda. Si cada ruta tiene un ancho de banda de 100 Mbps, el host obtiene 200 Mpbs de
ancho de banda dedicado al conmutador. En el caso de semidúplex, habría habido solo una
ruta única de 100 Mbps que se habría utilizado para recibir y enviar tráfico.
Direccionamiento Ethernet
Una dirección de unidifusión identifica un solo dispositivo. Esta dirección se utiliza para
identificar el origen y el destino en una trama. Cada tarjeta de interfaz LAN tiene una
dirección MAC única a nivel mundial. El IEEE define el formato y la asignación de
direcciones.
El entramado utilizado por Ethernet ha cambiado pocas veces durante el año. Xerox definió
el marco original. Cuando IEEE se hizo cargo de Ethernet a principios de la década de
1980, definió una nueva trama. En 1997, IEEE finalizó el marco de Ethernet que tomó
algunos componentes de la definición de Xerox y algunos del marco original de IEEE. El
cuadro finalizado se muestra en la Figura 1-19. La Tabla 1-2 enumera los campos del
marco, su tamaño y una breve descripción.
Alerta de examen : no es necesario recordar los campos del marco. Solo recuerde por qué
se utilizan los encabezados LLC y SNAP para su examen CCNA.
Alerta de examen : Ethernet se utiliza para describir la familia de estándares que incluye
FastEthernet, Gigabit Ethernet, etc. También se utiliza para describir la variante de 10Mpbs,
que también se indica simplemente como Ethernet.
Luego, IEEE extendió el comité 802.3 a dos nuevos comités conocidos como 802.3u
(FastEthernet) y 802.3ab (Gigabit Ethernet en cable de categoría 5). Luego creó otro
comité conocido como 802.3ae (10Gbps sobre fibra y coaxial).
Ahora que conoce los organismos de estándares involucrados y lo que han hecho, es hora
Cableado de Ethernet
Cuando se conectan diferentes tipos de dispositivos entre sí, se utilizan diferentes tipos de
cableado. Existen los siguientes tres tipos de cableado Ethernet:
Recto - Un cable UTP tiene 8 hilos. Una conexión directa utiliza 4 de estos 8 cables. La
Figura 1-21 muestra la configuración del cable en ambos extremos en un cable
directo. Observe que solo se utilizan los cables 1, 2, 3 y 6 y se conectan directamente al
número correspondiente en el otro extremo.
• Anitrión a anfitrión
• Cambiar a cambiar
• Hub a Hub
• Cambiar a Hub
• Enrutador a un host
Cualquier forma fácil de recordar esto es que los dispositivos similares están conectados
entre sí mediante cables cruzados.
Alerta de examen: los tipos de cables y dónde se utilizan es un tema muy importante no
solo para el examen CCNA, ya que verá preguntas, sino también para su carrera en redes.
En una organización grande, es común ver redes grandes y complicadas que constan de muchas ubicaciones,
dispositivos, servicios y protocolos. Puede resultar engorroso administrar y solucionar problemas de este tipo
de redes. Además de eso, a medida que evolucionan las tecnologías, la red también debe evolucionar. A
menudo, hacer cambios en una red compleja es difícil. Cisco, con sus años de experiencia en equipos de red
y en la gestión de su propia red, ha definido un modelo jerárquico de tres capas. Este modelo proporciona un
método modular y jerárquico para construir redes que facilita la implementación, gestión, escala y resolución
de problemas de redes.
• La capa Core
• La capa de distribución
• La capa de acceso
Estas capas son lógicas y no físicas. Tienen funciones específicas en una internetwork que se analizan a
continuación:
La capa principal : esta capa es la columna vertebral de una internetwork. Es la capa más simple pero la
más crítica, cuya única función es transportar una gran cantidad de datos rápidamente. Obtiene datos de la
capa de distribución y los envía de regreso a la capa de distribución después del transporte. La velocidad y la
tolerancia a fallas son los dos requisitos principales de esta capa porque tiene que transportar una gran
cantidad de datos y cualquier falla en esta capa afectará a todos los usuarios. Teniendo en cuenta las
funciones de esta capa, se debe evitar lo siguiente en esta capa:
• Cualquier cosa que pueda ralentizar el tráfico. Por ejemplo, filtrado de paquetes, enrutamiento entre
VLAN, etc.
• Conexiones de usuario directas
• Conexiones directas al servidor
• Políticas de servicio complejas
Al diseñar el núcleo, se debe tener en cuenta lo siguiente:
Aunque este capítulo fue largo, ayudó a sentar las bases de su conocimiento de redes
CCNA. No se puede enfatizar lo suficiente la importancia de comprender todos los temas de
este capítulo. Sugeriría encarecidamente volver a leer el capítulo para reforzar los
conceptos básicos.
El capítulo comenzó con la importancia de las redes, los dispositivos de red básicos y los
tipos de red y los dominios de colisión y difusión.
Luego se discutió el modelo OSI de siete capas. Es importante recordar las funciones de
todas las capas y cómo se asignan al modelo TCP / IP. Recuerde que los concentradores
funcionan en la capa física, los conmutadores en la capa de enlace de datos y los
enrutadores en la capa de red del modelo OSI.
Luego, el capítulo cubrió una larga discusión sobre el modelo TCP / IP y sus numerosos
protocolos. Recuerde que TCP / IP y Ethernet forman una parte importante del examen
CCNA y tienen algunos capítulos dedicados a ellos.
Por último, el capítulo cubrió el modelo jerárquico de tres capas de Cisco y cómo está
diseñado para ayudar a implementar y administrar una red compleja.
El próximo capítulo analiza el direccionamiento IP. Antes de dirigirse a él, le sugerimos que
revise las Alertas de examen CCNA distribuidas en este capítulo para recapitular los
diversos conceptos importa>