Está en la página 1de 78

Modelos de comunicaciones

martes, 24 de agosto de 2021 21:22

Modelos OSI y TCP/IP


El modelo OSI es un modelo teórico que fue desarrollado para mejorar la interoperabilidad de las comunicaciones.
Consiste en 7 capaz que van desde la física hasta la de aplicación. Suele añadirse que existen dos capas más que influyen
en las comunicaciones, las cuales no son técnicas, y que consisten en el usuario (capa 8) y el management (capa 9), que
son las personas que deciden lo que se compra y lo que no.
El modelo TCP/IP es otro modelo, el cual describe la aplicación práctica de las comunicaciones.

Características genéricas de los protocolos


Los protocolos son las reglas establecidas para poder llevar a cabo la comunicación. Pueden clasificarse en:
• Orientados a la conexión: Se notifica la recepción del envío al origen. Contribuye al establecimiento de un circuito
virtual previo a la transmisión de información.
• No orientados a la conexión: Transmisión de mensaje sin previa notificación al destino de su envío. El destino no
devuelve ninguna información al origen.
Los protocolos poseen ciertas características o mecanismos que buscan asegurar que la comunicación sea mejor,
detectar errores y mejorar la calidad:
• Confiabilidad: Utilización de números de secuencia y acuses de recibo.
• Control de flujo: Ayuda a incrementar la eficiencia en la transmisión de datos.
• Detección de errores: Identificación de mensajes dañados para su eliminación. Este proceso de descarte puede no
especificar alguna acción de retrasmisión.
Para establecer las comunicaciones existen dos métodos básicos:
Conmutación de circuitos Conmutación de paquetes
• Establecimiento de un canal de comunicación dedicado • La información es formateada en pequeñas unidades de
de extremo a extremo antes del comienzo de la datos y transmitida a través de las redes de forma
transmisión de información. independiente hacia el destino.
• Utilizado por la telefonía analógica tradicional. • Comparte el ancho de banda disponible entre múltiples
transmisiones.
• Toda unidad de dato es enviada en el momento en que
está disponible.

Encapsulamiento
El encapsulamiento es un procedimiento por el cual una unidad de dato de protocolo (PDU) se completa con
información de direccionamiento y control para la correcta interpretación y procesamiento en las capas superiores. La
información complementaria se adiciona en forma de encabezado o cola al contenido del mensaje de capa superior.
Cada capa del modelo OSI maneja diferente información. Los datos que posee una capa son interpretados sólo por ésta
Cada capa del modelo OSI maneja diferente información. Los datos que posee una capa son interpretados sólo por ésta
y, para ser enviada a un dispositivo, se le añade un encabezado para que la siguiente capa pueda interpretar hacia
dónde deben ir los datos (el "mensaje) que se están enviando.

Un mensaje, al ser enviado a través de una aplicación, pasa a la capa de transporte. En esa capa se añade la información
de los puertos de origen y destino para que el dispositivo del receptor sepa a través de qué aplicación se está
estableciendo la comunicación. Al añadirse esta información, el mensaje pasa a llamarse segmento.
El segmento pasa a la capa de Internet. En la misma se añade la información de las direcciones IP de origen y destino
que determinan la interfaz de red (elemento de comunicación/conexión) de los dispositivos que establecen la
comunicación. Al añadirse esta información, el segmento pasa a llamarse paquete.
El paquete pasa a la capa de enlace. Allí se añade la información de las direcciones MAC de origen y destino que
determinan la identificación de las tarjetas de red que establecen la comunicación. Al añadirse esta información, el
paquete pasa a llamarse trama.
Los dispositivos de una red se identifican a través de la dirección IP privada y la dirección MAC local. Al enviar mensajes
por Internet, esos datos se modifican: el mensaje sale a Internet con la dirección IP pública y la dirección MAC del router
que establece la conexión.
La trama pasa a la capa física. Esta capa convierte la trama en bits (1 y 0) para que viajen a través de la red, sea a través
de cables físicos o de ondas inalámbricas.
Cada dispositivo entiende distintas partes de la información que se envía: sólo podrá descifrar la parte que necesita
entender para poder transmitir el mensaje a su destino.

Arquitectura TCP/IP
La arquitectura TCP/IP se caracteriza por:
• Arquitectura abierta y estándar: Ideal para comunicar diferentes plataformas de hardware o software.
• Independiente del hardware de red: Permite integrar diferentes clases de redes (Ethernet, Token Ring, Wireless).
• Esquema de direcciones: Permite identificar de forma unívoca a cada red y a cada host dentro de ella.
Las capas de las cuales se compone esta arquitectura son:
Las capas de las cuales se compone esta arquitectura son:

Capa de transporte
La capa de transporte utiliza dos protocolos:
• Transport Control Protocol (TCP): Proporciona un flujo de bytes confiable de extremo a extremo a través de redes
no confiables con diferentes topologías, anchos de banda, retardos, tamaños de paquete y otros parámetros. Se
diseñó para adaptarse de manera dinámica a las propiedades de las redes y sobreponerse a muchos tipos de
fallas.

• User Datagram Protocol (UDP): Proporciona una forma para que las aplicaciones envíen datagramas IP
encapsulados sin tener que establecer una conexión.
encapsulados sin tener que establecer una conexión.

Capa de Internet
La capa de Internet utiliza el protocolo IP:

Capa de aplicación

Arquitectura TCP/IP y relación con otros protocolos


Intercambio de 3 vías

Capa de enlace de red


La capa de enlace de red utiliza diferentes protocolos según el tipo de red que se trate:

Por ejemplo, en el caso del protocolo Ethernet:


Sistema de Nombres de Dominio (DNS)
viernes, 27 de agosto de 2021 21:18

El Sistema de Nombres de Dominio (DNS, Domain Name System) es la manera existente de identificar los diferentes
sitios de Internet que se quieren acceder. De esta manera, una dirección IP se asocia con un determinado nombre de
dominio que hace más sencillo su acceso.
El DNS utiliza una estructura de nombres jerárquica denominada Estructura de Nombres de Dominio (Domain Name
Space), el cual incluye a todos los dominios que integran Internet. Este espacio consiste en una base de datos
descentralizada, es decir, repartida en diferentes lugares del planeta, la cual guarda todas las asociaciones de
direcciones IP con nombres de dominio.

Cada nivel en la estructura está representado


por nombres que integran un camino
específico. La disposición simula a un árbol
invertido. En la punta del árbol se encuentra el
nodo raíz, llamado root domain (o root)
seguido por los Top Level Domain (TLDs),
luego los Second Level Domain y niveles
inferiores separados por un punto (.).
El término dominio o nombre de dominio es
utilizado para describir una entidad delegada.
De esta manera, puede establecerse una
cadena de identificación que define un ámbito
de administración, autoridad, autonomía y
control común sobre Internet.

Fully Qualified Domain Name (FQDN)


El Fully Qualified Domain Name (FQDN) es la característica de un nombre de dominio para especificar su ubicación
exacta en la jerarquía de nombres del Espacio de Nombres de Dominio. Estrictamente, todos los niveles son
especificados, incluido el dominio raíz.
Un FQDN es identificado unívocamente, es decir, interpretado de una única manera. El host web es ambiguo porque
pueden encontrarse numerosos dominios que contengan este nombre, pero solo puede existir el host.

Autoridad y delegación
Toda organización que administra un nodo (o varios nodos), lo hace de forma autoritativa, en referencia a que puede
disponer de su porción del espacio de dominio de la manera que le resulte más eficiente y ordenada. A su vez, es
posible delegar autoridad en niveles inferiores que dependen del nodo superior, atravesando toda la jerarquía del
dominio del cual es responsable. El dueño de un dominio podrá disponer del espacio de nombre delegado.
dominio del cual es responsable. El dueño de un dominio podrá disponer del espacio de nombre delegado.

La autoridad sobre los dominios ROOT recae en la ICANN (Internet Corporation for Assigned Numbers And Names).
ICANN delega a organizaciones denominadas entidades registrantes (accredited registrars) la responsabilidad de la
venta y la administración de partes del espacio de nombres de dominio.
• Los gTLDs son administrados de forma autoritativa por la ICANN y delegados a determinadas entidades
registrantes.
• Los ccTLDs son delegados por la ICANN a los respectivos países para su propia administración.

Implementación de DNS
La implementación de DNS consiste en el hardware y software necesario para que el sistema de nombres cumpla con su
función principal: la resolución de nombres (name resolution).
Los servidores de nombres son equipos dedicados que almacenan información de dominio y proporcionan la función de
resolución de nombres. Su disposición sigue los lineamientos de la jerarquía de dominios y la estructura de autoridad y
delegación.

Cada entidad autoritativa que es responsable de una porción del espacio de dominios requiere que toda su información
sea mantenida en servidores DNS.
Los ROOT Name Servers son los recursos más críticos en Internet. El trabajo de los servidores ROOT es proveer una
derivación o referencia (referral) hacia los servidores de nombres autoritativos para los requeridos TLDs (ccTLDs o
gTLDs). La consulta hacia los servidores ROOT se inicia cuando cualquier servidor de nombres no puede resolver
(responder) una petición de un nombre.

Componentes
La implementación DNS consta de los siguientes componentes:
1. Información que describe un dominio contenida en los archivos de zona (zone files).
2. Un programa o librería encargado del proceso de resolución (respuesta).
3. El software de DNS.

1. Archivos de zona
Los archivos de zona describen las características generales del dominio y a los hosts que lo integran. Estos datos se
encuentran dispuestos en registros (resourse records) y éstos organizados en archivos de zona. Sus registros más
relevantes son:
relevantes son:
• Start of Authority (SOA): Registros que detallan la autoridad de la zona.
• Address (A): Registro que describe el atributo de nombre para los recursos que componen la zona.
• Address (AAAA): Registro que describe el nombre para recursos con direcciones IPv6.
• Mail Exchange (MX): Registros para los servidores de correo de la zona.
• Name Server (NS): Registros que detallan cuáles son los servidores de nombre autoritativos para el dominio.

2. Programa de resolución
El programa de resolución es la parte "cliente" del DNS. Existe en todo host y es responsable de iniciar y secuenciar las
consultas (queries) que finalmente generaran la resolución del recurso, como la traducción de un dominio en una
dirección IP.
La resolución implica interactuar con uno o más servidores de nombre para encontrar la información necesitada.
Existen programas de resolución (resolvers) denominados stub resolvers, de una reducida complejidad. Se comunican a
un único name server con capacidad de recursión, para que pueda efectuar la búsqueda y devolverla al host.

3. Software DNS
El software DNS realiza 3 tareas fundamentales:
• Leer los parámetros y registros en los archivos de zona, que describe para cuáles dominios el servidor es
autoritativo.
• Toma la configuración del programa para determinar cómo será el funcionamiento del servidor de nombres (si
cachea o no consultas, si es recursivo o no, si inicia transferencias de zona, etc.).
• Responde a consultas (queries) de hosts locales o remotos (resolvers u otros name servers).

Resolución DNS
Servicios de Internet
martes, 31 de agosto de 2021 21:12

Los servicios de Internet son los que le dan sentido al uso de la red. Fueron surgiendo a lo largo de la historia de manera
informal (ya que no existe un ente que gobierne Internet), la gran mayoría de ellos como documentos.

Request For Comments (RFC)


Los Request For Comments son documentos que describen trabajos aplicables a Internet. Son publicados por la IETF
(Internet Engineering Task Force) y en ellos se especifican los protocolos más usados en Internet. Los mismos informan
sobre las practicas recomendadas, los estándares propuestos y todo aquello que es preciso definir en la estructura de
Internet.
Estos documentos se identifican por un número de serie aplicable al documento que busca describir un aspecto de las
redes e internet.
Todos los estándares abiertos que tienen participación en la estructura de Internet tienen por lo menos un RFC
dedicado. Los protocolos propietarios, generalmente no documentados al público en general, no tienen RFC.
No todos los RFCs son estándar. Cada uno debe someterse a un proceso de revisión y ser aprobados por la IETF.

URI y URL
Se requiere un mecanismo que permita identificar de manera objetiva en qué lugar se encuentra un determinado
recurso de Internet. Para ello es que se inventaron los mecanismos de URI y URL:

El URI es un estándar de internet que provee un medio simple y extensible para identificar un recurso. Consiste en una
secuencia concisa y precisa de caracteres que permiten identificar un recurso físico o abstracto de forma unívoca. Su
nombre se compone de los siguientes términos:
• Uniforme: Existen un mecanismo conocido para identificar un recurso y su método de acceso.
• Recurso: Todo elemento que puede ser identificado.
• Identificador: Información requerida para distinguir lo que está siendo identificado de otros objetos.
El URI es la sumatoria de la URL y el URN.
 El URN identifica la identidad de un recurso. Se definió para establecer identificadores de recursos
independientemente de la ubicación de los mismos. Es el caso, por ejemplo, del ISBN de un libro.
 La URL es una estructura que señala a un cliente la manera de acceder a determinado recurso y si es necesario
utilizar otro cliente para acceder al servicio. Permite que un recurso pueda ser identificado basándose en su
ubicación y el método por el cual este puede ser accedido. Se utiliza para identificar recursos en la capa de
aplicación TCP/IP por su simpleza.
La estructura de una URL es:

<scheme>://<usuario>:<password>@<host>:<port>/<url-path>;<params>?<query>#<fragment>

Scheme o esquema hace referencia al tipo de método de acceso, que describe la forma por el cual el recurso será
utilizado. Generalmente hace referencia a un protocolo de aplicación como HTTP o FTP, o un recurso como un archivo
(FILE).
El resto de la sintaxis está condicionada a parámetros que puedan ser propios del esquema utilizado. Todo método o
protocolo de acceso requiere de información particular para poder identificar el recurso.
La estructura de la URL para acceder a un servicio de Internet varía según el servicio de que se trate:

Diferentes servicios de Internet


Correo electrónico
El correo electrónico se caracteriza por no requerir que los usuarios estén permanentemente conectados a Internet. Los
protocolos en los que se basa el correo electrónico son:
 SMTP (Simple Mail Transfer Protocol).
 POP3 (Post Office Protocol v3).
 IMAP (Internet Message Access Protocol).

SMTP
El SMTP es un protocolo estándar de Internet encargado de la transferencia de correo electrónico de manera confiable y
eficiente. Dado que el correo electrónico no requiere la permanente conexión a Internet, este protocolo es
independiente de sistema de transmisión subyacente y solo requiere de un canal que le permita en envío de datos de
forma ordenada. El servicio Microsoft Exchange, por ejemplo, utiliza este protocolo.
Existen desarrollos propietarios y abiertos que adoptaron las especificaciones del protocolo para crear servicios de
transferencia de correo.
El protocolo se puede implementar a través de tres alternativas principales:
1. Mediante el puerto 25 del protocolo TCP: El establecimiento de la sesión y la transferencia de correo se realiza en
texto plano.
2. Mediante el puerto 465 del protocolo TCP: Primero se establece una sesión SSL/TLS y luego se inician la sesión y
transferencia vía SMTP. Esta alternativa se denomina SMTPS. Agrega confidencialidad e integridad.
3. Mediante el puerto 587: El protocolo SMTP implementa mecanismos especificados en su funcionamiento para
crear un canal seguro de comunicación. Agrega confidencialidad e integridad. Alternativa recomendada
actualmente para iniciar transferencias entre clientes y servidores SMTP.
Su funcionamiento básico es el siguiente:
POP3
POP3 es un protocolo simple, en donde el cliente se conectará al servidor POPv3 a través del puerto 110 TCP y
descargará los mensajes recibidos en su buzón, almacenándolos en su equipo local. Los mensajes descargados se
eliminan del servidor. Lo utilizan, por ejemplo, Gmail y Yahoo! Mail.
Puede ser implementado de forma segura utilizando mecanismos de cifrado. Para esto, el protocolo POP3 puede
establecer una conexión SSL/TLS y luego iniciar una sesión POP3 a través del puerto 995.
Su funcionamiento básico es el siguiente:
Su funcionamiento básico es el siguiente:

IMAP
IMAP es un protocolo de capa de aplicación que describe el proceso de acceso y recuperación de correo de un servidor
remoto. Utiliza TCP para la transmisión de datos a través del puerto 143.
IMAP puede utilizarse sobre una conexión SSL/TLS previa, para garantizar integridad y confidencialidad. Esta alternativa
de conexión utiliza el puerto 993 (IMAPS).
Como alternativa a POP, IMAP agrega más funcionalidades:
• Permite que los mensajes se guarden en el servidor hasta que el cliente decida eliminarlos.
• Permite la conexión simultanea de múltiples clientes (UA, User Agents) para el manejo de la misma casilla de
usuario.
• Creación de flags en mensajes para rastrear los mensajes leídos o respondidos.
• Manejo de múltiples casillas.
• Determinar qué información contiene un mensaje antes de descargarlo, para decidir si debe ser recogido o no.
• Descarga de porciones de un mensaje.
Su funcionamiento básico es el siguiente:

Transferencia de archivos
File Transfer Protocol (FTP)
FTP es un protocolo estándar de Internet que describe como realizar la transferencia de archivos desde un host hacia
otro host a través de una red TCP/IP como Internet. Fue el protocolo más utilizado para la actualización de contenidos
web, ya que permite subir archivos muy fácilmente a un servidor de Internet.
Actualmente se utiliza integrado a un editor de páginas Web o un WCMS y su utilización como servicio de transferencia
es reemplazado por alternativas más eficientes y seguras.
Puede ser utilizado con TLS/SSL para cifrar la transmisión del protocolo debido a que los datos de autenticación como los
archivos a transmitir se envían en texto plano.
Su funcionamiento básico es el siguiente:
Server Message Block (SMB)/Common Internet File System (CIFS)
Los protocolos SMB y CIFS definen un estándar para el acceso a archivos desde diferentes plataformas (Windows,
Linux,Unix, MacOS X, *BSD, Novell Netware).
SMB fue originariamente diseñada para funcionar sobre la NetBIOS/NetBEUI. Desde Windows 2000 se fue adoptando
con más popularidad implementar SMB directamente sobre TCP en el puerto 445, lo que Microsoft denomina “Direct
Host SMB”.
SMB corriendo sobre NetBIOS utiliza los puertos 137/UDP, 138/UDP y 139 TCP. Corriendo directamente sobre TCP/IP
utiliza los puertos 445/TCP y 445/UDP
La implementación de CIFS para Linux, Unix, MacOS X y *BSD se llama Samba.

Distribución de información
El protocolo excluyente para la distribución de información es HTTP (HyperText Transfer Protocol). Es un protocolo de
capa de aplicación para sistemas que distribuyen información en hipertexto.
HTTP establece un estándar de sintaxis y semántica para la transmisión de contenido web sobre una infraestructura
cliente-servidor.
La información de hipertexto varía desde documentos de texto, como gráficos, tablas, sonidos, hasta videos,
aplicaciones, entre otras.
HTTP es un protocolo sin estado ya que no guarda ninguna información sobre conexiones anteriores. Por eso, cuando un
sitio requiere que el usuario se autentique requiere la utilización de otros mecanismos (ej.: cookies) para poder
mantener la sesión activa. De lo contrario, cuando finaliza la conexión no se guardarán las credenciales de usuario y éste
deberá volver a loguearse.
Este protocolo utiliza el puerto 80 TCP y puede utilizar el puerto 443 para iniciar conexiones seguras a través de SSL/TLS
(HTTPS).
HTTP 1.1 es la versión más utilizada. Sus propiedades son:
• Soporte de múltiples web hosts en un mismo servidor (Virtual Hosts): Cada servidor con su propia IP pueda alojar
numerosos sitios web con diferentes nombres de dominio.
• Conexiones persistentes (Persistent Connections): HTTP/1.1 posibilitó que un cliente pueda enviar múltiples
• Conexiones persistentes (Persistent Connections): HTTP/1.1 posibilitó que un cliente pueda enviar múltiples
peticiones de páginas y contenido web en una sola sesión TCP.
• Selección de recurso en forma parcial (Partial Resource Selection): En HTTP/1.1 un cliente puede pedir solamente
por una parte de un recurso.
• Negociación de contenido (Content Negotiation): Permite al cliente y servidor intercambiar información para
seleccionar la mejor representación de contenido web.
• Pipelining (Canalización): Por la misma sesión TCP, el cliente podrá enviar varios pedidos uno después de otro, sin
esperar a una respuesta del servidor para comenzar con el pedido nuevamente.
Dos conceptos clave para entender el funcionamiento del protocolo HTTP son:
• Hipertexto: Texto encontrado en un dispositivo electrónico que referencia a otro texto que puede ser
inmediatamente accedido por el usuario, generalmente con un click. El Lenguaje de Marcación de Hipertexto
(HTML, Hypertext Markup Language) define cómo los documentos con hipertexto deben ser construidos.
 Hipervínculo: Referencia a otro documento. El usuario, al seleccionar un hipervínculo, provoca que el navegador
se redirija hacia el documento enlazado.
Los métodos HTTP son acciones a realizar sobre un recurso web. Algunos de ellos son, por ejemplo: GET, CONNECT,
HEAD, OPTIONS POST, PUT, DELETE, TRACE, PATCH.
Su funcionamiento básico es el siguiente:
Protocolo IPv4
viernes, 3 de septiembre de 2021 21:17

Todas las PCs utilizan el protocolo IP para poder identificar el dispositivo dentro de la red. Este
protocolo es el encargado de conducir los paquetes a través de la red hacia su destino. Cada paquete
tiene la suficiente información de control y transmisión y es considerado una entidad independiente
de los demás. Debido a la independencia de cada paquete, cada envío puede viajar a través de
diferentes caminos.
El protocolo IP se caracteriza por:
• Protocolo no orientado a la conexión: la conexión queda delegada a las capas superiores. El
paquete IP es enviado sin previa notificación al destino de su envío. El destino no devuelve
ninguna información al origen.
• Servicio de “mejor esfuerzo”: Su entrega no está garantizada. El paquete puede duplicarse,
perderse en el camino o corromperse.
• No posee mecanismo de reenvío de paquetes no entregados: Esto es encomendado a capas
superiores.

Dirección IP
La dirección IP está compuesta por 4 octetos de 8 bits cada uno, expresado en notación binaria.

Dado que el sistema binario es posicional, cada bit ocupa una posición de valor que permite luego
realizar la conversión al sistema decimal para poder expresar la dirección IP.
Características del protocolo IP
• Dirección de red: Toda dirección que tiene bits en 0 en el campo de hosts permite identificar
la red.
• Unicast (dirección de host): Dirección que identifica únicamente a un solo host. Las
comunicaciones unicast son de 1 dispositivo a otro dispositivo únicamente.
• Multicast: Dirección que identifica a un conjunto de hosts que presenta una característica
particular. Entre otras funciones, es utilizado en protocolos de enrutamiento para notificar a
un grupo de hosts del cambio en las condiciones de la red a la que pertenecen. Las
comunicaciones multicast son de 1 dispositivo a un grupo de dispositivos que comparten una
característica en común.
• Broadcast: Dirección identificada por todos los hosts que componen la red. Las
comunicaciones broadcast son de 1 dispositivo dirigido hacia muchos dispositivos.
• Dirección de loopback: Utilizada internamente por un host para que sus sistemas puedan
comprobar su funcionamiento. También es utilizada como red de comunicación interna del
host. Es una dirección lógica, no está asociada a una interfaz. Si el dispositivo está
funcionando, esta dirección debería responder.
Si bien la dirección IP permite identificar a una computadora dentro de una red, no es suficiente ya
que la dirección IP no dice por sí misma en qué red se encuentra dicha computadora. Para poder
identificar la red está la dirección de red y para poder identificar a todos los dispositivos que forman
parte de la red está la dirección de broadcast. Finalmente, las direcciones intermedias que se ubican
entre las dos mencionadas son las direcciones IP utilizables para poder identificar individualmente a
cada dispositivo dentro de la red. A este conjunto de direcciones se las denomina máscara de red y
permiten determinar el tamaño de esa red (es decir, dónde empieza y dónde termina).
Un router conoce dos direcciones: una es la dirección IP del proveedor que le permite intercambiar
paquetes con Internet. Luego tiene la dirección del propio router (default gateway) que es la que le
permite intercambiar paquetes con los dispositivos dentro de la red.

Agotamiento y evolución
Con el desarrollo del protocolo IPv4 no se consideró en su diseño el crecimiento de Internet y otros
factores relacionados como el incremento en el uso de dispositivos móviles, la actividad constante
de los hosts en Internet y la asignación de direcciones sin el control adecuado. A principios de la
década de los 90s se comenzaron a llevar a cabo acciones para demorar la ocupación de direcciones
disponibles y su eventual agotamiento.

Direccionamiento con clase (Classfull Addressing)


El direccionamiento con clase es un método de direccionamiento que divide el espacio de
direcciones del Protocolo Internet versión 4 (IPv4) en cinco clases en función del tamaño de las
direcciones del Protocolo Internet versión 4 (IPv4) en cinco clases en función del tamaño de las
redes (dado por la máscara de red).
• Las clases A, B y C representan redes de hosts con direcciones unicast.
• La Clase D representa una red multicast.
• La Clase E se encuentra reservada y se utiliza con fines experimentales.
Un dispositivo de red podría revisar los primeros bits de una dirección IP para determinar la clase a
la que pertenece.
Actualmente el control de la asignación de direcciones es administrada por IANA y sus organismos
de registración regionales (RIR) como LACNIC.

Clase A
Se dice que una red es de clase A cuando todos los bits del primer octeto permite identificar a la red.
El resto de los bits identifican al dispositivo host.

Clase B
Se dice que una red es de clase B cuando los dos primeros octetos permiten identificar a la red. El
resto de los bits identifican al dispositivo host.

Clase C
Se dice que una red es de clase C cuando los tres primeros octetos permiten identificar a la red. El
resto de los bits identifican al dispositivo host.
Clase D
Una red de clase D es una red de difusión múltiple o multicast. Utiliza todos sus octetos para
identificar a la red.

Clase E
Las redes clase E son redes reservadas, no disponibles para su uso.

Direccionamiento privado y público


El direccionamiento privado y público se definió para que ciertas direcciones IP queden asignadas
exclusivamente a organizaciones y el resto para los dispositivos en general conectados a Internet.
• Dirección privada: Dirección que no puede ser encaminarse (enrutarse) hacia Internet. Sólo es
utilizada para redes locales.
• Dirección pública: Dirección que puede atravesar redes públicas en Internet. Utilizada como
dirección que limita entre redes locales privadas e Internet.
La división del espacio de direccionamiento en redes públicas y redes privadas, en conjunto con
otros esquemas, principalmente respondió a la necesidad de reducir el progresivo agotamiento de
direcciones IP.
Es posible obtener las direcciones IP públicas de un proveedor de servicios de Internet (ISP) a un
precio.
CLASE Rango de direcciones internas o privadas
A 10.0.0.0 a 10.255.255.255
B 172.16.0.0 a 172.31.255.255
C 192.168.0.0 a 192.168.255.255
El router (o CPE, Customer Provider Edge) tiene configurada una dirección denominada default
gateway que es la dirección IP con la que se identificará frente a los dispositivos que componen la
red (PC, celular, etc.). Esta dirección IP es privada, ya que sólo será utilizada para que los dispositivos
se comuniquen y envíen y reciban tráfico hacia y desde el router. Luego, tendrá configurada otra
dirección de cara hacia Internet. Esta dirección puede ser:
 Una dirección IP pública.
 Una dirección IP privada que lo conectará con el router del proveedor de servicios de Internet
(ISP), el cual tendrá la dirección IP pública para dirigir el tráfico desde y hacia Internet.

Subredes
La división de la red en subredes (conocida como Claseless Inter-Domain Routing, CIDR) es otro
método para administrar con mayor eficiencia la disponibilidad de direcciones IP, que se encuentran
un proceso de agotamiento. En principio consiste dividir las Clases de Direccionamiento IP completas
en redes de menor tamaño. Se utiliza una máscara de subred para dividir la red y generar
segmentos más pequeños, eficientes y administrables.
La capacidad para decidir cómo se divide la porción de host original en los nuevos campos de subred
y de host ofrece flexibilidad en el direccionamiento al administrador de red.
A partir del direccionamiento por Clase, la división en subredes permite aplicar un nivel adicional en
la generación de nuevas redes más eficientes.
A partir de CIDR es posible aplicar técnicas adicionales a la creación de subredes para mejorar
todavía más la eficiencia en la utilización de las redes.
El concepto de máscara de subred se introdujo luego de la segmentación de los bloques de
direcciones por clases (Classfull Addressing) como paliativo enfrentar las propias limitaciones de
direccionamiento del protocolo IP.
Problemas Soluciones
• Agotamiento de redes de Clase. • Se particionan redes: Por problemas de
• Ineficiencia en el uso de las Clases: Existencia de topología y de organización.
redes de Clase B y A con imposibilidad de • Se utilizan bits de host como bits de red: Se
ocuparse completamente. mueve la línea divisoria entre la dirección de
• Problemas de comunicación entre redes por red y la de host.
sobrecarga de tablas de enrutamiento en routers. • La subred es conocida localmente.
• Agotamiento de direcciones IP.
La máscara de subred es utilizada para poder determinar si la dirección IP de un host pertenece a
una red local o a una red remota. Un host integrante de una red local, mediante una operación AND
binaria entre la dirección IP del host destino y la máscara de subred de la red local podrá determinar
si el paquete a enviar pertenece a su red local o a una red remota.
La máscara de subred es un número de 32 bits compuesto únicamente por bits en uno para la
porción de red y únicamente por bits en cero para la porción de host.

Máscara de subred de longitud variable (Variable Length Subnet Mask)


Máscara de subred de longitud variable (Variable Length Subnet Mask)
La máscara de subred de longitud variable es un método derivado de CIDR que permite subdividir
una red en varias subredes de diferente longitud de máscara de red (por lo tanto, de diferente
tamaño). Mejora la eficiencia en la asignación de redes. Esto es porque elimina la limitación de
generar subredes adyacentes a partir de la red de la clase. Cada subred generada puede albergar
más subredes de diferente tamaño.
Para la asignación VLSM es posible asignar un bloque de direcciones mucho menor para cada red,
ajustándose al tamaño particular de cada una y, como consecuencia, incrementar
considerablemente el ahorro de direcciones IP.

Decisión de enrutamiento

El uso de máscaras de red cobra relevancia en el caso de que dos equipos que inician una
comunicación se encuentren en redes separadas.
En los límites de cada red local generalmente se encuentra un dispositivo denominado enrutador o
router, encargado de desencapsular la trama de capa 2 para leer la dirección IP destino del
encabezado del paquete de capa 3 que ingresa por su interfaz. Los enrutadores utilizan esta
dirección para determinar cuál camino es el que debe tomar el paquete para que llegue a su red
destino.
Cuando se determina el destino el enrutador vuelve a encapsular el paquete en una trama de capa 2
Cuando se determina el destino el enrutador vuelve a encapsular el paquete en una trama de capa 2
y lo envía por la interfaz de salida próxima a la red destino.
Protocolo Ethernet
martes, 7 de septiembre de 2021 21:00
Redes LAN
viernes, 10 de septiembre de 2021 21:13

Las redes de área local (LAN, Local Area Networks) son


infraestructuras de red que abarcan un área geográfica pequeña.
Las características específicas de las LAN incluyen lo siguiente:
• Las LAN interconectan dispositivos finales en un área
limitada, como una casa, un lugar de estudios, un edificio
de oficinas o un campus.
• La administración de las LAN está a cargo de una única
organización o persona. El control administrativo que rige
las políticas de seguridad y control de acceso está
implementado en el nivel de red.
• Las LAN proporcionan un ancho de banda de alta
velocidad a los dispositivos finales internos y a los
dispositivos intermediarios.

Protocolo ARP
El protocolo ARP (Address Resolution Protocol) es el protocolo que se utiliza para trabajar con redes LAN. Permite a los
equipos de la red poder comunicarse entre ellos sin conocer su dirección MAC: sólo conocerán las direcciones IP.
Cada nodo de una red IP tiene tanto una dirección MAC como una dirección IP. Para enviar datos, el nodo debe utilizar
ambas direcciones. El nodo debe utilizar sus propias direcciones MAC e IP en los campos de origen y debe proporcionar
una dirección MAC y una dirección IP para el destino.
Una capa OSI superior proporciona la dirección IP del destino pero el nodo de envío necesita encontrar la dirección MAC
del destino para un enlace de Ethernet determinado. Encontrarla es el propósito del protocolo ARP.
El protocolo ARP ofrece dos funciones básicas:
1. Resolución de direcciones IPv4 a direcciones MAC.
2. Mantenimiento de una tabla de las asignaciones, es decir, de la correspondencia de direcciones MAC con
direcciones IP. Esta tabla se almacena localmente en el dispositivo y la misma, al momento de encender la
computadora, se encuentra vacía.
El protocolo ARP tiene como ventaja que permite resolver el problema de conocer las direcciones MAC sin necesidad de
que esto se resuelva en la capa 3, utilizando direcciones IP. La desventaja es que es poco eficiente debido a que la
petición de dirección MAC se realiza a través de una comunicación broadcast, es decir, enviando el paquete (trama) a
todos los dispositivos de la red. Si todos los dispositivos se encuentran haciendo broadcast la red se saturaría (lo cual
constituye muchas veces un ataque informático de denegación de servicio).

Operación
Paso 1

Pasos 2 y 3
Una solicitud de ARP es un broadcast de capa 2 que se transmite a todos los dispositivos en la LAN Ethernet. La solicitud
de ARP contiene la dirección IP del host de destino y la dirección MAC de broadcast, que se envía como FFFF.FFFF.FFFF.
Dado que se trata de un broadcast, todos los nodos en la LAN Ethernet reciben y examinan el contenido. El nodo cuya
Dado que se trata de un broadcast, todos los nodos en la LAN Ethernet reciben y examinan el contenido. El nodo cuya
dirección IP coincide con la dirección IP en la solicitud de ARP responde. La respuesta es una trama de únicas que incluye
la dirección MAC que corresponde a la dirección IP en la solicitud. Esta respuesta se utiliza para crear una entrada nueva
en la tabla ARP del nodo de envío.

Paso 4

Paso 5
La respuesta del dispositivo con la dirección MAC se envía a través de una comunicación unicast.

Pasos 6 y 7
Pasos 8 y 9

Redes LAN virtuales (VLAN)


Una red LAN virtual (VLAN, Virtual Local Area Network) es una partición lógica de una red de capa 2. Simula una
división física de capa 2 en un mismo equipo físico (switch). Se caracteriza por:
• Múltiples particiones pueden ser creadas, permitiendo que múltiples VLANs coexistan.
• Cada VLAN es un dominio de broadcast, usualmente con su propia IP de red.
• Las VLANs están mutuamente aisladas y los paquetes solamente pueden pasar entre ellas a través de un router.
• Las particiones de red de capa 2 se llevan dentro de un dispositivo de capa 2, usualmente un switch.
• Los hosts agrupados dentro de una VLAN no son conscientes de la existencia de la VLAN.

Troncal de VLANs
Un troncal VLAN lleva más de una VLAN. Usualmente está establecido entre el switch para que dispositivos de la misma
VLAN se puedan comunicar, aún si están conectados a diferentes switches.
Un troncal VLAN no se asocia a ninguna VLAN particular sino que se especifica todas las VLANs que pueden transitar.
El protocolo de VLAN trunk es el IEEE802.1q.

Trama Ethernet y VLAN


Troncal VLAN - Interconexión

El troncal de VLAN permite pasar múltiples IDs VLAN entre varios switches que poseen dichas VLANs.

Beneficios de las VLANs


• Seguridad.
• Reducción de costos.
• Mejor rendimiento.
• Reduce el tamaño de los dominios de broadcast.
• Mejora la eficiencia del personal de TI.
• Protección y administración de aplicaciones más simple.
Redes metro Ethernet
viernes, 17 de septiembre de 2021 21:48

Las redes metro Ethernet son redes de extensión metropolitana (con cobertura de una o dos ciudades), normalmente
de fibra óptica que se encuentra interconectada entre diferentes switches. Quien posee la red metro Ethernet es el
proveedor de servicios de Internet. Su objetivo es transportar tráfico Ethernet de los clientes de un extremo a otro
extremo.

Estas redes permiten hacer una extensiones de redes LAN de un edificio a otro en diferentes partes de una ciudad. Esto
incluye la posibilidad de extender VLANs. La cualidad de estas redes metro Ethernet es que permiten extender estas
mismas redes LAN, permitiendo que equipos en diferentes puntos de la ciudad estén dentro de una misma LAN.
El proveedor de servicios de Internet tiene extendida una red de switches interconectados entre sí que deja pasar
diferentes redes LAN y VLANs, su hubiera. El efecto que esto genera es como si hubiera un cable conectado punto a
punto entre los dos o más dispositivos que se quieran conectar.
El cable que conecta el switch del edificio del proveedor de servicios de Internet con el domicilio de los dispositivos se
denomina última milla.
Es importante no confundir estas redes con las redes WAN (Redes de área extensa, Wide Area Network): dichas redes
son propiedad de los proveedores de servicios de Internet y permiten cubrir zonas geográficas extensas, como por
ejemplo, de una provincia a otra.
Para separar el tráfico entre diferentes redes que se conectan a través de un mismo proveedor de servicios, éste
establece una serie de VLANs dentro de su red de switches, uno por cada cliente. Las Redes LAN transportan tramas
Ethernet. En una Red LAN con VLANs, los troncales que permiten transportar más de una VLAN utilizan una trama
802.1Q. Las tramas de cliente que llegan al proveedor con tag VLAN (V-TAG) pasarán a ser C-TAG y poseen el agregado
del tag S-TAG (Servicio del Cliente).

Las redes metro Ethernet, mediante el protocolo 802.1ad, permiten transportar hasta 4094 clientes simultáneos. Cada
cliente a su vez puede utilizar mediante 802.1Q las 4096 VLANs menos aquellas internas reservadas.
cliente a su vez puede utilizar mediante 802.1Q las 4096 VLANs menos aquellas internas reservadas.

Topologías
Punto a punto (E-Line)
Dentro del tipo de servicio E-Line se incluye una amplia
gama de servicios. El más sencillo consiste en un ancho de
banda simétrico para transmisión de datos en ambas
direcciones, no fiable, entre dos interfaces UNI (User
Network Interfaces) a 10 Mbit/s.

Multipunto
Conecta dos o más interfaces UNI. Los datos enviados
desde un UNI (User Network Interfaces) llegarán a 1 o más
UNI de destino. Cada uno de ellos está conectado a
múltiples puntos.
A medida que va creciendo la red y se van añadiendo más
interfaces UNI, éstos se conectarán al mismo nodo
multipunto, simplificando enormemente la configuración
de la misma.
Desde el punto de vista del usuario, la E-LAN se comporta
como una LAN.

Beneficios
• Presencia y capilaridad en el ámbito metropolitano: como consecuencia de la disponibilidad de las líneas de
cobre.
• Alta fiabilidad: ya que los enlaces de cobre certificados Metro Ethernet, están constituidos por múltiples pares de
en líneas de cobre y los enlaces de fibra óptica.
• Fácil uso: interconectando con Ethernet se simplifica las operaciones de red, administración, manejo y
actualización.
• Economía: los servicios Ethernet reducen el capital de suscripción y operación de tres formas:
○ Amplio uso: Se emplean interfaces Ethernet que son la más difundidas para las soluciones de networking.
○ Bajo costo: Los servicios Ethernet ofrecen un bajo costo en la administración, operación y funcionamiento
de la red.
○ Ancho de banda: Los servicios Ethernet permiten a los usuarios acceder a conexiones de banda ancha a
menor costo.
• Flexibilidad: Las redes de conectividad mediante Ethernet permiten modificar y manipular de una manera más
dinámica, versátil y eficiente, el ancho de banda y la cantidad de usuarios en corto tiempo.
• Rentable: Reduce los costos de equipamiento con interfaces Ethernet.
• Flexible: Escalable a crecer como crecen las necesidades de su ancho de banda.
• Rapidez: Velocidades de 512K a 10Gbps.
• Fiable: 99,9% la disponibilidad del servicio, que puede ser aumentado a 99,999% mediante la adición de
QoS.
Redes inalámbricas
viernes, 24 de septiembre de 2021 21:16

El concepto de red informática referencia a una estructura conformada por un conjunto de equipos informáticos
interconectados que comparten servicios, información y recursos. Una red inalámbrica es aquella que permite conectar
diversos nodos sin utilizar una conexión física, sino estableciendo la comunicación mediante ondas de radio en
frecuencias sin licencia, lo que evita al operar la autorización del agente regulador de las comunicaciones. No se requiere
instalar un cableado, lo que supone una mayor comodidad y un ahorro de dinero en infraestructura.
La transmisión y la recepción de los datos requieren de dispositivos que actúan como puertos de entrada. Permite que
puedan estar interconectados un importante número de dispositivos, tanto ordenadores como tablets, teléfonos
móviles, periféricos como impresoras, entre otros.
Como punto negativo, este tipo de redes suele contar con una seguridad menor ya que, si no se cuenta con una
protección eficiente, el ingreso de intrusos es muy probable.
Según el tipo de cobertura, la red inalámbrica puede clasificarse en:

Redes inalámbricas personales (WPAN, Wide Personal Area Network)


Las redes inalámbricas personales son aquellas que tienen un área de cobertura muy pequeño (entre 0 y 10 metros).
Abarcan tecnologías Bluetooth, ZigBee (utilizado en aplicaciones como la domótica, que requieren comunicaciones
seguras con tasas bajas de transmisión de datos y maximización de la vida útil de sus baterías, bajo consumo) y RFID
(sistema remoto de almacenamiento y recuperación de datos con el propósito de transmitir la identidad de un objeto)
(similar a un número de serie único) mediante ondas de radio.

Bluetooth
La red WPAN más conocida es bluetooth.

Wireless USB
Wireless USB es un protocolo de comunicación inalámbrica con gran ancho de banda que combina la sencillez de uso de
USB con la versatilidad de las redes inalámbricas. El grupo de promotores de wireless USB (W-USB Promoter Group) está
formado por Agere Systems, Hewlett-Packard, Intel, Microsoft, NEC Corporation, Philips y Samsung. Puede lograr tasas
de transmisión de hasta 480 Mbps en rangos de tres metros y 110 en rangos de diez metros. Opera en los rangos de
frecuencia de 3,1 a 10,6 GHz.
Este protocolo finalmente no prosperó en la industria tecnológica.
Este protocolo finalmente no prosperó en la industria tecnológica.

Redes locales inalámbricas (WLAN, Wireless Local Area Network)


Las redes locales inalámbricas tienen un área de cobertura más amplio que las WPAN. Se caracterizan por:

Modos de
funcionamiento

Abarcan tecnologías como Wi-Fi (estándar de comunicación inalámbrica basado en la norma IEEE 802.11).

Una red de área local inalámbrica es un sistema de comunicación inalámbrico para minimizar las conexiones cableadas.
Las redes de área local inalámbrica utilizan las ondas de radio para llevar la
información de un punto a otro sin necesidad de un medio físico guiado.
Al hablar de ondas de radio se refiere a portadoras, sobre las que va la
información, ya que realizan la función de llevar la energía a un receptor
remoto. Los datos a transmitir se superponen a la portadora de radio y de
este modo pueden ser extraídos exactamente en el receptor final. A este
proceso se le llama modulación de la portadora por la información que
está siendo transmitida. Si las ondas son transmitidas a distintas
frecuencias de radio, varias portadoras pueden existir en igual tiempo y
espacio sin interferir entre ellas. Para extraer los datos el receptor se sitúa
en una determinada frecuencia, frecuencia portadora, ignorando el resto.
El punto de acceso recibe la información, la almacena y la transmite entre la WLAN y la LAN cableada. Un punto de
El punto de acceso recibe la información, la almacena y la transmite entre la WLAN y la LAN cableada. Un punto de
acceso puede soportar un pequeño grupo de usuarios y puede funcionar en un rango de al menos treinta metros y hasta
varios cientos. El punto de acceso es normalmente colocado en alto pero podría colocarse en cualquier lugar en que se
obtenga la cobertura de radio deseada. El usuario final accede a la red WLAN a través de adaptadores. Estos
adaptadores proporcionan una interfaz entre el sistema de operación de red del cliente (NOS, Network Operating
System) y las ondas, mediante una antena.
A través del punto de acceso se puede duplicar la distancia a la cual los dispositivos pueden comunicarse, ya que estos
actúan como repetidores.
A partir de que el punto de acceso se conecte a la red cableada,
cualquier cliente tiene acceso a los recursos del servidor. Por otra
parte, cada punto de acceso gestiona el tráfico de la red entre los
terminales más próximos. Un punto de acceso puede servir a
varias máquinas, según el tipo y el número de transmisiones que
tienen lugar. Los puntos de acceso tienen un alcance finito, del
orden de 150 metros en lugares o zonas abiertas. En zonas
grandes como por ejemplo un campus universitario o un edificio
es probablemente necesario más de un punto de acceso. La meta
es cubrir el área con células que solapen sus áreas de modo que
los clientes puedan moverse sin cortes entre un grupo de puntos
de acceso. Esto es llamado roaming.
Otro de los componentes a considerar en una WLAN es la antena direccional. Por ejemplo: si se quiere una LAN sin cable
a otro edificio a 1 km de distancia. Una solución puede ser instalar una antena en cada edificio con línea de visión
directa. La antena del primer edificio está conectada a la red cableada mediante un punto de acceso. Igualmente en el
segundo edificio se conecta un punto de acceso, lo cual permite una conexión sin cable en esta aplicación.

Seguridad
Uno de los problemas de este tipo de redes es precisamente la seguridad ya que cualquier persona con una terminal
inalámbrica podría comunicarse con un punto de acceso privado si no se disponen de las medidas de seguridad
adecuadas.
Dichas medidas van encaminadas en dos sentidos: por una parte está el cifrado de los datos que se transmiten y en otro
plano, pero igualmente importante, se considera la autenticación entre los diversos usuarios de la red.
En el caso del cifrado se están realizando diversas investigaciones ya que los sistemas considerados inicialmente se han
conseguido descifrar. Para la autenticación se ha tomado como base el protocolo de verificación EAP (Extensible
Authentication Protocol), que es bastante flexible y permite el uso de diferentes algoritmos.

Velocidad
Otro de los problemas que presenta este tipo de redes es que actualmente (a nivel de red local) no alcanzan la velocidad
que obtienen las redes de datos cableadas.
Además, en relación con el apartado de seguridad, el tener que cifrar toda la información supone que gran parte de la
información que se transmite sea de control y no información útil para los usuarios, por lo que incluso se reduce la
velocidad de transmisión de datos útiles y no se llega a tener un buen acceso.

Wi-Fi
La especificación IEEE 802.11 es un estándar internacional que define las características de una red de área local
inalámbrica (WLAN). La palabra Wi-Fi (Wireless Fidelity, Fidelidad inalámbrica) es el nombre de la certificación otorgada
por la Wi-Fi Alliance, grupo que garantiza la compatibilidad entre dispositivos que utilizan el estándar 802.11.
Con Wi-Fi se pueden crear redes de área local inalámbricas de alta velocidad entre equipos ubicados en forma cercana a
un punto de acceso. Wi-Fi admite ordenadores portátiles, equipos de escritorio, asistentes digitales personales (PDA) o
cualquier otro tipo de dispositivo de alta velocidad con propiedades de conexión también de alta velocidad (11 Mbps o
superior) dentro de un radio de varias docenas de metros en ambientes cerrados (de 20 a 50 metros en general) o
dentro de un radio de cientos de metros al aire libre.
Los proveedores de Wi-Fi están comenzando a cubrir áreas con una gran concentración de usuarios (como estaciones de
trenes, aeropuertos y hoteles) con redes inalámbricas. Estas áreas se denominan "zonas locales de cobertura".
El estándar 802.11 establece los niveles físicos y de enlace del modelo OSI para las conexiones inalámbricas que utilizan
ondas electromagnéticas. Cualquier protocolo de nivel superior puede utilizarse en una red inalámbrica Wi-Fi de la
misma manera que puede utilizarse en una red Ethernet.

IEEE 802.11b
La tecnología Wi-Fi IEEE 802.11b provee un ancho de banda de hasta 11Mbps, comparable a Ethernet tradicional
La tecnología Wi-Fi IEEE 802.11b provee un ancho de banda de hasta 11Mbps, comparable a Ethernet tradicional
(10Mbps). Utiliza la misma frecuencia no regulada (2.4GHz) del estándar original 802.11. Al no estar regulada, la misma
puede ser interferida por la operación de hornos microondas, teléfonos inalámbricos, y otros dispositivos que utilicen el
rango.
Ventajas Desventajas
• Bajo costo. • Lento para los estándares actuales de redes LAN.
• Buen rango de señal en general, salvo raras • El hecho de no estar regulado no garantiza que en la zona
excepciones. no exista interferencia.

IEEE 802.11a
La tecnología Wi-Fi IEEE 802.11b soporta hasta 54 Mbps y utiliza un rango de frecuencias regulado alrededor de los 5
GHz. La mayor frecuencia no sólo limita el alcance de las redes 802.11a en comparación con la norma 802.11b, sino que
también ocasiona mayor atenuación ante los obstáculos (paredes, etc.). Es incompatible con 802.11b, ya que utilizan
diferentes frecuencias.
Ventajas Desventajas
• Buena velocidad. • Es una tecnología más costosa.
• El uso de frecuencias reguladas, que evitan • Provee menor alcance.
interferencia por parte de otros dispositivos.
Esta tecnología no logró aceptación.

IEEE 802.11g
La tecnología Wi-Fi IEEE 802.11g combina lo mejor de las normas anteriores, ya que soporta hasta 54Mbps, y utiliza el
rango de los 2.4Ghz de la misma forma que 802.11b. Provee compatibilidad hacia atrás con 802.11b, con la desventaja
de que ante la existencia de un nodo 802.11b todas las estaciones operarán a esta velocidad aunque soporten la norma
802.11g.
Ventajas Desventajas
• Buena velocidad. • Un poco más costoso que 802.11b.
• Mantiene el rango de alcance de 802.11b. • Presenta los mismos inconvenientes respecto a la
interferencia que esta norma, debido al rango de señal no
regulado

IEEE 802.11n
La tecnología Wi-Fi IEEE 802.11n está siendo diseñado como una mejora a 802.11g, principalmente respecto del ancho
de banda máximo. Para ello utiliza múltiples señales y antenas (MIMO, Multiple Input Multiple Output) en lugar de una
sola antena y una sola señal. Se prevé que el estándar soporte hasta 100Mbps, sea compatible hacia atrás con 802.11g y
provea mejor alcance mediante mayor intensidad de la señal.
Ventajas Desventajas
• Excelente velocidad. • Aún no estandarizado completamente.
• Mayor resistencia a la interferencia de otros • Se prevé que sea más costoso que 802.11g.
dispositivos. • El uso de múltiples señales puede ocasionar interferencia
en redes 802.11b/g cercanas.

Redes inalámbricas metropolitanas (WMAN, Wireless Metropolitan Area Network)


Las redes inalámbricas metropolitanas tienen un área de cobertura mayor que las WLAN. Abarcan tecnologías como
WiMAX (Worldwide Interoperability for Microwave Access, Interoperabilidad Mundial para Acceso con Microondas), un
estándar de comunicación inalámbrica basado en la norma IEEE 802.16.

WiMAX
WiMAX es una norma de transmisión por ondas de radio de última generación orientada a la última milla que permite la
recepción de datos por microondas y retransmisión por ondas de radio proporcionando acceso concurrente con varios
repetidores de señal superpuestos. Utiliza las ondas de radio en las frecuencias de 2 a 11 GHz. Ofrece total cobertura en
áreas de hasta 48 km de radio y a velocidades de hasta 70 Mbps, utilizando tecnología que no requiere visión directa con
las estaciones base (a diferencia de las microondas). En general, ofrece cobertura que va desde los 40 a 70 km y
velocidades de hasta 124 Mbps. Puede operar en zonas con línea vista o sin línea vista entre la estación base y el
suscriptor (obstáculos tales como árboles o montañas no afectan pues no requiere línea vista).
suscriptor (obstáculos tales como árboles o montañas no afectan pues no requiere línea vista).
Es una tecnología de última milla, también llamada bucle
local. Permite la recepción de datos por microondas y
retransmisión por ondas de radio. Puede ofrecer conexiones
a Internet con amplía cobertura.
Una sola estación base puede soportar cientos de
suscriptores. La conexión desde la estación base a los
abonados es inalámbrica, a través de ondas de radio.

La estación base de la torre WiMAX puede cubrir con una antena más de 30 kilómetros a la redonda. Es necesaria la
instalación de antenas repetidoras (bases) situadas estratégicamente para dar servicio a determinadas zonas. WiMAX
está pensado para construir una infraestructura de red cuando el entorno o distancia no es favorable para una red
cableada.
Cualquier dispositivo de conexión inalámbrica para WiMAX, ordenadores, portátiles, smartphone, etc., se conectará a la
red WiMAX si está dentro de la cobertura de la estación base y dispone de un receptor de WiMAX. Estos dispositivos (los
receptores) suelen ser una antena independiente o una tarjeta de ranura PCMCIA para ordenadores portátiles u
ordenadores.
La conexión a las estaciones base WiMAX funciona de forma similar a la conexión de Wi-Fi, la única diferencia es que el
WiMAX cubre un área mucho más amplia.
Una característica importante del estándar es que define una capa MAC (Medium Access Control) que soporta múltiples
especificaciones físicas (PHY).

Estándar IEEE802.16

La capa física es la subcapa dependiente del medio físico: debido a que la fuerza de señal en la banda milimétrica
desciende drásticamente con la distancia a partir de la estación base, el estándar 802.16 emplea tres esquemas de
modulación diferentes, dependiendo de la distancia entre la estación suscriptora y la estación base. Para suscriptores
cercanos se utiliza QAM-64. Para los suscriptores distantes se utiliza QPSK. Por ejemplo, para un valor típico de 25 MHz,
QAM-64 da 150 Mbps, QAM-16 da 100 Mbps y QPSK da 50 Mbps. Cuanto más lejos esté el suscriptor de la estación
base, será más baja la tasa de datos.
El estándar 802.16 proporciona una forma más flexible para asignar el ancho de banda. Se utilizan dos esquemas: FDD
(Duplexación por División de Frecuencia) y TDD (Duplexación por División de Tiempo). En este último, TDD, la estación
base (que contiene múltiples antenas omnidireccionales) envía tramas periódicamente. Cada trama contiene ranuras de
tiempo. Las primeras son para el tráfico descendente (desde la estación base al suscriptor). Después se encuentra el
tiempo de protección o guarda, el cual es utilizado por las estaciones para cambiar de dirección. Por último, están las
ranuras para el tráfico ascendente (desde el suscriptor a la estación base). El número de ranuras de tiempo dedicadas
para cada dirección se puede cambiar de manera dinámica con el fin de que el ancho de banda en cada dirección
coincida con el tráfico.
La capa de enlace de datos es la parte común de la subcapa MAC: allí se encuentran los principales protocolos de la IEEE
802.16, tales como la administración de canal. El modelo consiste en que la estación base controla el sistema. Puede
calendarizar de manera muy eficiente los canales de flujo descendente y es muy importante en el manejo de los canales
ascendentes. Esta capa es orientada a la conexión para proporcionar garantías de calidad del servicio para la
comunicación de la telefonía y multimedia.

Ventajas
• Ancho de Banda: Usando un robusto esquema de modulación, IEEE 802.16a permite un alto ancho de banda a
larga distancia con una alta eficiencia en el nivel espectral, lo cual también tolera las reflexiones de las señales. La
larga distancia con una alta eficiencia en el nivel espectral, lo cual también tolera las reflexiones de las señales. La
modulación dinámica permite a la estación negociar el caudal por rango. Por ejemplo: Si una estación no pudiera
establecer un buen enlace con un usuario, usando el orden de modulación más alto (64 QAM), el orden de
modulación se reduciría (16 QAM o QPSK), lo cual reduce el ancho de banda pero incrementa la distancia efectiva.
• Escalabilidad: La IEEE 802.16a soporta canales de ancho de banda flexibles. Por ejemplo. Si se le asigna a un
operador 20 MHz de ancho de banda, este puede dividirlos en dos sectores de 10 MHz cada uno, o en 4 de 5 MHz.
El operador puede aumentar el número de clientes siempre que mantenga un buen rango de distancia y un buen
caudal de transmisión.
• Cobertura: Sumándose al esquema de modulación dinámica, 802.16a puede soportar tecnologías para aumentar
la cobertura, incluyendo topología de mallas. Mientras sigan mejorándose las tecnologías de radio y los costes
bajen, la capacidad de aumentar la cobertura y los caudales de velocidad usando múltiples antenas mejorará
enormemente la cobertura en lugares de muy difícil acceso.
• Calidad del Servicio (QoS): La capacidad de voz es muy importante. Por esta razón IEEE 802.16a incluye
características de QoS en sus servicios, ya que el video y el sonido requieren redes de bajo retardo. Una de las
grandes características de la MAC del 802.16a es que capacita al operador de garantizar grandes niveles de calidad
para las empresas, similares a los niveles del cable, todo con la misma estación base.
• Seguridad: Características de encriptación y seguridad se incluyen también en el estándar 802.16.

Protocolos utilizados
Las revisiones del estándar IEEE 802.16 se dividen en dos categorías y referencia a los protocolos de WiMAX fijo y
WiMAX móvil

WiMAX fijo (IEEE 802.16-2004)


El estándar del 802.16-2004 del IEEE (el cual revisa y reemplaza versiones del IEEE del 802.16a y 802.16d) fue diseñado
para el acceso desde un punto fijo. Se refiere al mismo como "fijo inalámbrico" porque usa una antena que se fija en un
lugar estratégico del suscriptor. La antena se ubica generalmente en el techo de una habitación o en un mástil, parecida
a una antena de televisión vía satélite. 802.16-2004 del IEEE también se ocupa de instalaciones interiores, en cuyo caso
no necesita ser tan robusto como al aire libre.
WiMAX fijo funciona en las bandas de frecuencia 2.5 GHz y 3.5 GHz, para las que se necesita una licencia, y en la banda
5.8 GHz para la que no se necesita tenerla.
Esta tecnología provee una alternativa inalámbrica al cablemódem y las líneas digitales de suscriptor (tecnologías DSL).

WiMAX móvil (802.16e)


El estándar 802.16e del IEEE es una revisión para la especificación base 802.16-2004 que apunta al mercado móvil
añadiendo portabilidad y capacidad para terminales móviles. Permite que los equipos móviles de los clientes se
conecten a Internet. Muchos fabricantes de hardware y operadores requerían esta especificación para empezar a
desplegar redes WiMAX. Esta posibilidad agrega factibilidad económica a los proyectos, ya que permite diseñar
infraestructuras mixtas fijo-móvil.
La tecnología WiMAX móvil abre las puertas para el uso de teléfonos móviles por IP e incluso para servicios móviles de
alta velocidad.
Los dispositivos equipados con WiMAX que cumplan el estándar IEEE 802.16e usan Acceso Múltiple por División
Ortogonal de Frecuencia (OFDMA), similar a OFDM que divide las subportadoras múltiples. OFDMA agrupa
subportadoras múltiples en subcanales. Una sola estación cliente del suscriptor podría usar todos los subcanales dentro
del período de transmisión.

Usos
El ancho de banda y rango del WiMAX lo hacen adecuado para las siguientes aplicaciones potenciales:
• Proporcionar conectividad portátil de banda ancha móvil a través de ciudades y países por medio de una variedad
de dispositivos.
• Proporcionar una alternativa inalámbrica al cable y línea de abonado digital (DSL) de "última milla" de acceso de
• Proporcionar una alternativa inalámbrica al cable y línea de abonado digital (DSL) de "última milla" de acceso de
banda ancha.
• Proporcionar datos, telecomunicaciones (VoIP) y servicios de IPTV (triple play).
• Proporcionar una fuente de conexión a Internet como parte de un plan de continuidad del negocio.
• Para redes inteligentes y medición.
• Puede actuar como enlace troncal y de conexión de las actuales instalaciones WI-Fi, y desde el nodo Wi-MAX dar
el acceso a Internet.

Redes inalámbricas amplias (WWAN, Wireless Wide Area Network)


Las redes inalámbricas amplias abarcan las tecnologías de red celular de comunicaciones móviles tales como UMTS
(Universal Mobile Telecommunications System), GPRS, EDGE, CDMA2000, GSM, HSPA, 3G y LTE para transferir los datos.
Protocolo MPLS
martes, 28 de septiembre de 2021 21:05

El protocolo MPLS (Multi Platform Label Switching) es un protocolo encargado de conmutar etiquetas. Se encuentran
en las redes WAN. Estas redes pueden conectarse a través de diferentes topologías:

• Partial Mesh: diferentes nodos de la red


conectados a un único nodo a través de enlaces
virtuales permanentes establecidos por el
proveedor de servicios (ISP). Para conectarse al
nodo hay que solicitar al ISP (propietario de la red
WAN) e indicar el ancho de banda. Se debe tener en
cuenta siempre la manera de evitar el cuello de
botella que se puede generar si el nodo central no
tenía la capacidad para recibir el flujo completo de
datos que permite la sumatoria de cada uno de los
anchos individuales de los nodos.
• Full Mesh: todos los nodos están conectados entre sí, también a través de enlaces virtuales permanentes. Es más
costoso de implementar ya que, como en el caso anterior, hay que indicar el ancho de banda de cada enlace. El
tráfico ocioso implica, entonces, que se está pagando por un mayor ancho de banda del que se usa.
• Topología MPLS: es un nuevo tipo de topología que elimina la necesidad de estar pendiente del tráfico en los
enlaces conectados. Cada uno de los nodos está conectado a una nube, lo cual los conecta entre sí, como en una
full mesh. La diferencia radica en que acá es necesario evaluar cuánto tráfico está entrando y saliendo de cada
nodo para evaluar cuál será el ancho de banda de la nube. Éste valor representa un límite ya que la nube no
dejará ingresar tráfico que exceda ese ancho de banda, lo que derivará en pérdida de paquetes o mayor demora
en la conexión.
El protocolo MPLS es, entonces, un mecanismo de envío en los cuales los paquetes son transmitidos en base a la
utilización de etiquetas, denominadas labels. Combina Tecnologías de conmutación de capa 2 con tecnologías de routing
de capa 3. Sólo necesita un circuito de acceso en cada sede, en vez de enlaces preconfigurados o circuitos virtuales
permanentes (PVCs) como otras tecnologías de redes WAN.

Dispositivos
Dentro de una red pueden encontrarse dos tipos de dispositivos distintos:
• Label-Switched Router (LSR): Son aquellos dispositivos internos dentro de un dominio MPLS, que realizan el envío
en base al contenido de las etiquetas (labels).
• Edge Label-Switched Router (ELSR): Son aquellos dispositivos en el borde de un dominio MPLS, los cuales realizan
envío de etiquetas dentro del dominio MPLS, y además envían paquetes IP entrante o saliente a un dominio
MPLS.

• Label-Switched Path (LSP): Son los diferentes caminos que puede tener las etiquetas dentro de un dominio MPLS
a través de los diferentes LSR.

Etiquetas
Una etiqueta MPLS son 4 bytes y es utilizada por los equipos LRS de la red MPLS para identificar localmente un destino y
tomar las decisiones de envío (forwarding decisions) de un paquete. La etiqueta es insertada entre las cabeceras de
capa 2 y capa 3.
Las etiquetas poseen un significado local para los dispositivos LSR. Definen un destino y servicio para cada paquete e
identifican un Forwarding Equivalence Class (FEC). Un FEC es la combinación de un destino de red y una clase de
servicio.

Formato de las etiquetas

• Label: 20-bits correspondientes al número identificado de la etiqueta.


• EXP: 3-bits utilizados para definir priorización de tráfico mediante Clases de Servicio (CoS) o IP Precedence. Las
CoS definen distintos niveles de calidad de servicio según el cual se determina cuál es el paquete más prioritario
para enviar antes en los casos de congestión.
• Bottom-of-stack: 1-bit. MPLS permite que se inserten múltiples etiquetas. Este bit determina si la etiqueta es la
última en el paquete. Si el bit esta seteado en 1 indica que esa etiqueta es la última.

• TTL: 8-bits. Este campo tiene el mismo propósito que el campo time-to-live de la cabecera IP. Es utilizado para
prevenir un bucle indefinido de envío de paquetes.

Label Distribution Protocol (LDP)


Las redes MPLS funcionan con el protocolo LDP, el cual es un protocolo estándar para el intercambio de etiquetas entre
los routers LSR que poseen adyacencia. Permite descubrir posibles vecinos (peers) en la red MPLS y establecer sesiones
LDP con dichos vecinos para el intercambio de etiquetas.
LDP establece sesión en dos etapas:
1º) Mensajes de "hello" son periódicamente enviados en todas las interfaces en las que se encuentra habilitado el
protocolo.
2º) Los routers MPLS responden el mensaje de "hello" para establecer una sesión.

Luego de intercambiarse los mensajes de "hello", la sesión esta lista para el intercambio de etiquetas después de recibir
el primer paquete de keepalive.

Las redes MPLS utilizan un protocolo de ruteo que les permite el intercambio información. Cada uno de ellos informa
cuál es la red que conoce y la publica en la red MPLS para que la conozcan el resto de los nodos. Cada router LSR
confecciona una tabla de etiquetas (label binding information) y se la envía a sus vecinos para que sume la información a
su propia tabla de información.
Con esta información, cada nodo de la red va a saber cómo conectarse con otro a través de la tabla que confeccionó.
El protocolo LDP asigna un número de etiqueta a cada red de forma local en el router principal o core. Esta asignación es
notificada a los routers vecinos. Esto se hace para que cuando uno de los vecinos deba enviar tráfico a través del router
core sepa qué número de etiqueta utilizar para que el router core lo pueda enviar al nodo correspondiente. El nodo
asignó su propio número de etiqueta a su red, que oportunamente fue notificado a sus vecinos (entre ellos, el core). El
router core conoce este cambio entonces hace un cambio de etiqueta para que cuando llegue el paquete a ese nodo,
éste pueda direccionarlo a la red correspondiente. De otra manera, sin ese cambio de etiqueta, el paquete se pierde al
llegar al nodo destino.
Para intercambiar la información de las diferentes redes “X” entre los routers de la nube MPLS, se utiliza un protocolo de
enrutamiento, como puede ser OSPF o IS-IS, con el cual construye la tabla de enrutamiento (Routing Table), que indica
que para llegar a una red de destino “X”, como por ejemplo “192.168.0.0/24”, el paquete IP debe enviarse por la interfaz
del router que alcance al próximo salto (next-hop), el cual en este caso es el router “B” para la tabla de enrutamiento en
el router “A”
Las tablas de Forwarding Information Base (FIB) en esta instancia poseen la misma información que las Routing Table, es
decir, sin información de etiquetas.
El router “B” en su tabla de enrutamiento conoce que para enviar un paquete a la red de destino “X” lo debe enviar al
router “C”, ya que es el próximo salto para que el paquete llegue a destino. Luego le asigna una etiqueta local con el
número de “25” a la red de destino “X”.

El router “B”, luego de asignar la etiqueta, crea la tabla LIB, en donde establece que la red de destino “X” posee
localmente (“local”) la etiqueta nro. “25”. Por otro lado, cuando debe enviar el paquete, en base a la información en la
Tabla LFIB, ve que no tiene una etiqueta asociada con la cual debe enviarla porque el vecino router “C” no le informó
nada, por lo tanto, lo envía sin etiqueta (“untagged”).

El router “B”, luego de asignar la etiqueta número “25” a la red “X” y crear la tabla LIB, procede a enviar la información a
todos sus routers LSRs vecinos adyacentes, con el fin de que incorporen dicha información en sus respectivas tablas LIB,
FIB.

El router edge LSR “A” recibe la información del router LSR “B”, especificando que para la Red ”X” el router “B” le asignó
la etiqueta número “25”, y cuando le envíe un paquete para dicha red de destino, la misma deberá venir identificada con
la etiqueta número “25”. Esta información la incorpora a su tabla LIB y FIB.
El router “C”, al igual que el router “B”, debe asignar una etiqueta a la red “X”. Por dicho motivo, asigna la etiqueta
número “47” a la red “X” y la incorpora en su tabla LIB. Además, en dicha tabla figura la información suministrada por el
router “B”.

El router “B” ahora posee en su tabla LIB la información localmente generada, el cual identifica a la red “X” con la
etiqueta “25”. Y además posee la información que para enviar un paquete a la red de destino “X” y lo tiene que hacer
por próximo salto (next-hop), el cual es el router “C”, con la etiqueta “47”, la cual conoce el router “C”, ya que es la
informada en el paso anterior.

MPLS VPN
El inconveniente del procedimiento descripto es que cada nodo puede tener redes cuya dirección IP coincida con la
dirección IP de la red de otro nodo. Entonces, al momento de enviar paquetes y asignarles etiquetas se puede producir
dirección IP de la red de otro nodo. Entonces, al momento de enviar paquetes y asignarles etiquetas se puede producir
confusión respecto de a qué nodo enviar el paquete (dado que en la tabla de enrutamiento una misma dirección IP tiene
asignada un mismo número de etiqueta).
Para resolver este problema es que existe MPLS VPN. Esta tecnología utiliza un prefijo de 64-bits denominado route
distinguisher (RD) para convertir las direcciones IPv4 de 32-bits de los clientes en direcciones únicas de 96-bits que
pueden ser transportadas entre los routers provider edge (PE). En éstos, a fin de lograr una separación lógica entre las
diferentes redes y tablas de ruteo por cliente, se utilizan dentro de un mismo dispositivo router las tablas de ruteo
virtuales por cliente, conocido como Virtual Routing Forwarding (VRF).

Direcciones VPNv4
El RD es utilizado únicamente para transformar las direcciones IPv4 privadas de los clientes, las cuales se solapan por
ser direcciones IP de uso privado en direcciones únicas que no se solapan, ya que cada cliente posee un RD diferente,
mediante el cual cada dirección 96-bit se convierte en única dentro de la red.
Estas direcciones de 96-bit se denominan Direcciones VPN versión 4 (VPNv4) o también conocidas como Direcciones
VPN IPv4, donde los primeros 64-bits permiten distinguir al cliente.

Beneficios de MPLS
• MPLS Virtual Private Networks (VPNs): Utilizando MPLS, los proveedores de servicios (ISP) pueden crear VPNs de
capa 3 a través de sus redes internas troncales (backbone network) para proveerlas a sus múltiples clientes,
utilizando la misma infraestructura física, sin necesidad de utilizar encriptación o aplicaciones de terceros.
• MPLS Traffic Engineering (MPLS TE): La ingeniería de tráfico provee la posibilidad de configurar explícitamente
simple o múltiples caminos que el tráfico puede tomar a través de la red. Además provee la posibilidad de setear
características de performance para una clase de tráfico. Esta funcionalidad permite optimizar el ancho de banda
de utilización (bandwidth utilization) de caminos subutilizados.
• Quality of service: MPLS permite utilizar calidad de servicio (Quality of Service - QoS), lo cual permite a los
proveedores de servicio (ISP) proveer múltiples clases de servicio sobre la redes VPN de los clientes aplicando
garantías de QoS físicas sobre la red del proveedor.
• Integración con IP y ATM: Se puede integrar con las redes existentes ATM de capa 2 y IP utilizado en capa 3.
Cablemódem y DSL
viernes, 1 de octubre de 2021 21:15

Redes de última milla


El concepto de redes de última milla hace referencia a la porción de la red de telecomunicaciones
que se encuentra desplegada entre el extremo final de la conexión del proveedor y el cliente. Se
trata de conexiones permanentes. Consisten en una clasificación aparte de las redes ya vistas (LAN,
WAN, etc.) ya que tienen un alto despliegue (capilaridad) para conectar a la mayor cantidad de
usuarios posibles.
La distancia entre el equipo de comunicaciones entregado al cliente y el concentrador de red dentro
de las instalaciones del proveedor puede variar pero nunca debe sobrepasar los límites impuestos
por las regulaciones de servicio y las características físicas de los canales de comunicación.
En general, las redes de última milla pueden presionar sobre la disponibilidad del ancho de banda
que puede ser entregado al cliente. Este factor dependerá de la capacidad de transmisión de los
canales de comunicación troncales y la cantidad de clientes (o suscriptores) que accedan a la red del
proveedor.
Estas redes adoptan tardíamente los avances de nuevas tecnológicas, principalmente por la cantidad
de conexiones, la variedad de interfaces y equipamiento de usuario.

Tecnologías
Dado su bajo costo, las redes de última milla que se popularizaron eran las preexistentes. Con el
tiempo, se fueron tendiendo nuevas redes de nueva tecnología en las zonas de mayor demanda:
• Servicio de telefonía tradicional analógica (Plain Old Telephone Systems o POTS).
• Línea de Suscriptor Digital (Digital Subscriber Line o DSL) sobre las líneas de telefonía de par
trenzado de cobre.
• Televisión por Cable y Cablemódem para la transferencia de datos, sobre la red de cable
coaxial utilizada para transmisión de señales de televisión.
• Inalámbrica, que incluye servicios satelitales como DirectTV.
• Fibra óptica y sus tecnologías de transmisión. Esta red tuvo que ser tendida desde cero.
El siguiente es un esquema de las tecnologías de DSL (a la izquierda) y cablemódem (a la derecha):

La red troncal busca unir diversos puntos de la ciudad.


El equipo DSLAM se encarga de combinar las señales telefónicas y las digitales para enviarlas al
hogar. En el mismo se encontrará un módem DSL que va a decodificar la señal digital de la telefónica
y enviará cada una al dispositivo correspondiente.

Definiciones
• Punto de Presencia (Point Of Presence o PEP): Todo punto de demarcación entre entidades
que prestan o reciben servicios de telecomunicaciones. Lugar distribuido por toda la ciudad
donde el dueño de la red tiene un equipo que le permite brindar el servicio y e incluso otros
nuevos. Este punto permite conectar a un nuevo abonado del servicio.
• Equipo local del cliente (Customer Premises Equipment o CPE): Equipamiento ubicado en las
instalaciones del abonado o suscriptor que se encuentra conectado en el canal de
comunicación del proveedor de servicios, como módems DSL, cable módems, routers,
switches, entre otros. Es propiedad del proveedor del servicio.
switches, entre otros. Es propiedad del proveedor del servicio.
• Punto de Intercambio de Internet (Internet Exchage Point o IXP): consiste en la
infraestructura física en donde los proveedores de Internet (ISPs) intercambian tráfico a través
de sus redes. Son lugares donde varios ISPs de una ciudad intercambian entre ellos el tráfico
local, con una economía y eficiencia mucho mayor que si lo hicieran a través de un servicio
remoto.

Cablemódem
El cablemódem es una tecnología de acceso a internet basada en la infraestructura utilizada
previamente para la televisión por cable. La entrega de señales digitales provenientes de internet
hacia los abonados se realiza vía señales de radio frecuencia transmitida por redes de cable coaxial.
El acceso por cable permite que el límite de la red del proveedor pueda alcanzar a la red del
abonado (última milla) para brindar servicios de internet, televisión y/o telefonía.
En sus comienzos las señales se captaban a través de una antena receptora y se distribuían desde las
instalaciones del proveedor (headend) a través de la red de cable coaxial hacia sus abonados, es
decir, una transmisión en un único sentido, desde compañía de cable hacia sus abonados.

Transmisión
La transformación del servicio de distribución de señales de televisión al servicio de internet y
telefonía estableció nuevos desafíos:
• Transmisiones en dos sentidos:
○ Downstream: Desde el headend del proveedor hacia el abonado.
○ Upstream: Desde el abonado hacia el headend del proveedor.
• Uso del canal de comunicaciones: El mismo enlace coaxial es compartido entre más de un
abonado.
Con la sola transmisión de la señal de televisión, el número de abonados que comparten el medio no
influye sobre la señal a transmitir, ya que la misma está disponible para todos aquellos que
comparten el canal.
Con la incorporación de servicios digitales, toma relevancia el número de abonados al condicionar
con su utilización el ancho de banda disponible en la red.

Estándar DOCSIS
Ante el crecimiento de la industria, y como consecuencia de crecientes problemas interoperabilidad
de la tecnología y gestión del despliegue de la red, se funda una organización sin fines de lucro
llamada CableLabs.
CableLabs está compuesta por un consorcio internacional de operadores de servicio de cable, que
bajo su coordinación gestó el estándar DOCSIS (Data Over Cable Service Interface Specification). El
mismo especifica la arquitectura de red de cable y el conjunto de protocolos que la conforma.
Principalmente estas especificaciones regulan los aspectos físicos del equipamiento y los medios de
transmisión, como aspectos de modulación, codificación y gestión de acceso al medio.
Dentro de los aspectos físicos define:
• Rango de frecuencia de canales downstream y upstream.
• Modulación:
○ Downstream: Uso de métodos de modulación de onda continua como QAM en sus
distintos niveles (64, 128, 256 niveles o más) en un canal de 6MHz.
○ Upstream: Uso de QPSK o QAM en distintos niveles.
Con respecto a las características de los enlaces define métodos determinísticos para transmisiones
upstream, específicamente métodos de multiplexación, como TDMA y S-CDMA. También define
mecanismos de calidad de servicio (Quality Of Service) y agregación de enlaces (utilización de
múltiples canales downstream y upstream).

Señales y funcionamiento
Cabe preguntarse cómo hicieron los operadores de cable para que el servicio de televisión coexista
con otros servicios en el mismo medio. Una manera es la multiplexación por división de frecuencia:
• Cada canal se encontrará dentro de la región comprendida entre 54 a 550 MHz (excepto por la
radio FM ubicada entre los 88 y 108 MHz).
• Cada canal tendrá un rango de 6MHz y podrá contener un canal de televisión analógico o
varios canales de televisión digital.
• Actualmente el espectro del ancho de banda podrá llegar hasta 1GHz según DOCSIS.
• La región con un rango de frecuencias más bajo, de entre 5 a 42MHz, se utilizará para los
canales upstream.
• La transmisión en ambas direcciones también presionó a los operadores de cable a establecer
amplificadores de dos sentidos.
• Dentro de los límites del proveedor (headend) fue necesario reemplazar sus amplificadores de
señal por equipos más avanzados como los CMTS (Cable Modem Termination System).

Funcionamiento
Cuando un cablemódem es conectado y encendido, revisa los canales downstream en busca de un
paquete ingresado por el CMTS para proveer parámetros de funcionamiento a los módems que
acaban de colocarse en línea. Al encontrar el paquete, el módem anuncia su presencia en uno de los
canales upstream. El CMTS responde mediante la asignación al modem de sus canales upstream y
downstream. Los parámetros pueden ajustarse en el caso de que el proveedor necesite balancear la
carga.
En un solo canal downstream de 6 MHz generalmente se le aplica una modulación QAM-64, o más
según la calidad del medio. Como resultado se obtiene un enlace de 27Mbps. Con QAM 256 el canal
se incrementaría hasta los 39Mbps.
La multiplexación por división de tiempo (TDM) es utilizada para compartir el ancho de banda
upstream entre múltiples abonados, en conjunto con mecanismos de contención. Caso contrario las
transmisiones colisionarían en el headend del proveedor.
El tiempo es dividido en minislots y cada abonado envía en diferentes minislots. Para que se utilicen
diferentes minislots, los módems determinan la distancia hacia el CMTS enviando un paquete
especial y calculando el tiempo de respuesta. De esta forma se permite conocer el momento del uso
del minislot.
Durante el inicio del módem, el CMTS asigna a cada modem un minislot para pedir por ancho de
banda upstream. Cuando una computadora quiere mandar un paquete, lo transfiere al modem, que
entonces pide el numero necesario de minislots para enviarlo. Si el pedido es aceptado, el CMTS
coloca un ACK en un canal downstream avisando al modem los minislots reservados para el paquete.
En los canales downstream hay un solo emisor y no son necesarios mecanismos de contención.

Infraestructura de red
El alcance del servicio de cable mediante el despliegue de tendido de cable coaxial en todo su
trayecto (a través de postes o por vía subterránea) paulatinamente se fue remplazando por una
infraestructura híbrida entre cables de fibra óptica y cables de cobre.
El sistema HFC (Hybrid Fiber Coax) permitió soportar la creciente demanda de abonados y servicios.
La capacidad de los medios de fibra sumados a su inmunidad hacia los fenómenos de alteración de
las señales permitió reemplazar enlaces troncales entre ciudades y proveedores de servicio.
A través del recorrido de la red de internet por cable se encontrarán nodos de fibra óptica,
amplificadores, TAPS, tendido de cable coaxial troncal y residencial, y tendido de cable de fibra
óptica:
• Amplificadores: Se colocan para incrementar la potencia de la señal entre los enlaces
coaxiales del proveedor que se conectan en las cajas de distribución hacia los TAPs de los
edificios o conjunto de residencias.
• TAPs: Generalmente se conectan a la salida de un amplificador y permite distribuir la señal del
proveedor entre los abonados
En los límites de la red troncal de fibra y el comienzo del tendido de cobre se encuentran los nodos
de fibra (fiber nodes), que son convertidores electro ópticos utilizados como interfaz entre el sistema
óptico y eléctrico en la red.
Cada nodo incluye un receptor que capta la señal óptica y convierte la señal que llega desde el
headend a una señal eléctrica de RF para alcanzar a los abonados. La señal eléctrica consiste en una
señal de RF de downstream que puede ocupar el espectro de 50Mhz hacia 550MHz-1000MHz.
También realiza el procedimiento inverso tomando una señal upstream RF modulada en un rango
desde 5 hacia 42MHz-65MHz.

CMTS (Cable Modem Termination System)


• Incluye interfaces de red (como Gigabit Ethernet) para el proveedor de la red IP.
• Incluye interfaces RF (de Radio Frecuencia) para la infraestructura de cable.
• Las interfaces RF serán de tipo downstream y upstream.
• El CMTS puede proporcionar la función de conmutación o enrutamiento entre la red de
Internet y la red de cable del proveedor.
• Estas funciones son muy similares a un típico router IP.

Línea de Suscriptor Digital (DSL)


La Línea de Suscriptor Digital (DSL) comprende una familia de tecnologías utilizadas para la
transmisión de datos digitales sobre líneas telefónicas.
El servicio DSL puede ser entregado simultáneamente con el servicio de teléfono en la misma línea
telefónica, gracias a que la tecnología utiliza rangos de frecuencias más altas para el transporte de
datos.
La alternativa más conocida de las tecnologías DSL se denomina ADSL (Asymmetric Digital
Subscriber Line), donde el rango de ancho de banda destinado a downstream es mayor al destinado
a upstream.
Dentro de las instalaciones del cliente, un filtro DSL en cada salida no digital bloqueará toda alta
frecuencia de interferencia para utilizar el servicio de telefonía, en conjunto con los servicios
digitales provistos por DSL.
Los primeros intentos de exprimir el uso de los hilos de cobre telefónicos ya desplegados ocurrió con
Los primeros intentos de exprimir el uso de los hilos de cobre telefónicos ya desplegados ocurrió con
los módems telefónicos para enviar datos digitales, actualmente completamente desplazados por las
tecnologías DSL.

Funcionamiento
Los módems telefónicos y las tecnologías DLS deben enfrentar las limitaciones de los enlaces de par
trenzado de cobre telefónicos:
• Estrecho ancho de banda.
• Atenuación y distorsión de señales.
• Susceptibilidad al ruido.
La utilización del módem telefónico se ajustó a las condiciones de los enlaces de voz analógicos para
enviar datos digitales.
Cuando el loop local terminaba en el extremo del proveedor, se le aplicaba un filtro que atenuaba
todas las frecuencias por debajo de 300Hz y por encima de 3400Hz.
En una línea completamente digital, el loop local termina en un dispositivo diferente que no aplica
un filtro, permitiendo que toda la capacidad física del enlace esté disponible, llegando a 1MHz en
ADSL.
En los enlaces de par trenzado, la capacidad del canal disminuye fuertemente al aumentar la
distancia desde el abonado hacia la oficina del proveedor por la velocidad de degradación de la
señal. Por lo tanto, a mayor distancia las señales digitales deberán propagarse a un ancho de banda
menor.
Para sobrellevar estas imposiciones físicas, el rango de 1MHz disponible en el local loop es dividido
en 256 sub canales independientes de 4312.5Hz.

El método de multiplexación por OFDM permite aprovechar al máximo la capacidad del canal. Para
cada canal es aplicada la modulación QAM y las condiciones del canal son monitoreadas
constantemente, pudiendo ser ajustada la tasa de datos modificando los niveles de modulación de
QAM.
El canal 0 se utiliza para la señal de voz (servicio telefónico tradicional). Por su parte, los canales 1 al
5 no son utilizados para mantener las señales de voz y datos separadas, y así evitar interferencias
entre sí. Los canales restantes son utilizados para señales de datos.

Digital Subscriber Line Access Multiplexer (DSLAM)


El Digital Subscriber Line Access Multiplexer (DSLAM) es un dispositivo de red, generalmente
ubicado dentro de las instalaciones del proveedor, que conecta concentra interfaces xDSL hacia una
red de distribución de alta velocidad mediante técnicas de multiplexación.
El DSLAM concentra las múltiples transferencias de datos a través de sus puertos y los transporta
sobre una señal compuesta vía multiplexación. Las señales DSL concentradas en el DSLAM puede ser
transferidas a redes ATM (Asynchronous Transfer Mode), Frame Relay o redes IP. Posee un
funcionamiento similar a un switch de capa 2 según el modelo de referencia OSI. No enruta tráfico a
través de redes IP, pero es una interfaz entre los dispositivos del ISP y las conexiones particulares de
través de redes IP, pero es una interfaz entre los dispositivos del ISP y las conexiones particulares de
los abonados.
Además de ser un gran multiplexor y un switch de datos, el DSLAM posee una gran colección de
módems asociado a cada uno de sus puertos, y cada módem comunica con un solo modem DSL del
abonado.
Los DSL módems integrados al DSLAM pueden monitorear el estado de la línea y ajustar los canales
downstream y upstream de acuerdo a las condiciones del enlace para maximizar la tasa de
transferencia de datos.
Dentro de la red del proveedor, el DSLAM conmuta todo el tráfico de los abonados hacia un B-RAS
(BroadBand Remote Access Server) donde se produce el enrutamiento del tráfico hacia la red del
proveedor de internet.

Estándares
Estándares DSL simétrico
• High bit rate digital subscriber line (HDSL): estándar ITU-T G.991.1. Tecnología DSL de
superior espectro de frecuencia que ISDN, soportando 1,544 kbps and 2,048 kbps simétrico.
• ISDN digital subscriber line (IDSL): tecnología DLS basado en redes ISDN (Red Digital de
Servicios Integrados RSDI) que provee un bitrate de 144 kbps simétrico sobre un solo par.
• High bit rate digital subscriber line 2 y 4 (HDSL2, HDSL4): Estándar ANSI. Utiliza un par con un
bitrate de 1,544 kbps simétrico (HDSL2) con una distancia de 2.9KM o dos pares con una
distancia de 3.4KM (HDSL4).
• Symmetric digital subscriber line (SDSL): tecnología propietaria que alcanza los 1,544 kbps
simétrico.
• Single-pair high-speed digital subscriber line (G.SHDSL): Estándar ITU-T G.991.2, sucesor de
HDSL puede alcanzar hasta los 5,696 kbps por par, hasta cuatro pares. Se distingue del resto
de las tecnologías al utilizar el método de modulación TC-PAM.

Estándares DSL asimétrico


• ANSI T1.413 Issue 2: Con un máximo de downstream de 8 Mbps y upstream 1 Mbps.
• G.dmt, o ITU-T G.992.1: Con un máximo de downstream de 10 Mbps y upstream 1 Mbps.
• G.lite, ITU-T G.992.2: con más resistencia al ruido y la atenuación que G.dmt, hasta 1,536 kbps
y 512 kbps.
• Asymmetric digital subscriber line 2 (ADSL2): estándar ITU-T G.992.3. Con un máximo de
downstream de 12 Mbps y upstream 3.5 Mbps.
• Asymmetric digital subscriber line 2 plus (ADSL2+), estándar ITU-T G.992.5: Con un máximo
de downstream de 24 Mbps y upstream 3.5 Mbps.
• Very-high-bit-rate digital subscriber line (VDSL), estándar ITU-T G.993.1: Con un máximo de
downstream de 52 Mbps y upstream 16 Mbps
• Very-high-bit-rate digital subscriber line 2 (VDSL2), estándar ITU-T G.993.2: Versión mejorada
de VDSL y compatible con ADSL2+. La suma de bitrate en ambas direcciones puede llegar hasta
los 200 Mbps.
• G.fast. Estándar ITU-T G.9700 y G.9701: Puede alcanzar un bitrate conjunto de downstream y
upstream de hasta 1 Gbps en un enlace de 100 metros de distancia. Para desplegar en local
loops menores a 500 metros.

Actualidad
A pesar de la impronta impuesta por las posibilidades de los medios de fibra óptica, las capacidades
de los enlaces coaxiales y DLS se siguen incrementando.
Actualmente el estándar DOCSIS 3.1, gracias a la mejora del espectro de ancho de banda utilizable
(cercano a 1GHz), el incremento de los niveles de modulación (hasta 4096 QAM), y el uso de
tecnologías como LDPC y QoS hace posible incrementar el ancho de banda digital y mejorar las
características del servicio en la misma red HFC existente. El estándar puede soportar hasta 10Gbps
downstream y 1Gbps upstream.
Con la mejora de la calidad del servicio de las existentes tecnologías de última milla también se
produce la extensión del despliegue de la red de distribución de fibra óptica por los proveedores de
servicio. Está comenzando el reemplazo en redes de acceso, de tendido de cable coaxial o de
telefonía digital por medios de fibra óptica. La fibra óptica cada vez se encuentra más cerca del
telefonía digital por medios de fibra óptica. La fibra óptica cada vez se encuentra más cerca del
cliente.
Las restricciones gubernamentales, en especial a nivel municipal, son el principal obstáculo para el
tendido de la redes sobre fibra óptica.
Para servicios residenciales, proveedores como Claro, Telecentro y Fibertel comienzan a extender
sus servicios de telefonía, Internet y televisión a través de redes FTTH (Fiber To The Home) o FTTC
(Fiber To The Cabinet). Actualmente, los proveedores líderes de servicios de internet por
cablemódem residenciales son:
• Cablevision/Fibertel: Ofrece servicios de cablemódem de hasta 50Mbps downstream y 6
upstream.
• Telecentro: Posee servicios de cablemódem de hasta 200Mbps.
Por otro lado, proveedores de última milla con tecnologías DSL comienzan a extender los medios de
fibra óptica más cerca del cliente, como es el caso de:
• Telecom, que brinda comercialmente FTTC con la tecnología VDSL en forma masiva de 20
Mbps y 30 Mbps downstream.
• Claro/Telmex, que proporciona servicios de xDSL residenciales de hasta 50Mbps downstream.
En el caso de servicios DSL el ancho de banda digital sugerido estará fuertemente condicionado al
área de cobertura del proveedor.
Protocolo IPv6
martes, 5 de octubre de 2021 21:27

El protocolo IPv6 es el protocolo encargado de dirigir y encaminar los paquetes en la red. Debido al
crecimiento de Internet y la sofisticación de los dispositivos electrónicos, la solución propuesta es
aumentar el espacio de direccionamiento de Internet IPv4.
El Grupo Especial sobre Ingeniería de Internet (Internet Engineering Task Force o IETF) elaboró una
serie de especificaciones para definir un protocolo IP de Siguiente Generación (IP Next Generation,
IPng) que actualmente se conoce como Protocolo de Internet versión 6.
El IPv6 incrementa el tamaño de la dirección IP de 32 bits a 128 bits para soportar más niveles en la
jerarquía de direccionamiento y un número mayor de nodos direccionables.

Características de IPv6
• El diseño del protocolo agrega múltiples beneficios en seguridad, manejo de calidad de
servicio, una mayor capacidad de transmisión y mejora la facilidad de administración.
• El esquema de direcciones de 128 bits provee una gran cantidad de direcciones IP, con la
posibilidad de asignar direcciones únicas globales a nuevos dispositivos.
• La dirección IPv6 se diseñó para ser subdividida en dominios de enrutamiento jerárquico que
reflejan la topología del Internet actual. Los múltiples niveles de jerarquía permiten juntar
rutas, promoviendo un enrutamiento eficiente y escalable al Internet.
• El proceso de autoconfiguración permite que los nodos de la red IPv6 configuren sus propias
direcciones IPv6, facilitando su uso.
• La transición entre proveedores de IPv6 es transparente para los usuarios finales con el
mecanismo de renumerado.
• La difusión ARP es reemplazada por el uso de multicast en el enlace local.
• El encabezado de IPv6 es más eficiente que el de IPv4: tiene menos campos y se elimina la
suma de verificación del encabezado. Además el encabezado es de longitud fija lo que genera
una reducción en los ciclos de CPU de los ruteadores al momento de enviar los paquetes de
IPv6. Lo anterior conlleva un mejor desempeño de la red.
• Puede hacerse diferenciación de tráfico utilizando los campos del encabezado a través de la
etiqueta de flujo. Esta etiqueta es usada por el nodo fuente para solicitar un manejo especial
de secuencias específicas de paquetes. La etiqueta está dirigida al procesamiento de la
estación destino, no para los ruteadores, y es de gran utilidad para aplicaciones como
videoconferencias y voz sobre protocolo de Internet (VoIP). Asimismo, agrupa todas aquellas
que requieren un tratamiento especial de Calidad de Servicio (Quality of Service, QoS) en los
ruteadores de la trayectoria.
• Las nuevas extensiones de encabezado reemplazan el campo "Opciones" de IPv4 y proveen
mayor flexibilidad. Se presenta un campo llamado "Siguiente Encabezado" dentro de cada
extensión de encabezado que permite una mejor eficiencia en el procesamiento de los
paquetes, ya que asegura que los ruteadores y nodos computan los encabezados dirigidos a
ellos a lo largo de la trayectoria.
• IPv6 fue esbozado para manejar mecanismos de movilidad y seguridad de manera más
eficiente que el protocolo IPv4.
• Se crearon varios mecanismos junto con el protocolo para tener una transición sin problemas
de las redes IPv4 a las IPv6.

Jerarquías de direcciones - Agregación de prefijos de red


Un espacio mayor de direcciones de IPv6 permite mayores distribuciones de direcciones a las
organizaciones y a los proveedores de servicios de Internet (ISPs). Al tener una gran disponibilidad
de direcciones se posibilita el uso de un solo prefijo grande para toda la red de una organización y,
por ende, el ISP puede sumar las rutas (agregar) de todos los prefijos de sus clientes en un solo
prefijo y anunciarlo al Internet IPv6.
Cuando un usuario final cambia su proveedor de IPv6, el cual le proveía de direccionamiento IPv6,
entonces también debe cambiar su prefijo de IPv6 para preservar su agregación global. Al mismo
tiempo, el cambiar de proveedor implica una renumeración de la red.
Renumeración
El proceso de renumeración de IPv6 fue diseñado para ser transparente entre los proveedores de
IPv6 y los usuarios finales. Esto se logra con el mecanismo de autoconfiguración que permite una
renumeración sencilla a las computadoras con sólo enviarles el nuevo prefijo IPv6 para la red.

Modos de configuración de IPv6


• Autoconfiguración: Esta funcionalidad permite que un ruteador IPv6 envíe, a través del enlace
local, la información de red a las computadoras y que ellas puedan configurarse
correctamente. La información enviada es el prefijo de IPv6 del enlace local y la ruta por
defecto del mismo protocolo. Mediante este mecanismo cada computadora y servidor de IPv6
añade su dirección de capa de enlace (dirección MAC) en el formato EUI-64 al prefijo de IPv6
de unicast global único anunciado en la subred.
• Configuración mediante servidor: Las computadoras que utilizan IPv6 pueden obtener sus
parámetros y direcciones de configuración de un servidor de DHCP versión 6. Este modo es
llamado Configuración de Direcciones con Estado IPv6.

Movilidad
Cualquier nodo IPv6 puede usar un IP Móvil tanto como lo requiera. IPv6 Móvil utiliza dos
extensiones de encabezado: un encabezado de enrutamiento para el registro y un encabezado de
destino para la entrega del datagrama entre los nodos móviles y sus nodos fijos correspondientes.

Seguridad en IPv6
La seguridad dentro del protocolo IPv6 está basada en el protocolo IPSec, lo que permite sesiones de
seguridad de extremo a extremo:
• Limitar el acceso a sólo aquellos autorizados.
• Certifica la autenticación de la persona que envía los datos.
• Encripta los datos transmitidos a través de la red.
• Asegura la integridad de los datos.
• Invalida la repetición de sesiones, para evitar que no sean repetidas por usuarios maliciosos.
Una implementación de IPv6 incluye inserciones de:
• Encabezados de autenticación (AH, Authentication Headers): provee integridad,
autenticación del nodo fuente y protección contra repetición.
• Extensión de encabezados de carga de seguridad encapsulada (ESP, Encapsulating Security
Payload): provee confidencialidad, autenticación del nodo fuente, integridad interna del
paquete y protección contra repetición.

Configuración automática de direcciones y descubrimiento de


vecinos
El protocolo ND (Neighbor Discovery, descubrimiento de vecinos) de IPv6 facilita la configuración
automática de direcciones IPv6. La configuración automática consiste en la capacidad de un host de
IPv6 de generar automáticamente sus propias direcciones IPv6, cosa que facilita la administración de
direcciones y supone un ahorro de tiempo.
El protocolo ND se corresponde con una combinación de los siguientes protocolos IPv4: Address
Resolution Protocol (ARP), Internet Control Message Protocol (ICMP), Router Discovery (RDISC) e
ICMP Redirect.
Los enrutadores de IPv6 utilizan el protocolo ND para anunciar el prefijo de sitio de IPv6. Los hosts
de IPv6 utilizan el descubrimiento de vecinos con varias finalidades, entre las cuales está solicitar el
prefijo de un enrutador de IPv6.

Mecanismos de transición
Actualmente no existe una fecha definida para dejar de utilizar IPv4 o comenzar a utilizar IPv6
completamente, por lo que al diseñar IPv6 se optó por incluir mecanismos que permitan una
coexistencia de ambos esquemas de direccionamiento y que en el largo plazo permitan tener una
transición sin complicaciones hacia IPv6. Estos esquemas son los siguientes:
transición sin complicaciones hacia IPv6. Estos esquemas son los siguientes:
• Nodos de Doble Pila sobre redes IPv4.
• Islas de Nodos de Sólo IPv6 sobre redes IPv4.
• Nodos de IPv4 que puedan comunicarse con redes IPv6.
• Nodos de IPv6 que puedan comunicarse con redes IPv4.

Direccionamiento y tipos de direcciones IPv6


Los tipos de direcciones IPv6 son:
Unicast Multicast Anycast
Se utiliza únicamente para Se utiliza para identificar a un Se asigna a múltiples interfases
identificar una interfase de un grupo de interfases IPv6. Un (usualmente en múltiples
nodo IPv6. Un paquete enviado paquete enviado a una nodos). Un paquete enviado a
a una dirección unicast es dirección multicast es una dirección anycast es
entregado a la interfase procesado por todos los entregado a una de estas
identificada por esa dirección. miembros del grupo multicast. interfases, usualmente la más
cercana.
Agrupa los siguientes tipos: Agrupa los siguientes tipos: Agrupa los siguientes tipos:
• Enlace Local (Link-Local). • Asignada (Assigned). • Agregable Global
• Sitio Local (Site-Local). • Nodo Solicitado (Aggregatable Global).
• Agregable Global (Solicited Node). • Sitio Local (Site Local).
(Aggregatable Global). • Enlace Local (Link Local).
• Loopback.
• Sin Especificar
(Unspecified).
• Compatible con IPv4.
Las direcciones IPv6 son asignadas a interfases, no a nodos, por lo que cada interfase de un nodo
necesita al menos una dirección unicast.

Direcciones unicast y anycast


Las direcciones unicast y anycast generalmente se dividen en dos grupos lógicos: los primeros 64 bits
identifican el prefijo de red y son usados para encaminamiento; los últimos 64 bits identifican el
interface de red del host.

• El prefijo de encaminamiento (routing prefix), junto con el identificador de subred (subnet


id), está situado en los 64 bits más significativos de la dirección IPv6. El tamaño del routing
prefix puede variar; un prefijo de mayor tamaño significa un tamaño menor para subnet id.
Éste permite a los administradores de red definir subredes dentro de la red disponible.
• Los 64 bits de identificador del interface (interface identifier) son generados
automáticamente con la dirección MAC del interface y el algoritmo EUI-64 modificado inserta
“FF:FE” en el medio.

Direcciones IPv6
Una dirección IPv6 se compone de ocho campos de 16 bits hexadecimales separados por dos
puntos, lo que representa 128 bits. Cada campo de 16 bits representa cuatro caracteres
hexadecimales y los valores que puede tomar cada campo de 16 bit van de 0000 a FFFF.
A una sola interfase se le pueden asignar múltiples direcciones IPv6 de cualquier tipo (unicast,
anycast, multicast), por lo cual un nodo puede ser identificado por la dirección de cualquiera de sus
interfases. Existe la posibilidad de asignar una dirección unicast a múltiples interfases para balanceo
de cargas.

Formato o notación de direcciones

Formato preferido o completo


El formato preferido o completo de una dirección IPv6 se compone de los ya mencionados 8
campos de 16 bits hexadecimales separados por dos puntos.

Formato comprimido
En IPv6 es común que se presenten cadenas grandes de ceros dentro de las direcciones. Para
simplificar su escritura se ha convenido en utilizar una sintaxis especial en donde se suprimen los
valores consecutivos de ceros ante dos situaciones: campos sucesivos de ceros y campos con ceros al
inicio.

Campos sucesivos de ceros


Para simplificar la longitud de una dirección IPv6, cuando se presentan de uno a múltiples campos de
ceros, es legal representar estos como ceros o :: (doble dos puntos). Sin embargo, es permitido
usarlo una sola vez en la escritura de la dirección.
En la siguiente tabla se presenta del lado izquierdo las direcciones en formato preferido y resaltado
En la siguiente tabla se presenta del lado izquierdo las direcciones en formato preferido y resaltado
en negro los campos sucesivos de ceros que son sustituidos por los dos puntos dobles y del lado
derecho se presenta la dirección en su formato comprimido.

Ejemplo:
2001:0:0:0:0:0:0:4 se comprime como 2001::4

Una forma incorrecta sería:

2001:0:0:0:2:0:0:1 no se comprime como 2001::2::1


sí se comprime como 2001::2:0:0:1 o bien 2001:0:0:0:2::1

Campos con ceros al inicio


El segundo método para comprimir direcciones se aplica a cada uno de los campos hexadecimales de
16 bits que tienen uno o más ceros al inicio. Ello involucra que, si hay uno o más ceros al inicio de
cada campo, estos pueden ser suprimidos para simplificar su longitud y facilitar su lectura y
escritura. No obstante, si cada carácter del campo es cero al menos uno debe de ser mantenido.
La siguiente tabla muestra del lado izquierdo las direcciones en su Formato Preferido con los ceros
iniciales resaltados en negro y del lado derecho están las direcciones en su Formato comprimido con
los ceros suprimidos.

Ejemplo:

2001:0123:0004:00ab:0cde:3403:0001:0063 se comprime como 2001:123:4:ab:cde:3403:1:63

Combinación de ambos métodos de compresión


Se pueden combinar la compresión de campos sucesivos de ceros con la compresión de campos con
ceros al inicio para simplificar la longitud de la dirección IPv6. En la siguiente tabla se muestra un
ejemplo de la aplicación con ambos métodos de compresión. Al igual que en ejemplos anteriores, los
caracteres resaltados en negro son los valores que serán suprimidos.

Direcciones IPv6 en recursos de red


Los dos puntos (:) en las direcciones IPv6 pueden entrar en conflicto con otras sintaxis, como las de
las URIs y URLs. Además, los dos puntos se han utilizado tradicionalmente como separación entre
una dirección IP y el puerto de red. Para solucionar este problema, las direcciones IPv6 se encierran
entre corchetes , por ejemplo:
Cuando la URL contiene un número de puerto, la notación es:

IPv6 y subredes
En IPv6 la única forma aceptable de representar una máscara de red es mediante notación CIDR.
Aunque las direcciones estén en formato hexadecimal, el valor de la máscara de red se mantiene
como un valor decimal. La siguiente tabla muestra ejemplos de direcciones IPv6 y prefijos de red
utilizando el valor de red en notación CIDR.

Enrutamiento con IPv6


No hay cambios mayores en el enrutamiento, así el cambio a IPv6 es transparente para el
administrador de redes. Únicamente se realizaron modificaciones a la forma en que se maneja el
enrutamiento para hacerlo más eficiente o para hacer uso de las características de IPv6.

Rutas estáticas
Las rutas estáticas son utilizadas para forzar el enrutamiento de algunos prefijos a través de
ruteadores específicos. En una tabla de enrutamiento, este tipo de rutas tienen una mayor
preferencia sobre rutas aprendidas por protocolos de enrutamiento.
Una ruta estática contiene el prefijo a ser enrutado y la dirección IP del ruteador. Dicha ruta tiene
como nombre el siguiente salto, es el responsable de enrutar cualquier paquete con un destino
dentro del rango de prefijo dado.

Enrutamiento dinámico
Protocolo RIPng
El protocolo RIP Siguiente Generación (RIPng, RIP next generation) está basado en RIP versión 2 y
hereda las mismas características genéricas:
• Algoritmo vector-distancia Bellman-Ford.
• Actualizaciones cada 30 segundos.
• Tiempo de expiración de 180 segundos para rutas desconectadas.
• Métricas fijas.
• Diámetro de red de 15 saltos.
• Horizonte dividido y envenenamiento en reversa de trayectoria.
• Etiquetas de ruta.

Protocolo OSPFv3
El protocolo OSPFv3 es un protocolo de red independiente, similar a IS-IS. Comparte los
fundamentos de OSPFv2:
• Inundación (flooding).
• Elección de ruteador designado.
• Área de soporte.
• Cálculos de Djikstra para abrir la trayectoria más corta primero.
• Soporte de circuito en demanda.
• Extensiones multidifusión.
Redes de telefonía móvil
martes, 12 de octubre de 2021 21:10

Las prestaciones de las redes de telefonía móvil han ido evolucionando a lo largo del tiempo,
pasando de ser algo privativo de pocos dispositivos a estar presente en prácticamente todos los
teléfonos celulares.
Las características de una red de telefonía móvil son:
• Movilidad entre celdas: cada celda (o célula) es una determinada área de cobertura en una
ciudad. En cada una de esas áreas hay instalada una radiobase, encargada de administrar esa
celda. El objetivo de las antenas es que no exista interferencia en las comunicaciones.
• Terminales con limitaciones de potencia: el dispositivo es móvil y no puede contener mucha
energía dentro de las baterías.
• Saturación de celdas: una determinada antena puede atender una cantidad limitada de
transmisiones o conexiones simultáneas. Es un desafío lograr que en cada celda no haya más
equipos tratando de comunicarse que los que puede atender la antena que cubre esa área
geográfica.
Las redes móviles son redes públicas, por ende, se conectan a otras redes y están sujetas a las
reglamentaciones de entidades regulatorias.
La evolución de las redes móviles se ha dividido en generaciones (actualmente 4, con una 5ta en
desarrollo).

Primera generación (1G)


La primera generación (1G) de las redes de telefonía móvil engloba a todas aquellas tecnologías de
comunicaciones móviles analógicas. Utilizaban tecnologías tales como AMPS (Advanced Mobile
Phone System) y TACS (Total Access Communications System). El sistema TACS es un sistema de
comunicaciones para telefonía móvil celular dúplex en la banda de 900 MHz, con capacidad para
transmitir voz pero no datos. AMPS por su parte trabaja en la banda de los 800MHz.
Esta generación de redes no resultaba escalable ya que utilizar FDMA (Frequency Division Multiple
Access).

Segunda generación (2G)


La segunda generación (2G) consistió en digitalizar las transmisiones de la generación anterior.
Utilizaba tecnología digital cuya primera funcionalidad era la transmisión de voz por conmutación de
circuitos multiplexado por TDM.
A partir de esta generación comienza a establecerse la primera red de transmisión de datos, la cual
era a baja velocidad: 9,6 kbit/s (usada principalmente para mensajes de texto) y el sistema usado
para conectarse era GSM (Global System for Mobile communications). Se definieron códecs de voz
para la transmisión de audio.
Para establecer las comunicaciones comenzó a ser necesario que los dispositivos utilizaran un chip
denominado tarjeta SIM (Subscriber Identity Module). Facilitó mucho el cambio de dispositivos: sólo
hacía falta colocar la tarjeta SIM en el nuevo celular para que se configurase automáticamente para
funcionar (en la generación anterior era necesario llevar cada nuevo dispositivo al servicio técnico
para configurarlo).
Las desventajas de esta tecnología fueron:
• Estaba fuertemente orientada a la transmisión de voz.
• Poco ancho de banda.
• Enlace de datos simétricos.
• Costoso (facturación por tiempo de conexión).

2.5G
Las redes 2G fueron mejoradas con la implementación de nuevas tecnologías que le permitieron
evolucionar y definieron lo que se llamaron las redes 2.5G. Estas tecnologías fueron:
• GPRS (General Packet Radio System).
• HSCSD (High Speed Circuit Switched Data).
• EDGE (Enhanced Data Rates for Global Evolution).
GPRS
GPRS estaba basada en la transmisión de paquetes y donde los canales de comunicación se
comparten entre los distintos usuarios de forma dinámica. GPRS coexiste con GSM, compartiendo
gran parte de la infraestructura, pero ofreciendo al usuario un servicio portador más eficiente para
las comunicaciones de datos, especialmente en el caso de los servicios de acceso a redes IP.
La velocidad teórica máxima que puede alcanzar GPRS es de 171,2 kbit/s (unas 18 veces mayor que
GSM), si bien la velocidad de acceso que experimenta el usuario en la práctica está condicionada por
distintos factores y suele ser bastante inferior: unos 40 kbit/s en el enlace descendente y 9,6 kbit/s
en el ascendente.
Las principales ventajas que aporta GPRS respecto a GSM son, además de una mayor velocidad de
transmisión, la conexión permanente y la tarifación por tráfico.
Fue incorporado al estándar GSM release 97.

HSCSD
Mediante la tecnología HSCSD, el número de canales de GSM utilizados en cada instante por una
comunicación de datos es variable, permitiendo velocidades de transmisión de hasta 57,6 kbit/s.
La ventaja de HSCSD es que la inversión para ser implementado es mínima, aunque tiene como
desventaja un mayor costo para los usuarios, pues pagan por el uso de cada canal. Este avance es
poco usado actualmente.

EDGE
EDGE es otro de los desarrollos de las redes GSM, permitiendo teóricamente velocidades de datos
de hasta 384 kbit/s. Se trata de una tecnología que mejora el ancho de banda de la transmisión de
los datos en GSM y GPRS, y que se puede considerar como precursora de UMTS.
En realidad, EDGE y UMTS son tecnologías complementarias que de forma conjunta pueden dar
apoyo a las necesidades de los operadores para lograr la cobertura y capacidad global de las redes
de tercera generación.

Tercera generación (3G)


La tercera generación (3G) de redes móviles van asociadas a los nuevos dispositivos que se fueron
construyendo: teléfonos inteligentes, capaces de conectarse a Internet, con múltiples aplicaciones.
En concordancia, los servicios que ofrecen las tecnologías 3G son básicamente: acceso a Internet,
servicios de banda ancha, y roaming internacional. Está fuertemente orientado a la transmisión de
datos, incluyendo a la voz.
Fundamentalmente, estos sistemas permiten el desarrollo de entornos multimedia para la
transmisión de vídeo e imágenes en tiempo real, fomentando la aparición de nuevas aplicaciones y
servicios tales como videoconferencia o comercio electrónico.

UMTS (Universal Mobile Telecommunications System)


UMTS fue la tecnología que se popularizó para la transmisión en redes 3G. Inicialmente fue pensada
para su uso en teléfonos móviles, pero la red UMTS no está limitada a estos dispositivos.
UMTS provee nuevas capacidades multimedia ya que permite transmitir audio y video en tiempo
real, y provee una transmisión de voz con calidad equiparable a la de las redes fijas. Está
diferenciada en capas:

Capa de servicios + capa de control + capa de conectividad (voz: ATM/AAL2 ó IP/RTP)

La conectividad virtual a la red es todo el tiempo, con diferentes formas de tarifación, ancho de
banda asimétrico en el enlace ascendente y descendente y configuración de la calidad de servicio
(QoS). Llega hasta los 2Mbit/s en condiciones ideales de funcionamiento, como por ejemplo en el
entorno interior de una oficina.

UMTS en Argentina
Las bandas empleadas por los distintos proveedores de telefonía móvil en el país, según zonas, son:
AMBA Norte Sur
Personal 850 y 1900 MHz 850 y 1900 MHz 1900 MHz
Movistar 850 MHz 1900 MHz 850 y 1900 MHz
Claro 1900 MHz 850 y 1900 MHz 850 y 1900 MHz

HSPA (High SpeedPacket Access)


La otra tecnología que utiliza la red 3G es HSPA. Está pensada para ofrecer banda ancha móvil.
Dentro de ella se distinguen:
• HDSPA (para downstream).
• HUSPA (para upstream).
• 3GPP (3rd Generation Partnership Project).
La tecnología HSDPA (High Speed Downlink Packet Access) es la optimización de la tecnología
UMTS. Consiste en un nuevo canal compartido en el enlace descendente (downlink) que mejora
significativamente la capacidad máxima de transferencia de información hasta alcanzar tasas de 14
Mbps. Soporta tasas de throughput promedio cercanas a 1 Mbps. Fue mejorada en HSPA+
(protocolo 3GPP rel. 7)

Cuarta generación (4G)


La cuarta generación (4G) de redes móviles está basada en el protocolo LTE (Long Term Evolution).
Aplica las tecnologías HSPA+ y 3GPP rel. 8 y la codificación OFDM + MIMO.
Estas redes poseen dos modos: FDD (full duplex) y TDD (half duplex dinámico). Tienen tasas de
trasmisión más elevadas, latencias reducidas y eficiencia espectral.
Las redes 4G alcanzan tasas de hasta 100 Mbps en movimiento y 1 Gbps en reposo. Emplea una red
de conmutación de paquetes IP.
En Argentina se utilizan las siguientes bandas 4G/LTE:
• Banda 4 (AWS 1700 / 2100 MHz).
• Banda 28 (APT700 700Mhz). La TDA utiliza otra porción de esa misma banda.

Quinta generación (5G)


Las redes 5G aún no fueron establecidas técnicamente. Aún no hay protocolos que regulen su
funcionamiento; sin embargo, pueden delinearse ciertas tendencias. Están evolucionando para dar
soporte a:
• Dinero móvil.
• Internet de las cosas (IoT).
• Red como Identity Provider.
Para responder a estas tendencias, las redes 5G buscan los siguientes objetivos:
 Mucho mayor ancho de banda.
 Menor latencia.
 Mayor cantidad de dispositivos conectados.
Para lograrlos se están empleando distintas estrategias:
 Múltiples bandas del espectro, de mayor frecuencia.
 Multiplicación de las bases de radio, de diferentes tipos (standalone, non-standalone, es decir,
que trabajen únicamente con 5G o se apoyen en tecnologías preexistentes como la 4G).
 Distribución de los centros de procesamiento.
Estas redes pueden representar un cambio cualitativo y de paradigma respecto de las generaciones
anteriores. Las necesidades actuales son otras. Ya no se busca sólo conectar personas entre ellas
sino también poder establecer conexión con objetos que brinden información de ellos mismos,
sobre su estado y lo que los rodea.

Contexto de la industria
El modelo de negocios de las empresas de telefonía celular era vender el minuto de aire en las
llamadas telefónicas, la cantidad de mensajes, el tiempo de conexión, etc. Con la mayor
interconexión surgieron los denominados servicios OTT (Over The Top), es decir, servicios de libre
interconexión surgieron los denominados servicios OTT (Over The Top), es decir, servicios de libre
transmisión de datos que corren "sobre la red" sin intervención del operador de telefonía móvil. Esto
obligó a los proveedores a redefinir su modelo de negocio ya que han perdido el control de lo que
ocurre a través de las redes. Esto ha dado lugar a que los proveedores de servicios de telefonía
celular han migrado sus modelos de negocios a la facturación mensual a sus clientes por un paquete
de servicios. Operan con márgenes muy estrechos debido a la competencia y la maduración de la
tecnología, entre otras razones.
Cloud computing y redes definidas por software
viernes, 15 de octubre de 2021 21:11

La virtualización de funciones de red, denominada NFV (Network Function Virtualization), es un


marco de referencia general relacionado con la arquitectura de redes, orientado a virtualizar
diferentes elementos dentro de las mismas.
Este escenario se crea a partir de las necesidades dentro del mercado de las telecomunicaciones, en
constante evolución, y que en los últimos años se ha encontrado ante la necesidad de utilizar
arquitecturas más flexibles (menor dependencia de fabricantes, estándares abiertos, etc.) a la vez
que se mantienen los niveles de servicio y exigencia.
Se plantearon los siguientes puntos claves:
• Necesidades de diseño para nuevos equipamientos.
• Costes y restricciones físicas de fabricación.
• Alto nivel de conocimiento necesario para operar las soluciones propietarias de
hardware/software.
• Complejidad HW en las soluciones de fabricante.
• Ciclo de vida muy corto, lo que hace mínima la vida útil de dicho hardware.
• El ciclo de producto comienza antes de haber podido comenzar el retorno de inversión.
Este nuevo conjunto de necesidades desemboca en la creación de nuevas soluciones, más ágiles y
efectivas, nacidas en este nuevo entorno y orientadas a la agilidad, escalabilidad y facilidad de
implementación.
El enfoque NFV se aleja de la concepción dependiente de varias plataformas hardware para dotar
soluciones, pasando a un modelo de uso de plataformas estandarizadas que soporten soluciones
virtuales que provean las soluciones de función de red requeridas.
La arquitectura relacionada con las “redes clásicas” es, en general, estática, puesto que tanto
hardware como software están limitados e integrados de una forma predeterminada en la red; por
el contrario, NFV permite que el software desarrollado se despliegue en diferentes plataformas,
permitiendo múltiples puntos de gestión de la red. La idea subyacente pasa además porque dichos
puntos sean estándar y compatibles para soluciones multivendor.
Para llegar a esta solución, es necesaria la creación de los elementos de función de red virtualizada
(VNFs, Virtualized Network Functions).

Cada VNF realizará una función de red (router, switch, firewall, etc.) y la combinación de varias VNFs
servirá para implementar el segmento de red virtualizado. Es importante destacar este punto, pues
una VNF en sí misma no aporta una solución NFV, sino que es la agrupación de los mismos de
manera ordenada lo que permite obtener el resultado deseado.
En general, la virtualización de elementos (utilizada para PCs y servidores desde hace un tiempo a
través de plataformas como VMWare), puede enfocarse hacia los siguientes elementos:
 Dispositivos de función de red: switches, routers, puntos de acceso a red, CPEs (Customer
Premise Equipments).
 Dispositivos de IT relacionados con red: firewalls, sistemas IDS (Intrusion Detection Systems),
sistemas de gestión de dispositivos de red.
 Almacenamiento enlazado a red: NAS (Network Attached Storage): servidores de archivos o
bases de datos conectados a la red.
De esta manera se consigue sustituir elementos realmente complejos y especializados con sistemas
equivalentes que se ejecutan sobre hardware genérico. Cada fabricante/desarrollador podrá ofertar
diferentes VNFs, que los proveedores podrán combinar de forma que cubran la necesidad de la
solución de la mejor forma posible.
No obstante, deben tenerse en cuenta las siguientes consideraciones:
 Implementaciones multifabricante: COTS (Commercial off the Shelf, cualquier dispositivo).
 Control de ciclo de vida e interacciones entre las diferentes funciones.
 Control de los recursos hardware asociados.
 Monitorización del uso.
 Configuración de las diferentes VNFs.
 Necesidades de las interconexiones entre las entidades para poder asegurar el servicio.
 Interacción con OSSs y BSSs (sistemas de operación y facturación de los proveedores).
La ETSI (European Telecommunications Standards Institute) creó un grupo dedicado al control de
iniciativas basadas en tres criterios principales:
 Decoupling: separación total de hadware y software.
 Flexibilidad: implementación automatizada y escalable de funciones de red.
 Operaciones dinámicas: control adecuado de los parámetros de operación de las funciones de
red a través de control pormenorizado y monitorización del estado de la red.
De manera resumida, podríamos dividir el framework en tres bloques principales, que se describen a
continuación:
 Network Functions Virtualization Infrastructure (NFVI): constituye la base general de la
arquitectura; contiene el hardware para alojar las máquinas virtuales, el software que hace
posible la virtualización y los propios recursos virtualizados.
 Virtualized Network Function (VNF): utiliza las máquinas virtuales que ofrece el bloque NFVI,
construyendo sobre ellas las funciones virtualizadas de red añadiendo el software necesario.
 Management and Orchestration (MANO): MANO se define como un bloque separado dentro
de la arquitectura, que interactúa tanto con NFVI como con VNF. Se delega en esta capa toda
la gestión de los recursos de la capa de infraestructura (incluyendo la creación, borrado y
reserva de espacio necesarios para la gestión de las diferentes máquinas virtuales). Debe por
tanto poder conocer el nivel de uso, estado, estadísticas y resto de parámetros asociados a
cada uno de los elementos.

Ventajas
Las ventajas de la aplicación de NFV son claras respecto al enfoque de redes “clásicas”; algunas de
ellas son las siguientes:
 Simplificar la implantación de elementos de red: se pasa de soluciones complicadas,
jerarquizadas y específicas a soluciones más flexibles, que permiten una implantación más
sencilla y modificaciones más rápidas y de menor impacto.
 Conseguir mayor velocidad en el despliegue de elementos de red: se pasa de depender de una
 Conseguir mayor velocidad en el despliegue de elementos de red: se pasa de depender de una
implantación hardware complicada y larga a implantaciones software directas, mucho más
rápidas.
 Aumento en la escalabilidad de la red: ya no se necesita un número tan elevado de equipos
hardware para escalar la red, puesto que con los elementos virtualizados puede realizarse de
forma directa hasta conseguir ratios muy elevados.
 Independencia de los fabricantes de equipos: se elimina la dependencia de ciertos grandes
fabricantes para algunas soluciones, lo que aminora los costes y permite evoluciones más
rápidas.
 Interoperabilidad (estándares abiertos): permite asegurar la compatibilidad entre diferentes
elementos que cumplan la norma del framework general.
 Seguridad: mediante la orquestación y visión conjunta de los diferentes elementos de red a
través de sistemas de gestión común, se mejoran las capacidades de seguridad de la red;
además, se puede dotar a los clientes de un espacio virtual para sus configuraciones
personalizadas de firewall y seguridad, sin afectar al resto de la red.
 Menor Time-To-Market: la comercialización de los productos de los proveedores podrá
hacerse de una forma mucho más rápida, evitando perder oportunidades de negocio por
largos plazos de implantación de servicios físicos.
 Ahorro de costes:
o Reducción de la inversión requerida (CapEx, Capital Expenses)
o Reducción del coste de operación (OpEx, Operation Expenses)
o Redes Definidas Por Software – (SDN)

Redes definidas por software (SDN)

Las redes definidas por software (SDN, Software Defined Networking) incluyen varios tipos de
tecnologías, tales como: orquestación, virtualización y red superpuesta. Cuando se implementan en
conjunto, hacen la red más ágil y flexible. Ejemplo de ello es la infraestructura de servidores y
almacenamiento virtualizado de los centros de datos, que se simula mediante medios electrónicos.
Desde una perspectiva no centrada en una definición estricta, las SDN pueden considerarse un
conjunto de procesos de adopción de herramientas y metodologías de gestión de redes y seguridad
orientadas a otorgar mayor flexibilidad y escalabilidad a todo cambio en el negocio que impacte
sobre la infraestructura tecnológica, sin alterar sus estándares de seguridad y su calidad de gestión, y
aumentado la calidad y velocidad de implementación de estos. Toda organización que emprenda el
camino de buscar e implementar metodologías y herramientas que tiendan a automatizar los
procesos de gestión de las redes y la seguridad estará ingresando al entorno de las SDN.
El objetivo de SDN es permitir a los administradores de TI responder rápidamente a las necesidades
de los negocios, por medio de un control centralizado basado en el software. Los planos de control y
reenvío proporcionan una visión centralizada de red distribuida, orquestada y automatizada para
que el administrador pueda tener servicios más eficientes.
La virtualización de funciones de red (NFV) y las SDN están relacionadas. NFV se puede implementar
sin SDN y mutuamente, pero los dos conceptos y soluciones deben combinarse para ser más
eficientes y beneficiarse mutuamente.
En realidad, SDN hace a NFV más atractivo y viceversa, porque una red definida por software
contribuye a la automatización de su infraestructura, lo que permite la toma de decisiones basadas
en políticas diseñadas para orquestar el tráfico de la red. Y por el lado de la virtualización, las
funciones de red actúan directamente sobre los servicios, garantizando su capacidad, al alinearlos
con los elementos virtualizados.
Para ser más escalables, ágiles e innovadoras, SDN y NFV tienen un enfoque basado en software,
proporcionando una mejor alineación de sus componentes, apoyando los objetivos de TI de una
empresa.
Ya los servicios de NFV proporcionan la capacidad de ajustar y modificar los recursos de red en
tiempo real, ofreciendo experiencias personalizadas a los clientes. En un mundo perfecto, la
infraestructura evoluciona al mismo ritmo que las aplicaciones y los servicios relacionados. Sin
embargo, en el mundo actual las redes utilizan una sola cadena servicios. Es decir, estas redes están
limitadas a un proceso, que se puede superar con el uso de tecnologías SDN y NFV para lograr el
máximo rendimiento.

Definición
Las SDN incorporan diferentes conceptos generales y relacionados que permiten acercarse a una
definición más estricta, como:
 Automatización de las redes (Network Automation).
 Programación de las redes (Network Programmability).
 Controlador de red centralizado (Network Controller).
 Interfaces y APIs.
 Separación de Hardware y Software de Red (Bare Metal Networking, White Boxes).
Una SDN puede definirse como la separación física del plano de control de red (network control
plane) del plano de reenvío de red (forwarding plane), donde el primero es el encargado de
controlar los dispositivos de la red al ser directamente programable y permitir que la infraestructura
desplegada pueda ser abstraída a las aplicaciones y servicios de red.

Principios
SDN es una arquitectura que debe presentar los siguientes principios:
 Programable: El control de la red a través del plano de control es directamente programable
porque se encuentra desacoplado de las funciones de procesamiento, almacenamiento y
reenvío de datos de red.
 Ágil: La abstracción y separación de los planos habilita a los administradores ajustar
dinámicamente los parámetros de la red de forma general, grupal o especifica según la
necesidad de cambio.
 Administrable de forma centralizada: La función de inteligencia, definición, validación e
implementación de las políticas de red se definen desde una única ubicación central
(generalmente en un controlador de red basado en software), que posee una visión global de
la red y se presenta hacia las aplicaciones y los dispositivos de red que forman el plano de
reenvío de red.
• Configurable programáticamente: Se permite a los administradores de red configurar, dar
seguridad, operar y optimizar la red de forma rápida y eficiente a través de programas de
automatización de red. Inclusive los mismos administradores de red pueden desarrollar sus
automatización de red. Inclusive los mismos administradores de red pueden desarrollar sus
propios programas o procedimientos al no depender de software propietario.
• Basada en estándares abiertos y neutralidad de fabricantes: Al implementar SDN con
estándares abiertos, la arquitectura de red se simplifica en diseño y operación, utilizado
controladores de red basados en software en contraposición a múltiples dispositivos,
herramientas y protocolos dispares, provenientes de diferentes fabricantes.

Arquitectura estándar
Considerando la perspectiva de la operación y funcionamiento de SDN una arquitectura genérica de
SDN cuenta con tres capas básicas:

Capa de aplicación
En la capa de aplicación se encuentran las aplicaciones del negocio o el software de administración
de la red que definirán las políticas de red a establecer o cambiar a través de la capa de control.
En general las aplicaciones de esta capa estarán basadas en web y desarrolladas en lenguajes de alto
nivel como Python, JS, java, php, etc. Como protocolo de comunicación con la capa de control se
utilizarán APIs de tipo REST, principalmente gracias a su facilidad de uso, versatilidad y a su
capacidad de integración dentro de la lógica de las aplicaciones.
Se denominan interfaces de frontera norte (Northbound Interfaces) a toda API que establezca una
comunicación entre las aplicaciones de la capa de aplicación y el controlador (generalmente llamado
SDN Controller) de la capa de control.
El controlador se abstraerá de la complejidad de las aplicaciones en la capa superior. Solo recibirá
instrucciones, parámetros y configuraciones en formato REST que serán validados, procesados y
preparados para su envío a las capas inferiores.
Las aplicaciones de negocio pueden integrar en su diseño la lógica necesaria para responder ante los
cambios sobre su contexto o propio funcionamiento, disparado, por ejemplo, modificaciones en su
capacidad de concurrencia y/o velocidad de respuesta y/o seguridad. Estos cambios, a su vez,
provocarán cambios sobre las políticas de red y seguridad de la infraestructura tecnológica, como
por ejemplo ampliar la generación de reglas de control de acceso de red por el despliegue de nuevas
réplicas de la aplicación, o incrementar el ancho de banda disponible ante el traspaso de umbrales
de consumo de capacidad de red disponible. Las aplicaciones podrán entonces iniciar la ejecución de
cambios en su funcionamiento que se propagarán hacia las capas inferiores de la arquitectura de
SDN, hasta modificar la configuración del equipamiento de red como conmutadores (switches),
enrutadores (routers), contafuegos (firewalls), balanceadores de carga, etc.
En lo que respecta al software de administración de red presente en la capa de aplicación, se podrán
definir políticas de comportamiento de las aplicaciones; umbrales de capacidad, disponibilidad y
seguridad; y cambios en los servicios de red asociados a las aplicaciones de negocio.

Capa de control
Para toda clase de software presente en la capa de aplicación, las políticas de red que se necesiten
aplicar deberán ser validadas por la capa de control y convertidas en instrucciones claras y concisas
a implementar sobre la capa de infraestructura.
La capa de control se encargará de congeniar el estado deseable de la política de red buscada por el
negocio con las capacidades, condiciones y restricciones presentes en la capa de infraestructura.
negocio con las capacidades, condiciones y restricciones presentes en la capa de infraestructura.
El componente fundamental de la capa de control es el controlador SDN (SDN Controller) que
recibirá las políticas desde los protocolos implementados en la interfaz de frontera norte
(Northbound Interface), las validará, las traducirá en reglas y las ejecutara vía la interfaz de frontera
sur (Southbound Interface) a través de diferentes protocolos de comunicación.
Los protocolos de comunicación hacia la capa de infraestructura son más numerosos, y se puede
encontrar SNMP (Protocolo simple de administración de red que opera en la capa de aplicación y
que facilita el intercambio de información de administración entre dispositivos de red) como la
alternativa tradicional y de uso extendido, pero además existen otras alternativas tecnológicas como
Netconf, OpenFlow o OVSDB.
De los protocolos mencionados previamente, OpenFlow fue el primero en implementar los principios
de operación de SDN al aplicar la separación entre el control del estado de la red, y el trabajo de
reenvío y procesamiento de datos en cada dispositivo de red. El uso de OpenFlow en un controlador
SDN habilita la implementación de redes más complejas, que poseen requisitos de tráficos de red
diferenciados y precisos, con altos estándares de seguridad. Cualquier dispositivo de red en
ejecución sobre la capa de transporte, red o enlace del modelo OSI que soporte el protocolo
OpenFlow sólo estará a la espera de aplicar y guardar en sus tablas las reglas de operación y de
seguridad correspondientes a la política validada por el controlador.
Como consecuencia, el equipamiento de red reduce su complejidad al delegar el control al
controlador y se aumenta su interoperabilidad e independencia entre diferentes fabricantes, se
mejora capacidad de recambio de hardware sin disrupciones de servicio, y se incrementa la
escalabilidad al simplemente conectar más equipamiento a la red sin configuraciones o gestiones
complejas.

Capa de infraestructura
Las transformaciones sobre los principios de gestión de las redes y la seguridad impuestas por SDN
produjo un cambio en la fabricación del equipamiento informático y de comunicaciones. El objetivo
de la capa de infraestructura es la implementación en hardware y software de las reglas
establecidas por el controlador SDN mediante la utilización de un protocolo de comunicación de
frontera sur (Southbound interface) como OpenFlow.
Por lo tanto, se considera que todo equipamiento de red que se encuentre en esta capa realiza tres
funciones principales:
• Recibe configuraciones y reglas a insertar por el plano de control, y las aplica en sus tablas de
reenvío (paquetes o tramas según su capa).
• Mantiene y controla el estado de sus componentes. Puede manejar fallas sobre los enlaces.
• Mantiene y envía estadísticas generales sobre su funcionamiento, y sobre el estado de sus
interfaces.
La simplificación de las funciones de red, la inteligencia de sus operaciones y la separación de su
gestión hacia el controlador potenció la aparición de equipamiento genérico, interoperable e
independiente de fabricantes, basados en sistemas operativos de código abierto como Linux.
Otro resultado es la separación del equipamiento de hardware y el software, transformando al
primero en estándar y genérico (White box networking), y apareciendo compañías especializadas en
sistemas operativos y servicios de redes.
Algunas de estas compañías son Cumulus Networks, Big Switch Networks y Pica8, y solo ofrecen
soluciones de redes basadas en software. Actualmente existen compañías como Dell o HP que
soportan estos sistemas operativos de terceros en sus plataformas de hardware.
Cloud computing
La computación en la nube (cloud computing), conocida también como servicios en la nube,
informática en la nube, nube de cómputo, nube de conceptos o simplemente «la nube» es un
paradigma que permite ofrecer servicios de computación a través de una red, que usualmente es
Internet.
Cloud computing es un nuevo modelo de prestación de servicios de negocio y tecnología que
permite incluso al usuario acceder a un catálogo de servicios estandarizados y responder con ellos a
las necesidades de su negocio, de forma flexible y adaptativa, en caso de demandas no previsibles o
de picos de trabajo, pagando únicamente por el consumo efectuado.
La computación en la nube consigue aportar estas ventajas, apoyándose sobre una infraestructura
tecnológica dinámica que se caracteriza, entre otros factores, por un alto grado de automatización,
una rápida movilización de los recursos, una elevada capacidad de adaptación para atender a una
demanda variable, así como virtualización avanzada y un precio flexible en función del consumo
realizado, evitando además el uso fraudulento del software y la piratería.

Modalidades
Un servicio en la nube puede darse en 3 modalidades:
• Infraestructura como Servicio (IaaS): se refiere a la tercerización de los equipos utilizados para
apoyar las operaciones, incluido el almacenamiento, hardware, servidores y componentes de
red.

• Plataforma como servicio (PaaS): es un conjunto de utilitarios para abastecer al usuario de


sistemas operativos y servicios asociados a través de Internet sin necesidad de descargas o
instalación alguna.

• Software como servicio (SaaS): es un modelo de distribución de software en el que las


aplicaciones están alojadas por una compañía o proveedor de servicio y puestas a disposición
aplicaciones están alojadas por una compañía o proveedor de servicio y puestas a disposición
de los usuarios a través de una red, generalmente la Internet.

La virtualización de funciones de red tiene una estrecha relación con las soluciones de cloud
computing, por lo que se adaptan a sus modelos de servicios.
A las modalidades IaaS, PaaS y SaaS se agrega la de on premise, o "en local", la cual se refiere al tipo
de instalación de una solución de software. Esta instalación se lleva a cabo dentro del servidor y la
infraestructura (TIC) de la empresa. Es el modelo tradicional de aplicaciones empresariales. Así, la
empresa es la responsable de la seguridad, disponibilidad y gestión del software. Por lo que la
empresa debe tener un departamento de sistemas que dedique parte de sus recursos a la gestión de
la infraestructura in situ. La instalación on premise ofrece ventajas como una mayor control, pero la
inversión inicial es más arriesgada.

Tipos de nubes
Las nubes se clasifican en públicas, privadas, híbridas o comunitarias:
Nube pública
La nube pública es una nube computacional mantenida y gestionada por terceras personas no
vinculadas con la organización. En este tipo de nubes tanto los datos como los procesos de varios
clientes se ejecutan en los servidores, sistemas de almacenamiento y otras infraestructuras de la
nube.
Los usuarios finales de la nube no conocen qué trabajos de otros clientes pueden estar corriendo en
el mismo servidor, red, sistemas de almacenamiento, etc.
Aplicaciones, almacenamiento y otros recursos están disponibles al público a través del proveedor
de servicios, que es propietario de toda la infraestructura en sus centros de datos; el acceso a los
servicios solo se ofrece de manera remota, normalmente a través de Internet.
Dentro de estas nubes podemos encontrar englobadas las Cloud Privadas Virtuales, consideradas
como nubes de dominio público pero que mejoran la seguridad de los datos. Estos datos se
encriptan a través de la implantación de una VPN.

Nubes privadas
Las nubes privadas existen en una infraestructura bajo demanda, gestionada para un solo cliente
que controla qué aplicaciones deben ejecutarse y dónde. Son propietarios del servidor, red, y disco y
pueden decidir qué usuarios están autorizados a utilizar la infraestructura. Al administrar
internamente estos servicios, las empresas tienen la ventaja de mantener la privacidad de su
información y permitir unificar el acceso a las aplicaciones corporativas de sus usuarios. Son una
buena opción para las compañías que necesitan alta protección de datos y ediciones a nivel de
servicio.

Nubes híbridas
Las nubes híbridas combinan los modelos de nubes públicas y privadas. Un usuario es propietario de
algunas partes y comparte otras, aunque de una manera controlada. Las nubes híbridas ofrecen la
promesa del escalado, aprovisionada externamente, a demanda, pero añaden la complejidad de
determinar cómo distribuir las aplicaciones a través de estos ambientes diferentes. Las empresas
pueden sentir cierta atracción por la promesa de una nube híbrida, pero esta opción, al menos
inicialmente, estará probablemente reservada a aplicaciones simples sin condicionantes, que no
requieran de ninguna sincronización o necesiten bases de datos complejas. Se unen mediante la
tecnología, pues permiten enviar datos o aplicaciones entre ellas. Un ejemplo son los sistemas de
correo electrónico empresarial.

Nubes comunitarias
Se define el modelo de nube comunitaria como aquel que se organiza con la finalidad de servir a
una función o propósito común (seguridad, política, etc.), las cuales son administradas por las
organizaciones constituyentes o terceras partes.

Ventajas
Las principales ventajas de la computación en la nube son:
 Integración probada de servicios red: Por su naturaleza, la tecnología de cloud computing se
puede integrar con mucha mayor facilidad y rapidez con el resto de las aplicaciones
puede integrar con mucha mayor facilidad y rapidez con el resto de las aplicaciones
empresariales.
 Prestación de servicios a nivel mundial: Las infraestructuras de cloud computing proporcionan
mayor capacidad de adaptación, recuperación completa de pérdida de datos (con copias de
seguridad) y reducción al mínimo de los tiempos de inactividad.
 Una infraestructura 100 % de cloud computing permite también al proveedor de contenidos o
servicios en la nube prescindir de instalar cualquier tipo de software, ya que este es provisto
por el proveedor de la infraestructura o la plataforma en la nube. Un gran beneficio del cloud
computing es la simplicidad y el hecho de que requiera mucha menor inversión para empezar
a trabajar.
 Implementación más rápida y con menos riesgos, ya que se comienza a trabajar más rápido y
no es necesaria una gran inversión. Las aplicaciones del cloud computing suelen estar
disponibles en cuestión de días u horas en lugar de semanas o meses, incluso con un nivel
considerable de personalización o integración.
 Actualizaciones automáticas que no afectan negativamente a los recursos de TI. Al actualizar
a la última versión de las aplicaciones, el usuario se ve obligado a dedicar tiempo y recursos
para volver a personalizar e integrar la aplicación. Con el cloud computing no hay que decidir
entre actualizar y conservar el trabajo, dado que esas personalizaciones e integraciones se
conservan automáticamente durante la actualización.
 Contribuye al uso eficiente de la energía. En este caso, a la energía requerida para el
funcionamiento de la infraestructura. En los datacenters tradicionales, los servidores
consumen mucha más energía de la requerida realmente. En cambio, en las nubes, la energía
consumida es solo la necesaria, reduciendo notablemente el desperdicio.

Desventajas
 La centralización de las aplicaciones y el almacenamiento de los datos origina una
dependencia de los proveedores de servicios.
 La disponibilidad de las aplicaciones está sujeta a la disponibilidad de acceso a Internet.
 La confiabilidad de los servicios depende de la "salud" tecnológica y financiera de los
proveedores de servicios en nube. Empresas emergentes o alianzas entre empresas podrían
crear un ambiente propicio para el monopolio y el crecimiento exagerado en los servicios.
 Seguridad. La información de la empresa debe recorrer diferentes modos para llegar a su
destino, cada uno de ellos (y sus canales) son un foco de inseguridad. Si se utilizan protocolos
seguros, HTTPS por ejemplo, la velocidad total disminuye debido a la sobrecarga que estos
requieren.
 Escalabilidad a largo plazo. A medida que más usuarios empiecen a compartir la
infraestructura de la nube, la sobrecarga en los servidores de los proveedores aumentará, si la
empresa no posee un esquema de crecimiento óptimo puede llevar a degradaciones en el
servicio.

También podría gustarte