Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Encapsulamiento
El encapsulamiento es un procedimiento por el cual una unidad de dato de protocolo (PDU) se completa con
información de direccionamiento y control para la correcta interpretación y procesamiento en las capas superiores. La
información complementaria se adiciona en forma de encabezado o cola al contenido del mensaje de capa superior.
Cada capa del modelo OSI maneja diferente información. Los datos que posee una capa son interpretados sólo por ésta
Cada capa del modelo OSI maneja diferente información. Los datos que posee una capa son interpretados sólo por ésta
y, para ser enviada a un dispositivo, se le añade un encabezado para que la siguiente capa pueda interpretar hacia
dónde deben ir los datos (el "mensaje) que se están enviando.
Un mensaje, al ser enviado a través de una aplicación, pasa a la capa de transporte. En esa capa se añade la información
de los puertos de origen y destino para que el dispositivo del receptor sepa a través de qué aplicación se está
estableciendo la comunicación. Al añadirse esta información, el mensaje pasa a llamarse segmento.
El segmento pasa a la capa de Internet. En la misma se añade la información de las direcciones IP de origen y destino
que determinan la interfaz de red (elemento de comunicación/conexión) de los dispositivos que establecen la
comunicación. Al añadirse esta información, el segmento pasa a llamarse paquete.
El paquete pasa a la capa de enlace. Allí se añade la información de las direcciones MAC de origen y destino que
determinan la identificación de las tarjetas de red que establecen la comunicación. Al añadirse esta información, el
paquete pasa a llamarse trama.
Los dispositivos de una red se identifican a través de la dirección IP privada y la dirección MAC local. Al enviar mensajes
por Internet, esos datos se modifican: el mensaje sale a Internet con la dirección IP pública y la dirección MAC del router
que establece la conexión.
La trama pasa a la capa física. Esta capa convierte la trama en bits (1 y 0) para que viajen a través de la red, sea a través
de cables físicos o de ondas inalámbricas.
Cada dispositivo entiende distintas partes de la información que se envía: sólo podrá descifrar la parte que necesita
entender para poder transmitir el mensaje a su destino.
Arquitectura TCP/IP
La arquitectura TCP/IP se caracteriza por:
• Arquitectura abierta y estándar: Ideal para comunicar diferentes plataformas de hardware o software.
• Independiente del hardware de red: Permite integrar diferentes clases de redes (Ethernet, Token Ring, Wireless).
• Esquema de direcciones: Permite identificar de forma unívoca a cada red y a cada host dentro de ella.
Las capas de las cuales se compone esta arquitectura son:
Las capas de las cuales se compone esta arquitectura son:
Capa de transporte
La capa de transporte utiliza dos protocolos:
• Transport Control Protocol (TCP): Proporciona un flujo de bytes confiable de extremo a extremo a través de redes
no confiables con diferentes topologías, anchos de banda, retardos, tamaños de paquete y otros parámetros. Se
diseñó para adaptarse de manera dinámica a las propiedades de las redes y sobreponerse a muchos tipos de
fallas.
• User Datagram Protocol (UDP): Proporciona una forma para que las aplicaciones envíen datagramas IP
encapsulados sin tener que establecer una conexión.
encapsulados sin tener que establecer una conexión.
Capa de Internet
La capa de Internet utiliza el protocolo IP:
Capa de aplicación
El Sistema de Nombres de Dominio (DNS, Domain Name System) es la manera existente de identificar los diferentes
sitios de Internet que se quieren acceder. De esta manera, una dirección IP se asocia con un determinado nombre de
dominio que hace más sencillo su acceso.
El DNS utiliza una estructura de nombres jerárquica denominada Estructura de Nombres de Dominio (Domain Name
Space), el cual incluye a todos los dominios que integran Internet. Este espacio consiste en una base de datos
descentralizada, es decir, repartida en diferentes lugares del planeta, la cual guarda todas las asociaciones de
direcciones IP con nombres de dominio.
Autoridad y delegación
Toda organización que administra un nodo (o varios nodos), lo hace de forma autoritativa, en referencia a que puede
disponer de su porción del espacio de dominio de la manera que le resulte más eficiente y ordenada. A su vez, es
posible delegar autoridad en niveles inferiores que dependen del nodo superior, atravesando toda la jerarquía del
dominio del cual es responsable. El dueño de un dominio podrá disponer del espacio de nombre delegado.
dominio del cual es responsable. El dueño de un dominio podrá disponer del espacio de nombre delegado.
La autoridad sobre los dominios ROOT recae en la ICANN (Internet Corporation for Assigned Numbers And Names).
ICANN delega a organizaciones denominadas entidades registrantes (accredited registrars) la responsabilidad de la
venta y la administración de partes del espacio de nombres de dominio.
• Los gTLDs son administrados de forma autoritativa por la ICANN y delegados a determinadas entidades
registrantes.
• Los ccTLDs son delegados por la ICANN a los respectivos países para su propia administración.
Implementación de DNS
La implementación de DNS consiste en el hardware y software necesario para que el sistema de nombres cumpla con su
función principal: la resolución de nombres (name resolution).
Los servidores de nombres son equipos dedicados que almacenan información de dominio y proporcionan la función de
resolución de nombres. Su disposición sigue los lineamientos de la jerarquía de dominios y la estructura de autoridad y
delegación.
Cada entidad autoritativa que es responsable de una porción del espacio de dominios requiere que toda su información
sea mantenida en servidores DNS.
Los ROOT Name Servers son los recursos más críticos en Internet. El trabajo de los servidores ROOT es proveer una
derivación o referencia (referral) hacia los servidores de nombres autoritativos para los requeridos TLDs (ccTLDs o
gTLDs). La consulta hacia los servidores ROOT se inicia cuando cualquier servidor de nombres no puede resolver
(responder) una petición de un nombre.
Componentes
La implementación DNS consta de los siguientes componentes:
1. Información que describe un dominio contenida en los archivos de zona (zone files).
2. Un programa o librería encargado del proceso de resolución (respuesta).
3. El software de DNS.
1. Archivos de zona
Los archivos de zona describen las características generales del dominio y a los hosts que lo integran. Estos datos se
encuentran dispuestos en registros (resourse records) y éstos organizados en archivos de zona. Sus registros más
relevantes son:
relevantes son:
• Start of Authority (SOA): Registros que detallan la autoridad de la zona.
• Address (A): Registro que describe el atributo de nombre para los recursos que componen la zona.
• Address (AAAA): Registro que describe el nombre para recursos con direcciones IPv6.
• Mail Exchange (MX): Registros para los servidores de correo de la zona.
• Name Server (NS): Registros que detallan cuáles son los servidores de nombre autoritativos para el dominio.
2. Programa de resolución
El programa de resolución es la parte "cliente" del DNS. Existe en todo host y es responsable de iniciar y secuenciar las
consultas (queries) que finalmente generaran la resolución del recurso, como la traducción de un dominio en una
dirección IP.
La resolución implica interactuar con uno o más servidores de nombre para encontrar la información necesitada.
Existen programas de resolución (resolvers) denominados stub resolvers, de una reducida complejidad. Se comunican a
un único name server con capacidad de recursión, para que pueda efectuar la búsqueda y devolverla al host.
3. Software DNS
El software DNS realiza 3 tareas fundamentales:
• Leer los parámetros y registros en los archivos de zona, que describe para cuáles dominios el servidor es
autoritativo.
• Toma la configuración del programa para determinar cómo será el funcionamiento del servidor de nombres (si
cachea o no consultas, si es recursivo o no, si inicia transferencias de zona, etc.).
• Responde a consultas (queries) de hosts locales o remotos (resolvers u otros name servers).
Resolución DNS
Servicios de Internet
martes, 31 de agosto de 2021 21:12
Los servicios de Internet son los que le dan sentido al uso de la red. Fueron surgiendo a lo largo de la historia de manera
informal (ya que no existe un ente que gobierne Internet), la gran mayoría de ellos como documentos.
URI y URL
Se requiere un mecanismo que permita identificar de manera objetiva en qué lugar se encuentra un determinado
recurso de Internet. Para ello es que se inventaron los mecanismos de URI y URL:
El URI es un estándar de internet que provee un medio simple y extensible para identificar un recurso. Consiste en una
secuencia concisa y precisa de caracteres que permiten identificar un recurso físico o abstracto de forma unívoca. Su
nombre se compone de los siguientes términos:
• Uniforme: Existen un mecanismo conocido para identificar un recurso y su método de acceso.
• Recurso: Todo elemento que puede ser identificado.
• Identificador: Información requerida para distinguir lo que está siendo identificado de otros objetos.
El URI es la sumatoria de la URL y el URN.
El URN identifica la identidad de un recurso. Se definió para establecer identificadores de recursos
independientemente de la ubicación de los mismos. Es el caso, por ejemplo, del ISBN de un libro.
La URL es una estructura que señala a un cliente la manera de acceder a determinado recurso y si es necesario
utilizar otro cliente para acceder al servicio. Permite que un recurso pueda ser identificado basándose en su
ubicación y el método por el cual este puede ser accedido. Se utiliza para identificar recursos en la capa de
aplicación TCP/IP por su simpleza.
La estructura de una URL es:
<scheme>://<usuario>:<password>@<host>:<port>/<url-path>;<params>?<query>#<fragment>
Scheme o esquema hace referencia al tipo de método de acceso, que describe la forma por el cual el recurso será
utilizado. Generalmente hace referencia a un protocolo de aplicación como HTTP o FTP, o un recurso como un archivo
(FILE).
El resto de la sintaxis está condicionada a parámetros que puedan ser propios del esquema utilizado. Todo método o
protocolo de acceso requiere de información particular para poder identificar el recurso.
La estructura de la URL para acceder a un servicio de Internet varía según el servicio de que se trate:
SMTP
El SMTP es un protocolo estándar de Internet encargado de la transferencia de correo electrónico de manera confiable y
eficiente. Dado que el correo electrónico no requiere la permanente conexión a Internet, este protocolo es
independiente de sistema de transmisión subyacente y solo requiere de un canal que le permita en envío de datos de
forma ordenada. El servicio Microsoft Exchange, por ejemplo, utiliza este protocolo.
Existen desarrollos propietarios y abiertos que adoptaron las especificaciones del protocolo para crear servicios de
transferencia de correo.
El protocolo se puede implementar a través de tres alternativas principales:
1. Mediante el puerto 25 del protocolo TCP: El establecimiento de la sesión y la transferencia de correo se realiza en
texto plano.
2. Mediante el puerto 465 del protocolo TCP: Primero se establece una sesión SSL/TLS y luego se inician la sesión y
transferencia vía SMTP. Esta alternativa se denomina SMTPS. Agrega confidencialidad e integridad.
3. Mediante el puerto 587: El protocolo SMTP implementa mecanismos especificados en su funcionamiento para
crear un canal seguro de comunicación. Agrega confidencialidad e integridad. Alternativa recomendada
actualmente para iniciar transferencias entre clientes y servidores SMTP.
Su funcionamiento básico es el siguiente:
POP3
POP3 es un protocolo simple, en donde el cliente se conectará al servidor POPv3 a través del puerto 110 TCP y
descargará los mensajes recibidos en su buzón, almacenándolos en su equipo local. Los mensajes descargados se
eliminan del servidor. Lo utilizan, por ejemplo, Gmail y Yahoo! Mail.
Puede ser implementado de forma segura utilizando mecanismos de cifrado. Para esto, el protocolo POP3 puede
establecer una conexión SSL/TLS y luego iniciar una sesión POP3 a través del puerto 995.
Su funcionamiento básico es el siguiente:
Su funcionamiento básico es el siguiente:
IMAP
IMAP es un protocolo de capa de aplicación que describe el proceso de acceso y recuperación de correo de un servidor
remoto. Utiliza TCP para la transmisión de datos a través del puerto 143.
IMAP puede utilizarse sobre una conexión SSL/TLS previa, para garantizar integridad y confidencialidad. Esta alternativa
de conexión utiliza el puerto 993 (IMAPS).
Como alternativa a POP, IMAP agrega más funcionalidades:
• Permite que los mensajes se guarden en el servidor hasta que el cliente decida eliminarlos.
• Permite la conexión simultanea de múltiples clientes (UA, User Agents) para el manejo de la misma casilla de
usuario.
• Creación de flags en mensajes para rastrear los mensajes leídos o respondidos.
• Manejo de múltiples casillas.
• Determinar qué información contiene un mensaje antes de descargarlo, para decidir si debe ser recogido o no.
• Descarga de porciones de un mensaje.
Su funcionamiento básico es el siguiente:
Transferencia de archivos
File Transfer Protocol (FTP)
FTP es un protocolo estándar de Internet que describe como realizar la transferencia de archivos desde un host hacia
otro host a través de una red TCP/IP como Internet. Fue el protocolo más utilizado para la actualización de contenidos
web, ya que permite subir archivos muy fácilmente a un servidor de Internet.
Actualmente se utiliza integrado a un editor de páginas Web o un WCMS y su utilización como servicio de transferencia
es reemplazado por alternativas más eficientes y seguras.
Puede ser utilizado con TLS/SSL para cifrar la transmisión del protocolo debido a que los datos de autenticación como los
archivos a transmitir se envían en texto plano.
Su funcionamiento básico es el siguiente:
Server Message Block (SMB)/Common Internet File System (CIFS)
Los protocolos SMB y CIFS definen un estándar para el acceso a archivos desde diferentes plataformas (Windows,
Linux,Unix, MacOS X, *BSD, Novell Netware).
SMB fue originariamente diseñada para funcionar sobre la NetBIOS/NetBEUI. Desde Windows 2000 se fue adoptando
con más popularidad implementar SMB directamente sobre TCP en el puerto 445, lo que Microsoft denomina “Direct
Host SMB”.
SMB corriendo sobre NetBIOS utiliza los puertos 137/UDP, 138/UDP y 139 TCP. Corriendo directamente sobre TCP/IP
utiliza los puertos 445/TCP y 445/UDP
La implementación de CIFS para Linux, Unix, MacOS X y *BSD se llama Samba.
Distribución de información
El protocolo excluyente para la distribución de información es HTTP (HyperText Transfer Protocol). Es un protocolo de
capa de aplicación para sistemas que distribuyen información en hipertexto.
HTTP establece un estándar de sintaxis y semántica para la transmisión de contenido web sobre una infraestructura
cliente-servidor.
La información de hipertexto varía desde documentos de texto, como gráficos, tablas, sonidos, hasta videos,
aplicaciones, entre otras.
HTTP es un protocolo sin estado ya que no guarda ninguna información sobre conexiones anteriores. Por eso, cuando un
sitio requiere que el usuario se autentique requiere la utilización de otros mecanismos (ej.: cookies) para poder
mantener la sesión activa. De lo contrario, cuando finaliza la conexión no se guardarán las credenciales de usuario y éste
deberá volver a loguearse.
Este protocolo utiliza el puerto 80 TCP y puede utilizar el puerto 443 para iniciar conexiones seguras a través de SSL/TLS
(HTTPS).
HTTP 1.1 es la versión más utilizada. Sus propiedades son:
• Soporte de múltiples web hosts en un mismo servidor (Virtual Hosts): Cada servidor con su propia IP pueda alojar
numerosos sitios web con diferentes nombres de dominio.
• Conexiones persistentes (Persistent Connections): HTTP/1.1 posibilitó que un cliente pueda enviar múltiples
• Conexiones persistentes (Persistent Connections): HTTP/1.1 posibilitó que un cliente pueda enviar múltiples
peticiones de páginas y contenido web en una sola sesión TCP.
• Selección de recurso en forma parcial (Partial Resource Selection): En HTTP/1.1 un cliente puede pedir solamente
por una parte de un recurso.
• Negociación de contenido (Content Negotiation): Permite al cliente y servidor intercambiar información para
seleccionar la mejor representación de contenido web.
• Pipelining (Canalización): Por la misma sesión TCP, el cliente podrá enviar varios pedidos uno después de otro, sin
esperar a una respuesta del servidor para comenzar con el pedido nuevamente.
Dos conceptos clave para entender el funcionamiento del protocolo HTTP son:
• Hipertexto: Texto encontrado en un dispositivo electrónico que referencia a otro texto que puede ser
inmediatamente accedido por el usuario, generalmente con un click. El Lenguaje de Marcación de Hipertexto
(HTML, Hypertext Markup Language) define cómo los documentos con hipertexto deben ser construidos.
Hipervínculo: Referencia a otro documento. El usuario, al seleccionar un hipervínculo, provoca que el navegador
se redirija hacia el documento enlazado.
Los métodos HTTP son acciones a realizar sobre un recurso web. Algunos de ellos son, por ejemplo: GET, CONNECT,
HEAD, OPTIONS POST, PUT, DELETE, TRACE, PATCH.
Su funcionamiento básico es el siguiente:
Protocolo IPv4
viernes, 3 de septiembre de 2021 21:17
Todas las PCs utilizan el protocolo IP para poder identificar el dispositivo dentro de la red. Este
protocolo es el encargado de conducir los paquetes a través de la red hacia su destino. Cada paquete
tiene la suficiente información de control y transmisión y es considerado una entidad independiente
de los demás. Debido a la independencia de cada paquete, cada envío puede viajar a través de
diferentes caminos.
El protocolo IP se caracteriza por:
• Protocolo no orientado a la conexión: la conexión queda delegada a las capas superiores. El
paquete IP es enviado sin previa notificación al destino de su envío. El destino no devuelve
ninguna información al origen.
• Servicio de “mejor esfuerzo”: Su entrega no está garantizada. El paquete puede duplicarse,
perderse en el camino o corromperse.
• No posee mecanismo de reenvío de paquetes no entregados: Esto es encomendado a capas
superiores.
Dirección IP
La dirección IP está compuesta por 4 octetos de 8 bits cada uno, expresado en notación binaria.
Dado que el sistema binario es posicional, cada bit ocupa una posición de valor que permite luego
realizar la conversión al sistema decimal para poder expresar la dirección IP.
Características del protocolo IP
• Dirección de red: Toda dirección que tiene bits en 0 en el campo de hosts permite identificar
la red.
• Unicast (dirección de host): Dirección que identifica únicamente a un solo host. Las
comunicaciones unicast son de 1 dispositivo a otro dispositivo únicamente.
• Multicast: Dirección que identifica a un conjunto de hosts que presenta una característica
particular. Entre otras funciones, es utilizado en protocolos de enrutamiento para notificar a
un grupo de hosts del cambio en las condiciones de la red a la que pertenecen. Las
comunicaciones multicast son de 1 dispositivo a un grupo de dispositivos que comparten una
característica en común.
• Broadcast: Dirección identificada por todos los hosts que componen la red. Las
comunicaciones broadcast son de 1 dispositivo dirigido hacia muchos dispositivos.
• Dirección de loopback: Utilizada internamente por un host para que sus sistemas puedan
comprobar su funcionamiento. También es utilizada como red de comunicación interna del
host. Es una dirección lógica, no está asociada a una interfaz. Si el dispositivo está
funcionando, esta dirección debería responder.
Si bien la dirección IP permite identificar a una computadora dentro de una red, no es suficiente ya
que la dirección IP no dice por sí misma en qué red se encuentra dicha computadora. Para poder
identificar la red está la dirección de red y para poder identificar a todos los dispositivos que forman
parte de la red está la dirección de broadcast. Finalmente, las direcciones intermedias que se ubican
entre las dos mencionadas son las direcciones IP utilizables para poder identificar individualmente a
cada dispositivo dentro de la red. A este conjunto de direcciones se las denomina máscara de red y
permiten determinar el tamaño de esa red (es decir, dónde empieza y dónde termina).
Un router conoce dos direcciones: una es la dirección IP del proveedor que le permite intercambiar
paquetes con Internet. Luego tiene la dirección del propio router (default gateway) que es la que le
permite intercambiar paquetes con los dispositivos dentro de la red.
Agotamiento y evolución
Con el desarrollo del protocolo IPv4 no se consideró en su diseño el crecimiento de Internet y otros
factores relacionados como el incremento en el uso de dispositivos móviles, la actividad constante
de los hosts en Internet y la asignación de direcciones sin el control adecuado. A principios de la
década de los 90s se comenzaron a llevar a cabo acciones para demorar la ocupación de direcciones
disponibles y su eventual agotamiento.
Clase A
Se dice que una red es de clase A cuando todos los bits del primer octeto permite identificar a la red.
El resto de los bits identifican al dispositivo host.
Clase B
Se dice que una red es de clase B cuando los dos primeros octetos permiten identificar a la red. El
resto de los bits identifican al dispositivo host.
Clase C
Se dice que una red es de clase C cuando los tres primeros octetos permiten identificar a la red. El
resto de los bits identifican al dispositivo host.
Clase D
Una red de clase D es una red de difusión múltiple o multicast. Utiliza todos sus octetos para
identificar a la red.
Clase E
Las redes clase E son redes reservadas, no disponibles para su uso.
Subredes
La división de la red en subredes (conocida como Claseless Inter-Domain Routing, CIDR) es otro
método para administrar con mayor eficiencia la disponibilidad de direcciones IP, que se encuentran
un proceso de agotamiento. En principio consiste dividir las Clases de Direccionamiento IP completas
en redes de menor tamaño. Se utiliza una máscara de subred para dividir la red y generar
segmentos más pequeños, eficientes y administrables.
La capacidad para decidir cómo se divide la porción de host original en los nuevos campos de subred
y de host ofrece flexibilidad en el direccionamiento al administrador de red.
A partir del direccionamiento por Clase, la división en subredes permite aplicar un nivel adicional en
la generación de nuevas redes más eficientes.
A partir de CIDR es posible aplicar técnicas adicionales a la creación de subredes para mejorar
todavía más la eficiencia en la utilización de las redes.
El concepto de máscara de subred se introdujo luego de la segmentación de los bloques de
direcciones por clases (Classfull Addressing) como paliativo enfrentar las propias limitaciones de
direccionamiento del protocolo IP.
Problemas Soluciones
• Agotamiento de redes de Clase. • Se particionan redes: Por problemas de
• Ineficiencia en el uso de las Clases: Existencia de topología y de organización.
redes de Clase B y A con imposibilidad de • Se utilizan bits de host como bits de red: Se
ocuparse completamente. mueve la línea divisoria entre la dirección de
• Problemas de comunicación entre redes por red y la de host.
sobrecarga de tablas de enrutamiento en routers. • La subred es conocida localmente.
• Agotamiento de direcciones IP.
La máscara de subred es utilizada para poder determinar si la dirección IP de un host pertenece a
una red local o a una red remota. Un host integrante de una red local, mediante una operación AND
binaria entre la dirección IP del host destino y la máscara de subred de la red local podrá determinar
si el paquete a enviar pertenece a su red local o a una red remota.
La máscara de subred es un número de 32 bits compuesto únicamente por bits en uno para la
porción de red y únicamente por bits en cero para la porción de host.
Decisión de enrutamiento
El uso de máscaras de red cobra relevancia en el caso de que dos equipos que inician una
comunicación se encuentren en redes separadas.
En los límites de cada red local generalmente se encuentra un dispositivo denominado enrutador o
router, encargado de desencapsular la trama de capa 2 para leer la dirección IP destino del
encabezado del paquete de capa 3 que ingresa por su interfaz. Los enrutadores utilizan esta
dirección para determinar cuál camino es el que debe tomar el paquete para que llegue a su red
destino.
Cuando se determina el destino el enrutador vuelve a encapsular el paquete en una trama de capa 2
Cuando se determina el destino el enrutador vuelve a encapsular el paquete en una trama de capa 2
y lo envía por la interfaz de salida próxima a la red destino.
Protocolo Ethernet
martes, 7 de septiembre de 2021 21:00
Redes LAN
viernes, 10 de septiembre de 2021 21:13
Protocolo ARP
El protocolo ARP (Address Resolution Protocol) es el protocolo que se utiliza para trabajar con redes LAN. Permite a los
equipos de la red poder comunicarse entre ellos sin conocer su dirección MAC: sólo conocerán las direcciones IP.
Cada nodo de una red IP tiene tanto una dirección MAC como una dirección IP. Para enviar datos, el nodo debe utilizar
ambas direcciones. El nodo debe utilizar sus propias direcciones MAC e IP en los campos de origen y debe proporcionar
una dirección MAC y una dirección IP para el destino.
Una capa OSI superior proporciona la dirección IP del destino pero el nodo de envío necesita encontrar la dirección MAC
del destino para un enlace de Ethernet determinado. Encontrarla es el propósito del protocolo ARP.
El protocolo ARP ofrece dos funciones básicas:
1. Resolución de direcciones IPv4 a direcciones MAC.
2. Mantenimiento de una tabla de las asignaciones, es decir, de la correspondencia de direcciones MAC con
direcciones IP. Esta tabla se almacena localmente en el dispositivo y la misma, al momento de encender la
computadora, se encuentra vacía.
El protocolo ARP tiene como ventaja que permite resolver el problema de conocer las direcciones MAC sin necesidad de
que esto se resuelva en la capa 3, utilizando direcciones IP. La desventaja es que es poco eficiente debido a que la
petición de dirección MAC se realiza a través de una comunicación broadcast, es decir, enviando el paquete (trama) a
todos los dispositivos de la red. Si todos los dispositivos se encuentran haciendo broadcast la red se saturaría (lo cual
constituye muchas veces un ataque informático de denegación de servicio).
Operación
Paso 1
Pasos 2 y 3
Una solicitud de ARP es un broadcast de capa 2 que se transmite a todos los dispositivos en la LAN Ethernet. La solicitud
de ARP contiene la dirección IP del host de destino y la dirección MAC de broadcast, que se envía como FFFF.FFFF.FFFF.
Dado que se trata de un broadcast, todos los nodos en la LAN Ethernet reciben y examinan el contenido. El nodo cuya
Dado que se trata de un broadcast, todos los nodos en la LAN Ethernet reciben y examinan el contenido. El nodo cuya
dirección IP coincide con la dirección IP en la solicitud de ARP responde. La respuesta es una trama de únicas que incluye
la dirección MAC que corresponde a la dirección IP en la solicitud. Esta respuesta se utiliza para crear una entrada nueva
en la tabla ARP del nodo de envío.
Paso 4
Paso 5
La respuesta del dispositivo con la dirección MAC se envía a través de una comunicación unicast.
Pasos 6 y 7
Pasos 8 y 9
Troncal de VLANs
Un troncal VLAN lleva más de una VLAN. Usualmente está establecido entre el switch para que dispositivos de la misma
VLAN se puedan comunicar, aún si están conectados a diferentes switches.
Un troncal VLAN no se asocia a ninguna VLAN particular sino que se especifica todas las VLANs que pueden transitar.
El protocolo de VLAN trunk es el IEEE802.1q.
El troncal de VLAN permite pasar múltiples IDs VLAN entre varios switches que poseen dichas VLANs.
Las redes metro Ethernet son redes de extensión metropolitana (con cobertura de una o dos ciudades), normalmente
de fibra óptica que se encuentra interconectada entre diferentes switches. Quien posee la red metro Ethernet es el
proveedor de servicios de Internet. Su objetivo es transportar tráfico Ethernet de los clientes de un extremo a otro
extremo.
Estas redes permiten hacer una extensiones de redes LAN de un edificio a otro en diferentes partes de una ciudad. Esto
incluye la posibilidad de extender VLANs. La cualidad de estas redes metro Ethernet es que permiten extender estas
mismas redes LAN, permitiendo que equipos en diferentes puntos de la ciudad estén dentro de una misma LAN.
El proveedor de servicios de Internet tiene extendida una red de switches interconectados entre sí que deja pasar
diferentes redes LAN y VLANs, su hubiera. El efecto que esto genera es como si hubiera un cable conectado punto a
punto entre los dos o más dispositivos que se quieran conectar.
El cable que conecta el switch del edificio del proveedor de servicios de Internet con el domicilio de los dispositivos se
denomina última milla.
Es importante no confundir estas redes con las redes WAN (Redes de área extensa, Wide Area Network): dichas redes
son propiedad de los proveedores de servicios de Internet y permiten cubrir zonas geográficas extensas, como por
ejemplo, de una provincia a otra.
Para separar el tráfico entre diferentes redes que se conectan a través de un mismo proveedor de servicios, éste
establece una serie de VLANs dentro de su red de switches, uno por cada cliente. Las Redes LAN transportan tramas
Ethernet. En una Red LAN con VLANs, los troncales que permiten transportar más de una VLAN utilizan una trama
802.1Q. Las tramas de cliente que llegan al proveedor con tag VLAN (V-TAG) pasarán a ser C-TAG y poseen el agregado
del tag S-TAG (Servicio del Cliente).
Las redes metro Ethernet, mediante el protocolo 802.1ad, permiten transportar hasta 4094 clientes simultáneos. Cada
cliente a su vez puede utilizar mediante 802.1Q las 4096 VLANs menos aquellas internas reservadas.
cliente a su vez puede utilizar mediante 802.1Q las 4096 VLANs menos aquellas internas reservadas.
Topologías
Punto a punto (E-Line)
Dentro del tipo de servicio E-Line se incluye una amplia
gama de servicios. El más sencillo consiste en un ancho de
banda simétrico para transmisión de datos en ambas
direcciones, no fiable, entre dos interfaces UNI (User
Network Interfaces) a 10 Mbit/s.
Multipunto
Conecta dos o más interfaces UNI. Los datos enviados
desde un UNI (User Network Interfaces) llegarán a 1 o más
UNI de destino. Cada uno de ellos está conectado a
múltiples puntos.
A medida que va creciendo la red y se van añadiendo más
interfaces UNI, éstos se conectarán al mismo nodo
multipunto, simplificando enormemente la configuración
de la misma.
Desde el punto de vista del usuario, la E-LAN se comporta
como una LAN.
Beneficios
• Presencia y capilaridad en el ámbito metropolitano: como consecuencia de la disponibilidad de las líneas de
cobre.
• Alta fiabilidad: ya que los enlaces de cobre certificados Metro Ethernet, están constituidos por múltiples pares de
en líneas de cobre y los enlaces de fibra óptica.
• Fácil uso: interconectando con Ethernet se simplifica las operaciones de red, administración, manejo y
actualización.
• Economía: los servicios Ethernet reducen el capital de suscripción y operación de tres formas:
○ Amplio uso: Se emplean interfaces Ethernet que son la más difundidas para las soluciones de networking.
○ Bajo costo: Los servicios Ethernet ofrecen un bajo costo en la administración, operación y funcionamiento
de la red.
○ Ancho de banda: Los servicios Ethernet permiten a los usuarios acceder a conexiones de banda ancha a
menor costo.
• Flexibilidad: Las redes de conectividad mediante Ethernet permiten modificar y manipular de una manera más
dinámica, versátil y eficiente, el ancho de banda y la cantidad de usuarios en corto tiempo.
• Rentable: Reduce los costos de equipamiento con interfaces Ethernet.
• Flexible: Escalable a crecer como crecen las necesidades de su ancho de banda.
• Rapidez: Velocidades de 512K a 10Gbps.
• Fiable: 99,9% la disponibilidad del servicio, que puede ser aumentado a 99,999% mediante la adición de
QoS.
Redes inalámbricas
viernes, 24 de septiembre de 2021 21:16
El concepto de red informática referencia a una estructura conformada por un conjunto de equipos informáticos
interconectados que comparten servicios, información y recursos. Una red inalámbrica es aquella que permite conectar
diversos nodos sin utilizar una conexión física, sino estableciendo la comunicación mediante ondas de radio en
frecuencias sin licencia, lo que evita al operar la autorización del agente regulador de las comunicaciones. No se requiere
instalar un cableado, lo que supone una mayor comodidad y un ahorro de dinero en infraestructura.
La transmisión y la recepción de los datos requieren de dispositivos que actúan como puertos de entrada. Permite que
puedan estar interconectados un importante número de dispositivos, tanto ordenadores como tablets, teléfonos
móviles, periféricos como impresoras, entre otros.
Como punto negativo, este tipo de redes suele contar con una seguridad menor ya que, si no se cuenta con una
protección eficiente, el ingreso de intrusos es muy probable.
Según el tipo de cobertura, la red inalámbrica puede clasificarse en:
Bluetooth
La red WPAN más conocida es bluetooth.
Wireless USB
Wireless USB es un protocolo de comunicación inalámbrica con gran ancho de banda que combina la sencillez de uso de
USB con la versatilidad de las redes inalámbricas. El grupo de promotores de wireless USB (W-USB Promoter Group) está
formado por Agere Systems, Hewlett-Packard, Intel, Microsoft, NEC Corporation, Philips y Samsung. Puede lograr tasas
de transmisión de hasta 480 Mbps en rangos de tres metros y 110 en rangos de diez metros. Opera en los rangos de
frecuencia de 3,1 a 10,6 GHz.
Este protocolo finalmente no prosperó en la industria tecnológica.
Este protocolo finalmente no prosperó en la industria tecnológica.
Modos de
funcionamiento
Abarcan tecnologías como Wi-Fi (estándar de comunicación inalámbrica basado en la norma IEEE 802.11).
Una red de área local inalámbrica es un sistema de comunicación inalámbrico para minimizar las conexiones cableadas.
Las redes de área local inalámbrica utilizan las ondas de radio para llevar la
información de un punto a otro sin necesidad de un medio físico guiado.
Al hablar de ondas de radio se refiere a portadoras, sobre las que va la
información, ya que realizan la función de llevar la energía a un receptor
remoto. Los datos a transmitir se superponen a la portadora de radio y de
este modo pueden ser extraídos exactamente en el receptor final. A este
proceso se le llama modulación de la portadora por la información que
está siendo transmitida. Si las ondas son transmitidas a distintas
frecuencias de radio, varias portadoras pueden existir en igual tiempo y
espacio sin interferir entre ellas. Para extraer los datos el receptor se sitúa
en una determinada frecuencia, frecuencia portadora, ignorando el resto.
El punto de acceso recibe la información, la almacena y la transmite entre la WLAN y la LAN cableada. Un punto de
El punto de acceso recibe la información, la almacena y la transmite entre la WLAN y la LAN cableada. Un punto de
acceso puede soportar un pequeño grupo de usuarios y puede funcionar en un rango de al menos treinta metros y hasta
varios cientos. El punto de acceso es normalmente colocado en alto pero podría colocarse en cualquier lugar en que se
obtenga la cobertura de radio deseada. El usuario final accede a la red WLAN a través de adaptadores. Estos
adaptadores proporcionan una interfaz entre el sistema de operación de red del cliente (NOS, Network Operating
System) y las ondas, mediante una antena.
A través del punto de acceso se puede duplicar la distancia a la cual los dispositivos pueden comunicarse, ya que estos
actúan como repetidores.
A partir de que el punto de acceso se conecte a la red cableada,
cualquier cliente tiene acceso a los recursos del servidor. Por otra
parte, cada punto de acceso gestiona el tráfico de la red entre los
terminales más próximos. Un punto de acceso puede servir a
varias máquinas, según el tipo y el número de transmisiones que
tienen lugar. Los puntos de acceso tienen un alcance finito, del
orden de 150 metros en lugares o zonas abiertas. En zonas
grandes como por ejemplo un campus universitario o un edificio
es probablemente necesario más de un punto de acceso. La meta
es cubrir el área con células que solapen sus áreas de modo que
los clientes puedan moverse sin cortes entre un grupo de puntos
de acceso. Esto es llamado roaming.
Otro de los componentes a considerar en una WLAN es la antena direccional. Por ejemplo: si se quiere una LAN sin cable
a otro edificio a 1 km de distancia. Una solución puede ser instalar una antena en cada edificio con línea de visión
directa. La antena del primer edificio está conectada a la red cableada mediante un punto de acceso. Igualmente en el
segundo edificio se conecta un punto de acceso, lo cual permite una conexión sin cable en esta aplicación.
Seguridad
Uno de los problemas de este tipo de redes es precisamente la seguridad ya que cualquier persona con una terminal
inalámbrica podría comunicarse con un punto de acceso privado si no se disponen de las medidas de seguridad
adecuadas.
Dichas medidas van encaminadas en dos sentidos: por una parte está el cifrado de los datos que se transmiten y en otro
plano, pero igualmente importante, se considera la autenticación entre los diversos usuarios de la red.
En el caso del cifrado se están realizando diversas investigaciones ya que los sistemas considerados inicialmente se han
conseguido descifrar. Para la autenticación se ha tomado como base el protocolo de verificación EAP (Extensible
Authentication Protocol), que es bastante flexible y permite el uso de diferentes algoritmos.
Velocidad
Otro de los problemas que presenta este tipo de redes es que actualmente (a nivel de red local) no alcanzan la velocidad
que obtienen las redes de datos cableadas.
Además, en relación con el apartado de seguridad, el tener que cifrar toda la información supone que gran parte de la
información que se transmite sea de control y no información útil para los usuarios, por lo que incluso se reduce la
velocidad de transmisión de datos útiles y no se llega a tener un buen acceso.
Wi-Fi
La especificación IEEE 802.11 es un estándar internacional que define las características de una red de área local
inalámbrica (WLAN). La palabra Wi-Fi (Wireless Fidelity, Fidelidad inalámbrica) es el nombre de la certificación otorgada
por la Wi-Fi Alliance, grupo que garantiza la compatibilidad entre dispositivos que utilizan el estándar 802.11.
Con Wi-Fi se pueden crear redes de área local inalámbricas de alta velocidad entre equipos ubicados en forma cercana a
un punto de acceso. Wi-Fi admite ordenadores portátiles, equipos de escritorio, asistentes digitales personales (PDA) o
cualquier otro tipo de dispositivo de alta velocidad con propiedades de conexión también de alta velocidad (11 Mbps o
superior) dentro de un radio de varias docenas de metros en ambientes cerrados (de 20 a 50 metros en general) o
dentro de un radio de cientos de metros al aire libre.
Los proveedores de Wi-Fi están comenzando a cubrir áreas con una gran concentración de usuarios (como estaciones de
trenes, aeropuertos y hoteles) con redes inalámbricas. Estas áreas se denominan "zonas locales de cobertura".
El estándar 802.11 establece los niveles físicos y de enlace del modelo OSI para las conexiones inalámbricas que utilizan
ondas electromagnéticas. Cualquier protocolo de nivel superior puede utilizarse en una red inalámbrica Wi-Fi de la
misma manera que puede utilizarse en una red Ethernet.
IEEE 802.11b
La tecnología Wi-Fi IEEE 802.11b provee un ancho de banda de hasta 11Mbps, comparable a Ethernet tradicional
La tecnología Wi-Fi IEEE 802.11b provee un ancho de banda de hasta 11Mbps, comparable a Ethernet tradicional
(10Mbps). Utiliza la misma frecuencia no regulada (2.4GHz) del estándar original 802.11. Al no estar regulada, la misma
puede ser interferida por la operación de hornos microondas, teléfonos inalámbricos, y otros dispositivos que utilicen el
rango.
Ventajas Desventajas
• Bajo costo. • Lento para los estándares actuales de redes LAN.
• Buen rango de señal en general, salvo raras • El hecho de no estar regulado no garantiza que en la zona
excepciones. no exista interferencia.
IEEE 802.11a
La tecnología Wi-Fi IEEE 802.11b soporta hasta 54 Mbps y utiliza un rango de frecuencias regulado alrededor de los 5
GHz. La mayor frecuencia no sólo limita el alcance de las redes 802.11a en comparación con la norma 802.11b, sino que
también ocasiona mayor atenuación ante los obstáculos (paredes, etc.). Es incompatible con 802.11b, ya que utilizan
diferentes frecuencias.
Ventajas Desventajas
• Buena velocidad. • Es una tecnología más costosa.
• El uso de frecuencias reguladas, que evitan • Provee menor alcance.
interferencia por parte de otros dispositivos.
Esta tecnología no logró aceptación.
IEEE 802.11g
La tecnología Wi-Fi IEEE 802.11g combina lo mejor de las normas anteriores, ya que soporta hasta 54Mbps, y utiliza el
rango de los 2.4Ghz de la misma forma que 802.11b. Provee compatibilidad hacia atrás con 802.11b, con la desventaja
de que ante la existencia de un nodo 802.11b todas las estaciones operarán a esta velocidad aunque soporten la norma
802.11g.
Ventajas Desventajas
• Buena velocidad. • Un poco más costoso que 802.11b.
• Mantiene el rango de alcance de 802.11b. • Presenta los mismos inconvenientes respecto a la
interferencia que esta norma, debido al rango de señal no
regulado
IEEE 802.11n
La tecnología Wi-Fi IEEE 802.11n está siendo diseñado como una mejora a 802.11g, principalmente respecto del ancho
de banda máximo. Para ello utiliza múltiples señales y antenas (MIMO, Multiple Input Multiple Output) en lugar de una
sola antena y una sola señal. Se prevé que el estándar soporte hasta 100Mbps, sea compatible hacia atrás con 802.11g y
provea mejor alcance mediante mayor intensidad de la señal.
Ventajas Desventajas
• Excelente velocidad. • Aún no estandarizado completamente.
• Mayor resistencia a la interferencia de otros • Se prevé que sea más costoso que 802.11g.
dispositivos. • El uso de múltiples señales puede ocasionar interferencia
en redes 802.11b/g cercanas.
WiMAX
WiMAX es una norma de transmisión por ondas de radio de última generación orientada a la última milla que permite la
recepción de datos por microondas y retransmisión por ondas de radio proporcionando acceso concurrente con varios
repetidores de señal superpuestos. Utiliza las ondas de radio en las frecuencias de 2 a 11 GHz. Ofrece total cobertura en
áreas de hasta 48 km de radio y a velocidades de hasta 70 Mbps, utilizando tecnología que no requiere visión directa con
las estaciones base (a diferencia de las microondas). En general, ofrece cobertura que va desde los 40 a 70 km y
velocidades de hasta 124 Mbps. Puede operar en zonas con línea vista o sin línea vista entre la estación base y el
suscriptor (obstáculos tales como árboles o montañas no afectan pues no requiere línea vista).
suscriptor (obstáculos tales como árboles o montañas no afectan pues no requiere línea vista).
Es una tecnología de última milla, también llamada bucle
local. Permite la recepción de datos por microondas y
retransmisión por ondas de radio. Puede ofrecer conexiones
a Internet con amplía cobertura.
Una sola estación base puede soportar cientos de
suscriptores. La conexión desde la estación base a los
abonados es inalámbrica, a través de ondas de radio.
La estación base de la torre WiMAX puede cubrir con una antena más de 30 kilómetros a la redonda. Es necesaria la
instalación de antenas repetidoras (bases) situadas estratégicamente para dar servicio a determinadas zonas. WiMAX
está pensado para construir una infraestructura de red cuando el entorno o distancia no es favorable para una red
cableada.
Cualquier dispositivo de conexión inalámbrica para WiMAX, ordenadores, portátiles, smartphone, etc., se conectará a la
red WiMAX si está dentro de la cobertura de la estación base y dispone de un receptor de WiMAX. Estos dispositivos (los
receptores) suelen ser una antena independiente o una tarjeta de ranura PCMCIA para ordenadores portátiles u
ordenadores.
La conexión a las estaciones base WiMAX funciona de forma similar a la conexión de Wi-Fi, la única diferencia es que el
WiMAX cubre un área mucho más amplia.
Una característica importante del estándar es que define una capa MAC (Medium Access Control) que soporta múltiples
especificaciones físicas (PHY).
Estándar IEEE802.16
La capa física es la subcapa dependiente del medio físico: debido a que la fuerza de señal en la banda milimétrica
desciende drásticamente con la distancia a partir de la estación base, el estándar 802.16 emplea tres esquemas de
modulación diferentes, dependiendo de la distancia entre la estación suscriptora y la estación base. Para suscriptores
cercanos se utiliza QAM-64. Para los suscriptores distantes se utiliza QPSK. Por ejemplo, para un valor típico de 25 MHz,
QAM-64 da 150 Mbps, QAM-16 da 100 Mbps y QPSK da 50 Mbps. Cuanto más lejos esté el suscriptor de la estación
base, será más baja la tasa de datos.
El estándar 802.16 proporciona una forma más flexible para asignar el ancho de banda. Se utilizan dos esquemas: FDD
(Duplexación por División de Frecuencia) y TDD (Duplexación por División de Tiempo). En este último, TDD, la estación
base (que contiene múltiples antenas omnidireccionales) envía tramas periódicamente. Cada trama contiene ranuras de
tiempo. Las primeras son para el tráfico descendente (desde la estación base al suscriptor). Después se encuentra el
tiempo de protección o guarda, el cual es utilizado por las estaciones para cambiar de dirección. Por último, están las
ranuras para el tráfico ascendente (desde el suscriptor a la estación base). El número de ranuras de tiempo dedicadas
para cada dirección se puede cambiar de manera dinámica con el fin de que el ancho de banda en cada dirección
coincida con el tráfico.
La capa de enlace de datos es la parte común de la subcapa MAC: allí se encuentran los principales protocolos de la IEEE
802.16, tales como la administración de canal. El modelo consiste en que la estación base controla el sistema. Puede
calendarizar de manera muy eficiente los canales de flujo descendente y es muy importante en el manejo de los canales
ascendentes. Esta capa es orientada a la conexión para proporcionar garantías de calidad del servicio para la
comunicación de la telefonía y multimedia.
Ventajas
• Ancho de Banda: Usando un robusto esquema de modulación, IEEE 802.16a permite un alto ancho de banda a
larga distancia con una alta eficiencia en el nivel espectral, lo cual también tolera las reflexiones de las señales. La
larga distancia con una alta eficiencia en el nivel espectral, lo cual también tolera las reflexiones de las señales. La
modulación dinámica permite a la estación negociar el caudal por rango. Por ejemplo: Si una estación no pudiera
establecer un buen enlace con un usuario, usando el orden de modulación más alto (64 QAM), el orden de
modulación se reduciría (16 QAM o QPSK), lo cual reduce el ancho de banda pero incrementa la distancia efectiva.
• Escalabilidad: La IEEE 802.16a soporta canales de ancho de banda flexibles. Por ejemplo. Si se le asigna a un
operador 20 MHz de ancho de banda, este puede dividirlos en dos sectores de 10 MHz cada uno, o en 4 de 5 MHz.
El operador puede aumentar el número de clientes siempre que mantenga un buen rango de distancia y un buen
caudal de transmisión.
• Cobertura: Sumándose al esquema de modulación dinámica, 802.16a puede soportar tecnologías para aumentar
la cobertura, incluyendo topología de mallas. Mientras sigan mejorándose las tecnologías de radio y los costes
bajen, la capacidad de aumentar la cobertura y los caudales de velocidad usando múltiples antenas mejorará
enormemente la cobertura en lugares de muy difícil acceso.
• Calidad del Servicio (QoS): La capacidad de voz es muy importante. Por esta razón IEEE 802.16a incluye
características de QoS en sus servicios, ya que el video y el sonido requieren redes de bajo retardo. Una de las
grandes características de la MAC del 802.16a es que capacita al operador de garantizar grandes niveles de calidad
para las empresas, similares a los niveles del cable, todo con la misma estación base.
• Seguridad: Características de encriptación y seguridad se incluyen también en el estándar 802.16.
Protocolos utilizados
Las revisiones del estándar IEEE 802.16 se dividen en dos categorías y referencia a los protocolos de WiMAX fijo y
WiMAX móvil
Usos
El ancho de banda y rango del WiMAX lo hacen adecuado para las siguientes aplicaciones potenciales:
• Proporcionar conectividad portátil de banda ancha móvil a través de ciudades y países por medio de una variedad
de dispositivos.
• Proporcionar una alternativa inalámbrica al cable y línea de abonado digital (DSL) de "última milla" de acceso de
• Proporcionar una alternativa inalámbrica al cable y línea de abonado digital (DSL) de "última milla" de acceso de
banda ancha.
• Proporcionar datos, telecomunicaciones (VoIP) y servicios de IPTV (triple play).
• Proporcionar una fuente de conexión a Internet como parte de un plan de continuidad del negocio.
• Para redes inteligentes y medición.
• Puede actuar como enlace troncal y de conexión de las actuales instalaciones WI-Fi, y desde el nodo Wi-MAX dar
el acceso a Internet.
El protocolo MPLS (Multi Platform Label Switching) es un protocolo encargado de conmutar etiquetas. Se encuentran
en las redes WAN. Estas redes pueden conectarse a través de diferentes topologías:
Dispositivos
Dentro de una red pueden encontrarse dos tipos de dispositivos distintos:
• Label-Switched Router (LSR): Son aquellos dispositivos internos dentro de un dominio MPLS, que realizan el envío
en base al contenido de las etiquetas (labels).
• Edge Label-Switched Router (ELSR): Son aquellos dispositivos en el borde de un dominio MPLS, los cuales realizan
envío de etiquetas dentro del dominio MPLS, y además envían paquetes IP entrante o saliente a un dominio
MPLS.
• Label-Switched Path (LSP): Son los diferentes caminos que puede tener las etiquetas dentro de un dominio MPLS
a través de los diferentes LSR.
Etiquetas
Una etiqueta MPLS son 4 bytes y es utilizada por los equipos LRS de la red MPLS para identificar localmente un destino y
tomar las decisiones de envío (forwarding decisions) de un paquete. La etiqueta es insertada entre las cabeceras de
capa 2 y capa 3.
Las etiquetas poseen un significado local para los dispositivos LSR. Definen un destino y servicio para cada paquete e
identifican un Forwarding Equivalence Class (FEC). Un FEC es la combinación de un destino de red y una clase de
servicio.
• TTL: 8-bits. Este campo tiene el mismo propósito que el campo time-to-live de la cabecera IP. Es utilizado para
prevenir un bucle indefinido de envío de paquetes.
Luego de intercambiarse los mensajes de "hello", la sesión esta lista para el intercambio de etiquetas después de recibir
el primer paquete de keepalive.
Las redes MPLS utilizan un protocolo de ruteo que les permite el intercambio información. Cada uno de ellos informa
cuál es la red que conoce y la publica en la red MPLS para que la conozcan el resto de los nodos. Cada router LSR
confecciona una tabla de etiquetas (label binding information) y se la envía a sus vecinos para que sume la información a
su propia tabla de información.
Con esta información, cada nodo de la red va a saber cómo conectarse con otro a través de la tabla que confeccionó.
El protocolo LDP asigna un número de etiqueta a cada red de forma local en el router principal o core. Esta asignación es
notificada a los routers vecinos. Esto se hace para que cuando uno de los vecinos deba enviar tráfico a través del router
core sepa qué número de etiqueta utilizar para que el router core lo pueda enviar al nodo correspondiente. El nodo
asignó su propio número de etiqueta a su red, que oportunamente fue notificado a sus vecinos (entre ellos, el core). El
router core conoce este cambio entonces hace un cambio de etiqueta para que cuando llegue el paquete a ese nodo,
éste pueda direccionarlo a la red correspondiente. De otra manera, sin ese cambio de etiqueta, el paquete se pierde al
llegar al nodo destino.
Para intercambiar la información de las diferentes redes “X” entre los routers de la nube MPLS, se utiliza un protocolo de
enrutamiento, como puede ser OSPF o IS-IS, con el cual construye la tabla de enrutamiento (Routing Table), que indica
que para llegar a una red de destino “X”, como por ejemplo “192.168.0.0/24”, el paquete IP debe enviarse por la interfaz
del router que alcance al próximo salto (next-hop), el cual en este caso es el router “B” para la tabla de enrutamiento en
el router “A”
Las tablas de Forwarding Information Base (FIB) en esta instancia poseen la misma información que las Routing Table, es
decir, sin información de etiquetas.
El router “B” en su tabla de enrutamiento conoce que para enviar un paquete a la red de destino “X” lo debe enviar al
router “C”, ya que es el próximo salto para que el paquete llegue a destino. Luego le asigna una etiqueta local con el
número de “25” a la red de destino “X”.
El router “B”, luego de asignar la etiqueta, crea la tabla LIB, en donde establece que la red de destino “X” posee
localmente (“local”) la etiqueta nro. “25”. Por otro lado, cuando debe enviar el paquete, en base a la información en la
Tabla LFIB, ve que no tiene una etiqueta asociada con la cual debe enviarla porque el vecino router “C” no le informó
nada, por lo tanto, lo envía sin etiqueta (“untagged”).
El router “B”, luego de asignar la etiqueta número “25” a la red “X” y crear la tabla LIB, procede a enviar la información a
todos sus routers LSRs vecinos adyacentes, con el fin de que incorporen dicha información en sus respectivas tablas LIB,
FIB.
El router edge LSR “A” recibe la información del router LSR “B”, especificando que para la Red ”X” el router “B” le asignó
la etiqueta número “25”, y cuando le envíe un paquete para dicha red de destino, la misma deberá venir identificada con
la etiqueta número “25”. Esta información la incorpora a su tabla LIB y FIB.
El router “C”, al igual que el router “B”, debe asignar una etiqueta a la red “X”. Por dicho motivo, asigna la etiqueta
número “47” a la red “X” y la incorpora en su tabla LIB. Además, en dicha tabla figura la información suministrada por el
router “B”.
El router “B” ahora posee en su tabla LIB la información localmente generada, el cual identifica a la red “X” con la
etiqueta “25”. Y además posee la información que para enviar un paquete a la red de destino “X” y lo tiene que hacer
por próximo salto (next-hop), el cual es el router “C”, con la etiqueta “47”, la cual conoce el router “C”, ya que es la
informada en el paso anterior.
MPLS VPN
El inconveniente del procedimiento descripto es que cada nodo puede tener redes cuya dirección IP coincida con la
dirección IP de la red de otro nodo. Entonces, al momento de enviar paquetes y asignarles etiquetas se puede producir
dirección IP de la red de otro nodo. Entonces, al momento de enviar paquetes y asignarles etiquetas se puede producir
confusión respecto de a qué nodo enviar el paquete (dado que en la tabla de enrutamiento una misma dirección IP tiene
asignada un mismo número de etiqueta).
Para resolver este problema es que existe MPLS VPN. Esta tecnología utiliza un prefijo de 64-bits denominado route
distinguisher (RD) para convertir las direcciones IPv4 de 32-bits de los clientes en direcciones únicas de 96-bits que
pueden ser transportadas entre los routers provider edge (PE). En éstos, a fin de lograr una separación lógica entre las
diferentes redes y tablas de ruteo por cliente, se utilizan dentro de un mismo dispositivo router las tablas de ruteo
virtuales por cliente, conocido como Virtual Routing Forwarding (VRF).
Direcciones VPNv4
El RD es utilizado únicamente para transformar las direcciones IPv4 privadas de los clientes, las cuales se solapan por
ser direcciones IP de uso privado en direcciones únicas que no se solapan, ya que cada cliente posee un RD diferente,
mediante el cual cada dirección 96-bit se convierte en única dentro de la red.
Estas direcciones de 96-bit se denominan Direcciones VPN versión 4 (VPNv4) o también conocidas como Direcciones
VPN IPv4, donde los primeros 64-bits permiten distinguir al cliente.
Beneficios de MPLS
• MPLS Virtual Private Networks (VPNs): Utilizando MPLS, los proveedores de servicios (ISP) pueden crear VPNs de
capa 3 a través de sus redes internas troncales (backbone network) para proveerlas a sus múltiples clientes,
utilizando la misma infraestructura física, sin necesidad de utilizar encriptación o aplicaciones de terceros.
• MPLS Traffic Engineering (MPLS TE): La ingeniería de tráfico provee la posibilidad de configurar explícitamente
simple o múltiples caminos que el tráfico puede tomar a través de la red. Además provee la posibilidad de setear
características de performance para una clase de tráfico. Esta funcionalidad permite optimizar el ancho de banda
de utilización (bandwidth utilization) de caminos subutilizados.
• Quality of service: MPLS permite utilizar calidad de servicio (Quality of Service - QoS), lo cual permite a los
proveedores de servicio (ISP) proveer múltiples clases de servicio sobre la redes VPN de los clientes aplicando
garantías de QoS físicas sobre la red del proveedor.
• Integración con IP y ATM: Se puede integrar con las redes existentes ATM de capa 2 y IP utilizado en capa 3.
Cablemódem y DSL
viernes, 1 de octubre de 2021 21:15
Tecnologías
Dado su bajo costo, las redes de última milla que se popularizaron eran las preexistentes. Con el
tiempo, se fueron tendiendo nuevas redes de nueva tecnología en las zonas de mayor demanda:
• Servicio de telefonía tradicional analógica (Plain Old Telephone Systems o POTS).
• Línea de Suscriptor Digital (Digital Subscriber Line o DSL) sobre las líneas de telefonía de par
trenzado de cobre.
• Televisión por Cable y Cablemódem para la transferencia de datos, sobre la red de cable
coaxial utilizada para transmisión de señales de televisión.
• Inalámbrica, que incluye servicios satelitales como DirectTV.
• Fibra óptica y sus tecnologías de transmisión. Esta red tuvo que ser tendida desde cero.
El siguiente es un esquema de las tecnologías de DSL (a la izquierda) y cablemódem (a la derecha):
Definiciones
• Punto de Presencia (Point Of Presence o PEP): Todo punto de demarcación entre entidades
que prestan o reciben servicios de telecomunicaciones. Lugar distribuido por toda la ciudad
donde el dueño de la red tiene un equipo que le permite brindar el servicio y e incluso otros
nuevos. Este punto permite conectar a un nuevo abonado del servicio.
• Equipo local del cliente (Customer Premises Equipment o CPE): Equipamiento ubicado en las
instalaciones del abonado o suscriptor que se encuentra conectado en el canal de
comunicación del proveedor de servicios, como módems DSL, cable módems, routers,
switches, entre otros. Es propiedad del proveedor del servicio.
switches, entre otros. Es propiedad del proveedor del servicio.
• Punto de Intercambio de Internet (Internet Exchage Point o IXP): consiste en la
infraestructura física en donde los proveedores de Internet (ISPs) intercambian tráfico a través
de sus redes. Son lugares donde varios ISPs de una ciudad intercambian entre ellos el tráfico
local, con una economía y eficiencia mucho mayor que si lo hicieran a través de un servicio
remoto.
Cablemódem
El cablemódem es una tecnología de acceso a internet basada en la infraestructura utilizada
previamente para la televisión por cable. La entrega de señales digitales provenientes de internet
hacia los abonados se realiza vía señales de radio frecuencia transmitida por redes de cable coaxial.
El acceso por cable permite que el límite de la red del proveedor pueda alcanzar a la red del
abonado (última milla) para brindar servicios de internet, televisión y/o telefonía.
En sus comienzos las señales se captaban a través de una antena receptora y se distribuían desde las
instalaciones del proveedor (headend) a través de la red de cable coaxial hacia sus abonados, es
decir, una transmisión en un único sentido, desde compañía de cable hacia sus abonados.
Transmisión
La transformación del servicio de distribución de señales de televisión al servicio de internet y
telefonía estableció nuevos desafíos:
• Transmisiones en dos sentidos:
○ Downstream: Desde el headend del proveedor hacia el abonado.
○ Upstream: Desde el abonado hacia el headend del proveedor.
• Uso del canal de comunicaciones: El mismo enlace coaxial es compartido entre más de un
abonado.
Con la sola transmisión de la señal de televisión, el número de abonados que comparten el medio no
influye sobre la señal a transmitir, ya que la misma está disponible para todos aquellos que
comparten el canal.
Con la incorporación de servicios digitales, toma relevancia el número de abonados al condicionar
con su utilización el ancho de banda disponible en la red.
Estándar DOCSIS
Ante el crecimiento de la industria, y como consecuencia de crecientes problemas interoperabilidad
de la tecnología y gestión del despliegue de la red, se funda una organización sin fines de lucro
llamada CableLabs.
CableLabs está compuesta por un consorcio internacional de operadores de servicio de cable, que
bajo su coordinación gestó el estándar DOCSIS (Data Over Cable Service Interface Specification). El
mismo especifica la arquitectura de red de cable y el conjunto de protocolos que la conforma.
Principalmente estas especificaciones regulan los aspectos físicos del equipamiento y los medios de
transmisión, como aspectos de modulación, codificación y gestión de acceso al medio.
Dentro de los aspectos físicos define:
• Rango de frecuencia de canales downstream y upstream.
• Modulación:
○ Downstream: Uso de métodos de modulación de onda continua como QAM en sus
distintos niveles (64, 128, 256 niveles o más) en un canal de 6MHz.
○ Upstream: Uso de QPSK o QAM en distintos niveles.
Con respecto a las características de los enlaces define métodos determinísticos para transmisiones
upstream, específicamente métodos de multiplexación, como TDMA y S-CDMA. También define
mecanismos de calidad de servicio (Quality Of Service) y agregación de enlaces (utilización de
múltiples canales downstream y upstream).
Señales y funcionamiento
Cabe preguntarse cómo hicieron los operadores de cable para que el servicio de televisión coexista
con otros servicios en el mismo medio. Una manera es la multiplexación por división de frecuencia:
• Cada canal se encontrará dentro de la región comprendida entre 54 a 550 MHz (excepto por la
radio FM ubicada entre los 88 y 108 MHz).
• Cada canal tendrá un rango de 6MHz y podrá contener un canal de televisión analógico o
varios canales de televisión digital.
• Actualmente el espectro del ancho de banda podrá llegar hasta 1GHz según DOCSIS.
• La región con un rango de frecuencias más bajo, de entre 5 a 42MHz, se utilizará para los
canales upstream.
• La transmisión en ambas direcciones también presionó a los operadores de cable a establecer
amplificadores de dos sentidos.
• Dentro de los límites del proveedor (headend) fue necesario reemplazar sus amplificadores de
señal por equipos más avanzados como los CMTS (Cable Modem Termination System).
Funcionamiento
Cuando un cablemódem es conectado y encendido, revisa los canales downstream en busca de un
paquete ingresado por el CMTS para proveer parámetros de funcionamiento a los módems que
acaban de colocarse en línea. Al encontrar el paquete, el módem anuncia su presencia en uno de los
canales upstream. El CMTS responde mediante la asignación al modem de sus canales upstream y
downstream. Los parámetros pueden ajustarse en el caso de que el proveedor necesite balancear la
carga.
En un solo canal downstream de 6 MHz generalmente se le aplica una modulación QAM-64, o más
según la calidad del medio. Como resultado se obtiene un enlace de 27Mbps. Con QAM 256 el canal
se incrementaría hasta los 39Mbps.
La multiplexación por división de tiempo (TDM) es utilizada para compartir el ancho de banda
upstream entre múltiples abonados, en conjunto con mecanismos de contención. Caso contrario las
transmisiones colisionarían en el headend del proveedor.
El tiempo es dividido en minislots y cada abonado envía en diferentes minislots. Para que se utilicen
diferentes minislots, los módems determinan la distancia hacia el CMTS enviando un paquete
especial y calculando el tiempo de respuesta. De esta forma se permite conocer el momento del uso
del minislot.
Durante el inicio del módem, el CMTS asigna a cada modem un minislot para pedir por ancho de
banda upstream. Cuando una computadora quiere mandar un paquete, lo transfiere al modem, que
entonces pide el numero necesario de minislots para enviarlo. Si el pedido es aceptado, el CMTS
coloca un ACK en un canal downstream avisando al modem los minislots reservados para el paquete.
En los canales downstream hay un solo emisor y no son necesarios mecanismos de contención.
Infraestructura de red
El alcance del servicio de cable mediante el despliegue de tendido de cable coaxial en todo su
trayecto (a través de postes o por vía subterránea) paulatinamente se fue remplazando por una
infraestructura híbrida entre cables de fibra óptica y cables de cobre.
El sistema HFC (Hybrid Fiber Coax) permitió soportar la creciente demanda de abonados y servicios.
La capacidad de los medios de fibra sumados a su inmunidad hacia los fenómenos de alteración de
las señales permitió reemplazar enlaces troncales entre ciudades y proveedores de servicio.
A través del recorrido de la red de internet por cable se encontrarán nodos de fibra óptica,
amplificadores, TAPS, tendido de cable coaxial troncal y residencial, y tendido de cable de fibra
óptica:
• Amplificadores: Se colocan para incrementar la potencia de la señal entre los enlaces
coaxiales del proveedor que se conectan en las cajas de distribución hacia los TAPs de los
edificios o conjunto de residencias.
• TAPs: Generalmente se conectan a la salida de un amplificador y permite distribuir la señal del
proveedor entre los abonados
En los límites de la red troncal de fibra y el comienzo del tendido de cobre se encuentran los nodos
de fibra (fiber nodes), que son convertidores electro ópticos utilizados como interfaz entre el sistema
óptico y eléctrico en la red.
Cada nodo incluye un receptor que capta la señal óptica y convierte la señal que llega desde el
headend a una señal eléctrica de RF para alcanzar a los abonados. La señal eléctrica consiste en una
señal de RF de downstream que puede ocupar el espectro de 50Mhz hacia 550MHz-1000MHz.
También realiza el procedimiento inverso tomando una señal upstream RF modulada en un rango
desde 5 hacia 42MHz-65MHz.
Funcionamiento
Los módems telefónicos y las tecnologías DLS deben enfrentar las limitaciones de los enlaces de par
trenzado de cobre telefónicos:
• Estrecho ancho de banda.
• Atenuación y distorsión de señales.
• Susceptibilidad al ruido.
La utilización del módem telefónico se ajustó a las condiciones de los enlaces de voz analógicos para
enviar datos digitales.
Cuando el loop local terminaba en el extremo del proveedor, se le aplicaba un filtro que atenuaba
todas las frecuencias por debajo de 300Hz y por encima de 3400Hz.
En una línea completamente digital, el loop local termina en un dispositivo diferente que no aplica
un filtro, permitiendo que toda la capacidad física del enlace esté disponible, llegando a 1MHz en
ADSL.
En los enlaces de par trenzado, la capacidad del canal disminuye fuertemente al aumentar la
distancia desde el abonado hacia la oficina del proveedor por la velocidad de degradación de la
señal. Por lo tanto, a mayor distancia las señales digitales deberán propagarse a un ancho de banda
menor.
Para sobrellevar estas imposiciones físicas, el rango de 1MHz disponible en el local loop es dividido
en 256 sub canales independientes de 4312.5Hz.
El método de multiplexación por OFDM permite aprovechar al máximo la capacidad del canal. Para
cada canal es aplicada la modulación QAM y las condiciones del canal son monitoreadas
constantemente, pudiendo ser ajustada la tasa de datos modificando los niveles de modulación de
QAM.
El canal 0 se utiliza para la señal de voz (servicio telefónico tradicional). Por su parte, los canales 1 al
5 no son utilizados para mantener las señales de voz y datos separadas, y así evitar interferencias
entre sí. Los canales restantes son utilizados para señales de datos.
Estándares
Estándares DSL simétrico
• High bit rate digital subscriber line (HDSL): estándar ITU-T G.991.1. Tecnología DSL de
superior espectro de frecuencia que ISDN, soportando 1,544 kbps and 2,048 kbps simétrico.
• ISDN digital subscriber line (IDSL): tecnología DLS basado en redes ISDN (Red Digital de
Servicios Integrados RSDI) que provee un bitrate de 144 kbps simétrico sobre un solo par.
• High bit rate digital subscriber line 2 y 4 (HDSL2, HDSL4): Estándar ANSI. Utiliza un par con un
bitrate de 1,544 kbps simétrico (HDSL2) con una distancia de 2.9KM o dos pares con una
distancia de 3.4KM (HDSL4).
• Symmetric digital subscriber line (SDSL): tecnología propietaria que alcanza los 1,544 kbps
simétrico.
• Single-pair high-speed digital subscriber line (G.SHDSL): Estándar ITU-T G.991.2, sucesor de
HDSL puede alcanzar hasta los 5,696 kbps por par, hasta cuatro pares. Se distingue del resto
de las tecnologías al utilizar el método de modulación TC-PAM.
Actualidad
A pesar de la impronta impuesta por las posibilidades de los medios de fibra óptica, las capacidades
de los enlaces coaxiales y DLS se siguen incrementando.
Actualmente el estándar DOCSIS 3.1, gracias a la mejora del espectro de ancho de banda utilizable
(cercano a 1GHz), el incremento de los niveles de modulación (hasta 4096 QAM), y el uso de
tecnologías como LDPC y QoS hace posible incrementar el ancho de banda digital y mejorar las
características del servicio en la misma red HFC existente. El estándar puede soportar hasta 10Gbps
downstream y 1Gbps upstream.
Con la mejora de la calidad del servicio de las existentes tecnologías de última milla también se
produce la extensión del despliegue de la red de distribución de fibra óptica por los proveedores de
servicio. Está comenzando el reemplazo en redes de acceso, de tendido de cable coaxial o de
telefonía digital por medios de fibra óptica. La fibra óptica cada vez se encuentra más cerca del
telefonía digital por medios de fibra óptica. La fibra óptica cada vez se encuentra más cerca del
cliente.
Las restricciones gubernamentales, en especial a nivel municipal, son el principal obstáculo para el
tendido de la redes sobre fibra óptica.
Para servicios residenciales, proveedores como Claro, Telecentro y Fibertel comienzan a extender
sus servicios de telefonía, Internet y televisión a través de redes FTTH (Fiber To The Home) o FTTC
(Fiber To The Cabinet). Actualmente, los proveedores líderes de servicios de internet por
cablemódem residenciales son:
• Cablevision/Fibertel: Ofrece servicios de cablemódem de hasta 50Mbps downstream y 6
upstream.
• Telecentro: Posee servicios de cablemódem de hasta 200Mbps.
Por otro lado, proveedores de última milla con tecnologías DSL comienzan a extender los medios de
fibra óptica más cerca del cliente, como es el caso de:
• Telecom, que brinda comercialmente FTTC con la tecnología VDSL en forma masiva de 20
Mbps y 30 Mbps downstream.
• Claro/Telmex, que proporciona servicios de xDSL residenciales de hasta 50Mbps downstream.
En el caso de servicios DSL el ancho de banda digital sugerido estará fuertemente condicionado al
área de cobertura del proveedor.
Protocolo IPv6
martes, 5 de octubre de 2021 21:27
El protocolo IPv6 es el protocolo encargado de dirigir y encaminar los paquetes en la red. Debido al
crecimiento de Internet y la sofisticación de los dispositivos electrónicos, la solución propuesta es
aumentar el espacio de direccionamiento de Internet IPv4.
El Grupo Especial sobre Ingeniería de Internet (Internet Engineering Task Force o IETF) elaboró una
serie de especificaciones para definir un protocolo IP de Siguiente Generación (IP Next Generation,
IPng) que actualmente se conoce como Protocolo de Internet versión 6.
El IPv6 incrementa el tamaño de la dirección IP de 32 bits a 128 bits para soportar más niveles en la
jerarquía de direccionamiento y un número mayor de nodos direccionables.
Características de IPv6
• El diseño del protocolo agrega múltiples beneficios en seguridad, manejo de calidad de
servicio, una mayor capacidad de transmisión y mejora la facilidad de administración.
• El esquema de direcciones de 128 bits provee una gran cantidad de direcciones IP, con la
posibilidad de asignar direcciones únicas globales a nuevos dispositivos.
• La dirección IPv6 se diseñó para ser subdividida en dominios de enrutamiento jerárquico que
reflejan la topología del Internet actual. Los múltiples niveles de jerarquía permiten juntar
rutas, promoviendo un enrutamiento eficiente y escalable al Internet.
• El proceso de autoconfiguración permite que los nodos de la red IPv6 configuren sus propias
direcciones IPv6, facilitando su uso.
• La transición entre proveedores de IPv6 es transparente para los usuarios finales con el
mecanismo de renumerado.
• La difusión ARP es reemplazada por el uso de multicast en el enlace local.
• El encabezado de IPv6 es más eficiente que el de IPv4: tiene menos campos y se elimina la
suma de verificación del encabezado. Además el encabezado es de longitud fija lo que genera
una reducción en los ciclos de CPU de los ruteadores al momento de enviar los paquetes de
IPv6. Lo anterior conlleva un mejor desempeño de la red.
• Puede hacerse diferenciación de tráfico utilizando los campos del encabezado a través de la
etiqueta de flujo. Esta etiqueta es usada por el nodo fuente para solicitar un manejo especial
de secuencias específicas de paquetes. La etiqueta está dirigida al procesamiento de la
estación destino, no para los ruteadores, y es de gran utilidad para aplicaciones como
videoconferencias y voz sobre protocolo de Internet (VoIP). Asimismo, agrupa todas aquellas
que requieren un tratamiento especial de Calidad de Servicio (Quality of Service, QoS) en los
ruteadores de la trayectoria.
• Las nuevas extensiones de encabezado reemplazan el campo "Opciones" de IPv4 y proveen
mayor flexibilidad. Se presenta un campo llamado "Siguiente Encabezado" dentro de cada
extensión de encabezado que permite una mejor eficiencia en el procesamiento de los
paquetes, ya que asegura que los ruteadores y nodos computan los encabezados dirigidos a
ellos a lo largo de la trayectoria.
• IPv6 fue esbozado para manejar mecanismos de movilidad y seguridad de manera más
eficiente que el protocolo IPv4.
• Se crearon varios mecanismos junto con el protocolo para tener una transición sin problemas
de las redes IPv4 a las IPv6.
Movilidad
Cualquier nodo IPv6 puede usar un IP Móvil tanto como lo requiera. IPv6 Móvil utiliza dos
extensiones de encabezado: un encabezado de enrutamiento para el registro y un encabezado de
destino para la entrega del datagrama entre los nodos móviles y sus nodos fijos correspondientes.
Seguridad en IPv6
La seguridad dentro del protocolo IPv6 está basada en el protocolo IPSec, lo que permite sesiones de
seguridad de extremo a extremo:
• Limitar el acceso a sólo aquellos autorizados.
• Certifica la autenticación de la persona que envía los datos.
• Encripta los datos transmitidos a través de la red.
• Asegura la integridad de los datos.
• Invalida la repetición de sesiones, para evitar que no sean repetidas por usuarios maliciosos.
Una implementación de IPv6 incluye inserciones de:
• Encabezados de autenticación (AH, Authentication Headers): provee integridad,
autenticación del nodo fuente y protección contra repetición.
• Extensión de encabezados de carga de seguridad encapsulada (ESP, Encapsulating Security
Payload): provee confidencialidad, autenticación del nodo fuente, integridad interna del
paquete y protección contra repetición.
Mecanismos de transición
Actualmente no existe una fecha definida para dejar de utilizar IPv4 o comenzar a utilizar IPv6
completamente, por lo que al diseñar IPv6 se optó por incluir mecanismos que permitan una
coexistencia de ambos esquemas de direccionamiento y que en el largo plazo permitan tener una
transición sin complicaciones hacia IPv6. Estos esquemas son los siguientes:
transición sin complicaciones hacia IPv6. Estos esquemas son los siguientes:
• Nodos de Doble Pila sobre redes IPv4.
• Islas de Nodos de Sólo IPv6 sobre redes IPv4.
• Nodos de IPv4 que puedan comunicarse con redes IPv6.
• Nodos de IPv6 que puedan comunicarse con redes IPv4.
Direcciones IPv6
Una dirección IPv6 se compone de ocho campos de 16 bits hexadecimales separados por dos
puntos, lo que representa 128 bits. Cada campo de 16 bits representa cuatro caracteres
hexadecimales y los valores que puede tomar cada campo de 16 bit van de 0000 a FFFF.
A una sola interfase se le pueden asignar múltiples direcciones IPv6 de cualquier tipo (unicast,
anycast, multicast), por lo cual un nodo puede ser identificado por la dirección de cualquiera de sus
interfases. Existe la posibilidad de asignar una dirección unicast a múltiples interfases para balanceo
de cargas.
Formato comprimido
En IPv6 es común que se presenten cadenas grandes de ceros dentro de las direcciones. Para
simplificar su escritura se ha convenido en utilizar una sintaxis especial en donde se suprimen los
valores consecutivos de ceros ante dos situaciones: campos sucesivos de ceros y campos con ceros al
inicio.
Ejemplo:
2001:0:0:0:0:0:0:4 se comprime como 2001::4
Ejemplo:
IPv6 y subredes
En IPv6 la única forma aceptable de representar una máscara de red es mediante notación CIDR.
Aunque las direcciones estén en formato hexadecimal, el valor de la máscara de red se mantiene
como un valor decimal. La siguiente tabla muestra ejemplos de direcciones IPv6 y prefijos de red
utilizando el valor de red en notación CIDR.
Rutas estáticas
Las rutas estáticas son utilizadas para forzar el enrutamiento de algunos prefijos a través de
ruteadores específicos. En una tabla de enrutamiento, este tipo de rutas tienen una mayor
preferencia sobre rutas aprendidas por protocolos de enrutamiento.
Una ruta estática contiene el prefijo a ser enrutado y la dirección IP del ruteador. Dicha ruta tiene
como nombre el siguiente salto, es el responsable de enrutar cualquier paquete con un destino
dentro del rango de prefijo dado.
Enrutamiento dinámico
Protocolo RIPng
El protocolo RIP Siguiente Generación (RIPng, RIP next generation) está basado en RIP versión 2 y
hereda las mismas características genéricas:
• Algoritmo vector-distancia Bellman-Ford.
• Actualizaciones cada 30 segundos.
• Tiempo de expiración de 180 segundos para rutas desconectadas.
• Métricas fijas.
• Diámetro de red de 15 saltos.
• Horizonte dividido y envenenamiento en reversa de trayectoria.
• Etiquetas de ruta.
Protocolo OSPFv3
El protocolo OSPFv3 es un protocolo de red independiente, similar a IS-IS. Comparte los
fundamentos de OSPFv2:
• Inundación (flooding).
• Elección de ruteador designado.
• Área de soporte.
• Cálculos de Djikstra para abrir la trayectoria más corta primero.
• Soporte de circuito en demanda.
• Extensiones multidifusión.
Redes de telefonía móvil
martes, 12 de octubre de 2021 21:10
Las prestaciones de las redes de telefonía móvil han ido evolucionando a lo largo del tiempo,
pasando de ser algo privativo de pocos dispositivos a estar presente en prácticamente todos los
teléfonos celulares.
Las características de una red de telefonía móvil son:
• Movilidad entre celdas: cada celda (o célula) es una determinada área de cobertura en una
ciudad. En cada una de esas áreas hay instalada una radiobase, encargada de administrar esa
celda. El objetivo de las antenas es que no exista interferencia en las comunicaciones.
• Terminales con limitaciones de potencia: el dispositivo es móvil y no puede contener mucha
energía dentro de las baterías.
• Saturación de celdas: una determinada antena puede atender una cantidad limitada de
transmisiones o conexiones simultáneas. Es un desafío lograr que en cada celda no haya más
equipos tratando de comunicarse que los que puede atender la antena que cubre esa área
geográfica.
Las redes móviles son redes públicas, por ende, se conectan a otras redes y están sujetas a las
reglamentaciones de entidades regulatorias.
La evolución de las redes móviles se ha dividido en generaciones (actualmente 4, con una 5ta en
desarrollo).
2.5G
Las redes 2G fueron mejoradas con la implementación de nuevas tecnologías que le permitieron
evolucionar y definieron lo que se llamaron las redes 2.5G. Estas tecnologías fueron:
• GPRS (General Packet Radio System).
• HSCSD (High Speed Circuit Switched Data).
• EDGE (Enhanced Data Rates for Global Evolution).
GPRS
GPRS estaba basada en la transmisión de paquetes y donde los canales de comunicación se
comparten entre los distintos usuarios de forma dinámica. GPRS coexiste con GSM, compartiendo
gran parte de la infraestructura, pero ofreciendo al usuario un servicio portador más eficiente para
las comunicaciones de datos, especialmente en el caso de los servicios de acceso a redes IP.
La velocidad teórica máxima que puede alcanzar GPRS es de 171,2 kbit/s (unas 18 veces mayor que
GSM), si bien la velocidad de acceso que experimenta el usuario en la práctica está condicionada por
distintos factores y suele ser bastante inferior: unos 40 kbit/s en el enlace descendente y 9,6 kbit/s
en el ascendente.
Las principales ventajas que aporta GPRS respecto a GSM son, además de una mayor velocidad de
transmisión, la conexión permanente y la tarifación por tráfico.
Fue incorporado al estándar GSM release 97.
HSCSD
Mediante la tecnología HSCSD, el número de canales de GSM utilizados en cada instante por una
comunicación de datos es variable, permitiendo velocidades de transmisión de hasta 57,6 kbit/s.
La ventaja de HSCSD es que la inversión para ser implementado es mínima, aunque tiene como
desventaja un mayor costo para los usuarios, pues pagan por el uso de cada canal. Este avance es
poco usado actualmente.
EDGE
EDGE es otro de los desarrollos de las redes GSM, permitiendo teóricamente velocidades de datos
de hasta 384 kbit/s. Se trata de una tecnología que mejora el ancho de banda de la transmisión de
los datos en GSM y GPRS, y que se puede considerar como precursora de UMTS.
En realidad, EDGE y UMTS son tecnologías complementarias que de forma conjunta pueden dar
apoyo a las necesidades de los operadores para lograr la cobertura y capacidad global de las redes
de tercera generación.
La conectividad virtual a la red es todo el tiempo, con diferentes formas de tarifación, ancho de
banda asimétrico en el enlace ascendente y descendente y configuración de la calidad de servicio
(QoS). Llega hasta los 2Mbit/s en condiciones ideales de funcionamiento, como por ejemplo en el
entorno interior de una oficina.
UMTS en Argentina
Las bandas empleadas por los distintos proveedores de telefonía móvil en el país, según zonas, son:
AMBA Norte Sur
Personal 850 y 1900 MHz 850 y 1900 MHz 1900 MHz
Movistar 850 MHz 1900 MHz 850 y 1900 MHz
Claro 1900 MHz 850 y 1900 MHz 850 y 1900 MHz
Contexto de la industria
El modelo de negocios de las empresas de telefonía celular era vender el minuto de aire en las
llamadas telefónicas, la cantidad de mensajes, el tiempo de conexión, etc. Con la mayor
interconexión surgieron los denominados servicios OTT (Over The Top), es decir, servicios de libre
interconexión surgieron los denominados servicios OTT (Over The Top), es decir, servicios de libre
transmisión de datos que corren "sobre la red" sin intervención del operador de telefonía móvil. Esto
obligó a los proveedores a redefinir su modelo de negocio ya que han perdido el control de lo que
ocurre a través de las redes. Esto ha dado lugar a que los proveedores de servicios de telefonía
celular han migrado sus modelos de negocios a la facturación mensual a sus clientes por un paquete
de servicios. Operan con márgenes muy estrechos debido a la competencia y la maduración de la
tecnología, entre otras razones.
Cloud computing y redes definidas por software
viernes, 15 de octubre de 2021 21:11
Cada VNF realizará una función de red (router, switch, firewall, etc.) y la combinación de varias VNFs
servirá para implementar el segmento de red virtualizado. Es importante destacar este punto, pues
una VNF en sí misma no aporta una solución NFV, sino que es la agrupación de los mismos de
manera ordenada lo que permite obtener el resultado deseado.
En general, la virtualización de elementos (utilizada para PCs y servidores desde hace un tiempo a
través de plataformas como VMWare), puede enfocarse hacia los siguientes elementos:
Dispositivos de función de red: switches, routers, puntos de acceso a red, CPEs (Customer
Premise Equipments).
Dispositivos de IT relacionados con red: firewalls, sistemas IDS (Intrusion Detection Systems),
sistemas de gestión de dispositivos de red.
Almacenamiento enlazado a red: NAS (Network Attached Storage): servidores de archivos o
bases de datos conectados a la red.
De esta manera se consigue sustituir elementos realmente complejos y especializados con sistemas
equivalentes que se ejecutan sobre hardware genérico. Cada fabricante/desarrollador podrá ofertar
diferentes VNFs, que los proveedores podrán combinar de forma que cubran la necesidad de la
solución de la mejor forma posible.
No obstante, deben tenerse en cuenta las siguientes consideraciones:
Implementaciones multifabricante: COTS (Commercial off the Shelf, cualquier dispositivo).
Control de ciclo de vida e interacciones entre las diferentes funciones.
Control de los recursos hardware asociados.
Monitorización del uso.
Configuración de las diferentes VNFs.
Necesidades de las interconexiones entre las entidades para poder asegurar el servicio.
Interacción con OSSs y BSSs (sistemas de operación y facturación de los proveedores).
La ETSI (European Telecommunications Standards Institute) creó un grupo dedicado al control de
iniciativas basadas en tres criterios principales:
Decoupling: separación total de hadware y software.
Flexibilidad: implementación automatizada y escalable de funciones de red.
Operaciones dinámicas: control adecuado de los parámetros de operación de las funciones de
red a través de control pormenorizado y monitorización del estado de la red.
De manera resumida, podríamos dividir el framework en tres bloques principales, que se describen a
continuación:
Network Functions Virtualization Infrastructure (NFVI): constituye la base general de la
arquitectura; contiene el hardware para alojar las máquinas virtuales, el software que hace
posible la virtualización y los propios recursos virtualizados.
Virtualized Network Function (VNF): utiliza las máquinas virtuales que ofrece el bloque NFVI,
construyendo sobre ellas las funciones virtualizadas de red añadiendo el software necesario.
Management and Orchestration (MANO): MANO se define como un bloque separado dentro
de la arquitectura, que interactúa tanto con NFVI como con VNF. Se delega en esta capa toda
la gestión de los recursos de la capa de infraestructura (incluyendo la creación, borrado y
reserva de espacio necesarios para la gestión de las diferentes máquinas virtuales). Debe por
tanto poder conocer el nivel de uso, estado, estadísticas y resto de parámetros asociados a
cada uno de los elementos.
Ventajas
Las ventajas de la aplicación de NFV son claras respecto al enfoque de redes “clásicas”; algunas de
ellas son las siguientes:
Simplificar la implantación de elementos de red: se pasa de soluciones complicadas,
jerarquizadas y específicas a soluciones más flexibles, que permiten una implantación más
sencilla y modificaciones más rápidas y de menor impacto.
Conseguir mayor velocidad en el despliegue de elementos de red: se pasa de depender de una
Conseguir mayor velocidad en el despliegue de elementos de red: se pasa de depender de una
implantación hardware complicada y larga a implantaciones software directas, mucho más
rápidas.
Aumento en la escalabilidad de la red: ya no se necesita un número tan elevado de equipos
hardware para escalar la red, puesto que con los elementos virtualizados puede realizarse de
forma directa hasta conseguir ratios muy elevados.
Independencia de los fabricantes de equipos: se elimina la dependencia de ciertos grandes
fabricantes para algunas soluciones, lo que aminora los costes y permite evoluciones más
rápidas.
Interoperabilidad (estándares abiertos): permite asegurar la compatibilidad entre diferentes
elementos que cumplan la norma del framework general.
Seguridad: mediante la orquestación y visión conjunta de los diferentes elementos de red a
través de sistemas de gestión común, se mejoran las capacidades de seguridad de la red;
además, se puede dotar a los clientes de un espacio virtual para sus configuraciones
personalizadas de firewall y seguridad, sin afectar al resto de la red.
Menor Time-To-Market: la comercialización de los productos de los proveedores podrá
hacerse de una forma mucho más rápida, evitando perder oportunidades de negocio por
largos plazos de implantación de servicios físicos.
Ahorro de costes:
o Reducción de la inversión requerida (CapEx, Capital Expenses)
o Reducción del coste de operación (OpEx, Operation Expenses)
o Redes Definidas Por Software – (SDN)
Las redes definidas por software (SDN, Software Defined Networking) incluyen varios tipos de
tecnologías, tales como: orquestación, virtualización y red superpuesta. Cuando se implementan en
conjunto, hacen la red más ágil y flexible. Ejemplo de ello es la infraestructura de servidores y
almacenamiento virtualizado de los centros de datos, que se simula mediante medios electrónicos.
Desde una perspectiva no centrada en una definición estricta, las SDN pueden considerarse un
conjunto de procesos de adopción de herramientas y metodologías de gestión de redes y seguridad
orientadas a otorgar mayor flexibilidad y escalabilidad a todo cambio en el negocio que impacte
sobre la infraestructura tecnológica, sin alterar sus estándares de seguridad y su calidad de gestión, y
aumentado la calidad y velocidad de implementación de estos. Toda organización que emprenda el
camino de buscar e implementar metodologías y herramientas que tiendan a automatizar los
procesos de gestión de las redes y la seguridad estará ingresando al entorno de las SDN.
El objetivo de SDN es permitir a los administradores de TI responder rápidamente a las necesidades
de los negocios, por medio de un control centralizado basado en el software. Los planos de control y
reenvío proporcionan una visión centralizada de red distribuida, orquestada y automatizada para
que el administrador pueda tener servicios más eficientes.
La virtualización de funciones de red (NFV) y las SDN están relacionadas. NFV se puede implementar
sin SDN y mutuamente, pero los dos conceptos y soluciones deben combinarse para ser más
eficientes y beneficiarse mutuamente.
En realidad, SDN hace a NFV más atractivo y viceversa, porque una red definida por software
contribuye a la automatización de su infraestructura, lo que permite la toma de decisiones basadas
en políticas diseñadas para orquestar el tráfico de la red. Y por el lado de la virtualización, las
funciones de red actúan directamente sobre los servicios, garantizando su capacidad, al alinearlos
con los elementos virtualizados.
Para ser más escalables, ágiles e innovadoras, SDN y NFV tienen un enfoque basado en software,
proporcionando una mejor alineación de sus componentes, apoyando los objetivos de TI de una
empresa.
Ya los servicios de NFV proporcionan la capacidad de ajustar y modificar los recursos de red en
tiempo real, ofreciendo experiencias personalizadas a los clientes. En un mundo perfecto, la
infraestructura evoluciona al mismo ritmo que las aplicaciones y los servicios relacionados. Sin
embargo, en el mundo actual las redes utilizan una sola cadena servicios. Es decir, estas redes están
limitadas a un proceso, que se puede superar con el uso de tecnologías SDN y NFV para lograr el
máximo rendimiento.
Definición
Las SDN incorporan diferentes conceptos generales y relacionados que permiten acercarse a una
definición más estricta, como:
Automatización de las redes (Network Automation).
Programación de las redes (Network Programmability).
Controlador de red centralizado (Network Controller).
Interfaces y APIs.
Separación de Hardware y Software de Red (Bare Metal Networking, White Boxes).
Una SDN puede definirse como la separación física del plano de control de red (network control
plane) del plano de reenvío de red (forwarding plane), donde el primero es el encargado de
controlar los dispositivos de la red al ser directamente programable y permitir que la infraestructura
desplegada pueda ser abstraída a las aplicaciones y servicios de red.
Principios
SDN es una arquitectura que debe presentar los siguientes principios:
Programable: El control de la red a través del plano de control es directamente programable
porque se encuentra desacoplado de las funciones de procesamiento, almacenamiento y
reenvío de datos de red.
Ágil: La abstracción y separación de los planos habilita a los administradores ajustar
dinámicamente los parámetros de la red de forma general, grupal o especifica según la
necesidad de cambio.
Administrable de forma centralizada: La función de inteligencia, definición, validación e
implementación de las políticas de red se definen desde una única ubicación central
(generalmente en un controlador de red basado en software), que posee una visión global de
la red y se presenta hacia las aplicaciones y los dispositivos de red que forman el plano de
reenvío de red.
• Configurable programáticamente: Se permite a los administradores de red configurar, dar
seguridad, operar y optimizar la red de forma rápida y eficiente a través de programas de
automatización de red. Inclusive los mismos administradores de red pueden desarrollar sus
automatización de red. Inclusive los mismos administradores de red pueden desarrollar sus
propios programas o procedimientos al no depender de software propietario.
• Basada en estándares abiertos y neutralidad de fabricantes: Al implementar SDN con
estándares abiertos, la arquitectura de red se simplifica en diseño y operación, utilizado
controladores de red basados en software en contraposición a múltiples dispositivos,
herramientas y protocolos dispares, provenientes de diferentes fabricantes.
Arquitectura estándar
Considerando la perspectiva de la operación y funcionamiento de SDN una arquitectura genérica de
SDN cuenta con tres capas básicas:
Capa de aplicación
En la capa de aplicación se encuentran las aplicaciones del negocio o el software de administración
de la red que definirán las políticas de red a establecer o cambiar a través de la capa de control.
En general las aplicaciones de esta capa estarán basadas en web y desarrolladas en lenguajes de alto
nivel como Python, JS, java, php, etc. Como protocolo de comunicación con la capa de control se
utilizarán APIs de tipo REST, principalmente gracias a su facilidad de uso, versatilidad y a su
capacidad de integración dentro de la lógica de las aplicaciones.
Se denominan interfaces de frontera norte (Northbound Interfaces) a toda API que establezca una
comunicación entre las aplicaciones de la capa de aplicación y el controlador (generalmente llamado
SDN Controller) de la capa de control.
El controlador se abstraerá de la complejidad de las aplicaciones en la capa superior. Solo recibirá
instrucciones, parámetros y configuraciones en formato REST que serán validados, procesados y
preparados para su envío a las capas inferiores.
Las aplicaciones de negocio pueden integrar en su diseño la lógica necesaria para responder ante los
cambios sobre su contexto o propio funcionamiento, disparado, por ejemplo, modificaciones en su
capacidad de concurrencia y/o velocidad de respuesta y/o seguridad. Estos cambios, a su vez,
provocarán cambios sobre las políticas de red y seguridad de la infraestructura tecnológica, como
por ejemplo ampliar la generación de reglas de control de acceso de red por el despliegue de nuevas
réplicas de la aplicación, o incrementar el ancho de banda disponible ante el traspaso de umbrales
de consumo de capacidad de red disponible. Las aplicaciones podrán entonces iniciar la ejecución de
cambios en su funcionamiento que se propagarán hacia las capas inferiores de la arquitectura de
SDN, hasta modificar la configuración del equipamiento de red como conmutadores (switches),
enrutadores (routers), contafuegos (firewalls), balanceadores de carga, etc.
En lo que respecta al software de administración de red presente en la capa de aplicación, se podrán
definir políticas de comportamiento de las aplicaciones; umbrales de capacidad, disponibilidad y
seguridad; y cambios en los servicios de red asociados a las aplicaciones de negocio.
Capa de control
Para toda clase de software presente en la capa de aplicación, las políticas de red que se necesiten
aplicar deberán ser validadas por la capa de control y convertidas en instrucciones claras y concisas
a implementar sobre la capa de infraestructura.
La capa de control se encargará de congeniar el estado deseable de la política de red buscada por el
negocio con las capacidades, condiciones y restricciones presentes en la capa de infraestructura.
negocio con las capacidades, condiciones y restricciones presentes en la capa de infraestructura.
El componente fundamental de la capa de control es el controlador SDN (SDN Controller) que
recibirá las políticas desde los protocolos implementados en la interfaz de frontera norte
(Northbound Interface), las validará, las traducirá en reglas y las ejecutara vía la interfaz de frontera
sur (Southbound Interface) a través de diferentes protocolos de comunicación.
Los protocolos de comunicación hacia la capa de infraestructura son más numerosos, y se puede
encontrar SNMP (Protocolo simple de administración de red que opera en la capa de aplicación y
que facilita el intercambio de información de administración entre dispositivos de red) como la
alternativa tradicional y de uso extendido, pero además existen otras alternativas tecnológicas como
Netconf, OpenFlow o OVSDB.
De los protocolos mencionados previamente, OpenFlow fue el primero en implementar los principios
de operación de SDN al aplicar la separación entre el control del estado de la red, y el trabajo de
reenvío y procesamiento de datos en cada dispositivo de red. El uso de OpenFlow en un controlador
SDN habilita la implementación de redes más complejas, que poseen requisitos de tráficos de red
diferenciados y precisos, con altos estándares de seguridad. Cualquier dispositivo de red en
ejecución sobre la capa de transporte, red o enlace del modelo OSI que soporte el protocolo
OpenFlow sólo estará a la espera de aplicar y guardar en sus tablas las reglas de operación y de
seguridad correspondientes a la política validada por el controlador.
Como consecuencia, el equipamiento de red reduce su complejidad al delegar el control al
controlador y se aumenta su interoperabilidad e independencia entre diferentes fabricantes, se
mejora capacidad de recambio de hardware sin disrupciones de servicio, y se incrementa la
escalabilidad al simplemente conectar más equipamiento a la red sin configuraciones o gestiones
complejas.
Capa de infraestructura
Las transformaciones sobre los principios de gestión de las redes y la seguridad impuestas por SDN
produjo un cambio en la fabricación del equipamiento informático y de comunicaciones. El objetivo
de la capa de infraestructura es la implementación en hardware y software de las reglas
establecidas por el controlador SDN mediante la utilización de un protocolo de comunicación de
frontera sur (Southbound interface) como OpenFlow.
Por lo tanto, se considera que todo equipamiento de red que se encuentre en esta capa realiza tres
funciones principales:
• Recibe configuraciones y reglas a insertar por el plano de control, y las aplica en sus tablas de
reenvío (paquetes o tramas según su capa).
• Mantiene y controla el estado de sus componentes. Puede manejar fallas sobre los enlaces.
• Mantiene y envía estadísticas generales sobre su funcionamiento, y sobre el estado de sus
interfaces.
La simplificación de las funciones de red, la inteligencia de sus operaciones y la separación de su
gestión hacia el controlador potenció la aparición de equipamiento genérico, interoperable e
independiente de fabricantes, basados en sistemas operativos de código abierto como Linux.
Otro resultado es la separación del equipamiento de hardware y el software, transformando al
primero en estándar y genérico (White box networking), y apareciendo compañías especializadas en
sistemas operativos y servicios de redes.
Algunas de estas compañías son Cumulus Networks, Big Switch Networks y Pica8, y solo ofrecen
soluciones de redes basadas en software. Actualmente existen compañías como Dell o HP que
soportan estos sistemas operativos de terceros en sus plataformas de hardware.
Cloud computing
La computación en la nube (cloud computing), conocida también como servicios en la nube,
informática en la nube, nube de cómputo, nube de conceptos o simplemente «la nube» es un
paradigma que permite ofrecer servicios de computación a través de una red, que usualmente es
Internet.
Cloud computing es un nuevo modelo de prestación de servicios de negocio y tecnología que
permite incluso al usuario acceder a un catálogo de servicios estandarizados y responder con ellos a
las necesidades de su negocio, de forma flexible y adaptativa, en caso de demandas no previsibles o
de picos de trabajo, pagando únicamente por el consumo efectuado.
La computación en la nube consigue aportar estas ventajas, apoyándose sobre una infraestructura
tecnológica dinámica que se caracteriza, entre otros factores, por un alto grado de automatización,
una rápida movilización de los recursos, una elevada capacidad de adaptación para atender a una
demanda variable, así como virtualización avanzada y un precio flexible en función del consumo
realizado, evitando además el uso fraudulento del software y la piratería.
Modalidades
Un servicio en la nube puede darse en 3 modalidades:
• Infraestructura como Servicio (IaaS): se refiere a la tercerización de los equipos utilizados para
apoyar las operaciones, incluido el almacenamiento, hardware, servidores y componentes de
red.
La virtualización de funciones de red tiene una estrecha relación con las soluciones de cloud
computing, por lo que se adaptan a sus modelos de servicios.
A las modalidades IaaS, PaaS y SaaS se agrega la de on premise, o "en local", la cual se refiere al tipo
de instalación de una solución de software. Esta instalación se lleva a cabo dentro del servidor y la
infraestructura (TIC) de la empresa. Es el modelo tradicional de aplicaciones empresariales. Así, la
empresa es la responsable de la seguridad, disponibilidad y gestión del software. Por lo que la
empresa debe tener un departamento de sistemas que dedique parte de sus recursos a la gestión de
la infraestructura in situ. La instalación on premise ofrece ventajas como una mayor control, pero la
inversión inicial es más arriesgada.
Tipos de nubes
Las nubes se clasifican en públicas, privadas, híbridas o comunitarias:
Nube pública
La nube pública es una nube computacional mantenida y gestionada por terceras personas no
vinculadas con la organización. En este tipo de nubes tanto los datos como los procesos de varios
clientes se ejecutan en los servidores, sistemas de almacenamiento y otras infraestructuras de la
nube.
Los usuarios finales de la nube no conocen qué trabajos de otros clientes pueden estar corriendo en
el mismo servidor, red, sistemas de almacenamiento, etc.
Aplicaciones, almacenamiento y otros recursos están disponibles al público a través del proveedor
de servicios, que es propietario de toda la infraestructura en sus centros de datos; el acceso a los
servicios solo se ofrece de manera remota, normalmente a través de Internet.
Dentro de estas nubes podemos encontrar englobadas las Cloud Privadas Virtuales, consideradas
como nubes de dominio público pero que mejoran la seguridad de los datos. Estos datos se
encriptan a través de la implantación de una VPN.
Nubes privadas
Las nubes privadas existen en una infraestructura bajo demanda, gestionada para un solo cliente
que controla qué aplicaciones deben ejecutarse y dónde. Son propietarios del servidor, red, y disco y
pueden decidir qué usuarios están autorizados a utilizar la infraestructura. Al administrar
internamente estos servicios, las empresas tienen la ventaja de mantener la privacidad de su
información y permitir unificar el acceso a las aplicaciones corporativas de sus usuarios. Son una
buena opción para las compañías que necesitan alta protección de datos y ediciones a nivel de
servicio.
Nubes híbridas
Las nubes híbridas combinan los modelos de nubes públicas y privadas. Un usuario es propietario de
algunas partes y comparte otras, aunque de una manera controlada. Las nubes híbridas ofrecen la
promesa del escalado, aprovisionada externamente, a demanda, pero añaden la complejidad de
determinar cómo distribuir las aplicaciones a través de estos ambientes diferentes. Las empresas
pueden sentir cierta atracción por la promesa de una nube híbrida, pero esta opción, al menos
inicialmente, estará probablemente reservada a aplicaciones simples sin condicionantes, que no
requieran de ninguna sincronización o necesiten bases de datos complejas. Se unen mediante la
tecnología, pues permiten enviar datos o aplicaciones entre ellas. Un ejemplo son los sistemas de
correo electrónico empresarial.
Nubes comunitarias
Se define el modelo de nube comunitaria como aquel que se organiza con la finalidad de servir a
una función o propósito común (seguridad, política, etc.), las cuales son administradas por las
organizaciones constituyentes o terceras partes.
Ventajas
Las principales ventajas de la computación en la nube son:
Integración probada de servicios red: Por su naturaleza, la tecnología de cloud computing se
puede integrar con mucha mayor facilidad y rapidez con el resto de las aplicaciones
puede integrar con mucha mayor facilidad y rapidez con el resto de las aplicaciones
empresariales.
Prestación de servicios a nivel mundial: Las infraestructuras de cloud computing proporcionan
mayor capacidad de adaptación, recuperación completa de pérdida de datos (con copias de
seguridad) y reducción al mínimo de los tiempos de inactividad.
Una infraestructura 100 % de cloud computing permite también al proveedor de contenidos o
servicios en la nube prescindir de instalar cualquier tipo de software, ya que este es provisto
por el proveedor de la infraestructura o la plataforma en la nube. Un gran beneficio del cloud
computing es la simplicidad y el hecho de que requiera mucha menor inversión para empezar
a trabajar.
Implementación más rápida y con menos riesgos, ya que se comienza a trabajar más rápido y
no es necesaria una gran inversión. Las aplicaciones del cloud computing suelen estar
disponibles en cuestión de días u horas en lugar de semanas o meses, incluso con un nivel
considerable de personalización o integración.
Actualizaciones automáticas que no afectan negativamente a los recursos de TI. Al actualizar
a la última versión de las aplicaciones, el usuario se ve obligado a dedicar tiempo y recursos
para volver a personalizar e integrar la aplicación. Con el cloud computing no hay que decidir
entre actualizar y conservar el trabajo, dado que esas personalizaciones e integraciones se
conservan automáticamente durante la actualización.
Contribuye al uso eficiente de la energía. En este caso, a la energía requerida para el
funcionamiento de la infraestructura. En los datacenters tradicionales, los servidores
consumen mucha más energía de la requerida realmente. En cambio, en las nubes, la energía
consumida es solo la necesaria, reduciendo notablemente el desperdicio.
Desventajas
La centralización de las aplicaciones y el almacenamiento de los datos origina una
dependencia de los proveedores de servicios.
La disponibilidad de las aplicaciones está sujeta a la disponibilidad de acceso a Internet.
La confiabilidad de los servicios depende de la "salud" tecnológica y financiera de los
proveedores de servicios en nube. Empresas emergentes o alianzas entre empresas podrían
crear un ambiente propicio para el monopolio y el crecimiento exagerado en los servicios.
Seguridad. La información de la empresa debe recorrer diferentes modos para llegar a su
destino, cada uno de ellos (y sus canales) son un foco de inseguridad. Si se utilizan protocolos
seguros, HTTPS por ejemplo, la velocidad total disminuye debido a la sobrecarga que estos
requieren.
Escalabilidad a largo plazo. A medida que más usuarios empiecen a compartir la
infraestructura de la nube, la sobrecarga en los servidores de los proveedores aumentará, si la
empresa no posee un esquema de crecimiento óptimo puede llevar a degradaciones en el
servicio.