Documentos de Académico
Documentos de Profesional
Documentos de Cultura
4° Año – 2° Cuatrimestre
Licenciatura en Sistemas de Información
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Clases presenciales.
N° Clase Fecha Tema/Modulo Profesor/es
1 10/08/2017 0) Clase de Presentación Lic. Leopoldo Ríos
2 3) Tecnologías de Virtualización para Datacenter: Bare metal y Lic. Leopoldo Ríos
11/08/2017 Hosting.
3 11/08/2017 Virtualización con Tecnologías Vmware. (Laboratorio N° 1) Lic. Juan F. Bosco
4 Virtualización con Tecnologías Vmware. - PARTE 2 Con PC Lic. Juan F. Bosco
15/08/2017 (Laboratorio N° 1)
5 1) Protocolos de aplicación: DNS, HTTP. Descripción y Lic. Leopoldo Ríos
16/08/2017 funcionalidades.
6 Direccionamiento IP versión 4, versión 6 Subnetng, CIDR. (Trabajo Lic. Leopoldo Ríos
18/08/2017 Práctico N° 1)
7 1) Monitoreo del Datacenter: objetos de hardware y de sofware, Lic. Leopoldo Ríos
22/08/2017 Protocolo SNMP.
8 1) Autenticación y acceso seguro a recursos computacionales: Lic. Leopoldo Ríos
22/08/2017 protocolo LDAP.
9 Aplicaciones TCP-IP conocidas: diagnóstico y resolución de Lic. Leopoldo Ríos
23/08/2017 problemas (TP 2)
10 1) Difusión de Aplicaciones Informáticas en red local y en Internet, Lic. Leopoldo Ríos
25/08/2017 tecnologías disponibles.
11 1) Internet de las cosas IoT: aplicaciones sobre open hardware (Intel Lic. Leopoldo Ríos
25/08/2017 Galileo).
12 29/08/2017 Linux, comandos básicos (Laboratorio N° 2) Lic. Juan F. Bosco
13 30/08/2017 Capa aplicación: HTTP (Trabajo Práctico N° 2) Lic. Juan F. Bosco
14 2) Voz y Video sobre una red de conmutación de paquetes, Lic. Leopoldo Ríos
01/09/2017 infraestructura requerida.
15 01/09/2017 2) Protocolos: SIP, RTP. Lic. Leopoldo Ríos
16 3) Computación en la nube: Modelo computacional de Internet, Lic. Leopoldo Ríos
05/09/2017 generaciones, arquitectura.
17 05/09/2017 3) Formas de despliegue de nube: privado y público. Lic. Leopoldo Ríos
18 06/09/2017 Paso de mensajes (Trabajo Práctico N° 7) Lic. Juan F. Bosco
18 4) Almacenamiento y Gestión de Datos: soluciones SAN y Lic. Leopoldo Ríos
08/09/2017 soluciones NAS.
19 4) Caracterización de dispositivos Storage, protocolos de Lic. Leopoldo Ríos
comunicación y transporte: el protocolo iSCSI, protocolo/servicio
08/09/2017 NFS.
20 12/09/2017 Almacenamiento compartido en red (Laboratorio N° 4) Lic. Leopoldo Ríos
21 12/09/2017 4) Conceptos de Multipath, Failover, Clustering. Lic. Leopoldo Ríos
22 13/09/2017 Captura de paquetes (Trabajo Práctico N° 3) Lic. Juan F. Bosco
23 15/09/2017 5) Interconexión de redes LAN y WAN. El modelo de Internet. Lic. Leopoldo Ríos
24 5) Servicios de red IP: IPv4: direccionamiento y subredes, CIDR, Lic. Leopoldo Ríos
15/09/2017 ICMP.
25 5) Protocolos de Internet. Algoritmos de ruteo intra-AS: vector Lic. Leopoldo Ríos
15/09/2017 distancia y estado de enlace, RIP y OSPF.
26 19/09/2017 Repaso del examen parcial Lic. Juan F. Bosco
27 22/09/2017 Ruteo de datagramas IP - Parte 1 (Trabajo Práctico N° 4) Lic. Juan F. Bosco
28 22/09/2017 5) Algoritmos de ruteo inter-AS: BGP. Lic. Juan F. Bosco
29 26/09/2017 Ruteo de datagramas IP - Parte 2 (Trabajo Práctico N° 4) Lic. Juan F. Bosco
31 29/09/2017 6) Latencia y ancho de banda en redes de alta prestación. Lic. Leopoldo Ríos
32 6) Tópicos para el diseño de Redes switcheadas: 1GBE y 10GBE, Lic. Leopoldo Ríos
03/10/2017 cobre y fbra.
33 03/10/2017 6) Infniband de 40GB. Lic. Leopoldo Ríos
2
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Actvidades de Evaluación.
Actvidad Fecha Hora Profesor
Primer Parcial Miércoles, 20 de septiembre de 2017 17:00 (Lab. Redes de Datos) Lic. Juan Francisco Bosco
Recuperatorio Primer Parcial Miércoles, 27 de septiembre de 2017 17:00 (Lab. Redes de Datos) Lic. Leopoldo José Ríos
Segundo Parcial Viernes, 17 de noviembre de 2017 17:00 (Lab. Redes de Datos) Lic. Leopoldo José Ríos
Recuperatorio Segundo Miércoles, 22 de noviembre de 2017 17:00 (Lab. Redes de Datos) Lic. Juan Francisco Bosco
Parcial
Extraordinario Miércoles, 1 de diciembre de 2017 17:00 (Lab. Redes de Datos) Lic. Juan Francisco Bosco
Examen Final Miércoles, 1 de diciembre de 2017 17:00 (Lab. Redes de Datos) Lic. Juan Francisco Bosco
3
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Indice
4
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Capa de Aplicación
Las aplicaciones de red son la razón de ser de una red de computadoras (si no pudiéramos concebir ninguna
aplicación útil, no existiría la necesidad de diseñar protocolos de red para darlas soporte). El objetivo es
estudiar los aspectos conceptuales y de implementación de las aplicaciones de red.
Un protocolo de la capa de aplicación defne cómo los procesos de una aplicación, que se ejecutan en distintos
sistemas terminales, se pasan los mensajes entre sí. En particular, un protocolo de la capa de aplicación defne:
• Los tipos de mensajes intercambiados; por ejemplo, mensajes de solicitud y mensajes de respuesta.
• La sintaxis de los diversos tipos de mensajes, es decir, los campos de los que consta el mensaje y cómo se
delimitan esos campos.
• La semántica de los campos, es decir, el signifcado de la información contenida en los mismos.
• Las reglas para determinar cuándo y cómo un proceso envía mensajes y los responde.
La capa de aplicación sólo estandariza la comunicación y depende de los protocolos de la capa de transporte
subyacente para establecer canales de transferencia de datos. En la selección de la Arquitectura de aplicación,
el desarrollador probablemente utilizará uno de los dos paradigmas arquitectónicos predominantes en las
aplicaciones de red modernas: la arquitectura cliente-servidor o la arquitectura P2P.
En una arquitectura cliente-servidor siempre existe un host activo, denominado servidor, que da servicio a las
solicitudes de muchos otros hosts, que son los clientes. Los hosts clientes pueden estar activos siempre o de
forma intermitente. Un ejemplo clásico es la Web en la que un servidor web siempre activo atiende las
solicitudes de los navegadores que se ejecutan en los hosts clientes. Cuando un servidor web recibe una
solicitud de un objeto de un host cliente, responde enviándole el objeto solicitado. Se puede observar que, con
la arquitectura cliente-servidor, los clientes no se comunican directamente entre sí; por ejemplo, en la
aplicación web, dos navegadores no se comunican entre sí. Otra característica de la arquitectura cliente-
servidor es que el servidor tiene una dirección fja y conocida, denominada dirección IP. Puesto que el servidor
tiene dicha dirección, y siempre está activo, un cliente siempre puede contactar con él enviando un paquete a
su dirección. Entre las aplicaciones más conocidas que utilizan la arquitectura cliente-servidor se encuentran las
aplicaciones web, FTP, Telnet y de correo electrónico. En la Figura (a) se muestra la arquitectura cliente-
servidor.
Normalmente, en una aplicación cliente-servidor un único host servidor es incapaz de responder a todas las
solicitudes de sus clientes. Por ejemplo, el sitio de una red social popular puede verse rápidamente desbordado
si sólo dispone de un servidor para gestionar todas las solicitudes. Por esta razón, en las arquitecturas cliente-
servidor suele utilizarse una agrupación (clúster) de hosts, que a veces se denomina centro de datos, para crear
un servidor virtual de gran capacidad. Los servicios de aplicaciones basadas en una arquitectura cliente-
servidor a menudo precisan una infraestructura intensiva, ya que requieren que los proveedores de servicios
compren, instalen y mantengan granjas de servidores.
5
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Además, los proveedores del servicio deben afrontar los costes de las recurrentes interconexiones y ancho de
banda para enviar datos a Internet y recibirlos. Servicios populares como los motores de búsqueda (por
ejemplo, Google), el comercio por Internet (como Amazon y e-Bay), el correo electrónico web (como por
ejemplo Yahoo Mail), las redes sociales (como MySpace y Facebook) y la compartición de vídeos (como
YouTube) precisan una infraestructura donde su suministro es enormemente costoso.
En una arquitectura P2P la aplicación explota la comunicación directa entre parejas de hosts conectados de
forma intermitente, conocidos como peers (pares).
Los pares no son propiedad del proveedor del servicio, sino que las computadoras de escritorio y portátiles son
controlados por usuarios, encontrándose la mayoría de los pares en domicilios, universidades y ofcinas. Puesto
que los pares se comunican sin pasar por un servidor dedicado, la arquitectura se denomina arquitectura peer-
to-peer (P2P).
Muchas de las aplicaciones actuales más populares y con un elevado nivel de tráfco están basadas en
arquitecturas P2P. Entre estas aplicaciones se incluyen la distribución de archivos (por ejemplo, BitTorrent), la
compartición de archivos, la telefonía por Internet (como Skype, WhatsApp) y la IPTV.
Una de las características más convincentes de las arquitecturas P2P es su auto-escalabilidad. Las
arquitecturas P2P también presentan una buena relación costo-prestación, ya que no requieren una
infraestructura de servidores signifcativa ni un gran ancho de banda de servidor.
6
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
El IETF ha defnido en sus inicios un conjunto de protocolos de aplicación soportados sobre Internet, defnido
como RFC 1123.
• Inicio de sesión remoto de los ejércitos: Telnet
• Transferencia de archivos: File Transfer Protocol (FTP), Trivial File Transfer Protocol (TFTP)
• Transporte de correo electrónico: Simple Mail Transfer Protocol (SMTP)
• Soporte de redes: sistema de nombres de dominio (DNS)
• Host de inicialización: BOOTP
• Gestión de host remoto: Simple Network Management Protocol (SNMP)
Conjunto de protocolos de Internet
Capa de Aplicación
BGP – DHCP – DNS – FTP – HTTP – IMAP – LDAP – MGCP – NNTP – NTP – POP- ONC/RPC – RTP –RTSP
– RIP – SIP – SMTP – SNMP – SSH – Telnet – TLS/SSL – XMPP – etcétera…
Capa de Transporte
TCP – UDP – DCCP – SCTP – RSVP – etcétera…
Capa de Internet
IP (IPv4 – IPv6) – ICMP – ICMPv6 – ECN – IGMP – IPSec – etcétera…
Capa de Enlace de Datos
ARP – NDP – OSPF – Túneles (L2TP) – PPP – MAC (Ethernet – DSL – ISDN - FDDI) – etcétera…
7
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
000101010010100010100100101010100 Bits
FÍSICA BITS
Protocolo HTTP
• El Protocolo de transferencia de hipertexto (HTTP, HyperText Transfer Protocol) es un sofware que
implementa un protocolo de capa de aplicación Web. Está defnido en los documentos [RFC 1945] y [RFC
2616].
• HTTP utiliza TCP como su protocolo de transporte subyacente (en lugar de ejecutarse por encima de UDP).
• El cliente HTTP primero inicia una conexión TCP con el servidor. Luego los procesos de navegador y de
servidor acceden a TCP a través de sus interfaces de socket.
• Dado que un servidor HTTP no mantiene ninguna información acerca de los clientes, se dice que HTTP es un
protocolo sin memoria del estado.
8
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Re
P sp
TT So ue
d
H
T TP lic
itu ta
s
itu aH d H
lic st HT TTP
So pue TP
s
Re
HTTP defne la estructura de estos mensajes y cómo el cliente y el servidor intercambian los mismos.
HTTP se implementa en dos programas: un programa cliente y un programa servidor.
El programa cliente y el programa servidor, que se ejecutan en sistemas terminales diferentes, se comunican
entre sí intercambiando mensajes HTTP.
Una página o documento web consta de objetos. Un objeto es simplemente un archivo (como por ejemplo, un
archivo HTML, una imagen JPEG, un applet Java o un clip de vídeo) que puede direccionarse mediante un
único URL.
La mayoría de las páginas web están constituidas por un archivo base HTML y varios objetos referenciados. El
archivo base HTML hace referencia a los otros objetos contenidos en la página mediante los URL de los
objetos. Cada URL tiene dos componentes: el nombre de host del servidor que alberga al objeto y el nombre de
la ruta al objeto.
Cuando el navegador recibe la página web, la muestra al usuario. Dos navegadores distintos pueden interpretar
(es decir, mostrar al usuario) una página web de formas distintas. HTTP no tiene nada que ver con cómo un
cliente interpreta una página web.
Las especifcaciones HTTP únicamente defnen el protocolo de comunicación entre el programa HTTP cliente y
el programa HTTP servidor.
9
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Inicio de la
conexión TCP
RTT
Solicitud del
archivo
RTT
Tiempo invertido en
transmitir el archivo
Recepción del
Archivo
completo
El modo por defecto de HTTP utiliza conexiones persistentes con procesamiento en cadena.
Formato de mensajes.
Mensaje de solicitud HTTP
GET /unadireccion/pagina.html HTTP/1.1
Host: www.unaescuela.edu
Connection: close
User-agent: Mozilla/4.0
Accept-language: fr
10
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Respuestas HTTP:
200 OK:
La solicitud se ha ejecutado con éxito y se ha devuelto la información en el mensaje de respuesta.
301 Moved Permanently:
El objeto solicitado ha sido movido de forma permanente; el nuevo URL se especifca en la línea de cabecera
Location: del mensaje de respuesta. El sofware cliente recuperará automáticamente el nuevo URL.
400 Bad Request:
Se trata de un código de error genérico que indica que la solicitud no ha sido comprendida por el servidor.
Interacción usuario-servidor: cookies.
404 Not Found:
El documento solicitado no existe en este servidor.
505 HTTP Version Not Supported:
La versión de protocolo HTTP solicitada no es soportada por el servidor.
11
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
12
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
• En el núcleo de HTML5 se incluyen una serie de nuevos elementos semánticos, así como varias tecnologías y
API relacionadas. Estas adiciones y cambios en el lenguaje permite a los desarrolladores crear páginas web más
fáciles de codifcar, usar y acceder.
• Estos nuevos elementos semánticos, junto con otros estándares como WAI-ARIA y Microdata ayudan a que
los documentos más accesibles a los seres humanos y máquinas-resultando en benefcios tanto para la
accesibilidad y la búsqueda optimización de motores.
• Los elementos semánticos, en particular, han sido diseñados con la Web dinámica en mente, con un enfoque
particular en la fabricación modular de páginas más accesibles.
• Las API asociadas con HTML5 ayudan a mejorar en una serie de técnicas que los desarrolladores web han
estado utilizando durante años. Muchas de las tareas comunes se han simplifcado, poner más poder en manos
de los desarrolladores.
• La introducción de audio y vídeo en HTML5 signifca que habrá una menor dependencia de plugins y
sofware de terceros al publicar contenido multimedia en la Web.
• Así como las personas podemos ser identifcadas de diversas formas (Apellido y Nombre, y DNI), los hosts de
Internet también. Un identifcador para hosts es el nombre de host. Los nombres de host, como por ejemplo
www.unne.edu.ar, www.cnn.com, www.yahoo.com, son mnemónicos y son, por tanto, entendidos por las
personas. Sin embargo, los nombres de host no proporcionan ninguna información acerca de la ubicación del
host dentro de la red de Internet.
• Los nombres de host pueden constar de caracteres alfanuméricos de longitud variable, lo cual es difcil de
procesar por los routers. Por estas razones, los hosts también se identifcan mediante direcciones IP, en versión
4 o versión 6.
• Una dirección IP versión 4, consta de cuatro bytes y sigue una rígida estructura jerárquica. El aspecto de una
dirección IP es, por ejemplo, 121.7.106.83, donde cada punto separa uno de los bytes expresados en notación
decimal con valores comprendidos entre 0 y 255.
• Una dirección IP es jerárquica porque al explorar la dirección de izquierda a derecha, se obtiene información
cada vez más específca acerca del lugar o zona, en el que está ubicado el host dentro de la red Internet. Se
debe identifcar la sub-red dentro de una red.
• DNS es un sofware que implementa un protocolo consistente en una base de datos distribuida
implementada en una jerarquía de servidores DNS, desplegado como un protocolo de la capa de aplicación que
permite a los hosts consultar la base de datos distribuida.
Los servidores DNS suelen ser máquinas UNIX/Linux que ejecutan el sofware BIND (Berkeley Internet Name
Domain, Dominio de nombres de Internet de Berkeley) [BIND 2009]. El protocolo DNS se ejecuta sobre UDP y
utiliza por defecto el puerto 53.
¿Qué ocurre cuando un navegador (es decir, un cliente HTTP), que se ejecuta en un determinado host de
usuario, solicita el URL www.unne.edu.ar? Para que el host del usuario pueda enviar un mensaje de solicitud
HTTP al servidor web, el host del usuario debe obtener en primer lugar la dirección IP de www.unne.edu.ar.
Esto se hace del siguiente modo:
1. La propia máquina cliente ejecuta el lado del cliente de la aplicación DNS.
2. El navegador extrae el nombre de host, www.unne.edu.ar, del URL y pasa el nombre de host al lado del
cliente de la aplicación DNS.
3. El cliente DNS envía una consulta que contiene el nombre de host a un servidor DNS.
4. El cliente DNS recibe fnalmente una respuesta, que incluye la dirección IP correspondiente al nombre del
host.
5. Una vez que el navegador recibe la dirección IP del servidor DNS, puede iniciar una conexión TCP con el
proceso servidor HTTP localizado en el puerto 80 en esa dirección.
Servicio de directorio de Internet
DNS proporciona algunos otros servicios importantes además de la traducción de los nombres de host en
direcciones IP:
• Alias de host. Un host con un nombre complicado puede tener uno o más alias.
• Alias del servidor de correo. Por razones obvias, es enormemente deseable que las direcciones de
correo electrónico sean mnemónicas.
• Distribución de carga. DNS también se emplea para realizar la distribución de carga entre servidores
replicados, como los servidores web replicados.
13
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
DNS está especifcado en los documentos RFC 1034 y RFC 1035, y actualizado en varios RFC adicionales.
Un diseño simple de DNS podría ser un único servidor DNS que contuviera todas las correspondencias entre
nombres y direcciones. En este diseño centralizado, los clientes simplemente dirigirían todas las consultas a un
mismo servidor DNS y éste respondería directamente a las consultas de los clientes.
Entre los problemas con un diseño centralizado podemos citar los siguientes:
• Un único punto de fallo.
• Volumen de tráfco.
• Base de datos centralizada distante.
• Mantenimiento.
Una base de datos jerárquica y distribuida
DNS utiliza un gran número de servidores, organizados de forma jerárquica y distribuida alrededor de todo el
mundo. Ningún servidor DNS dispone de todos los registros de todos los hosts de Internet.
Básicamente existen tres clases de servidores DNS: los servidores DNS raíz, los servidores.
DNS de dominio de nivel superior (TLD, Top-Level Domain) y los servidores DNS autoritativos.
Servidores DNS raíz. En Internet, existen 13 servidores DNS raíz (etiquetados como A hasta M), la mayoría de
los cuales se localizan en América del Norte.
Servidores de dominio de nivel superior (TLD). Estos servidores son responsables de los dominios de nivel
superior, como son com, org, net, edu y gov, y todos los dominios de nivel superior correspondientes a los
distintos países, como por ejemplo, uk, fr, ca y jp.
La empresa Network Solutions mantiene los servidores TLD para el dominio de nivel superior .com y la
empresa Educause mantiene los servidores TLD para el dominio de nivel superior .edu.
Servidores DNS autoritativos. Todas las organizaciones que tienen hosts accesibles públicamente (como son
los servidores web y los servidores de correo) a través de Internet deben proporcionar registros DNS
accesibles públicamente que establezcan la correspondencia entre los nombres de dichos hosts y sus
direcciones IP. Un servidor DNS autoritativo de una organización alberga estos registros DNS.
Existe otro tipo importante de servidor DNS conocido como servidor DNS local. Un servidor DNS local no
pertenece estrictamente a la jerarquía de servidores, pero no obstante es importante dentro de la arquitectura
DNS. Cada ISP (como por ejemplo un ISP de una universidad, de un departamento académico, de una empresa
o residencial) tiene un servidor DNS local (también denominado servidor de nombres predeterminado). Cuando
un host se conecta a un ISP, éste proporciona al host las direcciones IP de uno o más de sus servidores DNS
locales normalmente a través de DHCP.
Los benefcios de la confguración DNS se pueden visualizar en la confguración de un virtualhost y los pasos
para modifcar el mismo son:
1. Instalar apache2
2. Crear carpeta public_html en el home del usuario
3. Controlar que el puerto por defecto en el archivo listen.conf sea ---> puerto escucha 80
4. Ingresar a la carpeta vhosts.d y hacer una copia del archivo vhost.template y guardarlo como
nombre.com.ar.conf
14
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Monitorización de los hosts. El administrador de red puede realizar comprobaciones periódicas para ver si
todos los hosts de la red están encendidos y operativos.
Monitorización del tráfco como ayuda a la implantación de recursos. Un administrador de red puede
monitorizar los patrones de tráfco entre cada origen y cada destino y observar, por ejemplo, que si
intercambian los servidores entre segmentos de una red LAN la cantidad de tráfco que atraviesa múltiples
redes LAN podría reducirse signifcativamente.
Detección de cambios rápidos en las tablas de enrutamiento. Las alteraciones rápidas de ruta (cambios
frecuentes en las tablas de enrutamiento) pueden indicar inestabilidades en el enrutamiento o la existencia de
un router mal confgurado.
Detección de intrusiones. Un administrador de red puede desear que se le notifque que ha llegado un cierto
tráfco de red procedente de un origen sospechoso (por ejemplo, de un cierto host o un cierto número de
puerto) o con destino a él.
Gestión de confguración. La gestión de la confguración permite a un administrador de la red controlar qué
dispositivos se encuentran dentro de la red administrada y las confguraciones hardware y sofware de dichos
dispositivos.
Infraestructura SNMP
La entidad gestora es una aplicación, normalmente con intervención humana, que se ejecuta en una estación
central de gestión de red situada en el centro de operaciones de red (NOC).
La entidad gestora es el punto focal de la actividad de administración de la red; controla la recopilación,
procesamiento, análisis y/o visualización de la información de gestión de la red.
Es aquí donde se inician las acciones para el control del comportamiento de la red y donde el administrador
interactúa con los dispositivos que forman la red.
Un dispositivo gestionado es un equipo de red (incluyendo su sofware) que forma parte de una red
gestionada. Sería, por ejemplo, una sucursal de una organización. Un dispositivo gestionado puede ser un host,
un router, un puente, un concentrador, una impresora o un módem. Dentro de un dispositivo gestionado
pueden existir diversos objetos gestionados.
Estos objetos gestionados son los propios elementos hardware contenidos en el dispositivo gestionado (por
ejemplo, una tarjeta de interfaz de red) y los conjuntos de parámetros de confguración para los distintos
elementos hardware y sofware, tienen asociados distintos elementos de información que se recopilan en una
Base de información de gestión (MIB, Management Information Base).
El tercer elemento de una arquitectura de gestión de red es el protocolo de gestión de red. El protocolo se
ejecuta entre la entidad gestora y los dispositivos gestionados, permitiendo a aquella consultar el estado de los
dispositivos gestionados y llevar a cabo acciones de manera indirecta en estos dispositivos a través de sus
agentes. Los agentes pueden utilizar el protocolo de gestión de red para informar a la entidad gestora de la
ocurrencia de sucesos excepcionales (por ejemplo, fallos de componentes o violación de los umbrales de
rendimiento).
16
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
17
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Bajo la rama ISO del árbol podemos ver las entradas correspondientes a todos los estándares ISO (1.0) y a los
estándares emitidos por organismos de estandarización de distintos países miembros de ISO (1.2).
En Organismos miembros de ISO (1.2) se encuentra USA (1.2.840), y debajo de éste se encuentran una serie de
estándares de IEEE, ANSI y otras empresas específcas, entre las que se incluyen RSA (1.2.840.11359) y
Microsof (1.2.840.113556), y bajo éste están los formatos de archivo de Microsof (1.2.840.113556.4) para
diversos productos de Microsof, como por ejemplo Word (1.2.840.113556.4.2).
Bajo la rama Internet del árbol (1.3.6.1), hay siete categorías.
Bajo la rama private (1.3.6.1.4) encontramos una lista [IANA 2009b] de los nombres y los códigos empresariales
privados de muchos miles de empresas privadas que están registradas en la IANA (Internet Assigned Numbers
Authority) [IANA 2009a].
Seguridad y administración
18
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Los diseñadores de SNMPv3 han dicho que “SNMPv3 puede interpretarse como SNMPv2 con una serie de
capacidades adicionales de seguridad y administración” [RFC 3410]. Realmente, existen cambios en SNMPv3
respecto de SNMPv2, pero en ninguna parte estos cambios son más evidentes que en el área de la
administración y la seguridad.
SNMPv3 proporciona mecanismos de cifrado, de autenticación, protección contra ataques por reproducción y
control de acceso.
• Cifrado. Las PDU SNMP pueden cifrarse utilizando el estándar DES (Data Encryption Standard) en modo
CBC (Cipher Block Chaining). Se puede observar que dado que el estándar DES es un sistema de clave
compartida, la clave secreta del usuario que cifra los datos tiene que ser conocida por la entidad receptora que
tiene que descifrar los datos.
• Autenticación. SNMP utiliza la técnica MAC (Message Authentication Code) para proporcionar tanto
autenticación como protección frente a falsifcaciones [RFC 2401]. Recuerde que la técnica MAC requiere que
tanto el emisor como el receptor tengan una clave secreta común.
• Protección frente a ataques por reproducción. Recuerde que pueden emplearse números distintivos para
protegerse frente a ataques por reproducción.
SNMPv3 adopta una técnica relacionada.
Host Router
Agente de Proceso Procesos de Usuario Agente de Proceso
SNMP FTP, etcétera SNMP
UDP TCP UDP
IP IP
Protocolos de Red Protocolos de Red
Versión 2 de SNMP:
Soportan Administración centralizada o distribuida.
En ambientes distribuidos, los elementos operan tanto como agentes como manager.
Protocolo de Solicitud/Respuesta.
Corriendo bajo UDP.
SNMP v3:
RFC 2570-2575
Defne esquemas de arquitectura y seguridad.
Compatible con versión 2.
Defne servicios de seguridad:
Autenticación, Privacidad y Control de Acceso
Panel de control
19
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Las herramientas de gestión, incluyen en su mayoría, un panel de control como Página de inicio.
Brinda una imagen instantánea inmediata del estado general de la red, con información que puede ser utilizada
en la toma de acciones.
Op Manager
Lyon 0/4 0
! Cisco 2/10 3
!
! Poundry 2/10 cisco devices are
problematic...
Hewlet-Packard 8/30 12
Microsof 5/11 4
192.168.121.123
192.168.121.23
192.168.121.53
192.168.122.113 +
New Bussiness View
192.168.123.362
192.168.123.98
Admap-temp2008
! Ananthy
!
Arunway Customized Page
Bounded-MMap
192.168.132.32
net-snmp 2/6 2
Others 29/103 15
Lista de dispositvos
Las herramientas de gestión, incluyen una lista exhaustiva de tipos de dispositivos soportados.
Es posible generar plantillas personalizadas de dispositivos.
20
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Detección de Redes
La funcionalidad de detección de redes suele ser automática. Ayuda a identifcar con rapidez los dispositivos
que desea monitorear.
Mapas personalizables
Es posible utilizar la interfaz para programas de aplicación de los Mapas de Google para obtener una vista aérea
de la red empresarial completa con el estado general actual de cada nodo.
21
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
22
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Permite observar en detalle una interfaz de red: disponibilidad, tráfco, uso de ancho de banda, errores,
descartes, total de bytes recibidos/transferidos, paquetes por segundo, y los gráfcos de análisis del
complemento Netlow.
23
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Una de sus ventajas funcionales, es la sincronización de la información de la base de datos presente entre los
distintos servidores de autenticación de todo el dominio.
En la base de datos, cada uno de los objetos posee atributos que permiten identifcarlos en modo unívoco (por
ejemplo, los usuarios tendrán atributo «nombre», atributo «email», etcétera, las impresoras de red tendrán
atributo «nombre», atributo «fabricante», atributo «modelo», atributo "usuarios que pueden acceder", etcétera).
Toda esta información queda almacenada en Active Directory replicándose de forma automática entre todos
los servidores que controlan el acceso al dominio.
A partir de este escenario, es posible crear recursos y compartirlos en red; como por ejemplo: carpetas,
impresoras, scanners o sistemas de información. A los recursos, se les asignan ‘permisos’ de acceso a usuarios o
grupos de usuarios, bajo demanda y de manera dinámica.
En resumen, Active Directory es una implementación de servicio de directorio de gestión centralizada, en una
red informática distribuida geográfcamente; facilita el control, la administración y la consulta de todos los
elementos lógicos que la componen.
Modelos LDAP
Los modelos representan los servicios proporcionados por un servidor, tal como es visto por un cliente. Son
modelos abstractos que describen las diversas facetas de un directorio LDAP.
La RFC 2251, divide a un directorio LDAP en dos componentes: el modelo de protocolo y el modelo de datos.
Sin embargo, hay autores (Timothy A. Howes, Mark C. Smith y Gordon S. Bueno (MacMillan)), que defnen
cuatro modelos:
Modelo de información: disposición y estructura de la información.
Modelo de asignación de nombres: identifcación única de objetos.
Modelo funcional: descripción de protocolos.
Modelo de seguridad: autenticación y control de acceso.
¿Por qué es necesaria la autenticación en un directorio LDAP? Recordemos que LDAP es un protocolo basado
en mensajes orientado a la conexión. El proceso de autenticación se utiliza para establecer los privilegios del
cliente para cada sesión. Todas las búsquedas, consultas, etcétera son controlados por el nivel de autorización
del usuario autenticado.
Organización LDAP
Direccionamientos a recursos
El direccionamiento de recursos de Active Directory son estándares con la Convención Universal de Nombres
(UNC), Localizador Uniforme de Recursos (URL) y Nombres de LDAP.
Cada objeto de la red posee un nombre de distinción (en inglés, Distinguished name (DN)), así una impresora
llamada ‘Impresora’ en una Unidad Organizativa (en inglés, Organizational Units, OU) llamada ‘Redes’ y un
dominio llamado ‘lrdtbd.local’, puede escribirse de las siguientes formas para ser direccionado:
En notación DN sería: CN=Impresora, OU=Redes, DC=lrdtbd, DC=local, donde:
CN es el nombre común (en inglés, Common Name).
DC es clase de objeto de dominio (en inglés, Domain Object Class).
En forma canónica sería lrdtbd.local/Redes/Impresora.
Ciertos tipos de objetos poseen un Nombre de Usuario Principal (en inglés, User Principal Name (UPN)) que
permite el ingreso abreviado a un recurso o un directorio de la red. Su forma es objetodered@dominio.
Los objetos representan los recursos de red.
Los atributos defnen la información relativa a un objeto.
24
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Conceptos LDAP
Características de LDAP
• Está basado en el modelo cliente-servidor.
• Organiza la información de modo jerárquico, utilizando un esquema de directorios.
25
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Controlador de dominio
• Un controlador de dominio es un equipo con Windows 2008 Server que almacena una copia del directorio
del dominio (base de datos local del dominio).
• Pueden existir varios controladores de dominio, cada uno de ellos tendrá una copia completa del directorio.
• Cada controlador permite realizar cambios en el directorio, administrando los cambios y replicándolos a los
otros controladores de dominio del mismo dominio.
• Los controladores de dominio administran todas las facetas de las interacciones de los usuarios en un
dominio (localización de objetos o validación de un intento de inicio de sesión).
• La replicación se hace en intervalos de tiempo, pudiendo establecer la frecuencia a la que se producen las
replicaciones entre controladores de dominio.
• AD usa un modelo replicación multimaestro:
o Ningún controlador del dominio es el maestro.
o Todos los controladores son “iguales” y contienen una copia de la BD del directorio. (En realidad todos
los controladores son “casi iguales”).
o Los controladores replican los cambios entre ellos.
o Cualquier controlador de dominio puede procesar los cambios del directorio y replicarlos.
Característcas de LDAP
Sitio: Es una agrupación de equipos que están conectados fsicamente por conexiones rápidas y de alta
fabilidad.
• Habitualmente equipos conectados en una LAN.
• La razón básica de crear sitios es aprovechar los mecanismos de comunicación “efcientes” (rápidos y fables)
entre sistemas bien comunicados.
• Un sitio es básicamente una subred TCP/IP.
• Son independientes de la estructura lógica de dominio. No existe relación entre la estructura fsica de la red y
la lógica del dominio:
o Un único dominio puede estar en varios sitios.
o En un sitio puede haber varios dominios.
• Importante no confundir sitio con dominio:
o Dominio: Es una agrupación lógica de usuarios y equipos.
o Sito: Es una agrupación fsica de equipos.
• Los equipos están asignados a sitios según su localización en la subred o en un conjunto de subredes.
• Si la empresa tiene varias subredes que no tienen buena conexión entre sí o están en ubicaciones geográfcas
distintas, hay que defnir un sitio por cada subred.
• Debe tener asociado, al menos, un controlador de dominio en cada sitio.
Catálogo Global
o Es un almacén central de información de todos los objetos del directorio de los dominios del bosque.
o Tiene copia completa de todos los objetos (todos sus atributos) del directorio de su dominio y una
copia parcial de todos los objetos de los directorios de los otros dominios del bosque.
o De manera predeterminada, el primer controlador de dominio creado al instalar AD se convierte en
catálogo global y es conocido como servidor de catálogos globales.
o La información que almacena es generada automáticamente en cada dominio mediante el proceso de
réplica. Se pueden defnir varios catálogos globales en un dominio, pero esto incrementará el tráfco de
red para hacer las réplicas.
26
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Directvas de AD
• En un dominio, se pueden defnir directivas de grupo a nivel de sitio, de dominio o de unidades organizativas.
• Se aplicarán a todos los servidores miembros del dominio.
• El orden de aplicación de las directivas es el siguiente:
o Directivas de grupo local (las defnidas en el equipo local).
o Directivas de grupo de sitio.
o Directivas de grupo de dominio.
o Directivas de unidad organizativa.
o Directivas de unidad organizativa secundaria, etcétera.
• En caso de confictos, las que se aplican más tarde tienen preferencia y se sobrescriben las directivas
aplicadas previamente.
• Se pueden aplicar a todos los usuarios (al dominio) o a un único usuario (en una unidad organizativa
concreta).
Instalación y despliegue de AD
27
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Instalar AD:
Determinar la ubicación de la base de datos y el registro de AD.
o Por defecto %SystemRoot%\ntds\ (el valor de %SystemRoot% es C:\Windows\).
o La BD de Active Directory contendrá los objetos y sus propiedades.
o Los archivos de registro de AD registrarán las actividades del servicio de directorio.
Determinar la ubicación del “Volúmen de sistema compartido”.
o Por defecto, %SystemRoot%\sysvol
Sysvol es un recurso compartido que contiene información del dominio que se replica al resto de los
controladores de dominio de la red.
Tiene que estar en una unidad NTFS.
Almacena la copia de servidor de las carpetas públicas del dominio.
Herramientas de líneas de comandos de Active Directory:
Dsadd→ añade equipos, contactos, grupos, unidades organizativas y usuarios.
Dsget→ muestra las propiedades de equipos, contactos, grupos, unidades organizativas, usuarios,
sitios, subredes y servidores.
Dsmod→ modifca las propiedades de equipos, contactos, grupos, unidades organizativas, usuarios y
servidores.
Dsmove→ mueve un objeto a una nueva ubicación en el dominio, o lo renombra.
Dsquery→ localiza equipos, contactos, grupos, unidades organizativas, usuarios, sitios, subredes y
servidores dentro de AD utilizando criterios de búsqueda.
Dsrm→ Elimina objetos del AD.
Interfaces de programación
Las interfaces de servicio de Active Directory (ADSI) entregan al programador una interfaz orientada a objetos,
facilitando la creación de programas de directorios mediante algunas herramientas compatibles con lenguajes
de alto nivel, como Visual Basic, sin tener que lidiar con los distintos espacios de nombres.
Mediante las ADSI se permite crear programas que realizan un único acceso a varios recursos del entorno de
red, sin importar si están basados en LDAP u otro protocolo.
Además, permite generar secuencias de comandos para los administradores. También se puede desarrollar la
Interfaz de mensajería (MAPI), que permite generar programas MAPI.
Alternatvas a Microsoft AD
Samba es un programa de código libre, que tiene disponible un controlador de dominios compatible con
Windows NT 4, Windows 2003 y Windows 2008.
El programa de código libre Mandriva Directory Server ofrece una interfaz web para manejar el controlador de
dominios de Samba y el servicio de directorios de LDAP.
Otra alternativa es Novell eDirectory, que es Multiplataforma: se puede correr sobre cualquier sistema
operativo: Linux, AIX, Solaris, Novell Netware, UNIX e integra LDAP v.3 Nativo. Es el precursor en materia de
estructuras de Directorio, ya que fue introducido en 1990 con la versión de Novell Netware 4.0.
Sun Java ES Directory Server y OpenDS son otras alternativas, el primero basado en java y el segundo basado
y desarrollado en C. El primero es un producto de Sun Microsystems y el segundo una alternativa de código
abierto.
El proyecto OpenLDAP, es una continuación del servidor LDAP original de la Universidad de Michigan. La
relación entre el servidor LDAP de Michigan y muchos servidores LDAP modernos, comerciales puede ser
comparada con la relación entre los navegadores web modernos y la base de código original de NCSA Mosaic.
La última versión de OpenLDAP se puede obtener de htp://www.OpenLDAP.org/sofware/download/
Hay dos grandes encarnaciones de OpenLDAP. Las más antiguas versiones 1.2 son mejoras en esencia con
pequeñas correcciones del código base original de la Universidad de Michigan, y ponen en práctica LDAPv2. La
rama de OpenLDAP 2 es una implementación LDAPv3 compatible.
28
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
29
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
La consola “RemoteApp” se
usa para hacer que las
aplicaciones estén
disponibles.
También se usa para que
estén disponibles via “TS Web
Access” (Acceso Web)
Aplicaciones remotas
integradas en el equipo local.
Confguración centralizada del
servidor de terminales desde
la consola.
Instalación y confguración
30
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
TS Web Access
Gateway
Publicación de Aplicaciones
31
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
32
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Impresión Sencilla
Autenticación
33
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
• Autenticación a nivel de Red: Se realiza la autenticación del usuario antes de que se conecte a la sesión y se
muestre el inicio de sesión en el servidor de Terminales.
• Evita posibles ataques de DOS.
• Autenticación de Servidor. Verifca que nos conectamos al servidor correcto y evita que nos conectemos a
una maquina maliciosa.
• SSO: evita tener que volver a introducir nuestras credenciales.
• Monitor Spanning.
• Desktop Experience.
• Desktop Composition.
34
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
• Font Smoothing.
• Display Data Prioritization.
Dimensionamiento
Dimensionamiento - Resumen
35
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Color en 32bit – mejor uso del ancho de banda para escenarios (PPT, IE) que los necesiten
Font Smoothing impacta en el ancho de banda – usar solo en LAN
Internet de las cosas IoT: Aplicaciones sobre Open Hardware (Intel Galileo) y Arduino
Desarrollo Arduino
Arduino busca facilitar la programación, de manera en que el usuario se enfoque en el ‘Hacer’ que las cosas
funcionen.
Bibliotecas
Un amplio repertorio de bibliotecas permite desarrollar prototipos de manera ágil, enfocándose en el
comportamiento y dejando los detalles para más tarde.
36
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Sin breakpoints
Sin inspección de estado (memoria, registros, etc.)
Sin ejecución paso a paso
Sin cambio en Intel (tampoco tenía que hacerlo)
La placa Intel® Galileo se basa en el Intel® Quark SoC X1000, un sistema Intel Pentium® de clase de 32 bits
en un chip (SoC). Es el primer tablero basado en la arquitectura Intel® diseñada para ser compatible con el
hardware y el sofware, con protectores diseñados para el Arduino Uno R3.
• La placa Galileo también es compatible con el sofware con el entorno de desarrollo de sofware Arduino.
• El procesador Intel y las capacidades de E / S nativas circundantes del SoC proporcionan una oferta completa
tanto para la comunidad fabricante como para los estudiantes.
Características fsicas
• 10 cm de largo y 7 cm de ancho con los conectores USB, conector UART, conector Ethernet y conector de
alimentación que se extiende más allá de la dimensión anterior.
• Cuatro orifcios para tornillos permiten que la placa se adhiera a una superfcie o caja.
• Cabecera estándar JTAG de 10 pines para depuración
• Botón de reinicio para restablecer el boceto y cualquier escudo adjunto.
• Galileo se alimenta a través de un adaptador de CA a CC, enchufado con un conector positivo con centro de
2.1mm en el conector de alimentación de la placa. La clasifcación de salida recomendada del adaptador de
corriente es de 5V a 3A.
Comunicación
• Procesador compatible con arquitectura de conjunto de instrucciones (ISA) Intel® Pentium® de 32 bits a 400
MHz
• 16 KBytes L1 caché
• 512 KBytes de SRAM incrustado en el dado
• Simple de programar: hilo simple, un solo núcleo, velocidad constante
• Compatible con estados de reposo de la CPU compatibles con ACPI.
• Reloj de tiempo real integrado (RTC), con batería "coin cell" opcional de 3V para la operación entre ciclos de
encendido
Opciones de almacenamiento
• 8 MByte Legacy SPI Flash para almacenar frmware (gestor de arranque) y el último boceto
• Entre 256 KByte y 512 KByte dedicados para almacenamiento de bocetos
• 512 KByte embedded SRAM
• 256 MB de DRAM
• La tarjeta micro SD opcional ofrece hasta 32 GB de almacenamiento
• El almacenamiento USB funciona con cualquier unidad compatible con USB 2.0.
• 11 KByte EEPROM programado a través de la biblioteca EEPROM
37
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
La placa Intel® Galileo Gen 2 es la primera de una familia de tableros de desarrollo y prototipos certifcados
por Arduino en la arquitectura Intel®
Es la primera placa basada en la arquitectura Intel® diseñada para ser compatible con el hardware y el sofware
con los protectores Arduino diseñados para el Uno R3.
Desde las dos páginas se llega a la misma de Intel
Galileo - Arduino
38
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
39
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Streaming de almacenado:
Multimedia almacenado en la fuente transmitida al cliente.
Streaming: la reproducción cliente comienza antes de que lleguen todos los datos.
Restricción de temporización en el tiempo de emisión, para los datos que todavía no han sido
transmitidos.
Transmisión en Vivo:
Está orientado a la multidifusión. El servidor comienza a transmitir en un instante dado. Los usuarios ven la
información que se está emitiendo. En este tipo de servicio no existe interactividad. Únicamente está permitido
realizar pausas (cuando el usuario recupere la reproducción podrá ver la información que se está transmitiendo
en ese instante).
Ejemplos:
• Internet de radio talk show.
• Evento deportivo en vivo.
Tiempo Real Interactivo:
• Recibe las interacciones del cliente (play, stop, pause, etc.) y actúa sobre el fujo de información multimedia.
No se permite el avance rápido.
Técnicas de streaming a nivel de aplicación para hacer al máximo de servicio de mejor esfuerzo:
• El búfer en el lado del cliente.
• El uso de UDP frente a TCP.
• Múltiples codifcaciones de multimedia.
40
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Reproductor multimedia
Cliente Servidor
(3) Envio de
Audio/video
Reproductor multimedia
y de otro
HTML
Cliente Servidor
41
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
(1) HTTP
request/response
para archivo de
descripción de la
Navegador Web presentación Servidor Web
Cliente Servidor
42
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Escenario:
• IP multicast permite a una fuente de datos, enviar una copia de un mensaje a múltiples destinatarios que
explícitamente quieren recibir esa información.
• Es un concepto centrado en el receptor: el receptor se suscribe a un grupo multicast.
• La infraestructura de red se encarga de enviar el tráfco a todos los miembros del grupo.
• Transmisión IP uno a muchos. IETF Standard (RFC 1112)
En la WAN
• Los Routers intermedios deben soportar MC
• Los Firewalls deben reconfgurarse para permitir tráfco MC.
43
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Protocolo de
aplicación
multicast
Aplicación Emisora MC - (Videoconferencia, Aplicación Receptora MC
transf. De MC, etc)
Direccionamiento Multcast
Direcciones Globales
El campo TTL controla el número de saltos que un paquete multicast puede realizar.
Cada vez que el paquete atraviesa un encaminador, TTL se descrementa en 1.
Un paquete multicast con TTL=0 es descartado.
TTL Multicast Backbone:
1 red local
15 sitio
63 región
127 mundo
Protocolo IGMP
Internet Group Management Protocol (IGMP) es utilizado por routers para conocer la existencia de miembros
de grupos MC directamente conectados a sus subredes.
Descrito en el IETF Standard (RFC 1112). Implementado sobre datagramas IP, tiene dos clases de paquetes:
Host Membership Query (HMQ)
Host Membership Report (HMR)
Túneles IP:
Para conectar redes Multicast separadas por enlaces no multicast, los datagramas Multicast son encapsulados
en datagramas unicast (punto a punto) estándares.
Protocolo de transporte
• Provee servicios de transporte extremo a extremo (corre en los sistema fnales)
• Provee demultiplexación
Como protocolo de aplicación
• Corre sobre UDP (multiplexación, corrección de errores) aunque no exclusivamente.
• Mecanismos para añadir fabilidad y control de fujo
46
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
En este mundo ya no existe una red de telefonía de conmutación de circuitos; en lugar de ello, todas las
llamadas pasan a través de Internet de extremo a extremo. Las empresas tampoco utilizan ya las PBX, en su
lugar, el tráfco telefónico entre compañías fuye a través de la red LAN de alta velocidad de las mismas.
Entre los protocolos más prometedores que van en esta dirección está el Protocolo de iniciación de sesiones
(SIP, Session Initiation Protocol), defnido en [RFC 3261; RFC 5411]. SIP es un protocolo ligero que hace lo
siguiente:
• Proporciona mecanismos para establecer llamadas entre el que llama y el que es llamado a través de una red
IP. Permite al que llama notifcar al llamado que desea iniciar una comunicación.
• Proporciona mecanismos al que llama para determinar la dirección IP actual del llamado. Los usuarios no
tienen una única dirección fja porque pueden asignarse dinámicamente direcciones (mediante DHCP) y porque
pueden tener múltiples dispositivos IP.
47
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
• Proporciona mecanismos para la gestión de llamadas tales como añadir nuevos fujos multimedia durante la
llamada, cambiar el método de codifcación o invitar a nuevos participantes mientras tiene lugar la llamada,
además de mecanismos para la Transferencia de llamadas y el mantenimiento de las mismas.
VideoLAN Manager es un gestor de multimedios, diseñado para controlar múltiples fujos con una sola
instancia de VLC. Permite múltiples streaming (broadcast) y vídeo bajo demanda (VoD). Este gestor, en modo
VLM, puede ser controlado por una interfaz telnet o htp.
Modo VLM. Confguración LINUX, como servidor de Streaming:
– instalar VLC video LAN en el Linux a utilizar como servidor
– Asegurarse de instalar librería ‘gstreamer’
– Establecer carpetas donde alojar el material a difundir, y copiarlo en ellas:
– /media/mp3
– /media/video
– Iniciar el servicio en modo servidor telnet:
– vlc -vvv --color -I telnet --telnet-password 4dmin --rtsp-host 192.168.194.89 --rtsp-port 5554
– Iniciar sesión de usuario $ telnet localhost 4212
– Defnir objetos a difundir, y la modalidad
– Iniciar un cliente VLC desde un equipo remoto.
– Conectar al servicio de difusión
48
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Tema 3: Virtualización
Tecnologías de Virtualización para Datacenter: Bare metal y Hostng.
La virtualización se refere a la abstracción de los recursos de una computadora por parte de un hipervisor,
también conocido como Virtual Machine Manager (VMM), que es un programa que permite ejecutar múltiples
sistemas operativos puedan compartir un mismo hardware simultáneamente.
Cada sistema operativo parece manejar, gestionar y arbitrar los cuatro recursos principales de una
computadora (CPU, Memoria, Almacenamiento y Conexiones de Red).
El Hipervisor es en realidad quien controla al procesador y a los recursos, la asignación de lo que se necesita
para cada sistema operativo.
Se asegura que los sistemas operativos invitados (llamados máquinas virtuales) no pueden alterar a otras.
La virtualización se encarga de crear una interfaz externa que encapsula una implementación subyacente
mediante la combinación de recursos en localizaciones fsicas diferentes, o por medio de la simplifcación del
sistema de control.
La máquina virtual en general simula una plataforma de hardware autónoma incluyendo un sistema operativo
completo que se ejecuta como si estuviera instalado. Típicamente varias máquinas virtuales operan en un
computador central. Para que el sistema operativo “guest” funcione, la simulación debe ser lo sufcientemente
grande (siempre dependiendo del tipo de virtualización).
Aplicación
Sistema Operatvo
Arquitectura x86
CPU Memoria Tarjeta NIC Disco
49
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
2. (HOSTED)
Aplicación
Aplicación
Sistema Operatvo Invitado
Capa de Virtualización
Arquitectura x86
CPU Memoria Tarjeta NIC Disco
Requiere un sistema operativo host (Windows / Linux / Mac), se instala como una aplicación.
Las máquinas virtuales pueden utilizar todos los recursos de hardware que el huésped puede ver.
Máxima compatibilidad de hardware, el sistema operativo proporciona todos los controladores de dispositivos
de hardware.
Hay sobrecarga en el sistema operativo nativo de acuerdo a la cantidad de máquinas virtuales en uso.
El nivel de rendimiento baja considerablemente.
Arquitectura x86
CPU Memoria Tarjeta NIC Disco
Los hipervisores se ejecutan directamente en el hardware del host para controlar el hardware y para
administrar los sistemas operativos invitados. Así, un sistema operativo invitado se ejecuta en otro nivel por
encima del hipervisor.
Este modelo representa la implementación clásica de arquitecturas de máquinas virtuales, los hipervisores
originales eran el instrumento de medida, Simmon , y CP / CMS , tanto desarrollados como en IBM en 1960. CP
/ CMS fue el antecesor de lo que IBM z / VM. Equivalentes modernos de esto son Oracle VM Server para
SPARC, Oracle VM Server para x86, el Citrix XenServer, VMware ESX / ESXi, KVM y Microsof Hyper-V
hypervisor.
Aislamiento seguro de la máquina virtual en la virtualización
• La ha cambiado considerablemente desde 2006. Entonces, se utilizaba "traducción binaria", un método que
modifca instrucciones sensibles sobre la marcha a instrucciones "virtualizables".
• Con los avances en la tecnología de la CPU, las capacidades de virtualización se construyen directamente en
la CPU. Hoy en día, el hipervisor es principalmente la interfaz de gestión de las primitivas de hardware.
50
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
• El aislamiento de la CPU, la memoria y la E/S ahora se hace a nivel de hardware, con el hipervisor
administrando la cantidad de recursos de hardware que una máquina virtual puede usar. Esta parte del
hipervisor se llama monitor de máquina virtual (VMM).
• Fueron desarrolladas múltiples técnicas de aislamiento soportadas por hardware y sofware, así como
robustos mecanismos de seguridad como el control de acceso y el aprovisionamiento de recursos, abordan los
riesgos asociados con estas preocupaciones.
Aislamiento de instrucciones
Preocupación: una máquina virtual que se ejecuta en un modo privilegiado pueda comprometer otra máquina
virtual o al propio VMM.
• Extensiones Intel VT-x y AMD-V no permiten que las máquinas virtuales se ejecuten en "Ring-0".
• Sólo el VMM se ejecuta en un nivel de privilegio de hardware; Los SO invitados se ejecutan en un nivel de
privilegio virtualizado.
• El sistema operativo invitado no detecta que se esté ejecutando en un nivel virtualizado no privilegiado.
Cuando el SO huésped ejecuta una instrucción privilegiada, ésta es atrapada y emulada por el VMM.
• La tecnología Hyper-Threading de Intel (tecnología Intel HT) permite que dos subprocesos se ejecuten en el
mismo núcleo de CPU. Estos subprocesos pueden compartir el caché de memoria en el procesador.
• Las máquinas virtuales ESXi no proporcionan tecnología Intel HT al sistema operativo invitado. ESXi, sin
embargo, puede utilizarlo para ejecutar dos máquinas virtuales diferentes simultáneamente en el mismo núcleo
fsico si está confgurado para hacerlo.
CPU Virtual
Niveles de Ring 3 Aplicaciones del Usuario
privilegio
virtualizados Ring 2
Ring 1
Ring 0 SO Invitado
Hipervisor
Anfitrión fsico
Kernel Ring 0
Ring 1
Ring 2
Ring 3
Menos privilegiado
Más privilegiado
51
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Aislamiento de memoria
El administrador del sistema defne la RAM asignada a una máquina virtual por el VMM a través de la
confguración de la máquina virtual.
El VMkernel asigna memoria cuando defne los recursos que debe utilizar la máquina virtual.
Un sistema operativo invitado utiliza la memoria fsica asignada por el VMkernel y defnida en el archivo de
confguración de la máquina virtual.
Un SO que se ejecuta en el hardware virtual se da un espacio de direcciones basado en cero. El VMM da a cada
máquina virtual la ilusión de que está utilizando un espacio de direcciones tal, virtualizando la memoria fsica
añadiendo un nivel adicional de traducción de direcciones.
Una dirección de máquina se refere a memoria de hardware real. Una dirección fsica es una abstracción de
sofware utilizada para proporcionar la ilusión de memoria de hardware a una máquina virtual.
52
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Tabla de
Hipervisor Hash
Memoria del host A
A
B
B
Protección de dispositvos
Para proteger componentes privilegiados, como VMM y VMkernel, vSphere utiliza ciertas técnicas bien
conocidas. La asignación aleatoria de diseño de espacio de direcciones (ASLR) asigna al azar dónde se cargan
los módulos del núcleo en la memoria.
Las características de la CPU NX / XD permiten al VMkernel marcar las áreas de memoria que se pueden
escribir como no ejecutables. Ambos métodos protegen el sistema de ataques de desbordamiento de búfer en
código en ejecución.
Cada máquina virtual está aislada de otras máquinas virtuales que se ejecutan en el mismo hardware. Una
máquina virtual puede detectar sólo los dispositivos virtuales (o fsicos) que le asigna el administrador de
sistemas, como los siguientes ejemplos:
• Un disco SCSI virtual asignado a un archivo en un disco.
• Un disco real o LUN conectado a un host fsico o matriz.
• Un controlador de red virtual conectado a un conmutador virtual.
• Un controlador de red real conectado a una red fsica
Una máquina virtual no se puede asignar a un dispositivo que no ha sido preasignado.
Una máquina virtual es incapaz de montar el disco de otra máquina virtual a menos que el disco haya sido
asignado explícitamente a ambas máquinas virtuales en la consola de administración; Por ejemplo, VMware
vCenter ™ o ESXi.
Acceso al hardware del dispositvo
En el nivel de hardware, todas las transferencias de acceso directo a la memoria (DMA) y las interrupciones
generadas por el dispositivo se virtualizan y se aislan de otras máquinas virtuales.
Esto evita que una máquina virtual acceda al espacio de memoria controlado por otra máquina virtual. Si tal
intento es realizado por una máquina virtual, el SO huésped recibirá un fallo de la CPU. Debido a que VMkernel
y VMM interceden en el acceso a los recursos fsicos y todo el acceso fsico al hardware se realiza a través del
VMkernel, las máquinas virtuales no pueden eludir este nivel de aislamiento.
Mapeo de I/O.
• Los procesadores modernos cuentan con una unidad de administración de memoria de E/S que reasigna las
transferencias DMA de E/S y las interrupciones del dispositivo.
• Esto permite que las máquinas virtuales tengan acceso directo a dispositivos de E/S de hardware, como
tarjetas de red, controladores de almacenamiento (HBA) y GPUs. En los procesadores AMD, esta función se
denomina AMD I / O Virtualization (AMD-Vi) o unidad de administración de memoria de E / S (IOMMU)
• En los procesadores Intel, la característica se denomina tecnología de virtualización Intel para E/S dirigida
(VT-D).
• Dentro de ESXi, el uso de esta capacidad se llama DirectPath I / O. DirectPath I / O no afecta las propiedades
de seguridad de ninguna manera. Por ejemplo, una máquina virtual confgurada para usar VT-D o AMD-Vi para
acceder directamente a un dispositivo, no puede infuir ni acceder a la E/S de otra máquina virtual.
53
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Hardware
55
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
• Las VLAN permiten la segmentación de una red fsica para que dos máquinas de la misma red fsica no
puedan enviar paquetes o recibir paquetes entre sí a menos que estén en la misma VLAN.
• Existen tres modos de confguración diferentes para marcar y desmarcar los paquetes de los marcos de la
máquina virtual:
➢ Virtual machine guest tagging (VGT mode).
➢ External switch tagging (EST mode).
➢ Virtual switch tagging (VST mode).
Puertos Virtuales
• Los puertos virtuales de ESXi proporcionan un canal de control para la comunicación con los adaptadores
Ethernet virtuales conectados a ellos. Detectan los fltros de recepción confgurados para los adaptadores
Ethernet virtuales conectados.
• También detectan la confguración "dura" de los adaptadores Ethernet virtuales conectados. Esta capacidad
permite establecer políticas: como prohibir cambios de direcciones MAC por parte del SO invitado y rechazar la
transmisión de direcciones MAC amenazantes.
• Las políticas disponibles en puertos virtuales son complicadas de implementar con switches fsicos. Las ACL
deben ser programadas manualmente en el puerto del switch, o se debe confar en la premisa de "el primer
MAC visto se supone que es correcto".
• Los grupos de puertos utilizados en ESXi no tienen una contraparte en redes fsicas. Se deben pensar como
plantillas para crear puertos virtuales con conjuntos particulares de especifcaciones.
• Los grupos de puertos proporcionan esta capa de direccionamiento indirecto, para permitir que VMware
Infrastructure proporcione acceso de red consistente a una máquina virtual, dondequiera (Host) que se ejecute.
Interfaces de Red Virtuales
• VSphere proporciona varios tipos de adaptadores de red virtuales que los SO invitados pueden utilizar. La
elección del adaptador depende de factores como el soporte del SO huésped y el rendimiento que se espera,
sin embargo comparten las siguientes características:
• Tienen sus propias direcciones MAC y fltros unicast / multicast / broadcast.
• Son estrictamente dispositivos de adaptador de Ethernet en capas.
• Interactúan con la pila de capa de VMkernel de bajo nivel a través de una API común.
• Los adaptadores Ethernet virtuales se conectan a puertos virtuales cuando el usuario enciende la máquina
virtual en la que están confgurados los adaptadores, toma una acción explícita para conectar el dispositivo o
migra una máquina virtual utilizando vSphere vMotion.
• Un adaptador Ethernet virtual actualiza el puerto de conmutador virtual con información de fltrado MAC
cuando se inicializa y cuando cambia. Un puerto virtual puede ignorar cualquier petición del adaptador
Ethernet virtual que violaría la política de seguridad de la capa 2 en vigor para el puerto.
Almacenamiento virtualizado
• Proporciona virtualización de almacenamiento en el nivel del host, que abstrae lógicamente la capa de
almacenamiento fsico de las máquinas virtuales.
• Una máquina virtual ESXi utiliza un disco virtual para almacenar su SO, archivos de programa y otros datos
asociados a sus actividades.
• Un disco virtual es un archivo fsico grande, o un conjunto de archivos, que se pueden copiar, mover, archivar
y copiar como cualquier otro archivo. Los usuarios pueden confgurar máquinas virtuales con varios discos
virtuales.
• Cada disco virtual reside en:
– un almacén de datos VMFS vSphere (Disco conectado fsicamente al Host)
56
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Arquitectura Bare-metal
• ESX y ESXi se instalan directamente en sobre el hardware, por lo tanto, ofrece un mayor rendimiento, pero se
ejecuta en un rango más estrecho de hardware.
• Se utiliza para la consolidación de servidores para centros de datos.
• Alto rendimiento y escalabilidad.
• Muchas características avanzadas para la gestión de recursos, alta disponibilidad y seguridad.
• Administración centralizada con vCenter Server.
• Soporta más máquinas virtuales por CPU fsica, que la versión host.
• El Hypervisor o VMM se conoce como la VMKernel en ESX y ESXi.
Arquitectura Bare-metal - vSphere Client
¿ESXi vSphere client 6.5, que es?
Plataforma de virtualización líder, impulsa la transformación digital ofreciendo una experiencia simplifcada para
el cliente, seguridad incorporada y una plataforma de aplicaciones universal.
Proporciona infraestructura altamente disponible y resistente a petición, para cualquier entorno en la nube.
57
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
58
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
59
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Almacenamiento Compartido
VmWare ESXi - VMoton
VMotion permite mover rápidamente toda una máquina virtual en ejecución desde un host a otro sin tiempo
de parada o interrupción de la máquina virtual. Esto también se conoce como un migración en "caliente" o "en
vivo".
Todo el estado de una máquina virtual está encapsulado y el sistema de archivos VMFS permite tanto al ESX
fuente como el host ESX destino acceder a los archivos de la máquina virtual al mismo tiempo.
Requiere una red de almacenamiento privado de alta velocidad (Fibre Channel). La memoria activa y el estado
de ejecución precisan de una máquina virtual puede ser rápidamente transmitida a través de una red de alta
velocidad. La máquina virtual mantiene su identidad en la red y las conexiones, lo que garantiza un proceso de
migración sin fsuras.
VmWare ESXi - Alta disponibilidad (HA)
Hace monitoreo de todas las máquinas virtuales que corren sobre un host y las reinicia en otro host ante el
fallo del primero.
Puede supervisar sistemas operativos invitados y los reinicia en la misma máquina en caso de un fallo.
Hace monitoreo continuo y elige los servidores fsicos óptimos dentro de un grupo de recursos para reiniciar
las máquinas virtuales (si se utiliza junto con la funcionalidad DRS).
60
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Máquinas Virtuales
Entonces, ¿qué es una máquina virtual?
Una máquina virtual se defne como una representación de una máquina fsica mediante sofware, integra un
propio sistema de hardware virtualizado en la que puede ejecutar un sistema operativo invitado y sus
aplicaciones.
Con virtualización, cada máquina virtual se aprovisiona de hardware virtual compatible, independientemente
del hardware fsico subyacente del host.
Cuando se crea una máquina virtual, se le otorga un conjunto predeterminado de hardware virtual, que a
posterior puede ser personalizado – agregar discos, adicionar memoria, deshabilitar sonido-.
Proveen:
▫ Independencia de Hardware
Ve el mismo hardware siempre a pesar del hardware del host que la soporta.
▫ Aislamiento
El sistema operativo invitado es aislado del sistema operativo del host.
▫ Encapsulamiento
La máquina virtual completa es encapsulada en un único archivo de datos.
Archivos de máquina virtual
Una máquina virtual se compone de una serie de archivos que se encuentran en el directorio principal donde la
máquina es alojada.
Se compone de una lista de archivos que están asociados con la máquina virtual. La mayoría de los archivos
comienzan con el nombre real de la máquina virtual y tienen diferentes extensiones de archivos basado en el
tipo de archivo.
61
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
La Computación Cloud es un paradigma que posibilita el acceso ubicuo bajo demanda a servicios TIC accesibles
a través de Internet.
El término Cloud (nube) se refere a la forma de representar la red (Internet) en los diagramas y es una
abstracción de las complejidades de su infraestructura.
La Computación Cloud NO interesa sólo a los usuarios fnales.
Proporciona información bursátil en tiempo real.
Situaciones semejantes: demandas estacionales (p.e. ventas en navidad), eventos masivos y puntuales (p.e.
Juegos Olímpicos), juegos on-line.
Problema: ¿Cómo dimensionar la capacidad de los servidores para ajustarla a la demanda?
Solución: Aprovisionamiento bajo demanda.
Consumir lo que necesites.
Pagar por lo que consumas.
La virtualización está en la base de esta transformación:
A favor:
• Agrupamiento de recursos (Memoria, CPU, Disco, Red).
• Alta redundancia.
• Alta disponibilidad.
• Rápido despliegue de nuevos servidores.
• Parametrización en Caliente .
• Óptima utilización de recursos fsicos.
En contra:
• Pérdida de rendimiento (uso de VMM)
Defniciones:
Múltiples defniciones y mucha confusión.
Término proveniente de la industria.
Razones comerciales.
Múltiples perspectivas.
Datacenters, ISPs, eCiencia, ...
No estamos realmente ante una nueva tecnología, sino un nuevo paradigma de uso que combina tecnologías
existentes.
SOAs, Grid Computing, WS, virtualización, ...
NIST: "La computación en nube es un modelo que permite el acceso ubicuo y conveniente a un conjunto
compartido de recursos informáticos confgurables (por ejemplo, redes, servidores, almacenamiento,
aplicaciones y servicios) que pueden ser rápidamente aprovisionados y liberados con mínimo esfuerzo de
administración o servicio interacción con el proveedor “
Es la defnición más referenciada, utilizada por el gobierno norteamericano en sus relaciones con proveedores.
Definiciones:
Informe ENISA (European Network and Information Security Agency):
“La computación en nube es un modelo de servicio bajo demanda para la prestación de TI, a menudo basado en
la virtualización y en las tecnologías informáticas distribuidas.
Las arquitecturas de computación en nube poseen:
(1) recursos con un alto grado de abstracción;
(2) escalabilidad y fexibilidad prácticamente instantáneas;
(3) prestación casi instantánea;
(4) recursos compartidos (hardware, base de datos, memoria, etc.);
(5) servicio bajo demanda que suele incluir un sistema de facturación de pago por uso;
(6) gestión programática (por ejemplo, mediante la API del WS)”
Libro: “Handbook of Cloud Computing”
“La computación en la nube se puede defnir como un nuevo estilo de computación en el que se proporcionan
recursos dinámicamente escalables y, a menudo, virtualizados como servicios a través de Internet.”
62
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Broad
Rapid Measured On-Demand 5 características esenciales
Network
Elasticity Service Self-Service
Access
Resource Pooling
4 modelos de despliegue
Publi Privat Hibry Communi
c e d ty
Características esenciales:
On-demand self-service: Un consumidor puede aprovisionar unilateral y automáticamente recursos de
computación según necesite, sin requerir interacción humana con cada proveedor de servicios.
Broad network access: Las capacidades están accesibles en la red a través de mecanismos estándar que
permiten el acceso desde plataformas cliente heterogéneas (dispositivos móviles, estaciones de trabajo, ...)
Resource pooling: Los recursos de computación de los proveedores son agrupados para servir a múltiples
clientes usando un modelo con diferentes recursos (fsicos o virtuales) que se asignan y reasignan
dinámicamente en función de la demanda.
Existe en esta asignación una cierta independencia de la localización, en el sentido de que el cliente no conoce
la ubicación exacta de los recursos, pero si puede especifcar sus preferencias a un nivel más alto de
abstracción
Rapid elasticity: Las capacidades son aprovisionadas y liberadas rápida y elásticamente (y en algunos casos
automáticamente) de acuerdo a la demanda. Desde el punto de vista del consumidor, las capacidades
disponibles son aparentemente ilimitadas y pueden aprovisionarse en cualquier momento y cantidad.
Measured Service: Los sistemas cloud controlan y optimizan automáticamente el uso de los recursos
proporcionando alguna capacidad de medición (habitualmente pay-per use o charge-per-use) al nivel de
abstracción adecuado al tipo de servicio (almacenamiento, procesamiento, ancho de banda, ...).
El uso de los recursos puede ser monitorizado, controlado e informado, ofreciendo transparencia tanto a
usuarios como a proveedores del servicio.
Modelos de servicio
63
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
El consumidor aprovisiona recursos de computación (p.e. CPU, almacenamiento, red) en los que ejecuta su
sofware (incluidas aplicaciones y sistemas operativos).
El consumidor no controla la infraestructura cloud subyacente pero si los sistemas operativos, el
almacenamiento y las aplicaciones desplegadas y, posiblemente, tiene un control limitado sobre la red de
comunicaciones (p.e. frewalls)
Beneficios IaaS
Los clientes se liberan de la gestión y mantenimiento de la infraestructura TIC y pueden concentrarse en las
actividades que dan valor a su negocio.
La escalabilidad permite que los recursos utilizados se adapten dinámicamente a la demanda real.
Se mejora la calidad de servicio: fabilidad, seguridad, tolerancia a fallos.
La provisión rápida de recursos sin la necesidad de una inversión inicial, reduce los tiempos (y costos) de puesta
en marcha de un negocio.
La eliminación de la infraestructura propia y el uso de recursos alojados en datacenters más efcientes porta
benefcios ecológicos (Green IT).
El consumidor despliega aplicaciones tanto propias como adquiridas, desarrolladas usando entornos de
programación soportados por el proveedor, en la infraestructura cloud de este.
El consumidor no controla la infraestructura cloud subyacente pero si las aplicaciones desplegadas y,
posiblemente, la confguración del entorno de despliegue
Algunos proveedores SaaS proporcionan APIs, herramientas de desarrollo y middleware con el que otros
desarrolladores pueden crear aplicaciones o extensiones que amplían la funcionalidad base de su oferta.
Ejemplos: Salesforce (force.com), Facebook, etcétera.
Plataformas propietarias
64
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
El consumidor utiliza las aplicaciones del proveedor que son ejecutadas en una infraestructura cloud.
El consumidor no controla ni la infraestructura cloud subyacente ni las capacidades de la aplicación (pero
posiblemente si puede controlar la confguración personal).
Benefcios:
Costos asociados:
• No hay costos de instalación (licencias) o mantenimiento (actualizaciones).
• Los costos pasan a ser de operación en función del uso Gestión TI.
• El personal informático se libera de tener que atender problemas del sofware de terceros y de gestionar la
infraestructura necesaria para ejecutarlos.
• Se elimina la necesidad de tener contratos de asistencia.
Ubicuidad
• Accesibles a través de Internet desde diferentes tipos de dispositivos.
• Reduce la necesidad de espacio fsico (en las instalaciones de la empresa).
Integración
• Los proveedores proporcionan opciones de personalización para adaptarse a las necesidades de cada cliente
(p.e. Gmail).
• Algunos proporcionan APIs que permiten integrar la funcionalidad de la aplicación SaaS en las aplicaciones
propietarias (p.e. ERP, CRM).
Cloud público
Cloud privado
• Para uso exclusivo de una organización con múltiples clientes (p.e. departamentos de una empresa).
• Puede ser de su propiedad (on-premise), alquilarlo (of-premise) o una combinación de ambas.
• Permite una gestión fexible y ágil de los recursos de la organización.
65
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
• Los principales proveedores públicos de IaaS comenzaron creando clouds privados para mejorar la gestión de
sus datacenters.
Cloud híbrido
66
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Tema 4 Almacenamiento
67
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
La replicación de almacenamiento mantiene el acceso a los datos, incluso si falla todo el sistema de
almacenamiento, gracias a que los copia continuamente en un espacio secundario remoto.
Nivel de Recursos Humanos
El funcionamiento de los demás niveles está determinado por el plantel de recursos humanos disponible.
Poseer un plantel y mantenerlo en el tiempo es una tarea que requiere atención. Aquí la estrategia global de la
organización juega sus fchas.
Tolerancia a fallos–Nivel de Aplicación
La aplicación informática corre sobre un sistema operativo ‘servidor’, instalado sobre un Host (Hardware)
propio o alquilado y localizado en la red local o en Internet. Una aplicación en ‘alta disponibilidad’
necesariamente debe correr sobre dos hosts distintos, sean virtualizados o fsicos.
Un HOST está compuesto por Hardware y Sofware con características específcas:
• Chasis con ventilación redundante, de fácil acceso a sus componentes y en caliente.
• Dispositivos como memorias, discos rígidos, ventiladores, NIC’s se deben poder instalar/desinstalar de
manera sencilla.
68
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Almacenamiento
Backbone Fibre Channel – Infniband
Ethernet 10 GB
Máquinas Virtuales Máquinas Virtuales
App Ap Ap Ap Ap Ap
p p p p p
OS OS OS OS OS OS
Hipervisor Hipervisor
Clúster
Arquitecturas de Almacenamiento y Sistemas de Archivos
Red
Red
DAS (DIRECT ATTACHED STORAGE)e Método tradicional de almacenamiento y el más sencillo. Consiste en
conectar el dispositivo de almacenamiento directamente al servidor o estación de trabajo, el controlador de
69
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
discos se encuentra fsicamente conectado al BUS del sistema comunicado con el CPU y la memoria. Los
protocolos de conexión utilizados son SCSI, SAS, SATA, IDE, es decir que apuntan a dispositivos fsicamente
conectados al chasis y un ancho de banda acotado. El largo del conector no sobrepasa los 30/50 centmetros.
Los drivers utilizados por el sistema operativo, suponen la lectura y escritura en dispositivos ‘cercanos’. Tanto
en DAS como en SAN, las aplicaciones de usuario requieren archivos al sistema de archivos en forma directa.
La diferencia entre ambas tecnologías reside en la manera en la que dicho sistema de fcheros obtiene los datos
requeridos del almacenamiento. Bajo costo de despliegue y mantenimiento. Baja posibilidad de crecimiento y
compartición. Suele ser el primer paso antes de pasar a una solución NAS.
La arquitectura de almacenamiento DAS (Direct Atached Storage), presenta muchos inconvenientes, como la
dispersión del almacenamiento que implica una difcultad en la gestión de los Backups, una relativamente baja
tolerancia a fallos (sólo posible a través de soluciones RAID), y un alto costo total de propiedad debido a las
difcultades de mantenimiento.
SAN (STORAGE AREA NETWORK). Una red de área de almacenamiento (SAN) es una red de datos de alto
rendimiento con el objetivo principal de la transferencia de datos entre sistemas informáticos y dispositivos de
almacenamiento y entre múltiples dispositivos de almacenamiento.
Una SAN se compone de:
• Una infraestructura de comunicaciones, para el transporte de bloques de datos.
• Sofware de gestión, que vincula dispositivos de almacenamiento con los sistemas informáticos.
Uno de los objetivos de una red SAN es disminuir la latencia en el acceso a los datos. Permite la replicación de
datos sincrónica a nivel de bloque (no archivos). Tiene una infraestructura de red de alta velocidad dedicada
sólo para Almacenamiento y Backup, optimizada para mover grandes cantidades de datos, y consistente en
múltiples recursos de almacenamiento geográfcamente distribuidos.
Servidores
• Se conectan a una SAN diversos servidores de aplicaciones de distintos proveedores que a su vez ejecutan
distintos sistemas operativos.
Infraestructura SAN - Conexionado
• La infraestructura (o “tejido”) SAN abarca los componentes de hardware, cableado y sofware que permiten
trasladar los datos a una SAN y dentro de ella.
70
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
• Los adaptadores HBA y los conmutadores Fibre Channel, Infniband o Ethernet 10GB conforman la base, que
permite a los servidores y los otros dispositivos de almacenamiento conectarse entre sí.
Almacenamiento en disco
• Los chasis de discos proporcionan almacenamiento dedicado para servidores de aplicaciones.
• Se ofrecen niveles altos de tolerancia a fallos, un diseño modular para aumentar la capacidad y el
rendimiento.
• Acceso compartido para diversos servidores que ejecutan sistemas operativos diferentes.
Software de gestón
• Ayuda a confgurar y optimizar cada uno de los componentes por separado a fn de obtener la mejor
confguración.
• Se puede supervisar la red para detectar cuellos de botella y áreas de posibles fallos.
• Automatiza copia de seguridad de datos, y proporciona estadísticas de uso que permiten distribuir la carga de
los usuarios de la SAN.
Ventajas
Los benefcios o ventajas de las redes de almacenamiento SAN, son evidentes: mayor velocidad de acceso a
datos, menor tiempo de recuperación ante desastres (los tiempos de Backup y Restore se minimizan, y se
añaden los clonados y Snapshots de LUN), escalabilidad (siempre es posible añadir más bandejas de discos, o
incluso, más Cabinas de Discos y Switches), y sobre todo, una gestión centralizada, compartida y concurrente
del almacenamiento (indiferentemente de la plataforma y sistema operativo de los Host). Además, existen
efectos colaterales, como por ejemplo, que la introducción de una infraestructura de almacenamiento SAN en
una empresa, liberará de bastante tráfco de red LAN.
Desventajas
Las redes de almacenamiento SAN también tienen sus inconvenientes, principalmente su coste (el precio del
Gigabyte es muy elevado), y también la existencia de ciertas limitaciones para integrar soluciones y/o
dispositivos de diferentes fabricantes. Una de la principales alternativas para la reducción de costes de la redes
de almacenamiento SAN es la utilización de soluciones de almacenamiento SAN basadas en iSCSI, que
funcionan con tarjetas Ethernet y sobre los Switches Ethernet de LAN. El hecho aquí, es que con las actuales
redes Ethernet de 10Gbps, el cuello de botella se transfere de la red al acceso a disco.
Soluciones propuestas para modelo SAN
FIBRE CHANNEL
• Despliegue protocolo IP (capa 3) sobre Fibre Channel Protocol (FCP) (capa 2).
71
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
ETHERNET
• Despliegue protocolo iSCSI – iSCSI sobre IP (capa3) sobre tramas Ethernet (capa 2).
Despliegue para ambos casos:
• El Storage ofrece un espacio de almacenamiento en ‘bloque’ al sistema operativo cliente.
• El sistema de archivos del sistema operativo cliente da formato al bloque, y lo controla como si lo tuviera
conectado en forma local.
NAS (NETWORK ATTACHED STORAGE)e Hacen uso de un Sistema Operativo de Red optimizado para dar
acceso a archivos, montado sobre protocolos CIFS, NFS, FTP o TFTP. Tiene un esquema basado en archivos
por lo que el cliente solicita el archivo completo al servidor y lo maneja localmente, están por ello orientados a
información almacenada en archivos de pequeño tamaño y gran cantidad. Útil para proporcionar
almacenamiento centralizado a computadoras clientes en entornos con grandes cantidades de datos. Los
servicios se habilitan fácilmente, poseen balance de carga, tolerancia a fallos y servidor web para proveer
servicios de almacenamiento. Merado de consumo donde existen grandes cantidades de datos multimedia. La
red de conexión de datos es única, se comparte el Switch. Por la red circulan paquetes generados por usuarios,
por los servidores de aplicaciones y el Storage. Bajo costo de despliegue y mantenimiento. Posibilidad de
crecimiento. Primer paso antes de pasarse a una SAN.
Ventajas
Los principales benefcios de las Arquitecturas de Almacenamiento NAS, es que proporcionan un mejor TCO
(Total Cost of Ownship), resultando una arquitectura fácilmente escalable, capaz de ofrecer una alta
disponibilidad. En defnitiva, es quizás la mejor forma de ofrecer compartición e intercambio de fcheros en un
entorno heterogéneo.
Desventajas
El problema de esta arquitectura de almacenamiento, es que la red LAN puede actuar de cuello de botella.
Actualmente, sigue utilizándose masivamente las arquitecturas NAS (ej: tpicas Carpetas Compartidas o Shared
Folder, que se utilizan en las empresas para el almacenamiento de fcheros), aunque no a todas las aplicaciones
le resulte igual de útil (ej: los grandes servidores de base de datos, preferirán almacenamiento SAN).
Soluciones propuestas
ETHERNET
• Despliegue protocolo iSCSI – iSCSI sobre IP (capa3) sobre tramas Ethernet (capa 2).
Despliegue:
• El Storage ofrece un directorio o carpeta al sistema operativo cliente, que puede o no, ser compartido por
múltiples consumidores.
• Sobre una Red IP Privada, comparte el recurso a un Servidor de Archivos en forma de bloque.
• Sobre una Red IP Pública, comparte el recurso a múltiples clientes en forma de archivos y carpetas. • El
Storage ofrece diferentes modalidades de transporte: NFS, FTP, CIFS; que se despliegan como ‘protocolos’ de
aplicación y transporte.
• Storage difunde un servicio FTP, los clientes deben consumirlo con aplicaciones FTP cliente.
• Storage difunde un servicio NFS, los clientes deben consumirlo con aplicaciones NFS cliente. El nuevo
sistema de archivos es conectado como recurso remoto.
• Storage difunde un servicio CIFS, los clientes Windows consumen el servicio con su Explorador, conectando
el recurso a una unidad local (H: S: T:)
El sistema de archivos del sistema operativo cliente manipula los archivos ‘remotos’ como si lo tuviera
conectado en forma local, sin embargo el control lo detenta el servicio remoto.
Diferencias
La diferencia entre NAS y SAN, principalmente es que un Host o Servidor accede a un disco NAS a través de la
red LAN, MAN o WAN (ej: carpeta compartida), siendo el Sistema Operativo consciente de que se está
72
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
accediendo a un recurso (el disco o mejor dicho, el sistema de fcheros) remoto. Sin embargo, un Host o
Servidor accede a un disco SAN como si fuera un disco local (es decir, un disco DAS), de forma transparente
para el Sistema Operativo, siendo las tarjetas HBA y sus drivers quienes se preocupen de que dicho acceso a la
SAN sea así de transparente.
También se dice, que NAS se encuentra entre el Servidor de Aplicaciones y el Sistema de Ficheros, mientras
que SAN se encuentra entre el Sistema de fcheros y el Almacenamiento Físico.
Dispositivos de Almacenamiento –Caracterización
Caso de Estudio:
El sistema operativo cliente requiere ‘espacio adicional’ donde alojar archivos para su proceso
Manera tradicional:
• Incorporar un disco rígido adicional al chasis del equipo.
• ¿Costo? ¿Integridad con los demás equipos? ¿Seguridad?
Manera corporativa:
• Conectar a una carpeta compartida en la red local:
• FTP, requiere usuario y contraseña para el acceso.
• CIFS, SAMBA, requiere usuario y contraseña, en muchos casos no es necesario
• El sistema de Archivos que controla el uso del espacio, es Remoto a la aplicación que lo va a consumir.
• La protección de datos, es efectuada en el dispositivo de almacenamiento, es Remoto al cliente que lo
consume.
Requerimiento 2
El sistema operativo requiere espacio en disco para el despliegue de servicios, por ejemplo: una nueva versión
de Base de Datos:
Manera tradicional:
• Incorporar un disco rígido adicional al chasis del equipo
• ¿Costo? ¿Integridad con los demás equipos? ¿Seguridad?
Conectar por Red, a un dispositivo de almacenamiento en red local o remota:
• Sistemas Windows, se utiliza protocolo iSCSI, el bloque se reconoce como partición de disco
• Sistemas Linux, se utiliza protocolo NFS, el bloque se reconoce como partición de disco
• El sistema de Archivos que controla el uso del espacio, es Local a la aplicación que lo va a consumir.
• La protección de datos, es efectuada en el dispositivo de almacenamiento, es Remoto al cliente.
ISCSI-Introducción
• Es un protocolo para la transferencia de datos a altas velocidades.
• Utiliza una arquitectura Cliente/Servidor, con medidas de autenticación y encriptación de datos.
• El protocolo utiliza TCP/IP para sus transferencias de datos. Al contrario que otros protocolos de red
diseñados para almacenamiento, como por ejemplo el canal de fbra (Fibre Channel), solamente requiere una
interfaz Ethernet (o cualquier otra red compatible TCP/IP) para funcionar.
73
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
• Permite una solución de almacenamiento centralizada de bajo costo de implementación, sin la necesidad de
realizar inversiones demasiado costosas como el caso de Fibre Channel.
¿Qué es iSCSI?
Modelo Cliente / Servidor:
• En SCSI se defnen:
• Initiators (clientes)
• Targets (servidores).
• Un Target está compuesto por unidades lógicas (LU) que son las que ejecutan los comandos.
• Clientes y servidores usan estructuras de comunicación llamadas CDB (command descriptor block) para el
intercambio de mensajes.
• Un comando SCSI o un grupo de ellos se denomina Task.
• Los comandos se ejecutan en dos fases, en la primera los datos se intercambian entre clientes y servidores y
en la segunda el servidor informa del estado de la operación.
Funcionamiento iSCSI
• El driver SCSI construye un CDB con las peticiones realizadas por la aplicación y los envía a la capa de
transporte iSCSI. El driver SCSI también recibe CDBs de la capa iSCSI y envia los datos a la capa de aplicación.
• La capa de transporte iSCSI encapsula los CDBs en PDUs (iSCSI Protocol Data Unit) y los envía a la capa de
transporte TCP.
• En una lectura la capa iSCSI extrae los CDBs de los PDUs que recibe de la capa TCP y envía los CDBs a la
capa genérica SCSI.
Cada Initiator y cada Target defne un identifcador o nombre único (IQN).
Un ejemplo de IQN iSCSI podría ser iscsi.com.acme.sn.8675309.
El nombre iSCSI está compuesto por tres partes:
• Un especifcador de tipo,
• La autoridad encargada de dar los nombres.
• Un identifcador único dado por esta autoridad.
La combinación de una dirección IP y un puerto TCP, genera una dirección única de red para un único
dispositivo iSCSI.
Un nodo tiene un nombre iSCSI y una dirección, lo que hace que si el nodo es cambiado de lugar y por tanto
también su dirección, sea fácil encontrarlo gracias a su nombre que no cambia.
Funcionamiento, sesión y autentcación
• El protocolo iSCSI establece sesiones de comunicación entre initiators y targets, así como métodos para que
se autentifquen entre ellos.
• Una sesión iSCSI puede contener una o más conexiones TCP y suministra métodos de recuperación si la
conexión falla
• Manejo de Errores: En iSCSI initiators y targets deben tener la capacidad de mantener un bufer con
comandos y respuestas hasta que estos sean reconocidos
• Los dispositivos iSCSI son capaces de reconstruir selectivamente los PDUs perdidos o corruptos para su
retransmisión.
74
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
75
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Se puede decir que es un sistema de archivos específco para Sistemas Operativos Unix / Linux.
• NFS utiliza el Protocolo de control de transmisiones (TCP) sobre red IP.
• NFSv2 y NFSv3 pueden utilizar el Protocolo de datagrama de usuarios (UDP) sobre red IP para proporcionar
conexiones de red sin supervisión (stateless) entre el cliente y el servidor. Esto permite minimizar el tráfco de
red. Sin embargo, debido a que UDP es sin supervisión, si el servidor se cae de forma inesperada, los clientes
UDP continúan saturando la red con peticiones para el servidor. Por esta razón, TCP es el protocolo preferido
cuando se conecte a un servidor NFS.
• NFS requiere autentifcación cuando el cliente intenta montar un recurso compartido NFS. Para limitar el
acceso al servicio NFS, se utilizan TCP wrappers.
Los TCP wrappers leen los archivos /etc/hosts.allow y /etc/hosts.deny para determinar si a un cliente
particular o red tiene acceso o no al servicio NFS.
• Después de que al cliente se le permite acceso gracias a un TCP wrapper, el servidor NFS recurre a su
archivo de confguración, /etc/exports, para determinar si el cliente tiene sufcientes privilegios para acceder a
los sistemas de archivos exportados. Una vez otorgado el acceso, todas las operaciones de archivos y de
directorios están disponibles para el usuario.
• NFSv2 o NFSv3 no son compatibles con autenticación Kerberos, los privilegios de montaje de NFS son
otorgados al host cliente, no al usuario. Por lo tanto, se puede acceder a los sistemas de archivos exportados
por cualquier usuario en un host cliente con permisos de acceso. Cuando se confguran las unidades
compartidas NFS, prestar atención a cuáles hosts obtienen permisos de lectura/escritura (rw).
¿Cuando es necesario NFS?
• Compartir los mismos archivos a múltiples usuarios y sistemas, con permiso de lectura y al que los alumnos
podrán acceder libremente.
• Cuando se está realizando un trabajo y se deben compartir una serie de archivos para trabajar sobre ellos.
NFS permite crear un directorio en el servidor y exportar a todas las máquinas/usuarios específcos que
colaboran en el trabajo.
• Cuando se hace necesario controlar los accesos de los usuarios, la información almacenada en sus directorios
de trabajo, se montan en una carpeta /home central. El sistema monta la subcarpeta, en el equipo desde donde
el usuario hace login.
• Cuando los equipos cliente posee espacio en disco limitado. Es posible extender el espacio de usuario,
conectando una partición adicional donde alojar archivos para su proceso mientras dure el login.
76
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Arquitectura convencional
• Target: sistemas de almacenamiento y clústers de almacenamiento de destino
• Redes: Infraestructura de red
• Iniciadores: servidores y máquinas virtuales que acceden al almacenamiento compartido a través de la red
Objetivo: aprovechar el protocolo iSCSI, estándar de la industria, montado sobre Ethernet, para proporcionar a
los servidores de aplicaciones, de almacenamiento basado en bloques.
77
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Tipos de Bonding.
• ALB (adaptative load balancing)
• LACP (Link aggregation IEEE 802.3ad)
• Activo/Pasivo
78
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Con HP StoreVirtual, los Clústeres multi-sitio permiten la replicación de datos sincrónicos a nivel de bloque
entre los sitios que utilizan la tecnología Network RAID.
Requerimientos:
• Diseñar un sistema de almacenamiento compartido en red.
• Diseñar un sistema de almacenamiento compartido en red, con alta disponibilidad en el acceso al storage.
• Diseñar un sistema de almacenamiento compartido en red, con alta disponibilidad en el acceso al storage y
duplicación de discos.
79
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Host 1 Host 2
Capa de Red
TPDU
Entidad de Transporte
Protocolo de Entidad de Transporte
Dirección de Transporte transporte
Interface
Dirección de Red Transporte/Red
Servicios y Protocolos
80
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Capa Aplicación
Capa de Red
T
Capa de Enlace de
r
Datos
a
Capa Física n
s
.
E
n
d
T
O
E
n
d
Capa Aplicación
Capa de Red
Capa de Enlace de
Datos
Capa Física
81
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Servicio de multplexado/demultplexado
La segmentación permite la Multiplexación de sesiones; las diferentes aplicaciones pueden utilizar la red al
mismo tiempo.
La segmentación de datos facilita el transporte de datos por parte de las capas de red inferiores.
Puede realizarse la verifcación de errores en los datos del segmento para verifcar si el segmento se cambió
durante la transmisión.
Ejercicio.
Supongamos que un servidor Web se ejecuta en el Host C puerto 80, y utiliza conexiones persistentes. Recibe
solicitudes del Host A y Host B.
¿Son todas las peticiones enviadas al mismo zócalo en el host C?
Si las peticiones pasan a través de zócalos diferentes, ambos zócalos tienen el mismo número de puerto 80?
Comenta y explicar.
Para cada conexión persistente, el servidor Web crea "zócalos de conexión“, separados.
Cada conexión se identifca con una tupla de cuatro elementos: (dirección de Puerto de origen,
dirección IP de destino, número de Puerto de destino).
Cuando host C recibe un datagrama IP, examina estos cuatro campos para determinar a qué zócalo le
debe pasar la carga. Por lo tanto, las solicitudes de A y B pasan a diferentes zócalos y utilizan 80 para el
puerto de destino.
Sin embargo, los identifcadores para estos zócalos tienen valores diferentes para las direcciones IP de
origen.
A diferencia de UDP, cuando la capa de transporte pasa la carga útil de un segmento TCP hacia el
proceso de aplicación, no especifca la dirección IP de origen, por estar implícitamente especifcada en
el identifcador de socket.
Cabecera UDP:
+ Bits 0 - 16 16 – 31
0 Puerto origen Puerto destino
32 Longitud del mensaje Suma de verifcación
64
Datos
83
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Defniciones de TCP
84
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
ACK
SYN
PSH
RST
FIN
• El campo número de secuencia de 32 bits y el campo número de reconocimiento también de 32 bits son
utilizados por el emisor y el receptor de TCP para implementar un servicio de transferencia de datos fable.
• El campo ventana de recepción de 16 bits se utiliza para el control de fujo. Se emplea para indicar el número
de bytes que un receptor está dispuesto a aceptar.
• El campo longitud de cabecera de 4 bits específca la longitud de la cabecera TCP en palabras de 32 bits. La
cabecera TCP puede tener una longitud variable a causa del campo opciones de TCP (normalmente, este
campo está vacío, por lo que la longitud de una cabecera TCP tpica es de 20 bytes).
• El campo opciones es opcional y de longitud variable. Se utiliza cuando un emisor y un receptor negocian el
tamaño máximo de segmento (MSS) o como un factor de escala de la ventana en las redes de alta velocidad.
También se defne una opción de marca temporal.
• El campo indicador tiene 6 bits. El bit ACK se utiliza para indicar que el valor transportado en el campo de
reconocimiento es válido; es decir, el segmento contiene un reconocimiento para un segmento que ha sido
recibido correctamente. Los bits RST, SYN y FIN se utilizan para el establecimiento y cierre de conexiones. La
activación del bit PSH indica que el receptor deberá pasar los datos a la capa superior de forma inmediata. Por
último, el bit URG se utiliza para indicar que hay datos en este segmento que la entidad de la capa superior del
lado emisor ha marcado como “urgentes”. La posición de este último byte de estos datos urgentes se indica
mediante el campo puntero de datos urgentes de 16 bits. TCP tiene que informar a la entidad de la capa
superior del lado receptor si existen datos urgentes y pasarle un puntero a la posición donde fnalizan los datos
urgentes. En la práctica, PSH, URG y el puntero a datos urgentes no se utilizan.
85
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Comparación de protocolos
UDP TCP
Tamaño de header. 8 bytes 20 bytes
Nombre de la unidad de datos. Datagrama Segmento
Enumeración de puertos. Si Si
Detección de errores. Opcional Si
Fiabilidad: Recuperación de errores automático. No Si
Circuitos virtuales: Enumeración secuencial y No Si
reorganización.
Control de fujo. No Si
Detección de congestión: Ventana variable, time No Si
outs.
Flujo múltiple No Si
¿Y la seguridad?
86
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Una asociación es la relación que especifca completamente los dos procesos comprendidos en una conexión:
{protocolo, dirección local, proceso - local, dirección exterior, proceso exterior}
Ejemplo TCP/IP: {tcp, 193.44.234.3, 1500, 193.44.234.5, 21}
Zócalos y Puertos:
Inicializar un zócalo:
o int sockfd = socket(int family, int type, int protocol)
Registrar un zócalo en una dirección de puerto:
o int bind(int sockfd, struct sockaddr *localaddr, int addrlen)
Indica disponibilidad para recibir conexiones:
o int listen(int sockfd, int queue-size)
Acepta una conexión:
o int accept(int sockfd, struct sockaddr *foreign-address, int addrlen)
Solicita la conexión con el servidor:
o int connect(int sockfd, struct sockaddr *foreign-address, int addrlen)
Enviar o recibir datos:
o int read(int sockfd, struct msghdr *msg, int len);
o int write(int sockfd, struct msghdr *msg, int len);
o int send(int sockfd, struct msghdr *msg, int len, int fags);
o int recv(int sockfd, struct msghdr *msg, int len, int fags);
Cierra un zócalo:
o int close(int sockfd)
Llamadas API, esquema de funcionamiento
87
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
88
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
89
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
90
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Introducción – Protocolos
Capa Protocolos
Aplicación Pop3, SMTP, SNMP, HTTP, HTTPS, FTP, RDP,
SSH, iSCSI, NFS.
Transporte TCP, UDP, IPX.
Red IP, SPX.
Enlace Ethernet, HFC, xDSL, Frame Relay, ATM, Infniband, Fibre Channel, UMTS (3G), GSM.
Soluciones de comunicación
Red Óptca Síncrona (SONET): Sistema de portadora sincrónica sobre redes de fbras ópticas con jerarquías de
multiplexación digital.
MPLS: Conmutación Multi-Protocolo mediante Etiquetas. Circuitos Virtuales en redes IP.
ATM: servicio de transferencia de “celdas” de datos entre switches, posibilidad de confgurar circuitos a medida
de alta velocidad para aplicaciones de voz, datos y video.
Frame Relay: servicio “rápido” de paquetes, ancho de banda por demanda, dirigido a las aplicaciones de Datos.
Banda Ancha: tecnologías que llegan hasta el hogar con ancho de banda importante. Tecnologías HFC / ADSL /
CABLEMODEM.
Switched Ethernet: tecnologías de LAN para apoyar enlaces a 10/100/1000 Mbps y 10GB por seg, con ancho
de banda exclusivo.
Tecnologías Inalámbricas: recursos de comunicación que utilizan ondas de radio de alta frecuencia, con ancho de
banda compartido. Pensado para alternar con redes cableadas switched ethernet.
Interconexión de Redes
Necesidad funcional.
o Ampliación del área de cobertura de una organización.
o Integración de sistemas computacionales.
o Agregar valor a los sistemas informáticos.
o Ampliar el espacio y calidad de acceso a los datos almacenados.
Hardware interviniente:
o Conversores de protocolo (SSL, IPSec).
o Routers, Switches Capa 3.
o Switches Ethernet, Fibre Channel Fabric, Switches Infniband.
Motivos:
o LAN a LAN – intercambiar documentos entre departamentos.
o LAN a WAN – intercambiar documentos con sucursales.
o WAN a WAN – intercambiar documentos entre sucursales.
o WAN a LAN – monitoreo de actividades y capacidades.
Costos de la Estrategia de Interconexión.
Estrategias cuando el vínculo es compartido. (VPN)
Necesidad funcional:
o Tratamiento adecuado a los recursos.
o Autenticación de usuarios.
o Uso de tecnologías de hardware y sofware específcas
91
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Redes de Acceso:
o Múltiples medios de conexión: cableadas y no cableadas.
o Constituyen el punto ‘inseguro’ de nuestra organización.
o Requieren conectar a ‘servicios informáticos’ publicados (y.. No publicados también..)
Redes de Datos:
o La integran dispositivos y sofware especializados en almacenamiento de datos,
interconectados y comunicados en distintos niveles o capas.
o Constituyen el punto a asegurar de nuestra organización.
o Vinculan los Hosts que soportan la carga computacional, con los dispositivos de
almacenamiento a través de redes rápidas y de gran ancho de banda.
o Los medios de conexión son cableados, preparados para la más alta capacidad de transmisión
posible: fbra / UTP.
Motivos:
o Los ‘end systems’ requieren servicios de aplicaciones publicadas en Red de Acceso.
o Las APP escuchan los requerimientos, cuando corresponde, acceden a los datos almacenados
en la Red de Datos.
o Las APP responden al requerimiento con una vista o reporte de datos más o menos elaborado.
o No está previsto que los ‘end systems’ dispongan de los datos en forma directa, en forma
cruda.
La interconexión constituye una técnica que responde a la necesidad de hacer interactuar las distintas
infraestructuras (redes) con tecnologías y diseños diferentes, con la fnalidad que los usuarios conectados
perciban el servicio como si se tratara de una sola red (*).
La Unión Internacional de Telecomunicaciones (UIT) ha defnido a la interconexión como “los arreglos
comerciales y técnicos bajo los cuales los proveedores de servicios conectan sus equipos, redes y servicios para
permitir a los consumidores acceder a servicios y redes de otros proveedores de servicios” (*).
La Organización para la Cooperación y el Desarrollo Económico (OCDE) ha defnido interconexión como “la
forma por la cual diferentes redes están conectadas para permitir el tráfco pasar entre ellas, incluyendo el
conducir el tráfco sobre la red de un operador por cuenta de otro operador o proveedor del servicio.”
De las defniciones citadas podemos afrmar que la interconexión engloba un proceso que puede ser analizado
en dos vertientes estrechamente relacionadas:
Material.
Acuerdo entre proveedores.
Las interconexiones benefcian al usuario y se verá incrementado en la medida en que pueda comunicarse con
más usuarios, independientemente de que éstos pertenezcan a su propia red o a la red de otro proveedor, por
lo que, de limitarse por medio de barreras fsicas o de otro tipo, el alcance a usuarios que no formen parte de la
misma red del operador, entonces el benefcio para el usuario se ve disminuido o limitado.
0 0 0
0 0 1
0 1 0
0 1 1
1 0 0
1 0 1
1 1 0
1 1 1
159 -
128 _
1
31 –
16 _
1
15 –
8 _
7–
7
Direccionamiento IPv4 – Máscara
Conversión de un IPv4 de binario a notación decimal punteada.
Dirección binaria IPv4 10101100000100000000010000010100
10101100000100000000010000010100
93
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Clases de IPv4
Clases de Primer rango Primeros bits Partes de las Máscara de red Número de
direcciones del octeto del octeto (los direcciones de predeterminada posibles redes y
(decimal) verdes no red (R) y de los (decimal y hosts por red
cambian) hosts (H) binaria)
A 1-127 00000000- N.R.R.R 255.0.0.0 128 redes (2^7)
01111111 16777214
hosts por red
(2^24-2)
B 128-191 10000000- N.N.R.R 255.255.0.0 16384 redes
10111111 (2^7) 65534
hosts por red
(2^16-2)
C 192-223 11000000- N.N.N.R 255.255.255.0 2097159 redes
11011111 (2^7) 254 hosts
por red (2^8-2)
D 224-239 11100000- ND (Multicast)
11111111
E 240-255 11110000- ND
11111111 (Experimental)
Máscara de subred
94
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
La máscara de subred sirve para que una computadora determine qué direcciones IP pertenecen a su mismo
bloque de red y cuáles no. Es un número de cuatro octetos donde puede tener el valor de 0 ó 255. Ej:
255.255.0.0. Los octetos con valor 255 indican cuáles son los octetos de la dirección IP correspondientes al
bloque de red y los octetos con valor 0 identifcan el host:
La Puerta de enlace predeterminada (Default Gateway) es la dirección IP del dispositivo de la red (si es que
lo hay) 192.168.1.1, ya que mediante éste obtienen el acceso a una red externa: Internet.
Es un protocolo de confguración dinámica de host) es un protocolo de red que permite a los clientes de una
red IP obtener sus parámetros de confguración automáticamente. Al utilizar esta opción el Router obtendrá
de manera automática la dirección IP pública necesaria para acceder a internet. La dirección de los servidores
DNS también está confgurada de manera automática.
No se puede asignar DHCP a un servidor, porque la asignación dinámica no siempre es distinta.
Subnetng
• Subnetng es la técnica de segmentar las redes de forma lógica y no fsica, utilizando para esto la dirección IP
en lugar de dispositivos fsicos como Hubs, o Switches.
• En pocas palabras es tomar bits prestados de la host para que sean usados por la red.
• Una dirección IP subneteada tiene tres partes (32 bits).
• Antes de que se adoptara el enrutamiento CIDR, la parte de red de una dirección IP estaba restringida a
longitudes de 8, 16 o 24 bits, un esquema de direccionamiento conocido como direccionamiento con clases, ya
que las subredes con direcciones de 8, 16 y 24 bits se conocían, respectivamente, como redes de clase A, B y
C.
• El requisito de que la parte de subred de una dirección IP tuviera exactamente una longitud de 1, 2 o 3 bytes
se volvió problemático a la hora de dar soporte al rápido crecimiento de número de organizaciones con
subredes de tamaño medio y pequeño.
95
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
• Con el direccionamiento con clases, una organización con, por ejemplo, 2.000 hosts, era asignada
normalmente a una dirección de subred de clase B (/16). Esto llevó a un rápido agotamiento del espacio de
direcciones de clase B y a una pobre utilización del espacio de direcciones asignado.
• Existe otro tipo de dirección IP, la dirección IP de difusión 255.255.255.255. Cuando un host envía un
datagrama cuya dirección de destino es 255.255.255.255, el mensaje se entrega a todos los hosts existentes
en la misma subred.
Direccionamiento IPv6
El protocolo IPv6 es una nueva versión de IP (Internet Prococol), diseñada para reemplazar a la versión 4 (IPv4)
Especifcación de Internet Protocol Version 6 (IPv6), RFC 2460.
Propuesto por el Internet Engineering Task Force en 1994, aunque no utilizada en la Internet en gran medida,
aún bajo el dominio de IPv4. La adopción de NAT, alivió la falta de números IP para dar servicio a
corporaciones y organismos.
IPv4 posibilita 232 combinaciones posibles que representan direcciones IP diferentes. 32 son los bits utilizados,
a 2 estados posibles.
IPv6 posibilita 2128 combinaciones posibles, ya que utiliza 128 bits a 2 estados posibles.
Direccionamiento
IP Version 6 Addressing Architecture, RFC 2373
An IPv6 Aggregatable Global Unicast Address Format, RFC 2374
Format for Literal IPv6 Addresses in URL's, RFC 2732
Autoconfguración/Enumeración
Neighbor Discovery for IP Version 6 (IPv6), RFC 2461
IPv6 Stateless Address Autoconfguration, RFC 2462
Formato:
x:x:x:x:x:x:x:x donde x es un campo hexadecimal de 16 bits
2031:0000:130F:0000:0000:09C0:876A:130B
Dejar ceros en un campo es opcional:
2031:0:130F:0:0:9C0:876A:130B
Sucesivos campos con cero son representados por: aunque solamente una sola vez en la dirección:
2031:0:130F::9C0:876A:130B
2031::130F::9C0:876A:130B
FF01:0:0:0:0:0:0:1 => FF01::1
0:0:0:0:0:0:0:1 => ::1
0:0:0:0:0:0:0:0 => ::
• La estrategia de asignación de direcciones en Internet se conoce como Enrutamiento entre dominios sin clase
(CIDR, Classless Interdomain Routing) [RFC 4632].
• La dirección IP de 32 bits se divide en dos partes y de nuevo se expresa en notación decimal con punto como
a.b.c.d/x, donde x indica el número de bits de la primera parte de la dirección.
• Los x bits más signifcativos de una dirección en el formato a.b.c.d/x constituyen la parte de red.
• Si una organización tiene asignado un bloque de direcciones contiguas, las direcciones IP de los dispositivos
que se encuentran dentro de la organización compartirán el mismo prefjo.
• Los 32-x bits restantes de una dirección pueden emplearse para diferenciar los dispositivos internos de la
organización, teniendo todos ellos el mismo prefjo de red.
• Estos son los bits que habrá que considerar para reenviar paquetes en los routers internos de la organización.
• Estos bits de menor peso pueden tener (o no) una estructura en subred adicional.
96
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Formato:
x:x:x:x:x:x:x:x donde x es un campo hexadecimal de 16 bits
2031:0000:130F:0000:0000:09C0:876A:130B
Case insensitive
Dejar ceros en un campo es opcional:
2031:0:130F:0:0:9C0:876A:130B
Sucesivos campos con cero son representados por ::, aunque solamente una sola vez en la dirección:
2031:0:130F::9C0:876A:130B
2031::130F::9C0:876A:130B
FF01:0:0:0:0:0:0:1 => FF01::1
0:0:0:0:0:0:0:1 => ::1
0:0:0:0:0:0:0:0 => ::
Formato:
IPv4-compatible:
0:0:0:0:0:0:192.168.30.1
= ::192.168.30.1
= ::C0A8:1E01
En el URL, se encierra entre corchetes
htp://[2001:1:4F3A::206:AE14]:8080/index.html
Poco amigable para los usuarios
Usado para tareas de diagnóstico
Se utiliza el espacio de nombres de dominio (FQDN)
La capa de red de Internet tiene tres componentes principales: el protocolo IP, los protocolos de enrutamiento
de Internet (incluyendo RIP, OSPF y BGP), e ICMP.
Los hosts y los routers utilizan ICMP, especifcado en [RFC 792], para intercambiarse información acerca de la
capa de red. El uso más tpico de ICMP es la generación de informes de error.
Un mensaje de error como “Red de destino inalcanzable”, tiene su origen en ICMP.
Los mensajes ICMP son transportados dentro de los datagramas IP.
Cuando un host recibe un datagrama IP con ICMP especifcado como el protocolo de la capa superior,
demultiplexa el contenido del datagrama para ICMP, al igual que demultiplexaría el contenido de un datagrama
para TCP o UDP.
97
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
La capa de Red:
Capa de transporte: TCP, UDP
Protocolo IP:
Protocolos de Enrutamiento: • Convenios de direccionamiento.
• Selección de ruta. • Formato de datagramas.
• RIP, OSPF, BGP. • Convenios de manipulación
de paquetes
Tabla de
reenvío
Protocolo ICMP:
• Informe de errores.
• “Señalización” router.
Capa de enlace
Capa fsica
98
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
El programa Traceroute, permite trazar una ruta desde un host a cualquier otro host del mundo.
Frecuentemente, Traceroute se implementa con mensajes ICMP.
Para determinar los nombres y las direcciones de los routers existentes entre el origen y el destino, Traceroute
en el origen envía una serie de datagramas IP ordinarios al destino.
Cada uno de estos datagramas transporta un segmento UDP con un número de puerto UDP poco probable. El
primero de estos datagramas tiene un TTL de 1, el segundo de 2, el tercero de 3, y así sucesivamente. El origen
también inicia los temporizadores para cada uno de los datagramas.
Cuando el datagrama n-ésimo llega al router n-ésimo, éste observa que el TTL del datagrama acaba de caducar.
De acuerdo con las reglas del protocolo IP, el router descarta el datagrama y envía al origen un mensaje de
advertencia ICMP (tipo 11, código 0).
Este mensaje de advertencia incluye el nombre del router y su dirección IP. Cuando este mensaje ICMP llega
de vuelta al origen, éste obtiene el tiempo de ida y vuelta del temporizador, y el nombre y la dirección IP del
router nésimo del propio mensaje ICMP.
Protocolos de Internet. Algoritmos de ruteo intra-AS: vector distancia y estado de enlacee RIP y OSPF.
¿Qué es ruteo?
Un host está conectado directamente a un router, el router predeterminado para el host (también denominado
router del primer salto para el host). Cuando un host envía un paquete, éste se transfere a su router
predeterminado.
Nos referiremos al router predeterminado del host de origen como router de origen y al router predeterminado
del host de destino como router de destino.
El problema de enrutar un paquete desde el host de origen al host de destino, evidentemente, se reduce al
problema de enrutar el paquete desde el router de origen al router de destino, que es el foco de esta sección.
El propósito de un algoritmo de enrutamiento es por tanto muy simple: dado un conjunto de routers, con
enlaces que conectan dichos routers, un algoritmo de enrutamiento determina una “buena” ruta desde el router
de origen al router de destino. Normalmente, una buena ruta es aquella que tiene un costo mínimo.
Para formular los problemas de enrutamiento se utilizan grafos.
Un grafo G = (N, E) es un conjunto N de nodos y una colección E de aristas, donde cada arista es una pareja de
nodos de N.
En el contexto del enrutamiento de la capa de red, los nodos del grafo representan los routers (los puntos en
los que se toman las decisiones acerca del reenvío de los paquetes) y las aristas que conectan estos nodos
representan los enlaces fsicos entre los routers.
• Una arista tiene un valor que representa su costo.
• Para cualquier arista (x,y) de E, designamos c (x,y) como el coste de la arista entre los nodos x e y.
• Un nodo y se dice que es un vecino del nodo x si (x,y) pertenece a E.
Una ruta en un grafo G = (N,E) es una secuencia de nodos (x 1, x2,..., xp) tal que cada una de las parejas (x 1,x2),
(x2,x3),...,(xp-1,xp) son aristas pertenecientes a E.
El costo de una ruta (x 1,x2,..., xp) es simplemente la suma del costo de todas las aristas a lo largo de la ruta; es
decir, c(x1,x2) + c(x2,x3) + ...+ c(xp-1,xp).
El problema del costo mínimo está claro: hallar una ruta entre el origen y el destino que tenga el costo mínimo.
Si todas las aristas del grafo tienen el mismo costo, la ruta de costo mínimo es también la ruta más corta
3
2 v 5
w
2 3 1
u z
1 2
x 1 y
Modelo de grafo de una red de computadoras
99
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Algoritmos de ruteo
En términos generales, la primer forma de clasifcar los algoritmos de enrutamiento es dependiendo de si son
globales o descentralizados:
• Un algoritmo de enrutamiento global calcula la ruta de costo mínimo entre un origen y un destino utilizando el
conocimiento global y completo acerca de la red.
En la práctica, los algoritmos con información de estado global a menudo se denominan algoritmos de estado
de enlaces (LS, Link-State), ya que el algoritmo tiene que ser consciente del coste de cada enlace de la red.
• Un algoritmo de enrutamiento descentralizado, es aquel en donde el cálculo de la ruta de costo mínimo se
realiza de manera iterativa y distribuida. Ningún nodo tiene toda la información acerca del coste de todos los
enlaces de la red. Ejemplo de algoritmo de enrutamiento descentralizado se denomina algoritmo de vector
distancia (DV, Distance-Vector), porque cada nodo mantiene un vector de estimaciones de costos.
Una segunda forma general de clasifcar los algoritmos de enrutamiento es según sean estáticos o dinámicos.
Una tercera forma de clasifcar los algoritmos de enrutamiento es según sean sensibles o no a la carga, es el
hecho de “pasar” mensajes entre routers que corren protocolos de red compatibles entre sí.
Los routers precisan conocer:
Direcciones IP de destino.
Otras posibles rutas.
Mejores rutas.
Información que permita mantener y confgurar rutas.
Los Routers deben poder aprender rutas destino que no están conectadas a él directamente. Las Rutas se
clasifcan en:
Rutas estáticas: el administrador las ingresa manualmente al router.
Rutas dinámicas: son aprendidas por medio de protocolos de ruteo y ajustes automáticos.
Protocolos de Ruteo
100
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Protocolos de Ruteo.
Estático.
La implementación de protocolos de red tiene sentido en el hecho de poder aprender el estado de las redes
conectadas y las adyacentes, de colectar información, procesarla y tomar decisiones específcas.
Una vez que esté determinada la ruta de acceso, un router puede enviar un protocolo ruteable.
101
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Sistemas Autónomos
Dominio de Ruteo:
Protocolos de Ruteo que corren sobre un Routing Domain.
Conjunto de routers con protocolos de ruteo comunes, uno o más de estos incluidos en un AS.
Un Sistema Autónomo es una colección de redes bajo un dominio común de administración.
Cada Sistema Autónomo (AS) en Internet, intercambia tráfco con otros Dominios, debe tener un
número identifcador: ASN (AS Number). Relacionado con BGP, otorgado por los RIRs, LACNIC, RIPE,
ARIN, AFRINIC, ARIN.
Los IGP’s (Interior Routing Protocol) operan en un Sistema Autónomo.
Los EGP’s (Exterior Routing Protocol) conectan diferentes sistemas autónomos.
• Entre routers vecinos, periódicamente se pasa información de tablas de ruteo, y se acumulan vectores de
distancia.
• Este algoritmo no permite conocer la topología completa de la red.
• Esta información es bastante similiar a la información contenida en las señales situadas en una intersección
de carreteras. Un signo apunta hacia un camino que conduce fuera de la intersección y se indica la distancia
hasta el destino.
• Los routers descubren el mejor camino hacia los destinos de cada vecino.
103
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
• Poco tiempo después, los mismos añaden información a sus tablas de acuerdo a la información provista por
sus routers vecinos.
IGRP
56 Delay
Load
T1 56 Bandwidth
RIP Reliability
Hop Count MTU
T1
• Hop count, es la métrica con la cual se cuenta la cantidad de saltos. Este caso se refere al número de
enrutadores que un paquete debe pasar para llegar a su destino. Cuanto más baja es la cantidad de saltos, será
mejor el camino.
• Aunque el ancho de banda es la califcación de un vínculo del máximo rendimiento, el transporte a través de
vínculos con un mayor ancho de banda no siempre ofrecen las mejores rutas. IGRP defne Bandwidth y Delay
como métricas por default.
• Load es un factor dinámico basado en una variedad de medidas, como el uso del CPU y paquetes procesados
por segundo. Su uso intensivo puede bajar la performance.
• Delay, depende de muchos factores, incluyendo el ancho de banda de enlaces de red, la longitud de las colas
en cada router en la ruta, la congestión de enlaces, y la distancia fsica que se viajó por la red.
Se desea:
• Convergencia más rápida.
• Cero loops.
• Soportan múltiples métricas.
• Modifcaciones del algoritmo permiten soportar múltiples caminos.
• Finalmente, menor tráfco entre routers.
Cada nodo difunde a todos los demás nodos de la red sus distancias con sus enlaces vecinos por medio de
paquetes, con cada paquete de estado de enlace conteniendo las identidades y los costes de sus enlaces
conectados. El resultado de difundir la información de los nodos es que todos los nodos tienen una visión
completa e idéntica de la red. Cada nodo puede entonces ejecutar el algoritmo LS y calcular el mismo conjunto
de rutas de coste mínimo o Shortest Path First (SPF) que cualquier otro nodo.
El algoritmo de enrutamiento de estado de enlaces se conoce como algoritmo de Dijkstra, en honor a su
inventor. El algoritmo de Dijkstra calcula la ruta de coste mínimo desde un nodo (el origen, al que
denominaremos u) hasta todos los demás nodos de la red. El algoritmo de Dijkstra es iterativo y tiene la
propiedad de que después de la k-ésima iteración del algoritmo, se conocen las rutas de coste mínimo hacia k
nodos de destino y entre las rutas de coste mínimo a todos los nodos de destino, estas k rutas tendrán los k
costes más pequeños.
Consta de un paso de inicialización seguido de un bucle. El número de veces que se ejecuta el bucle es igual al
número de nodos de la red. Al terminar, el algoritmo habrá calculado las rutas más cortas desde el nodo de
origen u hasta cualquier otro nodo de la red.
• Así cada nodo es capaz de conocer la topología de la red.
Protocolo RIP
104
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
RIP es un sofware que implementa uno de los primeros protocolos de enrutamiento de Internet internos para
los AS y todavía hoy es ampliamente utilizado. Sus orígenes están en la arquitectura XNS (Xerox Network
Systems, Sistemas de red Xerox) a la que debe su nombre. La extensa implantación de RIP se ha debido en gran
parte a su inclusión en 1982 en la versión BSD (Berkeley Sofware Distribution) de UNIX que soportaba
TCP/IP. La versión 1 de RIP está defnida en [RFC 1058], y la versión 2 compatible hacia abajo está defnida en
[RFC 2453].
RIP es un protocolo de vector de distancias. La versión de RIP especifcada en el documento RFC 1058 utiliza
como métrica de coste el recuento de saltos; es decir, cada enlace tiene un coste de 1. En el algoritmo de
vector de distancias, por simplifcar, los costes se defnieron entre parejas de routers. En RIP (y también en
OSPF), los costes se defnen realmente desde el router de origen a una subred de destino. RIP utiliza el término
salto (hop), que es el número de subredes que se atraviesan al seguir la ruta más corta desde el router de origen
hasta la subred de destino, incluyendo esta última.
El coste máximo de una ruta está limitado a 15, luego el uso de RIP en los sistemas autónomos está limitado a
sistemas autónomos con un diámetro de menos de 15 saltos. Hay que recordar que en los protocolos de vector
de distancias, los routers vecinos intercambian entre sí los vectores distancia. El vector de distancias para
cualquier router es la estimación actual de la ruta más corta desde dicho router a las subredes del AS. En RIP,
las actualizaciones de enrutamiento son intercambiadas entre los vecinos aproximadamente cada 30 segundos
mediante un mensaje de respuesta RIP. El mensaje de respuesta enviado por un router o un host contiene una
lista de hasta 25 subredes de destino pertenecientes al sistema autónomo, así como la distancia desde el
emisor a cada una de esas subredes. Los mensajes de respuesta se conocen como anuncios RIP.
Protocolo OSPF
Característcas de OSPF
Estado de las interfaces:
105
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Ruteo Jerárquico
• Dimensión grande: muchos routers y enlaces generan alto costo de uso de recursos.
• Un AS o Routing Domain puede ser dividido en diferentes áreas:
• Las áreas formadas por grupos de routers y redes.
• Routers pueden estar en más de un área: ABR (Area Border Router).
• Redes/links/interfaces solo en un área.
• Ruteo/Protocolo jerárquico: no necesita conocer la topología completa de la red.
• Reduce el alcance de los LSA fooding, lo limita.
• Ayuda a reducir tamaños de LSDB y tablas de ruteo, menos uso de memoria.
• Permite mantener más estable los cambios, menos corridas de SFP, menos uso de CPU.
Multitarea
Tipos de Routers
• Internos, solo en un área, agregan redes Intra-area solamente
• Routers de borde de área, ABR, más de un área, gestionan tráfco Intra e Inter-area
• Routers de backbone, en el área 0, pueden ser de ABR o no
• Routers de borde de AS, ASBR, agregan tráfco externo, pueden estar en el área 0
106
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
107
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Se pueden clasifcar a las redes en Tipos de acuerdo a si solamente Transportan tráfco (Transit Networks), y
redes de No-tránsito/Stub (Non-transit Networks).
Las redes por debajo de IP se conectan con tecnologías: Ethernet, MPLS, ATM, MetroEthernet. La tecnología
que tenga me va a defnir la Topología.
Si tengo una red Ethernet, voy a tener una red TIPO BROADCAST, si tengo Frame-Relay tendré P2P, en caso
de MetroEthernet: es confgurable.
Con el crecimiento de Internet, hablamos de Red de AS. Lo que ocurre dentro del AS, al sistema externo no le
interesa. Cada AS tiene sus propias políticas de funcionamiento.
Internet surgió como una red chica y fue creciendo, al principio se utilizaba EGP, el antecesor de BGP, no
habían tantos problemas porque la red era 'chica'. La red fue creciendo, el EGP no soportaba la carga ni las
funcionalidades requeridas y por ello se creó un protocolo nuevo, el BGP.
BGP (protocolo de gateway fronterizo) es protocolo más utilizado para redes con intención de confgurar un
Exterior Gateway Protocol (protocolo de encaminamiento exterior).
El OBJETIVO de BGP: intercambio de rutas entre AS, mediante la aplicación de políticas.
Cada AS se encarga de mantener estable su red, y BGP será el encargado de distribuir esas redes entre los
distintos AS.
Es un protocolo mediante el cual se intercambia información de encaminamiento entre sistemas autónomos.
Por ejemplo, los ISP registrados en Internet suelen componerse de varios sistemas autónomos y para este caso
es necesario un protocolo como BGP.
BGP (protocolo de gateway fronterizo ) es un protocolo interdominio (entre sistemas autónomos) e
intradominio (dentro del mismo sistema autónomo).
- Existen los BGP speaker(BGPS) :
Un sistema que ejecuta BGP.
- Existen los BGP neighbors :
Un par de BGPSs intercambiando información de encaminamiento inter-AS.
Los vecinos BGP pueden ser de dos tipos:
Internal: Un par de BGPSs en el mismo AS. Deben presentar a los vecinos externos al AS una imagen
consistente de su propio AS.
External: Un par de BGPSs en distintos AS’s. Los vecinos externos ("external") deben estar conectados por
algún tipo de conexión. Esta restricción signifca que en la mayoría de los casos en los que un AS tenga
múltiples conexiones inter-AS de tipo BGP, también requerirá múltiples BGPSs.
Defniciones
Formas de Interconexión de Redes
Peering: interconexión voluntaria entre dos redes de “libre acuerdo”. No hay costo. En general no hay tránsito.
Customer-Provider: interconexión donde el cliente paga al proveedor. El Provider provee tránsito.
Existen diferentes niveles de Providers (ISP), se genera una “jerarquía” de ISP:
Local ISP (en general stubs) Ofrece servicios a usuarios fnales y organizaciones, contratan servicios de
RSP.
Regional ISP (stub o tránsito) Ofrecen servicios a usuarios fnales y a otros ISP. Contratan servicios de
NSP
NSP National/Global Service Provider (tránsito), a veces llamados NBP (National Backbone Provider)
Ofrecen servicios a otros ISP y a grandes organizaciones. Dentro de la misma organización tienen
subsidiarias/empresas para ofrecer servicios a end-users.
Internet Exchange Points: IXP, NAP, puntos de intercambio multilaterales en zona neutral. En general sin
tránsito, Public Peering.
108
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Client ISP
Static
Client ISP
IGP
Client ISP
eBGP
Polítca de Ruteo
Un conjunto de reglas que construyen el encaminamiento para adecuarse a los deseos de la autoridad que
administra el AS.
Las políticas de encaminamiento no están defnidas en el protocolo BGP-3, pero están seleccionadas por la
autoridad AS y se presentan a BGP-3 en forma de datos de confguración específcos de la implementación.
Las políticas de encaminamiento las puede seleccionar la autoridad del AS del modo que considere oportuno.
Selección de rutas
BGP-3 es un protocolo vector-distancia, determina un orden de preferencia al aplicar una función que mapea
cada ruta a un valor de prioridad y selecciona la ruta que tenga el mayor valor. Esta función la genera la
implementación de BGP-3 según la información de confguración.
Cuando hay múltiples rutas hasta un destino, BGP-3 las mantiene pero sólo anuncia la de mayor preferencia.
Esta estrategia permite cambiar rápidamente a una ruta alternativa cuando falla la principal.
Protocolos dentro de BGP
BGP está formado por dos “sub-protocolos”:
iBGP: Interior-BGP, usado por los routers del mismo AS. Actualiza información.
Transporta prefjos del ISP o Routing Domain, requiere IGP y full-mesh.
eBGP: Exterior-BGP, usado entre router de borde de diferentes AS.
Intercambia rutas con otros AS’s.
Implementa políticas de ruteo con el exterior.
Términos.
Protocolo para intercambio de tráfco: EGP, implementación BGP.
Los ISP/NSP conectan como NAP (Network Access Point), ahora reemplazado por IXP (Internet Exchange
Point) o IX.
NAP/IXP: red de L2 de alta velocidad (switches) con el propósito de que los Providers conecten sus router para
intercambiar tráfco e información de ruteo.
También se utilizan Direct-Interconnection de acuerdo a contratos negocios bilaterales o para aumentar
capacidad:
Peering o Customer/Provider.
Los Providers dan servicios en los PoP (Point of Presence). Lugares fsicos donde tienen equipos: servidores,
routers, switches. PoP extensiones de ubicación del proveedor.
Los Providers en general son IXC (IntereXchange Carrier), TELCOs de larga distancia, o poseedores de FO
trans-oceánica.
109
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
110
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
local
El tráfco que se origina o que termina en ese AS. Es decir, o bien la dirección fuente o bien la de destino están
en el AS.
transit
Tráfco no local:
Uno de los objetivos de BGP es minimizar este tipo de tráfco.
111
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Router B AS 109
router bgp 110
neighbor 131.108.10.1 remote-as 109
Router A
131.108.0.0
router bgp 109
neighbor 131.108.10.2 remote-as 110 .1 A
132.108.10.0
112
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Se verifca la dirección IP del pedido de conexión entrante contra la lista de los “neighbours”
confgurados.
Requiere que los AS confgurados que esperan concuerden.
Crear el proceso BGP, indicar el ASN local, no se puede tener varias instancias en el mismo entorno.
Confgurar una red IP, red de demarcación, habitualmente proveída por ISP contratado o servicio
común en el caso de IXP.
Confgurar el peer IP remoto y el ASN remoto, eBGP en este caso.
Lo mismo del otro extremo.
Se estableció el peering con el ASN remoto, se está en condiciones de recibir y enviar rutas.
La confguración BGP no es tan básica como un IGP, resta la implementación de las Políticas de Ruteo
(RP).
Polítcas de ruteo
Defnición de Políticas
113
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Switch 1
B
A
C
Switch 2
K
B
O
N
E
Switch 3
114
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Switch
Redundancia
4 Puertos que funcionan como uno.
Para llevar velocidades desde 100 Mbps a 1 Gbps, varios cambios se han hecho a la capa fsica.
Se ha decidido que GE sea idéntica a Ethernet a partir de la capa de enlace de datos.
Para llevar a 1 Gbps se han mezclado tecnologías IEEE 802.3 Ethernet y ANSI X3T11 Fibre Channel.
De IEEE 802.3 se utilizan las subcapas de acceso al medio; de Ansi se utilizan las defniciones de conexión y
codifcación/decodifcación.
La diferencia entre FCh y Ge es que FCh utiliza un sistema de señales de 1.062 gigabaudios, contra 1.25
gigabaudios de GE
Codifcación 8B
Decodifcación: 10B
115
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Rendimiento:
Interfaz 1Gb Ethernet Interfaz 40Gb Infniband
Ping –i0.06 20 packets transmited, time 979ms 20 packets transmited, time 988ms
–c20 s30 Rt min/avg/max/mdev = 0.416/0.658/2.583/0.535 Rt min/avg/max/mdev = 0.044/0.057/0.056/0.010
ms ms
Ping –i0.06 20 packets transmited, time 978ms 20 packets transmited, time 979ms
–c20 s300 Rt min/avg/max/mdev = 0.570/0.707/1.568/0.263 Rt min/avg/max/mdev = 0.054/0.060/0.088/0.009
ms ms
Ping –i0.06 20 packets transmited, time 979ms 20 packets transmited, time 979ms
–c200 s4096 Rt min/avg/max/mdev = 2.566/a/3.450/0.286 ms Rt min/avg/max/mdev = 0.077/0.088/0.118/0.018
ms
Ping –i0.06 – 20 packets transmited, time 956ms 20 packets transmited, time 979ms
c200 s20000 Rt min/avg/max/mdev = 5.877/6.022/6.676/0.201 Rt min/avg/max/mdev = 0.113/0.123/0.189/0.021
ms ms
Cut-Through : El switch comenzará a enviar datos después de que éste reciba la dirección de destino del Frame.
Así, Frames con Errores no pueden ser detectados, por lo que este método puede impactar en el rendimiento
de una red, al enviar Frames corruptos o truncados. "Bad" Frames pueden originar Tormentas de Broadcasts
(Broadcasts Storms), en que muchos de los dispositivos de la red responderán a los Frames corruptos
simultáneamente.
Store-and-Forward: El Switch esperará hasta que todo el Frame haya arribado, antes de tomar una decisión de
envío. Este proceso asegura que la red de destino no se verá afectada por Frames corruptos o truncados, pero
con la desventaja que tiene mayor latencia que cut-through.
Fragment Free Cut-Through: El punto medio entre cut-through y store-and- forward, es el método fragment free
cut-through el cuál sólo envía paquetes cuyo largo mínimo es de 64 bytes, y fltra aquellos paquetes cuya
longitud es menor que 64 bytes, tales como paquetes corruptos o runt.
La diferencia entre éste método y store-and-forward es que de todas formas puede enviar paquetes corruptos
aun cuando ellos sean mayores que 64 bytes.
Cascada y Stacking
Para los casos en que la infraestructura cuente con más de un switch y es necesaria su Stack es para
interconectar 2 o más switches utilizando un cable especial (tipo SCSI o HDMI) Cascada utiliza los puertos del
switch Ethernet para conectarse a un segundo Switch Comparando ambos métodos, el hacer Stack es la mejor
solución para usar en switches si ellos están ubicado uno al lado del otro, eliminando el problema del contador
de saltos.
Gestonabilidad
Switch Gestionable, signifca que el Switch tiene características de administración y está habilitado para recibir
una dirección IP de manera tal que pueda ser Monitoreado Remotamente. Otras características de
administración: soporte y gestión de VLAN’s, Estadísticas de uso (por puerto, por tamaño de paquetes); Alertas
ante ocurrencia de eventos (tormenta de broadcast). Switch No Gestionable, signifca que éste dispositivo no
permite ningún tipo confguración y todas sus características están en modo "auto".
Port Mirroring
116
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Permite monitorear un puerto del switch, enviando el tráfco a un puerto destino (mirror port). Es utilizado para
capturar datos con un analizador de protocolos. (IN- OUT). Los puertos de origen y destino deben estar
ubicados en el mismo switch.
Port Security
Permite controlar las estaciones conectadas a un puerto analizando su MAC.
Trabaja en dos modos: Lock y Max-address.
Cuando se conecta una MAC desconocida, el puerto puede tomar alguna de estas opciones: Reenvio,
Discard, Discard y envío SNMP y discard-shutdown.
Se pueden ingresar direcciones MAC manualmente y asignarlos a puertos cuando se encuentre el port-
security habilitado.
117
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
El algoritmo reevalúa periódicamente que enlaces hay que bloquear o rehabilitar para tener acceso a todos los
equipos sin crear bucles. Permite valorar los enlaces con “pesos”, cuando existen bucles es posible confgurar a
priori que enlaces serán los principales y que enlaces quedarán bloqueados.
118
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Infniband de 40GB.
Conceptos de la arquitectura Infiniband
Infniband (IB) es una tecnología de red desarrollada por la InfniBand Trade Association en 1999. Se usa para la
computación de alto rendimiento y en los centros de datos empresariales. Esas características incluyen alto
througput, baja latencia, calidad de servicio y failover.
La más pequeña de las unidades de arquitecturas Infniband (IBA) es una subred. Una subred consiste en los
nodos terminales (por ejemplo, servidores), switches, cobertores o enlaces de fbra y un manejo de subred. Los
nodos terminales llamados Adaptadores de Canal (CA) para conectar enlaces. Estos son los Host Adapters
Channels (HAC).
Para Los Centros de Procesamiento de Datos actualmente suelen utilizar redes Ethernet para la conexión, y la
pila de protocolos basados en TCP/IP para la comunicación, utilizados por la mayoría de sus aplicaciones
informáticas.
TCP-IP es conocido por incurrir en altos “gastos de recursos indirectos”, por cada TCP hay gasto de CPU y
Memoria del Host. En consecuencia, las redes de alta velocidad, como InfniBand (IB), se han basado en pilas de
protocolos alternativos con el fn de permitir que las aplicaciones puedan aprovechar las altas capacidades que
ofrece la red sorteando el alto consumo de recursos.
Las Redes IB se caracterizan por su alta velocidad, baja latencia, y altos costos de despliegue sociados a la
adaptación o migración de las aplicaciones de centros de datos actuales para utilizar drivers nativos IB; siendo
este último punto una barrera para la adopción masiva de las redes del IB en los centros de datos.
En consecuencia surgieron nuevas propuestas, como ser Direct Protocol sockets (SDP) desarrollado como una
solución intermedia a este problema. SDP fue diseñado para eludir la pila TCP/IP y permitir que las aplicaciones
que utilizan la API de sockets TCP / IP usen directamente las características proporcionadas por las redes
InfniBand.
Arquitectura IBA.
IBA admite dos tipos de semánticas de comunicación: Channel Semantic (CS) y RDMA. Remote Direct Memory
Access permite a los procesos el acceso a memoria de un proceso en un nodo remoto sin intervención del CPU
del nodo remoto (lectura o escritura). InfniBand defne múltiples modos de transporte: Reliable Connection
(RC), Unreliable Connection (UC), Unreliable Datagram (UD) y Reliable Datagram (RD); el (UD) es el que mejor
se acopla a las necesidades de IP.
119
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Recordemos que mediante la pila TCP/IP, los datos se divide en unidades de paquetes de tamaño, proporciona
control y la fabilidad de fujo. La pila IP a continuación, añade la información necesaria para el encaminamiento
correcto del paquete a su destino. Por lo tanto, el adaptador de red se supone que es un dispositivo de entrega
‘no confable’, sin capacidades adicionales.
Se hace necesaria la convergencia entre InfniBand y Ethernet. IPoIB es la interfaz por la que los programas
basados en socket IP operan sobre IB, aporta un importante rendimiento en entornos de centros de datos
actuales para entender los benefcios que podrían derivarse de entornos de red híbridos.
• mlx4 es el controlador para los adaptadores de la familia ConnectX diseñados por Mellanox Technologies de
más bajo nivel de implementación. Adaptadores de la familia ConnectX® pueden funcionar como un adaptador
InfniBand, o como una NIC de Ethernet. El conductor OFED admite confguraciones de InfniBand y Ethernet
NIC.
• mlx4_core: Maneja funciones de bajo nivel como la inicialización del dispositivo y el procesamiento de los
comandos de frmware. También controla la asignación de recursos de manera que las funciones InfniBand y
Ethernet pueden compartir el dispositivo sin interferir uno con otro.
• mlx4_ib: Maneja funciones y enchufes InfniBand-específcos en la capa intermedia de InfniBand.
• mlx4_en: Driver 10/40GbE en drivers/net/ethernet/mellanox/mlx4 que se encarga de las funciones
específcas de Ethernet y se conecta a la capa intermedia netdevice.
IPoIB (IP sobre IB) es un protocolo que defne cómo enviar paquetes IP a través de IB. Encapsula datagramas IP
sobre un servicio de transporte. IPoIB pre-añade los datagramas IP con un encabezado de encapsulación, y
envía el resultado a través del servicio de transporte InfniBand. El servicio de transporte es de datagramas no
fable (UD) de forma predeterminada, pero también puede ser confgurado para ser fable Conectado (RC). La
interfaz es compatible con unicast, multicast y broadcast.
120
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
La diferencia real está en las aplicaciones codifcadas directamente con drivers Infniband de forma nativa
frente a aquellas heredadas de TCP-IP.
Sobre UD existen a su vez dos tipos de segmentación: Large Receive Ofoad (LRO) y Large Send Ofoad (LSO).
LSO proporciona un MTU virtual.
LRO prevé la agregación de paquetes entrantes para entregarlos al sistema.
iSER: extiende el protocolo iSCSI para RDMA. Se permite que los datos sean transferidos directamente en y
fuera de bufers SCSI sin copias de datos intermedios.
uDAPL: User Direct Access Programming Library es una API estándar que promueve rendimiento, escalabilidad
y fabilidad a las aplicaciones de mensajería de datos del centro de datos, interconectados por RDMA:
InfniBand y RoCE.
MPI Message Passing Interface es una especifcación de biblioteca que permite el desarrollo de bibliotecas de
sofware paralelo para utilizarlas en clusters y redes heterogéneas. Mellanox OFED incluye una
implementación Open MPI.
Infniband Subnet Manager: Todos los ULPs-InfniBand compatible requieren una operación apropiada de un
administrador de subred (SM) que se ejecuta en malla InfniBand, en todo momento. Opensm es una subred
InfniBand Manager-compatible, y se instala como parte de Mellanox OFED.
El Protocolo de Socket Directo (SDP) es un protocolo de red originalmente defnido por el Sofware Working
Group (SWG) de la InfniBand Trade Association.
Originalmente diseñado para InfniBand, SDP ha sido redefnido como un protocolo de transporte para la
estructura de red con acceso a memoria directo remoto (RDMA).
El propósito es proveer una alternativa acelerada de RDMA al protocolo TCP sobre IP. La meta es hacer esto
de forma que sea transparente a las aplicaciones.
Soporta sistema operativo Linux y Windows, y es parte de la OpenFabrics Enterprise Distribution (OFED), una
colección de protocolos de red RDMA. La OEFD es administrada por la OpenFabrics Alliance.
Trata con stream sockets, y si es instalado en un sistema, evita la pila TCP residente del sistema operativo para
conexiones de tipo stream entre cualquier punto fnal en la estructura RDMA. Todos los otros tipos de socket
(datagrama, paquete, etc.) son soportados por la pila IP de Linux y operan sobre interfaces estándar de IP (por
ejemplo IPoIB en estructuras InfniBand).
Debido a las características RDMA utilizados por SDP, utiliza el modo RC de IB; el cual descarga la mayoría de
la carga de trabajo directamente a la NIC, lo que permite un mayor rendimiento y menores latencias.
121
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Conceptos de conexión
Se usa una codifcación 8B/10B, con lo que, de cada 10 bits enviados solamente 8 son de datos, de tal manera
que la tasa de transmisión útil es 4/5 de la media.
Los enlaces pueden añadirse en grupos de 4 o 12, llamados 4X o 12X. Un enlace 12X a cuádruple ritmo tiene
un caudal bruto de 120 gbps, y 96 Gbps de caudal efcaz.
La latencia teórica de estos sistemas es de unos 160ns. Las reales están en torno a los 6 us, dependiendo
bastante del sofware y el frmware.
Usa una topología conmutada de forma que varios dispositivos pueden compartir la red al mismo tiempo (en
oposición a la topología en bus de Ethernet).
Permite que servidores y equipos de almacenamiento puedan ser conectados a través de un sistema de
conmutadores (switch fabric). Hay varias topologías InfniBand:
Fat Tree: Un árbol multi-raíz, topología más popular. Permite el mejor rendimiento a gran escala cuando se
confgura como una red no-bloqueo.
El controlador de memoria gestiona el bus del sistema
• Controla el tráfco entre el procesador y la memoria
• Controla el tráfco entre el HCA y la memoria
Los sistemas de almacenamiento y el resto de dispositivos se conectan a un conmutador InfniBand por medio
de un TCA (Target Channel Adapter)
Los adaptadores HCA y TCA son dispositivos inteligentes que gestionan todas las funciones de E/S sin
necesidad de interrumpir al procesador del servidor
Los servidores y los dispositivos se comunican con el conmutador de InfniBand a través de ellos
Para añadir nuevos dispositivos al tema basta con conectar sus adaptadores al conmutador
Cada enlace fsico entre un conmutador y un adaptador HCA o TCA conectado a él puede incluir hasta
16 canales lógicos denominados líneas virtuales
• Una línea se reserva para la gestión del conmutador
• Las otras líneas se reservan para la transmisión de datos
Los datos se envían en forma de secuencia de paquetes, conteniendo cada paquete:
• Información de direccionamiento
• Información de control
• Una parte del volumen de datos a transmitir
InfniBand: Encapsulación IP en IB
InfniBand: MPI en IB
Message Passing Interface (MPI) es una especifcación de biblioteca que permite el desarrollo de bibliotecas de
sofware paralelo para utilizarlas en computadoras paralelas, clústers y redes heterogéneas.
Mellanox OFED incluye las siguientes implementaciones MPI sobre InfniBand:
• Abrir MPI - un código abierto aplicación MPI-2 por el proyecto abierto MPI
• OSU MVAPICH - una implementación MPI-1 por la Universidad del Estado de Ohio
Para la comunicación punto a punto:
MPI_I/SEND, MPI_I/RECV
Para comunicaciones colectivas:
122
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
InfniBand: MPI en IB
int numprocs;
int myid=0;
int x;
MPI_Init(&argc,&argv);
MPI_Comm_size(MPI_COMM_WORLD,&numprocs);
MPI_Comm_rank(MPI_COMM_WORLD,&myid);
MPI_Barrier(MPI_COMM_WORLD);
if(myid==0)
print("Codigo ejecutando en proceso 0\n");
srand(myid*1234);
x = rand();
Uso de VLAN
• Partiendo del concepto de Broadcast, que en español signifca difusión, es una forma de transmisión de
información donde un nodo emisor envía información a una multitud de nodos receptores de manera
simultánea, sin necesidad de reproducir la misma transmisión nodo por nodo.
• Cuando se produce un Broadcast para preguntar por IP de una máquina, la máquina responde con su MAC
Address. El trabajo con Broadcast es muy bueno, pero puede propagar virus, por lo que es inseguro.
• Las tecnologías de redes de área local, por ejemplo Ethernet, también se basan en el uso de un medio de
transmisión compartido, se difunde cualquier trama de datos a los nodos que se encuentren en el mismo
segmento de la red, utilizando una dirección MAC especial como destino FF.FF.FF.FF.FF.FF.
• El protocolo IP en su versión 4 también permite la difusión de datos. En este caso no existe un medio de
transmisión compartido ni tampoco se realiza a todos los nodos de la red porque colapsaría las líneas de
comunicaciones debido a que no existe un medio de transmisión compartido. Se defne la difusión a subredes
concretas dentro de la red bajo el control de un mismo enrutador/router.
Difusión limitada (limited broadcast), dirección 255.255.255.255.
Multidifusión (multicast), rango de direcciones de clase D.
Anycast, un nodo del grupo recibirá la información.
Redes de Difusión o Broadcast:
Pensadas para redes locales de corto alcance.
Utiliza un único canal de comunicación abierto y compartido, con métodos dinámicos o estáticos, para
la asignación de tiempo de transmisión.
Campo “dirección”, origen y destino.
El formato admite mensajes cortos.
124
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
125
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
puerto puede taggear más de una VLAN, por lo tanto, ese puerto se puede usar para compartir vlans con otro
dispositivo.
Al asignar un puerto a dos vlans diferentes, una como puerto tagged y otra como untagged, es posible que el
mismo pueda transmitir ambos frames. Un puerto puede ser untagged para ninguna o una VLAN, y puede ser
tagged para ninguna o muchas VLANs. Un puerto debe pertenecer a una VLAN a no ser que esté seteado
como port mirror.
Los enlaces troncales o trunks, son enlaces capaces de transportar el tráfco de más de una VLAN. Los enlaces
troncales nos permiten transportar de forma lógica las VLANs utilizando un enlace fsico.
Por defecto los puertos de capa 2 de los switches son puertos de acceso, para que estos funcionen como
puertos de enlace troncal deben ser confgurados como se muestra a continuación:
switch(confg))interface type mod/port
switch(confg-if))switchport mode trunk encapsulation {isl | dot1q | negotiate}
switch(confg-if))switchport trunk native vlan vlan-id
switch(confg-if))switchport trunk allowed vlan {vlan-list | all | { add | except |remove } vlan-list}
switch(confg-if))switchport mode {trunk | dynamic {desirable | auto}}
En la confguración de enlaces troncales intervienen varios parámetros, uno de los cuales es la encapsulación.
Este lo podemos confgurar de tres formas diferentes:
isl: el trunk se forma utilizando ISL. (Inter-Switch Link Protocol)
dot1q: el trunk se forma utilizando IEEE 802.1Q.
negotiate: el trunk se forma utilizando el protocolo DTP de Cisco.
El estándar IEEE 802.1Q especifca el etiquetado de tramas como un método para implementar VLANs.
Insertando un campo de 4 bytes dentro de la trama Ethernet para identifcar a que VLAN pertenece la
información que se está transportando entre dispositivos de capa 2.
4 bytes
Trama Ethernet – 64 a 1518 bytes
Tamaño de la nueva trama: 68 a 1522 bytes
El comando switchport trunk native vlan sólo se utiliza con la encapsulación dot1q e identifca que VLAN será
nativa o de administración, por lo tanto no llevará etiqueta alguna.
El comando switchport trunk allowed vlan se utiliza para añadir o borrar VLANs de un enlace troncal, aunque la
opción except lo que hará será permitir todas excepto las que le indiquemos.
126
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
El comando switchport mode {access | trunk | dynamic {desirable | auto}} se utiliza para confgurar el puerto en
el modo adecuado.
En los casos en los tengamos demasiado tráfco en un enlace troncal, es posible confgurar agregación
FastEtherChannel o GigabitEtherChannel ampliando así el ancho de banda del enlace.
802.1Q no encapsula la trama original sino que añade 4 bytes al encabezado Ethernet original. El valor del
campo EtherType se cambia a 0x8100 para señalar el cambio en el formato de la trama.
Defne el protocolo de encapsulamiento usado para multiplexar varias VLAN a través de un solo enlace,
introduce el concepto de las VLAN nativas. Las tramas pertenecientes a las VLAN nativas no se modifcan
cuando se envían por medio del trunking. Las VLAN nativas también se conocen con el nombre de "VLAN de
administración".
Por defecto todos los puertos del switch son miembros untagged de una vlan.
La VLAN default se llama ¨default¨y tiene VID=1, no se taggea en 802.1Q.
La VLAN nativa funciona aun cuando no funciona el 802.1Q.
Las redes Wi-FI utilizan ondas de radiofrecuencia de baja potencia y una banda específca, de uso libre para
transmitir, entre dispositivos.
El término radiofrecuencia, también denominado espectro de radiofrecuencia o RF, se aplica a la porción del
espectro electromagnético en el que se pueden generar ondas electromagnéticas aplicando corriente alterna a
una antena.
Tendencia a la movilidad. Comunidades wireless que buscan la difusión de redes alternativas a las comerciales.
El objetivo es evitar el uso de cables en todo tipo de comunicación.
El problema de los hornos microondas como elementos perturbadores o inhibidores de señal pueden difcultar
e incluso imposibilitar las comunicaciones en un determinado rango de frecuencias.
Medios infrarrojos: medio alternativo al de radiofrecuencia.
Mercados y Aplicaciones:
127
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Wireless
Funcionamiento
Scan pasivo:
1. tramas de baliza enviados desde los puntos de acceso
2. Trama Solicitud de asociación enviada: H1 a AP seleccionado
3. Trama de Respuesta de asociación enviada: H1 a AP seleccionado
Scan activo:
1. Emisión de broadcast de Solicitud de trama de H1
2. Trama de respuesta enviado desde APs
3. Trama de solicitud de Asociación enviada: H1 al AP seleccionado
4. Trama de Respuesta de Asociación enviada: H1 al AP seleccionado
Wireless LAN
IEEE 802.11:
o 1-2 Mbps en 2.4 GHz (la misma de Bluetooth).
o Salto de frecuencias (FHSS) o secuencia directa (DSSS).
IEEE 802.11b: Extensión de 802.11, 11 Mbps, DSSS.
o 14 canales de 22 MHz (parcialmente solapados).
o IEEE 802.11a: Extensión de 802.11.
o 54 Mbps, OFDM, 5 GHz.
IEEE 802.11g: Extensión de 802.11.
o 20-54 Mbps, DSSS y OFDM.
o Compatible hacia atrás con 802.11b.
o Más alcance y menos consumo que 802.11g.
IEEE 802.11n:
o Múltiples antenas.
o Rango de 2,4 a 5 GHz.
o Hasta 300 Mbps.
Modos de operación:
o Modo ad-hoc: Un nodo móvil se comunica directamente con otro.
o Modo infraestructura: Los nodos móviles se comunican con un punto de acceso (AP).
Misión principal: acceso a la red fja.
o Comunicación entre móviles a través del AP.
o Cada móvil se asocia a un AP antes de transmitir.
Un AP es un hub/bridge: puede construirse con un PC, una interfaz inalámbrica y una
interfaz fja.
Estándares: 802.11a/b/g
Aplicaciones:
- Acceso Público / Hot spots.
- Acceso en edifcios, dentro del domicilio.
- Aplicaciones móviles de alta capacidad.
128
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Aunque la trama 802.11 comparte muchas similitudes con una trama Ethernet, también contiene diversos
campos que son específcos para su uso en enlaces inalámbricos. En la trama que se muestra en la fgura, los
números situados encima de cada campo de la trama representan las longitudes de los campos en bytes; los
números situados por encima de cada uno de los subcampos en el campo de control de trama representan las
longitudes de los subcampos en bits.
En el corazón de la trama se encuentra la carga útil, que normalmente estará compuesta por un datagrama IP o
un paquete ARP. Aunque el campo puede tener una longitud de hasta 2.312 bytes, normalmente la longitud es
inferior a 1.500 bytes, conteniendo el campo un datagrama IP o un paquete ARP. Al igual que con una trama
Ethernet, una trama 802.11 incluye un código de redundancia cíclica (CRC) de 32 bits, de modo que el receptor
pueda detectar errores de bit en la trama recibida. Como ya hemos visto, los errores de bit son mucho más
comunes en las redes LAN inalámbricas que en las redes LAN cableadas, por lo que el CRC aquí es todavía más
útil.
Campos de dirección
Quizá la diferencia más llamativa en la trama 802.11 es que tiene cuatro campos de dirección, cada uno de los
cuales puede contener una dirección MAC de 6 bytes. ¿Pero por qué se utilizan cuatro campos de dirección?
¿No bastaría con un campo MAC de origen y un campo MAC de destino, como sucede en Ethernet? Resulta
que tres de los campos de dirección son necesarios para propósitos de la comunicación por la red,
específcamente para mover el datagrama de la capa de red de una estación inalámbrica hasta una interfaz de
router a través de un punto de acceso. El cuarto campo de dirección se utiliza cuando los puntos de acceso se
reenvían tramas entre sí en modo ad hoc. Puesto que sólo estamos considerando aquí las redes de
infraestructura, vamos a centrarnos en los tres primeros campos de dirección. El estándar 802.11 defne estos
campos como sigue:
129
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Campo de control de trama expandido (los números indican la longitud de los subcampos en bits):
2 2 4 1 1 1 1 1 1 1 1
Versión Tipo Subtipo Hacia Desde Más Reintent Gestión Más WEP Rsvd
protocol AP AP frag. ar Potencia datos
o
El campo Dirección 1 contiene la dirección MAC de la estación inalámbrica que tiene que recibir la trama. Por
tanto, si una estación inalámbrica móvil transmite la trama, Dirección 1 contendrá la dirección MAC del punto
de acceso de destino. De forma similar, si un punto de acceso transmite la trama, Dirección 1 contendrá la
dirección MAC de la estación inalámbrica de destino.
Dirección 2 es la dirección MAC de la estación que transmite la trama. Por tanto, si una estación inalámbrica
transmite la trama, la dirección MAC de dicha estación se insertará en el campo Dirección 2. De forma similar,
si es un punto de acceso el que tranmite la trama, en el campo Dirección 2 se insertará la dirección MAC de
dicho punto de acceso.
Para comprender el campo Dirección 3, hay que recordar que el BSS (que consta del punto de acceso y las
estaciones inalámbricas) forma parte de una subred y que dicha subred se conecta a otras subredes a través de
alguna interfaz de router. Dicho campo contiene la dirección MAC del router al cual el AP se encuentra
conectado.
El campo Dirección 4, se utiliza en el modo Ad Hoc.
Recordar que un punto de acceso es un dispositivo de la capa de enlace y que, por tanto, no "habla” IP ni
comprende las direcciones IP.
130
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Uso de los campos de dirección en las tramas 802.11: envío de tramas entre H1 y R1.
Considerando: transferencia de un datagrama desde la interfaz del router R1 hasta la estación H1. El router no
es consciente de que existe un punto de acceso entre él y H1 desde la perspectiva del router, H1 es
simplemente un host en una de las subredes a la que el router está conectado.
- R1 que conoce la dirección IP de H1 (a partir de la dirección de destino del datagrama), utiliza ARP para
determinar la dirección MAC de H1, al igual que en una red LAN Ethernet normal.
- Después de obtener la dirección MAC de H1, la interfaz del router R1 encapsula el datagrama dentro de una
trama Ethernet. El campo de dirección de origen de esta trama contiene la dirección MAC de R1 y el campo de
la dirección de destino contiene la dirección MAC de H1.
- Cuando la trama Ethernet llega al punto de acceso, éste convierte la trama Ethernet 802.3 en una trama
802.11 antes de transmitirla por el canal inalámbrico. El punto de acceso rellena los campos Dirección 1 y
Dirección 2 con la dirección MAC de H1 y su propia dirección MAC, respectivamente, como hemos descrito
anteriormente. Como
Dirección 3, el punto de acceso inserta la dirección MAC de R1.
- De esta forma, H1 puede determinar (a partir de la dirección 3) la dirección MAC de la interfaz del router que
envió el datagrama hacia la subred.
Movilidad dentro de la misma subred IP.
Para incrementar el rango fsico de una red LAN inalámbrica, las empresas y universidades suelen implantar
varios BSS dentro de la misma subred IP. Esto plantea naturalmente el problema de la movilidad entre los
distintos BSS: ¿cómo pueden moverse las estaciones inalámbricas de forma transparente de un BSS a otro,
mientras mantienen una serie de sesiones TCP activas? Como veremos en esta subsección, la movilidad puede
gestionarse de forma relativamente sencilla cuando los BSS forman parte de una misma subred. Cuando las
estaciones se desplazan entre subredes contiguas, hacen falta protocolos más complejos de gestión de la
movilidad.
Conmutador
131
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
R ISP I
SNR SNR
Se usa
IP pública
Una red privada virtual en inglés: Virtual Private Network (VPN) es una tecnología de red de computadoras que
permite una extensión segura de la red de área local (LAN) sobre una red pública o no controlada como
Internet ejecutando protocolos de cifrado sobre Ethernet, un protocolo de capa 2 con capacidad de
transmisión broadcast.
Ejemplos comunes son la posibilidad de conectar dos o más sucursales de una empresa utilizando como vínculo
Internet, permitir a los miembros del equipo de soporte técnico la conexión desde su casa al centro de
cómputo, o que un usuario pueda acceder a su equipo doméstico desde un sitio remoto, como por ejemplo un
hotel. Todo ello utilizando la infraestructura de Internet.
La conexión VPN a través de Internet es técnicamente una unión wide area network (WAN) entre los sitios
pero al usuario le parece como si fuera un enlace privado— de allí la designación "virtual private network".
132
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
133
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
La técnica de tunneling consiste en encapsular un protocolo de red sobre otro (protocolo de red encapsulador)
creando un túnel dentro de una red de computadoras. El establecimiento de dicho túnel se implementa
incluyendo una PDU (unidades de datos de protocolo) determinada dentro de otra PDU con el objetivo de
transmitirla desde un extremo al otro del túnel sin que sea necesaria una interpretación intermedia de la PDU
encapsulada. De esta manera se encaminan los paquetes de datos sobre nodos intermedios que son incapaces
de ver en claro el contenido de dichos paquetes. El túnel queda defnido por los puntos extremos y el protocolo
de comunicación empleado, que entre otros, podría ser SSH.
El uso de esta técnica persigue diferentes objetivos, dependiendo del problema que se esté tratando, como por
ejemplo la comunicación de islas en escenarios multicast, la redirección de tráfco, etc.
Uno de los ejemplos más claros de utilización de esta técnica consiste en la redirección de tráfco en escenarios
IP Móvil. En escenarios de IP móvil, cuando un nodo-móvil no se encuentra en su red base, necesita que su
home-agent realice ciertas funciones en su puesto, entre las que se encuentra la de capturar el tráfco dirigido
al nodo-móvil y redirigirlo hacia él. Esa redirección del tráfco se realiza usando un mecanismo de tunneling, ya
que es necesario que los paquetes conserven su estructura y contenido originales (dirección IP de origen y
destino, puertos, etc.) cuando sean recibidos por el nodo-móvil. Se maneja de manera remota.
VPN over LAN
Este esquema es el menos difundido pero uno de los más poderosos para utilizar dentro de la empresa. Es una
variante del tipo "acceso remoto" pero, en vez de utilizar Internet como medio de conexión, emplea la misma
red de área local (LAN) de la empresa. Sirve para aislar zonas y servicios de la red interna. Esta capacidad lo
hace muy conveniente para mejorar las prestaciones de seguridad de las redes inalámbricas (WiFi).
Un ejemplo clásico es un servidor con información sensible, como las nóminas de sueldos, ubicado detrás de un
equipo VPN, el cual provee autenticación adicional más el agregado del cifrado, haciendo posible que
solamente el personal de recursos humanos habilitado pueda acceder a la información.
Otro ejemplo es la conexión a redes Wi-Fi haciendo uso de túneles cifrados IPSec o SSL que además de pasar
por los métodos de autenticación tradicionales (WEP, WPA, direcciones MAC, etc.) agregan las credenciales de
seguridad del túnel VPN creado en la LAN interna o externa.
Implementaciones
El protocolo estándar de facto es el IPSEC, pero también están PPTP, L2F, L2TP, SSL/TLS, SSH, etc. Cada uno
con sus ventajas y desventajas en cuanto a seguridad, facilidad, mantenimiento y tipos de clientes soportados.
Actualmente hay una línea de productos en crecimiento relacionada con el protocolo SSL/TLS, que intenta
hacer más amigable la confguración y operación de estas soluciones.
Las soluciones de hardware casi siempre ofrecen mayor rendimiento y facilidad de confguración, aunque no
tienen la fexibilidad de las versiones por sofware. Dentro de esta familia tenemos a los productos de Fortinet,
SonicWALL, WatchGuard, Nortel, Cisco, Linksys, Netscreen (Juniper Networks), Symantec, Nokia, U.S.
Robotics, D-link, Mikrotik, etc.
Las aplicaciones VPN por sofware son las más confgurables y son ideales cuando surgen problemas de
interoperatividad en los modelos anteriores. Obviamente el rendimiento es menor y la confguración más
delicada, porque se suma el sistema operativo y la seguridad del equipo en general. Aquí tenemos por ejemplo
a las soluciones nativas de Windows, GNU/Linux y los Unix en general. Por ejemplo productos de código
abierto como OpenSSH, OpenVPN y FreeS/Wan.
En ambos casos se pueden utilizar soluciones de frewall («cortafuegos» o «barrera de fuego»), obteniendo un
nivel de seguridad alto por la protección que brinda, en detrimento del rendimiento.
Ventajas
• Integridad, confdencialidad y seguridad de datos.
• Las VPN reducen los costos y son sencillas de usar.
• Facilita la comunicación entre dos usuarios en lugares distantes.
Tipos de conexión
Conexión de acceso remoto
134
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Una conexión de acceso remoto es realizada por un cliente o un usuario de una computadora que se conecta a
una red privada, los paquetes enviados a través de la conexión VPN son originados al cliente de acceso remoto,
y éste se autentifca al servidor de acceso remoto, y el servidor se autentifca ante el cliente.
Conexión VPN router a router
Una conexión VPN router a router es realizada por un router, y este a su vez se conecta a una red privada. En
este tipo de conexión, los paquetes enviados desde cualquier router no se originan en los routers. El router que
realiza la llamada se autentifca ante el router que responde y este a su vez se autentifca ante el router que
realiza la llamada y también sirve para la intranet.
Conexión VPN frewall a frewall
Una conexión VPN frewall es realizada por uno de ellos, y éste a su vez se conecta a una red privada. En este
tipo de conexión, los paquetes son enviados desde cualquier usuario en Internet. El frewall que realiza la
llamada se autentifca ante el que responde y éste a su vez se autentifca ante el llamante.
VPN en entornos móviles
La VPN móvil se establece cuando el punto de terminación de la VPN no está fjo a una única dirección IP, sino
que se mueve entre varias redes como pueden ser las redes de datos de operadores móviles o distintos puntos
de acceso de una red Wif. Las VPNs móviles se han utilizado en seguridad pública dando acceso a las fuerzas
de orden público a aplicaciones críticas tales como bases de datos con datos de identifcación de criminales,
mientras que la conexión se mueve entre distintas subredes de una red móvil.4 También se utilizan en la
gestión de equipos de técnico y en organizaciones sanitarias entre otras industrias. Cada vez más, las VPNs
móviles están siendo adaptadas por profesionales que necesitan conexiones fables. Se utilizan para moverse
entre redes sin perder la sesión de aplicación o perder la sesión segura en la VPN. En una VPN tradicional no se
pueden soportar tales situaciones porque se produce la desconexión de la aplicación, time outs o fallos, o
incluso causar fallos en el dispositivo.
Soluciones de energía con alta disponibilidad: Conceptos sobre Electricidad aplicado al Datacenter.
Conceptos de Energía
• RESISTENCIA: símbolo R
• Es el elemento que se interpone al fujo de electrones, con alguna justifcación. Es medido en Voltios.
• POTENCIA, símbolo P
• Es el parámetro que nos permite medir el trabajo que vamos a realizar o que estamos produciendo, está
medido en vatios.
• Es el producto del Voltaje (V) por la Corriente (I). Es la energía Potencial más la Corriente que está circulando
por los conductores
• Es directamente proporcional al Voltaje y a la Corriente.
135
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
........................................................................ P=V × I
I V
P P
V= .............................................................................................................................................I =
I V
La energía se genera en lugares remotos, y es transportada hasta los puntos de consumo por un sistema de
distribución, de manera que la energía llegue a nuestras casas de la mejor manera posible, con la menor
pérdida.
136
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Potencia AC
• La energía eléctrica generada es trifásica, 3 fases al mismo tiempo, de manera de obtener el máximo de
benefcio posible.
• Las fases están “desfasadas” en 120 grados para así construir 1 señal trifásica.
• Sin embargo recibimos una señal monofásica.
137
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Tipos de UPS
La topología UPS indica la naturaleza básica del diseño de la UPS. Por lo general, diferentes proveedores
producen modelos con diseños o topologías similares, pero con características de rendimiento muy diferentes.
Se utiliza una variedad de enfoques de diseño para implementar sistemas UPS, cada uno de ellos con
características de rendimiento diferenciadas.
Los enfoques de diseño más comunes son los siguientes:
• Standby
• Línea interactiva
• On line de doble conversión
UPS Standby
• Diseñadas para el ambiente de computadoras personales.
• El interruptor de transferencia está programado para seleccionar la entrada de CA fltrada como fuente de
energía primaria (circuito con línea entera), y conmutar al modo de batería/inversor como fuente de respaldo
en caso de que falle la fuente primaria.
• Cuando ocurre, el interruptor de transferencia debe conmutar la carga a la fuente de energía de respaldo de
batería/inversor (circuito con línea de guiones). El inversor solo se enciende cuando falla la energía; de ahí el
nombre “Standby” (de reserva).
• Los principales benefcios que ofrece este diseño son altos niveles de efciencia, tamaño pequeño y bajo
costo. Con un circuito fltro y de sobretensión adecuado, estos sistemas además pueden brindar funciones
apropiadas de fltrado de ruido y supresión de sobretensiones
UPS Line-Interactive
• El sistema UPS de línea interactiva es el diseño más comúnmente utilizado por servidores de pequeñas
empresas, Web y departamentales. En este tipo de diseño, el conversor (inversor) de batería a alimentación CA
siempre está conectado a la salida del sistema UPS. Al accionar el inversor en reversa en momentos en que la
alimentación CA de entrada es normal, se carga la batería.
• Cuando falla la alimentación de entrada, el interruptor de transferencia se abre y el fujo de energía se
produce desde la batería hasta la salida del sistema UPS. Con el inversor siempre activo y conectado a la salida,
este diseño ofrece un fltro adicional y produce transitorios de conmutación reducidos en comparación con la
topología de la UPS Standby.
• Suele incorporar un transformador con cambio de tap. Esto agrega la función de regulación de tensión
mediante el ajuste de los taps del transformador en la medida que varía la tensión de entrada. La regulación de
la tensión es una característica importante cuando existen condiciones de baja tensión; sin ella, la UPS
transferiría la carga a la batería y, con el tiempo, caería la carga.
• Los altos niveles de efciencia, el tamaño pequeño, el bajo costo y la alta confabilidad, en combinación con la
capacidad de corregir condiciones de tensión de línea alta o baja hacen que este tipo de UPS sea la más usada
para el rango de potencia de 0,5-5 kVA.
UPS OnLine de doble conversión
• Este es el tipo más común de UPS para rangos superiores a 10 kVA.
• El diagrama es el mismo que para la UPS Standby, excepto que el circuito de energía primario es el inversor
en lugar de la red de CA.
138
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
UPS Standby
Resumen
Rango de Acondicionamiento Costo por VA Efciencia Inversor con
potencia para de la tensión funcionamiento
la aplicación constante
práctca
Standby 0 - 0,5 Baja Bajo Muy alto No
Linea Actva 0,5 - 5 Según diseño Medio Muy alto Según diseño
On line de 5 - 5000 Alto Medio Baja - Media Si
doble
conversión
Productos Acondicionamiento Costo por VA Efciencia Inversor con
comerciales de la tensión funcionamiento
constante
Standby APC Back – Baja Bajo Muy alto No
UPS
Tripp
Linea Actva 0,5 - 5 Según diseño Medio Muy alto Según diseño
On line de 5 - 5000 Alto Medio Baja - Media Si
doble
conversión
139
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
140
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Si el objetivo es el de proporcionar un modelo el servicio de mejor esfuerzo de la red Internet actual (que vale
para todo), ¿qué tipo de servicio hay que proporcionar exactamente?
Un modelo de servicio simple mejorado consistiría en clasifcar el tráfco en clases y proporcionar diferentes
niveles de servicio a esas distintas clases de tráfco.
Es importante observar que tal servicio diferenciado se proporciona entre agregados de tráfco; es decir, entre
clases de tráfco, no entre conexiones individuales.
El tratar con un número pequeño de agregados de tráfco en lugar de con una gran cantidad de conexiones
individuales, los nuevos mecanismos de red requeridos para proporcionar un servicio de entrega más efectivo
que el de mejor esfuerzo pueden ser relativamente simples.
Se consideran varios escenarios posibles que motivan la necesidad de mecanismos específcos que den soporte
a múltiples clases de servicio.
Temas importantes: la planifcación en el nivel de enlace y la vigilancia/clasifcación.
Escenario 1: una aplicación de audio de 1 Mbps y una transferencia FTP
El escenario 1 se ilustra en la siguiente fgura. En este caso, una aplicación de audio de 1 Mbps (por ejemplo,
una llamada de audio con calidad de CD) comparte el enlace a 1,5 Mbps entre R1 y R2 con una aplicación FTP
que está transfriendo un archivo desde H2 a H4.
H1 H3
Prioridad estricta: a los paquetes de audio en R1. Aplicando esta disciplina de planifcación con prioridad
estricta, un paquete de audio que se encuentra en el bufer de salida de R1 siempre debería transmitirse antes
que cualquier paquete FTP que se encuentre en este mismo bufer. El enlace entre R1 y R2 sería entonces
como un enlace dedicado a 1,5 Mbps para el tráfco de audio y el tráfco FTP emplearía dicho enlace sólo
cuando no hubiera tráfco de audio en la cola.
Con el fn de que R1 distinga los paquetes de audio de los paquetes FTP que tiene en su cola, cada uno de los
paquetes debe marcarse como perteneciente a una de esas dos clases de tráfco. Éste era el objetivo original
del campo Tipo de servicio (ToS) de IPv4. Aunque pueda parecer obvio, éste es nuestro primer principio básico
en el que se fundamentan los mecanismos necesarios para proporcionar múltiples clases de tráfco:
Principio 1: el marcado de los paquetes permite a un router diferenciar entre paquetes pertenecientes a
distintas clases de tráfco.
Escenario 2: una aplicación de audio de 1 Mbps y una transferencia FTP con prioridad alta
Nuestro segundo escenario es ligeramente diferente del escenario 1. Suponga ahora que el usuario FTP ha
comprado a su ISP un servicio “platinum” (es decir, de alto precio), mientras que el usuario de audio ha
141
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
adquirido un servicio Internet de bajo presupuesto y barato, cuyo coste es una minúscula fracción del coste del
servicio platinum. En este caso, ¿debería darse prioridad a los paquetes de audio del usuario que ha adquirido
un servicio barato frente a los paquetes FTP? Posiblemente no. En este caso, parece más razonable diferenciar
los paquetes basándose en la dirección IP del emisor. En general, vemos que es necesario que los routers
clasifquen los paquetes de acuerdo con determinados criterios. Teniendo esto en cuenta, tenemos que
modifcar ligeramente el principio 1:
Principio 1 (modificado): la clasificación de paquetes permite a los routers diferenciar entre paquetes que pertenecen
a distntas clases de tráfico.
El marcado explícito de los paquetes es una forma que permite diferenciarlos. Sin embargo, la marca que
transporta el paquete, por sí misma, no implica que el paquete recibirá una determinada calidad de servicio. El
marcado es simplemente un mecanismo para distinguir los paquetes. La manera en que un router distingue
entre paquetes tratándolos de forma diferente es una decisión de vigilancia.
Escenario 3: una aplicación de audio con mal comportamiento y una transferencia FTP
Suponga ahora que, de alguna manera (usando mecanismos que estudiaremos en las siguientes secciones), el
router sabe que debe dar prioridad a los paquetes procedentes de la aplicación de audio a 1 Mbps. Puesto que
la velocidad del enlace de salida es de 1,5 Mbps, incluso aunque los paquetes FTP tengan una prioridad menor
todavía recibirán, como promedio, un servicio de transmisión de 0,5 Mbps. Pero, ¿qué ocurre si la aplicación de
audio comienza a enviar paquetes a una velocidad de 1,5 Mbps o superior (bien maliciosamente o debido a un
error de la aplicación)? En este caso, los paquetes FTP no recibirán ningún servicio del enlace R1 a R2. Podrían
producirse problemas similares si varias aplicaciones (por ejemplo, varias llamadas de audio), todas ellas con la
misma prioridad, tuvieran que compartir el ancho de banda de un enlace; un fujo no conforme podría degradar
y arruinar el rendimiento de los restantes fujos. Idealmente, es deseable un grado de aislamiento entre clases e
tráfco y también posiblemente entre fujos de una misma clase de tráfco, con el fn de proteger a cada uno de
los fujos de aquellos fujos que presentan un comportamiento erróneo. El concepto de proteger los fujos
individuales de una determinada clase frente a las otras contradice nuestra observación anterior acerca de que
los paquetes de todos los fujos pertenecientes a una clase deberían ser tratados del mismo modo. En la
práctica, los paquetes de una clase son de hecho tratados del mismo modo en los routers del núcleo de la red.
Sin embargo, en la frontera de la red los paquetes de un determinado fujo pueden ser monitorizados para
garantizar que la velocidad agregada de un fujo individual no excede un cierto valor.
Estas consideraciones nos llevan a nuestro segundo principio:
Principio 2: es deseable proporcionar un grado de aislamiento entre las clases de tráfico y entre los fujos, de manera
que una clase o un fujo no se vea afectado de forma adversa por otro que tene un comportamiento erróneo.
En la siguiente sección vamos a examinar varios mecanismos específcos para proporcionar este aislamiento
entres clases de tráfco o fujos. Debemos comentar aquí que es posible adoptar dos enfoques. En primer lugar,
como se muestra en la Figura, es posible vigilar el tráfco. Si una clase de tráfco o fujo tiene que satisfacer
ciertos criterios (por ejemplo, que el fujo de audio no exceda la velocidad de pico de 1 Mbps), entonces puede
utilizarse un mecanismo de vigilancia con el fn de garantizar que esos criterios son observados.
Si la aplicación que se está monitorizando presenta un mal comportamiento, entonces el mecanismo de
vigilancia llevará a cabo una cierta acción (por ejemplo, descartar o retardar los paquetes que están violando los
criterios), de modo que el tráfco que realmente entre en la red cumpla los criterios. El mecanismo de goteo
(una cubeta con pérdidas) que examinaremos en la siguiente sección es quizá el mecanismo de vigilancia más
ampliamente utilizado. En la fgura que se muestra más abajo, el mecanismo de clasifcación y marcado de
paquetes (Principio 1) y el mecanismo de vigilancia (Principio 2) están localizados en la frontera de la red,
bien en el sistema terminal o bien en un router de frontera.
Un enfoque alternativo para proporcionar aislamiento entre clases de tráfco o fujos es que el mecanismo de
planifcación de paquetes a nivel de enlace asigne explícitamente una cantidad fja de ancho de banda del
enlace a cada clase o fujo. Por ejemplo, al fujo de audio podría asignársele 1 Mbps en R1 y al fujo FTP se le
podría asignar 0,5 Mbps. En este caso, los fujos de audio y FTP ven un enlace lógico con una capacidad de 1,0
y 0,5 Mbps, respectivamente, como se muestra en la Figura.
Con un cumplimiento estricto de la asignación de ancho de banda a nivel de enlace, una clase o un fujo sólo
puede usar la cantidad de ancho de banda que ha sido asignada; en concreto, no puede utilizar ancho de banda
que no esté siendo actualmente empleado por otros. Por ejemplo, si el fujo de audio se silencia (por ejemplo, si
el que habla hace una pausa y no genera paquetes de audio), el fujo FTP seguirá sin poder transmitir a más de
0,5 Mbps a través del enlace de R1 a R2, incluso aunque la asignación de ancho de banda de 1 Mbps del fujo
de audio no esté siendo utilizada en ese momento. Por tanto, es deseable utilizar el ancho de banda de la forma
142
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
más efciente posible, permitiendo a una clase de tráfco o fujo utilizar el ancho de banda no utilizado por otros
en cualquier instante dado. Estas consideraciones nos llevan a nuestro tercer principio:
Principio 3: mientras se proporciona aislamiento entre clases o fujos, es deseable utlizar los recursos (por ejemplo, el
ancho de banda del enlace y los bufers) de la forma más eficiente posible.
143
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
alta que tenga una cola no vacía (es decir, que tenga paquetes para ser transmitidos). La elección entre
paquetes con la misma clase de prioridad normalmente se realiza aplicando la disciplina FIFO.
La fgura recién mostrada, ilustra el funcionamiento de una cola con dos clases de prioridad. Los paquetes 1, 3 y
4 pertenecen a la clase con prioridad alta y los paquetes 2 y 5 pertenecen a la clase con prioridad baja. El
paquete 1 llega y se encuentra con que el enlace está inactivo, por lo que inicia la transmisión.
Colas de turno rotatorio y colas equitatvas ponderadas (WFQ)
En la disciplina de colas de turno rotatorio (round robin) los paquetes se clasifcan en clases al igual que en las
colas con prioridad. Sin embargo, en lugar de existir un servicio de prioridad estricta entre clases, un
planifcador de turno rotatorio alterna el servicio entre clases. En la forma más simple de la planifcación por
turno rotatorio se transmite un paquete de clase 1 seguido de un paquete de clase 2, seguido de un paquete de
clase 1, seguido de un paquete de clase 2, y así sucesivamente. Una disciplina de colas conservadora nunca
permitirá que el enlace permanezca inactivo siempre que haya paquetes (de cualquier clase) esperando a ser
transmitidos. Una disciplina de colas de turno rotatorio conservadora busca un paquete de una determinada
clase, pero si no lo encuentra, comprueba inmediatamente la siguiente clase de la secuencia de turno rotatorio.
Por ejemplo, los paquetes 1, 2 y 4 pertenecen a la clase 1 y los paquetes 3 y 5 pertenecen a la clase 2. El
paquete 1 comienza a ser transmitido de forma inmediata nada más llegar a la cola de salida. Los paquetes 2 y
3 llegan mientras se está transmitiendo el paquete 1 y por tanto tienen que ponerse en cola hasta poder ser
transmitidos. Una vez que el paquete 1 se ha transmitido, el planifcador del enlace busca un paquete de clase
por lo que transmite el paquete 3. Después de transmitir este paquete, el planifcador busca un paquete de
clase 1 y transmite el paquete 2. Una vez transmitido el paquete 2 sólo queda en la cola el paquete 4, el cual es
transmitido inmediatamente después del paquete 2.
Una abstracción generalizada de las colas de turno rotatorio que ha encontrado un considerable uso en las
arquitecturas QoS es la denominada disciplina de cola equitativa ponderada (WFQ, Weighted Fair Queuing)
[Demers 1990; Parekh 1993].
Vigilancia
La regulación de la velocidad a la que una clase o fujo puede inyectar paquetes en la red (en la exposición que
sigue supondremos que la unidad de vigilancia es un fujo). Además, la vigilancia es un mecanismo QoS
importante. Pero, ¿qué aspectos de la tasa de paquetes de un fujo deberían ser vigilados? Podemos identifcar
tres importantes criterios de vigilancia:
Tasa promedio. La red puede querer limitar la tasa promedio a largo plazo (paquetes por intervalo de tiempo) a
la que los paquetes de un fujo pueden ser enviados a la red. Un problema crucial en este caso es el intervalo de
tiempo sobre el que se vigilará la tasa promedio.
Tasa de pico. Mientras que la restricción de la tasa promedio limita la cantidad de tráfco que puede ser enviado
a la red para un periodo de tiempo relativamente largo, la restricción de la tasa de pico limita el número
máximo de paquetes que pueden ser enviados en un periodo de tiempo más corto.
Tamaño de la ráfaga. La red también puede desear limitar el número máximo de paquetes (la “ráfaga” de
paquetes) que pueden ser enviados a la red en un intervalo de tiempo extremadamente corto. En el límite,
cuando la longitud del intervalo tiende a cero, el tamaño de la ráfaga limita el número de paquetes que pueden
ser enviados a la red de forma instantánea.
El mecanismo de goteo de la cubeta con pérdidas es una abstracción que puede utilizarse para caracterizar
estos límites de vigilancia.
144
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
Difserv
El objetivo de la arquitectura Difserv de Internet [RFC 2475; Kilkki 1999] es el de proporcionar una
diferenciación de servicio, es decir, la capacidad de manejar diferentes “clases” de tráfco de formas distintas
dentro de Internet, y hacer esto de una manera escalable y fexible. La necesidad de la escalabilidad surge del
hecho de que pueden existir centenares de miles de fujos simultáneos de tráfco origen-destino en un router
troncal de Internet. Veremos a continuación que esta necesidad se cubre incluyendo solamente una simple
funcionalidad dentro del núcleo de la red, con más operaciones de control complejas implementadas en la
frontera de la red. La necesidad de la fexibilidad se debe al hecho de que pueden surgir nuevas clases de
servicio y quedar obsoletas otras clases de servicio más antiguas. La arquitectura Difserv es fexible en el
sentido de que no defne servicios ni clases de servicios específcos; en lugar de ello, Difserv proporciona
componentes funcionales, es decir, las piezas de una arquitectura de red con las que pueden construirse tales
servicios. Examinemos ahora estos componentes en detalle.
Servicios diferenciados: un escenario simple
Para establecer el marco de trabajo con el fn de defnir los componentes arquitectónicos del modelo de
servicios diferenciados (Difserv), comenzaremos con la sencilla red mostrada en la última fgura del principio 3.
En esta sección vamos a describir un posible uso de los componentes de Difserv. Como se describe en el
documento RFC 2475 son posibles muchas otras variantes. Nuestro objetivo aquí es proporcionar una
introducción a los aspectos clave de Difserv, en lugar de describir el modelo arquitectónico de forma
exhaustiva.
La arquitectura de los servicios diferenciados consta de dos conjuntos de elementos funcionales:
Funciones de frontera: clasifcación de paquetes y acondicionamiento del tráfco. En la frontera de entrada de la
red (es decir, en cualquier host que soporte el modelo Difserv que genere tráfco o en el primer router
compatible con Difserv a través del cual pase el tráfco), se marcan los paquetes que llegan. Más
específcamente, se asigna un cierto valor al campo servicio diferenciado (DS, Diferentiated Service) de la
cabecera del paquete. Por ejemplo, en la fgura del principio número 3, los paquetes que están siendo
transmitidos de H1 a H3 pueden marcarse en R1, mientras que los paquetes que se envían de H2 a H4 pueden
marcarse en R2. La marca que recibe un paquete identifca la clase de tráfco a la que pertenece. Las distintas
clases de tráfco recibirán entonces un servicio diferente en la red principal.
Función del núcleo: reenvío. Cuando un paquete marcado con DS llega a un router DS, el paquete es reenviado
al siguiente salto de acuerdo con el comportamiento por salto asociado con dicha clase de paquete. El
comportamiento por salto infuye en cómo las clases de tráfco en competencia comparten los búferes de un
router y el ancho de banda del enlace. Un principio fundamental de la arquitectura Difserv es que el
comportamiento por salto de un router se basará únicamente en las marcas de los paquetes, es decir, en la
clase de tráfco a la que pertenece el paquete. Por tanto, si los paquetes que se están enviando de H1 a H3 en
la fgura antes mencionada reciben la misma marca que los paquetes que están siendo enviados de H2 a H4,
entonces los routers de la red tratan estos paquetes como agregados sin distinguir si los paquetes fueron
145
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)
originados en H1 o en H2. Por ejemplo, R3 no diferenciará entre los paquetes de H1 y H2 al reenviarlos hacia
R4.
WAN QoS
Clasificación: implica buscar algo sobre el tráfco que pasa a través del router, puede ser una dirección IP, un
número de puerto, un protocolo específco, o incluso datos a nivel de aplicación si se utiliza herramientas más
específcas. La clasifcación determina la diferencia entre los tipos de tráfco que fuye a través del enlace.
Marcado: implica tomar los paquetes de cierto nivel de calidad de servicio y establecer un valor en algún campo
del paquete, para que pueda ser asignado a una cola determinada. Valor DSCP (los primeros 6 bits del tipo de
servicio de bytes en el encabezado IP) o de precedencia de IP (primeros 3 bits de byte ToS).
Mecanismo de cola: Sobre la base de que los paquetes vienen marcados, el router tratará a ese paquete de
cierta manera, ya que lo pone en cola de salida desde su interfaz. El encolamiento se aplica siempre que el
tráfco sale de una interfaz. Si se desea aplicar marcado a cola de entrada, hay que ir al otro lado del enlace y
aplicarlo en la salida del otro router.
Paquete IPv4
Datos
Byte ToS
3 bits
Precedencia de IP
WAN QoS- despliegue
Cisco utiliza un formato llamado MQC (Modular QoS CLI) confguración. MQC implica: para lograr esta:
Defnir un ‘class-map’
Defnir un ‘policy-map’
Aplicar el ‘policy-map’ a través de una política-servicio.
En la asignación de clase, se defne lo que entra en una cola específca.
En el ‘policy-map’ se verifca que coinciden con las clases defnidas y asignar un comportamiento por salto
específco para una determinada cantidad de tráfco para esa clase.
146