Está en la página 1de 146

Redes de Datos

4° Año – 2° Cuatrimestre
Licenciatura en Sistemas de Información
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Organización de las clases

Clases presenciales.
N° Clase Fecha Tema/Modulo Profesor/es
1 10/08/2017 0) Clase de Presentación Lic. Leopoldo Ríos
2 3) Tecnologías de Virtualización para Datacenter: Bare metal y Lic. Leopoldo Ríos
11/08/2017 Hosting.
3 11/08/2017 Virtualización con Tecnologías Vmware. (Laboratorio N° 1) Lic. Juan F. Bosco
4 Virtualización con Tecnologías Vmware. - PARTE 2 Con PC Lic. Juan F. Bosco
15/08/2017 (Laboratorio N° 1)
5 1) Protocolos de aplicación: DNS, HTTP. Descripción y Lic. Leopoldo Ríos
16/08/2017 funcionalidades.
6 Direccionamiento IP versión 4, versión 6 Subnetng, CIDR. (Trabajo Lic. Leopoldo Ríos
18/08/2017 Práctico N° 1)
7 1) Monitoreo del Datacenter: objetos de hardware y de sofware, Lic. Leopoldo Ríos
22/08/2017 Protocolo SNMP.
8 1) Autenticación y acceso seguro a recursos computacionales: Lic. Leopoldo Ríos
22/08/2017 protocolo LDAP.
9 Aplicaciones TCP-IP conocidas: diagnóstico y resolución de Lic. Leopoldo Ríos
23/08/2017 problemas (TP 2)
10 1) Difusión de Aplicaciones Informáticas en red local y en Internet, Lic. Leopoldo Ríos
25/08/2017 tecnologías disponibles.
11 1) Internet de las cosas IoT: aplicaciones sobre open hardware (Intel Lic. Leopoldo Ríos
25/08/2017 Galileo).
12 29/08/2017 Linux, comandos básicos (Laboratorio N° 2) Lic. Juan F. Bosco
13 30/08/2017 Capa aplicación: HTTP (Trabajo Práctico N° 2) Lic. Juan F. Bosco
14 2) Voz y Video sobre una red de conmutación de paquetes, Lic. Leopoldo Ríos
01/09/2017 infraestructura requerida.
15 01/09/2017 2) Protocolos: SIP, RTP. Lic. Leopoldo Ríos
16 3) Computación en la nube: Modelo computacional de Internet, Lic. Leopoldo Ríos
05/09/2017 generaciones, arquitectura.
17 05/09/2017 3) Formas de despliegue de nube: privado y público. Lic. Leopoldo Ríos
18 06/09/2017 Paso de mensajes (Trabajo Práctico N° 7) Lic. Juan F. Bosco
18 4) Almacenamiento y Gestión de Datos: soluciones SAN y Lic. Leopoldo Ríos
08/09/2017 soluciones NAS.
19 4) Caracterización de dispositivos Storage, protocolos de Lic. Leopoldo Ríos
comunicación y transporte: el protocolo iSCSI, protocolo/servicio
08/09/2017 NFS.
20 12/09/2017 Almacenamiento compartido en red (Laboratorio N° 4) Lic. Leopoldo Ríos
21 12/09/2017 4) Conceptos de Multipath, Failover, Clustering. Lic. Leopoldo Ríos
22 13/09/2017 Captura de paquetes (Trabajo Práctico N° 3) Lic. Juan F. Bosco
23 15/09/2017 5) Interconexión de redes LAN y WAN. El modelo de Internet. Lic. Leopoldo Ríos
24 5) Servicios de red IP: IPv4: direccionamiento y subredes, CIDR, Lic. Leopoldo Ríos
15/09/2017 ICMP.
25 5) Protocolos de Internet. Algoritmos de ruteo intra-AS: vector Lic. Leopoldo Ríos
15/09/2017 distancia y estado de enlace, RIP y OSPF.
26 19/09/2017 Repaso del examen parcial Lic. Juan F. Bosco
27 22/09/2017 Ruteo de datagramas IP - Parte 1 (Trabajo Práctico N° 4) Lic. Juan F. Bosco
28 22/09/2017 5) Algoritmos de ruteo inter-AS: BGP. Lic. Juan F. Bosco
29 26/09/2017 Ruteo de datagramas IP - Parte 2 (Trabajo Práctico N° 4) Lic. Juan F. Bosco
31 29/09/2017 6) Latencia y ancho de banda en redes de alta prestación. Lic. Leopoldo Ríos
32 6) Tópicos para el diseño de Redes switcheadas: 1GBE y 10GBE, Lic. Leopoldo Ríos
03/10/2017 cobre y fbra.
33 03/10/2017 6) Infniband de 40GB. Lic. Leopoldo Ríos
2
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

34 03/10/2017 6) Uso de VLAN. Lic. Leopoldo Ríos


35 Diseño de Redes informáticas. Interconexión de Redes (Trabajo Lic. Leopoldo Ríos
04/10/2017 Práctico N° 6)
36 06/10/2017 6) Redes Wif, protocolos y servicios. Lic. Leopoldo Ríos
37 6) Soluciones de energía con alta disponibilidad. Conceptos sobre Lic. Leopoldo Ríos
10/10/2017 Electricidad aplicado al Datacenter.
38 Diseño de red de alimentación eléctrica, UPS. (Trabajo Práctico N° Lic. Leopoldo Ríos
11/10/2017 5)
39 13/10/2017 6) Red privada virtual (VPN). Lic. Juan F. Bosco
40 7) Implementación de Calidad de Servicio (QoS) en redes Lic. Leopoldo Ríos
13/10/2017 informáticas. Congestión y clasifcación de tráfco.
41 17/10/2017 Internet de las cosas. Intel Galileo. PARTE 1 (Laboratorio N° 5) Lic. Leopoldo Ríos
42 18/10/2017 Internet de las cosas. Intel Galileo. PARTE 2 (Laboratorio N° 5) Lic. Leopoldo Ríos
43 20/10/2017 Internet de las cosas. Intel Galileo. PARTE 3 (Laboratorio N° 5) Lic. Leopoldo Ríos
44 24/10/2017 Internet de las cosas. Intel Galileo. PARTE 4 (Laboratorio N° 5) Lic. Leopoldo Ríos
45 25/10/2017 Internet de las cosas. Intel Galileo. PARTE 5 (Laboratorio N° 5) Lic. Juan F. Bosco
46 27/10/2017 Armado del salón de redes Lic. Leopoldo Ríos
47 31/10/2017 Repaso de Packet Tracer (Ruteo, RIP, OSPF) Lic. Leopoldo Ríos
48 01/11/2017 Telefonía IP Lic. Juan F. Bosco
49 03/11/2017 Repaso de Packet Tracer (Ruteo, RIP, OSPF) Lic. Leopoldo Ríos
50 07/11/2017 Repaso de Packet Tracer (Ruteo, RIP, OSPF) Lic. Leopoldo Ríos
51 08/11/2017 Linux, comandos básicos (Laboratorio N° 6) Lic. Juan F. Bosco
52 10/11/2017 Grupo 1,2,3,4,5 Lic. Juan F. Bosco
53 14/11/2017 Grupo 6,7,8,9 Lic. Leopoldo Ríos
54 15/11/2017 Grupo 10,11,12 Lic. Leopoldo Ríos

Actvidades de Evaluación.
Actvidad Fecha Hora Profesor
Primer Parcial Miércoles, 20 de septiembre de 2017 17:00 (Lab. Redes de Datos) Lic. Juan Francisco Bosco
Recuperatorio Primer Parcial Miércoles, 27 de septiembre de 2017 17:00 (Lab. Redes de Datos) Lic. Leopoldo José Ríos
Segundo Parcial Viernes, 17 de noviembre de 2017 17:00 (Lab. Redes de Datos) Lic. Leopoldo José Ríos
Recuperatorio Segundo Miércoles, 22 de noviembre de 2017 17:00 (Lab. Redes de Datos) Lic. Juan Francisco Bosco
Parcial
Extraordinario Miércoles, 1 de diciembre de 2017 17:00 (Lab. Redes de Datos) Lic. Juan Francisco Bosco
Examen Final Miércoles, 1 de diciembre de 2017 17:00 (Lab. Redes de Datos) Lic. Juan Francisco Bosco

3
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Indice

Tema 1: Capa de Aplicación___________________________________________________________Página 5


Tema 2: Protocolos y servicios de integración____________________________________________Página 39
Tema 3: Virtualización______________________________________________________________Página 49
Tema 4: Almacenamiento____________________________________________________________Página 67
Tema 5: Capa de Transporte y Red_____________________________________________________Página 80
Tema 6: Red Local_________________________________________________________________Página 114
Tema 7: Calidad de Servicio_________________________________________________________Página 140

4
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Tema 1: Capa de Aplicación

Capa de Aplicación
Las aplicaciones de red son la razón de ser de una red de computadoras (si no pudiéramos concebir ninguna
aplicación útil, no existiría la necesidad de diseñar protocolos de red para darlas soporte). El objetivo es
estudiar los aspectos conceptuales y de implementación de las aplicaciones de red.
Un protocolo de la capa de aplicación defne cómo los procesos de una aplicación, que se ejecutan en distintos
sistemas terminales, se pasan los mensajes entre sí. En particular, un protocolo de la capa de aplicación defne:
• Los tipos de mensajes intercambiados; por ejemplo, mensajes de solicitud y mensajes de respuesta.
• La sintaxis de los diversos tipos de mensajes, es decir, los campos de los que consta el mensaje y cómo se
delimitan esos campos.
• La semántica de los campos, es decir, el signifcado de la información contenida en los mismos.
• Las reglas para determinar cuándo y cómo un proceso envía mensajes y los responde.
La capa de aplicación sólo estandariza la comunicación y depende de los protocolos de la capa de transporte
subyacente para establecer canales de transferencia de datos. En la selección de la Arquitectura de aplicación,
el desarrollador probablemente utilizará uno de los dos paradigmas arquitectónicos predominantes en las
aplicaciones de red modernas: la arquitectura cliente-servidor o la arquitectura P2P.
En una arquitectura cliente-servidor siempre existe un host activo, denominado servidor, que da servicio a las
solicitudes de muchos otros hosts, que son los clientes. Los hosts clientes pueden estar activos siempre o de
forma intermitente. Un ejemplo clásico es la Web en la que un servidor web siempre activo atiende las
solicitudes de los navegadores que se ejecutan en los hosts clientes. Cuando un servidor web recibe una
solicitud de un objeto de un host cliente, responde enviándole el objeto solicitado. Se puede observar que, con
la arquitectura cliente-servidor, los clientes no se comunican directamente entre sí; por ejemplo, en la
aplicación web, dos navegadores no se comunican entre sí. Otra característica de la arquitectura cliente-
servidor es que el servidor tiene una dirección fja y conocida, denominada dirección IP. Puesto que el servidor
tiene dicha dirección, y siempre está activo, un cliente siempre puede contactar con él enviando un paquete a
su dirección. Entre las aplicaciones más conocidas que utilizan la arquitectura cliente-servidor se encuentran las
aplicaciones web, FTP, Telnet y de correo electrónico. En la Figura (a) se muestra la arquitectura cliente-
servidor.
Normalmente, en una aplicación cliente-servidor un único host servidor es incapaz de responder a todas las
solicitudes de sus clientes. Por ejemplo, el sitio de una red social popular puede verse rápidamente desbordado
si sólo dispone de un servidor para gestionar todas las solicitudes. Por esta razón, en las arquitecturas cliente-
servidor suele utilizarse una agrupación (clúster) de hosts, que a veces se denomina centro de datos, para crear
un servidor virtual de gran capacidad. Los servicios de aplicaciones basadas en una arquitectura cliente-
servidor a menudo precisan una infraestructura intensiva, ya que requieren que los proveedores de servicios
compren, instalen y mantengan granjas de servidores.

5
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

a. Arquitectura cliente-servidor b. Arquitectura P2P

Además, los proveedores del servicio deben afrontar los costes de las recurrentes interconexiones y ancho de
banda para enviar datos a Internet y recibirlos. Servicios populares como los motores de búsqueda (por
ejemplo, Google), el comercio por Internet (como Amazon y e-Bay), el correo electrónico web (como por
ejemplo Yahoo Mail), las redes sociales (como MySpace y Facebook) y la compartición de vídeos (como
YouTube) precisan una infraestructura donde su suministro es enormemente costoso.
En una arquitectura P2P la aplicación explota la comunicación directa entre parejas de hosts conectados de
forma intermitente, conocidos como peers (pares).
Los pares no son propiedad del proveedor del servicio, sino que las computadoras de escritorio y portátiles son
controlados por usuarios, encontrándose la mayoría de los pares en domicilios, universidades y ofcinas. Puesto
que los pares se comunican sin pasar por un servidor dedicado, la arquitectura se denomina arquitectura peer-
to-peer (P2P).
Muchas de las aplicaciones actuales más populares y con un elevado nivel de tráfco están basadas en
arquitecturas P2P. Entre estas aplicaciones se incluyen la distribución de archivos (por ejemplo, BitTorrent), la
compartición de archivos, la telefonía por Internet (como Skype, WhatsApp) y la IPTV.
Una de las características más convincentes de las arquitecturas P2P es su auto-escalabilidad. Las
arquitecturas P2P también presentan una buena relación costo-prestación, ya que no requieren una
infraestructura de servidores signifcativa ni un gran ancho de banda de servidor.

Interfaz entre el proceso y la red de computadoras


La mayoría de las aplicaciones constan de parejas de procesos de comunicación que se envían mensajes entre
ellos. Cualquier mensaje enviado de un proceso al otro debe atravesar la red subyacente.
Un proceso envía mensajes a la red y los recibe de la red a través de una interfaz sofware denominada socket.
Un socket es la interfaz entre la capa de aplicación y la capa de transporte de un host.
A este concepto, también se lo conoce como Interfaz de programación de aplicaciones (API, Application
Programming Interface) que opera entre la aplicación y la red, ya que el socket es la interfaz de programación
con la que se construyen las aplicaciones de red.
El desarrollador de la aplicación tiene el control sobre todos los elementos del lado de la capa de aplicación
pero apenas tiene control sobre el lado de la capa de transporte del socket.
Los controles que tiene el desarrollador de la aplicación sobre el lado de la capa de transporte:
1. La elección del protocolo de transporte
2. La capacidad de fjar parámetros, como por ejemplo los tamaños máximo del bufer y de segmento.

6
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Host o servidor Host o servidor

Controlado por el Controlado por el


desarrollador Proceso Proceso desarrollador
de aplicaciones de aplicaciones
Socket Socket

Controlado TCP con TCP con Controlado


por el sistema buffers, buffers, por el sistema
Internet
operativo variables operativo
variables

Procesos de aplicación, sockets y protocolo de transporte subyacente.

El IETF ha defnido en sus inicios un conjunto de protocolos de aplicación soportados sobre Internet, defnido
como RFC 1123.
• Inicio de sesión remoto de los ejércitos: Telnet
• Transferencia de archivos: File Transfer Protocol (FTP), Trivial File Transfer Protocol (TFTP)
• Transporte de correo electrónico: Simple Mail Transfer Protocol (SMTP)
• Soporte de redes: sistema de nombres de dominio (DNS)
• Host de inicialización: BOOTP
• Gestión de host remoto: Simple Network Management Protocol (SNMP)
Conjunto de protocolos de Internet
Capa de Aplicación
BGP – DHCP – DNS – FTP – HTTP – IMAP – LDAP – MGCP – NNTP – NTP – POP- ONC/RPC – RTP –RTSP
– RIP – SIP – SMTP – SNMP – SSH – Telnet – TLS/SSL – XMPP – etcétera…
Capa de Transporte
TCP – UDP – DCCP – SCTP – RSVP – etcétera…
Capa de Internet
IP (IPv4 – IPv6) – ICMP – ICMPv6 – ECN – IGMP – IPSec – etcétera…
Capa de Enlace de Datos
ARP – NDP – OSPF – Túneles (L2TP) – PPP – MAC (Ethernet – DSL – ISDN - FDDI) – etcétera…

7
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Mensaje de correo electrónico

Correo Datos Datos

Datos Datos Datos Segmento

Encabezado red Datos Paquete

Encabezado trama Encabezado red Datos Trama

000101010010100010100100101010100 Bits

Formato de datos por capa:


DATOS

APLICACIÓN CABECERA DATOS APDU

PRESENTACIÓN CABECERA AH DATOS PPDU

SESIÓN CABECERA PH AH DATOS SPDU

TRANSPORTE CABECERA SH PH AH DATOS TPDU

RED CABECERA TH SH PH AH DATOS COLA PAQUETE

ENLACE CABECERA NH TH SH PH AH DATOS NH COLA TRAMA

FÍSICA BITS

Protocolo HTTP
• El Protocolo de transferencia de hipertexto (HTTP, HyperText Transfer Protocol) es un sofware que
implementa un protocolo de capa de aplicación Web. Está defnido en los documentos [RFC 1945] y [RFC
2616].
• HTTP utiliza TCP como su protocolo de transporte subyacente (en lugar de ejecutarse por encima de UDP).
• El cliente HTTP primero inicia una conexión TCP con el servidor. Luego los procesos de navegador y de
servidor acceden a TCP a través de sus interfaces de socket.
• Dado que un servidor HTTP no mantiene ninguna información acerca de los clientes, se dice que HTTP es un
protocolo sin memoria del estado.

8
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Re
P sp
TT So ue
d
H
T TP lic
itu ta
s
itu aH d H
lic st HT TTP
So pue TP
s
Re

PC ejecutando Internet Explorer Linux ejecutando Firefox

HTTP defne la estructura de estos mensajes y cómo el cliente y el servidor intercambian los mismos.
HTTP se implementa en dos programas: un programa cliente y un programa servidor.
El programa cliente y el programa servidor, que se ejecutan en sistemas terminales diferentes, se comunican
entre sí intercambiando mensajes HTTP.
Una página o documento web consta de objetos. Un objeto es simplemente un archivo (como por ejemplo, un
archivo HTML, una imagen JPEG, un applet Java o un clip de vídeo) que puede direccionarse mediante un
único URL.
La mayoría de las páginas web están constituidas por un archivo base HTML y varios objetos referenciados. El
archivo base HTML hace referencia a los otros objetos contenidos en la página mediante los URL de los
objetos. Cada URL tiene dos componentes: el nombre de host del servidor que alberga al objeto y el nombre de
la ruta al objeto.
Cuando el navegador recibe la página web, la muestra al usuario. Dos navegadores distintos pueden interpretar
(es decir, mostrar al usuario) una página web de formas distintas. HTTP no tiene nada que ver con cómo un
cliente interpreta una página web.
Las especifcaciones HTTP únicamente defnen el protocolo de comunicación entre el programa HTTP cliente y
el programa HTTP servidor.

Conexión con Persistencia, y sin Persistencia.

• En muchas aplicaciones de Internet, el cliente y el servidor están en comunicación durante un periodo de


tiempo amplio, haciendo el cliente una serie de solicitudes y el servidor respondiendo a dichas solicitudes.
• Dependiendo de la aplicación y de cómo se esté empleando la misma, las solicitudes pueden hacerse una tras
otra, periódicamente a intervalos regulares o de forma intermitente. Cada par solicitud/respuesta puede
enviarse a través de una conexión TCP separada o bien, enviarse todas las solicitudes y sus correspondientes
respuestas a través de la misma conexión TCP.
• Aunque HTTP emplea conexiones persistentes en su modo por defecto, los clientes y servidores HTTP se
pueden confgurar para emplear en su lugar conexiones no persistentes.
• Observe que cada conexión TCP transporta exactamente un mensaje de solicitud y un mensaje de respuesta.
• Los usuarios pueden confgurar los navegadores modernos para controlar el grado de paralelismo. En sus
modos por defecto, la mayoría de los navegadores abren de 5 a 10 conexiones TCP en paralelo y cada una de
estas conexiones gestiona una transacción solicitud-respuesta.
• En cuanto a capacidades… se defne el tiempo de ida y vuelta (RTT, Round-Trip Time), que es el tiempo que
tarda un paquete pequeño en viajar desde el cliente al servidor y volver de nuevo al cliente. El tiempo RTT
incluye los retardos de propagación (Ethernet) de los paquetes, los retardos de cola en los routers y switches
intermedios y los retardos de procesamiento de los paquetes.

9
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Inicio de la
conexión TCP

RTT

Solicitud del
archivo

RTT
Tiempo invertido en

transmitir el archivo

Recepción del
Archivo
completo

Tiempo en el cliente. Tiempo en el servidor

El modo por defecto de HTTP utiliza conexiones persistentes con procesamiento en cadena.
Formato de mensajes.
Mensaje de solicitud HTTP
GET /unadireccion/pagina.html HTTP/1.1
Host: www.unaescuela.edu
Connection: close
User-agent: Mozilla/4.0
Accept-language: fr

10
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Respuestas HTTP:
200 OK:
La solicitud se ha ejecutado con éxito y se ha devuelto la información en el mensaje de respuesta.
301 Moved Permanently:
El objeto solicitado ha sido movido de forma permanente; el nuevo URL se especifca en la línea de cabecera
Location: del mensaje de respuesta. El sofware cliente recuperará automáticamente el nuevo URL.
400 Bad Request:
Se trata de un código de error genérico que indica que la solicitud no ha sido comprendida por el servidor.
Interacción usuario-servidor: cookies.
404 Not Found:
El documento solicitado no existe en este servidor.
505 HTTP Version Not Supported:
La versión de protocolo HTTP solicitada no es soportada por el servidor.

11
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Almacenamiento en caché web


• Una caché web, o servidor proxy, es una entidad de red que satisface solicitudes HTTP en nombre de un
servidor web de origen.
• Dispone de su propio almacenamiento en disco y mantiene en él copias de los objetos solicitados
recientemente.
• El caché web, es a la vez un servidor y un cliente. Cuando recibe solicitudes de y envía respuestas a un
navegador, se comporta como un servidor. Cuando envía solicitudes a y recibe respuestas de un servidor de
origen, entonces actúa como un cliente.

¿Por qué debería preocuparme por HTML5?

12
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

• En el núcleo de HTML5 se incluyen una serie de nuevos elementos semánticos, así como varias tecnologías y
API relacionadas. Estas adiciones y cambios en el lenguaje permite a los desarrolladores crear páginas web más
fáciles de codifcar, usar y acceder.
• Estos nuevos elementos semánticos, junto con otros estándares como WAI-ARIA y Microdata ayudan a que
los documentos más accesibles a los seres humanos y máquinas-resultando en benefcios tanto para la
accesibilidad y la búsqueda optimización de motores.
• Los elementos semánticos, en particular, han sido diseñados con la Web dinámica en mente, con un enfoque
particular en la fabricación modular de páginas más accesibles.
• Las API asociadas con HTML5 ayudan a mejorar en una serie de técnicas que los desarrolladores web han
estado utilizando durante años. Muchas de las tareas comunes se han simplifcado, poner más poder en manos
de los desarrolladores.
• La introducción de audio y vídeo en HTML5 signifca que habrá una menor dependencia de plugins y
sofware de terceros al publicar contenido multimedia en la Web.

Sistemas de Nombres de Dominio (DNS)

• Así como las personas podemos ser identifcadas de diversas formas (Apellido y Nombre, y DNI), los hosts de
Internet también. Un identifcador para hosts es el nombre de host. Los nombres de host, como por ejemplo
www.unne.edu.ar, www.cnn.com, www.yahoo.com, son mnemónicos y son, por tanto, entendidos por las
personas. Sin embargo, los nombres de host no proporcionan ninguna información acerca de la ubicación del
host dentro de la red de Internet.
• Los nombres de host pueden constar de caracteres alfanuméricos de longitud variable, lo cual es difcil de
procesar por los routers. Por estas razones, los hosts también se identifcan mediante direcciones IP, en versión
4 o versión 6.
• Una dirección IP versión 4, consta de cuatro bytes y sigue una rígida estructura jerárquica. El aspecto de una
dirección IP es, por ejemplo, 121.7.106.83, donde cada punto separa uno de los bytes expresados en notación
decimal con valores comprendidos entre 0 y 255.
• Una dirección IP es jerárquica porque al explorar la dirección de izquierda a derecha, se obtiene información
cada vez más específca acerca del lugar o zona, en el que está ubicado el host dentro de la red Internet. Se
debe identifcar la sub-red dentro de una red.
• DNS es un sofware que implementa un protocolo consistente en una base de datos distribuida
implementada en una jerarquía de servidores DNS, desplegado como un protocolo de la capa de aplicación que
permite a los hosts consultar la base de datos distribuida.
Los servidores DNS suelen ser máquinas UNIX/Linux que ejecutan el sofware BIND (Berkeley Internet Name
Domain, Dominio de nombres de Internet de Berkeley) [BIND 2009]. El protocolo DNS se ejecuta sobre UDP y
utiliza por defecto el puerto 53.
¿Qué ocurre cuando un navegador (es decir, un cliente HTTP), que se ejecuta en un determinado host de
usuario, solicita el URL www.unne.edu.ar? Para que el host del usuario pueda enviar un mensaje de solicitud
HTTP al servidor web, el host del usuario debe obtener en primer lugar la dirección IP de www.unne.edu.ar.
Esto se hace del siguiente modo:
1. La propia máquina cliente ejecuta el lado del cliente de la aplicación DNS.
2. El navegador extrae el nombre de host, www.unne.edu.ar, del URL y pasa el nombre de host al lado del
cliente de la aplicación DNS.
3. El cliente DNS envía una consulta que contiene el nombre de host a un servidor DNS.
4. El cliente DNS recibe fnalmente una respuesta, que incluye la dirección IP correspondiente al nombre del
host.
5. Una vez que el navegador recibe la dirección IP del servidor DNS, puede iniciar una conexión TCP con el
proceso servidor HTTP localizado en el puerto 80 en esa dirección.
Servicio de directorio de Internet
DNS proporciona algunos otros servicios importantes además de la traducción de los nombres de host en
direcciones IP:
• Alias de host. Un host con un nombre complicado puede tener uno o más alias.
• Alias del servidor de correo. Por razones obvias, es enormemente deseable que las direcciones de
correo electrónico sean mnemónicas.
• Distribución de carga. DNS también se emplea para realizar la distribución de carga entre servidores
replicados, como los servidores web replicados.
13
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

DNS está especifcado en los documentos RFC 1034 y RFC 1035, y actualizado en varios RFC adicionales.
Un diseño simple de DNS podría ser un único servidor DNS que contuviera todas las correspondencias entre
nombres y direcciones. En este diseño centralizado, los clientes simplemente dirigirían todas las consultas a un
mismo servidor DNS y éste respondería directamente a las consultas de los clientes.
Entre los problemas con un diseño centralizado podemos citar los siguientes:
• Un único punto de fallo.
• Volumen de tráfco.
• Base de datos centralizada distante.
• Mantenimiento.
Una base de datos jerárquica y distribuida
DNS utiliza un gran número de servidores, organizados de forma jerárquica y distribuida alrededor de todo el
mundo. Ningún servidor DNS dispone de todos los registros de todos los hosts de Internet.
Básicamente existen tres clases de servidores DNS: los servidores DNS raíz, los servidores.
DNS de dominio de nivel superior (TLD, Top-Level Domain) y los servidores DNS autoritativos.

Servidores DNS raíz. En Internet, existen 13 servidores DNS raíz (etiquetados como A hasta M), la mayoría de
los cuales se localizan en América del Norte.
Servidores de dominio de nivel superior (TLD). Estos servidores son responsables de los dominios de nivel
superior, como son com, org, net, edu y gov, y todos los dominios de nivel superior correspondientes a los
distintos países, como por ejemplo, uk, fr, ca y jp.
La empresa Network Solutions mantiene los servidores TLD para el dominio de nivel superior .com y la
empresa Educause mantiene los servidores TLD para el dominio de nivel superior .edu.
Servidores DNS autoritativos. Todas las organizaciones que tienen hosts accesibles públicamente (como son
los servidores web y los servidores de correo) a través de Internet deben proporcionar registros DNS
accesibles públicamente que establezcan la correspondencia entre los nombres de dichos hosts y sus
direcciones IP. Un servidor DNS autoritativo de una organización alberga estos registros DNS.
Existe otro tipo importante de servidor DNS conocido como servidor DNS local. Un servidor DNS local no
pertenece estrictamente a la jerarquía de servidores, pero no obstante es importante dentro de la arquitectura
DNS. Cada ISP (como por ejemplo un ISP de una universidad, de un departamento académico, de una empresa
o residencial) tiene un servidor DNS local (también denominado servidor de nombres predeterminado). Cuando
un host se conecta a un ISP, éste proporciona al host las direcciones IP de uno o más de sus servidores DNS
locales normalmente a través de DHCP.
Los benefcios de la confguración DNS se pueden visualizar en la confguración de un virtualhost y los pasos
para modifcar el mismo son:
1. Instalar apache2
2. Crear carpeta public_html en el home del usuario
3. Controlar que el puerto por defecto en el archivo listen.conf sea ---> puerto escucha 80
4. Ingresar a la carpeta vhosts.d y hacer una copia del archivo vhost.template y guardarlo como
nombre.com.ar.conf
14
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

5. Modifcar el archivo nombre.com.ar.conf de la siguiente manera:


- serveradmin nombre_007@hotmail.com
- servername nombre.redesdatos.com.ar
- DocumentRoot /home/fnombre /public_html
6. Crear un archivo index_html en la carpeta public_html
7. ln -s ../sites-avaiable/nombre .com.ar.conf
8. instalar mysql

Monitoreo del Datacenter: objetos de hardware y objetos de sofwaree Protocolo SNMP


Protocolos para Gestión de Dispositivos de Red
Las redes tienden a ser indispensables.
Cuando una organización interconecta centenares o miles de dispositivos para formar una red, no resulta
sorprendente que algunos componentes funcionen en ocasiones de manera inadecuada, que se produzcan
fallos de confguración de elementos de la red, que los recursos de la red estén sobrexplotados o que los
componentes de la red simplemente se rompan (por ejemplo, alguien puede cortar un cable o derramar una lata
de refresco sobre un router).
El administrador de la red, cuyo trabajo consiste en mantener la red en funcionamiento, tiene que ser capaz de
responder a esos sucesos (o, todavía mejor, de evitarlos).
Habiendo potencialmente miles de componentes distribuidos por una extensa área, el administrador de red,
que trabaja desde un Centro de operaciones de red (NOC, Network Operations Center) necesita obviamente
una serie de herramientas que le ayuden a monitorizar, gestionar y controlar la red.

Sistemas de Administración de Redes

• Se implementan como una colección de herramientas de administración de redes de datos.


• Con vista completa de los nodos y elementos que integran la red en una arquitectura unifcada.
• Que integren la más mínima cantidad de hardware adicional para la administración.
• Con provisión regular de información de estado y alarmas.
• Mediante una interfaz de operación única.
• Comandos de ejecución de fácil uso y familiarización.

¿Que se busca monitorear?


Detección de fallos de una tarjeta de interfaz en un host o un router. Con las herramientas de gestión de red
apropiadas, una entidad de red (por ejemplo, el router A) podría informar al administrador de red que una de
sus interfaces ha fallado. Esto puede hacerse, por ejemplo, si el administrador de red observa un incremento en
los errores de suma de comprobación de las tramas enviadas por esa interfaz que está a punto de morir.
15
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Monitorización de los hosts. El administrador de red puede realizar comprobaciones periódicas para ver si
todos los hosts de la red están encendidos y operativos.
Monitorización del tráfco como ayuda a la implantación de recursos. Un administrador de red puede
monitorizar los patrones de tráfco entre cada origen y cada destino y observar, por ejemplo, que si
intercambian los servidores entre segmentos de una red LAN la cantidad de tráfco que atraviesa múltiples
redes LAN podría reducirse signifcativamente.
Detección de cambios rápidos en las tablas de enrutamiento. Las alteraciones rápidas de ruta (cambios
frecuentes en las tablas de enrutamiento) pueden indicar inestabilidades en el enrutamiento o la existencia de
un router mal confgurado.
Detección de intrusiones. Un administrador de red puede desear que se le notifque que ha llegado un cierto
tráfco de red procedente de un origen sospechoso (por ejemplo, de un cierto host o un cierto número de
puerto) o con destino a él.
Gestión de confguración. La gestión de la confguración permite a un administrador de la red controlar qué
dispositivos se encuentran dentro de la red administrada y las confguraciones hardware y sofware de dichos
dispositivos.
Infraestructura SNMP
La entidad gestora es una aplicación, normalmente con intervención humana, que se ejecuta en una estación
central de gestión de red situada en el centro de operaciones de red (NOC).
La entidad gestora es el punto focal de la actividad de administración de la red; controla la recopilación,
procesamiento, análisis y/o visualización de la información de gestión de la red.
Es aquí donde se inician las acciones para el control del comportamiento de la red y donde el administrador
interactúa con los dispositivos que forman la red.
Un dispositivo gestionado es un equipo de red (incluyendo su sofware) que forma parte de una red
gestionada. Sería, por ejemplo, una sucursal de una organización. Un dispositivo gestionado puede ser un host,
un router, un puente, un concentrador, una impresora o un módem. Dentro de un dispositivo gestionado
pueden existir diversos objetos gestionados.
Estos objetos gestionados son los propios elementos hardware contenidos en el dispositivo gestionado (por
ejemplo, una tarjeta de interfaz de red) y los conjuntos de parámetros de confguración para los distintos
elementos hardware y sofware, tienen asociados distintos elementos de información que se recopilan en una
Base de información de gestión (MIB, Management Information Base).
El tercer elemento de una arquitectura de gestión de red es el protocolo de gestión de red. El protocolo se
ejecuta entre la entidad gestora y los dispositivos gestionados, permitiendo a aquella consultar el estado de los
dispositivos gestionados y llevar a cabo acciones de manera indirecta en estos dispositivos a través de sus
agentes. Los agentes pueden utilizar el protocolo de gestión de red para informar a la entidad gestora de la
ocurrencia de sucesos excepcionales (por ejemplo, fallos de componentes o violación de los umbrales de
rendimiento).

16
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Estructura de la información de gestón (SMI)


La Estructura de la información de gestión (SMI, Structure of Management Information) es el lenguaje utilizado
para defnir la información de gestión que reside en una entidad de red gestionada, y es necesario para
garantizar que la sintaxis y la semántica de los datos de gestión de red están bien defnidos y no resultan
ambiguos.
SMI no defne una instancia específca de los datos contenidos en una entidad de red gestionada, sino el
lenguaje en el que tal información se especifca. Los documentos que describen la SMI para SNMPv3 (que de
forma bastante confusa se denomina SMIv2) son [RFC 2578; RFC 2579; RFC 2580].
El documento RFC 2578 especifca los tipos de datos básicos en el lenguaje de defnición de módulos MIB de
SMI. Aunque la SMI está basada en el lenguaje de defnición de objetos ASN.1 [ISO 1987; ISO X.680 2002], se
han añadido bastantes tipos de datos específcos de SMI como para considerar que SMI es por sí misma un
lenguaje de defnición de datos.
Base de información de gestón (MIB)
Es el almacén virtual de información, que aloja objetos gestionados cuyos valores refejan colectivamente el
“estado” actual de la red. Estos valores pueden ser consultados y/o defnidos por una entidad gestora enviando
mensajes SNMP al agente que se está ejecutando en un dispositivo gestionado en representación de la entidad
gestora.
Tipos de datos básicos de la SMI.
Tipo de datos Descripción
INTEGER Entero de 32 bits, como se defne en ASN.1, con un valor comprendido entre
-231 y 231 - 1, ambos inclusive, o un valor de una lista de posibles valores
constantes con nombre.
Integer32 Entero de 32 bits con un valor comprendido entre -231 y 231 - 1, ambos inclusive.
Unsigned32 Entero de 32 bits sin signo en el rango de 0 a 232 - 1, ambos inclusive.
OCTET STRING Cadena de bytes en formato ASN.1 que representa datos binarios arbitrarios o
textuales, de hasta 65.535 bytes de longitud.
OBJECT IDENTIFIER Nombre estructurado en formato ASN.1 asignado administrativamente.
IP address Dirección de Internet de 32 bits, en orden de byte de red.

17
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Counter32 Contador de 32 bits que se incrementa de 0 a 232 – 1 y luego vuelve a 0.


Counter64 Contador de 64 bits.
Gauge32 Entero de 32 bits que no aumenta por encima de 2 32 – 1 ni disminuye por debajo
de 0 cuando se incrementa o decrementa.
TimeTicks Tiempo, medido en 1/100 de segundo desde algún suceso.
Opaque Cadena ASN.1 no interpretada, necesaria por cuestiones de compatibilidad hacia
abajo.

Árbol de identficación de objetos

Bajo la rama ISO del árbol podemos ver las entradas correspondientes a todos los estándares ISO (1.0) y a los
estándares emitidos por organismos de estandarización de distintos países miembros de ISO (1.2).
En Organismos miembros de ISO (1.2) se encuentra USA (1.2.840), y debajo de éste se encuentran una serie de
estándares de IEEE, ANSI y otras empresas específcas, entre las que se incluyen RSA (1.2.840.11359) y
Microsof (1.2.840.113556), y bajo éste están los formatos de archivo de Microsof (1.2.840.113556.4) para
diversos productos de Microsof, como por ejemplo Word (1.2.840.113556.4.2).
Bajo la rama Internet del árbol (1.3.6.1), hay siete categorías.
Bajo la rama private (1.3.6.1.4) encontramos una lista [IANA 2009b] de los nombres y los códigos empresariales
privados de muchos miles de empresas privadas que están registradas en la IANA (Internet Assigned Numbers
Authority) [IANA 2009a].

Seguridad y administración

18
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Los diseñadores de SNMPv3 han dicho que “SNMPv3 puede interpretarse como SNMPv2 con una serie de
capacidades adicionales de seguridad y administración” [RFC 3410]. Realmente, existen cambios en SNMPv3
respecto de SNMPv2, pero en ninguna parte estos cambios son más evidentes que en el área de la
administración y la seguridad.
SNMPv3 proporciona mecanismos de cifrado, de autenticación, protección contra ataques por reproducción y
control de acceso.
• Cifrado. Las PDU SNMP pueden cifrarse utilizando el estándar DES (Data Encryption Standard) en modo
CBC (Cipher Block Chaining). Se puede observar que dado que el estándar DES es un sistema de clave
compartida, la clave secreta del usuario que cifra los datos tiene que ser conocida por la entidad receptora que
tiene que descifrar los datos.
• Autenticación. SNMP utiliza la técnica MAC (Message Authentication Code) para proporcionar tanto
autenticación como protección frente a falsifcaciones [RFC 2401]. Recuerde que la técnica MAC requiere que
tanto el emisor como el receptor tengan una clave secreta común.
• Protección frente a ataques por reproducción. Recuerde que pueden emplearse números distintivos para
protegerse frente a ataques por reproducción.
SNMPv3 adopta una técnica relacionada.

Estación de Administración Host


Administrador de Administrador de Agente de Proceso Procesos de Usuario
Red Procesos
SNMP SNMP FTP, etcétera
MIB
UDP UDP TCP
Central
IP IP
Protocolos de Red Protocolos de Red
Red IP

Host Router
Agente de Proceso Procesos de Usuario Agente de Proceso
SNMP FTP, etcétera SNMP
UDP TCP UDP
IP IP
Protocolos de Red Protocolos de Red

Versión 2 de SNMP:
 Soportan Administración centralizada o distribuida.
 En ambientes distribuidos, los elementos operan tanto como agentes como manager.
 Protocolo de Solicitud/Respuesta.
 Corriendo bajo UDP.
SNMP v3:
 RFC 2570-2575
 Defne esquemas de arquitectura y seguridad.
 Compatible con versión 2.
 Defne servicios de seguridad:
 Autenticación, Privacidad y Control de Acceso

Panel de control

19
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Las herramientas de gestión, incluyen en su mayoría, un panel de control como Página de inicio.
Brinda una imagen instantánea inmediata del estado general de la red, con información que puede ser utilizada
en la toma de acciones.

Op Manager

Intro Dashbords Maps Alarms Admin Reports Support

Network Overview Actions ∨ Dashboard∨

Device Summary Network View

Vendor Devices Alarms

Lyon 0/4 0

! Cisco 2/10 3
!
! Poundry 2/10 cisco devices are
problematic...
Hewlet-Packard 8/30 12

Microsof 5/11 4

192.168.121.123

192.168.121.23

192.168.121.53

192.168.122.113 +
New Bussiness View
192.168.123.362

192.168.123.98

Admap-temp2008

! Ananthy

!
Arunway Customized Page

Bounded-MMap

192.168.132.32

net-snmp 2/6 2

Others 29/103 15

Lista de dispositvos
Las herramientas de gestión, incluyen una lista exhaustiva de tipos de dispositivos soportados.
Es posible generar plantillas personalizadas de dispositivos.

20
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Detección de Redes
La funcionalidad de detección de redes suele ser automática. Ayuda a identifcar con rapidez los dispositivos
que desea monitorear.

Mapas personalizables
Es posible utilizar la interfaz para programas de aplicación de los Mapas de Google para obtener una vista aérea
de la red empresarial completa con el estado general actual de cada nodo.

21
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Instantánea de un dispositvo Enrutador


Permite observar el estado general de los dispositivos en conjunto: procesador, memoria, tiempo de respuesta,
temperatura, aciertos/ fallos/ errores en el búfer, etc.

Instantánea de una interfaz de red

22
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Permite observar en detalle una interfaz de red: disponibilidad, tráfco, uso de ancho de banda, errores,
descartes, total de bytes recibidos/transferidos, paquetes por segundo, y los gráfcos de análisis del
complemento Netlow.

Autentcación y Acceso Seguro a Recursos Computacionales: Protocolo LDAP


Introducción
Active Directory (AD) o Directorio Activo son los términos que utiliza Microsof para referirse a su
implementación de servicio de directorio en una red distribuida de computadoras. En su despliegue, utiliza
distintos protocolos, principalmente LDAP, DNS, DHCP y Kerberos.
De forma sencilla se puede decir que es un servicio establecido en uno o varios servidores en donde se crean
objetos tales como usuarios, equipos o grupos, con el objetivo de administrar los inicios de sesión en los
equipos conectados a la red, así como también la administración de políticas en la misma.
Su estructura jerárquica permite mantener una serie de objetos relacionados con componentes de una red,
como usuarios, grupos de usuarios, permisos, asignación de recursos y políticas de acceso.
Active Directory permite a los administradores establecer políticas de funcionamiento a nivel de empresa,
desplegar sofware en muchos ordenadores y aplicar actualizaciones críticas a una organización entera.
El servicio Active Directory almacena información de una organización en una base de datos central,
organizada y accesible. Pueden encontrarse desde directorios con cientos de objetos para una red pequeña
hasta directorios con millones de objetos.
Funcionamiento de LDAP
Su funcionamiento es similar a otras estructuras de LDAP (Lightweight Directory Access Protocol). Es
implementado de forma similar a una base de datos, la cual almacena en forma centralizada toda la información
relativa a un dominio de autenticación.
LDAP es un protocolo basado en mensajes orientado a la conexión.

23
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Una de sus ventajas funcionales, es la sincronización de la información de la base de datos presente entre los
distintos servidores de autenticación de todo el dominio.
En la base de datos, cada uno de los objetos posee atributos que permiten identifcarlos en modo unívoco (por
ejemplo, los usuarios tendrán atributo «nombre», atributo «email», etcétera, las impresoras de red tendrán
atributo «nombre», atributo «fabricante», atributo «modelo», atributo "usuarios que pueden acceder", etcétera).
Toda esta información queda almacenada en Active Directory replicándose de forma automática entre todos
los servidores que controlan el acceso al dominio.
A partir de este escenario, es posible crear recursos y compartirlos en red; como por ejemplo: carpetas,
impresoras, scanners o sistemas de información. A los recursos, se les asignan ‘permisos’ de acceso a usuarios o
grupos de usuarios, bajo demanda y de manera dinámica.
En resumen, Active Directory es una implementación de servicio de directorio de gestión centralizada, en una
red informática distribuida geográfcamente; facilita el control, la administración y la consulta de todos los
elementos lógicos que la componen.
Modelos LDAP
Los modelos representan los servicios proporcionados por un servidor, tal como es visto por un cliente. Son
modelos abstractos que describen las diversas facetas de un directorio LDAP.
La RFC 2251, divide a un directorio LDAP en dos componentes: el modelo de protocolo y el modelo de datos.
Sin embargo, hay autores (Timothy A. Howes, Mark C. Smith y Gordon S. Bueno (MacMillan)), que defnen
cuatro modelos:
 Modelo de información: disposición y estructura de la información.
 Modelo de asignación de nombres: identifcación única de objetos.
 Modelo funcional: descripción de protocolos.
 Modelo de seguridad: autenticación y control de acceso.
¿Por qué es necesaria la autenticación en un directorio LDAP? Recordemos que LDAP es un protocolo basado
en mensajes orientado a la conexión. El proceso de autenticación se utiliza para establecer los privilegios del
cliente para cada sesión. Todas las búsquedas, consultas, etcétera son controlados por el nivel de autorización
del usuario autenticado.
Organización LDAP
Direccionamientos a recursos
El direccionamiento de recursos de Active Directory son estándares con la Convención Universal de Nombres
(UNC), Localizador Uniforme de Recursos (URL) y Nombres de LDAP.
Cada objeto de la red posee un nombre de distinción (en inglés, Distinguished name (DN)), así una impresora
llamada ‘Impresora’ en una Unidad Organizativa (en inglés, Organizational Units, OU) llamada ‘Redes’ y un
dominio llamado ‘lrdtbd.local’, puede escribirse de las siguientes formas para ser direccionado:
En notación DN sería: CN=Impresora, OU=Redes, DC=lrdtbd, DC=local, donde:
 CN es el nombre común (en inglés, Common Name).
 DC es clase de objeto de dominio (en inglés, Domain Object Class).
 En forma canónica sería lrdtbd.local/Redes/Impresora.
Ciertos tipos de objetos poseen un Nombre de Usuario Principal (en inglés, User Principal Name (UPN)) que
permite el ingreso abreviado a un recurso o un directorio de la red. Su forma es objetodered@dominio.
 Los objetos representan los recursos de red.
 Los atributos defnen la información relativa a un objeto.

24
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Esquema de conexión: red local e Internet

Conceptos LDAP

Características de LDAP
• Está basado en el modelo cliente-servidor.
• Organiza la información de modo jerárquico, utilizando un esquema de directorios.

Dominio: Es la unidad central de la estructura lógica de AD.


• Es una colección de equipos que comparten la base de datos del Active Directory y que se administran de
forma conjunta:
o Los controladores de dominio, que almacenan una copia de la base de datos y permiten gestionarla y
administrarla.
o Los servidores miembros, que usan los servicios y recursos.
• Un dominio se crea al generar el primer controlador del dominio.
• Un dominio representa:
o El límite para la autenticación.

25
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

o El límite para la replicación de la base de datos.


o El límite para las políticas o directivas.
• El nombre del dominio debe ser único y ha de estar registrado en el DNS.
o El DNS es la base de la infraestructura del Active Directory ya que permite que los servidores
miembros localicen a los controladores de dominio.
• Un dominio puede estar en varias subredes.
• En una red pueden existir varios dominios.

Controlador de dominio

• Un controlador de dominio es un equipo con Windows 2008 Server que almacena una copia del directorio
del dominio (base de datos local del dominio).
• Pueden existir varios controladores de dominio, cada uno de ellos tendrá una copia completa del directorio.
• Cada controlador permite realizar cambios en el directorio, administrando los cambios y replicándolos a los
otros controladores de dominio del mismo dominio.
• Los controladores de dominio administran todas las facetas de las interacciones de los usuarios en un
dominio (localización de objetos o validación de un intento de inicio de sesión).
• La replicación se hace en intervalos de tiempo, pudiendo establecer la frecuencia a la que se producen las
replicaciones entre controladores de dominio.
• AD usa un modelo replicación multimaestro:
o Ningún controlador del dominio es el maestro.
o Todos los controladores son “iguales” y contienen una copia de la BD del directorio. (En realidad todos
los controladores son “casi iguales”).
o Los controladores replican los cambios entre ellos.
o Cualquier controlador de dominio puede procesar los cambios del directorio y replicarlos.

Característcas de LDAP

Sitio: Es una agrupación de equipos que están conectados fsicamente por conexiones rápidas y de alta
fabilidad.
• Habitualmente equipos conectados en una LAN.
• La razón básica de crear sitios es aprovechar los mecanismos de comunicación “efcientes” (rápidos y fables)
entre sistemas bien comunicados.
• Un sitio es básicamente una subred TCP/IP.
• Son independientes de la estructura lógica de dominio. No existe relación entre la estructura fsica de la red y
la lógica del dominio:
o Un único dominio puede estar en varios sitios.
o En un sitio puede haber varios dominios.
• Importante no confundir sitio con dominio:
o Dominio: Es una agrupación lógica de usuarios y equipos.
o Sito: Es una agrupación fsica de equipos.
• Los equipos están asignados a sitios según su localización en la subred o en un conjunto de subredes.
• Si la empresa tiene varias subredes que no tienen buena conexión entre sí o están en ubicaciones geográfcas
distintas, hay que defnir un sitio por cada subred.
• Debe tener asociado, al menos, un controlador de dominio en cada sitio.
Catálogo Global
o Es un almacén central de información de todos los objetos del directorio de los dominios del bosque.
o Tiene copia completa de todos los objetos (todos sus atributos) del directorio de su dominio y una
copia parcial de todos los objetos de los directorios de los otros dominios del bosque.
o De manera predeterminada, el primer controlador de dominio creado al instalar AD se convierte en
catálogo global y es conocido como servidor de catálogos globales.
o La información que almacena es generada automáticamente en cada dominio mediante el proceso de
réplica. Se pueden defnir varios catálogos globales en un dominio, pero esto incrementará el tráfco de
red para hacer las réplicas.

26
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Realiza las siguientes funciones clave en el directorio:


o Resuelve las búsquedas de información en un dominio, árbol o bosque, con independencia de la
ubicación de los datos.
o Resuelve los nombres principales de usuarios (UPN) de otros dominios del bosque, permitiendo que
usuarios esos dominios se autentiquen en el dominio.
o La información sobre los grupos universales se almacena sólo en el catálogo global. Cuando un usuario
inicie una sesión, el catálogo global proporcionará la pertenencia (o no) a los grupos universales.
o Permite validar las referencias a objetos de otros dominios del bosque, informando si son o no
correctas.

Directvas de AD

• En un dominio, se pueden defnir directivas de grupo a nivel de sitio, de dominio o de unidades organizativas.
• Se aplicarán a todos los servidores miembros del dominio.
• El orden de aplicación de las directivas es el siguiente:
o Directivas de grupo local (las defnidas en el equipo local).
o Directivas de grupo de sitio.
o Directivas de grupo de dominio.
o Directivas de unidad organizativa.
o Directivas de unidad organizativa secundaria, etcétera.
• En caso de confictos, las que se aplican más tarde tienen preferencia y se sobrescriben las directivas
aplicadas previamente.
• Se pueden aplicar a todos los usuarios (al dominio) o a un único usuario (en una unidad organizativa
concreta).

Instalación y despliegue de AD

 dcpromo.exe es la orden para abrir el Asistente.


 Al ejecutarlo se puede:
o Crear un nuevo dominio, creando un nuevo árbol y un nuevo bosque.
o Unirse como nuevo controlador a un dominio que ya existe.
o Crear un nuevo dominio en un árbol de dominios ya existente.
o Crear un nuevo árbol, y un nuevo dominio, en un bosque de dominios ya existente.
o Al unir un nuevo controlador de dominio a un dominio/árbol/bosque que ya existe, hay que
indicar un usuario (y su contraseña correcta) para autenticarnos en él. El usuario a indicar es
Administrador.
o Si AD ya está instalado, lo que hace es desinstalar AD, esto es degradar el controlador de
dominio a servidor miembro (por ejemplo, a cliente del dominio).
o Si al degradarlo fuese el último controlador de dominio existente, elimina también el dominio.
Nombre del nuevo dominio:
 El nombre asignado al dominio tiene que ser un nombre DNS válido que debe estar registrado en el
mismo.
o Si el DNS está confgurado correctamente, el nuevo nombre se registrara de forma automática.
Esto es lo conveniente.
 Al instalar el primer controlador de dominio de un nuevo dominio/árbol/bosque, si el DNS no permite
actualizaciones automáticas, ofrece la posibilidad de instalar un servidor de DNS para controlar todo lo
relacionado con el nombre del dominio, los controladores de dominio, etcétera.
Nombre del dominio NetBIOS:
 Se utiliza para compatibilidad con versiones anteriores de Windows (nombre corto).
Nivel funcional del bosque:
 Establece la versión mínima del sistema operativo de los controladores de dominio.
Sistemas operativos que se utilizan:
 Windows Server 2008, Windows Server 2003, Windows Server 2000 y Windows Server 2000 mixto
(predeterminado).

27
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Instalar AD:
 Determinar la ubicación de la base de datos y el registro de AD.
o Por defecto %SystemRoot%\ntds\ (el valor de %SystemRoot% es C:\Windows\).
o La BD de Active Directory contendrá los objetos y sus propiedades.
o Los archivos de registro de AD registrarán las actividades del servicio de directorio.
 Determinar la ubicación del “Volúmen de sistema compartido”.
o Por defecto, %SystemRoot%\sysvol
 Sysvol es un recurso compartido que contiene información del dominio que se replica al resto de los
controladores de dominio de la red.
 Tiene que estar en una unidad NTFS.
 Almacena la copia de servidor de las carpetas públicas del dominio.
Herramientas de líneas de comandos de Active Directory:
 Dsadd→ añade equipos, contactos, grupos, unidades organizativas y usuarios.
 Dsget→ muestra las propiedades de equipos, contactos, grupos, unidades organizativas, usuarios,
sitios, subredes y servidores.
 Dsmod→ modifca las propiedades de equipos, contactos, grupos, unidades organizativas, usuarios y
servidores.
 Dsmove→ mueve un objeto a una nueva ubicación en el dominio, o lo renombra.
 Dsquery→ localiza equipos, contactos, grupos, unidades organizativas, usuarios, sitios, subredes y
servidores dentro de AD utilizando criterios de búsqueda.
 Dsrm→ Elimina objetos del AD.

Interfaces de programación

Las interfaces de servicio de Active Directory (ADSI) entregan al programador una interfaz orientada a objetos,
facilitando la creación de programas de directorios mediante algunas herramientas compatibles con lenguajes
de alto nivel, como Visual Basic, sin tener que lidiar con los distintos espacios de nombres.
Mediante las ADSI se permite crear programas que realizan un único acceso a varios recursos del entorno de
red, sin importar si están basados en LDAP u otro protocolo.
Además, permite generar secuencias de comandos para los administradores. También se puede desarrollar la
Interfaz de mensajería (MAPI), que permite generar programas MAPI.

Alternatvas a Microsoft AD
Samba es un programa de código libre, que tiene disponible un controlador de dominios compatible con
Windows NT 4, Windows 2003 y Windows 2008.
El programa de código libre Mandriva Directory Server ofrece una interfaz web para manejar el controlador de
dominios de Samba y el servicio de directorios de LDAP.
Otra alternativa es Novell eDirectory, que es Multiplataforma: se puede correr sobre cualquier sistema
operativo: Linux, AIX, Solaris, Novell Netware, UNIX e integra LDAP v.3 Nativo. Es el precursor en materia de
estructuras de Directorio, ya que fue introducido en 1990 con la versión de Novell Netware 4.0.
Sun Java ES Directory Server y OpenDS son otras alternativas, el primero basado en java y el segundo basado
y desarrollado en C. El primero es un producto de Sun Microsystems y el segundo una alternativa de código
abierto.
El proyecto OpenLDAP, es una continuación del servidor LDAP original de la Universidad de Michigan. La
relación entre el servidor LDAP de Michigan y muchos servidores LDAP modernos, comerciales puede ser
comparada con la relación entre los navegadores web modernos y la base de código original de NCSA Mosaic.
La última versión de OpenLDAP se puede obtener de htp://www.OpenLDAP.org/sofware/download/
Hay dos grandes encarnaciones de OpenLDAP. Las más antiguas versiones 1.2 son mejoras en esencia con
pequeñas correcciones del código base original de la Universidad de Michigan, y ponen en práctica LDAPv2. La
rama de OpenLDAP 2 es una implementación LDAPv3 compatible.

28
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Difusión de Aplicaciones Informátcas en red local y en Internete tecnologías disponibles.

Objetivos previstos en ambientes corporativos: Mejorar la seguridad y la agilidad en el acceso a aplicaciones


informáticas corporativas.
Difusión en oficina casera:
 Proporciona acceso corporativo a aplicaciones y datos via una página web segura.
 Mejora la productividad y fexibilidad del empleado.
Difusión en oficina corporatva:
 Gestión de aplicaciones simplifcada (actualizaciones sólo en el servidor).
 Más fácil de cumplir con las regulaciones de seguridad en datos (sin datos en local).
Difusión en oficina remota:
 Integración de las aplicaciones remotas en el escritorio local mejora la productividad.
 Menos gestión de datos y aplicaciones en la ofcina remota.
Difusión en cualquier parte:
 Aeropuerto – acceso sencillo y seguro sin problemas de VPN via una web segura.
Resumen de Sub-Roles TS en Windows Server 2008

Terminal Services RemoteAppTM

29
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

 La consola “RemoteApp” se
usa para hacer que las
aplicaciones estén
disponibles.
 También se usa para que
estén disponibles via “TS Web
Access” (Acceso Web)

 Aplicaciones remotas
integradas en el equipo local.
 Confguración centralizada del
servidor de terminales desde
la consola.

Terminal ServicesRemoteApp, ventajas

• Despliegue de aplicaciones sencillo y rápido.


• Gestión central de aplicaciones de negocio.
• Despliegue ligero de aplicaciones de trabajo intensivo con datos.
• Acceso desde cualquier parte a los programas.
• Planifcación en etapas de la actualización de aplicaciones.
• Consolidación de aplicaciones.
• Se integra con los programas locales.
• Arrastrar y Soltar (Beta 3).
• Integración con la bandeja del sistema.
• Dispositivos locales y fcheros disponibles.

Instalación y confguración

 Instalar el Rol con el Server Manager.


 Instalar las aplicaciones.
 Si la aplicación NO se instala con un paquete de instalación de Windows:
1. change user /install
2. Instalar aplicación
3. change user /execute
 Realizar confguraciones globales del servidor.

30
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

 Añadir programas a la lista para publicarlos.

TS Web Access

Publicación o despliegue de aplicaciones a través de una página Web.

• Requiere que IIS este instalado en el equipo.


• Solo es una página WEB, NO proporciona ningún tipo de canal de comunicaciones como en el caso de TS

Gateway

• El cliente ha de ser Vista SP1 o W2K8.


• Ya NO admite dos tipos de despliegue.
• Despliegue Sencillo.
• Despliegue mediante Directorio Activo
• No se puede personalizar en función del usuario.

Publicación de Aplicaciones

• Puede ser mediante paquetes RDP o MSI


o RDP es simplemente un fchero con los parámetros de conexión
o MSI es un mínimo paquete de instalación del RDP
• Se pueden publicar simplemente compartiéndolos en un directorio o mediante el sistema de distribución de
sofware que queramos.
• El DA es muy útil para desplegar estas aplicaciones personalizando en función del usuario.

31
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Gestor de Sesiones – “Session Broker”

1. El Usuario Remoto Conecta via Terminal Services


2. TS: El Servidor 1 contacta con el “Session Broker” para determinar donde ha de iniciar sesión el
usuario.
3. “Session Broker” indica al Servidor 1 que este usuario no tiene sesión y que el servidor 2 tiene menos
carga.
4. El Servidor 1 indica al cliente vía RDP que ha de redirigirse al Servidor 2.
5. El Cliente es redirigido al Servidor 2.
6. Se crea la sesión en el Servidor 2 para el cliente.
• Permite la conexión al nodo que albergue menos sesiones y pesar cada servidor para que alberguen más o
menos sesiones en función de su potencia.
• Guarde el estado de la sesión y en caso de problemas en la conexión, nos permite conectarnos a la sesión ya
establecida en el mismo nodo.
• Permite el drenado de sesiones en un nodo para poder ponerlo fuera de línea para mantenimiento, etcétera.

32
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Impresión Sencilla

1. El usuario abre Microsof Word via Terminal Services.


2. El usuario quiere imprimir un documento a su impresora local.
3. “TS Easy Print” utiliza el driver del cliente y aparece el interface de usuario para impresión.
4. El documento se impime en la impresora local.

Autenticación

33
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

• Autenticación a nivel de Red: Se realiza la autenticación del usuario antes de que se conecte a la sesión y se
muestre el inicio de sesión en el servidor de Terminales.
• Evita posibles ataques de DOS.
• Autenticación de Servidor. Verifca que nos conectamos al servidor correcto y evita que nos conectemos a
una maquina maliciosa.
• SSO: evita tener que volver a introducir nuestras credenciales.

Capacidades del nuevo Escritorio Remoto

• Monitor Spanning.
• Desktop Experience.
• Desktop Composition.

34
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

• Font Smoothing.
• Display Data Prioritization.

Dimensionamiento

• ¿Cuantas sesiones admite el servidor?


• Depende…
o Que aplicaciones se usan
o El patrón de uso de los usuarios
o El hardware
• Test, test, test

Difusión de aplicaciones por web

Dimensionamiento - Resumen

35
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

X64 Permite escalar

Proporciona más rendimiento – Permite más usuarios


Ideal si con x86 se alcanza el limite de la memoria del sistema
No todas las aplicaciones funcionan en x64
Opt imizado para $ por usuario – no usuario por máquina
Temas de Escritorio

Si habilitamos los temas de escrit iorio impactaremos en el número de usuarios.

Cant idad de colores y resolución

Color en 32bit – mejor uso del ancho de banda para escenarios (PPT, IE) que los necesiten
Font Smoothing impacta en el ancho de banda – usar solo en LAN

Windows System Resource Manager

Ayuda a acelerar los procesos huidos


Permite la gest ión de perf
perfles
iles por sesión

Internet de las cosas IoT: Aplicaciones sobre Open Hardware (Intel Galileo) y Arduino

Desarrollo Arduino

• Lo que se ejecuta en Arduino es un sketch


“Sketch”, que en español podríamos traducir como “boceto”, es el nombre que se le da al código fuente
destinado a la tarjeta Galileo y en general a cualquier otro miembro de la familia Arduino

• Un sketch debe tener al menos dos funciones


– Código de inicialización ==> setup() { }
– Código de ejecución continua ==> loop() {}
• Lenguaje “C” o “C/C++”

Arduino busca facilitar la programación, de manera en que el usuario se enfoque en el ‘Hacer’ que las cosas
funcionen.

Solo dos secciones – Setup() y Loop()


Simplifcando la estructura del programa, permite enfocar los esfuerzos de programación en la parte ‘funcional’
del código.
Setup & Loop, puede pensarse en esta combinación como la estructura básica de cualquier sistema embebido.

Bibliotecas
Un amplio repertorio de bibliotecas permite desarrollar prototipos de manera ágil, enfocándose en el
comportamiento y dejando los detalles para más tarde.

 Resumen del gran acierto Serial


o No requiere nada extra
o Permite E/S con la PC
o Mínimo: para conocer qué sucede en el sketch
o En parte, ayuda en las limitaciones del IDE

36
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

 Sin breakpoints
 Sin inspección de estado (memoria, registros, etc.)
 Sin ejecución paso a paso
 Sin cambio en Intel (tampoco tenía que hacerlo)

La placa Intel® Galileo se basa en el Intel® Quark SoC X1000, un sistema Intel Pentium® de clase de 32 bits
en un chip (SoC). Es el primer tablero basado en la arquitectura Intel® diseñada para ser compatible con el
hardware y el sofware, con protectores diseñados para el Arduino Uno R3.
• La placa Galileo también es compatible con el sofware con el entorno de desarrollo de sofware Arduino.
• El procesador Intel y las capacidades de E / S nativas circundantes del SoC proporcionan una oferta completa
tanto para la comunidad fabricante como para los estudiantes.

Características fsicas

• 10 cm de largo y 7 cm de ancho con los conectores USB, conector UART, conector Ethernet y conector de
alimentación que se extiende más allá de la dimensión anterior.
• Cuatro orifcios para tornillos permiten que la placa se adhiera a una superfcie o caja.
• Cabecera estándar JTAG de 10 pines para depuración
• Botón de reinicio para restablecer el boceto y cualquier escudo adjunto.
• Galileo se alimenta a través de un adaptador de CA a CC, enchufado con un conector positivo con centro de
2.1mm en el conector de alimentación de la placa. La clasifcación de salida recomendada del adaptador de
corriente es de 5V a 3A.

Comunicación

• Puerto Ethernet RJ45 de 10/100 Mb


• Puerto de cliente USB 2.0
• Puerto de host USB 2.0
• Puerto UART RS-232 y conector de 3,5 mm
• Ranura Mini PCI Express (mPCIe) con soporte USB 2.0

Características del procesador

• Procesador compatible con arquitectura de conjunto de instrucciones (ISA) Intel® Pentium® de 32 bits a 400
MHz
• 16 KBytes L1 caché
• 512 KBytes de SRAM incrustado en el dado
• Simple de programar: hilo simple, un solo núcleo, velocidad constante
• Compatible con estados de reposo de la CPU compatibles con ACPI.
• Reloj de tiempo real integrado (RTC), con batería "coin cell" opcional de 3V para la operación entre ciclos de
encendido

Opciones de almacenamiento

• 8 MByte Legacy SPI Flash para almacenar frmware (gestor de arranque) y el último boceto
• Entre 256 KByte y 512 KByte dedicados para almacenamiento de bocetos
• 512 KByte embedded SRAM
• 256 MB de DRAM
• La tarjeta micro SD opcional ofrece hasta 32 GB de almacenamiento
• El almacenamiento USB funciona con cualquier unidad compatible con USB 2.0.
• 11 KByte EEPROM programado a través de la biblioteca EEPROM

Muy Relacionada con Arduino

37
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

La placa Intel® Galileo Gen 2 es la primera de una familia de tableros de desarrollo y prototipos certifcados
por Arduino en la arquitectura Intel®

Es la primera placa basada en la arquitectura Intel® diseñada para ser compatible con el hardware y el sofware
con los protectores Arduino diseñados para el Uno R3.
Desde las dos páginas se llega a la misma de Intel

Galileo - Arduino

Algunas cosas que están


sucediendo… Intel Galileo
• Una de las razones por las
cuales el USB toma tiempo
en ser reconocido: tiempo Sketch
de arranque de Linux
• Un proceso Linux Adaptador E/S de Arduino
interpretará/emulará ---------------------------------------
Arduino --------------
• Firmware de Galileo (8 Driver de E/S
MB): Linux’ + Emulador
Linux Kernel
Arduino

38
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Tema 2: Protocolos y Servicios de Integración

Voz y Video sobre una red de conmutación de paquetese infraestructura requerida.


Cientos de sitios ponen a nuestra disposición fujos con contenido de audio y vídeo. YouTube y otros sitios de
compartición de vídeo permiten a los usuarios utilizar (bajo demanda) clips de vídeo que han sido cargados por
otros usuarios.
Los requisitos de servicio de las aplicaciones multimedia diferen signifcativamente de los de las aplicaciones
elásticas tradicionales, como el correo electrónico, la navegación Web, los inicios de sesión remotos y la
descarga y compartición de archivos.
En particular, a diferencia de las aplicaciones elásticas, las aplicaciones multimedia son extremadamente
sensibles al retardo de terminal a terminal y a la variación del retardo, aunque pueden tolerar pérdidas de datos
ocasionales.
Multimedia en la internet de hoy: TCP/UDP/IP: “best-efort service”
Sin garantas de retraso y pérdidas
Aplicaciones multimedia de Internet de hoy en día utilizan técnicas de nivel de aplicación para mitigar (lo más
que se pueda) los efectos de retraso y pérdida.
Taxonomía de aplicaciones multmedia
• Clases de aplicaciones multimedia:
• En streaming almacenada.
• Transmisión en vivo.
• En tiempo real interactivo.
• Características fundamentales:
• Suelen tener retrasos.
• Con retardo de extremo a extremo.
• Fluctuación del retardo.
• Pérdida tolerante: pérdidas infrecuentes causan pequeños inconvenientes.
• Un sistema terminal que desea transmitir un paquete a través de un medio compartido (WiFi o Ethernet)
puede retardar su transmisión a propósito, como parte de su protocolo, para compartir el medio con otros
sistemas terminales.
• En VoIP, el lado emisor debe, en primer lugar, rellenar un paquete con voz digitalizada codifcada antes de
pasar el paquete a Internet. El tiempo que se tarda en rellenar un paquete (lo que se denomina retardo de
empaquetamiento) puede ser signifcativo y puede repercutir en la calidad percibida por el usuario de una
llamada VoIP.
• Jiter es la variabilidad de los retrasos de paquetes dentro del mismo fujo de paquetes Protocolos: SIP, RTP.
Streaming (como con el streaming multimedia almacenado):
• Bufer de reproducción.
• La reproducción puede quedarse decenas de segundos después de la transmisión.
• Todavía tienen restricción de temporización.

39
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Aplicaciones multmedia: Flujos.

Streaming: el cliente reproduce de manera


temprana parte de vídeo, mientras que el
servidor todavía continúa el envío de lo
restante

Streaming de almacenado:
 Multimedia almacenado en la fuente transmitida al cliente.
 Streaming: la reproducción cliente comienza antes de que lleguen todos los datos.
 Restricción de temporización en el tiempo de emisión, para los datos que todavía no han sido
transmitidos.
Transmisión en Vivo:
Está orientado a la multidifusión. El servidor comienza a transmitir en un instante dado. Los usuarios ven la
información que se está emitiendo. En este tipo de servicio no existe interactividad. Únicamente está permitido
realizar pausas (cuando el usuario recupere la reproducción podrá ver la información que se está transmitiendo
en ese instante).
Ejemplos:
• Internet de radio talk show.
• Evento deportivo en vivo.
Tiempo Real Interactivo:
• Recibe las interacciones del cliente (play, stop, pause, etc.) y actúa sobre el fujo de información multimedia.
No se permite el avance rápido.

Técnicas de nivel de aplicación

Técnicas de streaming a nivel de aplicación para hacer al máximo de servicio de mejor esfuerzo:
• El búfer en el lado del cliente.
• El uso de UDP frente a TCP.
• Múltiples codifcaciones de multimedia.

40
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Servidor Web con archivos de


Navegador Web audio

Reproductor multimedia

Cliente Servidor

Del lado del reproductor de medios:


• Eliminación de Jiter.
• Descompresión.
• Ocultación de errores.
• Interfaz gráfca de usuario con controles para desplegar interactividad.
(1) HTTP
request/resp
onse para
Navegador Web metarchivo

Servidor Web con archivos de


(2) Metarchivo audio

(3) Envio de
Audio/video
Reproductor multimedia
y de otro
HTML

Cliente Servidor

• El navegador obtiene metarchivo.


• El navegador lanza reproductor, pasa el metarchivo.
• El reproductor contacta con el servidor.
• El servidor transmite audio / vídeo al reproductor cliente.

41
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

(1) HTTP
request/response
para archivo de
descripción de la
Navegador Web presentación Servidor Web

(2) Archivo de descripción de la


presentación.

Reproductor multimedia (2) audio / video


recibido y Servidor de Streaming
enviado.

Cliente Servidor

• Permite el uso de protocolos no HTTP entre el servidor y el reproductor.


• Uso de UDP o TCP para el paso de mensaje (3).
Señal analógica muestreada Ejemplo: 8,000 muestras/sec, 256
a velocidad constante valores --> 64,000 bps
• Teléfono: 8,000 muestras/sec El receptor convierte de nuevo a
• CD música: 44,100 muestras/sec bits la señal analógica: es posible
Cada muestra cuantifcada aproxima: reducción de calidad
e.g., 28=256 posibles valores Ejemplo tasas
cuantifcados CD: 1.411 Mbps
Cada valor cuantifcado se MP3: 96, 128, 160 kbps
representa por: Teléfono por Internet: 5.3 kbps y más
• 8 bits para 256 valores

 Bufering del lado cliente,


 Demora en reproduccion se compensa con demoras en la red,
 Demoras de Jiter.
Pregunta: ¿cómo manejar las diferentes capacidades de frecuencia que reciben de los clientes?
 28.8 / 128 / 512 / 1024 Kbps dialup
 100 Mbps Ethernet
Respuesta: el servidor almacena, y transmite varias copias del vídeo, codifcados en diferentes tasas

Protocolos: SIPe RTP

42
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

HTTP Lo que no debe hacer:


• No es target para contenido No defne la forma de audio / video, se encapsula
multimedia para streaming a través de la red.
• Sin comandos para avance No restringe la forma en streaming multimedia se
rápido, etc. transporta (UDP o TCP es posible)
No se especifca cómo reproductor multimedia
RTSP: RFC 2326 bufers de audio / video.
• Protocolo cliente - servidor de capa de aplicación
• Control de user: rewind, fast forward, pause,
resume, repositioning, etc…

Garantas de rendimiento: IP Multicast

Escenario:
• IP multicast permite a una fuente de datos, enviar una copia de un mensaje a múltiples destinatarios que
explícitamente quieren recibir esa información.
• Es un concepto centrado en el receptor: el receptor se suscribe a un grupo multicast.
• La infraestructura de red se encarga de enviar el tráfco a todos los miembros del grupo.
• Transmisión IP uno a muchos. IETF Standard (RFC 1112)

Requerimiento para IP multicast:

En los extremos (hosts)


• Soporte para IP Multicast en el stack TCP/IP
• Soporte de IGMP para peticiones de subscripción y recepción de tráfco multicast.
• Tarjetas de red efcientes al fltrar direcciones LAN mapeadas de direcciones MC IP.
• Sofware de aplicación con soporte MC.

En la WAN
• Los Routers intermedios deben soportar MC
• Los Firewalls deben reconfgurarse para permitir tráfco MC.

43
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Protocolo de
aplicación
multicast
Aplicación Emisora MC - (Videoconferencia, Aplicación Receptora MC
transf. De MC, etc)

UDP Direccionamiento UDP


Puerto origen y
IP, ICMP, IGMP destino IP, ICMP, IGMP
Dirección unicast
Controlador de Red de la fuente Controlador de Red
Dirección
I/F de Red multicast del I/F de Red
receptor

Red del Red Subred de


emisor Multicast receptores

Direccionamiento Multcast

La Internet Assigned Numbers Authority (IANA) controla la asignación de direcciones IP multicast.


Espacio de direcciones clase D para IP multicast:

224.0.0.0 -> 239.255.255.255

Direcciones Reservadas Locales


IANA reserva direcciones en el rango 224.0.0.0 a 224.0.0.255 para ser usadas por los protocolos de red en el
segmento de red local.
Paquetes con estas direcciones no son encaminados por el routers (TTL=1)
 224.0.0.1 todos los sistema de esta subred
 224.0.0.2 todos los routers de esta subred
 224.0.0.5 routers OSPF
 224.0.0.6 routers designados OSPF
 224.0.0.12 agente DHCP (server/relay)

Direcciones Globales

El rango de direcciones 224.0.1.0 a 238.255.255.255 se denomina en conjunto: direcciones de alcance global.


Se pueden utilizar para multicast de datos en la organización o a través de Internet.
44
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Algunas direcciones están reservadas por IANA:


224.0.1.1 Network Time Protocol (NTP)
El rango de direcciones 239.0.0.0 a 239.255.255.255 contiene direcciones de alcance limitado. De acuerdo con
el RFC 2367 están restringidas a un grupo local u organización.
Los ROUTERS se confguran para fltrar estas direcciones y evitar que el tráfco multicast salga al exterior del
sistema.

Tiempo de vida (TTL)

El campo TTL controla el número de saltos que un paquete multicast puede realizar.
Cada vez que el paquete atraviesa un encaminador, TTL se descrementa en 1.
Un paquete multicast con TTL=0 es descartado.
TTL Multicast Backbone:
 1 red local
 15 sitio
 63 región
 127 mundo

Protocolo IGMP

Internet Group Management Protocol (IGMP) es utilizado por routers para conocer la existencia de miembros
de grupos MC directamente conectados a sus subredes.
Descrito en el IETF Standard (RFC 1112). Implementado sobre datagramas IP, tiene dos clases de paquetes:
 Host Membership Query (HMQ)
 Host Membership Report (HMR)
Túneles IP:
Para conectar redes Multicast separadas por enlaces no multicast, los datagramas Multicast son encapsulados
en datagramas unicast (punto a punto) estándares.

Algunos problemas para gestonar el tráfico MM:


• Mecanismo de retransmisión de TCP.
• Mecanismos de control de congestión de TCP.
• TCP no provee mecanismos de temporización.
• No existen mecanismos de gestión del ancho de banda.
• IP no garantiza el orden de entrega de paquetes.

El tráfico MM requiere su propio conjunto de protocolos:


• Realtime Transport Protocol (RTP).
• Realtime Control Protocol (RTCP).
• Realtime Streaming Protocol (RTSP).
• Resource Reservation Protocol (RSVP).

Protocolos adicionales necesarios:

Protocolo de transporte
• Provee servicios de transporte extremo a extremo (corre en los sistema fnales)
• Provee demultiplexación
Como protocolo de aplicación
• Corre sobre UDP (multiplexación, corrección de errores) aunque no exclusivamente.
• Mecanismos para añadir fabilidad y control de fujo

Real Time Protocol - RTP

RTP incluye información de:


• Tipo de carga (descodifcación).
• Número de orden (pérdida).
45
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

• Marca de tiempo (sincronización).


Se personaliza a cada aplicación defniendo el perfl del tipo de datos (payload): especifca el tipo de
codifcación de audio/vídeo transportado en el paquete RTP.
Sesión RTP:
• La aplicación defne dos puertos de destino (una dirección de red + 2 puertos RTP y RTSP).
• Cada medio se transporta en una sesión RTP separada (con su propio RTSP).
Cabecera RTP
Tipos de Número de Marca de Fuente de Fuente del Cabecera Datos
carga útil secuencia tiempo sincronización contenido de
(SSRC) (CSRC) extensión
(EH)
(Opcional)

Tipos de carga útil:


Número de tpo de carga útl Formato de audio Frecuencia de Velocidad
muestreo
0 PCM-µLOW 8 kHz 64 kbps

1 1016 8 kHz 4,8 kbps


3 GSM 8 kHz 13 kbps
7 LPC 8 kHz 2,4 kbps
9 G.722 16 kHz 48-64 kbps
14 MPEG Audio 90 kHz —
15 G.728 8 kHz 16 kbps

• Payload type 0: PCM mu-law, 64 kbps


• Payload type 3, GSM, 13 kbps
• Payload type 7, LPC, 2.4 kbps
• Payload type 26, Motion JPEG
• Payload type 31. H.261
• Payload type 33, MPEG2 video
RTP ¿Protocolo de tiempo real?
• No garantiza entrega en tiempo (ningún protocolo extremo a extremo lo hace).
• No garantiza el orden de paquetes Provee servicios de sincronización de fujos diferentes.
RTP ¿Protocolo fable?.
• No hay mecanismos de recuperación de paquetes (->dependiente del contenido del paquete, ej. Redundancia
en datos de audio).
• Mecanismos de retransmisión utilizados por el nivel de aplicación.

Realtme Transport Control Protocol (RTCP)

“es el protocolo de Control Remoto de Internet”


Protocolo de control (nivel de aplicación) que inicia y gestiona el envío de fujos multimedia desde los
servidores al visualizador (player).
Se utiliza conjuntamente con RTP y provee:
 Información a la aplicación servidor.
 Identifcación de la fuente RTP.
 Control del intervalo de transmisión.
 Información de control de sesión.
 Identifca la fuente RTP.
 RTSP incorpora un identifcador de nivel de transporte (CNAME), que es usado por los receptores para
asociar múltiples fujos de datos a un participante dentro de un conjunto de sesiones RTP relacionadas.
 Controla el intervalo de transmisión.

46
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

 Cada participante envía paquetes RTSP a cada otro participante.


 La carga de control RTSP se mantiene en el 5% del total de la sesión.
 Información de control de sesión.
 Opcionalmente, RTSP puede transportar información de los participantes en la sesión, por ejemplo los
nombres.
 Protocolo de señalización para conferencias, telefonía, notifcación de eventos y mensajería
instantánea por Internet.
 No controla el fujo de datos (RTSP).
 Es bidireccional.
Sesión RTP: tpicamente es una única dirección multicast; todos los paquetes RTP / RTSP pertenecen a la
sesión de dirección de multidifusión en uso.
RTP: los paquetes RTSP pueden distinguirse unos de otros a través de números de puerto distintos.
Para limitar el tráfco, cada participante reduce el tráfco RTSP cuando el número de participantes de la
conferencia se incrementa.
RTSP intenta limitar su tráfco a 5% de ancho de banda de sesión.
Ejemplo
• Un emisor envía vídeo a 2 Mbps, RTSP intenta limitar su tráfco a 100 Kbps.
RTSP da el 75% de tasa a los receptores; el restante 25% al remitente
• 75 kbps es igualmente compartidos entre los receptores:
Con R receptores, cada receptor llega a enviar tráfco RTSP a 75 kbps/R.
• El remitente llega a enviar tráfco RTSP a 25 kbps.
• El participante determina período de transmisión de paquetes RTSP mediante el cálculo de tamaño de
paquete RTSP promedio (a través de toda la sesión) y dividiendo por la tasa asignada.

Realtime Transport Stream Protocol (RTSP)

Desarrollado por RealNetworks, Netscape Communication y la Universidad de Columbia.


• Soportado por Netscape, Apple, IBM, SGI, SUN, Vxtreme.
HTTP es a texto y gráfcos como RTSP es a streaming audio y vídeo, pero:
• RTSP mantiene el estado, HTTP es stateless.
• RTSP es simétrico (cliente-servidor). HTTP es asimétrico.
Archivo de descripción de presentación: el cliente obtiene por HTTP y contiene:
• Codifcación
• Idioma
• URLs RTSP
• Dirección destino
• Puerto
RTSP es más un entorno que un protocolo:
• Permite elegir el canal de envío (UDP, TCP, IP Multicast,…)
• Permite elegir el mecanismo de transporte (basado en RTP)
RTSP puede usarse conjuntamente con RSVP para confgurar y reservar ancho de banda para una sesión de
streaming

Protocolos multmedia empleados, SIP

En este mundo ya no existe una red de telefonía de conmutación de circuitos; en lugar de ello, todas las
llamadas pasan a través de Internet de extremo a extremo. Las empresas tampoco utilizan ya las PBX, en su
lugar, el tráfco telefónico entre compañías fuye a través de la red LAN de alta velocidad de las mismas.
Entre los protocolos más prometedores que van en esta dirección está el Protocolo de iniciación de sesiones
(SIP, Session Initiation Protocol), defnido en [RFC 3261; RFC 5411]. SIP es un protocolo ligero que hace lo
siguiente:
• Proporciona mecanismos para establecer llamadas entre el que llama y el que es llamado a través de una red
IP. Permite al que llama notifcar al llamado que desea iniciar una comunicación.
• Proporciona mecanismos al que llama para determinar la dirección IP actual del llamado. Los usuarios no
tienen una única dirección fja porque pueden asignarse dinámicamente direcciones (mediante DHCP) y porque
pueden tener múltiples dispositivos IP.
47
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

• Proporciona mecanismos para la gestión de llamadas tales como añadir nuevos fujos multimedia durante la
llamada, cambiar el método de codifcación o invitar a nuevos participantes mientras tiene lugar la llamada,
además de mecanismos para la Transferencia de llamadas y el mantenimiento de las mismas.

Ejemplo VLC Video LAN

VideoLAN Manager es un gestor de multimedios, diseñado para controlar múltiples fujos con una sola
instancia de VLC. Permite múltiples streaming (broadcast) y vídeo bajo demanda (VoD). Este gestor, en modo
VLM, puede ser controlado por una interfaz telnet o htp.
Modo VLM. Confguración LINUX, como servidor de Streaming:
– instalar VLC video LAN en el Linux a utilizar como servidor
– Asegurarse de instalar librería ‘gstreamer’
– Establecer carpetas donde alojar el material a difundir, y copiarlo en ellas:
– /media/mp3
– /media/video
– Iniciar el servicio en modo servidor telnet:
– vlc -vvv --color -I telnet --telnet-password 4dmin --rtsp-host 192.168.194.89 --rtsp-port 5554
– Iniciar sesión de usuario $ telnet localhost 4212
– Defnir objetos a difundir, y la modalidad
– Iniciar un cliente VLC desde un equipo remoto.
– Conectar al servicio de difusión

48
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Tema 3: Virtualización
Tecnologías de Virtualización para Datacenter: Bare metal y Hostng.

La virtualización se refere a la abstracción de los recursos de una computadora por parte de un hipervisor,
también conocido como Virtual Machine Manager (VMM), que es un programa que permite ejecutar múltiples
sistemas operativos puedan compartir un mismo hardware simultáneamente.
Cada sistema operativo parece manejar, gestionar y arbitrar los cuatro recursos principales de una
computadora (CPU, Memoria, Almacenamiento y Conexiones de Red).
El Hipervisor es en realidad quien controla al procesador y a los recursos, la asignación de lo que se necesita
para cada sistema operativo.
Se asegura que los sistemas operativos invitados (llamados máquinas virtuales) no pueden alterar a otras.
La virtualización se encarga de crear una interfaz externa que encapsula una implementación subyacente
mediante la combinación de recursos en localizaciones fsicas diferentes, o por medio de la simplifcación del
sistema de control.
La máquina virtual en general simula una plataforma de hardware autónoma incluyendo un sistema operativo
completo que se ejecuta como si estuviera instalado. Típicamente varias máquinas virtuales operan en un
computador central. Para que el sistema operativo “guest” funcione, la simulación debe ser lo sufcientemente
grande (siempre dependiendo del tipo de virtualización).

Existen diferentes formas de virtualización: es posible virtualizar el hardware de servidor, el sofware de


servidor, virtualizar sesiones de usuario, virtualizar aplicaciones y también se pueden crear máquinas virtuales
en una computadora de escritorio.
· Virtualización completa.
· Virtualización parcial.
· Virtualización por sistema operativo.
Clasifcación
Tipo 1 TRADICIONAL

Aplicación
Sistema Operatvo
Arquitectura x86
CPU Memoria Tarjeta NIC Disco

49
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

2. (HOSTED)

Aplicación
Aplicación
Sistema Operatvo Invitado

Capa de Virtualización

Sistema Operatvo Anfitrión

Arquitectura x86
CPU Memoria Tarjeta NIC Disco
Requiere un sistema operativo host (Windows / Linux / Mac), se instala como una aplicación.
Las máquinas virtuales pueden utilizar todos los recursos de hardware que el huésped puede ver.
Máxima compatibilidad de hardware, el sistema operativo proporciona todos los controladores de dispositivos
de hardware.
Hay sobrecarga en el sistema operativo nativo de acuerdo a la cantidad de máquinas virtuales en uso.
El nivel de rendimiento baja considerablemente.

3. (NATIVO , BARE METAL)

Aplicación Aplicación Aplicación Aplicación Aplicación Aplicación


Sistema Sistema Sistema Sistema Sistema Servicio de
Operatvo Operatvo Operatvo Operatvo Operatvo Consola
Capa de Virtualización VMware

Arquitectura x86
CPU Memoria Tarjeta NIC Disco
Los hipervisores se ejecutan directamente en el hardware del host para controlar el hardware y para
administrar los sistemas operativos invitados. Así, un sistema operativo invitado se ejecuta en otro nivel por
encima del hipervisor.
Este modelo representa la implementación clásica de arquitecturas de máquinas virtuales, los hipervisores
originales eran el instrumento de medida, Simmon , y CP / CMS , tanto desarrollados como en IBM en 1960. CP
/ CMS fue el antecesor de lo que IBM z / VM. Equivalentes modernos de esto son Oracle VM Server para
SPARC, Oracle VM Server para x86, el Citrix XenServer, VMware ESX / ESXi, KVM y Microsof Hyper-V
hypervisor.
Aislamiento seguro de la máquina virtual en la virtualización
• La ha cambiado considerablemente desde 2006. Entonces, se utilizaba "traducción binaria", un método que
modifca instrucciones sensibles sobre la marcha a instrucciones "virtualizables".
• Con los avances en la tecnología de la CPU, las capacidades de virtualización se construyen directamente en
la CPU. Hoy en día, el hipervisor es principalmente la interfaz de gestión de las primitivas de hardware.

50
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

• El aislamiento de la CPU, la memoria y la E/S ahora se hace a nivel de hardware, con el hipervisor
administrando la cantidad de recursos de hardware que una máquina virtual puede usar. Esta parte del
hipervisor se llama monitor de máquina virtual (VMM).
• Fueron desarrolladas múltiples técnicas de aislamiento soportadas por hardware y sofware, así como
robustos mecanismos de seguridad como el control de acceso y el aprovisionamiento de recursos, abordan los
riesgos asociados con estas preocupaciones.

Aislamiento de instrucciones

Preocupación: una máquina virtual que se ejecuta en un modo privilegiado pueda comprometer otra máquina
virtual o al propio VMM.
• Extensiones Intel VT-x y AMD-V no permiten que las máquinas virtuales se ejecuten en "Ring-0".
• Sólo el VMM se ejecuta en un nivel de privilegio de hardware; Los SO invitados se ejecutan en un nivel de
privilegio virtualizado.
• El sistema operativo invitado no detecta que se esté ejecutando en un nivel virtualizado no privilegiado.
Cuando el SO huésped ejecuta una instrucción privilegiada, ésta es atrapada y emulada por el VMM.
• La tecnología Hyper-Threading de Intel (tecnología Intel HT) permite que dos subprocesos se ejecuten en el
mismo núcleo de CPU. Estos subprocesos pueden compartir el caché de memoria en el procesador.
• Las máquinas virtuales ESXi no proporcionan tecnología Intel HT al sistema operativo invitado. ESXi, sin
embargo, puede utilizarlo para ejecutar dos máquinas virtuales diferentes simultáneamente en el mismo núcleo
fsico si está confgurado para hacerlo.

CPU Virtual
Niveles de Ring 3 Aplicaciones del Usuario
privilegio
virtualizados Ring 2
Ring 1
Ring 0 SO Invitado

Nivel de p. Fís. Ring 0 Físico VMM

Hipervisor
Anfitrión fsico

Kernel Ring 0

Ring 1
Ring 2
Ring 3
Menos privilegiado

Más privilegiado

51
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Aislamiento de memoria
El administrador del sistema defne la RAM asignada a una máquina virtual por el VMM a través de la
confguración de la máquina virtual.
El VMkernel asigna memoria cuando defne los recursos que debe utilizar la máquina virtual.
Un sistema operativo invitado utiliza la memoria fsica asignada por el VMkernel y defnida en el archivo de
confguración de la máquina virtual.
Un SO que se ejecuta en el hardware virtual se da un espacio de direcciones basado en cero. El VMM da a cada
máquina virtual la ilusión de que está utilizando un espacio de direcciones tal, virtualizando la memoria fsica
añadiendo un nivel adicional de traducción de direcciones.
Una dirección de máquina se refere a memoria de hardware real. Una dirección fsica es una abstracción de
sofware utilizada para proporcionar la ilusión de memoria de hardware a una máquina virtual.

Máquina Virtual 1 Máquina Virtual 2


Proceso 1 Proceso 2 Proceso 1 Proceso 2

Memoria Virtual de la M. Virtual


Memoria Física de la M. Virtual
Memoria Física de la Máquina Física

Uso compartdo de memoria


"Transparent page sharing" es una técnica para usar recursos de memoria de manera más efciente. ESXi analiza
el contenido de la memoria fsica de SO invitado para compartir 'oportunidades'. En lugar de comparar cada
byte de una página fsica de invitado con otras páginas, acción costosa, se utiliza el hash para identifcar páginas
potencialmente idénticas.
Las páginas de memoria que son idénticas en dos o más máquinas virtuales se almacenan una vez en la
memoria RAM del sistema host y cada una de las máquinas virtuales tiene acceso de sólo lectura. Ocurre
cuando, muchas máquinas virtuales del mismo host ejecutan el mismo sistema operativo. Tan pronto como una
máquina virtual intenta modifcar una página compartida, obtiene su propia copia privada. Debido a que las
páginas de memoria compartida están marcadas como copia por escritura, es imposible que una máquina
virtual fltre información privada de otra a través de este mecanismo. El intercambio transparente de páginas es
controlado por VMkernel y VMM y no puede ser comprometido por máquinas virtuales. También se puede
deshabilitar máquina por máquina.

52
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Página de Función Hash Valor de Hash


Contenido “A”

VM0 VM1 VM2

Tabla de
Hipervisor Hash
Memoria del host A
A

B
B

Protección de dispositvos
Para proteger componentes privilegiados, como VMM y VMkernel, vSphere utiliza ciertas técnicas bien
conocidas. La asignación aleatoria de diseño de espacio de direcciones (ASLR) asigna al azar dónde se cargan
los módulos del núcleo en la memoria.
Las características de la CPU NX / XD permiten al VMkernel marcar las áreas de memoria que se pueden
escribir como no ejecutables. Ambos métodos protegen el sistema de ataques de desbordamiento de búfer en
código en ejecución.
Cada máquina virtual está aislada de otras máquinas virtuales que se ejecutan en el mismo hardware. Una
máquina virtual puede detectar sólo los dispositivos virtuales (o fsicos) que le asigna el administrador de
sistemas, como los siguientes ejemplos:
• Un disco SCSI virtual asignado a un archivo en un disco.
• Un disco real o LUN conectado a un host fsico o matriz.
• Un controlador de red virtual conectado a un conmutador virtual.
• Un controlador de red real conectado a una red fsica
Una máquina virtual no se puede asignar a un dispositivo que no ha sido preasignado.
Una máquina virtual es incapaz de montar el disco de otra máquina virtual a menos que el disco haya sido
asignado explícitamente a ambas máquinas virtuales en la consola de administración; Por ejemplo, VMware
vCenter ™ o ESXi.
Acceso al hardware del dispositvo
En el nivel de hardware, todas las transferencias de acceso directo a la memoria (DMA) y las interrupciones
generadas por el dispositivo se virtualizan y se aislan de otras máquinas virtuales.
Esto evita que una máquina virtual acceda al espacio de memoria controlado por otra máquina virtual. Si tal
intento es realizado por una máquina virtual, el SO huésped recibirá un fallo de la CPU. Debido a que VMkernel
y VMM interceden en el acceso a los recursos fsicos y todo el acceso fsico al hardware se realiza a través del
VMkernel, las máquinas virtuales no pueden eludir este nivel de aislamiento.
Mapeo de I/O.
• Los procesadores modernos cuentan con una unidad de administración de memoria de E/S que reasigna las
transferencias DMA de E/S y las interrupciones del dispositivo.
• Esto permite que las máquinas virtuales tengan acceso directo a dispositivos de E/S de hardware, como
tarjetas de red, controladores de almacenamiento (HBA) y GPUs. En los procesadores AMD, esta función se
denomina AMD I / O Virtualization (AMD-Vi) o unidad de administración de memoria de E / S (IOMMU)
• En los procesadores Intel, la característica se denomina tecnología de virtualización Intel para E/S dirigida
(VT-D).
• Dentro de ESXi, el uso de esta capacidad se llama DirectPath I / O. DirectPath I / O no afecta las propiedades
de seguridad de ninguna manera. Por ejemplo, una máquina virtual confgurada para usar VT-D o AMD-Vi para
acceder directamente a un dispositivo, no puede infuir ni acceder a la E/S de otra máquina virtual.
53
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Aislación a nivel de red


Redes a considerar en vSphere:
• De infraestructura de vSphere, demandadas de VMware Svphere vMotion®, VMware Svphere Fault
Tolerance y almacenamiento. Estas redes se consideran aisladas para sus funciones específcas, no son
enrutadas fuera del conjunto fsico de racks de servidores.
• De gestión que aisla el cliente, la interfaz de línea de comandos (CLI) o API y el tráfco de sofware de
terceros del tráfco normal. Esta red debe ser accesible sólo por el sistema, la red y los administradores de
seguridad. Se recomienda el uso de "jump box" o red privada virtual (VPN) para asegurar el acceso a la red de
administración. Se debe controlar estrictamente el acceso dentro de esta red a las fuentes de malware.
• De máquinas virtuales, pueden ser una o varias redes sobre las que fuye el tráfco de la máquina virtual. El
aislamiento de máquinas virtuales dentro de esta red se puede mejorar con el uso de soluciones de frewalls
virtuales que establecen reglas en el controlador de red virtual. Estas confguraciones se desplazan con la
máquina virtual a medida que migra de host a host dentro de un clúster vSphere.

Hardware

Red de infraestructura Vsphere


(Vmotion, VSAN, NFS, FT)
Administración de Red
Redes de la máquina virtual
54
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Redes de Máquina Virtual


• Así como una máquina fsica puede comunicarse con otras máquinas en una red sólo a través de un
adaptador de red, una máquina virtual puede comunicarse con otras máquinas virtuales que se ejecutan en el
mismo host ESXi sólo a través de un conmutador virtual.
• Una máquina virtual se comunica con la red fsica, con otras máquinas virtuales en otros hosts ESXi, sólo a
través de un adaptador de red fsica, a menos que utilice DirectPath I / O.
• Si una máquina virtual no comparte un conmutador virtual con ninguna otra máquina virtual, está
completamente aislada de otras redes virtuales dentro del host. Esta es la máquina virtual 1.
• Si no está confgurado ningún adaptador de red fsica para una máquina virtual, la máquina virtual está
completamente aislada de cualquier red fsica. Esta es la máquina virtual 2. En este ejemplo, el único acceso a
una red fsica es si la máquina virtual 3 actúa como un encaminador entre el conmutador virtual 2 y el
conmutador virtual 3.
• Una máquina virtual puede abarcar dos o más conmutadores virtuales sólo si está confgurada por el
administrador. Esta es la máquina virtual 3.

Capa de red virtual


• La capa de red virtual consiste en los dispositivos de red virtual a través de los cuales las máquinas virtuales
interactúan con el resto de la red.
• ESXi se basa en la capa de red virtual para soportar la comunicación entre las máquinas virtuales y sus
usuarios. Los hosts ESXi utilizan la capa de red virtual para comunicarse con SAN iSCSI, almacenamiento NAS,
y otros. La capa de red virtual incluye interfaces de red virtual y conmutadores (switches) virtuales.
Switch Virtual de VLANs
• ESXi soporta IEEE 802.1q VLAN, que se puede utilizar para proteger aún más la red de la máquina virtual, las
redes de gestión y la confguración de almacenamiento. Los ingenieros de sofware de VMware escribieron
este controlador de acuerdo con la especifcación IEEE.

55
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

• Las VLAN permiten la segmentación de una red fsica para que dos máquinas de la misma red fsica no
puedan enviar paquetes o recibir paquetes entre sí a menos que estén en la misma VLAN.
• Existen tres modos de confguración diferentes para marcar y desmarcar los paquetes de los marcos de la
máquina virtual:
➢ Virtual machine guest tagging (VGT mode).
➢ External switch tagging (EST mode).
➢ Virtual switch tagging (VST mode).

Puertos Virtuales
• Los puertos virtuales de ESXi proporcionan un canal de control para la comunicación con los adaptadores
Ethernet virtuales conectados a ellos. Detectan los fltros de recepción confgurados para los adaptadores
Ethernet virtuales conectados.
• También detectan la confguración "dura" de los adaptadores Ethernet virtuales conectados. Esta capacidad
permite establecer políticas: como prohibir cambios de direcciones MAC por parte del SO invitado y rechazar la
transmisión de direcciones MAC amenazantes.
• Las políticas disponibles en puertos virtuales son complicadas de implementar con switches fsicos. Las ACL
deben ser programadas manualmente en el puerto del switch, o se debe confar en la premisa de "el primer
MAC visto se supone que es correcto".
• Los grupos de puertos utilizados en ESXi no tienen una contraparte en redes fsicas. Se deben pensar como
plantillas para crear puertos virtuales con conjuntos particulares de especifcaciones.
• Los grupos de puertos proporcionan esta capa de direccionamiento indirecto, para permitir que VMware
Infrastructure proporcione acceso de red consistente a una máquina virtual, dondequiera (Host) que se ejecute.
Interfaces de Red Virtuales
• VSphere proporciona varios tipos de adaptadores de red virtuales que los SO invitados pueden utilizar. La
elección del adaptador depende de factores como el soporte del SO huésped y el rendimiento que se espera,
sin embargo comparten las siguientes características:
• Tienen sus propias direcciones MAC y fltros unicast / multicast / broadcast.
• Son estrictamente dispositivos de adaptador de Ethernet en capas.
• Interactúan con la pila de capa de VMkernel de bajo nivel a través de una API común.
• Los adaptadores Ethernet virtuales se conectan a puertos virtuales cuando el usuario enciende la máquina
virtual en la que están confgurados los adaptadores, toma una acción explícita para conectar el dispositivo o
migra una máquina virtual utilizando vSphere vMotion.
• Un adaptador Ethernet virtual actualiza el puerto de conmutador virtual con información de fltrado MAC
cuando se inicializa y cuando cambia. Un puerto virtual puede ignorar cualquier petición del adaptador
Ethernet virtual que violaría la política de seguridad de la capa 2 en vigor para el puerto.
Almacenamiento virtualizado
• Proporciona virtualización de almacenamiento en el nivel del host, que abstrae lógicamente la capa de
almacenamiento fsico de las máquinas virtuales.
• Una máquina virtual ESXi utiliza un disco virtual para almacenar su SO, archivos de programa y otros datos
asociados a sus actividades.
• Un disco virtual es un archivo fsico grande, o un conjunto de archivos, que se pueden copiar, mover, archivar
y copiar como cualquier otro archivo. Los usuarios pueden confgurar máquinas virtuales con varios discos
virtuales.
• Cada disco virtual reside en:
– un almacén de datos VMFS vSphere (Disco conectado fsicamente al Host)

56
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

– un almacén de datos basado en el Sistema de archivos de red (NFS)


– un almacén de datos SAN virtual, que se implementa en un dispositivo de almacenamiento fsico (Storage)
• Desde el punto de vista de la máquina virtual, cada disco virtual aparece como si se tratara de una unidad
SCSI conectada a un controlador SCSI.
• Como fuese que el dispositivo de almacenamiento fsico esté conectado al host, es transparente para el
sistema operativo invitado y para las aplicaciones que se ejecutan en la máquina virtual.

Arquitectura Bare-metal
• ESX y ESXi se instalan directamente en sobre el hardware, por lo tanto, ofrece un mayor rendimiento, pero se
ejecuta en un rango más estrecho de hardware.
• Se utiliza para la consolidación de servidores para centros de datos.
• Alto rendimiento y escalabilidad.
• Muchas características avanzadas para la gestión de recursos, alta disponibilidad y seguridad.
• Administración centralizada con vCenter Server.
• Soporta más máquinas virtuales por CPU fsica, que la versión host.
• El Hypervisor o VMM se conoce como la VMKernel en ESX y ESXi.
Arquitectura Bare-metal - vSphere Client
¿ESXi vSphere client 6.5, que es?
Plataforma de virtualización líder, impulsa la transformación digital ofreciendo una experiencia simplifcada para
el cliente, seguridad incorporada y una plataforma de aplicaciones universal.
Proporciona infraestructura altamente disponible y resistente a petición, para cualquier entorno en la nube.

57
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Centro de Datos definido por Software SDDC


Infraestructura completamente virtualizada: Mediante la estrategia defnida por sofware, se extiende la
virtualización de vSphere, líder del sector, más allá del procesamiento, hacia las redes y el almacenamiento. De
este modo, se logra que los servicios del centro de datos puedan confgurarse y administrarse de una manera
tan simple y económica como si fueran máquinas virtuales. EVO:RAIL, un dispositivo de infraestructura
hiperconvergente, es un componente básico para el SDDC mediante el cual se ofrecen recursos de
procesamiento, redes, almacenamiento y administración.
Regulación mediante una plataforma de administración de nube integral: Mediante la tecnología unifcada y
regida por políticas, se automatizan y administran los servicios de TI en nubes heterogéneas. A diferencia de las
soluciones heredadas, la plataforma está diseñada específcamente con el objetivo de organizar la dinámica
cambiante de las cargas de trabajo defnidas por sofware.
Disponible en una combinación fexible de nubes privadas e híbridas: Las aplicaciones y los servicios se pueden
aprovisionar y ejecutar en nubes privadas en las instalaciones y en plataformas seguras de IaaS, con una
movilidad de cargas de trabajo uniforme en el entorno híbrido. Puede usar prácticamente cualquier hardware,
lo que reduce la necesidad de una infraestructura especializada.
Soluciones para el centro de datos defnido por sofware listas para el cliente: Es una solución conjunta con las
mejores tecnologías de EMC, Pivotal con RSA y VMware. Está completamente integrada, diseñada, probada y
validada, cuyo objetivo es satisfacer las necesidades de las aplicaciones empresariales de misión crítica, lo que
ayudará a acelerar la transición de una organización hacia una empresa defnida por sofware.
¿Qué ofrecen vSphere y vSphere with Operations Management?
 Potente virtualización de servidores: Virtualización de los recursos de los servidores x86 y
agrupamiento en depósitos lógicos para la asignación de varias cargas de trabajo.
 Alta disponibilidad: Maximización del tiempo de actividad en toda su infraestructura de cloud al reducir
el tiempo de inactividad imprevisto y eliminar el previsto para tareas de mantenimiento de servidores y
del almacenamiento.
 Automatización de plataformas: Recorte de los gastos de capital y minimización el número de errores
mediante la optimización de las tareas rutinaria, gracias a las soluciones precisas y reproducibles de
vSphere.
 Operaciones inteligentes: La gestión inteligente se adapta a un entorno concreto y ofrece mayor
información a su debido tiempo para poder actuar de forma proactiva.
 Excelente seguridad: Protección de los datos y aplicaciones con la plataforma de virtualización de
servidores nativos más segura del sector.
 Almacenamiento efciente: Reducción de la complejidad de los sistemas de almacenamiento back-end y
garanta de la utilización más efciente posible del almacenamiento en infraestructuras de nube.
 Servidores de red: Obtención de servicios de red optimizados para el entorno virtual, además de
administración y gestión simplifcadas.
 Gestión uniforme: Maximización de las ventajas del centro de datos virtual a través de una gestión
unifcada y sencilla de las operaciones. Disponible en VSphere with Operations Managment.
 Automatización de operaciones: Automatización de manera segura la gestión de la infraestructura con
corrección de problemas guiada y acciones personalizables, mientras mantiene siempre el control.
Disponible en vSphere with Operations Management.
 Integración de las API de Cloud. Ofrece diversas posibilidades a la hora de utilizar el entorno de nube.
Casos de Uso
Consolidación del centro de datos y continuidad del negocio: Se simplifcan las operaciones del centro de
datos, aumenta la efciencia empresarial y se reducen los gastos de capital y operacionales por medio de la
virtualización.
Mayor rendimiento y disponibilidad de las aplicaciones: Se logra una mejora en el rendimiento y la
disponibilidad de las aplicaciones para aumentar la productividad del negocio. Permite tomar el control de la
administración de recursos, equilibrar las cargas de trabajo y priorizar el acceso a recursos para garantizar el
mejor rendimiento de las aplicaciones más importantes. Se puede aprovisionar e implementar cargas de trabajo
con rapidez en el entorno virtual.

58
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Automatización y administración de operaciones inteligentes: Permite agregar automatización y administración


de las operaciones inteligentes a un centro de datos por medio de vSphere with Operations Management.
Tiene capacidades de monitoreo y administración del estado de la red, identifcación de embotellamientos en
el rendimiento y limitaciones de capacidad, y reequibrio de las cargas de trabajo antes de que aumente la
demanda para habilitar el rendimiento de las aplicaciones, al mismo tiempo que se aprovechan unos algoritmos
autodidactas y técnicas de análisis predictivas que se adaptan al entorno.
Migración de Unix heredado a Linux virtual: Permite la migración de la infraestructura de TI de UNIX heredado
a Linux virtualizado. Se puede obtener un nivel mayor de rendimiento, disponibilidad, capacidad de máquina
virtual (Virtual Machine, VM) y capacidades de recuperación ante desastres.
Virtualización de macrodatos: Simplifca la gestión de la infraestructura de macrodatos y la realiza de manera
más rentable. VMWare es la mejor plataforma de macrodatos, al igual que lo es para las aplicaciones
tradicionales.
Soporte para sucursales y ofcinas remotas: Permite administrar ofcinas remotas y sucursales sin recurrir
prácticamente a personal local de TI. Asegurando también un aprovisionamiento rápido de servidores mediante
la virtualización, la minimización del desvío de confguración del host y la visibilidad mejorada del cumplimiento
normativo en varios sitios.
VmWare ESXi - el Sistema de archivos VMFS
VMFS es el sistema de archivos de VMware que soporta clustering lo cual permite que múltiples hosts lean y
escriban concurrentemente sobre ubicaciones de almacenamiento compartido.
Posee tamaño de bloque variable y utiliza tamaños de bloque grandes favorecidos por la asignación de disco
virtual de E/S y subbloque de pequeños para archivos y directorios.
Utiliza bloqueo de archivos para asegurar que la misma máquina virtual no esté encendida por varios servidores
al mismo tiempo.

59
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Máquinas Virtuales Máquinas Virtuales Máquinas Virtuales


App Ap Ap App App App App Ap App
p p p
OS OS OS OS OS OS OS OS OS

Servidor ESX Servidor ESX Servidor ESX


VMFS VMFS VMFS

Almacenamiento Compartido
VmWare ESXi - VMoton
VMotion permite mover rápidamente toda una máquina virtual en ejecución desde un host a otro sin tiempo
de parada o interrupción de la máquina virtual. Esto también se conoce como un migración en "caliente" o "en
vivo".
Todo el estado de una máquina virtual está encapsulado y el sistema de archivos VMFS permite tanto al ESX
fuente como el host ESX destino acceder a los archivos de la máquina virtual al mismo tiempo.
Requiere una red de almacenamiento privado de alta velocidad (Fibre Channel). La memoria activa y el estado
de ejecución precisan de una máquina virtual puede ser rápidamente transmitida a través de una red de alta
velocidad. La máquina virtual mantiene su identidad en la red y las conexiones, lo que garantiza un proceso de
migración sin fsuras.
VmWare ESXi - Alta disponibilidad (HA)
Hace monitoreo de todas las máquinas virtuales que corren sobre un host y las reinicia en otro host ante el
fallo del primero.
Puede supervisar sistemas operativos invitados y los reinicia en la misma máquina en caso de un fallo.
Hace monitoreo continuo y elige los servidores fsicos óptimos dentro de un grupo de recursos para reiniciar
las máquinas virtuales (si se utiliza junto con la funcionalidad DRS).

60
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Máquinas Virtuales
Entonces, ¿qué es una máquina virtual?
Una máquina virtual se defne como una representación de una máquina fsica mediante sofware, integra un
propio sistema de hardware virtualizado en la que puede ejecutar un sistema operativo invitado y sus
aplicaciones.
Con virtualización, cada máquina virtual se aprovisiona de hardware virtual compatible, independientemente
del hardware fsico subyacente del host.
Cuando se crea una máquina virtual, se le otorga un conjunto predeterminado de hardware virtual, que a
posterior puede ser personalizado – agregar discos, adicionar memoria, deshabilitar sonido-.
Proveen:
▫ Independencia de Hardware
Ve el mismo hardware siempre a pesar del hardware del host que la soporta.
▫ Aislamiento
El sistema operativo invitado es aislado del sistema operativo del host.
▫ Encapsulamiento
La máquina virtual completa es encapsulada en un único archivo de datos.
Archivos de máquina virtual
Una máquina virtual se compone de una serie de archivos que se encuentran en el directorio principal donde la
máquina es alojada.
Se compone de una lista de archivos que están asociados con la máquina virtual. La mayoría de los archivos
comienzan con el nombre real de la máquina virtual y tienen diferentes extensiones de archivos basado en el
tipo de archivo.

Computación en la nube: Modelo computacional de Internete generacionese arquitectura.

61
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

La Computación Cloud es un paradigma que posibilita el acceso ubicuo bajo demanda a servicios TIC accesibles
a través de Internet.
El término Cloud (nube) se refere a la forma de representar la red (Internet) en los diagramas y es una
abstracción de las complejidades de su infraestructura.
La Computación Cloud NO interesa sólo a los usuarios fnales.
Proporciona información bursátil en tiempo real.
Situaciones semejantes: demandas estacionales (p.e. ventas en navidad), eventos masivos y puntuales (p.e.
Juegos Olímpicos), juegos on-line.
Problema: ¿Cómo dimensionar la capacidad de los servidores para ajustarla a la demanda?
Solución: Aprovisionamiento bajo demanda.
 Consumir lo que necesites.
 Pagar por lo que consumas.
La virtualización está en la base de esta transformación:
A favor:
• Agrupamiento de recursos (Memoria, CPU, Disco, Red).
• Alta redundancia.
• Alta disponibilidad.
• Rápido despliegue de nuevos servidores.
• Parametrización en Caliente .
• Óptima utilización de recursos fsicos.
En contra:
• Pérdida de rendimiento (uso de VMM)
Defniciones:
 Múltiples defniciones y mucha confusión.
 Término proveniente de la industria.
 Razones comerciales.
 Múltiples perspectivas.
 Datacenters, ISPs, eCiencia, ...
No estamos realmente ante una nueva tecnología, sino un nuevo paradigma de uso que combina tecnologías
existentes.
 SOAs, Grid Computing, WS, virtualización, ...
NIST: "La computación en nube es un modelo que permite el acceso ubicuo y conveniente a un conjunto
compartido de recursos informáticos confgurables (por ejemplo, redes, servidores, almacenamiento,
aplicaciones y servicios) que pueden ser rápidamente aprovisionados y liberados con mínimo esfuerzo de
administración o servicio interacción con el proveedor “
Es la defnición más referenciada, utilizada por el gobierno norteamericano en sus relaciones con proveedores.
Definiciones:
Informe ENISA (European Network and Information Security Agency):
“La computación en nube es un modelo de servicio bajo demanda para la prestación de TI, a menudo basado en
la virtualización y en las tecnologías informáticas distribuidas.
Las arquitecturas de computación en nube poseen:
(1) recursos con un alto grado de abstracción;
(2) escalabilidad y fexibilidad prácticamente instantáneas;
(3) prestación casi instantánea;
(4) recursos compartidos (hardware, base de datos, memoria, etc.);
(5) servicio bajo demanda que suele incluir un sistema de facturación de pago por uso;
(6) gestión programática (por ejemplo, mediante la API del WS)”
Libro: “Handbook of Cloud Computing”
“La computación en la nube se puede defnir como un nuevo estilo de computación en el que se proporcionan
recursos dinámicamente escalables y, a menudo, virtualizados como servicios a través de Internet.”

62
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Modelo de Cloud NIST

Broad
Rapid Measured On-Demand 5 características esenciales
Network
Elasticity Service Self-Service
Access

Resource Pooling

Software As A Infraestructure 3 modelos de servicio


Platform As A
Service As A Service
Service (PaaS)
(SaaS) (SaaS)

4 modelos de despliegue
Publi Privat Hibry Communi
c e d ty

Características esenciales:
On-demand self-service: Un consumidor puede aprovisionar unilateral y automáticamente recursos de
computación según necesite, sin requerir interacción humana con cada proveedor de servicios.
Broad network access: Las capacidades están accesibles en la red a través de mecanismos estándar que
permiten el acceso desde plataformas cliente heterogéneas (dispositivos móviles, estaciones de trabajo, ...)
Resource pooling: Los recursos de computación de los proveedores son agrupados para servir a múltiples
clientes usando un modelo con diferentes recursos (fsicos o virtuales) que se asignan y reasignan
dinámicamente en función de la demanda.
Existe en esta asignación una cierta independencia de la localización, en el sentido de que el cliente no conoce
la ubicación exacta de los recursos, pero si puede especifcar sus preferencias a un nivel más alto de
abstracción
Rapid elasticity: Las capacidades son aprovisionadas y liberadas rápida y elásticamente (y en algunos casos
automáticamente) de acuerdo a la demanda. Desde el punto de vista del consumidor, las capacidades
disponibles son aparentemente ilimitadas y pueden aprovisionarse en cualquier momento y cantidad.
Measured Service: Los sistemas cloud controlan y optimizan automáticamente el uso de los recursos
proporcionando alguna capacidad de medición (habitualmente pay-per use o charge-per-use) al nivel de
abstracción adecuado al tipo de servicio (almacenamiento, procesamiento, ancho de banda, ...).
El uso de los recursos puede ser monitorizado, controlado e informado, ofreciendo transparencia tanto a
usuarios como a proveedores del servicio.

Modelos de servicio

63
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Infrastructure as a Service (IaaS)

El consumidor aprovisiona recursos de computación (p.e. CPU, almacenamiento, red) en los que ejecuta su
sofware (incluidas aplicaciones y sistemas operativos).
El consumidor no controla la infraestructura cloud subyacente pero si los sistemas operativos, el
almacenamiento y las aplicaciones desplegadas y, posiblemente, tiene un control limitado sobre la red de
comunicaciones (p.e. frewalls)
Beneficios IaaS
Los clientes se liberan de la gestión y mantenimiento de la infraestructura TIC y pueden concentrarse en las
actividades que dan valor a su negocio.
La escalabilidad permite que los recursos utilizados se adapten dinámicamente a la demanda real.
Se mejora la calidad de servicio: fabilidad, seguridad, tolerancia a fallos.
La provisión rápida de recursos sin la necesidad de una inversión inicial, reduce los tiempos (y costos) de puesta
en marcha de un negocio.
La eliminación de la infraestructura propia y el uso de recursos alojados en datacenters más efcientes porta
benefcios ecológicos (Green IT).

Platform as a Service (PaaS)

El consumidor despliega aplicaciones tanto propias como adquiridas, desarrolladas usando entornos de
programación soportados por el proveedor, en la infraestructura cloud de este.
El consumidor no controla la infraestructura cloud subyacente pero si las aplicaciones desplegadas y,
posiblemente, la confguración del entorno de despliegue

Tipos de ofertas PaaS – según ‘la apertura’ del proceso de desarrollo

Desarrollo de extensiones SaaS.

Algunos proveedores SaaS proporcionan APIs, herramientas de desarrollo y middleware con el que otros
desarrolladores pueden crear aplicaciones o extensiones que amplían la funcionalidad base de su oferta.
Ejemplos: Salesforce (force.com), Facebook, etcétera.

Plataformas propietarias

64
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Algunos proveedores IaaS o de entornos de desarrollo y ejecución proporcionan APIs, herramientas y


middleware para brindar una oferta PaaS asociada a su tecnología.
En esta categoría puede distinguirse entre los proveedores que se centran sólo en el despliegue de las
aplicaciones y los que dan soporte a todo el proceso de desarrollo.
• Ejemplos: Amazon Elastic BeansTalk (despliegue de aplicaciones en Amazon EC2), Microsof Azure
(plataforma .NET), Google AppEngine (APIs propias).
• Entornos que facilitan el proceso de desarrollo cooperativo, el despliegue rápido y la gestión del ciclo de vida
de las aplicaciones.
• Los equipos de desarrollo se liberan de gestionar el hardware y las confguraciones de los entornos de
desarrollo y despliegue.
• Se eliminan o reducen las fricciones entre los equipos de desarrollo y los administradores de sistemas
(DevOps).
• Facilita la puesta en práctica de metodologías ágiles de desarrollo (se acortan los tiempos entre versiones
estables).
• Facilita sincronización entre diferentes equipos de desarrollo.
• El desarrollo, las pruebas y el despliegue se hacen en el mismo entorno.
• Permite el roll out y roll back rápido, lo que facilita estrategias de mejora continua de la aplicación (la eterna
versión beta).
• Se reducen los costos de inversión necesarios, que pasan a ser de pago por uso (vale lo dicho para IaaS).

Software as a Service (SaaS)

El consumidor utiliza las aplicaciones del proveedor que son ejecutadas en una infraestructura cloud.
El consumidor no controla ni la infraestructura cloud subyacente ni las capacidades de la aplicación (pero
posiblemente si puede controlar la confguración personal).
Benefcios:
Costos asociados:
• No hay costos de instalación (licencias) o mantenimiento (actualizaciones).
• Los costos pasan a ser de operación en función del uso Gestión TI.
• El personal informático se libera de tener que atender problemas del sofware de terceros y de gestionar la
infraestructura necesaria para ejecutarlos.
• Se elimina la necesidad de tener contratos de asistencia.
Ubicuidad
• Accesibles a través de Internet desde diferentes tipos de dispositivos.
• Reduce la necesidad de espacio fsico (en las instalaciones de la empresa).
Integración
• Los proveedores proporcionan opciones de personalización para adaptarse a las necesidades de cada cliente
(p.e. Gmail).
• Algunos proporcionan APIs que permiten integrar la funcionalidad de la aplicación SaaS en las aplicaciones
propietarias (p.e. ERP, CRM).

Formas de despliegue de nube: privado y público

Cloud público

• Infraestructura para uso del público o empresas en general.


• Propiedad del proveedor (p.e. empresa, universidad, organismo estatal, ...).
• Estos clouds tienen una interface para la gestión interna de la infraestructura virtualizada y exponen otra
externa para la gestión de los recursos de los clientes.

Cloud privado

• Para uso exclusivo de una organización con múltiples clientes (p.e. departamentos de una empresa).
• Puede ser de su propiedad (on-premise), alquilarlo (of-premise) o una combinación de ambas.
• Permite una gestión fexible y ágil de los recursos de la organización.
65
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

• Los principales proveedores públicos de IaaS comenzaron creando clouds privados para mejorar la gestión de
sus datacenters.

Cloud híbrido

• Combinación de cloud privado y público.


• Permite gestionar los picos de carga obteniendo recursos del cloud público.
• El uso de un cloud público es totalmente transparente para los usuarios del cloud privado.

Algunas precauciones al contratar servicio cloud


Cuestiones básicas
Condiciones del servicio: ¿Tiene servicio de soporte y atención al usuario? ¿Existe un contrato de garanta? ¿Hay
indemnizaciones en caso de interrupción del servicio? ¿Proporciona herramientas of-line?
Seguridad: ¿Cumple con estándares de seguridad? ¿Posee alguna certifcación internacional? ¿Cumple con la
legislación vigente (LOPD)? ¿Como garantiza la privacidad? ¿Y la autenticación y el control de acceso? ¿Que
responsabilidades asume si se pierden los datos?
Portabilidad: ¿Qué estándares implementa para garantizar la portabilidad? ¿Es posible realizar una migración de
los datos?
Si es posible, negociar el SLA (Service Level Agreement).
La mayoría de proveedores tienen para usuarios y PYMES un SLA estándar, sin posibilidad de negociación.
Estos SLAs con frecuencia tienen clausulas de exención de responsabilidad, omiten información importante e
incluso contienen clausulas abusivas o ilegales dependiendo de la legislación aplicable (EEUU o UE).
Estar preparado para lo inesperado: Ante la dimensión de los proveedores, los fallos masivos son más probables.

66
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Tema 4 Almacenamiento

Almacenamiento y Gestón de Datos: soluciones SAN y soluciones NAS.


Sistema Tolerante a Fallos
Se entiende por Sistema tolerante a fallos cuando el sistema 'está diseñado y construido de forma que opera
correctamente incluso en la presencia de errores o partes dañadas'.
Debemos entonces conseguir/construir un sistema “replicado” y “distribuido”.
• La replicación o duplicación, se aplica a tantos niveles como sea posible desde un punto de vista
presupuestario; es decir poseer tantos servidores de aplicaciones, switches de conexión de red, dispositivos de
almacenamiento masivo y cables como sea posible.
• Es una buena práctica que los dispositivos replicados en los distintos niveles sean distribuidos a lo largo de un
edifcio, campus y/o ciudad.
Puede que el sistema sea construido a nuestra medida, integrando estrategias de diversas tecnologías inclusive
modifcándolos cuando sea posible.
El objetivo principal de una computadora es crear, manipular, almacenar y retornar datos.
El sistema de archivos es uno de los actores que provee la funcionalidad necesaria para dar soporte a esas
tareas.
Un sistema de archivos se encarga de organizar, almacenar, retornar y manejar información en un dispositivo
de almacenamiento permanente como ser un disco.
Los sistemas de archivos forman parte integral de cualquier sistema operativo.
Tipos de sistema de archivos:
Estructurados por registro: se toma el disco como una unidad completa, estructurándole como un registro. Este
sistema coloca todas las escrituras en un búfer en memoria y periódicamente se escriben en el disco en un
solo segmento al fnal del registro. Ejemplo LFS (Log-structured File system).
Por bitácora: llevar un registro de lo que va a realizar el sistema de archivos antes de hacerlo, de manera que si
ocurre una falla antes, se puedan realizar las tareas planeadas. Ejemplos tpicos son el sistema de archivos
NTFS de Microsof, así como los sistemas EXT3 y ReiserFs de Linux.
Virtuales: abstraer la parte del sistema de archivos que es común para todos los sistemas de archivos y poner
ese código en una capa separada que sirva de interfaz entre el sistema operativo y el sistema de archivos para
administrar los datos. Todas las llamadas al sistema operativo relacionadas con archivos pasan primero por el
sistema de archivos virtual para ser procesados. Estas llamadas, son las llamadas de POSIX estándar, tales como
open, read, write, seek, etc.
Posteriormente una vez procesadas, se llama a la rutina correspondiente en el sistema operativo.
Tolerancia a fallos –niveles
Nivel de Aplicación y Servidor
Con la confguración de dos o más servidores, las solicitudes de proceso se distribuyen equitativamente entre
sus nodos equilibrando la carga, permite que un servidor de recuperación se encargue de las operaciones de un
servidor principal en caso de fallo.
Nivel de Red
Las conexiones se basan en trayectorias: HBA + Cable de Fibra Óptica + Puerto Switch. Un servidor puede
tener más de un enlace. Con una si la conexión se interrumpe, no hay servicio. Las trayectorias múltiples son
una solución para estos casos.
Nivel de Almacenamiento

67
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

La replicación de almacenamiento mantiene el acceso a los datos, incluso si falla todo el sistema de
almacenamiento, gracias a que los copia continuamente en un espacio secundario remoto.
Nivel de Recursos Humanos
El funcionamiento de los demás niveles está determinado por el plantel de recursos humanos disponible.
Poseer un plantel y mantenerlo en el tiempo es una tarea que requiere atención. Aquí la estrategia global de la
organización juega sus fchas.
Tolerancia a fallos–Nivel de Aplicación
La aplicación informática corre sobre un sistema operativo ‘servidor’, instalado sobre un Host (Hardware)
propio o alquilado y localizado en la red local o en Internet. Una aplicación en ‘alta disponibilidad’
necesariamente debe correr sobre dos hosts distintos, sean virtualizados o fsicos.
Un HOST está compuesto por Hardware y Sofware con características específcas:
• Chasis con ventilación redundante, de fácil acceso a sus componentes y en caliente.
• Dispositivos como memorias, discos rígidos, ventiladores, NIC’s se deben poder instalar/desinstalar de
manera sencilla.

Sofware: el sistema operativo elegido:


Debe soportar tecnologías de recambio de dispositivos en caliente.
Los drivers escritos para los dispositivos deben ser actualizados en la medida en que los fabricantes lo liberen.
Los parches del sistema operativo, deben ser aplicados cuando el fabricante así lo indique.
Rack servidores a la manera tradicional
Rack servidores a la manera tradicional, con redundancia.

Solución Virtualizada: Host virtualizado con redundancia.


Dos racks con servidores son reemplazados por dos Host con solución virtualizada.
• Acceden a las mismas máquinas virtuales almacenadas en storage compartido.
• Los archivos de MV los provee el ‘disco de red’ o Storage compartido.
• Cada host accede a las MV en simultáneo. En caso de apagarse el HOST principal, la confguración de alta
disponibilidad asigna al otro HOST el control y funcionamiento.
La redundancia se da por duplicación de recursos:
• Hardware: 2 hosts fsicos iguales en cuanto a capacidades.
• Sofware: misma solución de virtualización.
La interconexión de los Hosts y el Storage:
• Mediante conexión tipo Backbone, de alta capacidad y velocidad.
• De doble camino.

68
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Almacenamiento
Backbone Fibre Channel – Infniband
Ethernet 10 GB
Máquinas Virtuales Máquinas Virtuales
App Ap Ap Ap Ap Ap
p p p p p
OS OS OS OS OS OS

Hipervisor Hipervisor

Clúster
Arquitecturas de Almacenamiento y Sistemas de Archivos

NAS: Network Atached


DAS: Disk Atached Storage SAN: Storage Area Network
Strorage

Aplicación Aplicación Aplicación

Red

Sistemas de Archivos Sistemas de Archivos Sistemas de Archivos

Red

SATA SATA SATA


SAS SAS SAS
FCh FCh FCh

DAS (DIRECT ATTACHED STORAGE)e Método tradicional de almacenamiento y el más sencillo. Consiste en
conectar el dispositivo de almacenamiento directamente al servidor o estación de trabajo, el controlador de

69
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

discos se encuentra fsicamente conectado al BUS del sistema comunicado con el CPU y la memoria. Los
protocolos de conexión utilizados son SCSI, SAS, SATA, IDE, es decir que apuntan a dispositivos fsicamente
conectados al chasis y un ancho de banda acotado. El largo del conector no sobrepasa los 30/50 centmetros.
Los drivers utilizados por el sistema operativo, suponen la lectura y escritura en dispositivos ‘cercanos’. Tanto
en DAS como en SAN, las aplicaciones de usuario requieren archivos al sistema de archivos en forma directa.
La diferencia entre ambas tecnologías reside en la manera en la que dicho sistema de fcheros obtiene los datos
requeridos del almacenamiento. Bajo costo de despliegue y mantenimiento. Baja posibilidad de crecimiento y
compartición. Suele ser el primer paso antes de pasar a una solución NAS.
La arquitectura de almacenamiento DAS (Direct Atached Storage), presenta muchos inconvenientes, como la
dispersión del almacenamiento que implica una difcultad en la gestión de los Backups, una relativamente baja
tolerancia a fallos (sólo posible a través de soluciones RAID), y un alto costo total de propiedad debido a las
difcultades de mantenimiento.

SAN (STORAGE AREA NETWORK). Una red de área de almacenamiento (SAN) es una red de datos de alto
rendimiento con el objetivo principal de la transferencia de datos entre sistemas informáticos y dispositivos de
almacenamiento y entre múltiples dispositivos de almacenamiento.
Una SAN se compone de:
• Una infraestructura de comunicaciones, para el transporte de bloques de datos.
• Sofware de gestión, que vincula dispositivos de almacenamiento con los sistemas informáticos.
Uno de los objetivos de una red SAN es disminuir la latencia en el acceso a los datos. Permite la replicación de
datos sincrónica a nivel de bloque (no archivos). Tiene una infraestructura de red de alta velocidad dedicada
sólo para Almacenamiento y Backup, optimizada para mover grandes cantidades de datos, y consistente en
múltiples recursos de almacenamiento geográfcamente distribuidos.
Servidores
• Se conectan a una SAN diversos servidores de aplicaciones de distintos proveedores que a su vez ejecutan
distintos sistemas operativos.
Infraestructura SAN - Conexionado
• La infraestructura (o “tejido”) SAN abarca los componentes de hardware, cableado y sofware que permiten
trasladar los datos a una SAN y dentro de ella.

70
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

• Los adaptadores HBA y los conmutadores Fibre Channel, Infniband o Ethernet 10GB conforman la base, que
permite a los servidores y los otros dispositivos de almacenamiento conectarse entre sí.

Almacenamiento en disco
• Los chasis de discos proporcionan almacenamiento dedicado para servidores de aplicaciones.
• Se ofrecen niveles altos de tolerancia a fallos, un diseño modular para aumentar la capacidad y el
rendimiento.
• Acceso compartido para diversos servidores que ejecutan sistemas operativos diferentes.

Software de gestón

• Ayuda a confgurar y optimizar cada uno de los componentes por separado a fn de obtener la mejor
confguración.
• Se puede supervisar la red para detectar cuellos de botella y áreas de posibles fallos.
• Automatiza copia de seguridad de datos, y proporciona estadísticas de uso que permiten distribuir la carga de
los usuarios de la SAN.

Ventajas
Los benefcios o ventajas de las redes de almacenamiento SAN, son evidentes: mayor velocidad de acceso a
datos, menor tiempo de recuperación ante desastres (los tiempos de Backup y Restore se minimizan, y se
añaden los clonados y Snapshots de LUN), escalabilidad (siempre es posible añadir más bandejas de discos, o
incluso, más Cabinas de Discos y Switches), y sobre todo, una gestión centralizada, compartida y concurrente
del almacenamiento (indiferentemente de la plataforma y sistema operativo de los Host). Además, existen
efectos colaterales, como por ejemplo, que la introducción de una infraestructura de almacenamiento SAN en
una empresa, liberará de bastante tráfco de red LAN.
Desventajas
Las redes de almacenamiento SAN también tienen sus inconvenientes, principalmente su coste (el precio del
Gigabyte es muy elevado), y también la existencia de ciertas limitaciones para integrar soluciones y/o
dispositivos de diferentes fabricantes. Una de la principales alternativas para la reducción de costes de la redes
de almacenamiento SAN es la utilización de soluciones de almacenamiento SAN basadas en iSCSI, que
funcionan con tarjetas Ethernet y sobre los Switches Ethernet de LAN. El hecho aquí, es que con las actuales
redes Ethernet de 10Gbps, el cuello de botella se transfere de la red al acceso a disco.
Soluciones propuestas para modelo SAN
FIBRE CHANNEL
• Despliegue protocolo IP (capa 3) sobre Fibre Channel Protocol (FCP) (capa 2).

71
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

ETHERNET
• Despliegue protocolo iSCSI – iSCSI sobre IP (capa3) sobre tramas Ethernet (capa 2).
Despliegue para ambos casos:
• El Storage ofrece un espacio de almacenamiento en ‘bloque’ al sistema operativo cliente.
• El sistema de archivos del sistema operativo cliente da formato al bloque, y lo controla como si lo tuviera
conectado en forma local.
NAS (NETWORK ATTACHED STORAGE)e Hacen uso de un Sistema Operativo de Red optimizado para dar
acceso a archivos, montado sobre protocolos CIFS, NFS, FTP o TFTP. Tiene un esquema basado en archivos
por lo que el cliente solicita el archivo completo al servidor y lo maneja localmente, están por ello orientados a
información almacenada en archivos de pequeño tamaño y gran cantidad. Útil para proporcionar
almacenamiento centralizado a computadoras clientes en entornos con grandes cantidades de datos. Los
servicios se habilitan fácilmente, poseen balance de carga, tolerancia a fallos y servidor web para proveer
servicios de almacenamiento. Merado de consumo donde existen grandes cantidades de datos multimedia. La
red de conexión de datos es única, se comparte el Switch. Por la red circulan paquetes generados por usuarios,
por los servidores de aplicaciones y el Storage. Bajo costo de despliegue y mantenimiento. Posibilidad de
crecimiento. Primer paso antes de pasarse a una SAN.
Ventajas
Los principales benefcios de las Arquitecturas de Almacenamiento NAS, es que proporcionan un mejor TCO
(Total Cost of Ownship), resultando una arquitectura fácilmente escalable, capaz de ofrecer una alta
disponibilidad. En defnitiva, es quizás la mejor forma de ofrecer compartición e intercambio de fcheros en un
entorno heterogéneo.
Desventajas
El problema de esta arquitectura de almacenamiento, es que la red LAN puede actuar de cuello de botella.
Actualmente, sigue utilizándose masivamente las arquitecturas NAS (ej: tpicas Carpetas Compartidas o Shared
Folder, que se utilizan en las empresas para el almacenamiento de fcheros), aunque no a todas las aplicaciones
le resulte igual de útil (ej: los grandes servidores de base de datos, preferirán almacenamiento SAN).
Soluciones propuestas

ETHERNET
• Despliegue protocolo iSCSI – iSCSI sobre IP (capa3) sobre tramas Ethernet (capa 2).

Despliegue:

• El Storage ofrece un directorio o carpeta al sistema operativo cliente, que puede o no, ser compartido por
múltiples consumidores.
• Sobre una Red IP Privada, comparte el recurso a un Servidor de Archivos en forma de bloque.
• Sobre una Red IP Pública, comparte el recurso a múltiples clientes en forma de archivos y carpetas. • El
Storage ofrece diferentes modalidades de transporte: NFS, FTP, CIFS; que se despliegan como ‘protocolos’ de
aplicación y transporte.
• Storage difunde un servicio FTP, los clientes deben consumirlo con aplicaciones FTP cliente.
• Storage difunde un servicio NFS, los clientes deben consumirlo con aplicaciones NFS cliente. El nuevo
sistema de archivos es conectado como recurso remoto.
• Storage difunde un servicio CIFS, los clientes Windows consumen el servicio con su Explorador, conectando
el recurso a una unidad local (H: S: T:)
El sistema de archivos del sistema operativo cliente manipula los archivos ‘remotos’ como si lo tuviera
conectado en forma local, sin embargo el control lo detenta el servicio remoto.

Diferencias
La diferencia entre NAS y SAN, principalmente es que un Host o Servidor accede a un disco NAS a través de la
red LAN, MAN o WAN (ej: carpeta compartida), siendo el Sistema Operativo consciente de que se está
72
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

accediendo a un recurso (el disco o mejor dicho, el sistema de fcheros) remoto. Sin embargo, un Host o
Servidor accede a un disco SAN como si fuera un disco local (es decir, un disco DAS), de forma transparente
para el Sistema Operativo, siendo las tarjetas HBA y sus drivers quienes se preocupen de que dicho acceso a la
SAN sea así de transparente.
También se dice, que NAS se encuentra entre el Servidor de Aplicaciones y el Sistema de Ficheros, mientras
que SAN se encuentra entre el Sistema de fcheros y el Almacenamiento Físico.
Dispositivos de Almacenamiento –Caracterización
Caso de Estudio:
El sistema operativo cliente requiere ‘espacio adicional’ donde alojar archivos para su proceso
Manera tradicional:
• Incorporar un disco rígido adicional al chasis del equipo.
• ¿Costo? ¿Integridad con los demás equipos? ¿Seguridad?
Manera corporativa:
• Conectar a una carpeta compartida en la red local:
• FTP, requiere usuario y contraseña para el acceso.
• CIFS, SAMBA, requiere usuario y contraseña, en muchos casos no es necesario
• El sistema de Archivos que controla el uso del espacio, es Remoto a la aplicación que lo va a consumir.
• La protección de datos, es efectuada en el dispositivo de almacenamiento, es Remoto al cliente que lo
consume.
Requerimiento 2
El sistema operativo requiere espacio en disco para el despliegue de servicios, por ejemplo: una nueva versión
de Base de Datos:
Manera tradicional:
• Incorporar un disco rígido adicional al chasis del equipo
• ¿Costo? ¿Integridad con los demás equipos? ¿Seguridad?
Conectar por Red, a un dispositivo de almacenamiento en red local o remota:
• Sistemas Windows, se utiliza protocolo iSCSI, el bloque se reconoce como partición de disco
• Sistemas Linux, se utiliza protocolo NFS, el bloque se reconoce como partición de disco
• El sistema de Archivos que controla el uso del espacio, es Local a la aplicación que lo va a consumir.
• La protección de datos, es efectuada en el dispositivo de almacenamiento, es Remoto al cliente.

Caracterización de dispositvos Storagee protocolos de comunicación y transporte: el protocolo iSCSIe


protocolo/servicio NFS.

ISCSI-Introducción
• Es un protocolo para la transferencia de datos a altas velocidades.
• Utiliza una arquitectura Cliente/Servidor, con medidas de autenticación y encriptación de datos.
• El protocolo utiliza TCP/IP para sus transferencias de datos. Al contrario que otros protocolos de red
diseñados para almacenamiento, como por ejemplo el canal de fbra (Fibre Channel), solamente requiere una
interfaz Ethernet (o cualquier otra red compatible TCP/IP) para funcionar.

73
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

• Permite una solución de almacenamiento centralizada de bajo costo de implementación, sin la necesidad de
realizar inversiones demasiado costosas como el caso de Fibre Channel.
¿Qué es iSCSI?
Modelo Cliente / Servidor:
• En SCSI se defnen:
• Initiators (clientes)
• Targets (servidores).
• Un Target está compuesto por unidades lógicas (LU) que son las que ejecutan los comandos.
• Clientes y servidores usan estructuras de comunicación llamadas CDB (command descriptor block) para el
intercambio de mensajes.
• Un comando SCSI o un grupo de ellos se denomina Task.
• Los comandos se ejecutan en dos fases, en la primera los datos se intercambian entre clientes y servidores y
en la segunda el servidor informa del estado de la operación.
Funcionamiento iSCSI
• El driver SCSI construye un CDB con las peticiones realizadas por la aplicación y los envía a la capa de
transporte iSCSI. El driver SCSI también recibe CDBs de la capa iSCSI y envia los datos a la capa de aplicación.
• La capa de transporte iSCSI encapsula los CDBs en PDUs (iSCSI Protocol Data Unit) y los envía a la capa de
transporte TCP.
• En una lectura la capa iSCSI extrae los CDBs de los PDUs que recibe de la capa TCP y envía los CDBs a la
capa genérica SCSI.
Cada Initiator y cada Target defne un identifcador o nombre único (IQN).
Un ejemplo de IQN iSCSI podría ser iscsi.com.acme.sn.8675309.
El nombre iSCSI está compuesto por tres partes:
• Un especifcador de tipo,
• La autoridad encargada de dar los nombres.
• Un identifcador único dado por esta autoridad.

La combinación de una dirección IP y un puerto TCP, genera una dirección única de red para un único
dispositivo iSCSI.
Un nodo tiene un nombre iSCSI y una dirección, lo que hace que si el nodo es cambiado de lugar y por tanto
también su dirección, sea fácil encontrarlo gracias a su nombre que no cambia.
Funcionamiento, sesión y autentcación
• El protocolo iSCSI establece sesiones de comunicación entre initiators y targets, así como métodos para que
se autentifquen entre ellos.
• Una sesión iSCSI puede contener una o más conexiones TCP y suministra métodos de recuperación si la
conexión falla
• Manejo de Errores: En iSCSI initiators y targets deben tener la capacidad de mantener un bufer con
comandos y respuestas hasta que estos sean reconocidos
• Los dispositivos iSCSI son capaces de reconstruir selectivamente los PDUs perdidos o corruptos para su
retransmisión.

74
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Ventajas en el uso de iSCSI


• Los clientes pueden vincular múltiples dispositivos de almacenamiento a múltiples servidores, permitiendo
una mejor utilización de los recursos, facilidad de manejo del almacenamiento y una expansión más simple de la
infraestructura de almacenamiento.
• Las operaciones de copia de seguridad que antes se limitaban a redes IP LAN tradicionales a nivel de
archivos, se pueden realizar ahora a través de redes de almacenamiento IP a nivel de bloques.
• Menores costos de adquisición de SAN. Los componentes de SAN FC normalmente son mucho más costosos
que los componentes estándares de Ethernet.
Desventajas
• Los iniciadores de la iSCSI permiten que los puertos de red en sus servidores vean los dispositivos SCSI desde
su SAN iSCSI.
• La sobrecarga de la CPU está asociada con esto último, a menos que esté usando los HBA de la iSCSI, que
pueden proporcionar benefcios adicionales como el arranque desde su SAN iSCSI.
Servicio NFS, sistema de archivo en red
• Su función en una red es permitir que un equipo GNU/Linux pueda montar y trabajar con un sistema de
archivos de otro equipo de la red como si fuera local.
• Permite a los administradores de sistemas consolidar recursos de almacenamiento en servidores
centralizados en la red.
• Hay tres versiones de NFS actualmente en uso.
• La versión 2 de NFS (NFSv2), es la más antigua y está ampliamente soportada por muchos sistemas
operativos.
• La versión 3 de NFS (NFSv3) tiene más características, incluye manejo de archivos de tamaño variable y más
facilidades de informes de errores
• La versión 4 (NFSv4) incluye seguridad Kerberos, trabaja con frewalls, permite ACLs y utiliza operaciones
con descripción del estado.

75
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Se puede decir que es un sistema de archivos específco para Sistemas Operativos Unix / Linux.
• NFS utiliza el Protocolo de control de transmisiones (TCP) sobre red IP.
• NFSv2 y NFSv3 pueden utilizar el Protocolo de datagrama de usuarios (UDP) sobre red IP para proporcionar
conexiones de red sin supervisión (stateless) entre el cliente y el servidor. Esto permite minimizar el tráfco de
red. Sin embargo, debido a que UDP es sin supervisión, si el servidor se cae de forma inesperada, los clientes
UDP continúan saturando la red con peticiones para el servidor. Por esta razón, TCP es el protocolo preferido
cuando se conecte a un servidor NFS.
• NFS requiere autentifcación cuando el cliente intenta montar un recurso compartido NFS. Para limitar el
acceso al servicio NFS, se utilizan TCP wrappers.
Los TCP wrappers leen los archivos /etc/hosts.allow y /etc/hosts.deny para determinar si a un cliente
particular o red tiene acceso o no al servicio NFS.
• Después de que al cliente se le permite acceso gracias a un TCP wrapper, el servidor NFS recurre a su
archivo de confguración, /etc/exports, para determinar si el cliente tiene sufcientes privilegios para acceder a
los sistemas de archivos exportados. Una vez otorgado el acceso, todas las operaciones de archivos y de
directorios están disponibles para el usuario.
• NFSv2 o NFSv3 no son compatibles con autenticación Kerberos, los privilegios de montaje de NFS son
otorgados al host cliente, no al usuario. Por lo tanto, se puede acceder a los sistemas de archivos exportados
por cualquier usuario en un host cliente con permisos de acceso. Cuando se confguran las unidades
compartidas NFS, prestar atención a cuáles hosts obtienen permisos de lectura/escritura (rw).
¿Cuando es necesario NFS?
• Compartir los mismos archivos a múltiples usuarios y sistemas, con permiso de lectura y al que los alumnos
podrán acceder libremente.
• Cuando se está realizando un trabajo y se deben compartir una serie de archivos para trabajar sobre ellos.
NFS permite crear un directorio en el servidor y exportar a todas las máquinas/usuarios específcos que
colaboran en el trabajo.
• Cuando se hace necesario controlar los accesos de los usuarios, la información almacenada en sus directorios
de trabajo, se montan en una carpeta /home central. El sistema monta la subcarpeta, en el equipo desde donde
el usuario hace login.
• Cuando los equipos cliente posee espacio en disco limitado. Es posible extender el espacio de usuario,
conectando una partición adicional donde alojar archivos para su proceso mientras dure el login.

Conceptos de Multpathe Failovere Clustering


Alta disponibilidad en almacenamiento de datos – Arquitectura

76
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Arquitectura convencional
• Target: sistemas de almacenamiento y clústers de almacenamiento de destino
• Redes: Infraestructura de red
• Iniciadores: servidores y máquinas virtuales que acceden al almacenamiento compartido a través de la red
Objetivo: aprovechar el protocolo iSCSI, estándar de la industria, montado sobre Ethernet, para proporcionar a
los servidores de aplicaciones, de almacenamiento basado en bloques.

77
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Multpathing I/O (MPIO)


• Para los servidores, multipathing hace uso de
adaptadores fsicos redundantes para crear rutas
lógicas entre el ‘Application Server’ y los
dispositivos de ‘Storage’.
• Cada tarjeta de interfaz de red o HBA debe estar
conectada a la red de almacenamiento en modo
‘elástico’ para proporcionar 'acceso continuo' al
Storage en caso de fallo de, alguna interfaz de red,
algún cable, alguna desconexión fsica no prevista.
IRF Trunk.
• Nombre técnico provisto por HP, para soportar
la creación de un único 'switch lógico' a través de
múltiples switches fsicos en alta disponibilidad o
backbone, ampliando benefcios de agregación de
enlaces, a través de múltiples confguraciones del
switch.
• Protocolos de agregación de enlaces (LACP;
802.3ad) requiere la confguración de grupo de
puertos en TRUNK en el switch fsico para que
coincida con los bonds en el almacenamiento.

Tipos de Bonding.
• ALB (adaptative load balancing)
• LACP (Link aggregation IEEE 802.3ad)
• Activo/Pasivo

Tecnologías de almacenamiento y de redes para


aumentar la capacidad de recuperación. HP Lefhand

78
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

NIVEL DE RED –Clúster multisitio –ejemplo HP

Con HP StoreVirtual, los Clústeres multi-sitio permiten la replicación de datos sincrónicos a nivel de bloque
entre los sitios que utilizan la tecnología Network RAID.

Requerimientos:
• Diseñar un sistema de almacenamiento compartido en red.
• Diseñar un sistema de almacenamiento compartido en red, con alta disponibilidad en el acceso al storage.
• Diseñar un sistema de almacenamiento compartido en red, con alta disponibilidad en el acceso al storage y
duplicación de discos.

79
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Tema 5: Capa de Transporte y Red


Interconexión de redes LAN y WAN. El modelo de Internet.
La capa de transporte brinda servicio a los procesos de la capa de Aplicación.
Encapsula datos en TPDU’s sobre servicios de la capa de red.
La “entidad de transporte”, se encuentra en el núcleo del sistema operativo, en procesos independientes, en un
paquete de biblioteca o embebida en el sofware de la tarjeta de red.
Los servicios de transporte pueden ser Con conexión o Sin Conexión. En el primer caso se establecen tres
partes: la conexión, la transferencia y la liberación. En el segundo se tratan a las unidades de información de
forma individual.

Host 1 Host 2

Interface Aplicación /Transporte


Capa de Aplicación y Transporte - Capa de Aplicación y Transporte

Capa de Red
TPDU
Entidad de Transporte
Protocolo de Entidad de Transporte
Dirección de Transporte transporte

Interface
Dirección de Red Transporte/Red

Capa de Red Capa de Red

Servicios y Protocolos

 La capa de red: la comunicación lógica entre hosts.


 La capa de transporte: la comunicación lógica entre procesos de diferentes hosts, se apoyan sobre
servicios de la capa de red.
 Los protocolos de transporte se ejecuta en sistemas fnales.
 El que envía: segmenta mensajes de aplicaciones en TPDU’s y se los pasa a la capa de red.
 El que recibe: re-ensambla los TPDU’s en mensajes y se los presenta a las aplicaciones de acuerdo al
número de puerto.

80
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Capa Aplicación

Capa de Red
T
Capa de Enlace de
r
Datos
a
Capa Física n
s
.
E
n
d

T
O

E
n
d

Capa Aplicación

Capa de Red
Capa de Enlace de
Datos
Capa Física

Gestiona llamadas (‘Comandos’) al Servicio de Transporte.


Cada llamada corresponde exactamente a un procedimiento de biblioteca que ejecuta la primitiva.
Primitiva TPDU Generada Signifcado
LISTEN (Escuchar) (Ninguna) Se bloquea hasta que algún
proceso intenta el contacto.
CONNECT (Conectar) SOLICITUD DE CONEXIÓN Intenta activamente establecer
una conexión.
SEND (Enviar) DATOS Envía información.
RECEIVE (Recibir) (Ninguna) Se bloquea hasta que llega una
TPDU de DATOS.
DISCONNECT (Desconectar) SOLICITUD DESCONEXIÓN Este lado quiere liberar la
conexión.

81
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Establecen mecanismos para:


 Establecer conexiones entre nodos.
 Liberar sus conexiones.
 Multiplexación.
 Control de fujo.
 Recuperación ante caídas.
El nivel de transporte es el cuarto nivel del modelo OSI encargado de la transferencia libre de errores de los
datos entre el emisor y el receptor, aunque no estén directamente conectados, así como de mantener el fujo
de la red.
Proporciona un control de alto nivel para la transferencia de datos.
Es capaz de detectar y eliminar paquetes duplicados.
Velar por el sincronismo en la información y coordinar el reenvío de un paquete si este no ha llegado
correctamente a su destino.
Puede asignar un número único de secuencia al paquete que va a ser transmitido, para que este sea revisado
en el destino por el otro nivel de transporte.
Multplexado: Host 1 Demultplexado en el Host 3
Toma múltiple de datos. Los datos Entrega segmentos a los zócalos
son envueltos con ‘cabeceras’ que correspondientes.
luego se utilizarán en la
demultiplexación

DEMULTIPLEXACIÓN, ¿cómo trabaja?


– El host recibe datagramas IP.
– Cada datagrama tiene una dirección IP de origen, una dirección IP de destino.
– Cada datagrama lleva un segmento de capa de transporte.
– Cada segmento tiene origen, número de puerto de destino.
– El host utiliza direcciones IP y números de puerto para asegurar la entrega al socket adecuado.
Demux Sin Conexión:
El Socket UDP es identifcado por: (dirección IP destino, número de puerto destino)
La creación de sockets:
DatagramSocket mySocket1 = new DatagramSocket(12534);
DatagramSocket mySocket2 = new DatagramSocket(12535);
Cuando un host recibe un segmento UDP comprueba el número de puerto de destino en el segmento.
Dirige el segmento UDP al socket con ese número de puerto.
Los Datagramas IP con diferentes direcciones IP origen y/o números de puertos de origen, son dirigidos al
mismo socket.
Demultiplexado orientado a Conexión.
El Socket TCP se identifca por 4-tupla:
 Dirección IP de origen.
 Número de puerto origen.
 Dirección IP destino.
82
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

 Número de puerto destino.


El host que recibe el segmento utiliza los cuatro valores para direccionar la carga al zócalo correspondiente.
El Host servidor puede soportar muchos sockets TCP simultáneos: cada socket es identifcado por su propia 4-
tupla.
Los servidores Web tienen sockets diferentes para cada cliente que se conecta.
Los servidores HTTP no persistentes tendrán diferentes socket para cada solicitud.

Servicio de multplexado/demultplexado
La segmentación permite la Multiplexación de sesiones; las diferentes aplicaciones pueden utilizar la red al
mismo tiempo.
La segmentación de datos facilita el transporte de datos por parte de las capas de red inferiores.
Puede realizarse la verifcación de errores en los datos del segmento para verifcar si el segmento se cambió
durante la transmisión.

Ejercicio.
Supongamos que un servidor Web se ejecuta en el Host C puerto 80, y utiliza conexiones persistentes. Recibe
solicitudes del Host A y Host B.
¿Son todas las peticiones enviadas al mismo zócalo en el host C?
Si las peticiones pasan a través de zócalos diferentes, ambos zócalos tienen el mismo número de puerto 80?
Comenta y explicar.
 Para cada conexión persistente, el servidor Web crea "zócalos de conexión“, separados.
 Cada conexión se identifca con una tupla de cuatro elementos: (dirección de Puerto de origen,
dirección IP de destino, número de Puerto de destino).
 Cuando host C recibe un datagrama IP, examina estos cuatro campos para determinar a qué zócalo le
debe pasar la carga. Por lo tanto, las solicitudes de A y B pasan a diferentes zócalos y utilizan 80 para el
puerto de destino.
 Sin embargo, los identifcadores para estos zócalos tienen valores diferentes para las direcciones IP de
origen.
 A diferencia de UDP, cuando la capa de transporte pasa la carga útil de un segmento TCP hacia el
proceso de aplicación, no especifca la dirección IP de origen, por estar implícitamente especifcada en
el identifcador de socket.

Capa Transporte - Protocolo UDP

Servicio de transporte sin conexión, previsto en la RFC 768.


No emplea ninguna sincronización entre el origen y el destino.
Trabaja con paquetes o datagramas enteros, no con bytes individuales como TCP.
Una aplicación que emplea el protocolo UDP intercambia información en forma de bloques de bytes, de forma
que por cada bloque de bytes enviado de la capa de aplicación a la capa de transporte, se envía un paquete
UDP.
No es fable. No emplea control del fujo ni ordena los paquetes.
Su gran ventaja es que provoca poca carga adicional en la red ya que es sencillo y emplea cabeceras muy
simples.
Un paquete UDP puede ser fragmentado por el protocolo IP para ser enviado fragmentado en varios paquetes
IP si resulta necesario.
Puesto que no hay conexión, un paquete UDP admite utilizar como dirección IP de destino la dirección de
broadcast o de multicast de IP. Esto permite enviar un mismo paquete a varios destinos.
DNS, SNMP, FTP, DHCP, RIP.

Cabecera UDP:
+ Bits 0 - 16 16 – 31
0 Puerto origen Puerto destino
32 Longitud del mensaje Suma de verifcación
64
Datos

83
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Defniciones de TCP

Protocolos de transporte orientados a la conexión:


Para establecer una conexión, se envía un “Connect Request” al destino; que en caso de aceptar devuelve un
“Ack”.
Problema: ¿y si no hay respuesta?
 La solicitud no llegó a destino.
 La respuesta no llegó a destino, con lo que volvemos a enviar la solicitud, pudiendo ser detectado.
Consecuencia: la red posee capacidad de almacenamiento.
 Se requieren bufers.
Servicio de red con secuenciamiento confable:
 Se presume el envío de paquetes de distintos tamaños al servicio de red, y que su tratamiento es
confable: 802.3 servicio orientado a la conexión.
 Frame Relay, con circuitos controlador por LAPF.
Protocolos de transporte simples, punto a punto entre dos nodos de la misma red
Funciones:
 Direccionamiento
 Multiplexado,
 Control de fujo,
 Inicio y terminación de conexiones,
 Recuperación ante caídas.
Direccionamiento – identifcación:
El componente “destino” debe ser identifcado de alguna forma:
 Identifcación del usuario (Host, Port).
o Socket en TCP .
o Se consulta a un servidor de Nombres en caso de que se tenga confgurado.
 Identifcación del tipo de transporte.
o Especifcando el protocolo (TCP, UDP).
o Nombres comunes fp://fp.dominio.com ; htp://www.dominio.com ; smtp.dominio.com
 Dirección de Host de un dispositivo conectado a la red.
o Internet, Intranet.
 Número de red.
La capa de transporte pasa el elemento a la capa de red.
Control de fujo:
Casos:
 Tiempos de espera demasiado largos entre nodos en transmisión, retrasa la comunicación de
información de control de fujo.
 Tiempos de espera variables difcultan el uso de procedimientos de timeout.
 El ancho de banda de la red no soporta lo que deseamos pasar. Se deben confgurar bufers en cada
lado de la conexión.
Porque es necesario el control de fujo:
 El usuario no puede seguir recibiendo.
 La entidad de transporte no puede continuar recibiendo.
 Puede dar lugar a desbordamientos, en casos de redes “confables” el transmisor deberá guardar
TPDU’s hasta tanto sean ACK’s.
 El transmisor y receptor negocian de antemano el número de TPDU’s a transmitir en secuencia.

84
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Modelo de Servicios TCP, defnidos por número de puerto

Protocolos de Servicios Bien Conocidos:


Puerto Protocolo Utilización
21 FTP Transferencia de archivos
23 Telnet Autenticación remota
25 SMTP Correo electrónico
69 TFTP Transferencia trivial de archivos
79 Finger Buscar información sobre un
usuario
80 HTTP Uso de la WWW
110 POP-3 Acceso remoto a correo
electrónico
119 NNTP Noticias USENET

Modelo de Servicios TCP, defnidos por número de puerto


(a) Cuatro segmentos de 512 bytes son enviados en datagramas IP separados.
(b) una porción de 2048 bytes de datos se envían a la aplicación en un “READ CALL”
- - - -
- A - B - C - D A B C D
- - - -
(a) (b)
Cabecera TCP
32 bits
Número de puerto de origen Número de puerto de destino
Número de secuencia
Número de reconocimiento
Long. De No
URG

ACK

SYN
PSH

RST

FIN

Cabecera Usado Ventana de recepción

Suma de comprobación internet Puntero de datos urgente


Opciones
Datos

• El campo número de secuencia de 32 bits y el campo número de reconocimiento también de 32 bits son
utilizados por el emisor y el receptor de TCP para implementar un servicio de transferencia de datos fable.
• El campo ventana de recepción de 16 bits se utiliza para el control de fujo. Se emplea para indicar el número
de bytes que un receptor está dispuesto a aceptar.
• El campo longitud de cabecera de 4 bits específca la longitud de la cabecera TCP en palabras de 32 bits. La
cabecera TCP puede tener una longitud variable a causa del campo opciones de TCP (normalmente, este
campo está vacío, por lo que la longitud de una cabecera TCP tpica es de 20 bytes).
• El campo opciones es opcional y de longitud variable. Se utiliza cuando un emisor y un receptor negocian el
tamaño máximo de segmento (MSS) o como un factor de escala de la ventana en las redes de alta velocidad.
También se defne una opción de marca temporal.
• El campo indicador tiene 6 bits. El bit ACK se utiliza para indicar que el valor transportado en el campo de
reconocimiento es válido; es decir, el segmento contiene un reconocimiento para un segmento que ha sido
recibido correctamente. Los bits RST, SYN y FIN se utilizan para el establecimiento y cierre de conexiones. La
activación del bit PSH indica que el receptor deberá pasar los datos a la capa superior de forma inmediata. Por
último, el bit URG se utiliza para indicar que hay datos en este segmento que la entidad de la capa superior del
lado emisor ha marcado como “urgentes”. La posición de este último byte de estos datos urgentes se indica
mediante el campo puntero de datos urgentes de 16 bits. TCP tiene que informar a la entidad de la capa
superior del lado receptor si existen datos urgentes y pasarle un puntero a la posición donde fnalizan los datos
urgentes. En la práctica, PSH, URG y el puntero a datos urgentes no se utilizan.
85
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Comparación de protocolos

UDP TCP
Tamaño de header. 8 bytes 20 bytes
Nombre de la unidad de datos. Datagrama Segmento
Enumeración de puertos. Si Si
Detección de errores. Opcional Si
Fiabilidad: Recuperación de errores automático. No Si
Circuitos virtuales: Enumeración secuencial y No Si
reorganización.
Control de fujo. No Si
Detección de congestión: Ventana variable, time No Si
outs.
Flujo múltiple No Si

¿Y la seguridad?

TCP es un protocolo ‘no seguro’.


Se hace necesario modifcar el procedimiento original, agregando una capa que cifre la sesión para hacerla
segura.
• Secure Sockets Layer (SSL; en español «capa de conexión segura»)
• Transport Layer Security (TLS; en español «seguridad de la capa de transporte»)
Aportan autenticación y privacidad de la información entre extremos sobre Internet mediante el uso de
criptografa, a través de fases basado en un esquema cliente - servidor.
Las implementaciones actuales proporcionan las siguientes opciones:
• Criptografa de clave pública: RSA, Dife-Hellman, DSA (Digital Signature Algorithm) o Fortezza.
• Cifrado simétrico: RC2, RC4, IDEA (International Data Encryption Algorithm), DES (Data Encryption
Standard), Triple DES y AES (Advanced Encryption Standard).
• Funciones hash: MD5 o de la familia SHA.
Capa Transporte - llamadas API, Sockets
API: Aplication Programming Interface, una serie de servicios o funciones que se ofrece al programador a
través del Sistema Operativo. Para los programadores de aplicaciones el mecanismo de sockets es accedido
mediante un número de funciones o primitivas.
Desde la perspectiva del código máquina, la API aparece como una serie de llamadas.
Desde la perspectiva de un lenguaje de alto nivel, la API aparece como un conjunto de procedimientos y
funciones.
Ejemplos de API:
 Microsof WMI (msdn.microsof.com/en-us/library/aa394582.aspx )
 Microsof Framework .NET (msdn.microsof.com/es-es/netramework/default.aspx )
 OpenGL (www.opengl.org/documentation/ )
 Java EE (java.sun.com/javaee/)
 Google Web APIs (htps://code.google.com/apis/console/?pli=1)
Las API permiten desarrollar aplicaciones utilizando los servicios de TCP.
Un socket es un mecanismo de comunicación, siendo el API 4.2BSD de Unix el primero, permitiendo
comunicación entre dos dominios: Internet y Unix, se ha transformado en un estándar (interfaz del zócalo).
Se defnen diferentes tipos de socket en función de los servicios proporcionados:
 Stream sockets: orientados a conexión. Utilizan los servicios de TCP.
 Datagram sockets: no orientados a conexión. Utilizan los servicios de UDP.
 Raw sockets: acceso a niveles más bajos del protocolo TCP/IP.
Un zócalo (socket) es un tipo especial de archivo que un proceso usa para solicitar servicios de red al sistema
operativo.
 {protocolo, dirección local, proceso local }
 Ejemplo TCP/IP: {tcp, 193.44.234.3, 12345}
Una conversación es el enlace de comunicaciones entre dos procesos.

86
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Una asociación es la relación que especifca completamente los dos procesos comprendidos en una conexión:
 {protocolo, dirección local, proceso - local, dirección exterior, proceso exterior}
 Ejemplo TCP/IP: {tcp, 193.44.234.3, 1500, 193.44.234.5, 21}
Zócalos y Puertos:
 Inicializar un zócalo:
o int sockfd = socket(int family, int type, int protocol)
 Registrar un zócalo en una dirección de puerto:
o int bind(int sockfd, struct sockaddr *localaddr, int addrlen)
 Indica disponibilidad para recibir conexiones:
o int listen(int sockfd, int queue-size)
 Acepta una conexión:
o int accept(int sockfd, struct sockaddr *foreign-address, int addrlen)
 Solicita la conexión con el servidor:
o int connect(int sockfd, struct sockaddr *foreign-address, int addrlen)
 Enviar o recibir datos:
o int read(int sockfd, struct msghdr *msg, int len);
o int write(int sockfd, struct msghdr *msg, int len);
o int send(int sockfd, struct msghdr *msg, int len, int fags);
o int recv(int sockfd, struct msghdr *msg, int len, int fags);
 Cierra un zócalo:
o int close(int sockfd)
Llamadas API, esquema de funcionamiento

Gestión de Políticas de Transmisión en TCP (administración de ventanas)

87
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Estados de llamadas utilizados en conexiones TCP:


CLOSED: No hay conexiones activas o pendientes.
LISTEN: el servidor aguarda llamadas de conexión.

88
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

SYN RCVD: un Connect Request ha llegado, que aguarda un ACK


SYN SENT: la aplicación se ha iniciado para abrir una conexión
ESTABLISHED: estado de normal en transferencia de datos.
FIN WAIT 1: la aplicación informa su salida.
FIN WAIT 2: la otra parte acuerda la liberación.
TIMED WAIT: en espera hasta que todos los paquetes fnalicen o mueran.
CLOSING: ambas partes han tratado de cerrar simultáneamente.
CLOSE WAIT: la otra parte ha iniciado una liberación.
LAST ACK: en espera hasta que todos los paquetes fnalicen o mueran.
$ netstat -t
Congestión:
De manera informal:
Demasiadas fuentes enviando demasiados datos, demasiado rápido, que la red puede manejar.
¡Diferente control de fujo!
Manifestaciones:
Paquetes perdidos (desbordamiento de búfer en routers) – largas demoras (colas en bufers del router)
¡Un problema entre los 10!
Enfoques hacia el control de la congestión:
Control de congestión de extremo a extremo: Control de la congestión de red asistida:
 No retroalimentación explícita de red.  Los routers proporcionan información a los
 Congestión que se infere del sistema fnal, sistemas fnales:
donde se observó pérdida. Retraso.  Congestión que indica un solo bit (SNA,
 Enfoque tomado por TCP. DECbit, TCP/IP, ECN, ATM).
 Tasa que deberán enviar el remitente.

Modelo de Internet: ¿Qué es internet?

Millones de dispositivos de computación conectados:  Enlaces de comunicación:


hosts = end systems o fbra, cobre, radio, satélite
corriendo aplicaciones en red o Tasa transmisión= ancho de banda
 Routers: re-envío de paquetes

89
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Algunos de los componentes esenciales de Internet.


 Los protocolos controlan, envían y reciben mensajes:
o TCP,IP,HTTP, Skype, Ethernet
 Internet: “Red de redes”
o Estructura jerárquica.
o Internet pública vs. Internet privada.
 Recomendaciones de Internet
o RFC: Request for Comments
o IETF: Internet Engineering Task Force
 Sistemas terminales (Hosts):
o Corren programas de aplicación.
o Web, correo electrónico.
o En el “borde de la red”.
 Modelo Cliente/Servidor
o El cliente solicita y recibe respuesta de servicios provistos por servidores en línea.
o Web browser / server; correo electrónico cliente/servidor, estado del tiempo.
 Modelo Peer To Peer:
o Uso mínimo de servidores dedicados.
o Enlaces punto a punto entre end systems.
o Ej. Skype, BitTorrent.

90
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Protocolo humano y protocolo de comunicación de hosts:


Los protocolos defnen el formato, orden de Mensajes enviados y recibidos entre las entidades de la red, y las
medidas adoptadas en la transmisión y la recepción.

Introducción – Protocolos

Capa Protocolos
Aplicación Pop3, SMTP, SNMP, HTTP, HTTPS, FTP, RDP,
SSH, iSCSI, NFS.
Transporte TCP, UDP, IPX.
Red IP, SPX.
Enlace Ethernet, HFC, xDSL, Frame Relay, ATM, Infniband, Fibre Channel, UMTS (3G), GSM.

Soluciones de comunicación
Red Óptca Síncrona (SONET): Sistema de portadora sincrónica sobre redes de fbras ópticas con jerarquías de
multiplexación digital.
MPLS: Conmutación Multi-Protocolo mediante Etiquetas. Circuitos Virtuales en redes IP.
ATM: servicio de transferencia de “celdas” de datos entre switches, posibilidad de confgurar circuitos a medida
de alta velocidad para aplicaciones de voz, datos y video.
Frame Relay: servicio “rápido” de paquetes, ancho de banda por demanda, dirigido a las aplicaciones de Datos.
Banda Ancha: tecnologías que llegan hasta el hogar con ancho de banda importante. Tecnologías HFC / ADSL /
CABLEMODEM.
Switched Ethernet: tecnologías de LAN para apoyar enlaces a 10/100/1000 Mbps y 10GB por seg, con ancho
de banda exclusivo.
Tecnologías Inalámbricas: recursos de comunicación que utilizan ondas de radio de alta frecuencia, con ancho de
banda compartido. Pensado para alternar con redes cableadas switched ethernet.

Interconexión de Redes

 Necesidad funcional.
o Ampliación del área de cobertura de una organización.
o Integración de sistemas computacionales.
o Agregar valor a los sistemas informáticos.
o Ampliar el espacio y calidad de acceso a los datos almacenados.
 Hardware interviniente:
o Conversores de protocolo (SSL, IPSec).
o Routers, Switches Capa 3.
o Switches Ethernet, Fibre Channel Fabric, Switches Infniband.
 Motivos:
o LAN a LAN – intercambiar documentos entre departamentos.
o LAN a WAN – intercambiar documentos con sucursales.
o WAN a WAN – intercambiar documentos entre sucursales.
o WAN a LAN – monitoreo de actividades y capacidades.
 Costos de la Estrategia de Interconexión.
 Estrategias cuando el vínculo es compartido. (VPN)

Interconexión de Redes de Acceso y de Datos

 Necesidad funcional:
o Tratamiento adecuado a los recursos.
o Autenticación de usuarios.
o Uso de tecnologías de hardware y sofware específcas

91
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

 Redes de Acceso:
o Múltiples medios de conexión: cableadas y no cableadas.
o Constituyen el punto ‘inseguro’ de nuestra organización.
o Requieren conectar a ‘servicios informáticos’ publicados (y.. No publicados también..)
 Redes de Datos:
o La integran dispositivos y sofware especializados en almacenamiento de datos,
interconectados y comunicados en distintos niveles o capas.
o Constituyen el punto a asegurar de nuestra organización.
o Vinculan los Hosts que soportan la carga computacional, con los dispositivos de
almacenamiento a través de redes rápidas y de gran ancho de banda.
o Los medios de conexión son cableados, preparados para la más alta capacidad de transmisión
posible: fbra / UTP.
 Motivos:
o Los ‘end systems’ requieren servicios de aplicaciones publicadas en Red de Acceso.
o Las APP escuchan los requerimientos, cuando corresponde, acceden a los datos almacenados
en la Red de Datos.
o Las APP responden al requerimiento con una vista o reporte de datos más o menos elaborado.
o No está previsto que los ‘end systems’ dispongan de los datos en forma directa, en forma
cruda.

Introducción – Interconexión de Redes

La interconexión constituye una técnica que responde a la necesidad de hacer interactuar las distintas
infraestructuras (redes) con tecnologías y diseños diferentes, con la fnalidad que los usuarios conectados
perciban el servicio como si se tratara de una sola red (*).
La Unión Internacional de Telecomunicaciones (UIT) ha defnido a la interconexión como “los arreglos
comerciales y técnicos bajo los cuales los proveedores de servicios conectan sus equipos, redes y servicios para
permitir a los consumidores acceder a servicios y redes de otros proveedores de servicios” (*).
La Organización para la Cooperación y el Desarrollo Económico (OCDE) ha defnido interconexión como “la
forma por la cual diferentes redes están conectadas para permitir el tráfco pasar entre ellas, incluyendo el
conducir el tráfco sobre la red de un operador por cuenta de otro operador o proveedor del servicio.”
De las defniciones citadas podemos afrmar que la interconexión engloba un proceso que puede ser analizado
en dos vertientes estrechamente relacionadas:
 Material.
 Acuerdo entre proveedores.
Las interconexiones benefcian al usuario y se verá incrementado en la medida en que pueda comunicarse con
más usuarios, independientemente de que éstos pertenezcan a su propia red o a la red de otro proveedor, por
lo que, de limitarse por medio de barreras fsicas o de otro tipo, el alcance a usuarios que no formen parte de la
misma red del operador, entonces el benefcio para el usuario se ve disminuido o limitado.

Servicios de red IP: IPv4: direccionamiento y subredese CIDRe ICMP.

Direccionamiento TCP-IP versión 4.


IPv4 utiliza direcciones de 32 bits (4 bytes) que limita el número de direcciones posibles a utilizar a
4,294,967,295 direcciones únicas. Sin embargo, muchas de estas están reservadas para propósitos especiales
como redes privadas, Multidifusión (Multicast), etc. Debido a esto se reduce el número de direcciones IP que
realmente se pueden utilizar, es esto mismo lo que ha impulsado la creación de IPv6 (actualmente en
desarrollo) como reemplazo eventual dentro de algunos años para IPv4.
IPv4 es un protocolo orientado hacia datos que se utiliza para comunicación entre redes a través de
interrupciones (switches) de paquetes (por ejemplo a través de Ethernet).
Tiene las siguientes características:
• Es un protocolo de un servicio de datagramas no fable (también referido como de mejor esfuerzo).
92
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

• No proporciona garanta en la entrega de datos.


• Tampoco proporciona garantas sobre la corrección de los datos.
• Puede resultar en paquetes duplicados o en desorden.
Todos los problemas mencionados se resuelven en el nivel superior en el modelo TCP/IP, por ejemplo, a través
de TCP o UDP. El propósito principal de IP es proveer una dirección única a cada sistema para asegurar que
una computadora en Internet pueda identifcar a otra.
¿Con un bit cuantos valores tenemos y cuáles?
¿Con dos bits cuantos valores tenemos y cuáles?

0 0 0
0 0 1
0 1 0
0 1 1
1 0 0
1 0 1
1 1 0
1 1 1

 Convertir 159 de decimal a binario.


256 128 64 32 18 6 4 2 1
0 1 0 0 1 1 1 1 1

159 -
128 _
1
31 –
16 _
1
15 –
8 _
7–
7
Direccionamiento IPv4 – Máscara
Conversión de un IPv4 de binario a notación decimal punteada.
Dirección binaria IPv4 10101100000100000000010000010100
10101100000100000000010000010100

Divida los 32 bits en 4 10101100 00010000 00000100 00010100


octetos
1 x 128 = 128 0 x 128 = 0 0 x 128 = 128 0 x 128 = 128
Convierta cada octeto en 0 x 64 = 0 0 x 64 = 0 0 x 128 = 128 0 x 128 = 128
decimal 1 x 32 = 32 0 x 32 = 9 0 x 128 = 128 0 x 128 = 128
0 x 16 = 0 1 x 16 = 16 0 x 128 = 128 1 x 128 = 128
Cada valor decimal de un 1x8=8 0x8=0 0 x 128 = 128 0 x 128 = 128
octeto se encuentra 1x4=4 0x4=0 1 x 128 = 128 1 x 128 = 128
separado por un “.” 0x2=0 0x2=0 0 x 128 = 128 0 x 128 = 128
0x1=0 0x1=0 0 x 128 = 128 0 x 128 = 128
172 16 4 20

Dirección IPv4 decimal_ 172.16.4.20

93
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

4 números de 8 bits separados por puntos


 En binario:
8 Bits. 8 Bits 8 Bits 8 Bits
o 11000000.01000000.00001101.00001100
 En decimal:
o 192.64.11.12
 8 bits 8 bits 8 bits 8 bits

Clases de IPv4
Clases de Primer rango Primeros bits Partes de las Máscara de red Número de
direcciones del octeto del octeto (los direcciones de predeterminada posibles redes y
(decimal) verdes no red (R) y de los (decimal y hosts por red
cambian) hosts (H) binaria)
A 1-127 00000000- N.R.R.R 255.0.0.0 128 redes (2^7)
01111111 16777214
hosts por red
(2^24-2)
B 128-191 10000000- N.N.R.R 255.255.0.0 16384 redes
10111111 (2^7) 65534
hosts por red
(2^16-2)
C 192-223 11000000- N.N.N.R 255.255.255.0 2097159 redes
11011111 (2^7) 254 hosts
por red (2^8-2)
D 224-239 11100000- ND (Multicast)
11111111
E 240-255 11110000- ND
11111111 (Experimental)

Máscara de subred

¿Para qué sirve? Cmd.exe


¿Cuándo se usa? C:\>ipconfg
Bits de RED (1)
Bits de SUBRED (1) Confguración IP de Windows
Bits de HOST (0)
Ejemplo: Adaptador Ethernet Conexión de área local 3:
•Clase A
255.0.0.0 Sufjo de conexión específca DNS: galileo.edu

94
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

•Clase B Dirección IPv4 . . . . . . . . . . . . : 192.168.7.118


5B.255.0.0 Máscara de subred . . . . . . . . . . . . : 255.255.0.0
•Clase C Puerta de enlace predeterminada : 192.168.1.1
255.255.255.0

La máscara de subred sirve para que una computadora determine qué direcciones IP pertenecen a su mismo
bloque de red y cuáles no. Es un número de cuatro octetos donde puede tener el valor de 0 ó 255. Ej:
255.255.0.0. Los octetos con valor 255 indican cuáles son los octetos de la dirección IP correspondientes al
bloque de red y los octetos con valor 0 identifcan el host:

Dirección IP: 192. 168. 1. 101

Máscara IP: 255. 2 5 5. 2 5 5. 0


Bloque de red Host
1. IP
2. Máscara IP
3. Default Gateway Router.
4. Número de Red IP.
5. Número de Broadcast.

Máscaras de Subred según clase de red.

Clase Máscara de Subred


A 255.0.0.0
B 255.255.0.0
C 255.255.255.0

Puerta de enlace predeterminada

La Puerta de enlace predeterminada (Default Gateway) es la dirección IP del dispositivo de la red (si es que
lo hay) 192.168.1.1, ya que mediante éste obtienen el acceso a una red externa: Internet.

DHCP (Dynamic Host Confguration Protocol)

Es un protocolo de confguración dinámica de host) es un protocolo de red que permite a los clientes de una
red IP obtener sus parámetros de confguración automáticamente. Al utilizar esta opción el Router obtendrá
de manera automática la dirección IP pública necesaria para acceder a internet. La dirección de los servidores
DNS también está confgurada de manera automática.
No se puede asignar DHCP a un servidor, porque la asignación dinámica no siempre es distinta.

Subnetng
• Subnetng es la técnica de segmentar las redes de forma lógica y no fsica, utilizando para esto la dirección IP
en lugar de dispositivos fsicos como Hubs, o Switches.
• En pocas palabras es tomar bits prestados de la host para que sean usados por la red.
• Una dirección IP subneteada tiene tres partes (32 bits).
• Antes de que se adoptara el enrutamiento CIDR, la parte de red de una dirección IP estaba restringida a
longitudes de 8, 16 o 24 bits, un esquema de direccionamiento conocido como direccionamiento con clases, ya
que las subredes con direcciones de 8, 16 y 24 bits se conocían, respectivamente, como redes de clase A, B y
C.
• El requisito de que la parte de subred de una dirección IP tuviera exactamente una longitud de 1, 2 o 3 bytes
se volvió problemático a la hora de dar soporte al rápido crecimiento de número de organizaciones con
subredes de tamaño medio y pequeño.

95
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

• Con el direccionamiento con clases, una organización con, por ejemplo, 2.000 hosts, era asignada
normalmente a una dirección de subred de clase B (/16). Esto llevó a un rápido agotamiento del espacio de
direcciones de clase B y a una pobre utilización del espacio de direcciones asignado.
• Existe otro tipo de dirección IP, la dirección IP de difusión 255.255.255.255. Cuando un host envía un
datagrama cuya dirección de destino es 255.255.255.255, el mensaje se entrega a todos los hosts existentes
en la misma subred.
Direccionamiento IPv6

El protocolo IPv6 es una nueva versión de IP (Internet Prococol), diseñada para reemplazar a la versión 4 (IPv4)
Especifcación de Internet Protocol Version 6 (IPv6), RFC 2460.
Propuesto por el Internet Engineering Task Force en 1994, aunque no utilizada en la Internet en gran medida,
aún bajo el dominio de IPv4. La adopción de NAT, alivió la falta de números IP para dar servicio a
corporaciones y organismos.
IPv4 posibilita 232 combinaciones posibles que representan direcciones IP diferentes. 32 son los bits utilizados,
a 2 estados posibles.
IPv6 posibilita 2128 combinaciones posibles, ya que utiliza 128 bits a 2 estados posibles.
Direccionamiento
 IP Version 6 Addressing Architecture, RFC 2373
 An IPv6 Aggregatable Global Unicast Address Format, RFC 2374
 Format for Literal IPv6 Addresses in URL's, RFC 2732
Autoconfguración/Enumeración
 Neighbor Discovery for IP Version 6 (IPv6), RFC 2461
 IPv6 Stateless Address Autoconfguration, RFC 2462
Formato:
x:x:x:x:x:x:x:x donde x es un campo hexadecimal de 16 bits
2031:0000:130F:0000:0000:09C0:876A:130B
Dejar ceros en un campo es opcional:
2031:0:130F:0:0:9C0:876A:130B
Sucesivos campos con cero son representados por: aunque solamente una sola vez en la dirección:
2031:0:130F::9C0:876A:130B
2031::130F::9C0:876A:130B
FF01:0:0:0:0:0:0:1 => FF01::1
0:0:0:0:0:0:0:1 => ::1
0:0:0:0:0:0:0:0 => ::

Servicios de red IP: CIDR

• La estrategia de asignación de direcciones en Internet se conoce como Enrutamiento entre dominios sin clase
(CIDR, Classless Interdomain Routing) [RFC 4632].
• La dirección IP de 32 bits se divide en dos partes y de nuevo se expresa en notación decimal con punto como
a.b.c.d/x, donde x indica el número de bits de la primera parte de la dirección.
• Los x bits más signifcativos de una dirección en el formato a.b.c.d/x constituyen la parte de red.
• Si una organización tiene asignado un bloque de direcciones contiguas, las direcciones IP de los dispositivos
que se encuentran dentro de la organización compartirán el mismo prefjo.
• Los 32-x bits restantes de una dirección pueden emplearse para diferenciar los dispositivos internos de la
organización, teniendo todos ellos el mismo prefjo de red.
• Estos son los bits que habrá que considerar para reenviar paquetes en los routers internos de la organización.
• Estos bits de menor peso pueden tener (o no) una estructura en subred adicional.

96
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Direccionamiento IPv4 – Dirección de red


Si tenemos la IP 10.11.12.14. ¿Cuál es la dirección de RED? 10.0.0.0
Si tenemos la IP 172.173.174.175. ¿Cuál es la dirección de RED? 172.173.0.0
Si tenemos la IP 192.193.194.195. ¿Cuál es la dirección de RED? 192.193.194.0
Red SubRed Host
Bits de RED + Bits de SubRed + Bits de Host = 32 bits

IPv6 - Representación de Direcciones

Formato:
x:x:x:x:x:x:x:x donde x es un campo hexadecimal de 16 bits
2031:0000:130F:0000:0000:09C0:876A:130B
Case insensitive
Dejar ceros en un campo es opcional:
2031:0:130F:0:0:9C0:876A:130B
Sucesivos campos con cero son representados por ::, aunque solamente una sola vez en la dirección:
2031:0:130F::9C0:876A:130B
2031::130F::9C0:876A:130B
FF01:0:0:0:0:0:0:1 => FF01::1
0:0:0:0:0:0:0:1 => ::1
0:0:0:0:0:0:0:0 => ::
Formato:
IPv4-compatible:
0:0:0:0:0:0:192.168.30.1
= ::192.168.30.1
= ::C0A8:1E01
En el URL, se encierra entre corchetes
htp://[2001:1:4F3A::206:AE14]:8080/index.html
Poco amigable para los usuarios
Usado para tareas de diagnóstico
Se utiliza el espacio de nombres de dominio (FQDN)

IPv6 – Estrategias de Integración

• Co-existencia de IPv4 y de IPv6:


• En el caso de tener habilitado solamente el stack IPv6
• Puede ser forzado a utilizar el stack IPv6
• Se consulta al DNS por direcciones IPv6
• Conecta a direcciones IPv6

Servicios de Red IP: ICMP

La capa de red de Internet tiene tres componentes principales: el protocolo IP, los protocolos de enrutamiento
de Internet (incluyendo RIP, OSPF y BGP), e ICMP.
Los hosts y los routers utilizan ICMP, especifcado en [RFC 792], para intercambiarse información acerca de la
capa de red. El uso más tpico de ICMP es la generación de informes de error.
Un mensaje de error como “Red de destino inalcanzable”, tiene su origen en ICMP.
Los mensajes ICMP son transportados dentro de los datagramas IP.
Cuando un host recibe un datagrama IP con ICMP especifcado como el protocolo de la capa superior,
demultiplexa el contenido del datagrama para ICMP, al igual que demultiplexaría el contenido de un datagrama
para TCP o UDP.

97
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

La capa de Red:
Capa de transporte: TCP, UDP

Protocolo IP:
Protocolos de Enrutamiento: • Convenios de direccionamiento.
• Selección de ruta. • Formato de datagramas.
• RIP, OSPF, BGP. • Convenios de manipulación
de paquetes

Tabla de
reenvío

Protocolo ICMP:
• Informe de errores.
• “Señalización” router.

Capa de enlace
Capa fsica

Tipos de mensajes ICMP:


Tipo ICMP Código Descripción
0 0 Respuesta de eco (para ping)
3 0 Red de destino inalcanzable
3 1 Host de destino inalcanzable
3 2 Protocolo de destino inalcanzable
3 3 Puerto de destino inalcanzable
3 6 Red de destino desconocida
3 7 Host de destino desconocido
4 0 Regulación del origen (control de congestión)
8 0 Solicitud de eco
9 0 Anuncio de router
10 0 Descubrimiento de router
11 0 TTL caducado
12 0 Cabecera IP errónea

98
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

El programa Traceroute, permite trazar una ruta desde un host a cualquier otro host del mundo.
Frecuentemente, Traceroute se implementa con mensajes ICMP.
Para determinar los nombres y las direcciones de los routers existentes entre el origen y el destino, Traceroute
en el origen envía una serie de datagramas IP ordinarios al destino.
Cada uno de estos datagramas transporta un segmento UDP con un número de puerto UDP poco probable. El
primero de estos datagramas tiene un TTL de 1, el segundo de 2, el tercero de 3, y así sucesivamente. El origen
también inicia los temporizadores para cada uno de los datagramas.
Cuando el datagrama n-ésimo llega al router n-ésimo, éste observa que el TTL del datagrama acaba de caducar.
De acuerdo con las reglas del protocolo IP, el router descarta el datagrama y envía al origen un mensaje de
advertencia ICMP (tipo 11, código 0).
Este mensaje de advertencia incluye el nombre del router y su dirección IP. Cuando este mensaje ICMP llega
de vuelta al origen, éste obtiene el tiempo de ida y vuelta del temporizador, y el nombre y la dirección IP del
router nésimo del propio mensaje ICMP.

Protocolos de Internet. Algoritmos de ruteo intra-AS: vector distancia y estado de enlacee RIP y OSPF.
¿Qué es ruteo?

Un host está conectado directamente a un router, el router predeterminado para el host (también denominado
router del primer salto para el host). Cuando un host envía un paquete, éste se transfere a su router
predeterminado.
Nos referiremos al router predeterminado del host de origen como router de origen y al router predeterminado
del host de destino como router de destino.
El problema de enrutar un paquete desde el host de origen al host de destino, evidentemente, se reduce al
problema de enrutar el paquete desde el router de origen al router de destino, que es el foco de esta sección.
El propósito de un algoritmo de enrutamiento es por tanto muy simple: dado un conjunto de routers, con
enlaces que conectan dichos routers, un algoritmo de enrutamiento determina una “buena” ruta desde el router
de origen al router de destino. Normalmente, una buena ruta es aquella que tiene un costo mínimo.
Para formular los problemas de enrutamiento se utilizan grafos.
Un grafo G = (N, E) es un conjunto N de nodos y una colección E de aristas, donde cada arista es una pareja de
nodos de N.
En el contexto del enrutamiento de la capa de red, los nodos del grafo representan los routers (los puntos en
los que se toman las decisiones acerca del reenvío de los paquetes) y las aristas que conectan estos nodos
representan los enlaces fsicos entre los routers.
• Una arista tiene un valor que representa su costo.
• Para cualquier arista (x,y) de E, designamos c (x,y) como el coste de la arista entre los nodos x e y.
• Un nodo y se dice que es un vecino del nodo x si (x,y) pertenece a E.
Una ruta en un grafo G = (N,E) es una secuencia de nodos (x 1, x2,..., xp) tal que cada una de las parejas (x 1,x2),
(x2,x3),...,(xp-1,xp) son aristas pertenecientes a E.
El costo de una ruta (x 1,x2,..., xp) es simplemente la suma del costo de todas las aristas a lo largo de la ruta; es
decir, c(x1,x2) + c(x2,x3) + ...+ c(xp-1,xp).
El problema del costo mínimo está claro: hallar una ruta entre el origen y el destino que tenga el costo mínimo.
Si todas las aristas del grafo tienen el mismo costo, la ruta de costo mínimo es también la ruta más corta

3
2 v 5
w
2 3 1
u z
1 2
x 1 y
Modelo de grafo de una red de computadoras

99
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Algoritmos de ruteo
En términos generales, la primer forma de clasifcar los algoritmos de enrutamiento es dependiendo de si son
globales o descentralizados:
• Un algoritmo de enrutamiento global calcula la ruta de costo mínimo entre un origen y un destino utilizando el
conocimiento global y completo acerca de la red.
En la práctica, los algoritmos con información de estado global a menudo se denominan algoritmos de estado
de enlaces (LS, Link-State), ya que el algoritmo tiene que ser consciente del coste de cada enlace de la red.
• Un algoritmo de enrutamiento descentralizado, es aquel en donde el cálculo de la ruta de costo mínimo se
realiza de manera iterativa y distribuida. Ningún nodo tiene toda la información acerca del coste de todos los
enlaces de la red. Ejemplo de algoritmo de enrutamiento descentralizado se denomina algoritmo de vector
distancia (DV, Distance-Vector), porque cada nodo mantiene un vector de estimaciones de costos.
Una segunda forma general de clasifcar los algoritmos de enrutamiento es según sean estáticos o dinámicos.
Una tercera forma de clasifcar los algoritmos de enrutamiento es según sean sensibles o no a la carga, es el
hecho de “pasar” mensajes entre routers que corren protocolos de red compatibles entre sí.
Los routers precisan conocer:
 Direcciones IP de destino.
 Otras posibles rutas.
 Mejores rutas.
 Información que permita mantener y confgurar rutas.
Los Routers deben poder aprender rutas destino que no están conectadas a él directamente. Las Rutas se
clasifcan en:
 Rutas estáticas: el administrador las ingresa manualmente al router.
 Rutas dinámicas: son aprendidas por medio de protocolos de ruteo y ajustes automáticos.

Protocolos de Ruteo

• Requiere una confguración inicial por el administrador.


• Si se cambia la topología se adapta de forma automática.
• Facilita cuando se tiene una red compleja.
• Implica costo de procesamiento extra.
• Esquema escalable y tolerante a fallos.
• Resolución de Problemas/Debugging, más complejo.
• Caminos “óptimos” de acuerdo a la información manejada por el protocolo.
Link State (Estado de Enlace) Protocolos de DV (Vector de Distancia)

• OSPF • RIP, v1, v2


• IS-IS • IGRP
• GGP
Híbridos
Protocolos de PV (Vector de Camino)
• EIGRP • BGP
• EGP

100
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Ruteo. Rutas estáticas.


 Las rutas son establecidas por el administrador manualmente.
 Propenso a errores.
 Si se cambia la topología requiere cambios manuales en los routers.
 Sirve cuando se tiene una red sencilla.
 No tiene problemas de seguridad ni de incompatibilidad.
 No implica costo de procesamiento extra.
 Mayor control.
 Esquema NO escalable y NO tolerante a fallos.

Protocolos de Ruteo.
Estático.
La implementación de protocolos de red tiene sentido en el hecho de poder aprender el estado de las redes
conectadas y las adyacentes, de colectar información, procesarla y tomar decisiones específcas.
Una vez que esté determinada la ruta de acceso, un router puede enviar un protocolo ruteable.

101
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Sistemas Autónomos
Dominio de Ruteo:
 Protocolos de Ruteo que corren sobre un Routing Domain.
 Conjunto de routers con protocolos de ruteo comunes, uno o más de estos incluidos en un AS.
Un Sistema Autónomo es una colección de redes bajo un dominio común de administración.
 Cada Sistema Autónomo (AS) en Internet, intercambia tráfco con otros Dominios, debe tener un
número identifcador: ASN (AS Number). Relacionado con BGP, otorgado por los RIRs, LACNIC, RIPE,
ARIN, AFRINIC, ARIN.
 Los IGP’s (Interior Routing Protocol) operan en un Sistema Autónomo.
 Los EGP’s (Exterior Routing Protocol) conectan diferentes sistemas autónomos.

Ruteo. Clases de Protocolos de Ruteo


102
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

IGP (Interior Gateway Protocols), trabajan en el mismo AS:


• RIP (Routing Internet Protocol) , v1, v2 (estándar IETF)
• IGRP e EIGRP (-Enhanced- Interior Gateway Routing Protocol) (propietarios de cisco)
• OSPF (Open Shortest Path First), v2, v3(estándar IETF)
• IS-IS (Intermediate System to Intermediate System) (estándar de la ISO)

EGP (Exterior Gateway Protocols), trabajan entre diferentes AS:


• GGP (Gateway to Gateway Protocol) (antecesor)
• EGP (Exterior Gateway Protocol) (estándar IETF, en desuso)
• BGP (Border Gateway Protocol) (estándar IETF)

Protocolos de DV (Vector de Distancia)


• RIP, v1, v2
• IGRP
• GGP

Protocolos de PV (Vector de Camino)


• BGP
• EGP

Link State (Estado de Enlace)


• OSPF
• IS-IS
• Híbridos
• EIGRP

Algoritmo Vector Distancia

• Entre routers vecinos, periódicamente se pasa información de tablas de ruteo, y se acumulan vectores de
distancia.
• Este algoritmo no permite conocer la topología completa de la red.
• Esta información es bastante similiar a la información contenida en las señales situadas en una intersección
de carreteras. Un signo apunta hacia un camino que conduce fuera de la intersección y se indica la distancia
hasta el destino.
• Los routers descubren el mejor camino hacia los destinos de cada vecino.

103
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

• Poco tiempo después, los mismos añaden información a sus tablas de acuerdo a la información provista por
sus routers vecinos.

IGRP
56 Delay
Load
T1 56 Bandwidth
RIP Reliability
Hop Count MTU

T1

• Hop count, es la métrica con la cual se cuenta la cantidad de saltos. Este caso se refere al número de
enrutadores que un paquete debe pasar para llegar a su destino. Cuanto más baja es la cantidad de saltos, será
mejor el camino.
• Aunque el ancho de banda es la califcación de un vínculo del máximo rendimiento, el transporte a través de
vínculos con un mayor ancho de banda no siempre ofrecen las mejores rutas. IGRP defne Bandwidth y Delay
como métricas por default.
• Load es un factor dinámico basado en una variedad de medidas, como el uso del CPU y paquetes procesados
por segundo. Su uso intensivo puede bajar la performance.
• Delay, depende de muchos factores, incluyendo el ancho de banda de enlaces de red, la longitud de las colas
en cada router en la ruta, la congestión de enlaces, y la distancia fsica que se viajó por la red.

Algoritmo Estado de Enlaces

Se desea:
• Convergencia más rápida.
• Cero loops.
• Soportan múltiples métricas.
• Modifcaciones del algoritmo permiten soportar múltiples caminos.
• Finalmente, menor tráfco entre routers.

Cada nodo difunde a todos los demás nodos de la red sus distancias con sus enlaces vecinos por medio de
paquetes, con cada paquete de estado de enlace conteniendo las identidades y los costes de sus enlaces
conectados. El resultado de difundir la información de los nodos es que todos los nodos tienen una visión
completa e idéntica de la red. Cada nodo puede entonces ejecutar el algoritmo LS y calcular el mismo conjunto
de rutas de coste mínimo o Shortest Path First (SPF) que cualquier otro nodo.
El algoritmo de enrutamiento de estado de enlaces se conoce como algoritmo de Dijkstra, en honor a su
inventor. El algoritmo de Dijkstra calcula la ruta de coste mínimo desde un nodo (el origen, al que
denominaremos u) hasta todos los demás nodos de la red. El algoritmo de Dijkstra es iterativo y tiene la
propiedad de que después de la k-ésima iteración del algoritmo, se conocen las rutas de coste mínimo hacia k
nodos de destino y entre las rutas de coste mínimo a todos los nodos de destino, estas k rutas tendrán los k
costes más pequeños.
Consta de un paso de inicialización seguido de un bucle. El número de veces que se ejecuta el bucle es igual al
número de nodos de la red. Al terminar, el algoritmo habrá calculado las rutas más cortas desde el nodo de
origen u hasta cualquier otro nodo de la red.
• Así cada nodo es capaz de conocer la topología de la red.

Protocolo RIP

104
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

RIP es un sofware que implementa uno de los primeros protocolos de enrutamiento de Internet internos para
los AS y todavía hoy es ampliamente utilizado. Sus orígenes están en la arquitectura XNS (Xerox Network
Systems, Sistemas de red Xerox) a la que debe su nombre. La extensa implantación de RIP se ha debido en gran
parte a su inclusión en 1982 en la versión BSD (Berkeley Sofware Distribution) de UNIX que soportaba
TCP/IP. La versión 1 de RIP está defnida en [RFC 1058], y la versión 2 compatible hacia abajo está defnida en
[RFC 2453].
RIP es un protocolo de vector de distancias. La versión de RIP especifcada en el documento RFC 1058 utiliza
como métrica de coste el recuento de saltos; es decir, cada enlace tiene un coste de 1. En el algoritmo de
vector de distancias, por simplifcar, los costes se defnieron entre parejas de routers. En RIP (y también en
OSPF), los costes se defnen realmente desde el router de origen a una subred de destino. RIP utiliza el término
salto (hop), que es el número de subredes que se atraviesan al seguir la ruta más corta desde el router de origen
hasta la subred de destino, incluyendo esta última.
El coste máximo de una ruta está limitado a 15, luego el uso de RIP en los sistemas autónomos está limitado a
sistemas autónomos con un diámetro de menos de 15 saltos. Hay que recordar que en los protocolos de vector
de distancias, los routers vecinos intercambian entre sí los vectores distancia. El vector de distancias para
cualquier router es la estimación actual de la ruta más corta desde dicho router a las subredes del AS. En RIP,
las actualizaciones de enrutamiento son intercambiadas entre los vecinos aproximadamente cada 30 segundos
mediante un mensaje de respuesta RIP. El mensaje de respuesta enviado por un router o un host contiene una
lista de hasta 25 subredes de destino pertenecientes al sistema autónomo, así como la distancia desde el
emisor a cada una de esas subredes. Los mensajes de respuesta se conocen como anuncios RIP.

Protocolo OSPF

 OSPF (Open Shotest Path First) defnido en el RFC 1583.


o OSPF v2 (para IPv4)
o OSPF v3 (para IPv6)
 Es un sofware que implementa un protocolo de encaminamiento interior (IGP) en redes TCP/IP.
Directamente encapsulado en IP.
 Requisitos a cumplir cuando se diseñó:
o Ser abierto.
o Reconocer varias métricas.
o Capaz de realizar encaminamiento dependiendo del tipo de servicio.
o Que pudiera equilibrar las cargas.
o Que reconociera sistemas jerárquicos.
 El protocolo OSPF reconoce los siguientes tipos de conexiones y redes:
1. Líneas punto a punto entre dos dispositivos.
2. Redes multiacceso con difusión (la mayoría de redes LAN).
3. Redes multiacceso sin difusión (la mayoría de redes LAN).
 La función del OSPF es encontrar la trayectoria más corta de un dispositivo de encaminamiento a
todos los demás.
 Métrica: Bandwidth (BW).
 Protocolo Jerárquico.

Característcas de OSPF
Estado de las interfaces:

 Down (sin actividad).


 Waiting (estado de espera).
 Loopback.
 Point-to-point (interface punto a punto)
 DR, abreviatura de Designated Router (interface de enrutador designado).
 Backup, por Backup Designated Router (interface de enrutador designado auxiliar, BDR).
 DROther (interface en una red broadcast o NBMA sin estatus DR ni BDR).

La secuencia básica de operaciones realizadas por el protocolo son:

105
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

1. Descubrir vecinos OSPF, con Mensajes Hello que se envían periódicamente.


2. Elegir el Designated Router.
3. Formar adyacencias.
4. Sincronizar bases de datos (grafo: LSDB).
5. Calcular la tabla de encaminamiento SPF/Dijkstra.
6. Anunciar los estados de enlaces.

Proceso que realizan los routers receptores:

• Cada router vecino habilitado recibe el mensaje, LSA.


• Buscar el registro del LSA en la base de datos local, LSDB, de acuerdo al router-ID, Seq-Num.
• Si no existe, lo agrega y hace “broadcast” del LSA en un mensaje OSPF.
• Si el número en la base es menor que el recibido, los reemplaza y envía.
• Si el número es mayor, transmitir el registro de la base a través del enlace por donde se recibió el mensaje
(Router no-actualizado).
• Si son iguales no hacer nada: Se detiene el fooding.
• El “broadcast” se hace sobre todos los enlaces, excepto sobre el que se recibió el mensaje.

Ruteo Jerárquico

• Dimensión grande: muchos routers y enlaces generan alto costo de uso de recursos.
• Un AS o Routing Domain puede ser dividido en diferentes áreas:
• Las áreas formadas por grupos de routers y redes.
• Routers pueden estar en más de un área: ABR (Area Border Router).
• Redes/links/interfaces solo en un área.
• Ruteo/Protocolo jerárquico: no necesita conocer la topología completa de la red.
• Reduce el alcance de los LSA fooding, lo limita.
• Ayuda a reducir tamaños de LSDB y tablas de ruteo, menos uso de memoria.
• Permite mantener más estable los cambios, menos corridas de SFP, menos uso de CPU.

Área: identifcada número de 32 bits, notación: NNN o X.X.X.X


• En OSPF, 2 niveles:
• Área de intercambio: principal, backbone, area: Zero “0” (0.0.0.0).
• Áreas periféricas
• El tráfco entre áreas debe pasar por el backbone.
• El backbone debe estar conectado completamente a todas las áreas, al menos a un ABR.

Multitarea
Tipos de Routers
• Internos, solo en un área, agregan redes Intra-area solamente
• Routers de borde de área, ABR, más de un área, gestionan tráfco Intra e Inter-area
• Routers de backbone, en el área 0, pueden ser de ABR o no
• Routers de borde de AS, ASBR, agregan tráfco externo, pueden estar en el área 0

106
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Características de OSPF – multiarea


Tipos de Rutas
 Rutas internas: Intra-Area (-)
 Routers en un área no conocen la topología externa al área
 Los routers tienen una LSDB por cada área a la que están conectados
 Rutas incluidas de otras áreas: Intra-Area: (IA)
 Rutas incluidas en OSPF desde otros protocolos, Rutas Externas:
o Tipo 1: métrica comparable con el costo de OSPF: (E1)
o Tipo 2: métrica estrictamente mayor que cualquier métrica de OSPF, no se incrementa: (E2),
default (E)
 Si todas áreas normales: todos conocen todas las rutas, los ABR sumarizan de un área periférica al
backbone y al revés.
 Luego, compara rutas.

Características de OSPF – autenticación

Tipos de autenticación defnidos:


• Null authentication: No autentica, default.
• Simple password: clave en texto claro, poco útil. Se compara la clave en el paquete con la confgurada,
problemas con snifers.
• Cryptographic authentication: se envía un “Message Digest” (ej. MD5) del mensaje + un secreto
compartido. En autentifcación se describe la clave OSPFv3 utiliza IPSec, IPv6 authentication extension
header.

Algoritmos de ruteo inter-AS: BGP.


Las redes tienen un protocolo común para la convergencia: IP, en versión 4 y versión 6.
Cualquier router conectado a Internet debe poder soportar esos protocolos. El protocolo de tránsito, de
Transporte será TCP, es decir TCP sobre IP.

107
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Se pueden clasifcar a las redes en Tipos de acuerdo a si solamente Transportan tráfco (Transit Networks), y
redes de No-tránsito/Stub (Non-transit Networks).
Las redes por debajo de IP se conectan con tecnologías: Ethernet, MPLS, ATM, MetroEthernet. La tecnología
que tenga me va a defnir la Topología.
Si tengo una red Ethernet, voy a tener una red TIPO BROADCAST, si tengo Frame-Relay tendré P2P, en caso
de MetroEthernet: es confgurable.
Con el crecimiento de Internet, hablamos de Red de AS. Lo que ocurre dentro del AS, al sistema externo no le
interesa. Cada AS tiene sus propias políticas de funcionamiento.
Internet surgió como una red chica y fue creciendo, al principio se utilizaba EGP, el antecesor de BGP, no
habían tantos problemas porque la red era 'chica'. La red fue creciendo, el EGP no soportaba la carga ni las
funcionalidades requeridas y por ello se creó un protocolo nuevo, el BGP.
BGP (protocolo de gateway fronterizo) es protocolo más utilizado para redes con intención de confgurar un
Exterior Gateway Protocol (protocolo de encaminamiento exterior).
El OBJETIVO de BGP: intercambio de rutas entre AS, mediante la aplicación de políticas.
Cada AS se encarga de mantener estable su red, y BGP será el encargado de distribuir esas redes entre los
distintos AS.
Es un protocolo mediante el cual se intercambia información de encaminamiento entre sistemas autónomos.
Por ejemplo, los ISP registrados en Internet suelen componerse de varios sistemas autónomos y para este caso
es necesario un protocolo como BGP.
BGP (protocolo de gateway fronterizo ) es un protocolo interdominio (entre sistemas autónomos) e
intradominio (dentro del mismo sistema autónomo).
- Existen los BGP speaker(BGPS) :
Un sistema que ejecuta BGP.
- Existen los BGP neighbors :
Un par de BGPSs intercambiando información de encaminamiento inter-AS.
Los vecinos BGP pueden ser de dos tipos:
Internal: Un par de BGPSs en el mismo AS. Deben presentar a los vecinos externos al AS una imagen
consistente de su propio AS.
External: Un par de BGPSs en distintos AS’s. Los vecinos externos ("external") deben estar conectados por
algún tipo de conexión. Esta restricción signifca que en la mayoría de los casos en los que un AS tenga
múltiples conexiones inter-AS de tipo BGP, también requerirá múltiples BGPSs.

Defniciones
Formas de Interconexión de Redes
Peering: interconexión voluntaria entre dos redes de “libre acuerdo”. No hay costo. En general no hay tránsito.
Customer-Provider: interconexión donde el cliente paga al proveedor. El Provider provee tránsito.
Existen diferentes niveles de Providers (ISP), se genera una “jerarquía” de ISP:
 Local ISP (en general stubs) Ofrece servicios a usuarios fnales y organizaciones, contratan servicios de
RSP.
 Regional ISP (stub o tránsito) Ofrecen servicios a usuarios fnales y a otros ISP. Contratan servicios de
NSP
 NSP National/Global Service Provider (tránsito), a veces llamados NBP (National Backbone Provider)
Ofrecen servicios a otros ISP y a grandes organizaciones. Dentro de la misma organización tienen
subsidiarias/empresas para ofrecer servicios a end-users.
Internet Exchange Points: IXP, NAP, puntos de intercambio multilaterales en zona neutral. En general sin
tránsito, Public Peering.

Implementación de interconexión de Redes

Conexión de última milla donde la red conforma extensión del proveedor.


Ruteo estático, contra red de ISP, red Stub.
Ruteo dinámico IGP contra la red del ISP, no muy común, difcil implementación, multi-proveedor.
Ruteo dinámico EGP contra el proveedor, requiere AS y bloque de direcciones separada. Se puede implementar
con AS privado y bloque de IP delegado.
Esquema apto para multi-proveedor.

108
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Client ISP
Static

Client ISP
IGP

Client ISP
eBGP

Polítca de Ruteo
Un conjunto de reglas que construyen el encaminamiento para adecuarse a los deseos de la autoridad que
administra el AS.
Las políticas de encaminamiento no están defnidas en el protocolo BGP-3, pero están seleccionadas por la
autoridad AS y se presentan a BGP-3 en forma de datos de confguración específcos de la implementación.
Las políticas de encaminamiento las puede seleccionar la autoridad del AS del modo que considere oportuno.
Selección de rutas
BGP-3 es un protocolo vector-distancia, determina un orden de preferencia al aplicar una función que mapea
cada ruta a un valor de prioridad y selecciona la ruta que tenga el mayor valor. Esta función la genera la
implementación de BGP-3 según la información de confguración.
Cuando hay múltiples rutas hasta un destino, BGP-3 las mantiene pero sólo anuncia la de mayor preferencia.
Esta estrategia permite cambiar rápidamente a una ruta alternativa cuando falla la principal.
Protocolos dentro de BGP
BGP está formado por dos “sub-protocolos”:
iBGP: Interior-BGP, usado por los routers del mismo AS. Actualiza información.
Transporta prefjos del ISP o Routing Domain, requiere IGP y full-mesh.
eBGP: Exterior-BGP, usado entre router de borde de diferentes AS.
Intercambia rutas con otros AS’s.
Implementa políticas de ruteo con el exterior.
Términos.
Protocolo para intercambio de tráfco: EGP, implementación BGP.
Los ISP/NSP conectan como NAP (Network Access Point), ahora reemplazado por IXP (Internet Exchange
Point) o IX.
NAP/IXP: red de L2 de alta velocidad (switches) con el propósito de que los Providers conecten sus router para
intercambiar tráfco e información de ruteo.
También se utilizan Direct-Interconnection de acuerdo a contratos negocios bilaterales o para aumentar
capacidad:
Peering o Customer/Provider.
Los Providers dan servicios en los PoP (Point of Presence). Lugares fsicos donde tienen equipos: servidores,
routers, switches. PoP extensiones de ubicación del proveedor.
Los Providers en general son IXC (IntereXchange Carrier), TELCOs de larga distancia, o poseedores de FO
trans-oceánica.

109
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Internet, estructura jerárquica en


malla,
niveles:
Nivel/Tier 1: el primer nivel, núcleo
o Tier 1, backbone de Internet. No
compran Tránsito IP para llegar a
nadie y llegan a todos los puntos de
la red. En general son IXC.
Nivel/Tier 2: tienen varios enlaces a
diferentes
Tiers 1, pero deben comprar tránsito
IP para algunos casos. Venden
tránsito a ISP más chicos.
Nivel/Tier 3: son redes que compran
acceso a
Internet, a redes de nivel superior
(Upstream).
En general tienen más de 1 peering
con diferentes AS.
Nivel de ISP locales: un solo AS,
venden
servicios a usuarios fnales y
contrata

Recordamos…. Sistema Autónomo (AS)


Conjunto de redes bajo la misma administración (podría ser gestionada por más de un operador de red), y
utilizando un IGP o combinaciones de IGP para rutear internamente.
Independiente el ruteo de la red de su proveedor.
Debe poseen una clara y única política de ruteo, Dominio de Ruteo independiente Debe tener un identifcador
único para el intercambio de información ASN (AS Number) asignado por el IANA, de 16 bits: AS0..AS65535.
Debido a la escasez de ASN, desde 2007 se han extendido a 32 bits: AS1.0 .. AS65535.65535.
El AS debe garantiza que las rutas internas permanezcan consistentes y alcanzables.
El IANA delega la asignación de los ASN (AS Number) a los RIRs: LACNIC, RIPE, ARIN, AFRINIC, ARIN.
Mínimo: Un solo router que conecta una LAN a Internet.
Máximo: No está defnido.
Aseguran la conectividad interna.
Las tablas de ruteo dentro del AS son mantenidas por los IGP.
Los protocolos EGPs (static, EGP, BGP) se encargan del intercambio entre AS.
- Conexión fsica
Un AS comparte una red fsica con otro AS, y esta red está conectada a al menos un ASBR de cada AS.
Como estos dos ASBRs comparten una red, se pueden enviar paquetes sin requerir ningún protocolo de
encaminamiento inter-AS o intra-AS (es decir, no requieren de IGP ni de EGP para comunicarse).
- Conexión BGP
Una conexión BGP signifca que hay una sesión BGP entre un par de BGPSs, uno en cada AS, esta sesión se usa
para comunicar las rutas a través de los ASBRs que se pueden emplear para redes específcas.
BGP-3 requiere que los BGPSs estén en la misma red al igual que los ASBRs conectados fsicamente, por lo que
la sesión BGP es independiente de todos los protocolos inter-AS.

Tipos de tráfco, BGP-3 categoriza el tráfco en un AS en dos tipos:

110
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

local
El tráfco que se origina o que termina en ese AS. Es decir, o bien la dirección fuente o bien la de destino están
en el AS.
transit
Tráfco no local:
Uno de los objetivos de BGP es minimizar este tipo de tráfco.

Un AS se clasifca en uno de tres tipos:


stub
Un SAS("stub AS") tiene una sola conexión inter-AS con otro AS, y solo lleva tráfco de tipo "local".
multhomed
Un AS "multihomed"(multipuerto) tiene conexiones a uno o más ASs pero rechaza llevar tráfco de tipo
"transit".
Transit
Un AS de tipo "transit" tiene conexiones a uno o más AS’s y lleva tráfco de tipo "transit". El AS puede imponer
restricciones en el tráfco que llevará.
Ejemplo:

Protocolo de ruteo BGP externo (eBGP)


Entre router en AS diferentes
Usualmente con conexión directa
Primero establece la vecindad conectando TCP y enviando los saludos BGP.
Si se aceptan las vecindades se establece el peering.
eBGP una vez que establece la vecindad/peering con los routers de borde de otro AS, intercambia todas las
rutas(prefjos) y acepta las del vecino.
eBGP antes de intercambiar rutas con otro AS, pasarle rutas, verifca que la ruta sea alcanzable, esto signifca
que se encuentren en su tabla de ruteo.
A cada prefjo aplica las políticas defnidas, entrantes y salientes.
Luego realiza actualizaciones ante cambios, incrementales.

111
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Router B AS 109
router bgp 110
neighbor 131.108.10.1 remote-as 109
Router A
131.108.0.0
router bgp 109
neighbor 131.108.10.2 remote-as 110 .1 A

132.108.10.0

Protocolo de ruteo iBGP


iBGP se utiliza para poder distribuir las rutas aprendidas por eBGP dentro del AS entre ASBRs.
BGP se puede distribuir directamente en un IGP como OSPF o IS-IS.
iBGP también se utiliza para indicar a los routers BGP de borde, corriendo eBGP, que redes publicar sin
necesidad de confguración explícita.
iBGP es importante para mantener una visión coherente del AS para los AS externos y es más importante
cuando es un sistema de Tránsito.
Requiere IGP, no directamente conectados.

Confguración del protocolo de Ruteo eBGP:


 BGP no descubre “neighbours”, se confguran, manualmente.
 La confguración se hace en ambos extremos del enlace.
 Ambos routers tratarán de conectarse a través de una sesión TCP en el port 179.
 Para eBGP deben estar directamente en el mismo segmento.
 Quedará activa sólo una sesión si ambos intentos son exitosos.

112
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

 Se verifca la dirección IP del pedido de conexión entrante contra la lista de los “neighbours”
confgurados.
 Requiere que los AS confgurados que esperan concuerden.
 Crear el proceso BGP, indicar el ASN local, no se puede tener varias instancias en el mismo entorno.
 Confgurar una red IP, red de demarcación, habitualmente proveída por ISP contratado o servicio
común en el caso de IXP.
 Confgurar el peer IP remoto y el ASN remoto, eBGP en este caso.
 Lo mismo del otro extremo.
 Se estableció el peering con el ASN remoto, se está en condiciones de recibir y enviar rutas.
 La confguración BGP no es tan básica como un IGP, resta la implementación de las Políticas de Ruteo
(RP).

Polítcas de ruteo

Criterio de Selección de Mejor Ruta


NLRI: Longitud de prefjo, el más largo, best-match mejor, a igual NLRI...
WEIGHT más alto.
LOCAL_PREF más alto (Default 100).
Prefere los caminos locales generados con el comando network: BGP
AS_PATH más corto. Si se usa AS_SET cuenta todo como uno.
Prefere de acuerdo al siguiente orden de orígenes: IGP, EGP, Incompleto.
MED más bajo. Notar que si son de diferentes AS no los comparará a menos que se confgure explícitamente
(Default 0 el mejor si no tiene).
Prefere eBGP antes que iBGP, en el caso de cisco compara distancias administrativas, eBGP tiene 20 e iBGP
tiene 200.
Prefere el más viejo.
Prefere el que tiene el router ID más bajo (Utiliza interfaces de loopback o generado).
Prefere el que viene de la dirección IP más baja.

Defnición de Políticas

 El ruteo entre AS está sujeto a políticas de control.


 Se requiere una autorización antes de usar los recursos ajenos.
 La necesidad de describir y gestionar esas políticas explican la creación de BGP y su complejidad.
 BGP admite manipular las redes que se distribuyen o se incluyen en los AS.
 Se puede implementar políticas y hacerlas públicas.
 Las políticas se implementan mediante fltros y ruteo selectivo.
 Cuando cambian las políticas se debe correr un clear para que los cambios tengan efecto.
 Los clear pueden ser Resets o Sof (los cuales no tiran a bajo las sesiones BGP).
Por ejemplo Aplicar políticas en ip prefx-list PREFLST-BGP-PRIV- 15692A(confg))
General: IN seq 5 deny 192.168.0.0/16 le Ip prefx-list PREFLST-BGP-PRIV-
15692A(confg)) 32 IN seq 5 deny 192.168.0.0/16 le
router bgp 15692 ip prefx-list PREFLST-BGP-PRIV- 32
neighbor 200.3.4.1 remote-as IN seq 10 permit 0.0.0.0/0 le 32 Ip prefx-list PREFLST-BGP-PRIV-
10834 router bgp 15692 IN seq 10 permit 0.0.0.0/0 le 32
neighbor 200.3.4.1 prefx-list PFX- ... Router bgp 15692
PEER-1-OUT in neighbor 200.3.4.1 prefx-list …
neighbor 200.3.4.1 prefx-list PFX- PREFLST-BGP-PRIV-IN Neighbor 200.3.4.1 prefx-list
PEER-1-IN out neighbor 200.3.4.1 sof- PREFLST-BGP-PRIV-IN
reconfguration inbound Neighbor 200.3.4.1 sof-
... reconfguration inbound
!1 …
5692A)clear ip bgp 200.3.4.1 sof !
in 15692A)clear ip bgp 200.3.4.1
sof in

113
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Tema 6: Red Local


Latencia y ancho de banda en redes de alta prestación.
Se ha visto, que la capa de red proporciona un servicio de comunicaciones entre dos Hosts. La ruta de
comunicación está compuesta por una serie de enlaces de comunicaciones, que comienzan en el host de
origen, pasan a través de una serie de routers y terminan en el host de destino.
En una red de área local, el objetivo de comunicación, es asegurar múltiples y simultáneas comunicaciones
entre Nodos conectados a un único canal de enlace.
Ethernet, es por lejos, la tecnología de área local más utilizada como proveedora de enlace a gran velocidad y
capacidad.
Ethernet es utilizada en redes de área local, para conectar múltiples sistemas clientes con servidores de
aplicaciones informáticas; éstos difunden servicios informáticos sobre la red de Acceso, que los clientes
consumen.
Ethernet de 1Gb proporciona:
 Ancho de Banda dedicado en cada puerto.
 Ancho de Banda agregado para conversaciones simultáneas.
 Tiempos de Respuestas consistentes.

Interconexión de PC’s para implementar una red LAN:


 Tarjetas Ethernet, Drivers para Sistema Operativos.
 Cables de Conexión.
 Alimentación eléctrica adecuada.
 Switch Ethernet como centro de la estrella.
Permite:
 Comunicaciones entre hosts de diferentes LAN con un mismo protocolo de capa 2.
 Integrar redes de distintas tecnologías.
 Filtrado de contenido, accesos restringidos mediante ACL.
 QoS (Quality of Service)

Switch 1

B
A
C
Switch 2
K
B
O
N
E
Switch 3

114
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Switch

Redundancia
4 Puertos que funcionan como uno.

Tópicos para el diseño de Redes switcheadas: 1GBE y 10GBEe cobre y fbra.

Tramas Gigabit Ethernet

Arquitectura Gigabit Ethernet

Para llevar velocidades desde 100 Mbps a 1 Gbps, varios cambios se han hecho a la capa fsica.
Se ha decidido que GE sea idéntica a Ethernet a partir de la capa de enlace de datos.
Para llevar a 1 Gbps se han mezclado tecnologías IEEE 802.3 Ethernet y ANSI X3T11 Fibre Channel.
De IEEE 802.3 se utilizan las subcapas de acceso al medio; de Ansi se utilizan las defniciones de conexión y
codifcación/decodifcación.
La diferencia entre FCh y Ge es que FCh utiliza un sistema de señales de 1.062 gigabaudios, contra 1.25
gigabaudios de GE
Codifcación 8B
Decodifcación: 10B

115
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Rendimiento:
Interfaz 1Gb Ethernet Interfaz 40Gb Infniband
Ping –i0.06 20 packets transmited, time 979ms 20 packets transmited, time 988ms
–c20 s30 Rt min/avg/max/mdev = 0.416/0.658/2.583/0.535 Rt min/avg/max/mdev = 0.044/0.057/0.056/0.010
ms ms
Ping –i0.06 20 packets transmited, time 978ms 20 packets transmited, time 979ms
–c20 s300 Rt min/avg/max/mdev = 0.570/0.707/1.568/0.263 Rt min/avg/max/mdev = 0.054/0.060/0.088/0.009
ms ms
Ping –i0.06 20 packets transmited, time 979ms 20 packets transmited, time 979ms
–c200 s4096 Rt min/avg/max/mdev = 2.566/a/3.450/0.286 ms Rt min/avg/max/mdev = 0.077/0.088/0.118/0.018
ms
Ping –i0.06 – 20 packets transmited, time 956ms 20 packets transmited, time 979ms
c200 s20000 Rt min/avg/max/mdev = 5.877/6.022/6.676/0.201 Rt min/avg/max/mdev = 0.113/0.123/0.189/0.021
ms ms

Switching Ethernet – Técnicas de Envío

Cut-Through : El switch comenzará a enviar datos después de que éste reciba la dirección de destino del Frame.
Así, Frames con Errores no pueden ser detectados, por lo que este método puede impactar en el rendimiento
de una red, al enviar Frames corruptos o truncados. "Bad" Frames pueden originar Tormentas de Broadcasts
(Broadcasts Storms), en que muchos de los dispositivos de la red responderán a los Frames corruptos
simultáneamente.

Store-and-Forward: El Switch esperará hasta que todo el Frame haya arribado, antes de tomar una decisión de
envío. Este proceso asegura que la red de destino no se verá afectada por Frames corruptos o truncados, pero
con la desventaja que tiene mayor latencia que cut-through.

Fragment Free Cut-Through: El punto medio entre cut-through y store-and- forward, es el método fragment free
cut-through el cuál sólo envía paquetes cuyo largo mínimo es de 64 bytes, y fltra aquellos paquetes cuya
longitud es menor que 64 bytes, tales como paquetes corruptos o runt.
La diferencia entre éste método y store-and-forward es que de todas formas puede enviar paquetes corruptos
aun cuando ellos sean mayores que 64 bytes.

Cascada y Stacking

Para los casos en que la infraestructura cuente con más de un switch y es necesaria su Stack es para
interconectar 2 o más switches utilizando un cable especial (tipo SCSI o HDMI) Cascada utiliza los puertos del
switch Ethernet para conectarse a un segundo Switch Comparando ambos métodos, el hacer Stack es la mejor
solución para usar en switches si ellos están ubicado uno al lado del otro, eliminando el problema del contador
de saltos.

Gestonabilidad

Switch Gestionable, signifca que el Switch tiene características de administración y está habilitado para recibir
una dirección IP de manera tal que pueda ser Monitoreado Remotamente. Otras características de
administración: soporte y gestión de VLAN’s, Estadísticas de uso (por puerto, por tamaño de paquetes); Alertas
ante ocurrencia de eventos (tormenta de broadcast). Switch No Gestionable, signifca que éste dispositivo no
permite ningún tipo confguración y todas sus características están en modo "auto".

Port Mirroring

116
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Permite monitorear un puerto del switch, enviando el tráfco a un puerto destino (mirror port). Es utilizado para
capturar datos con un analizador de protocolos. (IN- OUT). Los puertos de origen y destino deben estar
ubicados en el mismo switch.

Port Security
 Permite controlar las estaciones conectadas a un puerto analizando su MAC.
 Trabaja en dos modos: Lock y Max-address.
 Cuando se conecta una MAC desconocida, el puerto puede tomar alguna de estas opciones: Reenvio,
Discard, Discard y envío SNMP y discard-shutdown.
 Se pueden ingresar direcciones MAC manualmente y asignarlos a puertos cuando se encuentre el port-
security habilitado.

Link Aggregaton (802.3ad)


 Soporta enlaces activos múltiples, punto-a-punto y ¨paralelos¨ entre switches ó entre un switch y un
host.
 ¨Trunking¨ permite que un número de puertos se confguren en grupos para poder operar como una
única conexión lógica para proveer:
o Mayor ancho de banda.
o Redundancia.
o Balanceo de carga.
 Implementado a través de LACP, los puertos deben pertenecer a la misma VLAN, no se pueden
mezclar velocidades de puertos.
Autonegociación
Es un mecanismo que toma el control del cable cuando una conexión es establecida por un dispositivo de red.
Detecta los varios modos de operación que existen en el dispositivo remoto, e informa de sus propias
habilidades para automáticamente confgurar el modo de operación más alto común a ambos equipos.
Actúa como un selector rotativo que automáticamente selecciona la tecnología correcta, y el correspondiente
modo de operación en Half o Full Duplex. Una vez que el modo de operación común es determinado, la Auto-
Negociación pasa el control del cable a la apropiada tecnología lo cual es transparente hasta que la conexión se
termine.
Un dispositivo que soporta Auto-Negociación opera informando de sus habilidades y a su vez detectando las
habilidades del dispositivo remoto con quien se conectará, a través de un mecanismo estándar denominado
Fast Link Pulse.
Jerarquía en la Auto-Negociación:
1. 1000BASE-TX Full Duplex
2. 100BASE-TX Full Duplex
3. 100BASE-T4
4. 100BASE-TX
5. 10BASE-T Full Duplex
6. 10BASE-T
Necesidad de uso del Protocolo Spanning Tree
La implementación de redes basadas en Switching Ethernet, corren peligro de crear bucles o loops en su
infraestructura, que como resultado determinan baja performance de la red por reiteradas retransmisiones y/o
descartes de frames.
Para evitar esta situación, se ha desarrollado un algoritmo conocido como “Spanning Tree”, estandarizado en la
Recomendación IEEE 802.1d. Se busca bloquear los enlaces que cierran los bucles, dejando a la red siempre
con una topología del tipo “árbol”, y asegurar de esta manera que no existan bucles.

117
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

El algoritmo reevalúa periódicamente que enlaces hay que bloquear o rehabilitar para tener acceso a todos los
equipos sin crear bucles. Permite valorar los enlaces con “pesos”, cuando existen bucles es posible confgurar a
priori que enlaces serán los principales y que enlaces quedarán bloqueados.

Componentes de una red de alcance local: Routers


Un router es un dispositivo que dispone de hardware y sofware especializado preparado para iniciar,
mantener, controlar y monitorear conversaciones con distintas arquitecturas en capa 1 y 2.
 Funcionalidades:
o Segmentar la red a partir de las interfaces ethernet;
o Limitar el tráfco de broadcast originado en capa 2;
o Proporcionar seguridad de acceso (ACL, VPN)
o Redundancia de caminos a través de protocolos de ruteo.
 Concentra tecnologías de conexión de Red en un mismo chasis:
o Conexiones ethernet 10 /100 1000 MBPS.
o Conexiones seriales para radioenlaces y satélite
o Conexiones ATM
o Conexiones SONET para fbra óptica
 El “Router” realiza dos funciones básicas:
o Crear y mantener tablas de ruteo para cada capa de protocolo de red.
o Permite seleccionar la mejor ruta, basándose sobre diversos
factores, más que por la dirección MAC destino.

118
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Infniband de 40GB.
Conceptos de la arquitectura Infiniband
Infniband (IB) es una tecnología de red desarrollada por la InfniBand Trade Association en 1999. Se usa para la
computación de alto rendimiento y en los centros de datos empresariales. Esas características incluyen alto
througput, baja latencia, calidad de servicio y failover.
La más pequeña de las unidades de arquitecturas Infniband (IBA) es una subred. Una subred consiste en los
nodos terminales (por ejemplo, servidores), switches, cobertores o enlaces de fbra y un manejo de subred. Los
nodos terminales llamados Adaptadores de Canal (CA) para conectar enlaces. Estos son los Host Adapters
Channels (HAC).
Para Los Centros de Procesamiento de Datos actualmente suelen utilizar redes Ethernet para la conexión, y la
pila de protocolos basados en TCP/IP para la comunicación, utilizados por la mayoría de sus aplicaciones
informáticas.
TCP-IP es conocido por incurrir en altos “gastos de recursos indirectos”, por cada TCP hay gasto de CPU y
Memoria del Host. En consecuencia, las redes de alta velocidad, como InfniBand (IB), se han basado en pilas de
protocolos alternativos con el fn de permitir que las aplicaciones puedan aprovechar las altas capacidades que
ofrece la red sorteando el alto consumo de recursos.
Las Redes IB se caracterizan por su alta velocidad, baja latencia, y altos costos de despliegue sociados a la
adaptación o migración de las aplicaciones de centros de datos actuales para utilizar drivers nativos IB; siendo
este último punto una barrera para la adopción masiva de las redes del IB en los centros de datos.
En consecuencia surgieron nuevas propuestas, como ser Direct Protocol sockets (SDP) desarrollado como una
solución intermedia a este problema. SDP fue diseñado para eludir la pila TCP/IP y permitir que las aplicaciones
que utilizan la API de sockets TCP / IP usen directamente las características proporcionadas por las redes
InfniBand.
Arquitectura IBA.
IBA admite dos tipos de semánticas de comunicación: Channel Semantic (CS) y RDMA. Remote Direct Memory
Access permite a los procesos el acceso a memoria de un proceso en un nodo remoto sin intervención del CPU
del nodo remoto (lectura o escritura). InfniBand defne múltiples modos de transporte: Reliable Connection
(RC), Unreliable Connection (UC), Unreliable Datagram (UD) y Reliable Datagram (RD); el (UD) es el que mejor
se acopla a las necesidades de IP.

119
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Recordemos que mediante la pila TCP/IP, los datos se divide en unidades de paquetes de tamaño, proporciona
control y la fabilidad de fujo. La pila IP a continuación, añade la información necesaria para el encaminamiento
correcto del paquete a su destino. Por lo tanto, el adaptador de red se supone que es un dispositivo de entrega
‘no confable’, sin capacidades adicionales.
Se hace necesaria la convergencia entre InfniBand y Ethernet. IPoIB es la interfaz por la que los programas
basados en socket IP operan sobre IB, aporta un importante rendimiento en entornos de centros de datos
actuales para entender los benefcios que podrían derivarse de entornos de red híbridos.

• mlx4 es el controlador para los adaptadores de la familia ConnectX diseñados por Mellanox Technologies de
más bajo nivel de implementación. Adaptadores de la familia ConnectX® pueden funcionar como un adaptador
InfniBand, o como una NIC de Ethernet. El conductor OFED admite confguraciones de InfniBand y Ethernet
NIC.
• mlx4_core: Maneja funciones de bajo nivel como la inicialización del dispositivo y el procesamiento de los
comandos de frmware. También controla la asignación de recursos de manera que las funciones InfniBand y
Ethernet pueden compartir el dispositivo sin interferir uno con otro.
• mlx4_ib: Maneja funciones y enchufes InfniBand-específcos en la capa intermedia de InfniBand.
• mlx4_en: Driver 10/40GbE en drivers/net/ethernet/mellanox/mlx4 que se encarga de las funciones
específcas de Ethernet y se conecta a la capa intermedia netdevice.

Infiniband, protocolos nivel usuario

IPoIB (IP sobre IB) es un protocolo que defne cómo enviar paquetes IP a través de IB. Encapsula datagramas IP
sobre un servicio de transporte. IPoIB pre-añade los datagramas IP con un encabezado de encapsulación, y
envía el resultado a través del servicio de transporte InfniBand. El servicio de transporte es de datagramas no
fable (UD) de forma predeterminada, pero también puede ser confgurado para ser fable Conectado (RC). La
interfaz es compatible con unicast, multicast y broadcast.

120
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

La diferencia real está en las aplicaciones codifcadas directamente con drivers Infniband de forma nativa
frente a aquellas heredadas de TCP-IP.
Sobre UD existen a su vez dos tipos de segmentación: Large Receive Ofoad (LRO) y Large Send Ofoad (LSO).
 LSO proporciona un MTU virtual.
 LRO prevé la agregación de paquetes entrantes para entregarlos al sistema.
iSER: extiende el protocolo iSCSI para RDMA. Se permite que los datos sean transferidos directamente en y
fuera de bufers SCSI sin copias de datos intermedios.
uDAPL: User Direct Access Programming Library es una API estándar que promueve rendimiento, escalabilidad
y fabilidad a las aplicaciones de mensajería de datos del centro de datos, interconectados por RDMA:
InfniBand y RoCE.
MPI Message Passing Interface es una especifcación de biblioteca que permite el desarrollo de bibliotecas de
sofware paralelo para utilizarlas en clusters y redes heterogéneas. Mellanox OFED incluye una
implementación Open MPI.
Infniband Subnet Manager: Todos los ULPs-InfniBand compatible requieren una operación apropiada de un
administrador de subred (SM) que se ejecuta en malla InfniBand, en todo momento. Opensm es una subred
InfniBand Manager-compatible, y se instala como parte de Mellanox OFED.

Infniband, protocolo SDP

El Protocolo de Socket Directo (SDP) es un protocolo de red originalmente defnido por el Sofware Working
Group (SWG) de la InfniBand Trade Association.
Originalmente diseñado para InfniBand, SDP ha sido redefnido como un protocolo de transporte para la
estructura de red con acceso a memoria directo remoto (RDMA).
El propósito es proveer una alternativa acelerada de RDMA al protocolo TCP sobre IP. La meta es hacer esto
de forma que sea transparente a las aplicaciones.
Soporta sistema operativo Linux y Windows, y es parte de la OpenFabrics Enterprise Distribution (OFED), una
colección de protocolos de red RDMA. La OEFD es administrada por la OpenFabrics Alliance.
Trata con stream sockets, y si es instalado en un sistema, evita la pila TCP residente del sistema operativo para
conexiones de tipo stream entre cualquier punto fnal en la estructura RDMA. Todos los otros tipos de socket
(datagrama, paquete, etc.) son soportados por la pila IP de Linux y operan sobre interfaces estándar de IP (por
ejemplo IPoIB en estructuras InfniBand).
Debido a las características RDMA utilizados por SDP, utiliza el modo RC de IB; el cual descarga la mayoría de
la carga de trabajo directamente a la NIC, lo que permite un mayor rendimiento y menores latencias.

SDP puede funcionar en dos modos:


Buferd Copy (BC) y Zero Copy (ZC).

BC utiliza un búfer local para contener los datos


entrantes, que luego se copia en el espacio de
memoria de la aplicación cuando los datos se hayan
recibido satisfactoriamente. Es útil para pequeñas
transferencias de mensajes.
ZC funciona mediante la transferencia de datos
directamente del bufer de aplicación entre los
sistemas, funciona bien para mensajes de gran
tamaño, en los que la sobrecarga necesaria para
establecer la transferencia de bufer de aplicación
es compensado por una transferencia de datos de
gran tamaño, y la copia directa aumenta el ancho
de banda disponible mediante la reducción de los
accesos a memoria.
La versión actual de OFED proporciona un punto de
conmutación de umbral ajustable para permitir una
transición entre los dos modos de funcionamiento,
su valor por defecto es 64 KB. SDP versus IPoIB

121
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Conceptos de conexión

Se usa una codifcación 8B/10B, con lo que, de cada 10 bits enviados solamente 8 son de datos, de tal manera
que la tasa de transmisión útil es 4/5 de la media.
Los enlaces pueden añadirse en grupos de 4 o 12, llamados 4X o 12X. Un enlace 12X a cuádruple ritmo tiene
un caudal bruto de 120 gbps, y 96 Gbps de caudal efcaz.
La latencia teórica de estos sistemas es de unos 160ns. Las reales están en torno a los 6 us, dependiendo
bastante del sofware y el frmware.
Usa una topología conmutada de forma que varios dispositivos pueden compartir la red al mismo tiempo (en
oposición a la topología en bus de Ethernet).
Permite que servidores y equipos de almacenamiento puedan ser conectados a través de un sistema de
conmutadores (switch fabric). Hay varias topologías InfniBand:
Fat Tree: Un árbol multi-raíz, topología más popular. Permite el mejor rendimiento a gran escala cuando se
confgura como una red no-bloqueo.
El controlador de memoria gestiona el bus del sistema
• Controla el tráfco entre el procesador y la memoria
• Controla el tráfco entre el HCA y la memoria
Los sistemas de almacenamiento y el resto de dispositivos se conectan a un conmutador InfniBand por medio
de un TCA (Target Channel Adapter)
Los adaptadores HCA y TCA son dispositivos inteligentes que gestionan todas las funciones de E/S sin
necesidad de interrumpir al procesador del servidor
Los servidores y los dispositivos se comunican con el conmutador de InfniBand a través de ellos
Para añadir nuevos dispositivos al tema basta con conectar sus adaptadores al conmutador
Cada enlace fsico entre un conmutador y un adaptador HCA o TCA conectado a él puede incluir hasta
16 canales lógicos denominados líneas virtuales
• Una línea se reserva para la gestión del conmutador
• Las otras líneas se reservan para la transmisión de datos
Los datos se envían en forma de secuencia de paquetes, conteniendo cada paquete:
• Información de direccionamiento
• Información de control
• Una parte del volumen de datos a transmitir

InfniBand: Encapsulación IP en IB

IPoIB puede funcionar en dos modos de operación:


• modo Conectado
• modo de Datagramas
De forma predeterminada, IPoIB trabaja en modo en datagramas.
Para una mejor escalabilidad y el rendimiento se recomienda utilizar el modo de
datagramas.
El modo puede cambiarse al modo Conectado editando el archivo
/etc/infniband/openib.conf y el establecimiento de 'SET_IPOIB_CM = yes‘
$ ibstat $ ibstatus
$ ibnetdiscovery $ ibping

InfniBand: MPI en IB

Message Passing Interface (MPI) es una especifcación de biblioteca que permite el desarrollo de bibliotecas de
sofware paralelo para utilizarlas en computadoras paralelas, clústers y redes heterogéneas.
Mellanox OFED incluye las siguientes implementaciones MPI sobre InfniBand:
• Abrir MPI - un código abierto aplicación MPI-2 por el proyecto abierto MPI
• OSU MVAPICH - una implementación MPI-1 por la Universidad del Estado de Ohio
Para la comunicación punto a punto:
MPI_I/SEND, MPI_I/RECV
Para comunicaciones colectivas:
122
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

MPI_AlltoAll, MPI_Reduce, MPI_barrier


Otros comandos:
MPI_Wait, MPI_Walltime
MPI Ranks son los identifcadores asignados a cada proceso
MPI Communication Groups son subdivisiones de un nodo de trabajo utilizado para colectivos
Two MPI stacks are included in this release of OFED:
MVAPICH 1.1.0
Open MPI 1.2.8

InfniBand: MPI en IB

A message passing interface


Used for point to point communication
MPI_I/SEND, MPI_I/RECV
Used for collective operations:
MPI_AlltoAll, MPI_Reduce, MPI_barrier
Other primitives
MPI_Wait, MPI_Walltime
MPI Ranks are IDs assigned to each process
MPI Communication Groups son subdivisiones de un nodo de trabajo utilizado para
colectivos
Dos MPI stacks se incluyen en esta version de OFED:
MVAPICH 1.1.0
Open MPI 1.2.8
InfniBand: MPI en IB
mpicc is used to compiling mpi applications, is equivalent to gcc
mpicc includes all the gcc fags needed for compilation
Head fles paths
Libraries paths
To see real compilation fag run: mpicc –v. MPI application can be shared or dynamic
int main(int argc, char **argv)
{
int numprocs;
int myid=0;
int x;
MPI_Init(&argc,&argv);
MPI_Comm_size(MPI_COMM_WORLD,&numprocs);
MPI_Comm_rank(MPI_COMM_WORLD,&myid);
MPI_Barrier(MPI_COMM_WORLD);
if(myid==0)
print("Codigo ejecutando en proceso 0\n");
srand(myid*1234);
x = rand();
print("En proceso %d y mi valor de x es 0x%08x\n",myid, x);
MPI_Barrier(MPI_COMM_WORLD);
MPI_Bcast(&x,1,MPI_INT,0,MPI_COMM_WORLD);
if(myid == 1)
print("Mi numero de proceso es 1, y obtuve 0x%08x del proceso 0\n", x);
if(myid == 2)
print("Mi numero de proceso es 2, y obtuve 0x%08x del proceso 1\n", x);
MPI_Finalize();
}

int main(int argc, char **argv)


{
123
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

int numprocs;
int myid=0;
int x;
MPI_Init(&argc,&argv);
MPI_Comm_size(MPI_COMM_WORLD,&numprocs);
MPI_Comm_rank(MPI_COMM_WORLD,&myid);
MPI_Barrier(MPI_COMM_WORLD);
if(myid==0)
print("Codigo ejecutando en proceso 0\n");
srand(myid*1234);
x = rand();

leopoldo@manager:~/scripts> mpiexec -np 3 testmpi2


Codigo ejecutando en proceso 0
En proceso 0 y mi valor de x es 0x6b8b4567
En proceso 2 y mi valor de x es 0x7a7b1a67
En proceso 1 y mi valor de x es 0x1c8f220e
Mi numero de proceso es 2, y obtuve 0x6b8b4567 del proceso1
Mi numero de proceso es 1, y obtuve 0x6b8b4567 del proceso 0
print("En proceso %d y mi valor de x es 0x%08x\n",myid, x);
MPI_Barrier(MPI_COMM_WORLD);
MPI_Bcast(&x,1,MPI_INT,0,MPI_COMM_WORLD);
if(myid == 1)
print("Mi numero de proceso es 1, y obtuve 0x%08x del proceso 0\n", x);
if(myid == 2)
print("Mi numero de proceso es 2, y obtuve 0x%08x del proceso 1\n", x);
MPI_Finalize();
}

Uso de VLAN
• Partiendo del concepto de Broadcast, que en español signifca difusión, es una forma de transmisión de
información donde un nodo emisor envía información a una multitud de nodos receptores de manera
simultánea, sin necesidad de reproducir la misma transmisión nodo por nodo.
• Cuando se produce un Broadcast para preguntar por IP de una máquina, la máquina responde con su MAC
Address. El trabajo con Broadcast es muy bueno, pero puede propagar virus, por lo que es inseguro.
• Las tecnologías de redes de área local, por ejemplo Ethernet, también se basan en el uso de un medio de
transmisión compartido, se difunde cualquier trama de datos a los nodos que se encuentren en el mismo
segmento de la red, utilizando una dirección MAC especial como destino FF.FF.FF.FF.FF.FF.
• El protocolo IP en su versión 4 también permite la difusión de datos. En este caso no existe un medio de
transmisión compartido ni tampoco se realiza a todos los nodos de la red porque colapsaría las líneas de
comunicaciones debido a que no existe un medio de transmisión compartido. Se defne la difusión a subredes
concretas dentro de la red bajo el control de un mismo enrutador/router.
 Difusión limitada (limited broadcast), dirección 255.255.255.255.
 Multidifusión (multicast), rango de direcciones de clase D.
 Anycast, un nodo del grupo recibirá la información.
Redes de Difusión o Broadcast:
 Pensadas para redes locales de corto alcance.
 Utiliza un único canal de comunicación abierto y compartido, con métodos dinámicos o estáticos, para
la asignación de tiempo de transmisión.
 Campo “dirección”, origen y destino.
 El formato admite mensajes cortos.

124
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Una LAN virtual es un dominio de broadcast defnido por sofware.


Las VLAN’s permiten segmentación bajo administración por sofware, a la vez que brinda performance y
seguridad. Los broadcast se limitan a los host que pertenecen a la misma VLAN.
El utilizar ¨VLAN tagging¨ permite compartir información entre diferentes dispositivos switches de la red,
transmitiendo múltiples VLAN’s.
Un puerto tagging ¨habla solamente con otro puerto tagging (802.1Q).
Hay una cantidad limitada de Vlan ID’s y VLAN activas por switch.
Se usan para direcciones seriales entre routers, para saber qué punto a puntos hay para saber que cuántos
segmentos hay.
Cuando hay menos dispositivos en una VLAN, la comunicación es rápida. Y si están mayor cantidad de equipos
y la comunicación es intensa, la respuesta es lenta.
Ventajas de VLAN
 Costos menores en la implementación, por uso de redes públicas.
 Costos menores en los equipos utilizados.
 Aumento en la fexibilidad de uso de equipos y confguraciones.
 Escalabilidad: extender la LAN a usuarios remotos.
 Aceptadas por su concepción de fabilidad y ancho de banda.
Modos de operación.
 Túnel LAN-to-LAN, se establece un túnel seguro entre extremos, sirve como interface entre el túnel y
la red privada accedida.
 Túneles de Cliente, para acceso remoto de clientes, a los recursos de la red privada, se otorga un IP
propio y se conciben como un equipo más de la red.
 Túneles de capa 2. PPTP, encapsula paquetes PPTP, fexible para redes no IP, autenticación mediante
CHAP, PAP y MSCHAP. Soporta clientes VPN Windows, Linux.
L2TP, convergencia de PPTP y L2F (cisco), soporta mecanismos PAP, Chap y servidores RADIUS. Se autentican
los extremos, no los paquetes.
Hay dos tpos principales de VLAN’s:
 Tagged: se agrega al frame saliente de un puerto un campo tag y se espera recibir tag.
 Untagged: los puertos reciben y transmiten sin tag.
Tagging 802.1Q
El ¨tagging¨ es utilizado para que el dispositivo remoto comprenda cual es la VLAN destino, un puerto puede
transmitir frames con VLAN tagged o untagged hacia una VLAN de la cual es miembro, pero no ambas. Un

125
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

puerto puede taggear más de una VLAN, por lo tanto, ese puerto se puede usar para compartir vlans con otro
dispositivo.
Al asignar un puerto a dos vlans diferentes, una como puerto tagged y otra como untagged, es posible que el
mismo pueda transmitir ambos frames. Un puerto puede ser untagged para ninguna o una VLAN, y puede ser
tagged para ninguna o muchas VLANs. Un puerto debe pertenecer a una VLAN a no ser que esté seteado
como port mirror.
Los enlaces troncales o trunks, son enlaces capaces de transportar el tráfco de más de una VLAN. Los enlaces
troncales nos permiten transportar de forma lógica las VLANs utilizando un enlace fsico.

Por defecto los puertos de capa 2 de los switches son puertos de acceso, para que estos funcionen como
puertos de enlace troncal deben ser confgurados como se muestra a continuación:
switch(confg))interface type mod/port
switch(confg-if))switchport mode trunk encapsulation {isl | dot1q | negotiate}
switch(confg-if))switchport trunk native vlan vlan-id
switch(confg-if))switchport trunk allowed vlan {vlan-list | all | { add | except |remove } vlan-list}
switch(confg-if))switchport mode {trunk | dynamic {desirable | auto}}
En la confguración de enlaces troncales intervienen varios parámetros, uno de los cuales es la encapsulación.
Este lo podemos confgurar de tres formas diferentes:
 isl: el trunk se forma utilizando ISL. (Inter-Switch Link Protocol)
 dot1q: el trunk se forma utilizando IEEE 802.1Q.
 negotiate: el trunk se forma utilizando el protocolo DTP de Cisco.
El estándar IEEE 802.1Q especifca el etiquetado de tramas como un método para implementar VLANs.
Insertando un campo de 4 bytes dentro de la trama Ethernet para identifcar a que VLAN pertenece la
información que se está transportando entre dispositivos de capa 2.

Estructura de la trama IEEE 802.1Q


MAC MAC IEEE Tipo Datos
Origen Destino 802.1Q Ethernet (tamaño FCS
variable)

4 bytes
Trama Ethernet – 64 a 1518 bytes
Tamaño de la nueva trama: 68 a 1522 bytes

El comando switchport trunk native vlan sólo se utiliza con la encapsulación dot1q e identifca que VLAN será
nativa o de administración, por lo tanto no llevará etiqueta alguna.
El comando switchport trunk allowed vlan se utiliza para añadir o borrar VLANs de un enlace troncal, aunque la
opción except lo que hará será permitir todas excepto las que le indiquemos.

126
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

El comando switchport mode {access | trunk | dynamic {desirable | auto}} se utiliza para confgurar el puerto en
el modo adecuado.
En los casos en los tengamos demasiado tráfco en un enlace troncal, es posible confgurar agregación
FastEtherChannel o GigabitEtherChannel ampliando así el ancho de banda del enlace.
802.1Q no encapsula la trama original sino que añade 4 bytes al encabezado Ethernet original. El valor del
campo EtherType se cambia a 0x8100 para señalar el cambio en el formato de la trama.
Defne el protocolo de encapsulamiento usado para multiplexar varias VLAN a través de un solo enlace,
introduce el concepto de las VLAN nativas. Las tramas pertenecientes a las VLAN nativas no se modifcan
cuando se envían por medio del trunking. Las VLAN nativas también se conocen con el nombre de "VLAN de
administración".
 Por defecto todos los puertos del switch son miembros untagged de una vlan.
 La VLAN default se llama ¨default¨y tiene VID=1, no se taggea en 802.1Q.
 La VLAN nativa funciona aun cuando no funciona el 802.1Q.

Redes Wi Fi. Servicios y Protocolos

Las redes Wi-FI utilizan ondas de radiofrecuencia de baja potencia y una banda específca, de uso libre para
transmitir, entre dispositivos.
El término radiofrecuencia, también denominado espectro de radiofrecuencia o RF, se aplica a la porción del
espectro electromagnético en el que se pueden generar ondas electromagnéticas aplicando corriente alterna a
una antena.
Tendencia a la movilidad. Comunidades wireless que buscan la difusión de redes alternativas a las comerciales.
El objetivo es evitar el uso de cables en todo tipo de comunicación.
El problema de los hornos microondas como elementos perturbadores o inhibidores de señal pueden difcultar
e incluso imposibilitar las comunicaciones en un determinado rango de frecuencias.
Medios infrarrojos: medio alternativo al de radiofrecuencia.

Mercados y Aplicaciones:

 Hoteles, Sanatorios, Clínicas


 Parques Industriales
 Barrios Cerrados
 Paseos, Bibliotecas públicas, Plazas
 Redes Corporativas

127
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Wireless

El cliente inalámbrico se comunica con la estación base o punto de acceso (AP).


El conjunto de servicios básicos (BSS) (también llamado "célula") en el modo de infraestructura contiene:
• Clientes inalámbricos.
• Punto de acceso (AP): estación de base.
• Clientes inalámbricos: solo en modo ad hoc
El AP conecta por cable a una red Ethernet o Ruteada.

Funcionamiento

Scan pasivo:
1. tramas de baliza enviados desde los puntos de acceso
2. Trama Solicitud de asociación enviada: H1 a AP seleccionado
3. Trama de Respuesta de asociación enviada: H1 a AP seleccionado
Scan activo:
1. Emisión de broadcast de Solicitud de trama de H1
2. Trama de respuesta enviado desde APs
3. Trama de solicitud de Asociación enviada: H1 al AP seleccionado
4. Trama de Respuesta de Asociación enviada: H1 al AP seleccionado

Wireless LAN

 IEEE 802.11:
o 1-2 Mbps en 2.4 GHz (la misma de Bluetooth).
o Salto de frecuencias (FHSS) o secuencia directa (DSSS).
 IEEE 802.11b: Extensión de 802.11, 11 Mbps, DSSS.
o 14 canales de 22 MHz (parcialmente solapados).
o IEEE 802.11a: Extensión de 802.11.
o 54 Mbps, OFDM, 5 GHz.
 IEEE 802.11g: Extensión de 802.11.
o 20-54 Mbps, DSSS y OFDM.
o Compatible hacia atrás con 802.11b.
o Más alcance y menos consumo que 802.11g.
 IEEE 802.11n:
o Múltiples antenas.
o Rango de 2,4 a 5 GHz.
o Hasta 300 Mbps.
 Modos de operación:
o Modo ad-hoc: Un nodo móvil se comunica directamente con otro.
o Modo infraestructura: Los nodos móviles se comunican con un punto de acceso (AP).
 Misión principal: acceso a la red fja.
o Comunicación entre móviles a través del AP.
o Cada móvil se asocia a un AP antes de transmitir.
 Un AP es un hub/bridge: puede construirse con un PC, una interfaz inalámbrica y una
interfaz fja.

Estándares: 802.11a/b/g

Aplicaciones:
- Acceso Público / Hot spots.
- Acceso en edifcios, dentro del domicilio.
- Aplicaciones móviles de alta capacidad.

128
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Tecnología de bajo costos


- Access Points; NICsr WiFI/DLS CPEs
- Instalación, administración, operación.
Conectividad de redes Wireless LAN
- Requieren conectividad con la red
- xDSL . FTTx, Ethernet/SDH
Consideraciones tecnológicas
- Espectro {no licenciado).
- Autenticación, Seguridad y privacidad.
- Calidad de servicio (voz y video}
- Roaming y movilidad.
Roaming con redes 3G (UMTS, CDMA2QÜG)
Integración con xDSL
- Access Points con uplink xDSL.
- xDSL CPEs con interfaces 802.11.

La trama IEEE 802.11

Aunque la trama 802.11 comparte muchas similitudes con una trama Ethernet, también contiene diversos
campos que son específcos para su uso en enlaces inalámbricos. En la trama que se muestra en la fgura, los
números situados encima de cada campo de la trama representan las longitudes de los campos en bytes; los
números situados por encima de cada uno de los subcampos en el campo de control de trama representan las
longitudes de los subcampos en bits.

Campos de carga útl y CRC

En el corazón de la trama se encuentra la carga útil, que normalmente estará compuesta por un datagrama IP o
un paquete ARP. Aunque el campo puede tener una longitud de hasta 2.312 bytes, normalmente la longitud es
inferior a 1.500 bytes, conteniendo el campo un datagrama IP o un paquete ARP. Al igual que con una trama
Ethernet, una trama 802.11 incluye un código de redundancia cíclica (CRC) de 32 bits, de modo que el receptor
pueda detectar errores de bit en la trama recibida. Como ya hemos visto, los errores de bit son mucho más
comunes en las redes LAN inalámbricas que en las redes LAN cableadas, por lo que el CRC aquí es todavía más
útil.

Campos de dirección

Quizá la diferencia más llamativa en la trama 802.11 es que tiene cuatro campos de dirección, cada uno de los
cuales puede contener una dirección MAC de 6 bytes. ¿Pero por qué se utilizan cuatro campos de dirección?
¿No bastaría con un campo MAC de origen y un campo MAC de destino, como sucede en Ethernet? Resulta
que tres de los campos de dirección son necesarios para propósitos de la comunicación por la red,
específcamente para mover el datagrama de la capa de red de una estación inalámbrica hasta una interfaz de
router a través de un punto de acceso. El cuarto campo de dirección se utiliza cuando los puntos de acceso se
reenvían tramas entre sí en modo ad hoc. Puesto que sólo estamos considerando aquí las redes de
infraestructura, vamos a centrarnos en los tres primeros campos de dirección. El estándar 802.11 defne estos
campos como sigue:

129
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Trama (los números indican la longitud del campo en bytes):


2 2 6 6 6 2 6 0-2312 4

Control Duración Dirección Dirección Direcció Control Direcció Carga CRC


de trama 1 2 n3 secuencia n4 útil

Campo de control de trama expandido (los números indican la longitud de los subcampos en bits):
2 2 4 1 1 1 1 1 1 1 1

Versión Tipo Subtipo Hacia Desde Más Reintent Gestión Más WEP Rsvd
protocol AP AP frag. ar Potencia datos
o

El campo Dirección 1 contiene la dirección MAC de la estación inalámbrica que tiene que recibir la trama. Por
tanto, si una estación inalámbrica móvil transmite la trama, Dirección 1 contendrá la dirección MAC del punto
de acceso de destino. De forma similar, si un punto de acceso transmite la trama, Dirección 1 contendrá la
dirección MAC de la estación inalámbrica de destino.
Dirección 2 es la dirección MAC de la estación que transmite la trama. Por tanto, si una estación inalámbrica
transmite la trama, la dirección MAC de dicha estación se insertará en el campo Dirección 2. De forma similar,
si es un punto de acceso el que tranmite la trama, en el campo Dirección 2 se insertará la dirección MAC de
dicho punto de acceso.
Para comprender el campo Dirección 3, hay que recordar que el BSS (que consta del punto de acceso y las
estaciones inalámbricas) forma parte de una subred y que dicha subred se conecta a otras subredes a través de
alguna interfaz de router. Dicho campo contiene la dirección MAC del router al cual el AP se encuentra
conectado.
El campo Dirección 4, se utiliza en el modo Ad Hoc.

Comunicación en contexto de Redes

Recordar que un punto de acceso es un dispositivo de la capa de enlace y que, por tanto, no "habla” IP ni
comprende las direcciones IP.

130
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Uso de los campos de dirección en las tramas 802.11: envío de tramas entre H1 y R1.

Considerando: transferencia de un datagrama desde la interfaz del router R1 hasta la estación H1. El router no
es consciente de que existe un punto de acceso entre él y H1 desde la perspectiva del router, H1 es
simplemente un host en una de las subredes a la que el router está conectado.
- R1 que conoce la dirección IP de H1 (a partir de la dirección de destino del datagrama), utiliza ARP para
determinar la dirección MAC de H1, al igual que en una red LAN Ethernet normal.
- Después de obtener la dirección MAC de H1, la interfaz del router R1 encapsula el datagrama dentro de una
trama Ethernet. El campo de dirección de origen de esta trama contiene la dirección MAC de R1 y el campo de
la dirección de destino contiene la dirección MAC de H1.
- Cuando la trama Ethernet llega al punto de acceso, éste convierte la trama Ethernet 802.3 en una trama
802.11 antes de transmitirla por el canal inalámbrico. El punto de acceso rellena los campos Dirección 1 y
Dirección 2 con la dirección MAC de H1 y su propia dirección MAC, respectivamente, como hemos descrito
anteriormente. Como
Dirección 3, el punto de acceso inserta la dirección MAC de R1.
- De esta forma, H1 puede determinar (a partir de la dirección 3) la dirección MAC de la interfaz del router que
envió el datagrama hacia la subred. 
Movilidad dentro de la misma subred IP.
Para incrementar el rango fsico de una red LAN inalámbrica, las empresas y universidades suelen implantar
varios BSS dentro de la misma subred IP. Esto plantea naturalmente el problema de la movilidad entre los
distintos BSS: ¿cómo pueden moverse las estaciones inalámbricas de forma transparente de un BSS a otro,
mientras mantienen una serie de sesiones TCP activas? Como veremos en esta subsección, la movilidad puede
gestionarse de forma relativamente sencilla cuando los BSS forman parte de una misma subred. Cuando las
estaciones se desplazan entre subredes contiguas, hacen falta protocolos más complejos de gestión de la
movilidad.
Conmutador

Movilidad dentro de la misma subred.


¿Pero qué es lo que sucede específcamente cuando H1 se mueve de BSS1 a BSS2?
A medida que H1 se aleja de AP1, H1 detecta que la señal de AP1 comienza a debilitarse y empieza entonces a
explorar en busca de una señal de mayor intensidad. H1 recibe tramas baliza de AP2 (que en muchos entornos
corporativos y universitarios tendrán el mismo identifcador SSID que AP1). H1 se desasocia entonces de AP1
y se asocia con AP2, al mismo tiempo que mantiene su dirección IP y sus sesiones TCP activas.

131
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Red privada virtual (VPN)

VLAN VLAN Uso un Access Point para


Más usuarios conectarme por Wi-Fi
Signifca menor velocidad Acceso Me meto por AP porque sólo trabaja
en una sola capa. Como Ethernet
conoce todas las MAC Address y
estos aparatos sólo convierten las
VPN normas sin tocar los datos, podemos
identifcar a los integrantes de
nuestra red.

R ISP I
SNR SNR
Se usa
IP pública

Compramos tecnología 100 MB, 1GE, 10 GE según presupuesto


Red de Datos DNS
Tenemos claro que tenemos una red de acceso.

Una red privada virtual en inglés: Virtual Private Network (VPN) es una tecnología de red de computadoras que
permite una extensión segura de la red de área local (LAN) sobre una red pública o no controlada como
Internet ejecutando protocolos de cifrado sobre Ethernet, un protocolo de capa 2 con capacidad de
transmisión broadcast.
Ejemplos comunes son la posibilidad de conectar dos o más sucursales de una empresa utilizando como vínculo
Internet, permitir a los miembros del equipo de soporte técnico la conexión desde su casa al centro de
cómputo, o que un usuario pueda acceder a su equipo doméstico desde un sitio remoto, como por ejemplo un
hotel. Todo ello utilizando la infraestructura de Internet.
La conexión VPN a través de Internet es técnicamente una unión wide area network (WAN) entre los sitios
pero al usuario le parece como si fuera un enlace privado— de allí la designación "virtual private network".

132
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Característcas básicas de la seguridad


Para hacerlo posible de manera segura es necesario proporcionar los medios para garantizar la autentifcación.
• Autentifcación y autorización: ¿quién está del otro lado? Usuario/equipo y qué nivel de acceso debe
tener.
• Integridad: de que los datos enviados no han sido alterados. Para ello se utilizan funciones de Hash.
Los algoritmos de hash más comunes son los Message Digest (MD2 y MD5) y el Secure Hash
Algorithm (SHA).
• Confdencialidad/Privacidad: dado que solamente puede ser interpretada por los destinatarios de la
misma. Se hace uso de algoritmos de cifrado como Data Encryption Standard (DES), Triple DES (3DES)
y Advanced Encryption Standard (AES).
• No repudio: es decir, un mensaje tiene que ir frmado, y quien lo frma no puede negar que envió el
mensaje.
• Control de acceso: se trata de asegurar que los participantes autenticados tiene acceso únicamente a
los datos a los que están autorizados.
• Auditoría y registro de actividades: se trata de asegurar el correcto funcionamiento y la capacidad de
recuperación.
• Calidad del servicio: se trata de asegurar un buen rendimiento, que no haya una degradación poco
aceptable en la velocidad de transmisión.
Requisitos básicos
• Identifcación de usuario: las VPN deben verifcar la identidad de los usuarios y restringir su acceso a
aquellos que no se encuentren autorizados.
• Cifrado de datos: los datos que se van a transmitir a través de la red pública (Internet), antes deben ser
cifrados, para que así no puedan ser leídos si son interceptados. Esta tarea se realiza con algoritmos de
cifrado simétrico como DES, 3DES o AES (Advanced Encryption Standard, en sus opciones AES128,
AES192 o AES256) que únicamente pueden ser leídos por el emisor y receptor.
• Administración de claves: las VPN deben actualizar las claves de cifrado para los usuarios.
Tipos de VPN
Básicamente existen cuatro arquitecturas de conexión VPN:
VPN de acceso remoto
Es quizás el modelo más usado actualmente, y consiste en usuarios o proveedores que se conectan con la
empresa desde sitios remotos (ofcinas comerciales, domicilios, hoteles, aviones preparados, etcétera)
utilizando Internet como vínculo de acceso. Una vez autentifcados tienen un nivel de acceso muy similar al que
tienen en la red local de la empresa. Muchas empresas han reemplazado con esta tecnología su infraestructura
dial-up (módems y líneas telefónicas).
VPN punto a punto
Este esquema se utiliza para conectar ofcinas remotas con la sede central de la organización. El servidor VPN,
que posee un vínculo permanente a Internet, acepta las conexiones vía Internet provenientes de los sitios y
establece el túnel VPN. Los servidores de las sucursales se conectan a Internet utilizando los servicios de su
proveedor local de Internet, tpicamente mediante conexiones de banda ancha. Esto permite eliminar los
costosos vínculos punto a punto tradicionales (realizados comúnmente mediante conexiones de cable fsicas
entre los nodos), sobre todo en las comunicaciones internacionales. Es más común el siguiente punto, también
llamado tecnología de túnel o tunneling.
Tunneling

133
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

La técnica de tunneling consiste en encapsular un protocolo de red sobre otro (protocolo de red encapsulador)
creando un túnel dentro de una red de computadoras. El establecimiento de dicho túnel se implementa
incluyendo una PDU (unidades de datos de protocolo) determinada dentro de otra PDU con el objetivo de
transmitirla desde un extremo al otro del túnel sin que sea necesaria una interpretación intermedia de la PDU
encapsulada. De esta manera se encaminan los paquetes de datos sobre nodos intermedios que son incapaces
de ver en claro el contenido de dichos paquetes. El túnel queda defnido por los puntos extremos y el protocolo
de comunicación empleado, que entre otros, podría ser SSH.
El uso de esta técnica persigue diferentes objetivos, dependiendo del problema que se esté tratando, como por
ejemplo la comunicación de islas en escenarios multicast, la redirección de tráfco, etc.
Uno de los ejemplos más claros de utilización de esta técnica consiste en la redirección de tráfco en escenarios
IP Móvil. En escenarios de IP móvil, cuando un nodo-móvil no se encuentra en su red base, necesita que su
home-agent realice ciertas funciones en su puesto, entre las que se encuentra la de capturar el tráfco dirigido
al nodo-móvil y redirigirlo hacia él. Esa redirección del tráfco se realiza usando un mecanismo de tunneling, ya
que es necesario que los paquetes conserven su estructura y contenido originales (dirección IP de origen y
destino, puertos, etc.) cuando sean recibidos por el nodo-móvil. Se maneja de manera remota.
VPN over LAN
Este esquema es el menos difundido pero uno de los más poderosos para utilizar dentro de la empresa. Es una
variante del tipo "acceso remoto" pero, en vez de utilizar Internet como medio de conexión, emplea la misma
red de área local (LAN) de la empresa. Sirve para aislar zonas y servicios de la red interna. Esta capacidad lo
hace muy conveniente para mejorar las prestaciones de seguridad de las redes inalámbricas (WiFi).
Un ejemplo clásico es un servidor con información sensible, como las nóminas de sueldos, ubicado detrás de un
equipo VPN, el cual provee autenticación adicional más el agregado del cifrado, haciendo posible que
solamente el personal de recursos humanos habilitado pueda acceder a la información.
Otro ejemplo es la conexión a redes Wi-Fi haciendo uso de túneles cifrados IPSec o SSL que además de pasar
por los métodos de autenticación tradicionales (WEP, WPA, direcciones MAC, etc.) agregan las credenciales de
seguridad del túnel VPN creado en la LAN interna o externa.
Implementaciones
El protocolo estándar de facto es el IPSEC, pero también están PPTP, L2F, L2TP, SSL/TLS, SSH, etc. Cada uno
con sus ventajas y desventajas en cuanto a seguridad, facilidad, mantenimiento y tipos de clientes soportados.
Actualmente hay una línea de productos en crecimiento relacionada con el protocolo SSL/TLS, que intenta
hacer más amigable la confguración y operación de estas soluciones.
Las soluciones de hardware casi siempre ofrecen mayor rendimiento y facilidad de confguración, aunque no
tienen la fexibilidad de las versiones por sofware. Dentro de esta familia tenemos a los productos de Fortinet,
SonicWALL, WatchGuard, Nortel, Cisco, Linksys, Netscreen (Juniper Networks), Symantec, Nokia, U.S.
Robotics, D-link, Mikrotik, etc.
Las aplicaciones VPN por sofware son las más confgurables y son ideales cuando surgen problemas de
interoperatividad en los modelos anteriores. Obviamente el rendimiento es menor y la confguración más
delicada, porque se suma el sistema operativo y la seguridad del equipo en general. Aquí tenemos por ejemplo
a las soluciones nativas de Windows, GNU/Linux y los Unix en general. Por ejemplo productos de código
abierto como OpenSSH, OpenVPN y FreeS/Wan.
En ambos casos se pueden utilizar soluciones de frewall («cortafuegos» o «barrera de fuego»), obteniendo un
nivel de seguridad alto por la protección que brinda, en detrimento del rendimiento.
Ventajas
• Integridad, confdencialidad y seguridad de datos.
• Las VPN reducen los costos y son sencillas de usar.
• Facilita la comunicación entre dos usuarios en lugares distantes.
Tipos de conexión
Conexión de acceso remoto

134
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Una conexión de acceso remoto es realizada por un cliente o un usuario de una computadora que se conecta a
una red privada, los paquetes enviados a través de la conexión VPN son originados al cliente de acceso remoto,
y éste se autentifca al servidor de acceso remoto, y el servidor se autentifca ante el cliente.
Conexión VPN router a router
Una conexión VPN router a router es realizada por un router, y este a su vez se conecta a una red privada. En
este tipo de conexión, los paquetes enviados desde cualquier router no se originan en los routers. El router que
realiza la llamada se autentifca ante el router que responde y este a su vez se autentifca ante el router que
realiza la llamada y también sirve para la intranet.
Conexión VPN frewall a frewall
Una conexión VPN frewall es realizada por uno de ellos, y éste a su vez se conecta a una red privada. En este
tipo de conexión, los paquetes son enviados desde cualquier usuario en Internet. El frewall que realiza la
llamada se autentifca ante el que responde y éste a su vez se autentifca ante el llamante.
VPN en entornos móviles
La VPN móvil se establece cuando el punto de terminación de la VPN no está fjo a una única dirección IP, sino
que se mueve entre varias redes como pueden ser las redes de datos de operadores móviles o distintos puntos
de acceso de una red Wif. Las VPNs móviles se han utilizado en seguridad pública dando acceso a las fuerzas
de orden público a aplicaciones críticas tales como bases de datos con datos de identifcación de criminales,
mientras que la conexión se mueve entre distintas subredes de una red móvil.4 También se utilizan en la
gestión de equipos de técnico y en organizaciones sanitarias entre otras industrias. Cada vez más, las VPNs
móviles están siendo adaptadas por profesionales que necesitan conexiones fables. Se utilizan para moverse
entre redes sin perder la sesión de aplicación o perder la sesión segura en la VPN. En una VPN tradicional no se
pueden soportar tales situaciones porque se produce la desconexión de la aplicación, time outs o fallos, o
incluso causar fallos en el dispositivo.

Soluciones de energía con alta disponibilidad: Conceptos sobre Electricidad aplicado al Datacenter.

Conceptos de Energía

• La Energía no es perfecta y nunca será perfecta.


• La Energía no es siempre la mejor, dado por las condiciones ambientales y por otras que no están a nuestro
alcance de solucionar.
• La Energía está diseñada para ser continua, pero por seguridad es necesario interrumpirla por su forma de
operar, está pensado entonces que la Corriente sea interrumpida.
• VOLTAJE: Símbolo V
• Es la energía Potencial, disponible para producir un trabajo. Es la energía que está a la espera de ser usada. Es
medido en Voltios.
• CORRIENTE: Símbolo I
• Es el fujo de electrones que fuyen a través de los conductores eléctricos (llamado también tubería para
electrones).

La corriente está medida en Amperios.

• RESISTENCIA: símbolo R
• Es el elemento que se interpone al fujo de electrones, con alguna justifcación. Es medido en Voltios.
• POTENCIA, símbolo P
• Es el parámetro que nos permite medir el trabajo que vamos a realizar o que estamos produciendo, está
medido en vatios.
• Es el producto del Voltaje (V) por la Corriente (I). Es la energía Potencial más la Corriente que está circulando
por los conductores
• Es directamente proporcional al Voltaje y a la Corriente.

135
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

........................................................................ P=V × I

I V

P P
V= .............................................................................................................................................I =
I V

Formas de suministrar energía


Existen 2 formas de suministrar la energía.
• Una es la forma Alterna (AC) y es suministrada por el cableado del proveedor eléctrico. La otra de forma
Directa (DC), y es suministrada a través de baterías.
• La energía es representada mediante Ondas, posee una forma de onda Senoidal, cambia de positivo a
negativo en un período de tiempo llamado Ciclo.
• La señal de corriente alterna es más efciente, debido a su forma de suministro mediante una señal alterna de
voltaje. Esta señal se identifca por su Amplitud que es el valor máximo de la cresta de la señal; por su forma de
Onda; y por los números de ciclos por segundo

La energía se genera en lugares remotos, y es transportada hasta los puntos de consumo por un sistema de
distribución, de manera que la energía llegue a nuestras casas de la mejor manera posible, con la menor
pérdida.

136
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Potencia AC
• La energía eléctrica generada es trifásica, 3 fases al mismo tiempo, de manera de obtener el máximo de
benefcio posible.
• Las fases están “desfasadas” en 120 grados para así construir 1 señal trifásica.
• Sin embargo recibimos una señal monofásica.

Señal monofásica FASE 1

Señal trifásica FASE 1 FASE 2 FASE 3

0 120 180 240 300

• Los Vatios representan la señal de potencia real.


• La señal de potencia real determina la potencia que provee la empresa de energía, es la que se utiliza para
producir un trabajo.
• El volt-amperio (VA) es la señal de potencia aparente, utilizado para calcular cableados e interruptores.
• El Factor de Potencia representa la fracción de la potencia de salida que es útil. Tiende de 0 a 1. Únicamente
en una estufa o lámpara incandescente el valor es 1, en los demás casos la potencia que se entrega a la carga
no es totalmente aprovechada pues la corriente pasa por la carga y no es utilizada efcazmente.
• En las cargas electrónicas este fenómeno está presente y se puede decir que el FP es de aproximadamente
entre 0,6 y 0,7. De esta forma los WATTS son un 60 o 70% de los Volt-Ampere.
• Pf = Wat / VA

• Wat = VA x Pf (volt-amper x Factor de Potencia)


• VA = voltios x amperios.
• Los wats serán iguales a los VA únicamente cuando el Pf tienda a 1.

Equipos para mitigar problemas de energía


• Sin embargo existen fuentes de alimentación de computadoras y servidores con el factor de potencia
corregido o igualado a 1 electrónicamente.
• Las UPS son limitadas en VA, es importante dimensionarlas en Volt-Ampere.
Pasos para seleccionar una UPS adecuada:
• Identifcar los equipos que se desean proteger contra eventos de energía para asegurar continuidad en la
operación y respaldar la información en caso de una falla eléctrica.
• Identifcar las características del sistema eléctrico donde se instalará la UPS, desde el punto de vista del
voltaje y la frecuencia.
• Determinar el consumo eléctrico de los equipos a proteger.
• Determinar características de los tomacorrientes de cada equipo a proteger.
• Determinar el factor de forma el UPS.
• Determinar la autonomía adecuada del UPS frente a cortes en el suministro eléctrico.
Formas para determinar el consumo eléctrico.
• La forma más sencilla es determinar el consumo eléctrico mediante la sumatoria de los consumos individuales
de cada equipo a proteger.
• Puede ser necesario convertir a Volt-ameperes las unidades dadas en wats.
• Los Volt-Ameperes se obtienen del producto del voltaje (V) x Corriente (C).
• Se asume generalmente que los Wats representan un 70% de los Volt- Amperes, es decir se deberá dividir
por 0.7 al valor dado en Wats para pasarlo a Volt-Amperes.
• La forma más adecuada de determinar el consumo eléctrico es mediante la medición directa mediante
amperímetro o multmetro.

137
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Dispositvo Voltos (V) Corriente (A) Consumo V-A


Switch 120 1 120
DVD Player 120 1.5 36
Scanner 24 1.5 36
Central Telefónica 120 10 1200
Impresora 18.5 2 37
Carga Total 1429

Tipos de UPS
La topología UPS indica la naturaleza básica del diseño de la UPS. Por lo general, diferentes proveedores
producen modelos con diseños o topologías similares, pero con características de rendimiento muy diferentes.
Se utiliza una variedad de enfoques de diseño para implementar sistemas UPS, cada uno de ellos con
características de rendimiento diferenciadas.
Los enfoques de diseño más comunes son los siguientes:
• Standby
• Línea interactiva
• On line de doble conversión

Modelos y Tipos de UPS

UPS Standby
• Diseñadas para el ambiente de computadoras personales.
• El interruptor de transferencia está programado para seleccionar la entrada de CA fltrada como fuente de
energía primaria (circuito con línea entera), y conmutar al modo de batería/inversor como fuente de respaldo
en caso de que falle la fuente primaria.
• Cuando ocurre, el interruptor de transferencia debe conmutar la carga a la fuente de energía de respaldo de
batería/inversor (circuito con línea de guiones). El inversor solo se enciende cuando falla la energía; de ahí el
nombre “Standby” (de reserva).
• Los principales benefcios que ofrece este diseño son altos niveles de efciencia, tamaño pequeño y bajo
costo. Con un circuito fltro y de sobretensión adecuado, estos sistemas además pueden brindar funciones
apropiadas de fltrado de ruido y supresión de sobretensiones
UPS Line-Interactive
• El sistema UPS de línea interactiva es el diseño más comúnmente utilizado por servidores de pequeñas
empresas, Web y departamentales. En este tipo de diseño, el conversor (inversor) de batería a alimentación CA
siempre está conectado a la salida del sistema UPS. Al accionar el inversor en reversa en momentos en que la
alimentación CA de entrada es normal, se carga la batería.
• Cuando falla la alimentación de entrada, el interruptor de transferencia se abre y el fujo de energía se
produce desde la batería hasta la salida del sistema UPS. Con el inversor siempre activo y conectado a la salida,
este diseño ofrece un fltro adicional y produce transitorios de conmutación reducidos en comparación con la
topología de la UPS Standby.
• Suele incorporar un transformador con cambio de tap. Esto agrega la función de regulación de tensión
mediante el ajuste de los taps del transformador en la medida que varía la tensión de entrada. La regulación de
la tensión es una característica importante cuando existen condiciones de baja tensión; sin ella, la UPS
transferiría la carga a la batería y, con el tiempo, caería la carga.
• Los altos niveles de efciencia, el tamaño pequeño, el bajo costo y la alta confabilidad, en combinación con la
capacidad de corregir condiciones de tensión de línea alta o baja hacen que este tipo de UPS sea la más usada
para el rango de potencia de 0,5-5 kVA.
UPS OnLine de doble conversión
• Este es el tipo más común de UPS para rangos superiores a 10 kVA.
• El diagrama es el mismo que para la UPS Standby, excepto que el circuito de energía primario es el inversor
en lugar de la red de CA.

138
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

• En el diseño on line de doble conversión, la interrupción del suministro de CA de entrada no provoca la


activación del interruptor de transferencia, dado que la alimentación de CA de entrada está cargando la batería
de respaldo que suministra alimentación al inversor de salida. Por lo tanto, durante una interrupción en el
suministro de entrada de CA, la operación on line no registra tiempo de transferencia.
• Tanto el cargador de la batería como el inversor convierten todo el fujo de alimentación de la carga de este
diseño, lo que da como resultado una efciencia reducida y la mayor generación de calor asociada.
• Esta UPS ofrece un desempeño casi ideal en cuanto a la salida eléctrica.
• El desgaste constante de los componentes de potencia reduce la confabilidad respecto de otros diseños, y la
energía consumida por la inefciencia de la alimentación eléctrica es una parte signifcativa del costo de
operación de la UPS a lo largo de su vida útil.

UPS Standby

UPS Line – Interactive

UPS Online Doble Conversión

Resumen
Rango de Acondicionamiento Costo por VA Efciencia Inversor con
potencia para de la tensión funcionamiento
la aplicación constante
práctca
Standby 0 - 0,5 Baja Bajo Muy alto No
Linea Actva 0,5 - 5 Según diseño Medio Muy alto Según diseño
On line de 5 - 5000 Alto Medio Baja - Media Si
doble
conversión
Productos Acondicionamiento Costo por VA Efciencia Inversor con
comerciales de la tensión funcionamiento
constante
Standby APC Back – Baja Bajo Muy alto No
UPS
Tripp
Linea Actva 0,5 - 5 Según diseño Medio Muy alto Según diseño
On line de 5 - 5000 Alto Medio Baja - Media Si
doble
conversión

139
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Tema 7: Calidad de Servicio


Implementación de Calidad de Servicio (QoS) en redes informátcas. Congestón y clasifcación de tráfco.
QoS describe la manera de garantizar la entrega de información oportuna en redes informáticas, es usado para
controlar el ancho de banda, fjas las prioridades para el tráfco seleccionado, y proporcionar un buen nivel de
seguridad.
QoS se asocia generalmente a poder entregar información “sensible al retraso” tal como voz y datos.
La Priorización se relaciona con marcar cierto tráfco con etiquetas de modo que consiga pasar a través de
redes congestionadas.
El abastecimiento de QoS requiere mejoras en la infraestructura de la red. Una técnica es aumentar el ancho de
bando instalando backbones con ATM (Asynchronous Transfer Mode), Gigabit Ethernet.
Las áreas donde aplicar QoS son:
• Ancho de banda.
• Retardo o latencia (incluyendo la variación del retardo o jiter).
• Pérdida de paquetes.
La red debe disponer de un medio para determinar si tiene el sufciente ancho de banda disponible como para
dar soporte a cualquier nueva solicitud de reserva.

Enfoque Unidad de Garanta Implantación Complejidad Mecanismos


asignación hasta la fecha
Mejorar el Ninguna Ninguna o En cualquier Mínima Soporte de la capa de
servicio de parcial. lugar aplicación, CDN,
mejor sobredimensionamiento.
esfuerzo
QoS Clases de Ninguna o Alguna Media Vigilancia, planifcación.
diferencial fujos parcial.
QoS Flujos Parcial o Poca Alta Vigilancia, planifcación,
garantizado individuales estricta, una admisión y señalización
vez que el de llamadas.
fujo es
admitido.

Tabla - Tres métodos para dar soporte a las aplicaciones multimedia.


QoS – Conceptos generales
Arquitectura de QoS
Mejor Esfuerzo, servicio tradicional de transporte de datos, donde no hay garantas de la entrega del paquete.
TCP/IP fue diseñado para dar un servicio “best efort” o de mejor esfuerzo, sin embargo existen aplicaciones
que no pueden funcionar en una red congestionada con “best efort” (por ejemplo, la Video Conferencia o
VoIP, etcétera). Se han hecho modifcaciones a IP para que pueda funcionar como una red con QoS.
Servicios integrados, provee un servicio garantizado, negociando parámetros de red de extremo a extremo
mediante RSVP. Cada dispositivo a lo largo de la ruta necesita comprender RSVP y señalizar la QoS requerida.
Cada reservación debe ser actualizada periódicamente lo que se añade tráfco a la red. Además, cada
reservación debe ser mantenida por cada uno de los dispositivos a lo largo de la ruta.

Múltples clases de servicio

140
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Si el objetivo es el de proporcionar un modelo el servicio de mejor esfuerzo de la red Internet actual (que vale
para todo), ¿qué tipo de servicio hay que proporcionar exactamente?
Un modelo de servicio simple mejorado consistiría en clasifcar el tráfco en clases y proporcionar diferentes
niveles de servicio a esas distintas clases de tráfco.
Es importante observar que tal servicio diferenciado se proporciona entre agregados de tráfco; es decir, entre
clases de tráfco, no entre conexiones individuales.
El tratar con un número pequeño de agregados de tráfco en lugar de con una gran cantidad de conexiones
individuales, los nuevos mecanismos de red requeridos para proporcionar un servicio de entrega más efectivo
que el de mejor esfuerzo pueden ser relativamente simples.
Se consideran varios escenarios posibles que motivan la necesidad de mecanismos específcos que den soporte
a múltiples clases de servicio.
Temas importantes: la planifcación en el nivel de enlace y la vigilancia/clasifcación.
Escenario 1: una aplicación de audio de 1 Mbps y una transferencia FTP
El escenario 1 se ilustra en la siguiente fgura. En este caso, una aplicación de audio de 1 Mbps (por ejemplo,
una llamada de audio con calidad de CD) comparte el enlace a 1,5 Mbps entre R1 y R2 con una aplicación FTP
que está transfriendo un archivo desde H2 a H4.

H1 H3

Competencia entre aplicaciones de audio y FTP.


Con el servicio de entrega del mejor esfuerzo de Internet, los paquetes de audio y FTP se mezclan en la cola de
salida de R1 y (normalmente) se transmiten siguiendo el orden primero en entrar primero en salir (FIFO, First-
In-First-Out). En este escenario, una ráfaga de paquetes procedentes del origen FTP podría potencialmente
llenar la cola, haciendo que los paquetes de audio IP se retardaran excesivamente o se perdieran a causa de un
desbordamiento de bufer de R1.

¿Cómo podemos resolver este potencial problema?

Prioridad estricta: a los paquetes de audio en R1. Aplicando esta disciplina de planifcación con prioridad
estricta, un paquete de audio que se encuentra en el bufer de salida de R1 siempre debería transmitirse antes
que cualquier paquete FTP que se encuentre en este mismo bufer. El enlace entre R1 y R2 sería entonces
como un enlace dedicado a 1,5 Mbps para el tráfco de audio y el tráfco FTP emplearía dicho enlace sólo
cuando no hubiera tráfco de audio en la cola.
Con el fn de que R1 distinga los paquetes de audio de los paquetes FTP que tiene en su cola, cada uno de los
paquetes debe marcarse como perteneciente a una de esas dos clases de tráfco. Éste era el objetivo original
del campo Tipo de servicio (ToS) de IPv4. Aunque pueda parecer obvio, éste es nuestro primer principio básico
en el que se fundamentan los mecanismos necesarios para proporcionar múltiples clases de tráfco:
Principio 1: el marcado de los paquetes permite a un router diferenciar entre paquetes pertenecientes a
distintas clases de tráfco.
Escenario 2: una aplicación de audio de 1 Mbps y una transferencia FTP con prioridad alta
Nuestro segundo escenario es ligeramente diferente del escenario 1. Suponga ahora que el usuario FTP ha
comprado a su ISP un servicio “platinum” (es decir, de alto precio), mientras que el usuario de audio ha

141
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

adquirido un servicio Internet de bajo presupuesto y barato, cuyo coste es una minúscula fracción del coste del
servicio platinum. En este caso, ¿debería darse prioridad a los paquetes de audio del usuario que ha adquirido
un servicio barato frente a los paquetes FTP? Posiblemente no. En este caso, parece más razonable diferenciar
los paquetes basándose en la dirección IP del emisor. En general, vemos que es necesario que los routers
clasifquen los paquetes de acuerdo con determinados criterios. Teniendo esto en cuenta, tenemos que
modifcar ligeramente el principio 1:
Principio 1 (modificado): la clasificación de paquetes permite a los routers diferenciar entre paquetes que pertenecen
a distntas clases de tráfico.
El marcado explícito de los paquetes es una forma que permite diferenciarlos. Sin embargo, la marca que
transporta el paquete, por sí misma, no implica que el paquete recibirá una determinada calidad de servicio. El
marcado es simplemente un mecanismo para distinguir los paquetes. La manera en que un router distingue
entre paquetes tratándolos de forma diferente es una decisión de vigilancia.
Escenario 3: una aplicación de audio con mal comportamiento y una transferencia FTP
Suponga ahora que, de alguna manera (usando mecanismos que estudiaremos en las siguientes secciones), el
router sabe que debe dar prioridad a los paquetes procedentes de la aplicación de audio a 1 Mbps. Puesto que
la velocidad del enlace de salida es de 1,5 Mbps, incluso aunque los paquetes FTP tengan una prioridad menor
todavía recibirán, como promedio, un servicio de transmisión de 0,5 Mbps. Pero, ¿qué ocurre si la aplicación de
audio comienza a enviar paquetes a una velocidad de 1,5 Mbps o superior (bien maliciosamente o debido a un
error de la aplicación)? En este caso, los paquetes FTP no recibirán ningún servicio del enlace R1 a R2. Podrían
producirse problemas similares si varias aplicaciones (por ejemplo, varias llamadas de audio), todas ellas con la
misma prioridad, tuvieran que compartir el ancho de banda de un enlace; un fujo no conforme podría degradar
y arruinar el rendimiento de los restantes fujos. Idealmente, es deseable un grado de aislamiento entre clases e
tráfco y también posiblemente entre fujos de una misma clase de tráfco, con el fn de proteger a cada uno de
los fujos de aquellos fujos que presentan un comportamiento erróneo. El concepto de proteger los fujos
individuales de una determinada clase frente a las otras contradice nuestra observación anterior acerca de que
los paquetes de todos los fujos pertenecientes a una clase deberían ser tratados del mismo modo. En la
práctica, los paquetes de una clase son de hecho tratados del mismo modo en los routers del núcleo de la red.
Sin embargo, en la frontera de la red los paquetes de un determinado fujo pueden ser monitorizados para
garantizar que la velocidad agregada de un fujo individual no excede un cierto valor.
Estas consideraciones nos llevan a nuestro segundo principio:
Principio 2: es deseable proporcionar un grado de aislamiento entre las clases de tráfico y entre los fujos, de manera
que una clase o un fujo no se vea afectado de forma adversa por otro que tene un comportamiento erróneo.
En la siguiente sección vamos a examinar varios mecanismos específcos para proporcionar este aislamiento
entres clases de tráfco o fujos. Debemos comentar aquí que es posible adoptar dos enfoques. En primer lugar,
como se muestra en la Figura, es posible vigilar el tráfco. Si una clase de tráfco o fujo tiene que satisfacer
ciertos criterios (por ejemplo, que el fujo de audio no exceda la velocidad de pico de 1 Mbps), entonces puede
utilizarse un mecanismo de vigilancia con el fn de garantizar que esos criterios son observados.
Si la aplicación que se está monitorizando presenta un mal comportamiento, entonces el mecanismo de
vigilancia llevará a cabo una cierta acción (por ejemplo, descartar o retardar los paquetes que están violando los
criterios), de modo que el tráfco que realmente entre en la red cumpla los criterios. El mecanismo de goteo
(una cubeta con pérdidas) que examinaremos en la siguiente sección es quizá el mecanismo de vigilancia más
ampliamente utilizado. En la fgura que se muestra más abajo, el mecanismo de clasifcación y marcado de
paquetes (Principio 1) y el mecanismo de vigilancia (Principio 2) están localizados en la frontera de la red,
bien en el sistema terminal o bien en un router de frontera.
Un enfoque alternativo para proporcionar aislamiento entre clases de tráfco o fujos es que el mecanismo de
planifcación de paquetes a nivel de enlace asigne explícitamente una cantidad fja de ancho de banda del
enlace a cada clase o fujo. Por ejemplo, al fujo de audio podría asignársele 1 Mbps en R1 y al fujo FTP se le
podría asignar 0,5 Mbps. En este caso, los fujos de audio y FTP ven un enlace lógico con una capacidad de 1,0
y 0,5 Mbps, respectivamente, como se muestra en la Figura.
Con un cumplimiento estricto de la asignación de ancho de banda a nivel de enlace, una clase o un fujo sólo
puede usar la cantidad de ancho de banda que ha sido asignada; en concreto, no puede utilizar ancho de banda
que no esté siendo actualmente empleado por otros. Por ejemplo, si el fujo de audio se silencia (por ejemplo, si
el que habla hace una pausa y no genera paquetes de audio), el fujo FTP seguirá sin poder transmitir a más de
0,5 Mbps a través del enlace de R1 a R2, incluso aunque la asignación de ancho de banda de 1 Mbps del fujo
de audio no esté siendo utilizada en ese momento. Por tanto, es deseable utilizar el ancho de banda de la forma

142
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

más efciente posible, permitiendo a una clase de tráfco o fujo utilizar el ancho de banda no utilizado por otros
en cualquier instante dado. Estas consideraciones nos llevan a nuestro tercer principio:
Principio 3: mientras se proporciona aislamiento entre clases o fujos, es deseable utlizar los recursos (por ejemplo, el
ancho de banda del enlace y los bufers) de la forma más eficiente posible.

Mecanismos de planificación y vigilancia


Una vez identifcados los principios en que se fundamentan los mecanismos necesarios para proporcionar las
distintas cases de servicios, hay que considerar en detalle dos de los mecanismos más importantes: la
planifcación y la vigilancia.
Mecanismos de planifcación
Los paquetes que pertenecen a varios fujos de red se multiplexan y se ponen en cola para su transmisión en
los bufers de salida asociados con un enlace. La forma en que los paquetes puestos en cola son seleccionados
para su transmisión a través del enlace se conoce como disciplina de planifcación de enlace. De todas vamos a
analizar las siguientes:
Primero en entrar-primero en salir (FIFO)
Los paquetes que llegan a la cola de salida del enlace esperan para ser transmitidos si el enlace actualmente
está ocupado transmitiendo otro paquete. Si no hay sufciente espacio en el bufer como para almacenar el
paquete que ha llegado, la política de eliminación de paquetes de la cola determina si el paquete será eliminado
(paquete perdido) o si se serán eliminados otros paquetes de la cola para hacer espacio al paquete recién
llegado. En la exposición que sigue vamos a ignorar la eliminación de paquetes. Cuando un paquete se
transmite completamente a través del enlace de salida (es decir, recibe servicio) se elimina de la cola.

Colas con prioridad


En las colas con prioridad los paquetes que llegan al enlace de salida se clasifcan en clases de prioridad en la
cola de salida, como se muestra en la segunda fgura. Como se ha visto en la sección anterior, la clase de
prioridad de un paquete puede depender de una marca explícita que transporta en su cabecera (por ejemplo, el
valor de los bits ToS de un paquete IPv4), de su dirección IP de origen o de destino, su número de puerto de
destino u otro criterio. Normalmente, cada clase de prioridad tiene su propia cola. Al seleccionar un paquete
para su transmisión, la disciplina de colas con prioridad transmitirá un paquete de la clase con la prioridad más

143
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

alta que tenga una cola no vacía (es decir, que tenga paquetes para ser transmitidos). La elección entre
paquetes con la misma clase de prioridad normalmente se realiza aplicando la disciplina FIFO.

La fgura recién mostrada, ilustra el funcionamiento de una cola con dos clases de prioridad. Los paquetes 1, 3 y
4 pertenecen a la clase con prioridad alta y los paquetes 2 y 5 pertenecen a la clase con prioridad baja. El
paquete 1 llega y se encuentra con que el enlace está inactivo, por lo que inicia la transmisión.
Colas de turno rotatorio y colas equitatvas ponderadas (WFQ)
En la disciplina de colas de turno rotatorio (round robin) los paquetes se clasifcan en clases al igual que en las
colas con prioridad. Sin embargo, en lugar de existir un servicio de prioridad estricta entre clases, un
planifcador de turno rotatorio alterna el servicio entre clases. En la forma más simple de la planifcación por
turno rotatorio se transmite un paquete de clase 1 seguido de un paquete de clase 2, seguido de un paquete de
clase 1, seguido de un paquete de clase 2, y así sucesivamente. Una disciplina de colas conservadora nunca
permitirá que el enlace permanezca inactivo siempre que haya paquetes (de cualquier clase) esperando a ser
transmitidos. Una disciplina de colas de turno rotatorio conservadora busca un paquete de una determinada
clase, pero si no lo encuentra, comprueba inmediatamente la siguiente clase de la secuencia de turno rotatorio.
Por ejemplo, los paquetes 1, 2 y 4 pertenecen a la clase 1 y los paquetes 3 y 5 pertenecen a la clase 2. El
paquete 1 comienza a ser transmitido de forma inmediata nada más llegar a la cola de salida. Los paquetes 2 y
3 llegan mientras se está transmitiendo el paquete 1 y por tanto tienen que ponerse en cola hasta poder ser
transmitidos. Una vez que el paquete 1 se ha transmitido, el planifcador del enlace busca un paquete de clase
por lo que transmite el paquete 3. Después de transmitir este paquete, el planifcador busca un paquete de
clase 1 y transmite el paquete 2. Una vez transmitido el paquete 2 sólo queda en la cola el paquete 4, el cual es
transmitido inmediatamente después del paquete 2.
Una abstracción generalizada de las colas de turno rotatorio que ha encontrado un considerable uso en las
arquitecturas QoS es la denominada disciplina de cola equitativa ponderada (WFQ, Weighted Fair Queuing)
[Demers 1990; Parekh 1993].
Vigilancia
La regulación de la velocidad a la que una clase o fujo puede inyectar paquetes en la red (en la exposición que
sigue supondremos que la unidad de vigilancia es un fujo). Además, la vigilancia es un mecanismo QoS
importante. Pero, ¿qué aspectos de la tasa de paquetes de un fujo deberían ser vigilados? Podemos identifcar
tres importantes criterios de vigilancia:
Tasa promedio. La red puede querer limitar la tasa promedio a largo plazo (paquetes por intervalo de tiempo) a
la que los paquetes de un fujo pueden ser enviados a la red. Un problema crucial en este caso es el intervalo de
tiempo sobre el que se vigilará la tasa promedio.
Tasa de pico. Mientras que la restricción de la tasa promedio limita la cantidad de tráfco que puede ser enviado
a la red para un periodo de tiempo relativamente largo, la restricción de la tasa de pico limita el número
máximo de paquetes que pueden ser enviados en un periodo de tiempo más corto.
Tamaño de la ráfaga. La red también puede desear limitar el número máximo de paquetes (la “ráfaga” de
paquetes) que pueden ser enviados a la red en un intervalo de tiempo extremadamente corto. En el límite,
cuando la longitud del intervalo tiende a cero, el tamaño de la ráfaga limita el número de paquetes que pueden
ser enviados a la red de forma instantánea.
El mecanismo de goteo de la cubeta con pérdidas es una abstracción que puede utilizarse para caracterizar
estos límites de vigilancia.

144
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

Difserv
El objetivo de la arquitectura Difserv de Internet [RFC 2475; Kilkki 1999] es el de proporcionar una
diferenciación de servicio, es decir, la capacidad de manejar diferentes “clases” de tráfco de formas distintas
dentro de Internet, y hacer esto de una manera escalable y fexible. La necesidad de la escalabilidad surge del
hecho de que pueden existir centenares de miles de fujos simultáneos de tráfco origen-destino en un router
troncal de Internet. Veremos a continuación que esta necesidad se cubre incluyendo solamente una simple
funcionalidad dentro del núcleo de la red, con más operaciones de control complejas implementadas en la
frontera de la red. La necesidad de la fexibilidad se debe al hecho de que pueden surgir nuevas clases de
servicio y quedar obsoletas otras clases de servicio más antiguas. La arquitectura Difserv es fexible en el
sentido de que no defne servicios ni clases de servicios específcos; en lugar de ello, Difserv proporciona
componentes funcionales, es decir, las piezas de una arquitectura de red con las que pueden construirse tales
servicios. Examinemos ahora estos componentes en detalle.
Servicios diferenciados: un escenario simple
Para establecer el marco de trabajo con el fn de defnir los componentes arquitectónicos del modelo de
servicios diferenciados (Difserv), comenzaremos con la sencilla red mostrada en la última fgura del principio 3.
En esta sección vamos a describir un posible uso de los componentes de Difserv. Como se describe en el
documento RFC 2475 son posibles muchas otras variantes. Nuestro objetivo aquí es proporcionar una
introducción a los aspectos clave de Difserv, en lugar de describir el modelo arquitectónico de forma
exhaustiva.
La arquitectura de los servicios diferenciados consta de dos conjuntos de elementos funcionales:
Funciones de frontera: clasifcación de paquetes y acondicionamiento del tráfco. En la frontera de entrada de la
red (es decir, en cualquier host que soporte el modelo Difserv que genere tráfco o en el primer router
compatible con Difserv a través del cual pase el tráfco), se marcan los paquetes que llegan. Más
específcamente, se asigna un cierto valor al campo servicio diferenciado (DS, Diferentiated Service) de la
cabecera del paquete. Por ejemplo, en la fgura del principio número 3, los paquetes que están siendo
transmitidos de H1 a H3 pueden marcarse en R1, mientras que los paquetes que se envían de H2 a H4 pueden
marcarse en R2. La marca que recibe un paquete identifca la clase de tráfco a la que pertenece. Las distintas
clases de tráfco recibirán entonces un servicio diferente en la red principal.
Función del núcleo: reenvío. Cuando un paquete marcado con DS llega a un router DS, el paquete es reenviado
al siguiente salto de acuerdo con el comportamiento por salto asociado con dicha clase de paquete. El
comportamiento por salto infuye en cómo las clases de tráfco en competencia comparten los búferes de un
router y el ancho de banda del enlace. Un principio fundamental de la arquitectura Difserv es que el
comportamiento por salto de un router se basará únicamente en las marcas de los paquetes, es decir, en la
clase de tráfco a la que pertenece el paquete. Por tanto, si los paquetes que se están enviando de H1 a H3 en
la fgura antes mencionada reciben la misma marca que los paquetes que están siendo enviados de H2 a H4,
entonces los routers de la red tratan estos paquetes como agregados sin distinguir si los paquetes fueron

145
Universidad Nacional del Nordeste Licenciatura en Sistemas de Información
Facultad de Ciencias Exactas y Naturales y Agrimensura Redes de Datos
Departamento de Informátca –rea Computación (LibreOfce Writer)

originados en H1 o en H2. Por ejemplo, R3 no diferenciará entre los paquetes de H1 y H2 al reenviarlos hacia
R4.

WAN QoS
Clasificación: implica buscar algo sobre el tráfco que pasa a través del router, puede ser una dirección IP, un
número de puerto, un protocolo específco, o incluso datos a nivel de aplicación si se utiliza herramientas más
específcas. La clasifcación determina la diferencia entre los tipos de tráfco que fuye a través del enlace.
Marcado: implica tomar los paquetes de cierto nivel de calidad de servicio y establecer un valor en algún campo
del paquete, para que pueda ser asignado a una cola determinada. Valor DSCP (los primeros 6 bits del tipo de
servicio de bytes en el encabezado IP) o de precedencia de IP (primeros 3 bits de byte ToS).
Mecanismo de cola: Sobre la base de que los paquetes vienen marcados, el router tratará a ese paquete de
cierta manera, ya que lo pone en cola de salida desde su interfaz. El encolamiento se aplica siempre que el
tráfco sale de una interfaz. Si se desea aplicar marcado a cola de entrada, hay que ir al otro lado del enlace y
aplicarlo en la salida del otro router.

Paquete IPv4
Datos
Byte ToS

3 bits
Precedencia de IP
WAN QoS- despliegue
Cisco utiliza un formato llamado MQC (Modular QoS CLI) confguración. MQC implica: para lograr esta:
 Defnir un ‘class-map’
 Defnir un ‘policy-map’
 Aplicar el ‘policy-map’ a través de una política-servicio.
En la asignación de clase, se defne lo que entra en una cola específca.
En el ‘policy-map’ se verifca que coinciden con las clases defnidas y asignar un comportamiento por salto
específco para una determinada cantidad de tráfco para esa clase.

146

También podría gustarte