Está en la página 1de 53

CLASE 2

15 DE AGOSTO

TRABAJOS EN CLASE

Membresía Global en Internet Society:


¿QUÉ ES ETHERNET (IEEE 802.3)?

Ethernet es una tecnología para redes de datos por cable que vincula software y/o
hardware entre sí. Esto se realiza a través de cables de redes LAN, de ahí que
Ethernet se a concebido habitualmente como una tecnología LAN. Así, Ethernet
permite el intercambio de datos entre terminales como, por ejemplo, ordenadores,
impresoras, servidores, distribuidores, etc. Conectados en una red local, estos
dispositivos establecen conexiones mediante el protocolo Ethernet y pueden
intercambiar paquetes de datos entre sí. El protocolo actual y más extendido para
ello es IEEE 802.3.

Historia
Ethernet se desarrolló a partir del sistema ALOHAnet, una red de la Universidad
de Hawai basada en la radio. En el centro de investigación de Palo Alto (Xerox
Palo Alto Research Center), el visionario Robert Metcalfe ya trabajó a principios
de los 1970 en una versión inicial del protocolo de Ethernet con cable, que
simplificaría el trabajo en el marco interno de las empresas y que se probaría de
forma activa. La fase de prueba culminó en 1976 en un proyecto científico
publicado por Metcalfe y David Boggs que hablaba de las redes locales de los
ordenadores personales vinculados.

En 1979 Metcalfe fundó su propia empresa, 3com, para impulsar el desarrollo de


ordenadores y redes LAN y para establecer Ethernet como estándar. El gran
avance se produjo, sin embargo, en 1980 con el lanzamiento de Ethernet 1.0,
desarrollado por el Institute of Electrical and Electronics Engineers (IEEE).
Este proceso dio lugar a la concepción de nuevas tecnologías, entre ellas el
protocolo CSMA/CD (Carrier Sense Multiple Access/Collision Detection),
denominado posteriormente como IEEE 802.3, y los innovadores protocolos
Token Bus (802.4) y Token Ring (802.5).

Entre 1983 y 1986 tuvieron lugar las innovaciones Cheapernet, Ethernet on


Broadband y StarLAN antes de que el estándar Ethernet recibiera más atención
por parte de muchos fabricantes. Como consecuencia, algunas empresas de
pequeña envergadura empezaron a utilizar redes Ethernet en el lugar de trabajo,
pero a través de medios de transmisión de cuatro hilos con base telefónica, y no
fue hasta principios de 1990 cuando se desarrollaron las conexiones Ethernet a
través de cables de par trenzado y de cables de fibra óptica, lo que culminó en
1995 con la adopción del estándar de 100 Mbit/s para Ethernet IEEE 80.2.u.
Simultáneamente, también se aprobó un estándar para redes WLAN (802.11), por
lo que el año 1995 es considerado como el año de nacimiento del Internet
moderno.

Tabla comparativa: tecnologías y conceptos de Ethernet:


Tabla comparativa: estándares de Ethernet:
IEEE 802.11 - WI-FI
El estandar 802.11 es una familia de normas inalámbricas creada por el Instituto de
Ingenieros Eléctricos y Electrónicos (IEEE). 802.11n es la versión anterior de Wi-Fi, lanzada
en 2009. Mejoró con respecto a versiones anteriores de Wi-Fi con múltiples radios, técnicas
avanzadas de transmisión y recepción, y la opción de usar el espectro de 5 GHz. Todo
implica una velocidad de datos de hasta 600 Mbps

El estándar IEEE 802.11 define el uso de los dos niveles inferiores de la arquitectura o
modelo OSI (capa física y capa de enlace de datos), especificando las normas de
funcionamiento de una red de área local inalámbrica (WLAN). La primera versión de la norma
se publicó en 1997 por el Instituto de Ingenieros Eléctricos y Electrónicos, Institute of
Electrical and Electronics Engineers o IEEE), el cual actualmente se encarga de su
mantenimiento. Las especificaciones de este estándar proporcionan la base para los
productos con redes inalámbricas que hacen uso de la marca Wi-Fi.
Los protocolos de la rama 802.x definen la tecnología de redes de área local, Local Area
Network o LAN y redes de área metropolitana, Metropolitan Area Network o MAN.
DESCRIPCION:
La familia 802.11 consta de una serie de técnicas de modulación semidúplex (half duplex)
por medio del aire que utilizan el mismo protocolo básico. Al estándar 802.11-1997 le
siguió el 802.11b, que fue el primero aceptado ampliamente. Posteriormente surgirían
versiones mejoradas: 802.11a, 802.11g, 802.11n y 802.11ac. Otras normas de la familia
(c-f, h, j) son las modificaciones de servicio que se utilizan para extender el alcance actual
de la norma existente, que también puede incluir correcciones de una especificación
anterior.
Las versiones 802.11b y 802.11g utilizan la banda ISM de 2,4 GHz, en Estados Unidos,
por ejemplo, operan bajo las Reglas y Reglamentos de la Comisión Federal de
Comunicaciones de los Estados Unidos. Debido a esta elección de la banda de
frecuencia, los equipos 802.11b y 802.11g pueden sufrir interferencias con
electrodomésticos tan comunes como el microondas o el horno o con dispositivos
Bluetooth. Es por eso que deben controlar dicha susceptibilidad a las interferencias
mediante métodos de señalización de espectro ensanchado por secuencia directa
(DSSS) y de multiplexación por división de frecuencia ortogonal (OFDM),
respectivamente.
Por otro lado la versión 802.11a utiliza la banda U-NII de 5 GHz que, para gran parte del
mundo, ofrece al menos 23 canales que no se superponen en lugar de la banda de
frecuencia ISM de 2,4 GHz que ofrece solo tres canales que no se superponen. 802.11n
puede utilizar la banda de 2,4 GHz o la de 5 GHz mientras que 802.11ac utiliza solo la
banda de 5 GHz. El segmento del espectro de radiofrecuencia utilizado por la 802.11
varía de un país a otro. Las frecuencias utilizadas por los canales uno a seis de 802.11b y
802.11g caen dentro de la banda de radioaficionados de 2,4 GHz. Los operadores de
radioaficionados con licencia pueden operar dispositivos 802.11b / g.

Estos estándares, con nombres como 802.11b y 802.11ac, incluyen una familia de
especificaciones que comenzó en la década de 1990 y continúa creciendo en la
actualidad. El estándar 802.11 codifica las mejoras que aumentan el rendimiento y
el alcance inalámbrico, así como la disponibilidad de nuevas frecuencias.
También abordan las nuevas tecnologías que reducen el consumo de energía.
Los nombres de estos estándares crean una sopa de letras, lo que hace que todo
sea más confuso porque no están ordenadas alfabéticamente. Para ayudar a
aclarar la situación, aquí hay una actualización de estos estándares de capa física
dentro de 802.11, enumerados en orden cronológico inverso, con los estándares
más nuevos en la parte superior y los más antiguos hacia abajo. Después de eso
hay una descripción de los estándares que aún están en proceso.
802.11ah
También conocido como Wi-Fi HaLow, 802.11ah define el funcionamiento de
redes exentas de licencia en bandas de frecuencia por debajo de 1 GHz
(típicamente la banda de 900 MHz), excluyendo las bandas de TV White Space.
El propósito de 802.11ah es crear redes Wi-Fi de rango extendido que sean más
remotas en el espacio de 2.4GHz y 5GHz, con velocidades de datos de hasta
347Mbps. Además, la norma apunta a tener un menor consumo de energía, útil
para que los dispositivos de Internet de las cosas se comuniquen con mucha
energía. Pero podría competir con las tecnologías Bluetooth en el hogar debido a
sus menores necesidades de energía. El protocolo fue aprobado en septiembre
de 2016 y publicado en mayo de 2017.
802.11ad
Aprobado en diciembre de 2012, 802.11ad es muy rápido: puede proporcionar
hasta 6.7 Gbps de velocidad de datos en la frecuencia de 60 GHz, pero eso tiene
un coste de distancia solo 3,3 metros) del punto de acceso.
802.11ac
Los enrutadores inalámbricos domésticos actuales son compatibles con 802.1ac y
funcionan en el espacio de frecuencia de 5 GHz. Con entrada múltiple, salida
múltiple (MIMO) - múltiples antenas en dispositivos de envío y recepción para
reducir el error y aumentar la velocidad - este estándar admite velocidades de
datos de hasta 3.46 Gbps. Algunos proveedores incluyen tecnologías que admiten
la frecuencia de 2,4 GHz a través de 802.11n, que brindan soporte para
dispositivos de clientes más antiguos que pueden tener radios 802.11b / g / n,
pero también proporcionan ancho de banda adicional para velocidades de datos
mejoradas.
802.11n
El primer estándar para especificar MIMO, 2.4GHz y 5GHz, con velocidades de
hasta 600Mbps. Cuando escuchas que los vendedores de LAN inalámbricos usan
el término "banda dual", se refiere a poder entregar datos a través de estas dos
frecuencias.
802.11g
Aprobado en junio de 2003, 802.11g fue el sucesor de 802.11b, capaz de
alcanzar velocidades de hasta 54Mbps en la banda de 2.4GHz, igualando la
velocidad 802.11a pero dentro del rango de frecuencia más bajo.
802.11a
La primera "carta" después de la aprobación en junio de 1997 del estándar
802.11, esta provista para operar en la frecuencia de 5GHz, con velocidades de
datos de hasta 54Mbps. Contrariamente, 802.11a salió después de 802.11b,
causando cierta confusión en el mercado porque tendría el estándar con la "b" al
final sería compatible con la "a" al final.
802.11b
Lanzado en septiembre de 1999, es más probable que su 802.11b, que opera en
la frecuencia de 2.4 GHz y proporciona hasta 11 Mbps. Curiosamente, los
productos 802.11a llegan al mercado antes que 802.11a, que fue aprobado al
mismo tiempo pero no llegó al mercado hasta más tarde.
802.11-1997
El primer estándar, que proporciona una velocidad de datos de hasta 2 Mbps en
la frecuencia de 2,4 GHz. Tiene un alcance de 20 metros de interior

Wi-Fi estándar pendiente


802.11aj
China 59-64 GHz banda de frecuencia. El objetivo es mantener la compatibilidad
con 802.11ad (60GHz) cuando opera en el rango de 59-64GHz y opera en la
banda de 45GHz, mientras se mantiene la experiencia del usuario 802.11. La
aprobación final se esperaba en noviembre de 2017.
802.11ak
Hay algunas funciones inalámbricas 802.11 y 802.3 Ethernet. El objetivo de este
estándar es ayudar a las redes con puente 802.11, especialmente en las áreas de
datos, seguridad estandarizada y mejoras en la calidad del servicio.
802.11ax
Conocido como Alta Eficiencia WLAN 802.11ax tiene como objetivo mejorar el
rendimiento en los despliegues WLAN en escenarios densos, como estadios
deportivos y aeropuertos, mientras que todavía operan en el espectro de 2,4 GHz
y 5 GHz. El grupo tiene como objetivo una mejora del rendimiento de al menos 4
veces en comparación con 802.11n y 802.11ac., a través de una utilización más
eficiente del espectro. La aprobación se estima en julio 2019.
802.11ay
También conocido como la próxima generación de 60 GHz, el objetivo de esta
norma es apoyar un rendimiento máximo de frecuencia de 20 Gbps. Se espera
que se apruebe a finales de 2019.
802.11az
Llamado Next Generation Positioning (NGP), se formó un grupo de estudio en
enero de 2015 para abordar las necesidades de una estación para identificar su
posición absoluta y relativa a otra estación o estaciones a las que está asociada o
no asociada. debe definir las modificaciones a las capas MAC y PHY que
permiten la definición de posición absoluta y relativa con respecto al protocolo de
medición fina de tiempo (MTM) que se ejecuta en el mismo tipo de PHY La
estimación actual de este estándar es marzo de 2021.
802.11b
También conocida como "Wake-Up Radio" (WUR), esta es una nueva tecnología
destinada a extender la duración de la batería de los dispositivos y sensores
dentro de una red de Internet de los objetos. El objetivo de WUR es "reducir en
gran medida la necesidad de recargar y reemplazar baterías con frecuencia, al
tiempo que se mantiene un rendimiento óptimo". Actualmente, se espera que se
apruebe en julio de 2020.

TOKEN RING
Es una arquitectura de red desarrollada por IBM en
los años 1970 con topología lógica en anillo y técnica
de acceso de paso de testigo, usando un frame de 3
bytes llamado token que viaja alrededor del anillo.
Token Ring se recoge en el estándar IEEE 802.5.

El IEEE 802.5 es un estándar por el Institute of


Electrical and Electronics Engineers (IEEE), y define
una red de área local LAN en configuración de anillo
(Ring), con método de paso de testigo (Token) como
control de acceso al medio. La velocidad de su
estándar es de 4 o 16 Mbps cuando es implementado
sobre cables de hilos de cobre, existen implementaciones de mayor velocidad tanto sobre
hilos de cobre CDDI como sobre fibra óptica FDDI la cual llega a los 100 Mbps y 200 km
de extensión.
El diseño de una red de Token Ring fue atribuido a E. E. Newhall en el año 1969. IBM
publicó por primera vez su topología de Token Ring en marzo de 1982, cuando esta
compañía presentó los papeles para el proyecto 802 del IEEE. IBM anunció un producto
Token Ring en 1984, y en 1985 éste llegó a ser un estándar de ANSI/IEEE.
Es casi idéntica y totalmente compatible con la red del token ring de IBM. De hecho, la
especificación de IEEE 802.5 fue modelada después del token ring, y continúa a la
sombra de ésta. Además, el token ring de la IBM especifica una estrella, con todas las
estaciones del extremo unidas a un dispositivo al que se le llama "unidad del acceso
multiestación" (MSAU). En contraste, IEEE 802.5 no especifica una topología, aunque
virtualmente todo el IEEE 802.5 puesto en práctica se basa en una estrella, y tampoco
especifica un tipo de medios, mientras que las redes del token ring de la IBM utilizan el
tamaño del campo de información de encaminamiento.
El IEEE 802.5 soporta dos tipos de frames básicos: tokens y frames de comandos y de
datos. El Token es una trama que circula por el anillo en su único sentido de circulación.
Cuando una estación desea transmitir y el Token pasa por ella, lo toma. Éste sólo puede
permanecer en su poder un tiempo determinado (10 ms). Tienen una longitud de 3 bytes
y consiste en un delimitador de inicio, un byte de control de acceso y un delimitador de
fin. En cuanto a los Frames de comandos y de datos pueden variar en tamaño,
dependiendo del tamaño del campo de información. Los frames de datos tienen
información para protocolos mayores, mientras que los frames de comandos contienen
información de control.

Comparación:
Existen varías diferencias notables entre Token Ring y Ethernet:
● El acceso a Token Ring es más determinista comparado con las conexiones
Ethernet basadas en CSMA/CD
● Ethernet admite conexiones directas entre dos tarjetas de red mediante el uso de
un cable cruzado o mediante la detección automática, si es permitida. Mientras
que Token Ring no soporta dicho uso.
● Token ring elimina la colisión mediante el uso de un símbolo de un solo uso y
apuesta por la liberación temprana para aliviar el tiempo de inactividad. Ethernet
alivia la colisión por el acceso múltiple del sentido del portador y por el uso de un
switch inteligente; Los dispositivos primitivos de Ethernet como los hubs pueden
precipitar colisiones debido a la repetición del tráfico a ciegas.
● Las tarjetas de red Token Ring son capaces de auto detectar la velocidad,
enrutamiento y son capaces de conducirlas a través de varias Unidades de
acceso Multistation (MAU) que operan sin energía (la mayoría de MAUs operan
de esta manera, requiriendo solamente una fuente de alimentación para LEDs).
Las tarjetas de interfaz de red Ethernet pueden funcionar teóricamente en un
concentrador pasivo en cierto grado, pero no como una LAN grande, además la
cuestión de las colisiones todavía está presente.
● Token ring emplea "prioridad de acceso" en la que ciertos nodos pueden tener
prioridad sobre el token. Unswitched Ethernet no tiene aprovisionamiento para un
sistema de prioridad de acceso, ya que todos los nodos tienen el mismo
comportamiento durante el tráfico.
● Múltiples de idénticas direcciones MAC son compatibles con token ring (una
característica utilizada por mainframes S/390 ). Switched Ethernet no puede
admitir direcciones MAC duplicadas sin generar errores.
● Token Ring es más complejo que Ethernet, requiriendo un procesador
especializado y firmware con licencia MAC / LLC para cada interfaz. Por el
contrario, Ethernet incluye tanto el firmware (más simple) como la licencia con
menor coste en el chip MAC. El costo de una interfaz de token ring usando el
Texas Instruments TMS380C16 MAC y PHY es aproximadamente tres veces el de
una interfaz Ethernet usando el Intel 82586 MAC y PHY.
● Inicialmente, ambas redes utilizaban cables costosos, pero una vez que Ethernet
estaba estandarizada para par trenzado no blindado con 10BASE-T (Cat 3) y
100BASE-TX (Cat 5 (e)), tenía una clara ventaja y las ventas aumentaron
notablemente.
● Aún más significativo fue al comparar los costos generales del sistema, pues el
costo mucho mayor de los puertos del enrutador y las tarjetas de red para token-
ring vs Ethernet. La aparición de switches Ethernet supuso la gota final que colmó
el vaso.

Modelos de access point y sus características:

Un punto de acceso inalámbrico (en inglés: wireless access point, conocido por las
siglas WAP o AP), en una red de computadoras, es un dispositivo de red que
interconecta equipos de comunicación inalámbricos, para formar una red inalámbrica que
interconecta dispositivos móviles o tarjetas de red inalámbricas.

¿Como Funciona?
1) El dispositivo access point se encuentra
interconectado a la red LAN, por medio de un
cable UTP, difundiendo interconexión por
medio de red inalámbrica.
2) Los dispositivos inalámbricos cliente, se
autentican ante el access point mediante la
WLAN, de este modo acceden a los recursos
compartidos de la red (conexión a Internet,
carpetas y archivos compartidos, impresoras
de red, servidores, etc.).

¿Cuáles son las características?

+ Difunde SSID (service set identifier) ó también llamado nombre de la red inalámbrica, el
cuál es visible desde los dispositivos wireless y les permite autentificarse por medio de
una contraseña o un PIN (personal identification number).
+ Permiten interactuar con todo tipo de dispositivos inalámbricos (smartphone, netbook,
laptop, PDA, tablet, etc.).
+ Su tecnología de comunicación es a base de ondas de radio capaces de traspasar
obstáculos, sin embargo entre cada uno de ellos, la señal pierde fuerza y se reduce la
cobertura.
+ Cuenta con un alcance máximo de distancia radial, la cual puede ser de hasta 100 m.
+ Integra interfaz GUI (graphic user interface), para ser administrado mediante navegador
de Internet (simplemente escribiendo en la barra de direcciones la dirección IPv4 del
access point y autenticando con usuario / contraseña).

¿Cuáles son las partes de un Access Point?


1.- Antena externa: se encarga de enviar y recibir señales inalámbricas (Wi-Fi).
2.- Botón WPS: permite conexión inalámbrica segura con
dispositivos cliente, autenticando por medio de PIN en
lugar de contraseña.
3.- Indicadores LED: muestran la actividad del dispositivo
(encendido, transmisión de datos en red local,
transmisión de datos en red inalámbrica).
4.- Botón de reinicio (reset): se utiliza para reconfigurar
el equipo con los valores iniciales de fábrica.
5.- Interruptor de alimentación (power): mantiene
apagado o encendido el equipo.
6.- Conector RJ45: permite la interconexión del AP con
la red local (LAN).
7.- Receptor de corriente: recibe el suministro eléctrico desde un adaptador AC/DC.

Modelo de swich y sus características:


Un switch o conmutador es un dispositivo de interconexión utilizado para conectar
equipos en red formando lo que se conoce como una red de área local (LAN) y cuyas
especificaciones técnicas siguen el estándar conocido como Ethernet (o técnicamente
IEEE 802.3).

En la actualidad las redes locales cableadas


siguen el estándar Ethernet (prácticamente el
100 %) donde se utiliza una topología en
estrella y donde el switch es el elemento central
de dicha topología.

¿Para qué sirve un switch?


La función básica de un switch es la de unir o conectar dispositivos en red. Es importante
tener claro que un switch NO proporciona por si solo conectividad con otras redes, y
obviamente, TAMPOCO proporciona conectividad con Internet. Para ello es necesario un
router.

Características de Switches perimetrales gestionables:

Este tipo se utiliza para la conexión de los equipos de los usuarios en redes de tamaño
medio y grande, y se localizan en el nivel jerárquico inferior. Es necesario que estos
switches ofrezcan características avanzadas de configuración y gestión.
Sus características más habituales son:

● EL número de puertos fijos que ofrecen oscila entre 16 y 48 puertos.


● Existen modelos con puertos 10/100 y otros con puertos 10/100/1000, todos con
soporte Auto MDI/MDI-X.
● Incluyen puertos adicionales de mayores prestaciones o puertos modulares (GBIC
o SFP) para la conexión con un switch troncal.
● Características avanzadas de gestión por SNMP, puerto de consola, navegador
web, ssh, monitorización Port Mirroring.
● Características avanzadas de configuración en el nivel 2 como Port Trunking,
Spanning Tree, IEEE 802.1x, QoS, VLAN, soporte de tramas Jumbo, etc.
● Algunos modelos pueden ofrecer Power Over Ethernet en todos los puertos.
CLASE 3
19 DE AGOSTO

Normas: EIA/TIA 568A Y EIA/TIA 568B

Es la norma 568a y 568b. Es un sistema de cableado de telecomunicaciones genérico


especialmente usados para edificios comerciales que soportan un ambiente multiproducto
y multifabricante. También proporciona directivas para el diseño de productos de
telecomunicaciones para empresas comerciales.

¿Cuál es el propósito de la norma EIA/TIA 568A?

El estándar de cableado estructurado TIA / EIA definen la forma de diseñar, construir y


administrar un sistema de cableado que es estructurado, lo que significa que el sistema
está diseñado en bloques que tienen características de rendimiento muy específicos. Los
bloques se integran de una manera jerárquica para crear un sistema de comunicación
unificado. Por ejemplo, el grupo de trabajo LAN representan un bloque con los
requerimientos de menor rendimiento que el bloque de red troncal, que requiere un cable
de alto rendimiento de fibra óptica en la mayoría de los casos.

¿Cuál es el propósito de la norma EIA/TIA 568B?

EIA/TIA-568-B son tres estándares que tratan el cableado comercial para productos y
servicios de telecomunicaciones. Los tres estándares oficiales: ANSI/TIA/EIA-568-B.1-
2001, -B.2-2001 y -B.3-2001.

Los estándares EIA/TIA-568-B se publicaron por primera vez en 2001. Sustituyen al


conjunto de estándares TIA/EIA-568-A que han quedado obsoletos.
Tal vez la característica más conocida del EIA/TIA-568-B.1-2001 sea la asignación de
pares/pines en los cables de 8 hilos y 100 ohmios (cable de par trenzado). Esta
asignación se conoce como T568A y T568B, y a menudo es nombrada (erróneamente)
como TIA/EIA-568A y TIA/EIA-568B.
En el protocolo más actual, EIA/TIA-568B, la terminación de los conectores que cumple
para la transmisión de datos arriba de 100 Mbps es la T568A.

TIA/EIA-568-B intenta definir estándares que permitirán el diseño e implementación de


sistemas de cableado estructurado para edificios comerciales y entre edificios en
entornos de campus. El sustrato de los estándares define los tipos de cables, distancias,
conectores, arquitecturas, terminaciones de cables y características de rendimiento,
requisitos de instalación de cable y métodos de pruebas de los cables instalados. El
estándar principal, el TIA/EIA-568-B.1 define los requisitos generales, mientras que
TIA/EIA-568-B.2 se centra en componentes de sistemas de cable de pares balanceados y
el -568-B.3 aborda componentes de sistemas de cable de fibra óptica.

La intención de estos estándares es proporcionar una serie de prácticas recomendadas


para el diseño e instalación de sistemas de cableado que soporten una amplia variedad
de los servicios existentes, y la posibilidad de soportar servicios futuros que sean
diseñados considerando los estándares de cableado. El estándar pretende cubrir un
rango de vida de más de diez años para los sistemas de cableado comercial. Este
objetivo ha tenido éxito en su mayor parte, como se evidencia con la definición de cables
de categoría 5 en 1991, un estándar de cable que satisface la mayoría de requerimientos
para 1000BASE-T, emitido en 1999.

Tipos de cables:
● Cable Straight-through: Conexión directa Pc a Switch.
● Cable Crossover: conexión de comunicación entre PC a PC.

● Cable Transpuesto o de consola: Se usan para la administración de dispositivos.


Es un tipo de cable de módem nulo que se usa a menudo para conectar un terminal
de computadora al puerto de la consola del enrutador.
CLASE 4
26 DE AGOSTO

Dirección IP
es la identificación de una conexión a una red. (v4 y v6).

“Es un número que identifica, de manera lógica y jerárquica, a una Interfaz en red (elemento de
comunicación/conexión) de un dispositivo (computadora, tableta, portátil, teléfono
inteligente) que utilice el protocolo o (Internet Protocol), que corresponde al nivel de red
del modelo TCP/IP.”

8 + 8 + 8 + 8 = 32 bits
255.255.255.255
Red+ host: conexión a la red)

10. 20. 30. 5


(Red) - (host)

Clase de redes:
● A - 0 - 0 al 127 - red. host. host. host
● B - 10 - 128 al 191 - red. red. host. host
● C - 110 - 192 al 223 - red. red. red. host
● D - 1110 - 224 al 239 – multidifusión
● E - 11110 - 240 al 255 – investigación

Puerta de enlace: una puerta de mi red dónde salgo a otra red.


10.20.30.1
“Su propósito es traducir la información del protocolo utilizado en una red al protocolo usado en la
red de destino.”

Mascara: 255.0.0.0
“Su función es indicar a los dispositivos qué parte de la dirección IP es el número de la red,
incluyendo la subred, y qué parte es la correspondiente al host.”
Es coger que parte es la red y que parte es el host. Es decir hasta dónde va la red.
Ejemplos:

● 170.35.45.10
Clase B
Dirección de la red (IP): 170.35.0.0
Máscara: 255.255.0.0

● 202.30.69.150
Clase C
Red: 202.30.69.0
Máscara: 255.255.255.0

CLASE 6
29 DE AGOSTO

MODELOS DE REFERENCIA:
M.R. OSI:
1. Capa física: Transmisión de bits
2. Capa de enlace de datos: crea tramas y corrige errores
3. Capa de red: primera capa de origen a destino, escoger la ruta más adecuada, envió de
los paquetes desde el origen hasta el destino, se encarga de resolver problemas de
diferentes tipos de capas físicas y de enlace.
4. Capa de Transporte: se trata de la confiabilidad a la comunicación (de que todo
funcione bien) de origen a destino.
5. Capa de Sesión: Control del dialogo
6. Capa de Presentación: Trata de la sintaxis y la semántica de la información
7. Capa de aplicación: presta los servicios al usuario.

M.R. TCP/IP:
1. Acceso a la red: física-enlace
2. Internet: red
3. Transporte
4. Aplicación: sesión, presentación, aplicación

Normas:
Internet RFC-número: RFC1918
ITU Letra. Número x.21
ISO - Organization internet stantard (Incontec, Ansi, Anfor)
IEEE
TIA
EIA
CLASE 7
2 DE SEPTIEMBRE

TEOREMAS DE LAS COMUNICACIONES:

Las telecomunicaciones se basan firmemente en un conjunto de teoremas


fundamentales. Teorema de Fourier, que permite tratar cualquier forma de onda como si
fuese una sumatoria de ondas senos y cosenos. Teorema de muestreo de Nyquist,
mediante el cual un único canal puede llevar más de una señal. Teorema de Shannon,
con el que se relaciona el ruido de un canal y su ancho de banda con la máxima
capacidad teórica del canal empleado.

1. TRANSFORMADA DE FOURIER:
La transformada de Fourier, denominada así por Joseph Fourier, es una transformación
matemática empleada para transformar señales entre el dominio del tiempo (o espacial) y
el dominio de la frecuencia, que tiene muchas aplicaciones en la física y la ingeniería. Es
reversible, siendo capaz de transformarse en cualquiera de los dominios al otro. El propio
término se refiere tanto a la operación de transformación como a la función que produce.
En el caso de una función periódica en el tiempo (por ejemplo, un sonido musical
continuo pero no necesariamente sinusoidal), la transformada de Fourier se puede
simplificar para el cálculo de un conjunto discreto de amplitudes complejas, llamado
coeficientes de las series de Fourier. Ellos representan el espectro de frecuencia de la
señal del dominio-tiempo original.

Definición:
La transformada de Fourier es básicamente el espectro de frecuencias de una función. Un
buen ejemplo de eso es lo que hace el oído humano, ya que recibe una onda auditiva y la
transforma en una descomposición en distintas frecuencias (que es lo que finalmente se
escucha). El oído humano va percibiendo distintas frecuencias a medida que pasa el tiempo,
sin embargo, la transformada de Fourier contiene todas las frecuencias del tiempo durante el
cual existió la señal; es decir, en la transformada de Fourier se obtiene un solo espectro de
frecuencias para toda la función.

Usos en la ingeniería:
La transformada de Fourier se utiliza para pasar
una señal al dominio de frecuencia para así
obtener información que no es evidente en el
dominio temporal. Por ejemplo, es más fácil
saber sobre qué ancho de banda se concentra la energía de una señal analizándola en el
dominio de la frecuencia.
La transformada también sirve para resolver ecuaciones diferenciales con mayor facilidad
y, por consiguiente, se usa para el diseño de controladores clásicos de sistemas
realimentados, si conocemos la densidad espectral de un sistema y la entrada podemos
conocer la densidad espectral de la salida. Esto es muy útil para el diseño de filtros de
radiotransistores.
La transformada de Fourier también se utiliza en el ámbito del tratamiento digital de
imágenes, como por ejemplo para mejorar o definir más ciertas zonas de una imagen
fotográfica o tomada con una computadora, véase ondícula (wavelet).

2. TEOREMA DE NYSQUIST:
El teorema de muestreo de Nyquist-Shannon, también conocido como teorema de
muestreo de Whittaker-Nyquist-Kotelnikov-Shannon o bien teorema de Nyquist, es un
teorema fundamental de la teoría de la información, de especial interés en las
telecomunicaciones.
Este teorema fue formulado en forma de conjetura por primera vez por Harry Nyquist en
1928 (Certain topics in telegraph transmission theory), y fue demostrado formalmente por
Claude E. Shannon en 1949 (Communication in the presence of noise).

El teorema trata del muestreo, que no debe ser confundido o asociado con la
cuantificación, proceso que sigue al de muestreo en la digitalización de una señal y que,
al contrario del muestreo, no es reversible (se produce una pérdida de información en el
proceso de cuantificación, incluso en el caso ideal teórico, que se traduce en una
distorsión conocida como error o ruido de cuantificación y que establece un límite teórico
superior a la relación señal-ruido). Dicho de otro modo, desde el punto de vista del
teorema, las muestras discretas de una señal son valores exactos que aún no han sufrido
redondeo o truncamiento alguno sobre una precisión determinada, es decir, aún no han
sido cuantificadas.
Desarrollado por H. Nyquist, quien afirmaba que una señal analógica puede ser
reconstruida, sin error, de muestras tomadas en iguales intervalos de tiempo. La razón de
muestreo debe ser igual, o mayor, al doble de su ancho de banda de la señal analógica”.
La teoría del muestreo define que para una señal de ancho de banda limitado, la
frecuencia de muestreo, fm, debe ser mayor que dos veces su ancho de banda [B]
medida en Hertz [Hz]. fm > 2·B

Supongamos que la señal a ser digitalizada es la voz…el ancho de banda de la voz es de


4,000 Hz aproximadamente. Entonces, su razón de muestreo será 2*B= 2*(4,000 Hz), es
igual a 8000 Hz, equivalente a 8,000 muestras por segundo (1/8000). Entonces la razón
de muestreo de la voz debe ser de al menos 8000 Hz, para que pueda regenerarse sin
error.

La frecuencia 2*B es llamada la razón de muestreo de Nyquist. La mitad de su valor, es


llamada algunas veces la frecuencia de Nyquist. El teorema de muestreo fue desarrollado
en 1928 por Nyquist y probado matemáticamente por Claude Shannon en 1949.

3. TEOREMA DE SHANNON-HARTLEY:
El teorema de Shannon-Hartley establece cuál es la capacidad del canal, para un canal
con ancho de banda finito y una señal continua que sufre un ruido gaussiano. Conecta el
resultado de Hartley con el teorema de Shannon de la capacidad del canal en una forma
que es equivalente a especificar la
M {\displaystyle M}
en la fórmula de Hartley de la tasa de información en términos de la relación señal/ruido,
pero alcanzando fiabilidad a través de la codificación correctora de errores, más fiable,
que los niveles de pulso distinguibles.
Si existiera una cosa tal como un canal analógico con ancho de banda infinito y sin ruido,
uno podría transmitir cantidades ilimitadas de datos sin error, sobre este, por cada unidad
de tiempo. Sin embargo, los canales de comunicación reales están sujetos a las
limitaciones impuestas por el ancho de banda finito y el ruido.
Entonces, ¿cómo el ancho de banda y el ruido afectan a la tasa en la que la información
puede ser transmitida sobre un canal analógico?
Aunque parezca sorprendente, las limitaciones del ancho de banda, por sí solas, no
imponen restricciones sobre la tasa máxima de información. Esto es porque sigue siendo
posible, para la señal, tomar un número infinitamente grande de valores distintos de
voltaje para cada pulso de símbolo, siendo cada nivel levemente distinto del anterior que
representa a un determinado significado o secuencia de bits. Sin embargo, si
combinamos ambos factores, es decir, tanto el ruido como las limitaciones del ancho de
banda, encontramos un límite a la cantidad de información que se puede transferir por
una señal de potencia limitada, aun cuando se utilizan técnicas de codificación de niveles
múltiples.
En el canal considerado por el teorema de Shannon-Hartley, el ruido y la señal se suman.
Es decir, el receptor mide una señal que sea igual a la suma de la señal que codifica la
información deseada y una variable aleatoria continua que represente el ruido. Esta suma
crea incertidumbre en cuanto al valor de la señal original.
Si el receptor tiene cierta información sobre el proceso aleatorio que genera el ruido, se
puede, en principio, recuperar la información de la señal original considerando todos los
posibles estados del proceso del ruido. En el caso del teorema de Shannon-Hartley, se
asume que el ruido es generado por un proceso gaussiano con una varianza conocida.
Puesto que la varianza del proceso gaussiano es equivalente a su potencia, normalmente
se llama a esta varianza la potencia de ruido.
Tal canal es llamado canal aditivo del ruido blanco gaussiano, porque el ruido gaussiano
es añadido a la señal; blanco significa igual cantidad de ruido en todas las frecuencias
dentro del ancho de banda del canal.

MÉTODOS DE MODULACIÓN

Básicamente, la modulación consiste en hacer que un parámetro de la onda portadora cambie


de valor de acuerdo con las variaciones de la señal moduladora, que es la información que
queremos transmitir.

● Modulación Analógica:
Las tres técnicas de modulación analógica son:
- Modulación de la amplitud (AM o amplitud modulada).
- Modulación de la frecuencia (FM o frecuencia modulada).
- Modulación de la fase (PM o fase modulada).
La mayoría de los sistemas de comunicación utilizan alguna de estas tres técnicas de
modulación básicas, o una combinación de ellas. Las Radios están basadas en AM y FM
siendo la FM la de mejor calidad debido a la ventaja que tiene por manejar mayores
frecuencias y mayores anchos de banda que mejoran la percepción por el contenido que
se puede transmitir.
● Modulación Digital:
Los siguientes son algunos de casos extremos de estas técnicas:
- Modulación por desplazamiento de amplitud (ASK, Amplitude Shift Keying)
Desactiva la amplitud durante toda la trayectoria
- Modulación por desplazamiento de frecuencia (FSK,Frecuency Shift Keying)
Salta a una frecuencia extrema.
- Modulación por desplazamiento de fase (PSK, Phase Shift Keying)
Desplaza la fase 180 grados.

Tipos de Modulación:

Dependiendo del parámetro sobre el que se actúe, tenemos los distintos tipos de
modulación:
● Modulación en doble banda lateral (DSB)
● Modulación de amplitud (AM)
● Modulación de fase (PM)
● Modulación de frecuencia (FM)
● Modulación banda lateral única (SSB, ó BLU)
● Modulación de banda lateral vestigial (VSB, VSB-AM, ó BLV)
● Modulación de amplitud en cuadratura (QAM)
● Modulación por división ortogonal de frecuencia (OFDM), también conocida como
'Modulación por multitono discreto' (DMT)
● Modulación de Espectro ensanchado por secuencia directa (DSSS)
● Modulación por longitud de onda
● Modulación en anillo

Cuando la OFDM se usa en conjunción con técnicas de codificación de canal, se


denomina Modulación por división ortogonal de frecuencia codificada (COFDM).
También se emplean técnicas de modulación por impulsos, pudiendo citar entre ellas:
● Modulación por impulsos codificados (PCM)
● Modulación por anchura de pulsos (PWM)
● Modulación por duración de pulsos (PDM)
● Modulación por amplitud de pulsos (PAM)
● Modulación por posición de pulsos (PPM)
Cuando la señal es una indicación simple on-off a baja velocidad, como una transmisión
en código Morse o radioteletipo (RTTY), la modulación se denomina manipulación,
modulación por desplazamiento, así tenemos:
● Modulación por desplazamiento de amplitud (ASK)
● Modulación por desplazamiento de frecuencia (FSK)
● Modulación por desplazamiento de fase (PSK)
● Modulación por desplazamiento de amplitud y fase (APSK o APK)

La transmisión de radioteletipo (RTTY) puede ser considerada como una forma simple de
Modulación por impulsos codificados.
Cuando se usa el código Morse para conmutar on-off la onda portadora, no se usa el
término 'manipulación de amplitud', sino operación en onda continua (CW).
La modulación se usa frecuentemente en conjunción con varios métodos de acceso de
canal. Otras formas de modulación más complejas son (PSK),(QAM),(I/Q),(QFSK),etc.

MÉTODOS DE CODIFICACIÓN

CODIFICACIÓN DIGITAL UNIPOLAR:


La codificación unipolar usa una sola polaridad, codificando únicamente uno de los
estados binarios, el 1, que toma una polaridad positiva o negativa, es decir, toman un
mismo valor dentro de un tren de pulso. El otro estado, normalmente el 0, se representa
por 0 voltios, es decir, la línea ociosa.

CODIFICACIÓN DIGITAL POLAR:


La codificación polar utiliza dos niveles de voltaje, positivo y negativo.

● NRZ (No retorno a cero)


● RZ (Retorno a cero)
● Bifase (auto sincronizados)
NRZ (No retorno a cero):
El nivel de la señal es siempre positivo o negativo. Los dos métodos más utilizados son:
- NRZ-L (Non Return to Zero-L): Un voltaje positivo significa que el bit es un ‘0’, y
un voltaje negativo que el bit es un ‘1’.
- NRZ-I (Non Return to Zero, Invert on ones): En esta codificación el bit ‘1’ se
representa con la inversión del nivel de voltaje. Lo que representa el bit ‘1’ es la
transición entre un voltaje positivo y un voltaje negativo, o al revés, no los voltajes
en sí mismos. Un bit ‘0’ no provoca un cambio de voltaje en la señal. Así pues, el
nivel de la señal no solo depende del valor del bit actual, sino también del bit
anterior.
RZ (Retorno a cero):
Utiliza tres valores: positivo, negativo y cero. Un bit ‘1’ se representa por una transición de
positivo a cero y un bit ‘0’ se representa con la transición de negativo a cero, con retorno
de voltaje 0 en mitad del intervalo.
Bifase (autosincronizados):
En este método, la señal cambia en medio del intervalo del bit, pero no retornó a cero,
sino que continúa el resto del intervalo en el polo opuesto. Hay dos tipos de codificación
Bifase:
- Manchester: Una transición de polaridad de positiva a negativa representa el
valor binario ‘0’, y una transición de negativa a positiva representa un ‘1’.
- Manchester Diferencial: Necesita dos cambios de señal para representar el bit
‘0’, pero solo uno para representar el bit ‘1’. Es decir, una transición de polaridad
inversa a la del bit previo, para representar el '0' y una transición igual para el '1'.

CODIFICACIÓN DIGITAL BIPOLAR:


- Código AMI ("Alternate Mark Inversion"):
Corresponden a un tipo de codificación que representa a los "unos" con impulsos de
polaridad alternativa, y a los "ceros" mediante ausencia de pulsos.
En este código, cuando se asigna un impulso positivo al primer “1”, al siguiente "1" se le
asigna un impulso negativo, y así sucesivamente. Por lo tanto, se asignan
alternativamente impulsos positivos y negativos a los "1" lógicos. Además, al ser del tipo
retorno a cero, durante la segunda mitad del intervalo de bit se utiliza tensión cero para
representar el “1”.

Es uno de los códigos más empleados en la transmisión digital a través de redes WAN.
Este formato no tiene componente de corriente continua residual y su potencia a
frecuencia cero es nula. Dos valores positivos sin alternancia entre ellos serán
interpretados como un error en la línea, los 0's son espacios sin presencia de voltaje. El
formato Bipolar es en realidad una señal de tres estados (+V, 0,-V).

- B8ZS (Bipolar 8-Zero Substitution):


B8ZS: la sustitución bipolar de 8 ceros, también llamada la sustitución binaria de 8 ceros,
el canal claro, y 64 claros. Es un método de codificación usado sobre circuitos T1, que
inserta dos veces sucesivas al mismo voltaje - refiriéndose a una violación bipolar - en
una señal donde ocho ceros consecutivos sean transmitidos. El dispositivo que recibe la
señal interpreta la violación bipolar como una señal de engranaje de distribución, que
guarda (mantiene) la transmisión y dispositivos de encubrimiento sincronizados.
Generalmente, cuando sucesivos "unos" son transmitidos, uno tiene un voltaje positivo y
el otro tiene un voltaje negativo.
Es decir, cuando aparecen 8 "ceros" consecutivos, se introducen cambios artificiales en
el patrón basados en la polaridad del último bit 'uno' codificado:
V: Violación, mantiene la polaridad anterior en la secuencia.
B: Transición, invierte la polaridad anterior en la secuencia.
Los ocho ceros se sustituyen por la secuencia: 000V B0VB
B8ZS está basado en el antiguo método de codificación llamado Alternate Mark Inversion
(AMI).

- HDB3 (High Density Bipolar 3):


El código HDB3 es un buen ejemplo de las propiedades que debe reunir un código de
línea para codificar en banda base:
-El espectro de frecuencias carece de componente de corriente continua y su ancho de
banda está optimizado.
-El sincronismo de bit se garantiza con la alternancia de polaridad de los "unos", e
insertando impulsos de sincronización en las secuencias de "ceros".
Los códigos HDBN (High Density Bipolar) limitan el número de ceros consecutivos que se
pueden transmitir: -HDB3 no admite más de 3 ceros consecutivos. Colocan un impulso
(positivo o negativo) en el lugar del 4º cero.
-El receptor tiene que interpretar este impulso como un cero. Para ello es preciso
diferenciarlo de los impulsos normales que representan a los "unos".
-El impulso del 4º cero se genera y transmite con la misma polaridad que la del impulso
precedente. Se denomina por ello V "impulso de violación de polaridad" (el receptor
reconoce esta violación porque detecta 2 impulsos seguidos con la misma polaridad).
-Para mantener la componente de corriente continua con valor nulo, se han, de transmitir
alternativamente tantas violaciones positivas como negativas ( V+ V- V+ V-... ).
-Para mantener siempre alternada la polaridad de las violaciones V, es necesario en
algunos casos insertar un impulso B "de relleno" (cuando la polaridad del impulso que
precede a la violación V, no permite conseguir dicha alternancia). Si no se insertaran los
impulsos B, las violaciones de polaridad V del 4º cero serían obligatoriamente del mismo
signo.
En HDB3 se denomina impulso a los estados eléctricos positivos o negativos, distintos de
"cero". (0 voltios).
Cuando aparecen más de tres ceros consecutivos, estos se agrupan de 4 en 4, y se
sustituye cada grupo 0000 por una de las secuencias siguientes de impulsos: B00V o
000V.
-B indica un impulso con distinto signo que el impulso anterior. Por tanto, B mantiene la
ley de alternancia de impulsos, o ley de bipolaridad, con el resto de impulsos
transmitidos.
-V indica un impulso del mismo signo que el impulso que le precede, violando por tanto la
ley de bipolaridad.
El grupo 0000 se sustituye por B00V cuando es par el número de impulsos entre la
violación V anterior y la que se va a introducir.
El grupo 0000 se sustituye por 000V cuando es impar el número de impulsos entre la
violación V anterior y la que se va a introducir.
Así se logra mantener la ley de bipolaridad de los impulsos correspondientes a los "unos",
y también la bipolaridad de las "violaciones" mediante los impulsos B y los impulsos V.
La detección elemental de los errores de transmisión típicos del ruido (inversión,
duplicación o pérdida de impulsos), se realiza simplemente comprobando que los
impulsos recibidos por el receptor cumplen las reglas de polaridad establecidas por la
codificación HDB3.
Los errores se suelen detectar en el caso de que aparezcan los 4 ceros consecutivos que
no permite el HDB3 o en el caso de la inserción de un "uno" y que las dos violaciones V+
queden con la misma polaridad. Sin embargo existen casos en los cuales hay errores que
son imposibles de detectar y que incluso se propagan generando aún más errores.
Por ejemplo en la imagen podemos ver una señal HDB3 con errores que no detecta el
RECEPTOR.

¿Qué técnica de modulación utiliza ethernet?

Ethernet
Algunas versiones del protocolo Ethernet se basan en la modulación PAM (modulación
por amplitud de pulsos) para la transmisión de los datos. En concreto, 100BASE-TX (fast
ethernet) usa una modulación de 3 niveles (3-PAM), mientras que 1000BASE-T (gigabit
ethernet) usa una modulación de 5 niveles o 5-PAM.

¿Qué técnica de modulación utiliza la telefonía celular (Móvil)?

La última tecnología desarrollada para redes de telefonía móvil se conoce como HSPA+,
también conocido como Evolved HSPA (HSPA Evolucionado). Se añaden nuevas
mejoras para aumentar la velocidad de transmisión, como la utilización de MIMO
(Multiple-Input Multiple-Output), una técnica de transmisión de datos basada en la
utilización de varias antenas, o el uso de una modulación de 64-QAM. Las velocidades
máximas especificadas en el estándar son de hasta 84 Mbps de bajada y 22 Mbps de
subida, aunque como es habitual en la práctica raramente se podrán alcanzar esas tasas
de transmisión.

¿Qué técnica de modulación utiliza la red inalámbrica?


En WiFi como en otras tecnologías de banda ancha inalámbrica se pueden usar varias
modulaciones (o velocidades de conexión) y en muchos equipos estas modulaciones se
ajustan automáticamente según la calidad de la señal que estemos recibiendo.

Modulación Velocidad de transmisión

BPSK 15 Mbps

QPSK 45 Mbps

16QAM 90 Mbps

64QAM 150 Mbps

256QAM 200 Mbps

Comparación de velocidad según modulación (estimado).

En WiFi se pueden utilizar varias modulaciones y actualmente todos los equipos se


ajustan automáticamente a la señal recibida, subiendo o bajando la modulación y la
velocidad de transmisión automáticamente para tener siempre la más alta posible según
la calidad que tenga nuestra conexión. Esto es particularmente importante en tecnologías
móviles como WiFi ya que los usuarios se mueven constantemente cambiando las
condiciones de conexión.
CLASE 8
9 DE SEPTIEMBRE

¿Cuales son los comandos básicos de configuración de los


Switch (Cisco) CMI?

Comunes en routers y switches:

● Herramientas del sistema local:


- configure terminal: Entra en modo configuración.
- show version: Muestra la version del IOS, del equipo, la MAC asociada, ultima vez
que se reseteó, datos del hardware (mas info aqui).
- hostname: Configura el nombre del equipo.
- ip address: Asignación de IP a un interface junto a su mascara. (pagina 229 de
documentacion oficial).
- ip host: Define una relación nombre-ip (pagina 454 de documentacion oficial).
- show hosts: Muestra los nombres de equipo configurados y sus IP’s.
- show running-config: Muestra la configuración actual del equipo.
- shutdown: deshabilita interface.
- copy: Copia configuración de memoria RAM a NVRAM, por ejemplo running-
config startup-config.
- write : Almacena la configuración en memoria actual. Resetea equipo.
- write erase : Borra la configuración.
- delete: Borra archivo de configuración.
- dir: Muestra archivos.
- show flash: muestra estado de memoria flash.
- clear: Borra configuración.
- clock: Gestión del reloj.ejemplo clock set 15:56:00 24 june 2017.
- debug/undebug: Funciones de debug, visualizar mensajes de error o informacion.
- setup: ejecuta ayudante de configuración del sistema.
- show: muestra información del sistema.
- more: Muestra contenido de archivo paginado.
- no: Sirve para negar el comando a ejecutar.
- cdp: Detección de configuración de conexiones en vecinos Información oficial:
CDP is primarily used to obtain protocol addresses of neighboring devices and
discover the platform of those devices.
- reload: carga la configuración de la NVRam.

● Gestión de contraseñas:
- enable/disable: Cambia el rol del usuario de usuario a administrador.
- enable password / enable secret: crea una contraseña para modo administrador
visible o oculta.
- line console 0 / line vty 0 4 : Permite acceso remoto.
- password: configura una contraseña a los modos de acceso por consola.
● Acceso a equipo local:
- exit/logout: termina sesión en equipo.
- login: autoriza la conexión al equipo.
- show session: muestra las sesiones abiertas contra otros equipos mediante telnet
o ssh. Info oficial : To display information about suspended Secure Shell (SSH)
and Telnet connections launched from the terminal session, use the show
sessions command in EXEC mode.
- show users: muestra los usuarios conectados mediante telnet o ssh. Información
oficial: To display information about the active lines on the router, use the show
users command in EXEC mode.
- resume: Mantiene conexion en segundo plano. Información oficial: To switch to
another active Secure Shell (SSH) or Telnet session, use the resume command in
EXEC mode.

● Pruebas de conexión:
- ping: Mensaje ICMP para comprobar conectividad con un elemento.
- traceroute: Comando para ver saltos de routers en la conexion con un equipo
remoto.
● Conexiones remotas:
- terminal: Configura parametros de aceptación de conexion remota.
- connect/disconnect: Realiza conexión por telnet o realiza desconexión.
- ssh: Abre conexiones ssh con cliente.
- telnet: Abre conexiones telnet con usuario.

● Configuracion switches (comandos de packet tracert)


- vlan: Configuracion de VLANES

● Configuracion routers:
● interface loopback 0: Entra en modo configuración de un interface, aquí el loopack
para la administración del equipo.

● Configurar IP a un equipo:
SW_2950(config)#interface vlan 1
SW_2950(config-vlan)#ip address [direccion ip + mascara]

VLAN
Una red de área local virtual (Virtual Local Area Network o VLAN) es un segmento
lógico más pequeño dentro de una gran red física cableada. Las diferentes estaciones
se combinan en una solución de red independiente de su ubicación: siempre que estén
conectadas entre sí en la misma LAN, es posible combinarlas mediante una VLAN. No
supone ningún problema que la LAN abarque varios switches. Lo único importante es que
el switch también sea compatible con la VLAN. La única manera de crear VLAN es
utilizando switches gestionables (Managed Switches).

CLASIFICACIÓN:
Aunque las más habituales son las VLAN basadas en puertos (nivel 1), las redes de área
local virtuales se pueden clasificar en cuatro tipos según el nivel de la jerarquía OSI en el
que operen:
● VLAN de nivel 1 (por puerto). También conocida como “port switching”. Se especifica
qué puertos del switch pertenecen a la VLAN, los miembros de dicha VLAN son los
que se conecten a esos puertos. No permite la movilidad de los usuarios, habría que
reconfigurar las VLAN si el usuario se mueve físicamente. Es la más común y la que
se explica en profundidad en este artículo.
● VLAN de nivel 2 por direcciones MAC. Se asignan hosts a una VLAN en función de su
dirección MAC. Tiene la ventaja de que no hay que reconfigurar el dispositivo de
conmutación si el usuario cambia su localización, es decir, se conecta a otro puerto de
ese u otro dispositivo. El principal inconveniente es que hay que asignar los miembros
uno a uno y si hay muchos usuarios puede ser agotador.
● VLAN de nivel 2 por tipo de protocolo. La VLAN queda determinada por el contenido
del campo tipo de protocolo de la trama MAC. Por ejemplo, se asociaría VLAN 1 al
protocolo IPv4, VLAN 2 al protocolo IPv6, VLAN 3 a AppleTalk, VLAN 4 a IPX...
● VLAN de nivel 3 por direcciones de subred (subred virtual). La cabecera de nivel 3 se
utiliza para mapear la VLAN a la que pertenece. En este tipo de VLAN son los
paquetes, y no las estaciones, quienes pertenecen a la VLAN. Estaciones con
múltiples protocolos de red (nivel 3) estarán en múltiples VLAN.
● VLAN de niveles superiores. Se crea una VLAN para cada aplicación: FTP, flujos
multimedia, correo electrónico... La pertenencia a una VLAN puede basarse en una
combinación de factores como puertos, direcciones MAC, subred, hora del día, forma
de acceso, condiciones de seguridad del equipo.

TIPOS DE VLANS

● VLAN basada en puertos:


Grosso modo, se enruta a cada participante de la red en un switch a través de un puerto;
hay una toma en la que se enchufa el cable de red que corresponde al ordenador
pertinente (no obstante, los puertos también se utilizan para conectar los switches entre
sí). Si quisieras crear dos VLAN a partir de esta red física, habría que asignar los puertos
correspondientes a la red virtual deseada.
Aunque las instalaciones VLAN basadas en puertos suelen realizarse en redes pequeñas
y solo se implementan en un switch, también es posible realizar la configuración en
varios switches. Es decir, los puertos 1 a 3 del primer switch y el puerto 1 del segundo
switch pueden conectarse juntos en una misma VLAN. Sin embargo, esto requiere
conectar los switches con dos cables para que haya una conexión separada para cada
VLAN.
● Hecho: Este tipo de conexión se llama trunking. Los switches presentan uno o
más puertos dedicados exclusivamente a este propósito, o permiten establecerlos
a través de las opciones de configuración. En este caso, el tipo de línea resulta
irrelevante: es indiferente si el cable es de cobre o de fibra óptica, o si se trata de
una conexión inalámbrica.
Por lo tanto, la distribución de los paquetes se produce a través de los propios switches.
Los administradores establecen en los switches qué puertos pertenecen a qué VLAN. De
esta forma, la VLAN es estática. Si las VLAN tuvieran que combinarse de forma
diferente, sería necesario redistribuir los puertos en la configuración del switch. Además,
cada puerto y cada dispositivo conectado solo pueden formar parte de una única VLAN.
Si los dispositivos de una VLAN van a comunicarse con otra es necesario que lo hagan a
través de un router que pueda reenviar los datagramas, tal y como ocurre en el caso de la
comunicación entre la red doméstica e Internet.

● VLAN etiquetada o Tagged VLAN


En las VLAN etiquetadas la asignación a las VLAN es más dinámica. En lugar de tener
que establecerse en el switch, una etiqueta (tag) en el marco del datagrama se encarga
de la asignación. Por esta razón, esta técnica también se denomina, en analogía a las
redes basadas en puertos, como basada en marcos. En la etiqueta se encuentra la
información sobre la VLAN en la que se encuentra actualmente. De esta manera, un
switch puede reconocer en qué segmento se produce la comunicación y reenviar el
mensaje en consecuencia.
Una etiqueta VLAN tiene una longitud de 32 bits y aparece en el marco Ethernet
directamente después de la dirección MAC del remitente. La etiqueta comienza con un ID
de protocolo de dos bytes: el ID de protocolo de etiqueta (TPI) indica si se ha
especificado un ID de VLAN. Este bloque se establece en un valor de 0x8100 cuando la
VLAN se coloca en el marco. Luego, un marco de 3 bits establece la prioridad del
mensaje. A continuación, encontramos el Indicador de formato canónico (CFI) de 1 bit.
Esta posición solo se utiliza para garantizar la compatibilidad entre Ethernet y otra
estructura de red, token ring
Es en los últimos 12 bits donde el protocolo identifica el ID de la VLAN. La longitud del
marco permite una cantidad de 4096 VLAN disponibles. A cada VLAN se le asigna su
propio número. Las VLAN etiquetadas pueden implementarse directamente utilizando
tarjetas de red. Por ejemplo, Linux soporta el estándar por defecto. Los usuarios de
Windows, en cambio, dependen del fabricante de la tarjeta de red. La VLAN se puede
configurar a través del controlador del dispositivo.
El principio del marco que acabamos de presentar sigue el estándar IEEE 802.1q. Esta
es la variante más utilizada. De hecho, existen otras formas de incluir etiquetas VLAN en
un datagrama. Por ejemplo, Cisco utiliza el protocolo Inter-Switch Link (ISL) para sus
switches. Para habilitar varias VLAN, este protocolo encapsula toda la trama de datos.

La ventaja de una VLAN etiquetada en comparación con una VLAN que funcione a través
de la asignación de puertos es la conexión entre diferentes switches. Las VLAN basadas
en puertos deben disponer de al menos dos cables entre los switches, ya que cada LAN
virtual necesita de su propia conexión. En las VLAN etiquetadas con enlaces troncales
(trunking) un cable es suficiente porque la distribución funciona a través de la
información del marco. El switch detecta la VLAN correcta y realiza el envío al segundo
switch que corresponda. En el extremo de recepción, se quita la etiqueta y se reenvía la
trama al destinatario correcto.
● Hecho: En la práctica, se ha demostrado que el éxito radica en una combinación
de VLAN basada en puertos y VLAN etiquetada: la comunicación VLAN dentro de
un switch se realiza a través de puertos asignados. Entre los switches, sin
embargo, la conexión está basada en marcos para que un solo cable sea
suficiente (y, en consecuencia, dos puertos).
¿Qué uso tienen y ventajas?
A día de hoy se configuran a través de software y poseen grandes beneficios a la hora de
garantizar la seguridad y administrar los equipos de forma eficaz, tal y como a hemos
puntualizado. En lo que concierne a la seguridad, hay que tener en cuenta que los
dispositivos pertenecientes a una VLAN no tienen acceso a los que se encuentren en
otras y viceversa. Resulta útil cuando queremos segmentar los equipos y limitar el acceso
entre ellos por temas de seguridad.
De lo dicho con anterioridad se deduce que la gestión también será mucho más sencilla,
ya que tendríamos a los dispositivos divididos en «clases» aunque pertenezcan a una
misma red.
Las VLAN son una forma eficiente y comparativamente sencilla de dividir redes grandes
en grupos lógicos más pequeños.

Comando de configuración de VLAN (Cisco):

● Creación de las VLAN:


sw0(config)# interface vlan 4

sw0(config-if)# description Vlan4

sw0(config-if)# no shutdown

sw0(config)# interface vlan 5

sw0(config-if)# description Vlan5

sw0(config-if)# no shutdown

sw1(config)# interface vlan 4

sw1(config-if)# description Vlan4

sw1(config-if)# no shutdown

sw1(config)# interface vlan 5

sw1(config-if)# description Vlan5

sw1(config-if)# no shutdown
● Asignar puertos a las VLAN
sw0(config)#interface range fastEthernet 0/1 - fastEthernet 0/8

sw0(config-if-range)#switchport mode access

sw0(config-if-range)#switchport access vlan 4

sw0(config-if-range)#exit

sw0(config)#interface range fastEthernet 0/9, fastEthernet 0/10,

fastEthernet0/12

sw0(config-if-range)#switchport mode access

sw0(config-if-range)#switchport access vlan 5

sw0(config-if-range)#exit

sw1(config)#interface range fastEthernet 0/1 - fastEthernet 0/9

sw1(config-if-range)#switchport mode access

sw1(config-if-range)#switchport access vlan 4

sw1(config-if-range)#exit

sw1(config)#interface range fastEthernet 0/10 - fastEthernet 0/14

sw1(config-if-range)#switchport mode access

sw1(config-if-range)#switchport access vlan 5

sw1(config-if-range)#exit

● Configurar los puertos de Trunk:


sw0(config)#interface fastEthernet 0/11

sw0(config-if)#switchport mode trunk

sw0(config-if)#switchport trunk encapsulation dot1q

sw0(config-if)#switchport trunk allowed vlan 4,5


sw0(config-if)#exit

sw0(config)#interface gigabitEthernet 1/1

sw0(config-if)#switchport mode trunk

sw0(config-if)#switchport trunk encapsulation dot1q

sw0(config-if)#switchport trunk allowed vlan 4,5

sw0(config-if)#exit

sw1(config)#interface gigabitEthernet 1/1

sw1(config-if)#switchport mode trunk

sw0(config-if)#switchport trunk encapsulation dot1q

sw1(config-if)#switchport trunk allowed vlan 4,5

sw1(config-if)#exit

● Ruteo entre VLANs:


central(config)#interface fastEthernet 0/0

central(config-if)#no shutdown

central(config-if)#exit

central(config)# interface fastEthernet 0/0.4

central(config-if)# encapsulation dot1Q 4

central(config-if)# ip address 192.168.4.1 255.255.255.0

exit

central(config)# interface fastEthernet 0/0.5

central(config-if)# encapsulation dot1Q 5

central(config-if)# ip address 192.168.5.1 255.255.255.0


exit

● Verificación de la configuración de las VLAN:


sw1#show vlan brief

CLASE 9
12 DE SEPTIEMBRE

● Fourier: 1822, Conociendo el periodo podría reconstruir la frecuencia de la onda


senosoidal.

● Nyquist: 1928, Lo máximo que se puede transmitir en el ancho de banda es el double


ancho de banda.

● Shannon: 1949, Que no hay limitante, el limitante son las medidas.

CLASE 10
19 DE SEPTIEMBRE
JERARQUÍA DIGITAL PLESIÓCRONA

La jerarquía digital plesiócrona —abreviada como PDH, del inglés Plesiochronous Digital
Hierarchy— es una tecnología usada en telecomunicación tradicionalmente para telefonía
que permite enviar varios canales telefónicos sobre un mismo medio (ya sea cable
coaxial, radio o microondas) usando técnicas de multiplexación por división de tiempo y
equipos digitales de transmisión. También puede enviarse sobre fibra óptica, aunque no
está diseñado para ello y a veces se suele usar en este caso SDH —Synchronous Digital
Hierarchy—.
La jerarquía usada en Latinoamérica es la misma de Europa que agrupa 30+2 canales de
64Kb/s para obtener 2048 kbit/s (E1). Luego multiplicando por 4 sucesivamente se
obtiene jerarquías de nivel superior con las velocidades de 8 Mbit/s (E2), 34 Mbit/s (E3) y
139 Mbit/s (E4).

JERARQUÍA EUROPEA:

Jerarquía Velocidad Canales Trama


E1 2048 Kbit/s 30 256 bits = 125 us
E2 8448 Kbit/s 120 848 bits = 100.38 us
E3 34368 Kbit/s 480 1536 bits = 44,7 us
E4 139264 Kbit/s 1920 2904 bits = 20.85 us
E5 564992 Kbit/s 7680 2688 bits = 4.7 us

Jerarquías europea (E1), norteamericana (T1) y japonesa (J1):

PDH se basa en canales de 64 kbps. En cada nivel de multiplexación se van aumentando


el número de canales sobre el medio físico. Es por eso que las tramas de distintos niveles
tienen estructuras y duraciones diferentes. Además de los canales de voz en cada trama
viaja información de control que se añade en cada nivel de multiplexación, por lo que el
número de canales transportados en niveles superiores es múltiplo del transportado en
niveles inferiores, pero no ocurre lo mismo con el régimen binario.
Existen tres jerarquías PDH: la europea, la norteamericana y la japonesa. La europea usa
la trama descrita en la norma G.732 de la UIT-T mientras que la norteamericana y la
japonesa se basan en la trama descrita en G.733. Al ser tramas diferentes habrá casos
en los que para poder unir dos enlaces que usan diferente norma haya que adaptar uno
al otro, en este caso siempre se convertirá la trama al usado por la jerarquía europea.
En la tabla que sigue se muestran los distintos niveles de multiplexación PDH utilizados
en Norteamérica (Estados Unidos y Canadá), Europa y Japón.

Ni Norteamérica Europa Japón


vel
Circu kbit/ Denomin Circu kbit/ Denomin Circu kbit Denomin
itos s ación itos s ación itos /s ación
1 24 154 (T1) 30 204 (E1) 24 154 (J1)
4 8 4
2 96 631 (T2) 120 844 (E2) 96 631 (J2)
2 8 2
3 672 447 (T3) 480 343 (E3) 480 320 (J3)
36 68 64
4 4032 274 (T4) 1920 139 (E4) 1440 977 (J4)
176 264 28

¿Qué significa el soporte óptico (OC)?


Una portadora óptica es la unidad de medida estándar para la tasa de ancho de banda de
transmisión para los datos transportados por las redes de fibra óptica de redes ópticas
síncronas (SONET).
La velocidad de transmisión del operador óptico significa la velocidad de una red de fibra
óptica y se abrevia como OCx, donde x es una variable que representa un multiplicador
cuya velocidad base es 51.84 Mbps. Por lo tanto, una red de fibra con clasificación OC-1
tendría una velocidad de transmisión de 51.84 Mbps, mientras que una red con
clasificación OC-3 tendría una velocidad de 155.52 Mbps.

Niveles de Optical Carrier (OC):


Los portadores ópticos son conjuntos estandarizados de especificaciones para anchos de
banda de transmisión para redes de fibra SONET. La siguiente es una lista de todos los
niveles de OC disponibles y sus velocidades correspondientes:

1. OC-1 (STM-0): 51.84 Mbps


2. OC-3 (STM-1 o STS-3): 155,52 Mbps
3. OC-9 (STM-3): 466.56 Mbps
4. OC-12 (STM-4): 622.08 Mbps
5. OC-18 (STM-6): 933.12 Mbps
6. OC-24 (STM-8): 1244,16 Mbps
7. OC-36 (STM-12): 1866,24 Mbps
8. OC-48 (STM-16): 2488.32 Mbps
9. OC-192 (STM-64): 9953.28 Mbps
10. OC-768 (STM-256): 40 Gbps
11. OC-3072 (STM-1024): 160 Gbps

El módulo de transporte síncrono (STM) es equivalente al OC definido en la jerarquía


digital síncrona (SDH). El STM se refiere a cómo se enmarcan o arreglan los datos para
el transporte.

PRIMER PREVIO - 30 DE SEPTIEMBRE

CLASE 12
10 DE OCTUBRE

Métodos de entramado:
1. por conteo de caracteres: al principio de la trama se pone el número de
bytes que representa el principio y fin de las tramas. Habitualmente se
emplean STX (Start of Transmission: ASCII #2) para empezar y ETX (End
of Transmission: ASCII #3) para terminar. Si se quieren transmitir datos
arbitrarios se recurre a secuencias de escape para distinguir los datos de
los caracteres de control.
2. por secuencias de bits: en comunicaciones orientadas a bit, se puede
emplear una secuencia de bits para indicar el principio y fin de una trama.
Se suele emplear el "guion", 01111110, en transmisión siempre que
aparezcan cinco unos seguidos se rellena con un cero; en recepción
siempre que tras cinco unos aparezca un cero se elimina.
3. por violación del nivel físico: se trata de introducir una señal, o nivel de
señal, que no se corresponda ni con un "1" ni con un "0". Por ejemplo si la
codificación física es bipolar se puede usar el nivel de 0 voltios, o en
Codificación Manchester se puede tener la señal a nivel alto o bajo durante
todo el tiempo de bit (evitando la transición de niveles característica de este
sistema).
4. Banderas con relleno de caracteres: Este método evita el problema de tener que
sincronizar nuevamente después de un error, haciendo que cada trama inicie y
termine con bits especiales. La mayoría de los protocolos utilizan un byte llamado
bandera o indicador, como delimitador del inicio y el final de una trama. De esta
manera si el receptor pierde la sincronía, simplemente busca la bandera para
encontrar el final o inicio de la trama actual. Cuando se utiliza este método para
transmitir datos binarios, surge un problema: se puede dar el caso con mucha
facilidad de que el patrón de bits de la bandera aparezca en los datos, lo que
interferirá con el entramado. Una forma de resolver este problema es hacer que la
capa de enlace del emisor inserte un byte de escape especial (ESC) justo antes de
cada bandera. La capa de enlace del receptor quita el byte de escape antes de
entregar los datos a la capa de red. Esta técnica se conoce como relleno de
caracteres. Una desventaja importante del uso de esta técnica de entramado es que
está fuertemente atada a los caracteres de 8 bits y no todos los códigos utilizan los
8 bits. P.E.: UNICODE no utiliza 8 bits

Trama Ethernet:
¿Como se crea?
Una trama Ethernet debe tener al menos 64 bytes para que funcione la detección
de colisiones y puede tener un máximo de 1518 bytes. El paquete comienza con
un preámbulo, que controla la sincronización entre el emisor y el receptor, y un SFD
(Start Frame Delimiter), que define la trama. Ambos valores son secuencias de bits
en el formato "10101010 ....". La trama en sí contiene información sobre las
direcciones de origen y destino (formato MAC), información de control (en el caso
de Ethernet II el campo de tipo, una especificación de longitud), seguida por el
registro de datos que se envía (Data). Una secuencia de comprobación de trama
(FCS) es un código de detección de errores que cierra la trama (si no se cuenta al
preámbulo y al SFD). El paquete se completa con una Inter Frame Gap, que define
una pausa de transmisión de 9.6 μs.

CLASE 13
17 DE OCTUBRE

TRAMA IP: ipv4 e ipv6 - máximo 64kb.

32 bits dirección lógica. 48 bits dirección física


CORRECCIÓN DE ERRORES: es opcional en esta capa, la encargada de realizar esta
función es la capa de transporte, en una WAN es muy probable que la verificación, la
realiza la capa de enlace.
Para la identificación de tramas puede usar distintas técnicas como:
● Contador de caracteres
● Caracteres de inicio y final con caracteres de relleno
● Secuencia de bits indicadora de inicio y final, con bits de relleno
El control de flujo es necesario para no 'agobiar' al receptor. Se realiza normalmente en la
capa de transporte, también a veces en la capa de enlace. Utiliza mecanismos de
retroalimentación. Suele ir unido a la corrección de errores y no debe limitar la eficiencia
del canal.
Los métodos de control de errores son básicamente dos:
● Corrección de errores hacia adelante (Forward Error Correction, FEC) o
corrección de errores por anticipado, no tiene control de flujo.
● Petición de repetición automática (Automatic Repeat-reQuest, ARQ): posee
control de flujo mediante parada y espera, y/o ventana deslizante.
Las posibles implementaciones son:
● Parada y espera simple: el emisor envía la trama y espera una señal del
receptor para enviar la siguiente trama o la que acaba de enviar en caso de
error.
● Envío continuo y rechazo simple: el emisor envía continuamente tramas y el
receptor las va validando. Si encuentra una trama errónea, elimina todas las
posteriores y pide al emisor que envíe a partir de la trama errónea.
● Envío continuo y rechazo selectivo: transmisión continua salvo que solo
retransmite la trama defectuosa.
La detección de errores la realiza mediante diversos tipos de códigos del que hay que
resaltar:
● Control de redundancia cíclica (CRC)
● Simple paridad
● Paridad cruzada (Paridad horizontal y vertical)
● Suma de verificación
La corrección de errores están basados en Código Hamming, por repetición, verificación
de paridad cruzada, Reed-Solomon y de Goyle.
Control de redundancia cíclica (CRC)
Se añaden r bits "0" a la derecha del mensaje
Se añaden tantos ceros como grado tenga el polinomio generador.
Se divide el polinomio obtenido por el polinomio generador.
La división se realiza en módulo 2, que es igual que la división binaria, con
dos excepciones:
1 + 1 = 0 (no hay acarreo)
0 - 1 = 1 (no hay acarreo, ni préstamos)
Las operaciones se hacen con un OR Exclusivo (EXOR)
Se dice que un divisor “cabe” en un dividendo si el dividendo tiene tanto bits
como el divisor.
El trasmisor y el receptor deben acordar un polinomio generador G(x), por
adelantado. Tanto los bit mayor como menor del generador deben ser 1.
Y se añade el resto de la división al polinomio original.

Funcionamiento de CRC.
ALGORITMOS DE ENRUTAMIENTO:
Algoritmo de la ruta más corta:
Empecemos nuestro estudio de los algoritmos de enrutamiento con una técnica simple
para calcular las rutas
óptimas con base en una imagen completa de la red. Estas rutas son las que queremos
que encuentre un
algoritmo de enrutamiento distribuido, aun cuando no todos los enrutadores conozcan
todos los detalles de la
red.
La idea es construir un grafo de la red, en donde cada nodo del grafo representa un
enrutador y cada arco del
grafo representa una línea o enlace de comunicaciones. Para elegir una ruta entre un par
específico de
enrutadores, el algoritmo simplemente encuentra la ruta más corta entre ellos en el grafo.
Enrutamiento por vector de distancia:
El algoritmo de enrutamiento por vector de distancia opera haciendo que cada enrutador
mantenga una tabla
(es decir, un vector) que proporcione la mejor distancia conocida a cada destino y el
enlace que se puede usar
para llegar ahí. Para actualizar estas tablas se intercambia información con los vecinos.
Eventualmente, todos
los ruteadores conocen el mejor enlace para alcanzar cada destino.

CÓDIGOS DE CORRECCIÓN DE ERRORES


Analizaremos cuatro códigos de corrección de errores:
1. Códigos de Hamming: Con este nombre se conoce a un conjunto de códigos
correctores de error en k
dígitos binarios; donde k es un número natural arbitrario. En estas líneas trataremos solo
el caso de k=1, es
decir, códigos de Hamming de orden uno.
2. Códigos convolucionales binarios: son códigos lineales al igual que los códigos bloque
(como los códigos
de Hamming, por ejemplo) y, por tanto, se utilizan para proteger la información añadiendo
redundancia a la misma,
de manera que las palabras del código tengan la distancia mínima necesaria.
3. Códigos de Reed-Solomon: Al igual que los códigos de Hamming, los códigos de Reed-
Solomon son
códigos de bloques lineales y con frecuencia también son sistemáticos. A diferencia de los
códigos de
Hamming, que operan sobre bits individuales, los códigos de Reed-Solomon operan sobre
símbolos de m bits.
Naturalmente las matemáticas son más complejas, por lo que describiremos su operación
mediante una
analogía.
4. Códigos de verificación de paridad de baja densidad: En un código LDPC, cada bit de
salida se forma
sólo a partir de una fracción de los bits de entrada.

CÓDIGOS DE DETECCIÓN DE ERRORES


Un proceso de comunicación puede tener lugar en diversas formas: por ejemplo, al hacer
una llamada
telefónica, al enviar un telegrama, al usar un lenguaje de signos.
1. Paridad: en el que se adjunta un solo bit de paridad a los datos.
2. Sumas de verificación: para indicar un grupo de bits de verificación asociados con un
mensaje, sin
importar cómo se calculen. Un grupo de bits de paridad es un ejemplo de una suma de
verificación.

Está muy relacionado con los grupos de bits de paridad. La palabra “suma de verificación”
se utiliza con
frecuencia para indicar un grupo de bits de verificación asociados con un mensaje, sin
importar cómo se
calculen.
3. Pruebas de Redundancia Cíclica (CRC): más potente, se basan en el tratamiento de
cadenas de bits
como representaciones de polinomios con coeficientes de 0 y 1 solamente.

MÉTODOS DE ACCESO A CANAL:

ASIGNACIÓN DINÁMICA DEL CANAL


-Se basan en un modelo que cumple:
-Los nodos son estaciones que emiten sus trampas a un ritmo dado con independencia
las unas con las otras.

-Existe un único canal compartido por toda las estaciones.

-Si dos nodos intentan transmitir al mismo tiempo se produce una "colisión", es decir,
una señal en el canal de trama errónea, detectable por todas las estaciones, y que implica
la necesidad de retransmitir las tramas.

-La portadora puede ser detectable o no para las estaciones. Si lo es, éstas podrán
saber si el medio esta siendo utilizado o no.
(Los hay de contienda(ALOHA), sin colisión(BRAP) y de contienda limitada.)

CLASE 14 Y 15
21 Y 24 DE OCTUBRE

ALOHA: Una estación transmite y escucha el medio a la espera de una confirmación, si


no lo recibe retransmite. (Rendimiento:18%)
ALOHA Renurado: Tiempo discreto múltiple de tiempo de transmisión en ranuras.
El primer protocolo de detección de portadora que estudiaremos aquí se llama CSMA
(Acceso Múltiple con Detección de Portadora, del inglés Carrier Sense Multiple Access)
persistente-1. Es un nombre bastante largo para el esquema CSMA más simple. Cuando
una estación tiene datos por enviar, primero escucha el canal para saber si alguien más
está transmitiendo en ese momento. Si el canal está inactivo, la estación envía sus datos.
Por el contrario, si el canal está ocupado, la estación espera hasta que se desocupa.
A continuación, la estación transmite una trama. Si ocurre una colisión, la estación espera
una cantidad aleatoria de tiempo y comienza de nuevo. El protocolo se llama persistente-1
porque la estación transmite con una probabilidad de 1 cuando encuentra que el canal
está inactivo.

CSMA: Si el medio está libre transmite, si el medio está ocupado espera a que quede
libre para transmitir.
Tipos:
- No persistente: La estación, tras quedar libre el canal espera un tiempo aleatorio antes
de intentar la transmisión.

- 1-persistente: Se transmite en cuanto se pueda, sin esperar.


-P-persistente: Con probabilidad (1-p), espera un tiempo aleatorio. Con probabilidad "p"
transmite en cuando se puede.
CSMA/CD: Añade transmisión temprana de colisión, esperando un tiempo aleatorio para
la retransmisión.
CLASE 16
7 DE NOVIEMBRE

Token Ring
Una red de anillo token (token ring) es una red de área local (LAN) en la que todos los
ordenadores están conectados en una topología de anillo o estrella y pasan uno o más
tokens lógicos de host a host. Sólo un host que contiene un token puede enviar datos y
los tokens se liberan cuando se confirma la recepción de los datos. Las redes token ring
evitan que los paquetes de datos choquen en un segmento de red porque los datos sólo
pueden ser enviados por un titular de tokens y el número de tokens disponibles está
controlado.
SEGUNDO PREVIO - 14 DE NOVIEMBRE

CLASE 17
18 DE NOVIEMBRE

Protocolos de ventana deslizante


Los protocolos que hemos visto hasta ahora transmitían datos en una sola dirección; el
canal de retorno era utilizado únicamente para enviar tramas de acuse de recibo (ACK)
cuyo contenido era irrelevante.
Si tuviéramos que transmitir datos en ambas direcciones podríamos utilizar dos canales
semi-dúplex con los protocolos anteriores, pero sería mas eficiente utilizar el canal semi-
dúplex ya existente para enviar en cada sentido tanto tramas de datos como de ACK; el
campo kind nos permitirá diferenciar unas de otras.
Aun más eficiente sería, en vez de generar una trama ACK de manera automática cada
vez que se recibe algo, esperar a enviarla cuando haya información útil que enviar; en tal
caso el ACK viajaría 'gratis' y se ahorraría el envío de una trama. Esta técnica se conoce
con el nombre de piggybacking o piggyback acknowledgement; (en inglés piggyback
significa llevar a alguien o algo a hombros o a cuestas).
Ahora bien, para 'montar' el ACK en una trama de datos es preciso que esta llegue pronto,
o de lo contrario el emisor reenviará la trama, lo cual daría al traste con el pretendido
beneficio del piggybacking; como no es posible saber de antemano cuando va a llegar el
siguiente paquete de la capa de red, generalmente se adopta una solución salomónica: se
espera un determinado tiempo y si no llega ningún paquete en ese tiempo se genera una
trama ACK; en este caso el tiempo de espera debe ser sensiblemente inferior al timer del
emisor.

● Protocolo full-dúplex con piggybacking (ventana deslizante de un bit)


En nuestro protocolo anterior las tramas se enumeraban 0, 1, 0, 1, etc. La numeración
sólo era utilizada en el receptor para verificar la trama recibida, no para informar al emisor
de a qué trama se aplicaba el ACK.
Esto producía algunos problemas como hemos visto en el caso de un receptor lento y una
trama que se perdía. Si el receptor informa en la trama ACK de la trama de datos recibida
el problema de que el emisor tome un ACK como correspondiente al paquete equivocado
desaparece, el protocolo se hace más robusto ya que tanto emisor como receptor llevan
control de la trama recibida.
Se supone que a cada trama de datos enviada desde un extremo le sucede otra trama de
datos desde el otro extremo. Cada trama enviada contiene el número de secuencia
correspondiente (seq), el número correspondiente al paquete recién recibido del otro lado
(ack) y los datos a enviar. Para que el protocolo funcione correctamente es preciso
convenir en que uno de los lados inicie la comunicación, y el otro le siga. De lo contrario
podría ocurrir que ambos lados iniciaran la comunicación a la vez, donde cada trama es
enviada dos veces; también se enviarán duplicados en caso de tener los timers
demasiado bajos. Sin embargo, los duplicados serían correctamente detectados a partir
de la información de secuencia y la información transmitida a la capa de red sería
correcta.

● Protocolo de retroceso n
Antes decíamos que los protocolos ARQ (Automatic Repeat reQuest) son aquellos en que
se espera confirmación para cada dato enviado.
Se suelen distinguir dos tipos de ARQ, el RQ 'ocioso' (idle RQ), que corresponde a los
protocolos de parada y espera, o de ventana deslizante de un bit, y el RQ continuo
(continuous RQ) que se utiliza en los protocolos de ventana deslizante de más de un bit
(protocolo que no veremos).
Cuando se utiliza un protocolo de ventana deslizante de más de un bit el emisor no actúa
de forma sincronizada con el receptor; cuando el receptor detecta una trama defectuosa
hay varias posteriores ya en camino, que llegarán irremediablemente a él, aun cuando
reporte el problema inmediatamente.
Existen dos posibles estrategias en este caso:
El receptor ignora las tramas recibidas a partir de la errónea y solicita al emisor
retransmisión de todas las tramas subsiguientes. Esta técnica se denomina retroceso n y
corresponde a una ventana deslizante de tamaño uno en el receptor. El receptor
descarta la trama errónea y pide retransmisión de ésta, pero acepta las tramas
posteriores que hayan llegado correctamente.
Esto se conoce como repetición selectiva y corresponde a una ventana deslizante mayor
de 1 en el receptor (normalmente de igual tamaño que la ventana del emisor). En el caso
de retroceso n el receptor se asegura que las tramas se procesarán en secuencia, por lo
que no tiene que reservar espacio en el buffer para más de una trama. En el caso de
repetición selectiva el receptor ha de disponer de espacio en el buffer para
almacenar todas las tramas de la ventana, ya que en caso de pedir retransmisión
tendrá que intercalar en su sitio la trama transmitida antes de pasar las siguientes a
la capa de red.
En cualquiera de los dos casos el emisor deberá almacenar en su buffer todas las tramas
que se encuentren dentro de la ventana, ya que en cualquier momento el receptor puede
solicitar la retransmisión de alguna de ellas.

● Protocolo con repetición selectiva


La repetición selectiva consiste en aprovechar aquellas tramas correctas que lleguen
después de la errónea, y pedir al emisor que retransmita únicamente esta trama. Su
funcionamiento corresponde al de una ventana deslizante de igual tamaño en el emisor
que en el receptor. Como a la capa de red se le requiere que transfiera los paquetes a la
capa de red en orden, para que esta estrategia funcione correctamente el receptor deberá
mantener en su buffer todas las tramas posteriores hasta que reciba correctamente la
trama errónea; en la práctica esto supone tener un buffer lo suficientemente grande para
almacenar un número de tramas igual al tamaño de ventana que esté utilizando, ya que
por ejemplo con una ventana de tamaño 7 podría ocurrir que la trama se perdiera en el
camino y se recibieron correctamente las tramas 1 a 6 antes de recibir la 0.
La posibilidad de una recepción no secuencial de tramas plantea algunos problemas
nuevos. Por ejemplo, supongamos que el emisor envía las tramas 0 a 6, las cuales son
recibidas correctamente. Entonces el receptor realiza las siguientes acciones: o las
transmite a la capa de red, o libera los buffers correspondientes o avanza la ventana para
poder recibir siete tramas más, cuyos números de secuencia podrán ser 7,0,1,2,3,4,5 o
envía un ACK para las tramas 0 a 6 recibidas Imaginemos ahora que el ACK no llega al
emisor. Éste supondrá que ninguna de las tramas ha llegado, por lo que reenviará las
tramas 0 a 6 de nuevo. De estas las tramas 0 a 5 se encuentran dentro de la ventana del
receptor.
En procesamiento secuencial el receptor no aceptaría estas tramas si no recibe antes la
trama 7 pendiente, pero con retransmisión selectiva se aceptarían y se pediría
retransmisión de la trama 7; una vez recibida ésta se pasaría a la capa de red seguida de
las tramas 0 a 5 antes recibidas, que serían duplicados de las anteriores.
En este caso el receptor pasará tramas duplicadas al nivel de red, con lo que el protocolo
es erróneo. La solución a este conflicto está en evitar que un mismo número de secuencia
pueda aparecer en dos ventanas consecutivas. Por ejemplo, si el tamaño de ventana es
de 7 el número de secuencia podría ser de 4 bits (módulo 16, numeración 0-15) con lo
que la ventana del receptor sería 0-6, 7-13, 14-4, etc. Al no coincidir números de
secuencia en ventanas contiguas se puede efectuar el proceso no secuencial de tramas
sin conflicto. Con un número de secuencia de 4 bits el tamaño de ventana se podría
ampliar a 8 sin conflicto, ya que en tal caso la ventana permitida oscilaría en el rango 0-7
y 8-15.
El valor máximo de la ventana para un protocolo de repetición selectiva en el caso general
sería (MAX_SEQ+1)/2. Aunque el número de secuencia se ha duplicado respecto al caso
anterior, el número de tramas que hay que mantener en el buffer no necesita ser superior
al tamaño de ventana, ya que este será el número máximo de tramas que habrá que
manejar en cualquier circunstancia. Como es lógico la técnica de repetición selectiva da
lugar a protocolos más complejos que la de retroceso n, y requiere mayor espacio de
buffers en el receptor (pues hemos pasado de almacenar una trama a almacenar tantas
como lo requiera el tamaño de ventana). Sin embargo, cuando las líneas de transmisión
tienen una tasa de errores elevada da un mejor rendimiento, ya que permite aprovechar
todas las tramas correctamente transmitidas. La decisión de cuál utilizar se toma
valorando en cada caso la importancia de estos factores: complejidad, espacio en buffers,
tasa de errores y eficiencia.

El protocolo de retransmisión selectiva es una estrategia alterna para que el receptor acepte
u coloque en búferes las tramas que llegan después de una trama dañada o perdida.

En este protocolo, tanto el emisor como el receptor mantienen una ventana de números de
secuencia pendientes y aceptables, respectivamente. El tamaño de la ventana del emisor
comienza en 0 y crece hasta un valor máximo predefinido. Por lo contrario, la ventana del
receptor siempre es de tamaño fijo e igual al máximo predeterminado. El receptor tiene un
búfer reservado para cada número de secuencia dentro de su ventana fija. Cada búfer tiene
un bit asociado, el cual indica si el búfer está lleno o vacío. Cada vez que llega una trama,
la función between verifica su número de secuencia para ver si cae dentro de la ventana.
De ser así, y si todavía no se recibe, se acepta y se almacena. Esta acción se lleva a cabo
sin importar si la trama contiene o no el siguiente paquete que espera la capa de red.

La recepción no secuencial introduce limitaciones adicionales en los números de secuencia


de tramas, que no se presentan en los protocolos en los que las tramas sólo se aceptan en
orden.

También podría gustarte