Está en la página 1de 44

República Bolivariana de Venezuela

Ministerio del Poder Popular para la Defensa


Universidad Experimental de las Fuerza Armadas (UNEFA)
Sede Guacara

Informe
Unidad 1 y 2
(Redes de área local)

Profesor: Luis Solano Alumno: Jeykel Infante


Período: 2-2021 CI: 27.927.489
Ingeniería de Sistema
Redes de área local
8vo Semestre

Martes, 23 de noviembre de 2021


Usos de las redes de computadores. Objetivos y aplicaciones

Los avances tecnológicos van optimizando todo lo referente a la vida cotidiana y


empresarial. Es así como las redes informáticas representan las vías idóneas para
que estés conectado, incluso a internet. Es indudable que lo que nos mantiene
conectados, entre muchas otras cosas, son estas redes que permiten compartir
información y relacionarnos. ¿Quieres saber cómo funcionan?
Puede que, gracias a las nuevas tecnologías, compartas contenido con tus
amigos, por ejemplo, mediante un blog o video. Las redes informáticas facilitan la
interacción y comunicación a las personas y por supuesto en nuestras empresas.
Los datos compartidos a través de ellas te permitirán:

 Usar tu correo electrónico o mensajería instantánea.


 Compartir hardware como impresoras y escáner, entre otros.
 Compartir softwares y aplicaciones.
 Almacenar información en dispositivos de almacenamiento remoto.
 Emplear las tecnologías de la información.

¿Qué son las redes informáticas?


Puedes hacer múltiples tareas con una computadora, pero si la conectas a otras
PC y periféricos (módems, impresoras, escáneres, entre otros), lograrás cosas
maravillosas. Es así como una red informática es un conjunto de equipos
informáticos conectados con cables, fibras ópticas o enlaces inalámbricos. Los
distintos dispositivos podrán transmitir información computarizada entre sí.
Para que las redes informáticas sean posibles, se requiere de nodos y conexiones
entre ellas. De un tiempo para acá, las conexiones favoritas han sido las
inalámbricas, especialmente en los hogares. En el caso de las empresas, los
cables resultan más favorables, debido a su rapidez y seguridad.
La computadora se basa en contenidos y archivos digitales. En el caso de crear
una información determinada y querer compartirla, es entonces cuando surge la
necesidad de interconexión. En otras palabras, para ejecutar esta acción, se debe
tener un medio, o una red informática.
Para lograrlo, se debe contar con los siguientes elementos:
 Enrutador. Dispositivo que envía los paquetes de datos a través de las
redes, en general las de internet. Se localiza en las puertas de enlace o
lugares donde dos o más redes se conectan.
 Métodos de transmisión (cable /inalámbrico). Es el método empleado para
que los sistemas se comuniquen. Podrían ser cables ethernet, ondas de
radio o cable de fibra óptica.

 Tarjeta de interfaz de red (NIC). Representa el componente o hardware de


tu computadora que permite que te conectes a la red. En su mayoría, están
diseñadas para redes particulares, protocolos y medios.

 Puntos finales. En este caso, son dispositivos de computadora como


impresoras en red u otros relativos al almacenamiento.

 Punto de acceso. Es un dispositivo que se conecta a otro dispositivo o a


una red mediante un medio inalámbrico.

 Interruptor. Es el encargado de filtrar y reenviar cuadros entre segmentos


de LAN (red de área local).

 Servidor. Es una computadora en la red que proporciona recursos como:


correo, DNS (sistema de nombres de dominio) y almacenamiento de
archivos, entre otros. Solo realizan las tareas que les corresponden para
mantener la red informática eficientemente.

Tipos de redes informáticas


En este sentido, las principales son:
1. LAN o red de área local. Es la encargada de conectar los dispositivos de
red de forma que tu computadora personal y las estaciones de trabajo
compartan datos, herramientas y programas. Abarca un área geográfica
pequeña y se limita a pocos kilómetros. Puede usar como medio cables
trenzados y coaxiales.
2. MAN o red de área metropolitana. Puede cubrir un área más amplia que la
red LAN. Conecta dos o más computadoras, pero ubicadas en la misma
ciudad o en diferentes. Está diseñada para aquellos usuarios que requieren
una conectividad de alta velocidad.
3. WAN o red de área amplia. Esta se extiende sobre una gran área
geográfica. Sus medios se gestan desde líneas telefónicas y ondas de
radio. Su tecnología es de alta velocidad y puede ser costosa.
¿Por qué son importantes?
En primer lugar, un factor de importancia es la reducción de costos ya que, al
contar con redes informáticas, se minimiza el valor adicional de hardware. Esto
implica el uso de recursos de manera eficiente.
Por otro lado, contar con ellas permite realizar operaciones flexibles. No es
necesario almacenar datos en un servidor local. Puede hacerse desde cualquier
dispositivo conectado a la red. Ello conlleva una optimización de la comunicación
en tiempo real.
En síntesis, contar con redes informáticas se basa en dos premisas: ahorro de
dinero y productividad. Es fundamental que se determine la red adecuada acorde
con las necesidades personales o profesionales.

Estructuras de redes, Arquitecturas de redes, protocolos jerárquicos,


modelo de referencia OSI/ISO

Estructura de una red. En toda red de computadoras es necesaria la presencia de


tres elementos, la computadora, el medio de transmisión y la tarjeta de red o el
módem. La ausencia de alguno de ellos impide la transmisión de los datos por la
red y la constitución de la red misma.

El medio de transmisión
El medio de transmisión es el medio físico por el cual se transmiten los datos
desde la computadora fuente a la computadora destino. El elemento físico sobre el
cual está implementada la Capa Física del Modelo de Referencia OSI es conocido
como medio de transmisión. Una forma muy común para transportar los datos es
almacenar dicha información en un soporte magnético, usualmente un disco
flexible, y transportarlo físicamente hasta la máquina destino que tendrá la
capacidad de acceder a ella utilizando una unidad de disco flexible.

Par trenzado
Es el medio de transmisión más antiguo y más utilizado. El mismo consiste en dos
alambres de cobre aislados, generalmente de 0.5-0.9 mm de diámetro. Los
alambres se tuercen en forma helicoidal. La forma trenzada del cable se usa para
disminuir la interferencia eléctrica con respecto a los pares cercanos que se
encuentran a su alrededor.

Par trenzado
La aplicación más común del par trenzado se encuentra en el sistema telefónico.
Mediante el par trenzado los teléfonos se conectan a los centros de conmutación
del sistema telefónico. La distancia que se puede recorrer con estos cables es de
varios kilómetros, sin necesidad de ampliar las señales, sin embargo, es necesario
incluir repetidores en distancias más largas.
Cuando hay muchos pares trenzados colocados paralelamente que recorren
distancias considerables, como podrían ser el caso de los cables de un edificio de
apartamentos, estos se cubren y se protegen mediante pantallas protectoras y
recubrimientos especiales. Los pares dentro de estos agrupamientos podrían sufrir
interferencias mutuas si no estuvieran trenzados.
Los pares trenzados se pueden usar tanto para transmisión analógica como digital
y su ancho de banda depende del calibre del alambre y de otras características
constructivas. Debido a su adecuado comportamiento y bajo costo, los pares
trenzados se utilizan ampliamente y es probable que su presencia permanezca por
muchos años.

Cable Coaxial
El "cable coaxial" es otro medio característico de transmisión. Existen dos tipos de
cable coaxial que son utilizados con frecuencia. Uno de ellos es el cable de 50
ohmios, utilizado en la transmisión digital, y el cable de 75 ohmios, empleado en la
transmisión analógica. El cable coaxial posee un conductor interno de cobre sólido
que constituye el núcleo, el cual está revestido por un material aislante, el cual
está envuelto por un conductor cilíndrico que usualmente se presenta como una
malla de tejido trenzado. El conductor externo está cubierto por una capa de
plástico protector.
La construcción del cable coaxial produce una buena combinación de un gran
ancho de banda y una excelente inmunidad al ruido. Las posibilidades de
transmisión sobre un cable coaxial dependen de la longitud del cable. Para cables
de 1 km. Por ejemplo, es factible obtener velocidades de datos de hasta 10 Mbps,
y en cables de longitudes menores, es posible obtener velocidades más altas. Los
cables coaxiales se emplean ampliamente en redes de área local y para
transmisiones de larga distancia del sistema telefónico.
Fibras ópticas
El desarrollo reciente de la tecnología óptica ha posibilitado la transmisión de
información mediante pulso de luz. Un pulso de luz se puede utilizar para indicar
un bit de valor 1; la ausencia de un pulso indicará la existencia de un bit de valor 0.
La luz visible tiene una frecuencia muy alta, lo que trae consigo que el ancho de
banda de un sistema de transmisión óptica presente un potencial enorme.

Fibras Ópticas
Un sistema de transmisión óptica tiene tres componentes: el medio de transmisión,
la fuente de luz y el detector. El medio de transmisión es una fibra ultradelgada de
vidrio o silicio fundido, más delgada que un cabello humano. La fuente de la luz
puede ser un diodo emisor de luz (LED) o un diodo láser, cualquiera de los dos
emite pulsos de luz cuando se le aplica una corriente eléctrica. El detector es un
"fotodiodo" que genera un pulso eléctrico en el momento en el que recibe un rayo
de luz. Al colocar un LED o un diodo láser en el extremo de una fibra óptica y un
fotodiodo en el otro, se tiene una transmisión de datos unidireccional que acepta
una señal eléctrica, la convierte y la transmite por medio de pulsos de luz y
después reconvierte la salida en una señal eléctrica en el extremo receptor.
Actualmente los sistemas de fibra óptica son capaces de transmitir datos a 1000
Mbps. Experimentalmente se ha demostrado que los láseres potentes pueden
llegar a excitar fibras de 100 km. de longitud sin necesidad de utilizar repetidores,
aunque la velocidad es más baja. Los enlaces de fibra óptica están siendo
empleados en la instalación de líneas telefónicas de larga distancia.

Transmisión por trayectoria óptica


Aunque muchos de los sistemas de comunicación de datos utilizan cables de
cobre o fibras ópticas para realizar la transmisión, algunos simplemente emplean
el aire como un medio para hacerlo. La transmisión de datos por rayos infrarrojos,
láser, microondas o radio, no necesita de otro medio físico que no sea el aire.
Cada una de estas técnicas se adapta a la perfección a ciertas aplicaciones. Una
aplicación común en donde el recorrido de un cable o fibra resulta en general
indeseable, es el caso del tendido de una LAN por varios edificios localizados en
una escuela u oficinas de un centro empresarial, o bien en un complejo industrial.
En el interior de cada edificio, la LAN puede utilizar cobre o fibra, pero para las
conexiones que se hagan entre los edificios necesitarían hacerse excavaciones en
las calles para construir una instalación soterrada. Esto en general constituye un
gasto considerable. Por otra parte, el hecho de poner un transmisor y receptor
láser o infrarrojo en lo alto de un edificio resulta sumamente económico, fácil de
llevar a cabo y casi siempre estará permitida su realización. La comunicación
mediante láser o luz infrarroja es por completo digital, altamente directiva y en
consecuencia casi inmune a cualquier problema de derivación u obstrucción. Por
otra parte, la lluvia y neblina pueden ocasionar interferencia en la comunicación
dependiendo de la longitud de onda elegida.

Comunicación por satélites


La comunicación mediante satélite posee ciertas propiedades que la hacen
interesante en algunas aplicaciones. Este tipo de comunicación puede imaginarse
como si un enorme repetidor de microondas estuviese localizado en el espacio.
Está constituido por uno o más dispositivos "transmisor-receptor", cada uno de los
cuales escucha una parte del espectro, amplía la señal de entrada y la retransmite
a otra frecuencia para impedir los efectos de interferencia con las señales de
entrada.
El flujo dirigido hacia abajo puede ser muy amplio y cubrir una parte significativa
de la superficie de la tierra, o bien puede ser estrecho y cubrir sólo un área de
cientos de kilómetros de diámetro.

La Tarjeta de red o el Módem


La tarjeta de red o el módem se encarga, entre otras cosas, de transmitir y recibir
los datos. Esta tarjeta toma los datos que le entrega la computadora y los coloca
en el medio de transmisión. También realiza el proceso inverso, toma los datos
que le llegan por el medio de transmisión y se los entrega a la computadora
destinataria. Entre la computadora y el medio de transmisión debe existir un
dispositivo interface cuya función fundamental es la transmisión y la recepción de
los datos.

Tarjeta de red
La tarjeta interface de red es conocida en los medios técnicos como NIC (Network
Interface Card). Una de sus tareas principales es la transmisión y recepción de las
señales digitales. Todas las computadoras integrantes de una red tienen
conectada una de estas tarjetas, independientemente de su función como servidor
o como estación de trabajo. Además, cada una de las tarjetas tiene que estar
conectada al medio de transmisión, que es quien enlaza físicamente a todas las
NIC de las computadoras integrantes de la red.
Las tarjetas de red aseguran junto con el sistema operativo de red el control del
flujo de la información; identifican los datos que están dirigidos a ella para tomarlos
del medio de transmisión; transmiten la información en el instante oportuno, es
decir, cuando el canal de comunicación este vacío, o sea, que no esté
transmitiendo otra tarjeta de red; hace un muestreo del medio para asegurarse
que la información transmitida no se ha deteriorado antes de llegar a su
destinatario, etc. Las NIC son empleadas fundamentalmente en las redes de área
local.
El módem
Los modems no solo facilitan el proceso de transmisión, proporcionan además una
serie de características adicionales que ayudan en la comunicación. Entre ellas
están: el rediscado automático cuando el número está ocupado, contestar
llamadas, la selección automática de la velocidad de conexión, el envío y
recepción de fax, y en algunos casos la capacidad de aceptar mensajes de voz. La
velocidad bruta de transmisión es una de las características primordiales de los
módems, puesto que de ella depende el tiempo requerido para transferir un
archivo.

Modem
Una de las principales características de los módems es el empleo de los
protocolos de MNP-4 o V.42, que le dan la capacidad de detección y/o corrección
de errores. Mientras que la utilización de los protocolos MNP-5 o V.42 bis le
permite la compresión de los datos antes de su transmisión y su descompresión
automática a su llegada. El empleo de estos últimos posibilita alcanzar
velocidades de transmisión de datos superior que la velocidad bruta proporcionada
por el protocolo de modulación que soporte el módem.
Los módems se pueden clasificar de acuerdo a diferentes criterios. Una de ellas
es su clasificación basada de acuerdo a su ubicación; así, pueden ser internos o
externos.
 El módem interno se coloca dentro de la computadora como una tarjeta
electrónica más, a la cual se conecta la línea telefónica y se alimenta de la
fuente de la máquina.
 El módem externo, es un dispositivo externo de la computadora, que tiene
su propia fuente de alimentación. Este dispositivo se conecta a la
computadora por medio de un puerto serie y se enlaza a la línea telefónica
a través de un conector que tiene generalmente en su parte trasera.
Cuando se elige un módem se debe tener en cuenta la velocidad a la cual este se
puede comunicar, si es interno o externo y que tenga los protocolos
implementados preferiblemente en el hardware.
Arquitectura de red
La arquitectura de red es el diseño de una red de comunicaciones. Es un marco
para la especificación de los componentes físicos de una red y de su organización
funcional y configuración, sus procedimientos y principios operacionales, así como
los protocolos de comunicación utilizados en su funcionamiento.
En la telecomunicación, la especificación de un diseño de red puede incluir
también una descripción detallada de los productos y servicios entregados a
través de una red de comunicaciones, así como la tasa de facturación detallada y
estructuras en las que se compensan los servicios.
El diseño de red de Internet se expresa de forma predominante por el uso de la
familia de protocolos de Internet, en lugar de un modelo específico para la
interconexión de redes o nodos en la red, o el uso de tipos específicos de enlaces
de hardware.

Diferencias entre Arquitectura y Diseño


Es muy fácil confundir la arquitectura y el diseño, ya que son similares en muchos
aspectos. Los diseños son a menudo simplemente versiones más detalladas de la
arquitectura. Sin embargo, tiene distintos aspectos en que se diferencian. Algunas
de estas diferencias reflejan el concepto de que el diseño es más detallado. Por
ejemplo, el ámbito de aplicación de la arquitectura es típicamente amplio, mientras
que los diseños el ámbito tiende a estar más centrado.
La arquitectura de la red muestra una vista de alto nivel de la red, incluyendo la
ubicación de los componentes principales o importantes, mientras que un diseño
de la red tiene detalles acerca de cada parte de la red o se centra en una sección
particular de la red (por ejemplo, el almacenamiento, los servidores, la
informática). A medida que el diseño se centra en partes seleccionadas de la red,
el nivel de detalle acerca de esas partes aumenta. El aspecto común más
importante entre la arquitectura y el diseño es que ambos intentan resolver los
problemas multidimensionales basados en los resultados del análisis de proceso
de red.
La arquitectura puede diferir sustancialmente del diseño. La arquitectura de red
describe las relaciones, mientras que un diseño por lo general especifica
tecnologías, protocolos y dispositivos de red. Así, vemos cómo la arquitectura y el
diseño se complementan entre sí, ya que ambos conceptos son imprescindibles
para entender cómo los diversos componentes de la red trabajan juntos. Otra
forma en que la arquitectura puede diferir del diseño está en la necesidad de
ubicación de la información. Si bien, hay algunas partes de la arquitectura donde
la localización es importante (por ejemplo, interfaces externas, la ubicación de los
dispositivos y las aplicaciones existentes), las relaciones entre los componentes
son generalmente independientes de la ubicación. De hecho, la inserción de la
ubicación de la información en la arquitectura de la red puede ser limitante. Para
un diseño de la red, sin embargo, la ubicación de la información es importante. (En
el diseño hay una gran cantidad de detalles acerca de las ubicaciones, las cuales
juegan una parte importante en el proceso para la toma de decisiones).
Un buen diseño de red es el proceso mediante el cual un sistema extremadamente
complejo y no lineal es conceptualizado. Incluso el diseñador de la red con más
experiencia debe primero conceptualizar una imagen grande y luego desarrollar
los diseños detallados de los componentes. La arquitectura de red representa la
visión global y solo puede ser desarrollado mediante la creación de un entorno que
equilibre los requisitos de los clientes con las capacidades de las tecnologías de
red y el personal que ejecutar y mantener el sistema.
La arquitectura de red no solo es necesaria para un diseño sólido, sino que
también es esencial para mantener el rendimiento requerido en el tiempo. Para
tener éxito, el desarrollo de la arquitectura debe ser abordado en una manera
sistemática.

Componentes de la Arquitectura de Red


Los componentes de la arquitectura son una descripción de cómo y dónde cada
función de una red se aplica dentro de esa red. Se compone de un conjunto de
mecanismos (hardware y software) cada cual con una función que se aplica a la
red, y un conjunto de relaciones internas entre estos mecanismos.
Cada función de una red representa una capacidad importante de esa red. Las
cuatro funciones más importantes para medir las capacidades de las redes son:
 Direccionamiento o enrutamiento
 Gestión de red
 Rendimiento
 Seguridad
Otras funciones generales que también podrían ser desarrolladas como
componentes de arquitecturas son la infraestructura y almacenamiento. Existen
mecanismos de hardware y software que ayudan a una red a lograr cada
capacidad. Las relaciones internas consisten en interacciones (trade- offs,
dependencias y limitaciones), protocolos y mensajes entre los mecanismos que se
utilizan para optimizar cada función dentro de la red. Las compensaciones son los
puntos de decisión en el desarrollo de cada componente de la arquitectura. Se
utilizan para priorizar y decidir qué mecanismos se han de aplicar. Las
dependencias se producen cuando un mecanismo se basa en otro mecanismo
para su funcionamiento. Estas características de la relación ayudan a describir los
comportamientos de los mecanismos dentro de una arquitectura de componentes,
así como el comportamiento global de la función en sí.
El desarrollo de los componentes de una arquitectura consiste en determinar los
mecanismos que conforman cada componente, el funcionamiento de cada
mecanismo, así como la forma en que cada componente funciona como un todo.
Por ejemplo, considerando algunos de los mecanismos para el rendimiento de
calidad de servicio (QoS), acuerdos de nivel de servicio (SLA) y políticas. Con el
fin de determinar cómo el rendimiento de trabajo para una red, se necesitan
determinar cómo funciona cada mecanismo, y cómo funcionan en conjunto para
proporcionar un rendimiento de la red y del sistema.
Las compensaciones son los puntos de decisión en el desarrollo de cada
componente. A menudo hay varias compensaciones dentro de un componente, y
gran parte de la refinación de la arquitectura de red ocurre aquí.
Las dependencias son los requisitos que describen como un mecanismo depende
en uno o más de otros mecanismos para poder funcionar. La determinación de
tales dependencias ayuda a decidir si las compensaciones son aceptables o
inaceptables.
Las restricciones son un conjunto de limitaciones dentro de cada componente de
arquitectura. Tales restricciones son útiles en la determinación de los límites en
que cada componente opera.

Direccionamiento/Enrutamiento
El direccionamiento consiste en aplicar identificadores (direcciones) a los
dispositivos en diferentes capas de protocolo (por ejemplo, de enlace de datos y
de la red), mientras que el enrutamiento se centra en aprender acerca de la
conectividad dentro de redes y entre ellas y la aplicación de esta información de
conectividad IP para reenviar paquetes a sus destinos.
El direccionamiento / enrutamiento describe cómo los flujos de tráfico de usuarios
y la gestión se envían a través de la red, así como la jerarquía, la separación, y la
agrupación de usuarios y dispositivos.
Este componente de arquitectura es importante, ya que determina la forma del
usuario y cómo los flujos de tráfico de gestión se propagan por toda la red. Esto
está estrechamente ligado a la arquitectura de gestión de red (por arquitectura de
los flujos de gestión) y el rendimiento (para flujos de usuario). Este componente
también ayuda a determinar los grados de la jerarquía y la diversidad en la red, y
cómo se subdividen las zonas de la red.
Desde una perspectiva de direccionamiento, los mecanismos pueden incluir
subredes, subredes de longitud variable, superredes, direccionamiento dinámico,
direccionamiento privado, LAN virtuales (VLAN), IPv6, y la traducción de
direcciones de red (NAT).
Desde una perspectiva de enrutamiento, los mecanismos incluyen el cambio y el
enrutamiento, la propagación ruta por defecto, enrutamiento entre dominios sin
clases (CIDR), multicast, IP móvil, filtrado de ruta, igualitarios, las políticas de
enrutamiento, las confederaciones y las IGP y la selección de EGP y la ubicación.

Gestión de red
La gestión de redes consiste en funciones para controlar, planificar, asignar,
implementar, coordinar los recursos de la red de monitores. La gestión de la red es
parte de la mayoría o la totalidad de los dispositivos de red. Como tal, la
arquitectura de gestión de red es importante ya que determina cómo y dónde se
aplican los mecanismos de gestión en la red. Es probable que los otros
componentes de la arquitectura (por ejemplo, seguridad de TI) requieran un cierto
grado de control y de gestión y además interactúen con la gestión de la red.
Este componente describe cómo el sistema, incluyendo las otras funciones de la
red, se controla y gestiona. Consiste en un modelo de información que describe
los tipos de datos que se utilizan para controlar y gestionar cada uno de los
elementos en el sistema, los mecanismos para conectar los dispositivos con el fin
de conocer los datos de acceso, y los flujos de datos de gestión a través de la red.
Los mecanismos de administración de red incluyen la supervisión y recopilación
de datos: instrumentación para acceder, transmitir, actuar, y modificar los datos.
La gestión de redes incluye los siguientes mecanismos:
• Monitoreo
• Instrumentación
• Configuración
• Componentes FCAPS
• Gestión dentro de la banda y fuera de banda
• Administración centralizada y distribuida
• Red de gestión del tráfico de escala
• Equilibrio de poderes
• Gestión de datos de gestión de la red
• Selección de MIB
• Integración en OSS

Rendimiento
El rendimiento consiste en el conjunto de los mecanismos utilizados para
configurar, operar, administrar y dar cuenta de los recursos en la red que
distribuyen el rendimiento para los usuarios, aplicaciones y dispositivos.
Esto incluye la capacidad de planificación e ingeniería de tráfico, así como una
variedad de mecanismos de servicio. El rendimiento puede ser aplicado en
cualquiera de las capas de protocolo, y con frecuencia se aplica a través de
múltiples capas. Por lo tanto, puede haber mecanismos orientados hacia la capa
de red, físicas o de enlace de datos, así como la capa de transporte y por encima.
El rendimiento describe cómo los recursos de la red se destinan a los flujos de
tráfico de usuarios y la gestión. Esto consiste en dar prioridad, programación, y
acondicionado a los flujos de tráfico dentro de la red, ya sea de extremo a extremo
entre la fuente y el destino para cada flujo, o entre dispositivos de red en una base
peer-to-peer. También consta de mecanismos para correlacionar usuarios,
aplicaciones y requisitos de los dispositivos a los flujos de tráfico, así como la
ingeniería de tráfico, control de acceso, calidad de servicio, políticas y acuerdos de
nivel de servicio (SLAs).
La calidad del servicio, o QoS, consiste en la determinación, creación y saber
cómo actuar sobre los niveles de prioridad para flujos de tráfico. Control de
recursos se refiere a mecanismos usados para asignar, controlar y administrar los
recursos de red para el tráfico. Acuerdos de nivel de servicio (SLAs) son contratos
formales entre el proveedor y el usuario que definen los términos de la
responsabilidad del proveedor para el usuario y el tipo y la extensión de rendición
de cuentas si esas responsabilidades no se cumplen.
Este componente arquitectónico es importante, ya que proporciona los
mecanismos para el control de los recursos de red asignados a usuarios,
aplicaciones y dispositivos. Este puede ser tan simple como determinar la cantidad
de capacidad disponible en diversas regiones de la red, o tan complejo como la
determinación de la capacidad, demora y RMA características sobre una base de
flujos.
Seguridad
La seguridad es un requisito para garantizar la confidencialidad, integridad y
disponibilidad de usuario, aplicación, dispositivo y la red de información y recursos
físicos. Este a menudo se combina con la privacidad, lo cual es un requisito para
proteger la intimidad del usuario, la aplicación, el dispositivo y la red de
información. La seguridad describe cómo los recursos del sistema se encuentran
protegidos contra robo, daños, denegación de servicio (DOS), o el acceso no
autorizado. Los mecanismos de seguridad se implementan en regiones o zonas de
seguridad, en donde cada región o zona de seguridad representa un determinado
nivel de sensibilidad y control de acceso.

Existen diversos mecanismos de seguridad, algunos de ellos se listan a


continuación:
 Análisis de riesgo de seguridad: Es el proceso para determinar que
componentes del sistema necesitan ser protegidos y de qué tipo de riesgo
de seguridad (amenazas) deben ser protegidos.
 Políticas y procedimientos de seguridad: Son declaraciones formales sobre
las normas de acceso al sistema, la red y la información y el uso con el fin
de minimizar la exposición a las amenazas de seguridad.
 La seguridad física y la conciencia: Se encarga de la protección del acceso
físico de los dispositivos, como daños y robos, asó como y de hacer que los
usuarios sean educados. También ayuda a entender los potenciales riesgos
que produce violar las políticas y procedimientos de seguridad.
 Los protocolos y aplicaciones de seguridad: Son protocolos de gestión de
red y las solicitudes de acceso y uso no autorizado.
 Encriptación: Es hacer que los datos sean ilegibles si son interceptados,
mediante un algoritmo de cifrado junto con una clave secreta.
 La seguridad de la red perimetral: Consiste en la protección de las
interfaces externas entre la red y las redes externas.
 La seguridad de acceso remoto: Asegura el acceso de red basado en
acceso telefónico tradicional, sesiones punto a punto, y las conexiones de
red privada virtual.

Optimización
La optimización consiste en determinar y comprender el conjunto de las relaciones
internas entre los componentes de la arquitectura para ser optimizado para una
red en particular. Esto se basa en la entrada para esa red en concreto, los
requisitos, los flujos de tráfico estimados, y las metas para esa red. Las
necesidades de los usuarios, aplicaciones y dispositivos suelen incorporar afectar
al grado de rendimiento, la seguridad y los requisitos de gestión de red. Tales
requisitos están directamente relacionados con la selección y colocación de
mecanismos dentro de un componente de arquitectura.
Mediante la comprensión de los tipos de los flujos en la red, cada componente de
la arquitectura puede ser desarrollado para centrarse en diferentes mecanismos
que apoyen de manera óptima flujos de alta prioridad.
Las metas para una arquitectura de red se derivan de los requisitos, determinados
de las discusiones con los usuarios, la administración y el personal, o bien, puede
ser tomado como una extensión del alcance y la escala de la red existente.
Cuando los objetivos se desarrollan a partir de una variedad de fuentes,
proporcionan una amplia perspectiva sobre qué funciones son más importante en
una red.

Modelos Arquitectónicos
En el desarrollo de la arquitectura de la red hay varios modelos arquitectónicos
que se pueden utilizar como punto de partida, ya sea como la base de su
arquitectura o para construir sobre lo que ya se tiene. Hay tres tipos de modelos
arquitectónicos que aquí se presentan: modelos topológicos, que se basan en una
geográfica o el arreglo topológico y se utilizan mayormente como puntos de
partida en el desarrollo de la arquitectura de red, los modelos basados en el flujo,
que tenga mucha ventaja de los flujos de tráfico de la especificación de flujo y
modelos funcionales, que se centran en una o más funciones o características
mucho después para la red.

Modelos topológicos
Hay dos modelos topológicos populares: la LAN / MAN / WAN y acceso
/Distribución / modelos core.
Una red LAN / MAN / WAN es un modelo arquitectónico simple e intuitivo y se
basa en la separación geográfica y / o topológica de redes. Su característica
principal es que se centra en las características y necesidades de los límites y en
las funciones de compartimentalización, servicio, desempeño y características de
la red a lo largo de esos límites. Los documentos llamados Descripciones de
control de la interfaz, o CDI, son útiles en la gestión del desarrollo de este modelo
arquitectónico.
El modelo arquitectónico de acceso / distribución / Core tiene algunas similitudes y
diferencias respecto del modelo LAN / MAN / WAN. Es similar al modelo LAN /
MAN / WAN en el que se compartimenta algunas funciones, servicios,
prestaciones y características de la red, aunque no hasta el mismo grado en que
lo hace el modelo LAN / MAN / WAN. El acceso / distribución / modelo básico, sin
embargo, se centra en la función en lugar de ubicación. Una característica
importante de este modelo es que se puede utilizar para reflejar el comportamiento
de la red en su acceso, áreas de distribución, y el núcleo.
Tanto la LAN / MAN / WAN y acceso / distribución / modelos Core se utilizan como
puntos de partida en la arquitectura de red, ya que ambos son intuitivos y fáciles
de aplicar. La LAN / MAN / WAN y el modelo de acceso / distribución / modelo
Core indican además el grado de jerarquía prevista para la red.

Modelos basados en el flujo


Los modelos basados en el flujo que presentamos son punto a punto, cliente-
servidor, jerárquica cliente-servidor, y la computación distribuida. El modelo
arquitectónico punto a punto se basa en el modelo de flujo de punto a punto.
Donde los usuarios y las aplicaciones son bastante coherentes en sus
comportamientos de flujo a lo largo de la red. Dado que los usuarios y las
aplicaciones en este modelo son consistentes en toda la red, no hay lugares
obvios para las características arquitectónicas. Esto empuja a las funciones,
características, y los servicios hacia el borde de la red, cerca de los usuarios y sus
dispositivos, y también hace los flujos de extremo a extremo, entre los usuarios y
sus dispositivos.

Modelos funcionales
Los modelos funcionales se centran en el apoyo a determinadas funciones de la
red. Involucran proveedores de servicio, intranet / extranet, modelos de
rendimiento de varios niveles y de extremo a extremo.
El modelo de proveedores de servicios se basa en las funciones de proveedores
de servicios, centrándose en la privacidad y la seguridad, la prestación de
servicios a los clientes (usuarios), y la facturación.
El modelo intranet / extranet se centra en la seguridad y la privacidad, incluyendo
la separación de los usuarios, los dispositivos y las aplicaciones basadas en un
acceso seguro. En este modelo no puede haber varios niveles de la jerarquía.
El modelo rendimiento de varios niveles se centra en la identificación de las redes
o partes de una red como tener un solo nivel de rendimiento, múltiples niveles de
rendimiento, o si tiene componentes de ambos. Este modelo se basa en los
resultados de los requisitos y análisis de flujo. Para el desempeño en términos de
rendimiento cuando existen múltiples niveles, múltiples aplicaciones, dispositivos y
usuarios pueden hacer uso la arquitectura y el diseño de la red ya que puede
empeorar el rendimiento, mientras que el rendimiento de un solo nivel se centra en
el apoyo (por lo general la mayoría de aplicaciones), los dispositivos y los usuarios
que tienen un conjunto coherente de requisitos de rendimiento.
El modelo de arquitectura de extremo a extremo se centra en todos los
componentes en la ruta final de un flujo de tráfico. Este modelo está más
estrechamente alineado con el flujo de perspectiva de la creación de redes.
Los modelos funcionales son los más difíciles de aplicar a una red, ya que en en
ella se debe comprender dónde se encuentra cada función.

Usando los modelos Arquitectónicos


Algunos de los modelos de las tres secciones anteriores se combinan para
proporcionar una vista de la arquitectura global de la red. Esto se logra
comenzando con uno de los modelos topológicos y añadiendo en él modelos de
flujo y modelos funcionales según se requiera. En el desarrollo de la arquitectura
de referencia para una red, se utiliza como entrada información de la
especificación de los requisitos, los requisitos de mapa, y el flujo de especificación,
junto con los modelos de arquitectura y arquitecturas de componentes. Cada
componente de arquitectura que se desarrolla, se integra en la arquitectura de
referencia. Los modelos topológicos son un buen punto de partida, ya que pueden
ser utilizados para describir toda la red de una manera general. Mientras que los
modelos funcionales y los modelos basados en el flujo también se pueden utilizar
para describir una red completa, pero tienden a estar más centrados en un área en
particular de la red.

Sistemas y arquitecturas de red


Una arquitectura de sistemas (también conocido como una arquitectura de la
empresa) es un súper conjunto de una arquitectura de red, en la que se describen
las relaciones, así como los componentes y funciones importantes del sistema,
tales como el almacenamiento, los clientes / servidores, o bases de datos, así
como de la red. Los dispositivos y las aplicaciones pueden ampliarse para incluir
funciones especiales, tales como el almacenamiento. Una arquitectura de
sistemas puede incluir una arquitectura de almacenamiento, describiendo
servidores, aplicaciones, una red de área de almacenamiento (SAN), y la forma en
que interactúan con otros componentes del sistema.
Encaminamiento jerárquico es, en el ámbito de los protocolos de encaminamiento
en internet, aquel basado en el direccionamiento jerarquizado.
La mayor parte del encaminamiento en TCP/IP se basa en la jerarquía de
encaminamientos de dos niveles, según la cual una dirección IP se divide en una
parte para la red y otra para el servidor. Los gateways usan únicamente la parte
de la red hasta que un datagrama IP llega a un gateway que puede entregar el
paquete directamente. Se pueden añadir niveles adicionales de encaminamiento
utilizando subredes.
Descripción
El enrutamiento jerárquico es el procedimiento para organizar enrutadores de
forma jerárquica. Un buen ejemplo sería considerar una empresa [internet]. La
mayoría de las intranets corporativas consisten en una red troncal de alta
velocidad. Conectado a esta red troncal hay enrutadores que a su vez están
conectados a un grupo de trabajo en particular. Estos grupos de trabajo ocupan
una LAN única. La razón por la cual este es un buen arreglo es porque, aunque
haya docenas de grupos de trabajo diferentes, el lapso (recuento de saltos
máximo para obtener de un host a cualquier otro host en la red) es 2. Incluso si los
grupos de trabajo dividieron su red LAN en particiones más pequeñas, el lapso
solo podría aumentar a 4 en este ejemplo particular.
Considerar soluciones alternativas con cada enrutador conectado a cada otro
enrutador, o si cada enrutador estaba conectado a 2 enrutadores, muestra la
conveniencia del enrutamiento jerárquico. Disminuye la complejidad de la
topología de red, aumenta la eficiencia de enrutamiento y causa mucha menos
congestión debido a la menor cantidad de anuncios de enrutamiento. Con el
enrutamiento jerárquico, solo los enrutadores centrales conectados a la red troncal
conocen todas las rutas. Los enrutadores que se encuentran dentro de una LAN
solo conocen las rutas en la LAN. Los destinos no reconocidos se pasan a la ruta
predeterminada.

Modelo OSI
Pila de capas o niveles del modelo OSI (Open System Interconnection).
El modelo de interconexión de sistemas abiertos (ISO/IEC 7498-1), conocido como
“modelo OSI”, (en inglés, Open Systems Interconnection) es un modelo de
referencia para los protocolos de la red (no es una arquitectura de red), creado en
el año 1980 por la Organización Internacional de Normalización. Se ha publicado
desde 1983 por la Unión Internacional de Telecomunicaciones (UIT) y, desde
1984, la Organización Internacional de Normalización (ISO) también lo publicó con
estándar. Su desarrollo comenzó en 1977.
Es un estándar que tiene por objetivo conseguir interconectar sistemas de
procedencia distinta para que estos pudieran intercambiar información sin ningún
tipo de impedimentos debido a los protocolos con los que estos operaban de
forma propia según su fabricante.
El modelo OSI está conformado por 7 capas o niveles de abstracción. Cada uno
de estos niveles tendrá sus propias funciones para que en conjunto sean capaces
de poder alcanzar su objetivo final. Precisamente esta separación en niveles hace
posible la intercomunicación de protocolos distintos al concentrar funciones
específicas en cada nivel de operación.
El modelo OSI no es la definición de una topología ni un modelo de red en sí
mismo. Tampoco especifica ni define los protocolos que se utilizan en la
comunicación, ya que estos están implementados de forma independiente a este
modelo. Lo que realmente hace OSI es definir la funcionalidad de ellos para
conseguir un estándar.
Es un estándar desarrollado en 1980 por la Organización Internacional de
Normalización (ISO), una federación global de organizaciones que representa
aproximadamente a 160 países. El núcleo de este estándar es el modelo de
referencia OSI, una normativa formada por siete capas que define las diferentes
fases por las que deben pasar los datos para viajar de un dispositivo a otro sobre
una red de comunicaciones.
Siguiendo el esquema de este modelo se crearon numerosos protocolos. El
advenimiento de protocolos más flexibles donde las capas no están tan
desmarcadas y la correspondencia con los niveles no era tan clara puso a este
esquema en un segundo plano. Sin embargo, se usa en la enseñanza como una
manera de mostrar cómo puede estructurarse una «pila» de protocolos de
comunicaciones.
El modelo especifica el protocolo que debe usarse en cada capa, y suele hablarse
de modelo de referencia ya que se usa como una gran herramienta para la
enseñanza de comunicación de redes.
Debe recordarse siempre que es un modelo, una construcción teórica, por ende,
no tiene un correlato directo con el mundo real. Se trata de una normativa
estandarizada útil debido a la existencia de muchas tecnologías, fabricantes y
compañías dentro del mundo de las comunicaciones, y al estar en continua
expansión, se tuvo que crear un método para que todos pudieran entenderse de
algún modo, incluso cuando las tecnologías no coincidieran. De este modo, no
importa la localización geográfica o el lenguaje utilizado- todo el mundo debe
atenerse a unas normas mínimas para poder comunicarse entre sí. Esto es sobre
todo importante cuando hablamos de la red de redes, es decir, Internet.
El modelo es el modelo de red descriptivo, que fue creado por la Organización
internacional para la Estandarización en el año 1980. Reconoció que era
necesario crear un modelo de red que pudiera ayudar a los diseñadores de red a
implementar redes que pudieran comunicarse y trabajar en conjunto y, por lo
tanto, elaboraron el modelo de referencia OSI. El núcleo de este estándar es el
modelo de referencia OSI, una normativa formada por siete capas que define las
diferentes fases por las que deben pasar los datos para viajar de un dispositivo a
otro sobre una red de comunicaciones. El modelo especifica el protocolo que debe
ser usado en cada capa, y suele hablarse de modelo de referencia ya que es
usado como una gran herramienta para la enseñanza de comunicación de redes.
Existen diversos protocolos de acuerdo a cómo se espera que sea la
comunicación. Este conjunto de protocolos se denomina TCP/IP. TCP/IP se ha
convertido en el estándar de-facto para la conexión en red corporativa. Las redes
TCP/IP son ampliamente escalables, para lo que TCP/IP puede utilizarse tanto
para redes pequeñas como grandes.
TCP/IP es un conjunto de protocolos encaminados que puede ejecutarse en
distintas plataformas de software y casi todos los sistemas operativos de red lo
soportan como protocolo de red predeterminado. Protocolos miembros de la pila
TCP/IP. FTP, SMTP, UDP, IP, ARP. TCP corre en varias capas del modelo OSI
Protocolo de Internet. Es un protocolo no orientado a conexión usado tanto por el
origen como por el destino para la comunicación de datos a través de una red de
paquetes conmutados. Los datos en una red basada en IP son enviados en
bloques conocidos como paquetes o datagramas.
Capas del Modelo OSI

Capa 7 Aplicación
Responsable de los servicios de red para las aplicaciones Difiere de las demás
capas debido a que no proporciona servicios a ninguna otra capa OSI, sino
solamente a aplicaciones que se encuentran fuera del modelo OSI. La capa de
aplicación establece la disponibilidad de los potenciales socios de comunicación,
sincroniza y establece acuerdos sobre los procedimientos de recuperación de
errores y control de la integridad de los datos. Esta garantiza que la información
que envía la capa de aplicación de un sistema pueda ser leída por la capa de
aplicación de otro. De ser necesario, la capa de presentación traduce entre varios
formatos de datos utilizando un formato común.

Capa 6 Presentación
Transforma el formato de los datos y proporciona una interfaz estándar para la
capa de aplicación su objetivo es encargarse de la representación de la
información, de manera que, aunque distintos equipos puedan tener diferentes
representaciones internas de caracteres números, sonido o imágenes, los datos
lleguen de manera reconocibles. Esta capa es la primera en trabajar más el
contenido de la comunicación que en cómo se establece la misma. En ella se
tratan aspectos tales como la semántica y la sintaxis de los datos transmitidos, ya
que distintas computadoras pueden tener diferentes formas de manejarlas. Por lo
tanto, podemos resumir definiendo a esta capa como la encargada de manejar las
estructuras de datos abstractas y realizar las conversiones de representación de
datos necesarias para la correcta interpretación de los mismos.

Capa 5 Sesión
Establece, administra y finaliza las conexiones entre las aplicaciones locales y las
remotas Esta capa también permite cifrar los datos y comprimirlos. Como su
nombre lo implica, la capa de sesión establece, administra y finaliza las sesiones
entre dos hosts que se están comunicando. La capa de sesión proporciona sus
servicios a la capa de presentación. También sincroniza el diálogo entre las capas
de presentación de los dos hosts y administra su intercambio de datos.
Además de regular la sesión, la capa de sesión ofrece disposiciones para una
eficiente transferencia de datos, clase de servicio y un registro de excepciones
acerca de los problemas de la capa de sesión, presentación y aplicación. Pero
este protocolo debe transportarse entre máquinas a través de otros protocolos.
Con SAP, los servidores permiten a los enrutadores crear y mantener una base de
datos con la información actualizada de los servidores de la interred. La capa de
transporte segmenta los datos originados en el host emisor y los reensambla en
una corriente de datos dentro del sistema del host receptor.

Capa 4 Transporte
Proporciona transporte confiable y control del flujo a través de la red El límite entre
la capa de transporte y la capa de sesión puede imaginarse como el límite entre
los protocolos de aplicación y los protocolos de flujo de datos. Mientras que las
capas de aplicación, presentación y sesión están relacionadas con asuntos de
aplicaciones, las cuatro capas inferiores se encargan del transporte de datos. TCP
crea conexiones a través de las cuales puede enviar flujos de datos. El protocolo
garantiza que los datos serán entregados en su destino sin errores y en el mismo
orden en que se transmitieron.

Capa 3 Red
Responsable del direccionamiento lógico y el dominio del enrutamiento Su
misión es conseguir que los datos lleguen desde el origen al destino, aunque no
tengan conexión directa. IPX/SPX Es una familia de protocolos de red
desarrollados por novell y utilizado por su sistema operativo de red netware. El IPX
Es un protocolo de datagramas rápido orientados a comunicaciones sin conexión
que se encarga de transmitir datos a través de la red, incluyendo en cada paquete
la dirección de destino. La capa de enlace de datos proporciona tránsito de datos
confiable a través de un enlace físico.

Capa 2 Enlace de Datos


Proporciona direccionamiento físico y procedimientos de acceso a medios Al
hacerlo, la capa de enlace de datos se ocupa del direccionamiento físico, la
topología de red, el acceso a la red, la notificación de errores, entrega ordenada
de tramas y control de flujo. Ethernet define las características de cableado y
señalización de nivel físico y los formatos de tramas de datos del nivel de enlace
de datos. FDDI Proporciona un 100 Mbits/s óptico estándar para la transmisión de
datos en una red de área local.

Capa 1 Física
Define todas las especificaciones eléctricas y físicas de los dispositivos La capa
física define las especificaciones eléctricas, mecánicas, de procedimiento y
funcionales para activar, mantener y desactivar el enlace físico entre sistemas
finales.
Las características tales como niveles de voltaje, temporización de cambios de
voltaje, velocidad de datos físicos, distancias de transmisión máximas, conectores
físicos y otros atributos similares son definidos por las especificaciones de la capa
física. Bluetooth es una especificación industrial para Redes Inalámbricas de Área
Personal que posibilita la transmisión de voz y datos entre diferentes dispositivos.
ADSL Consiste en una transmisión analógica de datos digitales apoyado en el par
simétrico de cobre que lleva la línea telefónica convencional. USB Es un estándar
industrial desarrollado en los años 1990 que define los cables, conectores y
protocolos usados en un bus para conectar, comunicar y proveer de alimentación
eléctrica entre ordenadores, periféricos y dispositivos electrónicos.
Consiste en una transmisión analógica de datos digitales apoyada en el par
simétrico de cobre que lleva la línea telefónica convencional.

Estándares y organizaciones
La Organización Internacional de Normalización (llamada en ocasiones:
Organización Internacional de Estandarización; conocida por el acrónimo ISO) es
una organización para la creación de estándares internacionales compuesta por
diversas organizaciones nacionales de normalización.
Fundada el 23 de febrero de 1947, la organización promueve el uso de estándares
privativos, industriales y comerciales a nivel mundial. Su sede está en Ginebra
(Suiza) y hasta 2015 trabajaba en 196 países.
La Organización Internacional de Normalización (ISO) es una organización
independiente y no-gubernamental formada por las organizaciones de
normalización de sus 164 países miembros. Es el mayor desarrollador mundial de
estándares internacionales voluntarios y facilita el comercio mundial al
proporcionar estándares comunes entre países. Se han establecido cerca de
veinte mil estándares cubriendo desde productos manufacturados y tecnología a
seguridad alimenticia, agricultura y sanidad.
El uso de estándares facilita la creación de productos y servicios que sean
seguros, fiables y de calidad. Los estándares ayudan a los negocios a aumentar la
productividad a la vez que minimizan los errores y el gasto. Al permitir comparar
directamente productos de diferentes fabricantes, facilita que nuevas compañías
puedan entrar en nuevos mercados y ayudar en el desarrollo de un comercio
global con bases justas. Los estándares también sirven para proteger a los
consumidores y usuarios finales de productos y servicios, asegurando que los
productos certificados se ajusten a los mínimos normalizados internacionalmente.

Afiliación
Países miembros de ISO con derecho a voto Miembros corresponsales (países
sin un cuerpo nacional de normalización). Miembros subscriptores (países con
pequeñas economías) Países no-miembros con códigos ISO 3166-1.
ISO tiene 164 países miembros, de un total de 206 países en el mundo.
ISO tiene tres categorías de miembros:
 Los Cuerpos miembro son cuerpos de normalización nacionales
considerados los más representativos de cada país. Son los únicos
miembros de ISO con derecho a voto.
 Los Miembros corresponsales son países que no tienen su propia
organización de normalización. Estos miembros están informados sobre el
trabajo de ISO, pero no participan en la promulgación de estándares.
 Los Miembros subscriptores son países con pequeñas economías. Pagan
tarifas reducidas, pero pueden seguir el desarrollo de los estándares.
 Los miembros participantes son llamados miembros "P", en contraposición
a los miembros observadores, que son llamados miembros "O".

Financiación
ISO está financiada por una combinación de:
 Organizaciones que administran proyectos específicos o prestan a expertos
para participar en el trabajo técnico.
 Suscripciones de los cuerpos miembros. Estas suscripciones son
proporcionales al producto interior bruto de cada país y sus cifras de
comercio.
 Venta de estándares.

Estándares Internacionales y otras publicaciones


Los principales productos de ISO son sus estándares internacionales. ISO también
publica informes técnicos, especificaciones técnicas, especificaciones disponibles
públicamente, erratas técnicas, y guías.

Estándares internacionales
Son designados utilizando el formato ISO[/IEC] [/ASTM] [IS] nnnnn[-p]:[yyyy]
Título, donde nnnnn es el número del estándar, p es un número opcional de parte,
yyyy es el año de publicación y Título describe el tema del estándar. IEC (de
Comisión Electrotécnica Internacional se incluye si el estándar es el resultado del
trabajo de ISO/IEC JT1 (El Comité Conjunto Técnico). ASTM (de Sociedad
Estadounidense para Pruebas de Materiales) se usa para los estándares
desarrollados junto a ASTM Internacional. yyyy y IS no se usan para estándares
incompletos o que no hayan sido publicados y bajo determinadas circunstancias
se pueden omitir del título de un trabajo publicado.

Informes técnicos
Son emitidos cuando un comité técnico o un subcomité reúne información de un
tipo distinto del que normalmente se publica como un Estándar Internacional,20 tal
como referencias y explicaciones. El convenio de denominación para estos es el
mismo que para los estándares, excepto que se antepone TR en lugar de IS en el
nombre del informe.
Por ejemplo:
 ISO/IEC TR 17799:2000 Code of Practice for Information Security
Management
 ISO/TR 19033:2000 Technical product documentation — Metadata for
construction documentation

Especificaciones técnicas y disponibles públicamente


Las especificaciones técnicas se pueden crear cuando "el tema en cuestión está
todavía bajo desarrollo o cuando por cualquier otra razón existe la posibilidad en
un futuro no inmediato de un acuerdo para publicar un Estándar Internacional".
Una especificación disponible públicamente es normalmente una «especificación
intermedia, publicada previamente al desarrollo de un Estándar Internacional
compleor, o, en IEC puede ser una publicación conjunta publicada en colaboración
con una organización externa». Por convenio, ambos tipos de especificaciones
son nombradas de manera similar a los informes técnicos de la organización.
Por ejemplo:
 ISO/TS 16952-1:2006 Technical product documentation — Reference
designation system — Part 1: General application rules
 ISO/PAS 11154:2006 Road vehicles — Roof load carriers

Erratas técnicas
A veces ISO también publica «erratas técnicas». Éstas son enmiendas hechas a
estándares ya existentes debido a fallos técnicos menores, mejoras de usabilidad
o extensiones de aplicabilidad limitada. Normalmente se publican con la intención
de que el estándar afectado sea actualizado o retirado en la siguiente revisión
prevista.

Guías ISO
Son meta estándares que cubren «materias relacionadas con la normalización
internacional». Son nombradas utilizando el formato "ISO[/IEC]Guide N:yyyy:
Título"
Por ejemplo:
 ISO/IEC Guide 2:2004 Standardization and related activities — General
vocabulary
 ISO/IEC Guide 65:1996 General requirements for bodies operating product
certification

Un estándar publicado por ISO/IEC es la última etapa en un largo proceso que


normalmente comienza con la propuesta de un nuevo trabajo en un comité. Aquí
se presentan algunas abreviaturas usadas para marcar un estándar cuando está
en este estado:
 PWI – Objeto de Trabajo Preliminal (Preliminary Work Item)
 NP o NWIP – Nueva Propuesta (New Proposal) o Propuesta de Nuevo Ítem
de Trabajo (New Work Item Proposal) (por ejemplo, ISO/IEC NP 23007)
 AWI – Ítem de Trabajo Aprobado (Approved new Work Item) (por ejemplo,
ISO/IEC AWI 15444-14)
 WD – Borrador de Trabajo (Working Draft) (por ejemplo, ISO/IEC WD
27032)
 CD – Borrador de Comité (Committee Draft) (por ejemplo, ISO/IEC CD
23000-5)
 FCD – Borrador Final de Comité (Final Committee Draft) (por ejemplo,
ISO/IEC FCD 23000-12)
 DIS – Borrador de Estándar Internacional (Draft International Standard) (por
ejemplo., ISO/IEC DIS 14297)
 FDIS – Borrador Final de Estándar Internacional (Final Draft International
Standard) (por ejemplo, ISO/IEC FDIS 27003)
 PRF – Prueba de un nuevo Estándar Internacional (Proof of a new
International Standard) (por ejemplo, ISO/IEC PRF 18018)
 IS – Estándar Internacional (International Standard) (por ejemplo, ISO/IEC
13818-1:2007)
Abreviaturas usadas para enmiendas:
 NP Amd – Enmienda de Nueva Propuesta (New Proposal Amendment) (por
ejemplo, ISO/IEC 15444-2:2004/NP Amd 3)
 AWI Amd – Enmienda de Nuevo Ítem de Trabajo (Approved new Work Item
Amendment) (por ejemplo, ISO/IEC 14492:2001/AWI Amd 4)
 WD Amd – Enmienda de Borrador de Trabajo (Working Draft Amendment)
(por ejemplo, ISO 11092:1993/WD Amd 1)
 CD Amd / PDAmd – Enmienda de Borrador de Comité (Committee Draft
Amendment) / Enmienda de Borrador Propuesto (Proposed Draft
Amendment) (por ejemplo, ISO/IEC 13818-1:2007/CD Amd 6)
 FPDAmd / DAM (DAmd) – Enmienda de Borrador Propuesto Final (Final
Proposed Draft Amendment) / Borrador de Enmienda (Draft Amendment)
(por ejemplo, ISO/IEC 14496-14:2003/FPDAmd 1)
 FDAM (FDAmd) – Enmienda de Borrador Final (Final Draft Amendment)
(por ejemplo, ISO/IEC 13818-1:2007/FDAmd 4)
 PRF Amd – Enmienda de Prueba de un nuevo Estándar Internacional
(Proof of a new International Standard Amendment) (por ejemplo, ISO
12639:2004/PRF Amd 1)
 Amd – Enmienda (Amendment) (por ejemplo, ISO/IEC 13818-1:2007/Amd
1:2007)
 Otras abreviaturas:
 TR – Informe Técnico (Technical Report) (por ejemplo, ISO/IEC TR
19791:2006)
 DTR – Borrador de Informe Técnico (Draft Technical Report) (por ejemplo,
ISO/IEC DTR 19791)
 TS – Especificación Técnica (Technical Specification) (por ejemplo, ISO/TS
16949:2009)
 DTS – Borrador de Especificación Técnica (Draft Technical Specification)
(por ejemplo, ISO/DTS 11602-1)
 PAS – Especificación Disponible Públicamente (Publicly Available
Specification)
 TTA – Evaluación de Tendencias Tecnológicas (Technology Trends
Assessment) (por ejemplo, ISO/TTA 1:1994)
 IWA – Acuerdo de Taller Internacional (International Workshop Agreement)
(por ejemplo, IWA 1:2005)
 Cor – Errata Técnica (Technical Corrigendum) (por ejemplo, ISO/IEC
13818-1:2007/Cor 1:2008)
 Guide – una guía para comités técnicos para la preparación de estándares.
Los Estándares Internacionales son desarrollados por los comités técnicos de ISO
(TC) y subcomités (SC) por un proceso con seis etapas:
 Etapa 1: Etapa de proposición
 Etapa 2: Etapa de preparación
 Etapa 3: Etapa de comité
 Etapa 4: Etapa de investigación
 Etapa 5: Etapa de aprobación
 Etapa 6: Etapa de publicación
Los TC y SC pueden establecer grupos de trabajo (WG) de expertos para la
preparación de borradores de trabajo. Los Subcomités pueden tener varios grupos
de trabajo, los cuales a su vez pueden tener varios Subgrupos (SG).
IEEE Standards Association
El IEEE Standards Association (IEEE-SA) es una organización dentro de IEEE que
desarrolla a nivel mundial las normas en una amplia gama de industrias,
incluyendo: energía, biomedicina y cuidado de la salud, tecnología de la
información y robótica, telecomunicaciones y domótica, el transporte, la
nanotecnología, aseguramiento de la información, y muchos más.
IEEE-SA lleva desarrollando estándares durante más de un siglo, a través de un
programa que ofrece equilibrio, apertura, procedimientos justos y consenso. Los
expertos técnicos de todo el mundo participan en el desarrollo de las normas
IEEE.
IEEE-SA no es un órgano formalmente autorizado por ningún gobierno, sino más
bien una comunidad. Las organizaciones internacionales de normalización
formalmente reconocidas (ISO, IEC, ITU, CEN), son federaciones de organismos
nacionales de normalización (American ANSI, DIN alemán, JISC japonés, etc).
Normas y Proceso de Desarrollo de Estándares IEEE
Cada año, la IEEE-SA lleva a cabo más de 200 votaciones de normas, un proceso
por el cual las normas propuestas se votan para fiabilidad técnica y solidez. En
2005, IEEE tenía cerca de 900 estándares activos, con 500 normas en fase de
desarrollo.
Uno de los más notables dentro de los grupos encargados de la estandarización
es el IEEE 802 LAN / MAN grupo de normas, que ha aprobado normas
ampliamente usadas en las redes de computadoras, tanto por hilo (Ethernet,
también conocido como IEEE 802.3) o inalámbricas (IEEE 802.11 - WiFi- e IEEE
802.16 - WiMAX-).

Ejemplos de redes: ARPANET, MAP y TOP SNA

ARPANET fue una red de computadoras creada por encargo del Departamento de
Defensa de los Estados Unidos (DOD) para utilizarla como medio de
comunicación entre las diferentes instituciones académicas y estatales. El primer
nodo fue creado en la Universidad de California en Los Ángeles (UCLA), y fue la
espina dorsal de Internet hasta 1990, tras finalizar la transición al modelo de
protocolos TCP/IP, iniciada en 1983.
ARPANET son las siglas de Advanced Research Projects Agency Network, es
decir, la Red de la Agencia de Proyectos de Investigación Avanzada, organismo
conocido ahora como Agencia de Proyectos de Investigación Avanzados de
Defensa.
Primer despliegue
La ARPANET inicial consistía en cuatro IMP instalados en:
 La UCLA, donde Kleinrock creó el Centro de medición de red. Una
computadora SDS Sigma 7, fue la primera en conectarse.
 El Augmentation Research Center, en el Instituto de Investigación de
Stanford, donde Doug Engelbart creó el novedoso sistema National
Language Services (NLS), un incipiente sistema de hipertexto. Una
computadora SDS 940 fue la primera en conectarse.
 La Universidad de California, con una computadora IBM 360.
 El Departamento Gráfico, de la Universidad de Utah, donde Ivan Sutherland
se trasladó. Con una PDP-10 inicialmente conectada.
El primer enlace de ARPANET se estableció el 21 de noviembre de 1969 entre
UCLA y Stanford. El 5 de diciembre del mismo año, se habían formado una red de
4 nodos, añadiendo la Universidad de Utah y la Universidad de California en Santa
Bárbara. En marzo de 1970, ARPANET cruzó hasta la costa Este, cuando la
propia BBN se unió a la red. En 1971, ya existían 24 computadoras conectadas,
pertenecientes a universidades y centros de investigación. Este número creció
hasta 213 computadoras en 1981, con una nueva incorporación cada 20 días en
promedio, y llegaron a alcanzar las 500 computadoras conectadas en 1983.

Protocolo de fabricación automatizada


El Protocolo de fabricación automatizada (Manufacturing Automation Protocol,
MAP) es una especificación impulsada por General Motors con el fin de obtener
una arquitectura de comunicaciones independiente del fabricante, que permita
interconectar todos los elementos de la fábrica, desde sensores, actuadores,
robots, a ordenadores de proceso y de oficina técnica. Se trata de llevar a la
práctica el concepto de Fabricación integrada por computador (Computer
Integrated Manufacturing, CIM) y para ello es necesario elegir un conjunto de
servicios de comunicaciones estándar que permitan compatibilidad en todos los
niveles a los dispositivos conectados.
MAP no es un protocolo, sino una pila de protocolos basada en el modelo de
referencia de interconexión de sistemas abiertos OSI de ISO. Propone uno o
varios protocolos estándar para cada nivel. Una de sus características es la
elección a nivel físico de paso de testigo en bus (Token Bus, normalizado como
IEEE 802.4), debido a la exigencia en la industria de tiempos de respuesta
acotados.
Unidad 2 Protocolos en redes de área local

redes LAN, MAN, WAN.


El término red hace referencia a un conjunto de sistemas informáticos
independientes conectados entre sí, de tal forma que posibilitan un intercambio de
datos, para lo que es necesaria tanto la conexión física como la conexión lógica de
los sistemas. Esta última se establece por medio de unos protocolos de red
especiales, como es el caso de TCP (Transmission Control Protocol). Dos
ordenadores conectados entre sí ya pueden considerarse una red.
Las redes se configuran con el objetivo de transmitir datos de un sistema a otro o
de disponer recursos en común, como servidores, bases de datos o impresoras.
En función del tamaño y del alcance de la red de ordenadores, se puede
establecer una diferenciación entre diversas dimensiones de red. Entre los tipos
de redes más importantes se encuentran:
 Personal Area Networks (PAN) o red de área personal
 Local Area Networks (LAN) o red de área local
 Metropolitan Area Networks (MAN) o red de área metropolitana
 Wide Area Networks (WAN) o red de área amplia
 Global Area Networks (GAN) o red de área global
La conexión física en la que se basan estos tipos de redes puede presentarse por
medio de cables o llevarse a cabo con tecnología inalámbrica. A menudo, las
redes físicas conforman la base para varias redes de comunicación lógicas, las
llamadas Virtual Private Networks (VPN). Para la transmisión de datos, estas
emplean un medio de transmisión físico común como puede ser la fibra óptica y se
vinculan de forma lógica a diferentes tipos de redes virtuales por medio de un
software de tunelización.
Cada uno de los diferentes tipos de redes está diseñado para ámbitos de
aplicación particulares, se basan en técnicas y estándares propios y plantean
ventajas y restricciones variadas.

Local Area Network (LAN)


Si una red está formada por más de un ordenador, esta recibe el nombre de Local
Area Network (LAN). Una red local de tales características puede incluir a dos
ordenadores en una vivienda privada o a varios miles de dispositivos en una
empresa. Asimismo, las redes en instituciones públicas como administraciones,
colegios o universidades también son redes LAN. Un estándar muy frecuente para
redes de área local por cable es Ethernet. Otras opciones menos comunes y algo
obsoletas son las tecnologías de red ARCNET, FDDI y Token Ring. La transmisión
de datos tiene lugar o bien de manera electrónica a través de cables de cobre o
mediante fibra óptica de vidrio.
Si se conectan más de dos ordenadores en una red LAN, se necesitan otros
componentes de red como hubs, bridges y switches, es decir, concentradores,
puentes de red y conmutadores, los cuales funcionan como elementos de
acoplamiento y nodos de distribución. El tipo de red conocido como LAN o red de
área local fue desarrollado para posibilitar la rápida transmisión de cantidades de
datos más grandes. En función de la estructura de la red y del medio de
transmisión utilizado se puede hablar de un rendimiento de 10 a 1.000 Mbit/s.
Asimismo, las redes LAN permiten un intercambio de información cómodo entre
los diversos dispositivos conectados a la red. Por ello, en el entorno empresarial
es habitual que varios equipos de trabajo puedan acceder a servidores de archivos
comunes, a impresoras de red o a aplicaciones por medio de la red LAN.
Si la red local tiene lugar de manera inalámbrica, se puede hablar en este caso de
una Wireless Local Area Network (WLAN) o red de área local inalámbrica y los
fundamentos básicos de los estándares de la red WLAN quedan definidos por la
familia de normas IEEE 802.11. Las redes locales inalámbricas ofrecen la
posibilidad de integrar terminales cómodamente en una red doméstica o
empresarial y son compatibles con redes LAN Ethernet, aunque el rendimiento es,
en este caso, algo menor que el de una conexión Ethernet.
El alcance de una Local Area Network depende tanto del estándar usado como del
medio de transmisión y aumenta a través de un amplificador de señal que recibe el
nombre de repetidor (repeater). En el caso de la ampliación Gigabit Ethernet por
medio de fibra de vidrio, se puede llegar a un alcance de señal de varios
kilómetros. No resulta muy habitual, sin embargo, que las Local Area Networks
estén formadas por más de una estructura. El grupo de redes LAN
geográficamente cercanas puede asociarse a una Metropolitan Area Network
(MAN) o Wide Area Network (WAN) superiores.

Metropolitan Area Network (MAN)


La Metropolitan Area Network (MAN) o red de área metropolitana es una red de
telecomunicaciones de banda ancha que comunica varias redes LAN en una zona
geográficamente cercana. Por lo general, se trata de cada una de las sedes de
una empresa que se agrupan en una MAN por medio de líneas arrendadas. Para
ello, entran en acción routers de alto rendimiento basados en fibra de vidrio, los
cuales permiten un rendimiento mayor al de Internet y la velocidad de transmisión
entre dos puntos de unión distantes es comparable a la comunicación que tiene
lugar en una red LAN.
Los operadores que desempeñan actividades internacionales son los encargados
de poner a disposición la infraestructura de las redes MAN. De esta manera, las
ciudades conectadas mediante Metropolitan Area Networks pueden contar a nivel
suprarregional con Wide Area Networks (WAN) y a nivel internacional con Global

Area Networks (GAN).


Para una red MAN, la red Metro Ethernet supone una técnica especial de
transmisión con la que se pueden construir redes MEN (Metro Ethernet Network)
sobre la base de Carrier Ethernet (CE 1.0) o Carrier Ethernet 2.0 (CE 2.0).
El estándar para redes inalámbricas regionales de mayor envergadura, es decir,
las denominadas Wireless Metropolitan Area Networks (WMAN), fue desarrollado
con IEEE 802.16. Esta tecnología de WiMAX (Worldwide Interoperability for
Microwave Access) permite crear las llamadas redes WLAN hotzones, que
consisten en varios puntos de acceso WLAN interconectados en diferentes
localizaciones. Las redes WMAN se utilizan para ofrecer a los usuarios una
potente conexión a Internet en aquellas regiones que carecen de infraestructura
para ello, y es que el DSL, el estándar habitual de transmisión, solo está
disponible técnicamente donde hay hilos de cobre.

Wide Area Network (WAN)


Mientras que las redes Metropolitan Area Networks comunican puntos que se
encuentran cerca unos de los otros en regiones rurales o en zonas de
aglomeraciones urbanas, las Wide Area Networks (WAN) o redes de área amplia
se extienden por zonas geográficas como países o continentes. El número de
redes locales o terminales individuales que forman parte de una WAN es, en
principio, ilimitado.
Mientras que las redes LAN y las MAN pueden establecerse a causa de la
cercanía geográfica del ordenador o red que se tiene que conectar en base a
Ethernet, en el caso de las Wide Area Networks entran en juego técnicas como
IP/MPLS (Multiprotocol Label Switching), PDH (Plesiochronous Digital Hierarchy),
SDH (Synchronous Digital Hierarchy), SONET (Synchronous Optical Network),
ATM (Asynchronous Transfer Mode) y, rara vez, el estándar obsoleto X.25.
En la mayoría de los casos, las Wide Area Networks suelen pertenecer a una
organización determinada o a una empresa y se gestionan o alquilan de manera
privada. Los proveedores de servicios de Internet también hacen uso de este tipo
de redes para conectar las redes corporativas locales y a los consumidores a
Internet.

Captura del canal estático y dinámico en LAN y WAN.


Reparto Estático de canal en LAN y WAN
FDM (Frequency Division Multiplexing)
Divide el Ancho de Banda (AB) en N partes de igual tamaño, asignando
a c/usuario una banda de frecuencia sin interferencias.
No apto para N grande y variable ó para tráfico en ráfagas, como datos
con relación máx/medio de 1000:1 ® mayoría de canales están
inactivos gran parte del tiempo.
TDM (Time Division Multiplexing)
Asigna a c/usuario el N-ésimo intervalo de tiempo.
No funciona bien con tráfico a ráfagas / si usuario no usa la ranura se
desperdicia.

Reparto Dinámico de canal


Basado en 5 supuestos claves:
1 Modelo de N Estaciones independientes
2 Canal Único
3 Supuesto de Colisión
4 Transmisión de trama en Tiempo Continuo ó
Ranurado
5 Con ó sin Detección de Portadora
 
1. Modelo de Estación: N estaciones independientes (comput., teléfonos,
PDA) c/u con un programa ó usuario que genera tramas para transmisión
(tx) a tasa constante l [tramas/seg]. Genera una trama, se bloquea y espera
éxito de la tx.
2. Canal Único: para todas las comunicaciones de las estaciones
equivalentes.
3. Supuesto de “Colisión”: evento en que 2 tramas transmitidas
simultáneamente se solapan en el tiempo y la señal resultante se altera.
Ambas tramas deben retransmitirse. Constituye el único error.
4. Transmisión de trama en Tiempo Continuo (en cualquier mto.) o en  
Tiempo Ranurado (tiempo dividido en intervalos discretos= ranuras/tx de
trama siempre comienza al inicio de ranura).
5. Con Detección de Portadora: si canal está en uso, estación no lo usa (LAN)
o Sin Detección de Portadora: estaciones simplemente transmiten, luego
ven si tuvo éxito, como redes satelitales por gran retardo propagación.
Portadora º Señal eléctrica en el cable.

Protocolos ALOHA. CSMA persistente y no persistente.

ALOHAnet (o simplemente ALOHA) fue un sistema de redes de computadoras


pionero desarrollado en la Universidad de Hawái. Fue desplegado por primera vez
en 1970, y aunque la propia red ya no se usa, uno de los conceptos esenciales de
esta red es la base para la casi universal Ethernet.
Antes de ALOHAnet, la mayoría de las comunicaciones entre computadoras
tendían a utilizar rasgos similares. Los datos que iban a ser enviados se
convertían en una señal analógica utilizando un mecanismo similar a un módem,
que sería enviada sobre un método de conexión conocido, como podría ser una
línea telefónica. La conexión era punto a punto, y normalmente se establecía de
modo manual.
Por el contrario, ALOHAnet era una auténtica red. Todas las computadoras
conectadas a ALOHAnet podían enviar datos en cualquier momento sin necesidad
de intervención por parte de un operador, y se podía ver envuelto cualquier
número de computadoras. Como la transmisión se realizaba por radio, no había
costes fijos, por lo que el canal se dejaba abierto y se podía utilizar en cualquier
momento.
Usar una señal compartida de esta manera conlleva un importante problema: si
dos sistemas en la red (conocidos como nodos) enviaban al mismo tiempo, ambas
señales se estropearían. Era necesario algún tipo de sistema para evitar este
problema. Existen varios modos de hacerlo.
Uno sería utilizar una frecuencia de radio diferente para cada nodo, sistema
conocido como multiplexación en frecuencia. Comoquiera que este sistema
requiere que cada nodo que se añada sea capaz de sintonizarse con el resto de
máquinas, pronto se necesitarían cientos de frecuencias distintas y radios capaces
de escuchar este número de frecuencias al mismo tiempo, lo que sería demasiado
costoso.
Otra solución es tener ranuras de tiempo asignadas a cada nodo para enviar, lo
que se conoce como multiplexación por división de tiempo. Este sistema es más
fácil de implementar, dado que los nodos pueden seguir compartiendo una única
frecuencia de radio. El inconveniente es que si un nodo en particular no tiene nada
que enviar, su ranura estaría siendo desperdiciada. Esto nos lleva a situaciones en
las que el tiempo disponible está vacío en gran parte y un nodo con datos que
enviar lo tendría que hacer muy despacio por si acaso alguno de los otros 100
nodos decidiera enviar algo.
En cambio, ALOHAnet utilizó una nueva solución al problema, que más tarde se
convertiría en el estándar, el Acceso múltiple por detección de portadora. En este
sistema no hay multiplexación fija en absoluto. En su lugar, cada nodo escucha
para saber si alguien está utilizando el canal, y si no escucha a nadie comienza a
emitir.
Normalmente esto significaría que el primer nodo que empiece a transmitir tendría
la posesión del medio por tanto tiempo como quisiera, lo que supone que los otros
nodos no podrían tomar parte en la comunicación. Para evitar este problema,
ALOHAnet hizo que los nodos partieran sus mensajes en pequeños paquetes, y
que los enviasen de uno en uno y dejando huecos entre ellos. Esto permitía a los
otros nodos enviar sus paquetes entre medias, por lo que todo el mundo podía
compartir el medio al mismo tiempo.
Existe un último problema a considerar: si dos nodos intentan comenzar su
transmisión al mismo tiempo, tendrán los mismos problemas que tendrían en
cualquier otro sistema. En este caso, ALOHAnet inventó una solución muy
inteligente. Después de enviar cualquier paquete, los nodos escuchaban el medio
para saber si su propio mensaje les había sido devuelto por un hub central. Si
recibían de vuelta su mensaje, podían avanzar al siguiente paquete.
Si, en cambio, no recibían su paquete de vuelta, eso significaría que algo había
impedido que llegase al hub (posiblemente una colisión con un paquete de otro
nodo). En ese caso, simplemente debería esperar un tiempo aleatorio e intentarlo
de nuevo. Como cada nodo esperaría un tiempo aleatorio, alguno debería ser el
primero en reintentarlo, y el resto de nodos podrían ver que el canal está en uso al
intentar emitir. En la mayoría de los casos, esto serviría para evitar las colisiones.
Este tipo de sistema de prevención de colisiones tiene la ventaja de permitir a
cualquier nodo usar la capacidad total de la red si ningún otro nodo la está
usando. Además, no necesita inicialización, cualquiera puede conectarse y
comenzar a emitir sin establecer información adicional como la frecuencia o la
ranura temporal a usar.
El inconveniente es que, si la red está saturada, el número de colisiones puede
crecer drásticamente hasta el punto de que todos los paquetes colisionen. Para
ALOHAnet el uso máximo del canal estaba en torno al 18%, y cualquier intento de
aumentar la capacidad de la red simplemente incrementaría el número de
colisiones, y el rendimiento total de envío de datos se reduciría, fenómeno
conocido como colapso por congestión.
Con Aloha ranurado, un reloj centralizado envía pequeños paquetes con la señal
de reloj a las estaciones periféricas. Las estaciones solamente tienen permitido
enviar sus paquetes inmediatamente después de recibir la señal de reloj. Si hay
una sola estación con intención de emitir un paquete, esto garantiza que nunca
habrá una colisión para ese paquete. Por otra parte, si hay dos estaciones con
paquetes para enviar, este algoritmo garantiza que habrá una colisión y se
malgastará toda la ranura de tiempo hasta la siguiente señal de reloj. Con algunas
matemáticas es posible demostrar que este protocolo mejora la utilización total del
canal, reduciendo la probabilidad de colisiones a la mitad.
La relativamente baja utilización resulta ser un pequeño precio a pagar a cambio
de las ventajas. Una ligera modificación de este sistema para redes conectadas
(con cables) realizada por Robert Metcalfe mejoró la prevención de colisiones en
redes saturadas, y se convirtió en el estándar para Ethernet. Hoy en día la técnica
es conocida como CSMA/CD, Acceso Múltiple con Detección de Portadora y
Detección de Colisiones.
Los mecanismos de detección de colisiones son mucho más difíciles de
implementar en sistemas inalámbricos en comparación con los sistemas
cableados, y ALOHA no intentó siquiera comprobar las colisiones. En un sistema
cableado, es posible detener la transmisión de paquetes que colisionen,
detectando primero la colisión y notificándolo a continuación al remitente. En
general, esta no es una opción viable en sistemas inalámbricos, por lo que ni
siquiera se intentó en el protocolo ALOHA.
ALOHAnet se ejecutaba usando módems de 9.600 baudios de un extremo a otro
de Hawái. El sistema usaba dos canales (secciones de frecuencia) de 100 kHz:
uno conocido como canal de emisión a 413'475 MHz; y el otro, canal de acceso
aleatorio a 407'350 MHz. La red tenía una topología de estrella, con un único
computador central (un HP 2100) en la universidad que recibía todos los mensajes
en el canal de acceso aleatorio, y reenviándolos entonces a todos los nodos por el
canal de emisión. Este montaje reducía el número posible de colisiones, ya que no
había colisiones en absoluto en la frecuencia de emisión, por lo que merecía la
pena. Posteriores mejoras añadieron repetidores que también actuaban como
hubs, incrementando enormemente el área y la capacidad total de la red.
Los paquetes enviados y recibidos eran idénticos. Cada paquete tenía una
cabecera de 32 bits con un test de paridad de 16 bits, seguidos de hasta 80 bytes
de datos con otros 16 bits de test de paridad.
Los detalles históricos sobre la red inalámbrica original son ahora bastante difíciles
de obtener.

Visión general
Uno de los primeros diseños de redes de ordenadores, la red ALOHA, fue creada
en la Universidad de Hawái en 1970 bajo la dirección de Norman Abramson. Al
igual que el grupo ARPANET, la red ALOHA se construyó con fondos de DARPA.
De modo similar a ARPANET, la red ALOHA se construyó para permitir a
personas de diferentes localizaciones acceder a los principales sistemas
informáticos.
Pero mientras ARPANET usaba líneas telefónicas arrendadas, ALOHA usaba
packet radio, esto se debía a que los diferentes centros de investigación estaban
repartidos en varias islas, por lo que se buscaba un sistema de transmisión de
datos inalámbrico, como las ondas de radio.
La importancia de ALOHA se basa en que usaba un medio compartido para la
transmisión. Esto reveló la necesidad de sistemas de gestión de acceso como
CSMA/CD, usado por Ethernet. A diferencia de ARPANET donde cada nodo
únicamente podía comunicarse con otro nodo, en ALOHA todos usaban la misma
frecuencia. Esto implicaba la necesidad de algún tipo de sistema para controlar
quién podían emitir y en qué momento. La situación de ALOHA era similar a las
emisiones orientadas de la moderna Ethernet y las redes Wi-Fi.
Este sistema de transmisión en medio compartido generó bastante interés. El
esquema de ALOHA era muy simple. Dado que los datos se enviaban vía teletipo,
la tasa de transmisión normalmente no iba más allá de 69 caracteres por segundo.
Cuando dos estaciones trataban de emitir al mismo tiempo, ambas transmisiones
se enrevesaban, y los datos tenían que ser reenviados manualmente. ALOHA
demostró que es posible tener una red útil sin resolver este problema, lo que
despertó interés en otros estudiosos del tema, especialmente Robert Metcalfe y
otros desarrolladores que trabajaban en Xerox PARC. Este equipo crearía más
tarde el protocolo Ethernet.
El protocolo ALOHA

ALOHA puro.

ALOHA puro.

ALOHA ranurado.
El protocolo ALOHA es un protocolo del nivel de enlace de datos para redes de
área local con topología de difusión.
La primera versión del protocolo era básica:
 Si tienes datos que enviar, envíalos.
 Si el mensaje colisiona con otra transmisión, intenta reenviarlos más tarde.
Muchos han estudiado el protocolo. El quid de la cuestión está en el concepto de
más tarde. ¿Qué es más tarde?, determinar un buen esquema de parada también
determina gran parte de la eficiencia total del protocolo, y cuan determinista será
su comportamiento (cómo de predecibles serán los cambios del protocolo).
La diferencia entre ALOHA y Ethernet en un medio compartido es que Ethernet
usa CSMA/CD: comprueba si alguien está usando el medio antes de enviar, y
detecta las colisiones desde el emisor.
Aloha puro tiene aproximadamente un 18,4% de rendimiento máximo. Esto
significa que el 81,6% del total disponible de ancho de banda se está
desperdiciando básicamente debido a estaciones tratando de emitir al mismo
tiempo. El cálculo básico del rendimiento implica la asunción de que el proceso de
llegada de tramas sigue una distribución de Poisson con un número medio de
llegadas de 2G por cada 2X segundos. Por tanto, el parámetro lambda en la
distribución de Poisson será 2G. Dicho máximo se alcanza para G = 0,5,
obteniendo un rendimiento máximo de 0,184, es decir, del 18,4%.
Una versión mejorada del protocolo original fue el Aloha ranurado, que introducía
ranuras de tiempo e incrementaba el rendimiento máximo hasta 36,8%. Una
estación no puede emitir en cualquier momento, sino justo al comienzo de una
ranura, y así las colisiones se reducen. En este caso, el número promedio de
llegadas es de G por cada 2X segundos. Esto disminuye el parámetro lambda a G.
El rendimiento máximo se alcanza para G = 1.
Debe apreciarse que estas características de ALOHA no difieren mucho de las
experimentadas hoy día con Ethernet centralizado, Wi-Fi y sistemas similares.
Existe una cierta cantidad de ineficiencia inherente a estos sistemas. Por ejemplo,
802.11b otorga alrededor de 2-4 Mbps de rendimiento real con unas pocas
estaciones emitiendo, en contra del máximo teórico de 11 Mbps. Es común ver
cómo el rendimiento de estos tipos de redes desciende significativamente a
medida que el número de usuarios y mensajes aumenta. Por ello, las aplicaciones
que requieren un comportamiento altamente determinista a menudo usa
esquemas de paso de testigo (como Token Ring) en su lugar. Por ejemplo,
ARCNET es muy popular en aplicaciones empotradas. No obstante, los sistemas
basados en "disputa" (como ALOHA) también tienen ventajas significativas,
incluyendo la facilidad de gestión y la velocidad en una comunicación inicial.
Debido a que los sistemas de "escucha antes de enviar" (CSMA), como el usado
en Ethernet, trabajan mucho mejor que ALOHA para todos los casos en los que
todas las estaciones pueden escuchar a cada una de las demás, solamente se
usa Aloha ranurado en redes tácticas de satélites de comunicaciones del ejército
de los Estados Unidos con un bajo ancho de banda.

CSMA persistente y no persistente


CSMA Persistente-1 (Carrier Sense Multiple Access): cuando una estación tiene
datos a tx, primero escucha el canal,
 Si está ocupado espera hasta que se desocupe, y si detecta canal en
reposo, transmite una trama, con probabilidad de 1.                                     
 Si ocurre colisión, espera cantidad aleatoria de tiempo y comienza de
nuevo.
CSMA No Persistente: antes de enviar, una estación detecta el canal. 
 Si nadie más está transmitiendo, comienza a hacerlo.                                   
 Si canal en uso, estación espera un período aleatorio de tiempo y
repite el algoritmo (no observa continuamente el canal / de tomarlo
cuando finalice la tx en curso).
 Mejor utilización del canal.
CSMA Persistente-p: se aplica a canales ranurados.
 Estación lista para enviar, escucha el canal.
 Si canal en reposo: estac. transmite con probabilidad p, y con probabilidad
q=1-p espera hasta la próxima ranura.
 Si en la 2da. ranura también en reposo, la estac. transmite ó espera
nuevamente con probabilidad p y q.
 Si canal ocupado: espera hasta la siguiente ranura y aplica algoritmo
anterior.
 Si otra estac. ha comenzado su tx º Colisión, espera tiempo aleatorio y
reinicia algoritmo.
 Fig.4.4: muestra Rendimientos vs.Tráfico ofrecido para los 3 protocolos
mejores que ambos ALOHA, ya que aseguran que ninguna estación
comienza a transmitir si detecta canal ocupado.
CSMA con detección de colisión.
CSMA/CD son siglas que corresponden a las siglas Carrier Sense Multiple Access
with Collision Detection, que corresponden a Acceso Múltiple por Detección de
Portadora con Detección de Colisiones, es una técnica usada en las redes para
mejorar las prestaciones. Antes de usar estas técnicas se usaron las de Aloha
puro y Aloha ranurado, pero ambas tenían muy bajas prestaciones. Por esto,
primero se creó el CSMA, luego se mejoró y surgió el CSMA/CD.
La meta de este protocolo es de evitar al máximo las colisiones.  La diferencia
principal con el protocolo de AlohaNet es que todos los equipos escuchan el medio
y se detectan las colisiones.
A continuación, se presenta un esquema del protocolo CSMA, que es muy
parecido al de AlohaNet:

 Funcionamiento
Su funcionamiento es:
1. Una estación que tiene un mensaje para enviar escucha al medio para ver
si otra estación está transmitiendo un mensaje.
2. Si el medio está tranquilo (ninguna otra estación está transmitiendo), se
envía la transmisión y se espera el ACK (acuse de recibo). La estación que
recibe comprueba el CRC (detección de errores) y si es correcto envía el
ACK. Si tras un tiempo no ha sido recibido el ACK, se pasa al paso 1. Si se
recibe, la operación ha sido un éxito.
3. Cuando dos o más estaciones tienen mensajes para enviar, es posible que
transmitan casi en el mismo instante, resultando en una colisión en la red.
4. Cuando se produce una colisión, todas las estaciones receptoras ignoran la
transmisión confusa.
5. Si un dispositivo de transmisión detecta una colisión, envía una señal de
expansión para notificar a todos los dispositivos conectados que ha ocurrido
una colisión.
6. Las estaciones transmisoras detienen sus transmisiones tan pronto como
detectan la colisión.
7. Cada una de las estaciones transmisoras espera un periodo de tiempo
aleatorio e intenta transmitir otra vez.
En redes inalámbricas, resulta a veces complicado llevar a cabo el primer paso.
Por este motivo, surgen dos problemas, que son los que siguen:
1. Problema del nodo oculto: la estación cree que el medio está libre cuando
en realidad no lo está, pues está siendo utilizado por otro nodo al que la
estación no "oye".
2. Problema del nodo expuesto: la estación cree que el medio está ocupado,
cuando en realidad lo está ocupando otro nodo que no interferiría en su
transmisión a otro destino.
Para resolver estos problemas se propone MACA que significa: Evasión de
Colisión por Acceso Múltiple.

Detección de portadora y Detección de colisiones


La detección de portadora es utilizada para escuchar al medio para ver si se
encuentra libre. Si la portadora se encuentra libre, los datos son pasados a la capa
física para su transmisión. Si la portadora está ocupada, se monitorea hasta que
se libere.
Tras la transmisión, continúa el monitoreo del medio de transmisión. Cuando dos
señales colisionan, sus mensajes se mezclan y se vuelven ilegibles. cuando esto
ocurre, las estaciones afectadas detienen su transmisión y envían una señal de
expansión, asegura que todas las demás estaciones de la red se enteren de que
ha ocurrido una colisión.
Cada segmento de una red Ethernet, entre dos router, bridges o switches,
constituye lo que se denomina dominio de tiempo de colisiones o dominio de
colisiones Ethernet.
Se supone que cada bit permanece en el dominio un tiempo máximo de 25.6 µs, lo
que significa que en este tiempo debe haber llegado al final del segmento.
Si en este tiempo la señal no ha salido del segmento, puede ocurrir que una
segunda estación en la parte del segmento aún no alcanzado por la señal, pueda
comenzar a transmitir, puesto que su detección de portadora indica que la línea
está libre, dado que la primera señal aún no ha alcanzado a la segunda estación.  
En este caso ocurre un acceso múltiple MA y la colisión entre ambos es inevitable.
Los síntomas de una colisión dependen del medio de transmisión utilizado.  En el
caso de cable coaxial, la señal del cable contiene estados intermedios.  La
interferencia produce en algunos puntos un debilitamiento de la señal mientras
que en otros se produce un reforzamiento; esta condición de sobretensión es
detectada por los nodos.  En cambio, cuando se utiliza cable de par trenzado, el
síntoma es que existe señal en el par TX mientras que simultáneamente se recibe
también señal por el par RX.
Estos estados en que la calidad de la señal no es adecuada, son detectados como
errores SQEs ("Signal Quality Errors"), y el dispositivo emisor envía un mensaje de
error.

Protocolo binario cuenta regresiva.


En la creación de redes, el enlace físico que transporta datos puede ser uno de
una serie de cosas diferentes: hilo, cable o inalámbrica, entre otros. El término
genérico para esto es "medios". cuenta atrás binaria es un protocolo de acceso al
medio. En él se describe un método para obtener un giro poniendo los datos en
los medios de comunicación.

Propósito
Los datos se transportan como un pulso eléctrico. Puede haber muchos
dispositivos conectados al mismo cable, y no todas pueden aplicar sus señales en
el cable, al mismo tiempo o esos pulsos obtendrá entremezclados. Esto se conoce
como colisión. Para evitar la colisión, un equipo tiene que comprobar que otro
equipo no utiliza el cable antes de aplicar sus datos. Si todo cheque al mismo
tiempo, se verá como los medios disponibles y todos enviar los datos al mismo
tiempo. cuenta atrás binaria es un método para evitar que esto ocurra.

Función
Los datos se transmiten en 0 y 1 - conocido como transmisión binaria. Si varios
nodos en una red de comenzar a transmitir simultáneamente, todos transmiten su
ID de red como un número binario. Estos números se comparan a partir de el bit
más significativo, que es el primer número de la secuencia, lo que representa el
valor más alto en el byte. Todos aquellos que contienen un cero en este bit son
eliminados, si todavía hay más de un nodo en la pelea, el siguiente bit se compara
a lo largo. Una vez más, los que tienen 1 estancia en 0 y los que tienen están
fuera. Este proceso continúa a lo largo de los bits de la ID de la red hasta que sólo
hay un nodo de la izquierda y que obtiene el control de los medios de
comunicación.

Características
El método de cuenta atrás binaria también se llama poco la dominación. Aunque,
en este ejemplo, 1 siempre gana, el sistema podría funcionar igual de nominar un
0 como el ganador.

También podría gustarte