Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Informe Unidad 1 y 2 Redes de Área Local
Informe Unidad 1 y 2 Redes de Área Local
Informe
Unidad 1 y 2
(Redes de área local)
El medio de transmisión
El medio de transmisión es el medio físico por el cual se transmiten los datos
desde la computadora fuente a la computadora destino. El elemento físico sobre el
cual está implementada la Capa Física del Modelo de Referencia OSI es conocido
como medio de transmisión. Una forma muy común para transportar los datos es
almacenar dicha información en un soporte magnético, usualmente un disco
flexible, y transportarlo físicamente hasta la máquina destino que tendrá la
capacidad de acceder a ella utilizando una unidad de disco flexible.
Par trenzado
Es el medio de transmisión más antiguo y más utilizado. El mismo consiste en dos
alambres de cobre aislados, generalmente de 0.5-0.9 mm de diámetro. Los
alambres se tuercen en forma helicoidal. La forma trenzada del cable se usa para
disminuir la interferencia eléctrica con respecto a los pares cercanos que se
encuentran a su alrededor.
Par trenzado
La aplicación más común del par trenzado se encuentra en el sistema telefónico.
Mediante el par trenzado los teléfonos se conectan a los centros de conmutación
del sistema telefónico. La distancia que se puede recorrer con estos cables es de
varios kilómetros, sin necesidad de ampliar las señales, sin embargo, es necesario
incluir repetidores en distancias más largas.
Cuando hay muchos pares trenzados colocados paralelamente que recorren
distancias considerables, como podrían ser el caso de los cables de un edificio de
apartamentos, estos se cubren y se protegen mediante pantallas protectoras y
recubrimientos especiales. Los pares dentro de estos agrupamientos podrían sufrir
interferencias mutuas si no estuvieran trenzados.
Los pares trenzados se pueden usar tanto para transmisión analógica como digital
y su ancho de banda depende del calibre del alambre y de otras características
constructivas. Debido a su adecuado comportamiento y bajo costo, los pares
trenzados se utilizan ampliamente y es probable que su presencia permanezca por
muchos años.
Cable Coaxial
El "cable coaxial" es otro medio característico de transmisión. Existen dos tipos de
cable coaxial que son utilizados con frecuencia. Uno de ellos es el cable de 50
ohmios, utilizado en la transmisión digital, y el cable de 75 ohmios, empleado en la
transmisión analógica. El cable coaxial posee un conductor interno de cobre sólido
que constituye el núcleo, el cual está revestido por un material aislante, el cual
está envuelto por un conductor cilíndrico que usualmente se presenta como una
malla de tejido trenzado. El conductor externo está cubierto por una capa de
plástico protector.
La construcción del cable coaxial produce una buena combinación de un gran
ancho de banda y una excelente inmunidad al ruido. Las posibilidades de
transmisión sobre un cable coaxial dependen de la longitud del cable. Para cables
de 1 km. Por ejemplo, es factible obtener velocidades de datos de hasta 10 Mbps,
y en cables de longitudes menores, es posible obtener velocidades más altas. Los
cables coaxiales se emplean ampliamente en redes de área local y para
transmisiones de larga distancia del sistema telefónico.
Fibras ópticas
El desarrollo reciente de la tecnología óptica ha posibilitado la transmisión de
información mediante pulso de luz. Un pulso de luz se puede utilizar para indicar
un bit de valor 1; la ausencia de un pulso indicará la existencia de un bit de valor 0.
La luz visible tiene una frecuencia muy alta, lo que trae consigo que el ancho de
banda de un sistema de transmisión óptica presente un potencial enorme.
Fibras Ópticas
Un sistema de transmisión óptica tiene tres componentes: el medio de transmisión,
la fuente de luz y el detector. El medio de transmisión es una fibra ultradelgada de
vidrio o silicio fundido, más delgada que un cabello humano. La fuente de la luz
puede ser un diodo emisor de luz (LED) o un diodo láser, cualquiera de los dos
emite pulsos de luz cuando se le aplica una corriente eléctrica. El detector es un
"fotodiodo" que genera un pulso eléctrico en el momento en el que recibe un rayo
de luz. Al colocar un LED o un diodo láser en el extremo de una fibra óptica y un
fotodiodo en el otro, se tiene una transmisión de datos unidireccional que acepta
una señal eléctrica, la convierte y la transmite por medio de pulsos de luz y
después reconvierte la salida en una señal eléctrica en el extremo receptor.
Actualmente los sistemas de fibra óptica son capaces de transmitir datos a 1000
Mbps. Experimentalmente se ha demostrado que los láseres potentes pueden
llegar a excitar fibras de 100 km. de longitud sin necesidad de utilizar repetidores,
aunque la velocidad es más baja. Los enlaces de fibra óptica están siendo
empleados en la instalación de líneas telefónicas de larga distancia.
Tarjeta de red
La tarjeta interface de red es conocida en los medios técnicos como NIC (Network
Interface Card). Una de sus tareas principales es la transmisión y recepción de las
señales digitales. Todas las computadoras integrantes de una red tienen
conectada una de estas tarjetas, independientemente de su función como servidor
o como estación de trabajo. Además, cada una de las tarjetas tiene que estar
conectada al medio de transmisión, que es quien enlaza físicamente a todas las
NIC de las computadoras integrantes de la red.
Las tarjetas de red aseguran junto con el sistema operativo de red el control del
flujo de la información; identifican los datos que están dirigidos a ella para tomarlos
del medio de transmisión; transmiten la información en el instante oportuno, es
decir, cuando el canal de comunicación este vacío, o sea, que no esté
transmitiendo otra tarjeta de red; hace un muestreo del medio para asegurarse
que la información transmitida no se ha deteriorado antes de llegar a su
destinatario, etc. Las NIC son empleadas fundamentalmente en las redes de área
local.
El módem
Los modems no solo facilitan el proceso de transmisión, proporcionan además una
serie de características adicionales que ayudan en la comunicación. Entre ellas
están: el rediscado automático cuando el número está ocupado, contestar
llamadas, la selección automática de la velocidad de conexión, el envío y
recepción de fax, y en algunos casos la capacidad de aceptar mensajes de voz. La
velocidad bruta de transmisión es una de las características primordiales de los
módems, puesto que de ella depende el tiempo requerido para transferir un
archivo.
Modem
Una de las principales características de los módems es el empleo de los
protocolos de MNP-4 o V.42, que le dan la capacidad de detección y/o corrección
de errores. Mientras que la utilización de los protocolos MNP-5 o V.42 bis le
permite la compresión de los datos antes de su transmisión y su descompresión
automática a su llegada. El empleo de estos últimos posibilita alcanzar
velocidades de transmisión de datos superior que la velocidad bruta proporcionada
por el protocolo de modulación que soporte el módem.
Los módems se pueden clasificar de acuerdo a diferentes criterios. Una de ellas
es su clasificación basada de acuerdo a su ubicación; así, pueden ser internos o
externos.
El módem interno se coloca dentro de la computadora como una tarjeta
electrónica más, a la cual se conecta la línea telefónica y se alimenta de la
fuente de la máquina.
El módem externo, es un dispositivo externo de la computadora, que tiene
su propia fuente de alimentación. Este dispositivo se conecta a la
computadora por medio de un puerto serie y se enlaza a la línea telefónica
a través de un conector que tiene generalmente en su parte trasera.
Cuando se elige un módem se debe tener en cuenta la velocidad a la cual este se
puede comunicar, si es interno o externo y que tenga los protocolos
implementados preferiblemente en el hardware.
Arquitectura de red
La arquitectura de red es el diseño de una red de comunicaciones. Es un marco
para la especificación de los componentes físicos de una red y de su organización
funcional y configuración, sus procedimientos y principios operacionales, así como
los protocolos de comunicación utilizados en su funcionamiento.
En la telecomunicación, la especificación de un diseño de red puede incluir
también una descripción detallada de los productos y servicios entregados a
través de una red de comunicaciones, así como la tasa de facturación detallada y
estructuras en las que se compensan los servicios.
El diseño de red de Internet se expresa de forma predominante por el uso de la
familia de protocolos de Internet, en lugar de un modelo específico para la
interconexión de redes o nodos en la red, o el uso de tipos específicos de enlaces
de hardware.
Direccionamiento/Enrutamiento
El direccionamiento consiste en aplicar identificadores (direcciones) a los
dispositivos en diferentes capas de protocolo (por ejemplo, de enlace de datos y
de la red), mientras que el enrutamiento se centra en aprender acerca de la
conectividad dentro de redes y entre ellas y la aplicación de esta información de
conectividad IP para reenviar paquetes a sus destinos.
El direccionamiento / enrutamiento describe cómo los flujos de tráfico de usuarios
y la gestión se envían a través de la red, así como la jerarquía, la separación, y la
agrupación de usuarios y dispositivos.
Este componente de arquitectura es importante, ya que determina la forma del
usuario y cómo los flujos de tráfico de gestión se propagan por toda la red. Esto
está estrechamente ligado a la arquitectura de gestión de red (por arquitectura de
los flujos de gestión) y el rendimiento (para flujos de usuario). Este componente
también ayuda a determinar los grados de la jerarquía y la diversidad en la red, y
cómo se subdividen las zonas de la red.
Desde una perspectiva de direccionamiento, los mecanismos pueden incluir
subredes, subredes de longitud variable, superredes, direccionamiento dinámico,
direccionamiento privado, LAN virtuales (VLAN), IPv6, y la traducción de
direcciones de red (NAT).
Desde una perspectiva de enrutamiento, los mecanismos incluyen el cambio y el
enrutamiento, la propagación ruta por defecto, enrutamiento entre dominios sin
clases (CIDR), multicast, IP móvil, filtrado de ruta, igualitarios, las políticas de
enrutamiento, las confederaciones y las IGP y la selección de EGP y la ubicación.
Gestión de red
La gestión de redes consiste en funciones para controlar, planificar, asignar,
implementar, coordinar los recursos de la red de monitores. La gestión de la red es
parte de la mayoría o la totalidad de los dispositivos de red. Como tal, la
arquitectura de gestión de red es importante ya que determina cómo y dónde se
aplican los mecanismos de gestión en la red. Es probable que los otros
componentes de la arquitectura (por ejemplo, seguridad de TI) requieran un cierto
grado de control y de gestión y además interactúen con la gestión de la red.
Este componente describe cómo el sistema, incluyendo las otras funciones de la
red, se controla y gestiona. Consiste en un modelo de información que describe
los tipos de datos que se utilizan para controlar y gestionar cada uno de los
elementos en el sistema, los mecanismos para conectar los dispositivos con el fin
de conocer los datos de acceso, y los flujos de datos de gestión a través de la red.
Los mecanismos de administración de red incluyen la supervisión y recopilación
de datos: instrumentación para acceder, transmitir, actuar, y modificar los datos.
La gestión de redes incluye los siguientes mecanismos:
• Monitoreo
• Instrumentación
• Configuración
• Componentes FCAPS
• Gestión dentro de la banda y fuera de banda
• Administración centralizada y distribuida
• Red de gestión del tráfico de escala
• Equilibrio de poderes
• Gestión de datos de gestión de la red
• Selección de MIB
• Integración en OSS
Rendimiento
El rendimiento consiste en el conjunto de los mecanismos utilizados para
configurar, operar, administrar y dar cuenta de los recursos en la red que
distribuyen el rendimiento para los usuarios, aplicaciones y dispositivos.
Esto incluye la capacidad de planificación e ingeniería de tráfico, así como una
variedad de mecanismos de servicio. El rendimiento puede ser aplicado en
cualquiera de las capas de protocolo, y con frecuencia se aplica a través de
múltiples capas. Por lo tanto, puede haber mecanismos orientados hacia la capa
de red, físicas o de enlace de datos, así como la capa de transporte y por encima.
El rendimiento describe cómo los recursos de la red se destinan a los flujos de
tráfico de usuarios y la gestión. Esto consiste en dar prioridad, programación, y
acondicionado a los flujos de tráfico dentro de la red, ya sea de extremo a extremo
entre la fuente y el destino para cada flujo, o entre dispositivos de red en una base
peer-to-peer. También consta de mecanismos para correlacionar usuarios,
aplicaciones y requisitos de los dispositivos a los flujos de tráfico, así como la
ingeniería de tráfico, control de acceso, calidad de servicio, políticas y acuerdos de
nivel de servicio (SLAs).
La calidad del servicio, o QoS, consiste en la determinación, creación y saber
cómo actuar sobre los niveles de prioridad para flujos de tráfico. Control de
recursos se refiere a mecanismos usados para asignar, controlar y administrar los
recursos de red para el tráfico. Acuerdos de nivel de servicio (SLAs) son contratos
formales entre el proveedor y el usuario que definen los términos de la
responsabilidad del proveedor para el usuario y el tipo y la extensión de rendición
de cuentas si esas responsabilidades no se cumplen.
Este componente arquitectónico es importante, ya que proporciona los
mecanismos para el control de los recursos de red asignados a usuarios,
aplicaciones y dispositivos. Este puede ser tan simple como determinar la cantidad
de capacidad disponible en diversas regiones de la red, o tan complejo como la
determinación de la capacidad, demora y RMA características sobre una base de
flujos.
Seguridad
La seguridad es un requisito para garantizar la confidencialidad, integridad y
disponibilidad de usuario, aplicación, dispositivo y la red de información y recursos
físicos. Este a menudo se combina con la privacidad, lo cual es un requisito para
proteger la intimidad del usuario, la aplicación, el dispositivo y la red de
información. La seguridad describe cómo los recursos del sistema se encuentran
protegidos contra robo, daños, denegación de servicio (DOS), o el acceso no
autorizado. Los mecanismos de seguridad se implementan en regiones o zonas de
seguridad, en donde cada región o zona de seguridad representa un determinado
nivel de sensibilidad y control de acceso.
Optimización
La optimización consiste en determinar y comprender el conjunto de las relaciones
internas entre los componentes de la arquitectura para ser optimizado para una
red en particular. Esto se basa en la entrada para esa red en concreto, los
requisitos, los flujos de tráfico estimados, y las metas para esa red. Las
necesidades de los usuarios, aplicaciones y dispositivos suelen incorporar afectar
al grado de rendimiento, la seguridad y los requisitos de gestión de red. Tales
requisitos están directamente relacionados con la selección y colocación de
mecanismos dentro de un componente de arquitectura.
Mediante la comprensión de los tipos de los flujos en la red, cada componente de
la arquitectura puede ser desarrollado para centrarse en diferentes mecanismos
que apoyen de manera óptima flujos de alta prioridad.
Las metas para una arquitectura de red se derivan de los requisitos, determinados
de las discusiones con los usuarios, la administración y el personal, o bien, puede
ser tomado como una extensión del alcance y la escala de la red existente.
Cuando los objetivos se desarrollan a partir de una variedad de fuentes,
proporcionan una amplia perspectiva sobre qué funciones son más importante en
una red.
Modelos Arquitectónicos
En el desarrollo de la arquitectura de la red hay varios modelos arquitectónicos
que se pueden utilizar como punto de partida, ya sea como la base de su
arquitectura o para construir sobre lo que ya se tiene. Hay tres tipos de modelos
arquitectónicos que aquí se presentan: modelos topológicos, que se basan en una
geográfica o el arreglo topológico y se utilizan mayormente como puntos de
partida en el desarrollo de la arquitectura de red, los modelos basados en el flujo,
que tenga mucha ventaja de los flujos de tráfico de la especificación de flujo y
modelos funcionales, que se centran en una o más funciones o características
mucho después para la red.
Modelos topológicos
Hay dos modelos topológicos populares: la LAN / MAN / WAN y acceso
/Distribución / modelos core.
Una red LAN / MAN / WAN es un modelo arquitectónico simple e intuitivo y se
basa en la separación geográfica y / o topológica de redes. Su característica
principal es que se centra en las características y necesidades de los límites y en
las funciones de compartimentalización, servicio, desempeño y características de
la red a lo largo de esos límites. Los documentos llamados Descripciones de
control de la interfaz, o CDI, son útiles en la gestión del desarrollo de este modelo
arquitectónico.
El modelo arquitectónico de acceso / distribución / Core tiene algunas similitudes y
diferencias respecto del modelo LAN / MAN / WAN. Es similar al modelo LAN /
MAN / WAN en el que se compartimenta algunas funciones, servicios,
prestaciones y características de la red, aunque no hasta el mismo grado en que
lo hace el modelo LAN / MAN / WAN. El acceso / distribución / modelo básico, sin
embargo, se centra en la función en lugar de ubicación. Una característica
importante de este modelo es que se puede utilizar para reflejar el comportamiento
de la red en su acceso, áreas de distribución, y el núcleo.
Tanto la LAN / MAN / WAN y acceso / distribución / modelos Core se utilizan como
puntos de partida en la arquitectura de red, ya que ambos son intuitivos y fáciles
de aplicar. La LAN / MAN / WAN y el modelo de acceso / distribución / modelo
Core indican además el grado de jerarquía prevista para la red.
Modelos funcionales
Los modelos funcionales se centran en el apoyo a determinadas funciones de la
red. Involucran proveedores de servicio, intranet / extranet, modelos de
rendimiento de varios niveles y de extremo a extremo.
El modelo de proveedores de servicios se basa en las funciones de proveedores
de servicios, centrándose en la privacidad y la seguridad, la prestación de
servicios a los clientes (usuarios), y la facturación.
El modelo intranet / extranet se centra en la seguridad y la privacidad, incluyendo
la separación de los usuarios, los dispositivos y las aplicaciones basadas en un
acceso seguro. En este modelo no puede haber varios niveles de la jerarquía.
El modelo rendimiento de varios niveles se centra en la identificación de las redes
o partes de una red como tener un solo nivel de rendimiento, múltiples niveles de
rendimiento, o si tiene componentes de ambos. Este modelo se basa en los
resultados de los requisitos y análisis de flujo. Para el desempeño en términos de
rendimiento cuando existen múltiples niveles, múltiples aplicaciones, dispositivos y
usuarios pueden hacer uso la arquitectura y el diseño de la red ya que puede
empeorar el rendimiento, mientras que el rendimiento de un solo nivel se centra en
el apoyo (por lo general la mayoría de aplicaciones), los dispositivos y los usuarios
que tienen un conjunto coherente de requisitos de rendimiento.
El modelo de arquitectura de extremo a extremo se centra en todos los
componentes en la ruta final de un flujo de tráfico. Este modelo está más
estrechamente alineado con el flujo de perspectiva de la creación de redes.
Los modelos funcionales son los más difíciles de aplicar a una red, ya que en en
ella se debe comprender dónde se encuentra cada función.
Modelo OSI
Pila de capas o niveles del modelo OSI (Open System Interconnection).
El modelo de interconexión de sistemas abiertos (ISO/IEC 7498-1), conocido como
“modelo OSI”, (en inglés, Open Systems Interconnection) es un modelo de
referencia para los protocolos de la red (no es una arquitectura de red), creado en
el año 1980 por la Organización Internacional de Normalización. Se ha publicado
desde 1983 por la Unión Internacional de Telecomunicaciones (UIT) y, desde
1984, la Organización Internacional de Normalización (ISO) también lo publicó con
estándar. Su desarrollo comenzó en 1977.
Es un estándar que tiene por objetivo conseguir interconectar sistemas de
procedencia distinta para que estos pudieran intercambiar información sin ningún
tipo de impedimentos debido a los protocolos con los que estos operaban de
forma propia según su fabricante.
El modelo OSI está conformado por 7 capas o niveles de abstracción. Cada uno
de estos niveles tendrá sus propias funciones para que en conjunto sean capaces
de poder alcanzar su objetivo final. Precisamente esta separación en niveles hace
posible la intercomunicación de protocolos distintos al concentrar funciones
específicas en cada nivel de operación.
El modelo OSI no es la definición de una topología ni un modelo de red en sí
mismo. Tampoco especifica ni define los protocolos que se utilizan en la
comunicación, ya que estos están implementados de forma independiente a este
modelo. Lo que realmente hace OSI es definir la funcionalidad de ellos para
conseguir un estándar.
Es un estándar desarrollado en 1980 por la Organización Internacional de
Normalización (ISO), una federación global de organizaciones que representa
aproximadamente a 160 países. El núcleo de este estándar es el modelo de
referencia OSI, una normativa formada por siete capas que define las diferentes
fases por las que deben pasar los datos para viajar de un dispositivo a otro sobre
una red de comunicaciones.
Siguiendo el esquema de este modelo se crearon numerosos protocolos. El
advenimiento de protocolos más flexibles donde las capas no están tan
desmarcadas y la correspondencia con los niveles no era tan clara puso a este
esquema en un segundo plano. Sin embargo, se usa en la enseñanza como una
manera de mostrar cómo puede estructurarse una «pila» de protocolos de
comunicaciones.
El modelo especifica el protocolo que debe usarse en cada capa, y suele hablarse
de modelo de referencia ya que se usa como una gran herramienta para la
enseñanza de comunicación de redes.
Debe recordarse siempre que es un modelo, una construcción teórica, por ende,
no tiene un correlato directo con el mundo real. Se trata de una normativa
estandarizada útil debido a la existencia de muchas tecnologías, fabricantes y
compañías dentro del mundo de las comunicaciones, y al estar en continua
expansión, se tuvo que crear un método para que todos pudieran entenderse de
algún modo, incluso cuando las tecnologías no coincidieran. De este modo, no
importa la localización geográfica o el lenguaje utilizado- todo el mundo debe
atenerse a unas normas mínimas para poder comunicarse entre sí. Esto es sobre
todo importante cuando hablamos de la red de redes, es decir, Internet.
El modelo es el modelo de red descriptivo, que fue creado por la Organización
internacional para la Estandarización en el año 1980. Reconoció que era
necesario crear un modelo de red que pudiera ayudar a los diseñadores de red a
implementar redes que pudieran comunicarse y trabajar en conjunto y, por lo
tanto, elaboraron el modelo de referencia OSI. El núcleo de este estándar es el
modelo de referencia OSI, una normativa formada por siete capas que define las
diferentes fases por las que deben pasar los datos para viajar de un dispositivo a
otro sobre una red de comunicaciones. El modelo especifica el protocolo que debe
ser usado en cada capa, y suele hablarse de modelo de referencia ya que es
usado como una gran herramienta para la enseñanza de comunicación de redes.
Existen diversos protocolos de acuerdo a cómo se espera que sea la
comunicación. Este conjunto de protocolos se denomina TCP/IP. TCP/IP se ha
convertido en el estándar de-facto para la conexión en red corporativa. Las redes
TCP/IP son ampliamente escalables, para lo que TCP/IP puede utilizarse tanto
para redes pequeñas como grandes.
TCP/IP es un conjunto de protocolos encaminados que puede ejecutarse en
distintas plataformas de software y casi todos los sistemas operativos de red lo
soportan como protocolo de red predeterminado. Protocolos miembros de la pila
TCP/IP. FTP, SMTP, UDP, IP, ARP. TCP corre en varias capas del modelo OSI
Protocolo de Internet. Es un protocolo no orientado a conexión usado tanto por el
origen como por el destino para la comunicación de datos a través de una red de
paquetes conmutados. Los datos en una red basada en IP son enviados en
bloques conocidos como paquetes o datagramas.
Capas del Modelo OSI
Capa 7 Aplicación
Responsable de los servicios de red para las aplicaciones Difiere de las demás
capas debido a que no proporciona servicios a ninguna otra capa OSI, sino
solamente a aplicaciones que se encuentran fuera del modelo OSI. La capa de
aplicación establece la disponibilidad de los potenciales socios de comunicación,
sincroniza y establece acuerdos sobre los procedimientos de recuperación de
errores y control de la integridad de los datos. Esta garantiza que la información
que envía la capa de aplicación de un sistema pueda ser leída por la capa de
aplicación de otro. De ser necesario, la capa de presentación traduce entre varios
formatos de datos utilizando un formato común.
Capa 6 Presentación
Transforma el formato de los datos y proporciona una interfaz estándar para la
capa de aplicación su objetivo es encargarse de la representación de la
información, de manera que, aunque distintos equipos puedan tener diferentes
representaciones internas de caracteres números, sonido o imágenes, los datos
lleguen de manera reconocibles. Esta capa es la primera en trabajar más el
contenido de la comunicación que en cómo se establece la misma. En ella se
tratan aspectos tales como la semántica y la sintaxis de los datos transmitidos, ya
que distintas computadoras pueden tener diferentes formas de manejarlas. Por lo
tanto, podemos resumir definiendo a esta capa como la encargada de manejar las
estructuras de datos abstractas y realizar las conversiones de representación de
datos necesarias para la correcta interpretación de los mismos.
Capa 5 Sesión
Establece, administra y finaliza las conexiones entre las aplicaciones locales y las
remotas Esta capa también permite cifrar los datos y comprimirlos. Como su
nombre lo implica, la capa de sesión establece, administra y finaliza las sesiones
entre dos hosts que se están comunicando. La capa de sesión proporciona sus
servicios a la capa de presentación. También sincroniza el diálogo entre las capas
de presentación de los dos hosts y administra su intercambio de datos.
Además de regular la sesión, la capa de sesión ofrece disposiciones para una
eficiente transferencia de datos, clase de servicio y un registro de excepciones
acerca de los problemas de la capa de sesión, presentación y aplicación. Pero
este protocolo debe transportarse entre máquinas a través de otros protocolos.
Con SAP, los servidores permiten a los enrutadores crear y mantener una base de
datos con la información actualizada de los servidores de la interred. La capa de
transporte segmenta los datos originados en el host emisor y los reensambla en
una corriente de datos dentro del sistema del host receptor.
Capa 4 Transporte
Proporciona transporte confiable y control del flujo a través de la red El límite entre
la capa de transporte y la capa de sesión puede imaginarse como el límite entre
los protocolos de aplicación y los protocolos de flujo de datos. Mientras que las
capas de aplicación, presentación y sesión están relacionadas con asuntos de
aplicaciones, las cuatro capas inferiores se encargan del transporte de datos. TCP
crea conexiones a través de las cuales puede enviar flujos de datos. El protocolo
garantiza que los datos serán entregados en su destino sin errores y en el mismo
orden en que se transmitieron.
Capa 3 Red
Responsable del direccionamiento lógico y el dominio del enrutamiento Su
misión es conseguir que los datos lleguen desde el origen al destino, aunque no
tengan conexión directa. IPX/SPX Es una familia de protocolos de red
desarrollados por novell y utilizado por su sistema operativo de red netware. El IPX
Es un protocolo de datagramas rápido orientados a comunicaciones sin conexión
que se encarga de transmitir datos a través de la red, incluyendo en cada paquete
la dirección de destino. La capa de enlace de datos proporciona tránsito de datos
confiable a través de un enlace físico.
Capa 1 Física
Define todas las especificaciones eléctricas y físicas de los dispositivos La capa
física define las especificaciones eléctricas, mecánicas, de procedimiento y
funcionales para activar, mantener y desactivar el enlace físico entre sistemas
finales.
Las características tales como niveles de voltaje, temporización de cambios de
voltaje, velocidad de datos físicos, distancias de transmisión máximas, conectores
físicos y otros atributos similares son definidos por las especificaciones de la capa
física. Bluetooth es una especificación industrial para Redes Inalámbricas de Área
Personal que posibilita la transmisión de voz y datos entre diferentes dispositivos.
ADSL Consiste en una transmisión analógica de datos digitales apoyado en el par
simétrico de cobre que lleva la línea telefónica convencional. USB Es un estándar
industrial desarrollado en los años 1990 que define los cables, conectores y
protocolos usados en un bus para conectar, comunicar y proveer de alimentación
eléctrica entre ordenadores, periféricos y dispositivos electrónicos.
Consiste en una transmisión analógica de datos digitales apoyada en el par
simétrico de cobre que lleva la línea telefónica convencional.
Estándares y organizaciones
La Organización Internacional de Normalización (llamada en ocasiones:
Organización Internacional de Estandarización; conocida por el acrónimo ISO) es
una organización para la creación de estándares internacionales compuesta por
diversas organizaciones nacionales de normalización.
Fundada el 23 de febrero de 1947, la organización promueve el uso de estándares
privativos, industriales y comerciales a nivel mundial. Su sede está en Ginebra
(Suiza) y hasta 2015 trabajaba en 196 países.
La Organización Internacional de Normalización (ISO) es una organización
independiente y no-gubernamental formada por las organizaciones de
normalización de sus 164 países miembros. Es el mayor desarrollador mundial de
estándares internacionales voluntarios y facilita el comercio mundial al
proporcionar estándares comunes entre países. Se han establecido cerca de
veinte mil estándares cubriendo desde productos manufacturados y tecnología a
seguridad alimenticia, agricultura y sanidad.
El uso de estándares facilita la creación de productos y servicios que sean
seguros, fiables y de calidad. Los estándares ayudan a los negocios a aumentar la
productividad a la vez que minimizan los errores y el gasto. Al permitir comparar
directamente productos de diferentes fabricantes, facilita que nuevas compañías
puedan entrar en nuevos mercados y ayudar en el desarrollo de un comercio
global con bases justas. Los estándares también sirven para proteger a los
consumidores y usuarios finales de productos y servicios, asegurando que los
productos certificados se ajusten a los mínimos normalizados internacionalmente.
Afiliación
Países miembros de ISO con derecho a voto Miembros corresponsales (países
sin un cuerpo nacional de normalización). Miembros subscriptores (países con
pequeñas economías) Países no-miembros con códigos ISO 3166-1.
ISO tiene 164 países miembros, de un total de 206 países en el mundo.
ISO tiene tres categorías de miembros:
Los Cuerpos miembro son cuerpos de normalización nacionales
considerados los más representativos de cada país. Son los únicos
miembros de ISO con derecho a voto.
Los Miembros corresponsales son países que no tienen su propia
organización de normalización. Estos miembros están informados sobre el
trabajo de ISO, pero no participan en la promulgación de estándares.
Los Miembros subscriptores son países con pequeñas economías. Pagan
tarifas reducidas, pero pueden seguir el desarrollo de los estándares.
Los miembros participantes son llamados miembros "P", en contraposición
a los miembros observadores, que son llamados miembros "O".
Financiación
ISO está financiada por una combinación de:
Organizaciones que administran proyectos específicos o prestan a expertos
para participar en el trabajo técnico.
Suscripciones de los cuerpos miembros. Estas suscripciones son
proporcionales al producto interior bruto de cada país y sus cifras de
comercio.
Venta de estándares.
Estándares internacionales
Son designados utilizando el formato ISO[/IEC] [/ASTM] [IS] nnnnn[-p]:[yyyy]
Título, donde nnnnn es el número del estándar, p es un número opcional de parte,
yyyy es el año de publicación y Título describe el tema del estándar. IEC (de
Comisión Electrotécnica Internacional se incluye si el estándar es el resultado del
trabajo de ISO/IEC JT1 (El Comité Conjunto Técnico). ASTM (de Sociedad
Estadounidense para Pruebas de Materiales) se usa para los estándares
desarrollados junto a ASTM Internacional. yyyy y IS no se usan para estándares
incompletos o que no hayan sido publicados y bajo determinadas circunstancias
se pueden omitir del título de un trabajo publicado.
Informes técnicos
Son emitidos cuando un comité técnico o un subcomité reúne información de un
tipo distinto del que normalmente se publica como un Estándar Internacional,20 tal
como referencias y explicaciones. El convenio de denominación para estos es el
mismo que para los estándares, excepto que se antepone TR en lugar de IS en el
nombre del informe.
Por ejemplo:
ISO/IEC TR 17799:2000 Code of Practice for Information Security
Management
ISO/TR 19033:2000 Technical product documentation — Metadata for
construction documentation
Erratas técnicas
A veces ISO también publica «erratas técnicas». Éstas son enmiendas hechas a
estándares ya existentes debido a fallos técnicos menores, mejoras de usabilidad
o extensiones de aplicabilidad limitada. Normalmente se publican con la intención
de que el estándar afectado sea actualizado o retirado en la siguiente revisión
prevista.
Guías ISO
Son meta estándares que cubren «materias relacionadas con la normalización
internacional». Son nombradas utilizando el formato "ISO[/IEC]Guide N:yyyy:
Título"
Por ejemplo:
ISO/IEC Guide 2:2004 Standardization and related activities — General
vocabulary
ISO/IEC Guide 65:1996 General requirements for bodies operating product
certification
ARPANET fue una red de computadoras creada por encargo del Departamento de
Defensa de los Estados Unidos (DOD) para utilizarla como medio de
comunicación entre las diferentes instituciones académicas y estatales. El primer
nodo fue creado en la Universidad de California en Los Ángeles (UCLA), y fue la
espina dorsal de Internet hasta 1990, tras finalizar la transición al modelo de
protocolos TCP/IP, iniciada en 1983.
ARPANET son las siglas de Advanced Research Projects Agency Network, es
decir, la Red de la Agencia de Proyectos de Investigación Avanzada, organismo
conocido ahora como Agencia de Proyectos de Investigación Avanzados de
Defensa.
Primer despliegue
La ARPANET inicial consistía en cuatro IMP instalados en:
La UCLA, donde Kleinrock creó el Centro de medición de red. Una
computadora SDS Sigma 7, fue la primera en conectarse.
El Augmentation Research Center, en el Instituto de Investigación de
Stanford, donde Doug Engelbart creó el novedoso sistema National
Language Services (NLS), un incipiente sistema de hipertexto. Una
computadora SDS 940 fue la primera en conectarse.
La Universidad de California, con una computadora IBM 360.
El Departamento Gráfico, de la Universidad de Utah, donde Ivan Sutherland
se trasladó. Con una PDP-10 inicialmente conectada.
El primer enlace de ARPANET se estableció el 21 de noviembre de 1969 entre
UCLA y Stanford. El 5 de diciembre del mismo año, se habían formado una red de
4 nodos, añadiendo la Universidad de Utah y la Universidad de California en Santa
Bárbara. En marzo de 1970, ARPANET cruzó hasta la costa Este, cuando la
propia BBN se unió a la red. En 1971, ya existían 24 computadoras conectadas,
pertenecientes a universidades y centros de investigación. Este número creció
hasta 213 computadoras en 1981, con una nueva incorporación cada 20 días en
promedio, y llegaron a alcanzar las 500 computadoras conectadas en 1983.
Visión general
Uno de los primeros diseños de redes de ordenadores, la red ALOHA, fue creada
en la Universidad de Hawái en 1970 bajo la dirección de Norman Abramson. Al
igual que el grupo ARPANET, la red ALOHA se construyó con fondos de DARPA.
De modo similar a ARPANET, la red ALOHA se construyó para permitir a
personas de diferentes localizaciones acceder a los principales sistemas
informáticos.
Pero mientras ARPANET usaba líneas telefónicas arrendadas, ALOHA usaba
packet radio, esto se debía a que los diferentes centros de investigación estaban
repartidos en varias islas, por lo que se buscaba un sistema de transmisión de
datos inalámbrico, como las ondas de radio.
La importancia de ALOHA se basa en que usaba un medio compartido para la
transmisión. Esto reveló la necesidad de sistemas de gestión de acceso como
CSMA/CD, usado por Ethernet. A diferencia de ARPANET donde cada nodo
únicamente podía comunicarse con otro nodo, en ALOHA todos usaban la misma
frecuencia. Esto implicaba la necesidad de algún tipo de sistema para controlar
quién podían emitir y en qué momento. La situación de ALOHA era similar a las
emisiones orientadas de la moderna Ethernet y las redes Wi-Fi.
Este sistema de transmisión en medio compartido generó bastante interés. El
esquema de ALOHA era muy simple. Dado que los datos se enviaban vía teletipo,
la tasa de transmisión normalmente no iba más allá de 69 caracteres por segundo.
Cuando dos estaciones trataban de emitir al mismo tiempo, ambas transmisiones
se enrevesaban, y los datos tenían que ser reenviados manualmente. ALOHA
demostró que es posible tener una red útil sin resolver este problema, lo que
despertó interés en otros estudiosos del tema, especialmente Robert Metcalfe y
otros desarrolladores que trabajaban en Xerox PARC. Este equipo crearía más
tarde el protocolo Ethernet.
El protocolo ALOHA
ALOHA puro.
ALOHA puro.
ALOHA ranurado.
El protocolo ALOHA es un protocolo del nivel de enlace de datos para redes de
área local con topología de difusión.
La primera versión del protocolo era básica:
Si tienes datos que enviar, envíalos.
Si el mensaje colisiona con otra transmisión, intenta reenviarlos más tarde.
Muchos han estudiado el protocolo. El quid de la cuestión está en el concepto de
más tarde. ¿Qué es más tarde?, determinar un buen esquema de parada también
determina gran parte de la eficiencia total del protocolo, y cuan determinista será
su comportamiento (cómo de predecibles serán los cambios del protocolo).
La diferencia entre ALOHA y Ethernet en un medio compartido es que Ethernet
usa CSMA/CD: comprueba si alguien está usando el medio antes de enviar, y
detecta las colisiones desde el emisor.
Aloha puro tiene aproximadamente un 18,4% de rendimiento máximo. Esto
significa que el 81,6% del total disponible de ancho de banda se está
desperdiciando básicamente debido a estaciones tratando de emitir al mismo
tiempo. El cálculo básico del rendimiento implica la asunción de que el proceso de
llegada de tramas sigue una distribución de Poisson con un número medio de
llegadas de 2G por cada 2X segundos. Por tanto, el parámetro lambda en la
distribución de Poisson será 2G. Dicho máximo se alcanza para G = 0,5,
obteniendo un rendimiento máximo de 0,184, es decir, del 18,4%.
Una versión mejorada del protocolo original fue el Aloha ranurado, que introducía
ranuras de tiempo e incrementaba el rendimiento máximo hasta 36,8%. Una
estación no puede emitir en cualquier momento, sino justo al comienzo de una
ranura, y así las colisiones se reducen. En este caso, el número promedio de
llegadas es de G por cada 2X segundos. Esto disminuye el parámetro lambda a G.
El rendimiento máximo se alcanza para G = 1.
Debe apreciarse que estas características de ALOHA no difieren mucho de las
experimentadas hoy día con Ethernet centralizado, Wi-Fi y sistemas similares.
Existe una cierta cantidad de ineficiencia inherente a estos sistemas. Por ejemplo,
802.11b otorga alrededor de 2-4 Mbps de rendimiento real con unas pocas
estaciones emitiendo, en contra del máximo teórico de 11 Mbps. Es común ver
cómo el rendimiento de estos tipos de redes desciende significativamente a
medida que el número de usuarios y mensajes aumenta. Por ello, las aplicaciones
que requieren un comportamiento altamente determinista a menudo usa
esquemas de paso de testigo (como Token Ring) en su lugar. Por ejemplo,
ARCNET es muy popular en aplicaciones empotradas. No obstante, los sistemas
basados en "disputa" (como ALOHA) también tienen ventajas significativas,
incluyendo la facilidad de gestión y la velocidad en una comunicación inicial.
Debido a que los sistemas de "escucha antes de enviar" (CSMA), como el usado
en Ethernet, trabajan mucho mejor que ALOHA para todos los casos en los que
todas las estaciones pueden escuchar a cada una de las demás, solamente se
usa Aloha ranurado en redes tácticas de satélites de comunicaciones del ejército
de los Estados Unidos con un bajo ancho de banda.
Funcionamiento
Su funcionamiento es:
1. Una estación que tiene un mensaje para enviar escucha al medio para ver
si otra estación está transmitiendo un mensaje.
2. Si el medio está tranquilo (ninguna otra estación está transmitiendo), se
envía la transmisión y se espera el ACK (acuse de recibo). La estación que
recibe comprueba el CRC (detección de errores) y si es correcto envía el
ACK. Si tras un tiempo no ha sido recibido el ACK, se pasa al paso 1. Si se
recibe, la operación ha sido un éxito.
3. Cuando dos o más estaciones tienen mensajes para enviar, es posible que
transmitan casi en el mismo instante, resultando en una colisión en la red.
4. Cuando se produce una colisión, todas las estaciones receptoras ignoran la
transmisión confusa.
5. Si un dispositivo de transmisión detecta una colisión, envía una señal de
expansión para notificar a todos los dispositivos conectados que ha ocurrido
una colisión.
6. Las estaciones transmisoras detienen sus transmisiones tan pronto como
detectan la colisión.
7. Cada una de las estaciones transmisoras espera un periodo de tiempo
aleatorio e intenta transmitir otra vez.
En redes inalámbricas, resulta a veces complicado llevar a cabo el primer paso.
Por este motivo, surgen dos problemas, que son los que siguen:
1. Problema del nodo oculto: la estación cree que el medio está libre cuando
en realidad no lo está, pues está siendo utilizado por otro nodo al que la
estación no "oye".
2. Problema del nodo expuesto: la estación cree que el medio está ocupado,
cuando en realidad lo está ocupando otro nodo que no interferiría en su
transmisión a otro destino.
Para resolver estos problemas se propone MACA que significa: Evasión de
Colisión por Acceso Múltiple.
Propósito
Los datos se transportan como un pulso eléctrico. Puede haber muchos
dispositivos conectados al mismo cable, y no todas pueden aplicar sus señales en
el cable, al mismo tiempo o esos pulsos obtendrá entremezclados. Esto se conoce
como colisión. Para evitar la colisión, un equipo tiene que comprobar que otro
equipo no utiliza el cable antes de aplicar sus datos. Si todo cheque al mismo
tiempo, se verá como los medios disponibles y todos enviar los datos al mismo
tiempo. cuenta atrás binaria es un método para evitar que esto ocurra.
Función
Los datos se transmiten en 0 y 1 - conocido como transmisión binaria. Si varios
nodos en una red de comenzar a transmitir simultáneamente, todos transmiten su
ID de red como un número binario. Estos números se comparan a partir de el bit
más significativo, que es el primer número de la secuencia, lo que representa el
valor más alto en el byte. Todos aquellos que contienen un cero en este bit son
eliminados, si todavía hay más de un nodo en la pelea, el siguiente bit se compara
a lo largo. Una vez más, los que tienen 1 estancia en 0 y los que tienen están
fuera. Este proceso continúa a lo largo de los bits de la ID de la red hasta que sólo
hay un nodo de la izquierda y que obtiene el control de los medios de
comunicación.
Características
El método de cuenta atrás binaria también se llama poco la dominación. Aunque,
en este ejemplo, 1 siempre gana, el sistema podría funcionar igual de nominar un
0 como el ganador.