Está en la página 1de 5

Historia del Ethernet

Cuando la ARPANET llevaba solo unos pocos meses de haber entrado en funcionamiento
(1970), un equipo de la Universidad de Hawai, dirigido por Norman Abramson, comenzó a
experimentar en el laboratorio cómo lograr crear una red que interconectara terminales ubicadas
en las islas de Kauai, Maui y Hawai, teniendo una computadora central en Oahu.
En el mismo año 1970, cuando Abrason montaba ALOHANET, un estudiante del MIT,
llamado Robert Metcalfe, experimentaba con la recién estrenada ARPANET y conectaba entre
sí ordenadores en un laboratorio.Metcalfe estudió la red de Abramson y empezó ese mismo año
una tesis doctoral en Harvad, que terminaría en 1973, en la que desde un punto de vista teórico,
planteaba mejoras que se podrían introducir al protocolo ALOHA para aumentar su
rendimiento. La idea básica era muy simple: las estaciones antes de transmitir deberían detectar
si el canal ya estaba en uso (es decir, si ya había portadora), en cuyo caso esperarían que la
estación activa terminara antes de transmitir.

Las especificaciones formales de Ethernet de 10 Mb/s fueron desarrolladas en conjunto por


las corporaciones Xerox, Digital (DEC) e Intel, y se publicó en el año 1980. Estas
especificaciones son conocidas como el estándar DEC-Intel-Xerox (DIX), el libro azul de
Ethernet. Este documento hizo de Ethernet experimental operando a 10 Mb/s un estándar
abierto.

La tecnología Ethernet fue adoptada para su estandarización por el comité de redes locales
(LAN) de la IEEE como IEEE 802.3. El estándar IEEE 802.3 fue publicado por primera vez en
1985.

El estándar IEEE 802.3 provee un sistema tipo Ethernet basado, pero no idéntico, al estándar
DIX original. El nombre correcto para esta tecnología es IEEE 802.3 CSMA/CD, pero casi
siempre es referido como Ethernet. IEEE 802.3 Ethernet fue adoptado por la organización
internacional de estandarización (ISO), haciendo de el un estándar de redes internacional.

Ethernet continuó evolucionando en respuesta a los cambios en tecnología y necesidades de


los usuarios. Desde 1985, el estándar IEEE 802.3 se actualizó para incluir nuevas tecnologías.
Por ejemplo, el estándar 10BASE-T fue aprobado en 1990, el estándar 100BASE-T fue
aprobado en 1995 y Gigabit Ethernet sobre fibra fue aprobado en 1998.
Cronología de Ethernet
1970 Primeras experiencias de redes broadcast en Hawai.
ALOHANET.
Protocolos Mac: ALOHA puro y Ranurado.
22/05/1973 Robert Metcalfe y David Boggs conectan dos ordenadores Alto
con cable coaxial a 2,94 Mbps en el Xerox Palto Alto Research
Center, mediante una red denominada Ethernet.
Mayo de 1975 Metclfe y Boggs escriben un artículo en el que se describe a
Ethernet, y lo envían para su publicación a Comunications of the
ACM.
1976 Xerox crea SSD, una división para el desarrollo de los
ordenadores personales y la red X – wire (nuevo nombre de
Ethernet).
1979 Se constituye la alianza DIX (DEC Intel - Xerox) para impulsar
el desarrollo técnico y comercial de la red. Se vuelve al nombre
original de Ethernet.
Metcalfe abandona Xerox t crea 3Com.
Febrero 1980 El IEEE crea el proyecto 802
Abril 1980 DIX anuncia al IEEE 802 que está desarrollando una tecnología
de red local que pretende estandarizar.
Septiembre 1980 DIX publica Ethernet versión 1.0 Velocidad 10 Mbps.
24/06/1983 DIX publica Ethernet versión 2.0 3Com produce las primeras
tarjetas 10BASE2 para PC.
01/01/1984 IEEE aprueba el estándar 802.3, que coincide casi completamente
con DIX Ethernet. El único medio físico soportado es 10BASE5.

1984 ATET se subdivide ATET Long Lines y 23 BOCs (Bell


Operating Companies). Los tendidos de cable telefónico internos
de los edificios pasan a ser gestionados por los usuarios.
21/12/1984 ANSI aprueba el estándar IEEE 802.3.
1985 El estándar Ethernet se aprueba a nivel mundial conociéndose
como ISO 8802/3.
1986 Se publican estándares 10Base – 2 y 10Broad – T.
1987 Se publica el estándar 10Base – T.
1991 Se publica el estándar 10Base – F sobre fibra óptica.
1995 Se publica el estándar 100Base – T
1998 Se aprueba el estándar Gigabit Ethernet sobre fibra óptica,
llamado 1000Base-LX/SX.
1999 Se aprueba el estándar Gigabit Ethernet sobre cobre, llamado
1000Base – T.
Fuente: Marquez, J.(2001). Ethernet: Su origen, funcionamiento y rendimiento.Univ. del Norte.
CSMA/CD
CSMA/CD (del inglés Carrier Sense Multiple Access with Collision Detection) o, en español,
acceso múltiple con escucha de <error> y detección de <error>, es un algoritmo de acceso al
medio compartido. Su uso está especialmente extendido en redes Ethernet donde es empleado
para mejorar sus prestaciones. En CSMA/CD, los dispositivos de red escuchan el medio antes
de transmitir, es decir, es necesario determinar si el canal y sus recursos se encuentran
disponibles para realizar una transmisión.
Las redes que se basan en Ethernet utilizan un método especial conocido como CSMA/CD
para acceder al medio de transmisión de datos.

Proceso
Detección de portadora.
• En el método de acceso CSMA/CD, todos los dispositivos de red que tienen
mensajes para enviar deben escuchar antes de transmitir.
• Si un dispositivo detecta una señal de otro dispositivo, esperará durante un
período especificado antes de intentar transmitir.
• Cuando no se detecte tráfico, un dispositivo transmitirá su mensaje.
• Mientras se lleva a cabo la transmisión, el dispositivo continúa escuchando para
detectar tráfico o colisiones en la LAN.
• Una vez que se envía el mensaje, el dispositivo regresa a su modo de escucha
predeterminado.

Multi-acceso o Acceso múltiple.


• Si la distancia existente entre los dispositivos es tal que la latencia de las
señales de un dispositivo denota que un segundo dispositivo no detecta las
señales, el segundo dispositivo puede comenzar también a transmitir.
• Los medios tienen entonces dos dispositivos que transmiten sus señales al
mismo tiempo.
• Sus mensajes se propagarán por todos los medios hasta que se encuentren.
• En ese punto, las señales se mezclan y el mensaje se destruye.

Detección de Colisión:
• La detección de una colisión es posible porque todos los dispositivos pueden
detectar un aumento de la amplitud de la señal por encima del nivel normal.
• Una vez detectada la colisión, todos los dispositivos transmisores continuarán
transmitiendo para garantizar que todos los dispositivos de la red detecten la
colisión.

Señal de congestión y postergación aleatoria.


• Cuando los dispositivos de transmisión detectan la colisión, envían una señal de
congestión.
• Se utiliza para notificar a los demás dispositivos sobre una colisión, de manera
que éstos invocarán un algoritmo de postergación.
• Este algoritmo hace que todos los dispositivos dejen de transmitir durante un
período aleatorio, lo que permite que las señales de colisión disminuyan.
• El período de postergación aleatoria garantiza que los dispositivos involucrados
en la colisión no intenten enviar su tráfico nuevamente al mismo tiempo, lo que
provocaría que se repita todo el proceso.
• Pero, esto también significa que un tercer dispositivo puede transmitir antes de
que cualquiera de los dos dispositivos involucrados en la colisión original tenga
la oportunidad de volver a transmitir.
Bibliografía
Stalling, W.(2004). Comunicaciones y Redes de Computadores. 7ma.Edicion. PEARSON
EDUCACIÓN, S.A.
Fuente: Marquez, J.(2001). Ethernet: Su origen, funcionamiento y rendimiento.Univ. del Norte.

También podría gustarte