Está en la página 1de 20

Integrantes

Alcívar Varela Melissa

Chumo Gilces Evelyn

García Ponce Karen

Giler Villavicencio José

Párraga Palma Ángel

Sánchez García Gema

Introducción a las redes


Una red de computadoras consiste en una o más computadoras conectadas por
un medio físico y que ejecutan un software que permite a las computadoras
comunicarse unas con las otras.

En los primeros años de las redes las grandes compañías, incluyendo IBM,
Honeywell y Digital Equipment Corporation, crearon su propio standard de cómo
las computadoras debían conectarse. Estos standares describían los mecanismos
necesarios para mover datos de una computadora a otra. Estos primeros
standares, sin embargo, no eran eternamente compatibles. Por ejemplo, las redes
que se adherían al SNA (Systems Network Architecture) de IBM no podían
comunicarse directamente con las redes usando el DNA (Digital Network
Architecture) de DEC.

En años posteriores, organizaciones de standares, incluyendo la Organización


Internacional de Estandarización (ISO) y el instituto de Ingenieros Eléctricos y
Electrónica(IEEE), desarrollaron modelos que llegaron a ser globalmente
reconocidos y aceptados como stàndares para el diseño de cualquier red de
computadoras. Ambos modelos describen la red en términos de capas
funcionales.

Clasificación de las redes


según la direccionalidad de los datos
Simplex:

Half-duplex:

Full-duplex:

Simplex: Unidireccionales, un nodo transmite y otro recibe.

Half-duplex: Bidireccionales,
sólo un nodo transmite a la vez.

Full-duplex: Ambos nodos pueden transmitir datos al mismo tiempo.


Arquitectura
Topologías de Redes:
Define la estructura de las redes. Tenemos dos tipos de topologías:

 Topología Física

 Topología Lógica

Topología Física: consiste en la configuración o disposición del cableado y


equipos de comunicación.

Topología Lógica: define cómo los datos fluyen a través de la red.

La forma de las redes es otro criterio que puede ser utilizado para categorizarlas.
De acuerdo a esto nosotros podemos conseguir diferentes clases de redes según
su topología.

Arquitectura Física
Bus Utiliza un troncal único. Todos los nodos se conectan directamente a éste y
comparten el medio.
Anillo: Un nodo se conecta a próximo y el último se conecta al primero.

Estrella: Todos los nodos se conectan a un punto central común, usualmente es


un hub o switch.

Estrella extendida Enlaza las estrellas


conectando los switches de estas a un
switch central.
Topología Jerárquica Similar a la estrella extendida pero en lugar de
interconectar switches se hace a través de hosts.

Mallas Cada host es conectado a todos los otros. Existen múltiples caminos de un
nodo a otro. Utilizadas generalmente donde se requiere que no haya
interrupciones en la comunicación de un nodo y otro.

Arquitectura Lógica
La topología lógica de las redes definen la manera en cómo los hosts se
comunican a través de medio físico.

Las dos topologías lógicas más utilizadas son:


 Topología broadcast (difusión).

 Topología token passing (pase de testigo).

Topología broadcast: cada host envía sus datos a todos los otros hosts
conectados al medio físico de la red.
No hay orden en la transmisión de datos. El primero en acceder al medio es el
primero en transmitir.

Por ejemplo: Ethernet

Topología token passing: aquí se controla el acceso al medio utilizando un


testigo electrónico que se pasa a cada host.

Cuando un host recibe el testigo puede transmitir datos si los tiene. Si no,
entonces pasa el testigo al siguiente host.

El modelo OSI
En 1984, la Organización Internacional de Estandarización (ISO) desarrolló un
modelo llamado OSI (Open Systems Interconection, Interconexión de sistemas
abiertos). El cual es usado para describir el uso de datos entre la conexión física
de la red y la aplicación del usuario final. Este modelo es el mejor conocido y el
más usado para describir los entornos de red.

Como se muestra en la figura, las capas OSI están numeradas de abajo hacia
arriba. Las funciones más básicas, como el poner los bits de datos en el cable de
la red están en la parte de abajo, mientras las funciones que atienden los detalles
de las aplicaciones del usuario están arriba.

En el modelo OSI el propósito de cada capa es proveer los servicios para la


siguiente capa superior, resguardando la capa de los detalles de cómo los
servicios son implementados realmente. Las capas son abstraídas de tal manera
que cada capa cree que se está comunicando con la capa asociada en la otra
computadora, cuando realmente cada capa se comunica sólo con las capas
adyacentes de la misma computadora.

Con esta última figura se puede apreciar que a excepción de la capa más baja del
modelo OSI, ninguna capa puede pasar información directamente a su contraparte
en la otra computadora. La información que envía una computadora debe de pasar
por todas las capas inferiores, La información entonces se mueve a través del
cable de red hacia la computadora que recibe y hacia arriba a través de las capas
de esta misma computadora hasta que llega al mismo nivel de la capa que envió
la información. Por ejemplo, si la capa de red envía información desde la
computadora A, esta información se mueve hacia abajo a través de las capas de
Enlace y Física del lado que envía, pasa por el cable de red, y sube por las capas
de Física y Enlace del lado de el receptor hasta llegar a la capa de red de la
computadora B.

La interacción entre las diferentes capas adyacentes se llama interface. La


interface define que servicios la capa inferior ofrece a su capa superior y como
esos servicios son accesados. Además, cada capa en una computadora actúa
como si estuviera comunicándose directamente con la misma capa de la otra
computadora. La serie de las reglas que se usan para la comunicación entre las
capas se llama protocolo.

Las capas inferiores lidian con las señales eléctricas, trozos de datos binarios y
encaminamiento de paquetes a través de las redes.

Las capas
superiores se encargan de la gestión de las solicitudes del los clientes, respuestas
de los servidores, representación de los datos y los protocolos de redes desde el
punto de vista del usuario.

Encapsulamiento:
Es el proceso que ejecuta una capa a los datos que vienen de la capa inmediata
superior. Consiste en agregar la información necesaria (cabecera) a estos datos
para que puedan ser enviados y comprendidos por el peer de la capa en cuestión.

Modelo TCP/IP
Aunque el modelo de referencia OSI es reconocido universalmente, ha sido
tomado muy poco en cuenta. El modelo que se ha adoptado “de facto” es el
modelo Transmission Control Protocol/Internet Protocol (TCP/IP).
Este modelo y su grupo de protocolos (stack TCP/IP) hacen posible la
comunicación entre un par de computadores en cualquier lugar del mundo.

Este modelo tiene menos capas que el modelo OSI agrupando funcionalidades en
algunas de sus capas.
Diferencias entre OSI y TCP/IP
 TCP/IP combina las capas de
presentación y sesión en la capa
de aplicación
 TCP/IP combina las capas físicas
y de enlace en la capa de acceso
a la red.
 TCP/IP puede parecer más simple
por tener menos capas. Sin
embargo, OSI es más simple pues
es más fácil de manejar errores de
diseño.
 Los protocolos de TCP/IP son los
estándares utilizados a lo largo y
ancho de Internet.

Funciones que deben ser cumplidas en


una red
 Control de Errores: hacer más confiable el canal.
 Control de Flujo: evitar que un nodo lento sea inundado con PDUs.
 Segmentación y Ensamblaje: El enviador corta en pedazos más pequeños
un mensaje y el receptor restituye el mensaje original.
 Multiplexación: compartir el canal.
Funciones de la Capa Física
Transportar los bits que pertenecen a un frame (PDU de la capa de Enlace) de un
nodo origen al nodo destino. Por supuesto, los nodos involucrados deben estar
conectados en el mismo enlace.

Funciones de la Capa de
Enlace
Encaminar los paquetes a través de un grupo de switches. Los switches utilizan
protocolos especializados como (spanning tree) para construir las rutas. Esto se
hace a nivel de múltiples enlaces.
Funciones de la Capa de Red
Encaminar los paquetes a través de un grupo de routers. Al igual que los switches
los routers utilizan protocolos especializados para construir las rutas. Esto se hace
a nivel de múltiples redes.

Funciones de la Capa de Transporte


Gestionar la transferencia de datos a nivel de cliente y servidor. Los dos
protocolos más utilizados en Internet en esta capa son: TCP y UDP.
Funciones de la Capa de Sesión
Gestionar los múltiples flujos que pueden ser abiertos para transportar la
información entre el nodo origen y el nodo destino.

Funciones de la
Capa de Presentación
Gestionar el formato de los datos (imágenes, textos, etc) y controlar que se
mantenga la integridad de la información cuando pasa de una plataforma a otra.
Funciones de la Capa de Aplicación
Responsable de dar soporte a las aplicaciones de red. Aquí tenemos aplicaciones
como correo electrónico, servicios web, etc.

Historia de Ethernet
Cuando la ARPANET llevaba sólo unos pocos meses de haber entrado en
funcionamiento (1970), un equipo de la Universidad de Hawaii, dirigido por
Norman Abramson, comenzó a experimentar en el laboratorio cómo lograr crear
una red que interconectara terminales ubicadas en las islas de Kauai, Maui y
Hawaii, teniendo una computadora central en Oahu.

Una alternativa era utilizar enlaces telefónicos, pero el costo elevado y la baja
calidad hicieron descartar esta posibilidad. Entonces Abranmson con su equipo
consiguieron varios transmisores de radio de taxis viejos con los que lograron
poner en marcha una red de radio enlaces entre las islas; para esto utilizaron
módems hechos artesanalmente.

En lugar de asignar un canal distinto para la comunicación hacia y desde cualquier


isla hasta Oahu (eran necesarios 6), asignaron solamente dos: unos a 413475
Mhz para la trasmisión de Oahu a Kauai, Maui y Hawaii, y otro a 407350 Mhz para
el proceso inverso. De esta forma, cada canal podía tener un ancho de banda
mayor (100 Khz) y, por tanto, más capacidad (9.6 Kbps) que si se hubieran
establecido 6 canales.

El canal de Oahu no planteaba problemas, pues sólo tenía un emisor, sin


embargo, el canal de retorno era compartido por las tres islas, por lo que se hizo
necesario establecer reglas que permitieran resolver el problema que se producía
cuando dos emisores querían enviar al mismo tiempo información, es decir, si se
producía colisión.

Se requería un protocolo MAC (Media Access Control). La red inventada por este
grupo de investigadores se llamó ALOHANET y el protocolo MAC utilizado se
llamó ALOHA. Su principio de funcionamiento era: Cuando un emisor quiere
transmitir una trama la envía, sin preocuparse si el canal está libre; una vez ha
terminado, se queda escuchando hasta recibir la aprobación de que la información
ha sido recibida correctamente por la estación destino. Si ha pasado un tiempo
razonable y la aprobación no ha llegado, la estación emisora supone que hubo
colisión, espera un tiempo aleatorio y retransmite la trama.

Como es de esperarse, la eficiencia de este protocolo ALOHA es baja, ya que se


basa en el caos. Cuando el nivel de utilización de canal crece y el número de
estaciones aumenta, la red puede llegar a colapsarse, es decir, se satura, por lo
cual deja de enviar información útil. Hoy en día este protocolo es muy poco
utilizado, pues el protocolo Ethernet ofrece mucha más eficiencia.

En el mismo año 1970, cuando Abramson montaba ALOHANET, un estudiante del


MIT, llamado Robert Metcalfe, experimentaba con la recién estrenada ARPANET y
conectaba entre sí ordenadores en un laboratorio. Metcalfe estudiante dió la red
de Abramson y empezó ese mismo año una tesis doctoral en Harvard, que
terminaría en 1973, en la que, desde un punto de vista teórico planteaba mejoras
que se podrían introducir al protocolo ALOHA para aumentar su rendimiento.

La idea básica era muy simple: las estaciones antes de transmitir deberían
detectar si el canal ya estaba en uso (es decir, si ya había portadora), en cuyo
caso esperarían a que la estación activa terminara antes de transmitir. Además,
cada estación, mientras transmitiera, estaría continuamente vigilando el medio
físico por si se producía alguna colisión, en cuyo caso pararía y transmitiría más
tarde. Años después, este protocolo MAC recibiría la denominación de Acceso
Múltiple con Detección de Portadora y Detección de Coslisiones (CSMA/CD).

Este método se utiliza para arbitrar el cable. En 1972 Metcalfe se mudó a


California para trabajar en el Centro de Investigación de Xerox en Palo Alto,
llamado Xerox PARC (Palo Alto Research Center). Allí se diseñaba lo que se
consideraba la “oficina del futuro”, y encontró un ambiente perfecto para
desarrollar sus inquietudes. Se estaban probando unos ordenadores denominados
“Alto”, que disponían de capacidades gráficas y ratón, y son considerados los
primeros ordenadores personales. También se estaban fabricando las primeras
impresoras láser. Se quería conectar los ordenadores entre sí para compartir
ficheros y las impresoras.

La comunicación tenía que ser de muy alta velocidad, del orden de megabits por
segundo, ya que la cantidad de información que se debía enviar a las impresoras
era enorme (tenían una resolución y velocidad comparables a una impresora láser
actual). A Metcalfe, el especialista en comunicaciones del equipo con 27 años de
edad, se le encomendó la tarea de diseñar y construir la red que uniera todo
aquello. Contaba para ello con la ayuda de un estudiante de doctorado de
Stanford llamado David Boggs.

Las primeras experiencias de la red, que denominaron “Alto Aloha Network”, las
llevaron a cabo en 1972. Fueron mejorando el prototipo hasta que el 22 de mayo
de 1973 Metcalfe escribió un memorando interno en el que informaba de la nueva
red. Para evitar que se pudiera pensar que sólo servía para conectar ordenadores,
“Alto” cambió el nombre inicial por el de “Ethernet”, que hacía referencia a la teoría
de la física, según la cual las ondas electromagnéticas viajaban por un fluido
denominado “éter” que se suponía llenaba todo el espacio (Metcalfe llamaba “éter”
al cable coaxial por el que iba la portadora).

Los dos ordenadores fueron rebautizados entonces con los nombres Michelson y
Morley, en alusión a los dos físicos que demostraron en 1887 la inexistencia del
éter mediante el experimento que lleva su nombre. La red de 1973 ya tenía todas
las características esenciales de la Ethernet actual.

Empleaba CSMA/CD para minimizar la probabilidad de colisión, y en caso de que


ésta se produjera ponía en marcha el mecanismo de retroceso exponencial binario
para reducir gradualmente la agresividad del emisor, con lo que éste se
autoadaptaba a situaciones de muy diverso nivel de tráfico. Tenía topología de bus
y funcionaba a 2,94 Mbps sobre un segmento de cable coaxial de 1,6 Km de
longitud. Las direcciones eran de 8 bits y el CRC de las tramas de 16 bits.

El protocolo utilizado a nivel de red era el PUP (Parc Universal Packet), que luego
evolucionaría hasta convertirse en el actual XNS (Xerox Network System). En vez
de utilizar cable coaxial de 75W, más habitual por ser el utilizado en redes de
televisión por cable, se optó por emplear cable de 50Wm que producía menos
reflexiones de la señal, a las cuales Ethernet era muy sensible por transmitir la
señal en banda base (es decir, sin modulación). Las reflexiones se producen en
cada empalme del cable y en cada empalme vampiro (transceiver).

En 1975 Metcalfe y Boggs describieron Ethernet en un artículo que enviaron a


Communications of the ACM (Association for Computing Machinery), que fue
publicado en 1976. En él ya describían el uso de repetidores para aumentar el
alcance de la red. En 1977 Metcalfe, Boggs y otros dos ingenieros de Xerox
recibieron una patente por la tecnología básica de Ethernet, y en 1978 Metcalfe y
Boggs recibieron otra por el repetidor.
En esa época todo el sistema Ethernet era propiedad de Xerox. La
estandarización de Ethernet radica durante los años setenta, donde paralelamente
al desarrollo de Ethernet en otras universidades y centros de investigación se
estaban realizando experimentos con respecto a redes de área local utilizando
otras topologías como anillo, estrella o bus.

Ante tal situación, el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) puso


en funcionamiento un proyecto llamado “comité 802”, por el año y mes en que fue
desarrollado. Esto con el fin de estandarizar una tecnología que permitiera
incorporar los diferentes productos comerciales disponibles en redes locales hasta
ese momento. De este modo se lograría establecer una libre competencia, bajar
los precios y así beneficiar a los usuarios.

Dos meses después de haberse dado a conocer este comité (abril de 1980), DIX
le informó que su producto ya estaba en la etapa final (la Ethernet) y que cuando
estuviera terminado lo propondría para estandarización. Después de la propuesta
de DIX, el Comité 802 también recibió otra de “General Motors” con su red llamada
Token Bus, que utilizaba un protocolo basado en “Paso de Testigo”. Algo más
tarde también recibió la IBM, llamada “Token Ring”. Finalmente IEEE, viendo que
no era posible satisfacer todos los productos con un único estándar y que tampoco
era posible descartar alguna de las tres tecnologías propuestas, decidió aceptar
las tres propuestas y crear un subcomité para cada una: 802.3 para Ethernet
(protocolo CSMA/CD), 802.4 para Token Bus (protocolo de Pasos de Testigo en
Bus), 802.5 para Token Ring (protocolo de Paso de Testigo en Anillo).

El “comité “802” pasó varios meses reunido resumiendo el estándar Ethernet e


introdujo diversos cambios, que fueron realizados y finalmente resueltos por
Xerox, para evitar el problema de incompatibilidad con el producto original. El
funcionamiento de Ethernet está determinado por el protocolo CSMA/CD, el cual
incorpora dos mejoras que aumentan el rendimiento en una red: en primer lugar,
no se transmite si hay otra estación hablando, y en segundo, si mientras se está
transmitiendo detecta que otra estación trasmite (es decir, se produce una
colisión), la estación se calla, en lugar de seguir transmitiendo inútilmente al final
de la trama.

Se produce una colisión cuando dos o más estaciones empiezan a transmitir


simultáneamente o con una separación en el tiempo de propagación que las
separa. Por ejemplo, en una red donde el tiempo de ida y vuelta es igual a 5.06 ms
se producirá una colisión siempre que dos nodos transmitan con separación en el
tiempo menor de 2.53 ms. Si la separación es mayor que 2.53 ms, no se producirá
colisión, ya que el segundo detectará el medio ocupado cuando vaya a transmitir;
en ese caso esperará a que el primero termine y transmitirá inmediatamente a
continuación, respetando el tiempo del hueco entre tramas (Tiempo GAP, que
para una red de 10Mb tiene un valor de 9.6 ms).

Aunque transcurrido t ms ya no puede ocurrir colisión, desde el punto de vista de


la estación emisora, la garantía de no colisión sólo se tiene pasado 2t ms.
Supongamos que los dos nodos intentaran transmitir con una separación en el
tiempo menor de 2.53 ms. Al detectar la colisión ambos dejan de transmitir, y a
partir de ese momento dividen el tiempo en intervalos de 51.2 ms. Entonces
esperan 0 o 1 intervalos para reintentar (la elección entre 0 y 1 la hace cada uno
independientemente de forma aleatoria, por lo que la probabilidad de colisión es
0.5); si se produce una segunda colisión, cada estación espera aleatoriamente 0,
1, 2 o 3 intervalos para reintentar, con lo que la probabilidad de colisión baja a
0.25.

Si siguen colisionando, el número de intervalos se duplica en cada intento


sucesivo, de manera que la probabilidad de colisión decrece exponencialmente,
hasta que eventualmente ambos eligen intervalos distintos, momento en el cual el
que elige el intervalo más bajo transmite primero, el segundo lo hará más tarde,
cuando llegue su intervalo elegido, siempre y cuando el primero ya haya terminado
de transmitir.

El cómputo del tiempo, a efecto del cálculo de intervalo, discurre


independientemente de que el medio físico se encuentre libre u ocupado. Este
mecanismo se conoce con el nombre de “Retroceso Exponencial Binario”. El
Retroceso Exponencial Binario tiene la propiedad de ser autoadaptativo, ya que a
medida que crece el tráfico aumenta la probabilidad de colisión, lo cual introduce
un retardo creciente en las estaciones emisoras, con la consiguiente disminución
del tráfico. Para evitar introducir retardos excesivos, el número de intervalos deja
de duplicarse cuando una estación sufre 10 colisiones sucesivas.

A partir de ese momento se intenta transmitir la trama 6 veces más, pero


manteniendo constante el número de intervalos. Si la colisión no se resuelve en 16
intentos, el protocolo MAC descarta la trama y reporta el fallo a nivel de red. La
“colisión” es el mecanismo previsto en Ethernet para la regulación del tráfico, por
lo que una cierta proporción de colisiones es algo completamente normal,
especialmente si hay tráfico elevado y se transmiten tramas pequeñas.

La denominación “colisión” es desafortunada, ya que hace pensar en un suceso


incorrecto e indeseable, que normalmente no debería ocurrir. La trama en una red
Ethernet puede variar entre un mínimo de 72 bytes y un máximo de 1526. De este
modo, la máxima tasa de colisiones para una trama Ethernet variará de acuerdo
con el tamaño de la trama. Las operaciones en Ethernet necesitan un “tiempo
muerto” entre tramas de 9,6 ms. El tiempo por bit para una Ethernet a 10 Mbps es
1/10−7 o 100 ns.

Arquitectura Ethernet
A finales de 1960, la universidad de hawai desarrolló una red de área amplia
(WAN, Red que se extiende a través de un área geográfica mayor a una LAN).
La universidad necesitaba conectar varias computadora que estaban esparcidas a
través de su campus. La pieza principal en el diseño de la red fue llamado Carrier-
Sense Multiple Access with Collision Detection (CSMA/CD). Carrier-Sense
significa que la computadora escucha el cable de la red y espera hasta un periodo
de silencio para poder mandar su mensaje. Multiple Access se refiere a que
múltiples computadoras pueden estar conectadas en el mismo cable de red.
Collision Detection es una protección contra mensajes chocando en el transito.

Este temprano diseño de red fue la fundación de lo que hoy es Ethernet. En 1972,
Xerox Corporation creó el experimental Ethernet, y en 1975 introdujo el primer
producto Ethernet. La versión original de este producto de red fue diseñado como
un sistema de 2.94mbps(Megabits por segundos) conectando hasta 100
computadoras en un cable de un kilometro.

El Ethernet de Xerox fue tan existoso que Xerox, Intel y Digital crearon un
standard para Ethernet de 10mbps. Este diseño fue la base de la especificación
IEEE 802.3. El producto Ethernet se apega en la mayoria de las partes del
standard 802.3.

El CSMA/CD funciona de la siguiente manera: cuando una computadora desea


mandar información primero escucha el cable de la red para revisar que no se esté
usando en ese preciso momento (Carrier-Sense). Esto se oye muy sencillo, pero
el problema reside en que dos o más computadoras al escuchar que no se está
usando el cable pueden mandar el exacto mismo momento su información
(Multiple Access), y como solamente puede haber uno y sólo un mensaje en
tránsito en el cable se produce una colisión. Entonces las computadoras detectan
la colisión y deciden reenviar su información a un intervalo al azar, es importante
que sea al azar ya que si ambas computadoras tuvieran el mismo intervalo fijo se
produciría un ciclo vicioso de colisiones y reenvíos (Collision Detection). Así por
ejemplo al detectar la colisión una computadora se espera tres milisegundos y la
otra cinco milisegundos, siendo obvio que una computadora reenviara en primer
lugar y la otra esperará a que el cable este de nuevo sin tránsito.

Evidentemente que en una misma red Ethernet al haber muchas computadoras


tratando de enviar datos al mismo tiempo y/o al haber una transferencia masiva de
datos se crea un gran porcentaje de colisiones y utilización. Si se pasa del 1% de
colisiones y/o 15% de utilización de cable ya se dice que la red está saturada.
Además, las señales de este tipo de red tienden a degradarse con la distancia
debido a la resistencia, la capacidad u otros factores. Inclusive la señal todavía se
puede distorsionar por las interferencias eléctricas exteriores generadas por los
motores, las luces fluorescentes y otros dispositivos eléctricos. Cuanto más se
aumenta la velocidad de transmisión de los datos. Más susceptible es la señal a
degradarse. Por esta razón las normas de Ethernet especifican los tipos de cables,
los protectores y las distancias del mismo, la velocidad de transmisión y otros
detalles para trabajar y proporcionar un servicio relativamente libre de errores en
la mayoría de los entornos.
Las redes Ethernet pueden utilizar diferentes tipos de cableado, cada uno con sus
beneficios y problemas. Los tres cableados más comunes son Thinnet, Thicknet, y
Twisted Pair (Par trenzado).

Thinnet ó 10Base2 puede transmitir datos a 10mbps por Banda Base (señales
digitales), pudiendo llegar el cableado hasta 185 metros. Se utiliza cable coaxial
RG-58 el cual es bastante barato por lo que a esta red también se le conoce como
CheapNet. Un mismo segmento de cable puede soportar hasta 30 computadoras.
Es el más utilizado y recomendado para redes pequeñas. Utiliza la topología local
bus, donde un mismo cable recorre todas y cada una de las computadoras. 

Thicknet ó 10Base5 transmite datos a 10mbps por Banda Base en un cableado


que puede alcanzar 500 metros. El cableado es grueso y es utilizado
principalmente para largas oficinas o hasta todas las computadoras de un edificio.
Del cable principal (backbone) salen cables usualmente Par Trenzado que se
conectan a directamente a cada una de las computadoras. Se pueden conectar
hasta 100 computadoras con este cableado en un mismo segmento. 

Twisted Pair ó 10BaseT transmite datos a 10mbps por Banda Base y utiliza un
Hub (concentrador) desde el cual con cable Par Trenzado se conecta cada una de
las computadoras quedando en forma similar a estrella. El Hub queda en el centro
de la estrella y funciona como "repetidor". El cable desde el Hub hasta la
computadora no debe de medir más de 100 metros.

También podría gustarte