Está en la página 1de 45


   

INSTITUTO
POLITÉCNICO NACIONAL  
  
  
UNIDAD PROFESIONAL
INTERDISCIPLIARIA DE INGENIERÍA Y
CIENCIAS SOCIALES Y
ADMINISTRATIVAS  
  
  
PROFESOR: TEODOMIRO GONZALES
RIVERA 
ALUMNA: JESSICA HERNANDEZ
GARCIA 
SECUENCIA: 1IV10 
4.1 TECNOLOGIAS DE REDES
La tecnología de redes, network technology en inglés, es aquella que sirve para permitir
el intercambio digital de datos entre distintos nodos. Un nodo es un punto de conexión, unión
o interacción de varios elementos. Por ejemplo, cuando se conectan varios ordenadores,
cada ordenador es un nodo. Cuando es una conexión por internet, cada servidor de internet
es un nodo.

La conexión de una tecnología de redes puede ser tanto para que se puedan transmitir los
datos como para facilitar el acceso a datos que están en un software, servidores, bases de
datos, impresoras, etc. Por tanto, gracias a este tipo de tecnología, una persona puede
mandar mensajes, documentos de Microsoft Office por e-mail, vídeos, etc. desde un
dispositivo a otro.

¿Sabías que? La tecnología de redes se remonta a cuando en 1981 IBM sacó el primer
modelo de ordenador personal. Pronto, esos ordenadores se conectaron a través de cables
(teniendo que hacerse uno a uno), creando las primeras redes. En 1985 el tamaño y
complejidad de las redes era tan grande que eran los departamentos de informática los que
se tenían que hacer cargo de ellas.

¿Qué es una red?


Una red de computadoras (también llamada red de computadoras o red informática) es un
conjunto de equipos (computadoras y/o dispositivos) conectados por medio de cables,
señales, ondas o cualquier otro medio de transporte de datos, que comparten información
(archivos), recursos (CD-ROM, impresoras, etc.) y servicios (acceso a internet, e-mail, chat,
juegos).
Componentes de una Red
• Servidor: Son computadoras que controlan las redes y se encargan de permitir o no el acceso
de los usuarios a los recursos, también controlan los permisos que determinan si un nodo
puede o no pertenecer a una red La finalidad de los servidores es controlar el funcionamiento
de una red y los servicios que realice cada una de estas computadoras dependerán del
diseño de la red.
• Estación de trabajo; El nombre que reciben las computadoras conectadas a una red, pero no
pueden controlarla, ni alguno de sus nodos o recursos de esta. Cualquier computadora puede
ser estación de trabajo, siempre que este conectada y se comunique a la red.
• Nodo de red: Es cualquier elemento que se encuentre conectado y comunicado a una red; a
los periféricos que se conectan a una computadora se convierten en nodo si están
conectados a la red y pueden compartir sus servicios para ser utilizados por los usuarios,
como impresoras, carpetas.
• Tarjetas de red: Son tarjetas de circuito integrados que se insertan en unos órganos de
expansión de la tarjeta madre y cuya función es recibir el cable que conecta a la computadora
con una red informática; así todas las computadoras de red podrán intercambiar información.
¿Para qué sirve una red?
En los primeros años de las computadoras personales, las redes eran escasas. Casi todas
las computadoras personales funcionaban como unidades independientes y, en esencia, la
computación era una actividad solitaria en la que una persona interactuaba con un conjunto
limitado de herramientas de software, como un procesador de textos, una hoja de cálculo,
una base de datos y juegos. Sin embargo, algunos ingenieros en computación tuvieron la
visión de prever que las computadoras personales se conectarían en red para proporcionar
ventajas no disponibles en las computadoras independientes. Una de las ideas de red más
significativas fue concebida por Bob Metcalfe en 1976. Su plan para transportar datos entre
computadoras se convirtió en un elemento fundamental en todas las redes de equipos de
cómputo.
CLASIFICACIÓN DE LAS REDES
Con el tiempo, ha crecido exponencialmente la diversidad dentro de los tipos de tecnología de
redes. Esta tecnología se puede clasificar: en base a escala (también conocido como en
base a dispersión, scaling technology en inglés); o en base a su transmisión (transmission
technology). Una red puede verse desde ambos tipos de clasificaciones, ya que la
clasificación se hace en base a un punto de vista. Por ejemplo, una red Lan puede
clasificarse también como una red de punto a punto.

Tecnología de redes
basada en escala
La tecnología de redes
basada en escala también
se le conoce
como basada en
dispersión (dispersion
technology). Se le conoce
como escala o dispersión
porque se refiere a la
distancia a la que se
encuentran los distintos
nodos o redes que
conecta. Dentro de esta
clasificación se
encuentran los siguientes
tipos:
Red de área personal (PAN)
Una red de área personal (Personal Area Network, PAN) es una red de nodos de utilidad para
una única persona. La distancia máxima entre los nodos suele ser de 1 metro. Un ejemplo de
este tipo de red sería la conexión de un ordenador con su ratón, su teclado, su impresora, etc.
La conexión de la red PAN suele hacerse de forma inalámbrica, ya sea por Wi-Fi o por
Bluetooth.
Red de área local (LAN)
Una red de área local (Local Area Network, LAN) es una red de nodos
de hardwares conectados entre ellos. La distancia entre los nodos es de 10 a 100 metros. La
forma más común de LAN es con una conexión a través de cable de Ethernet. Cuando esta
conexión se hace a través de una conexión inalámbrica (por ejemplo, con Wi-Fi) se le conoce
como WLAN (Wireless Local Area Network, Red de Área Local Inalámbrica).
Red de área amplia (WAN)
Una red de área amplia (Wide Area Network, WAN) se usa para vincular redes LAN. Las
redes que deben conectarse están muy separadas en este caso. La distancia entre los nodos
puede ser de 100 a 1000 kilómetros. Por ello, podemos encontrar redes WAN que abarcan
conexiones entre diferentes departamentos de un ayuntamiento y otras que sirven como
conexión de una estación base para controlar una red 5G nacional.
Red de área metropolitana (MAN)
Una red de área metropolitana (Metropolitan Area Network, MAN) funciona como una red
WAN, pero para una zona geográfica determinada. Es decir, una red MAN conecta varias
redes LAN de una zona concreta. Por tanto, la distancia de la red MAN será superior a la
LAN, pero inferior a la WAN. Esto se debe a que la WAN puede abarcar varias zonas
metropolitanas e incluso países y la MAN sólo una. Un ejemplo de MAN son las conexiones
de los canales por cable o la banda ancha de las empresas de telecomunicación. Si la
conexión se hace de forma inalámbrica, se le conoce como WMAN (Wireless Metropolitan
Area Network, Red de Área Metropolitana Inalámbrica).
Red de área global (GAN)
La red de área global (Global Area Network, GAN) se usa para vincular redes WAN. Como el
propio nombre indica, la distancia que abarca este tipo de red es global. De esta forma, una
empresa que opera a nivel internacional puede conectar varias redes WAN. Las redes GAN
pueden funcionar agrupando los cables de fibra submarinos de las redes WAN que van a
conectar o a través de conexión por satélite.
Red privada virtual (VPN)
La red privada virtual (Virtual Private Network, VPN) permite hacer una extensión segura de
una red física (ya sea LAN, WAN, MAN o GAN) a través de una red pública o compartida. La
forma más común de establecer esta extensión es usando el internet. Esta forma de extender
una red permite que los usuarios envíen y reciban datos a través de redes compartidas o
públicas como si sus dispositivos informáticos estuvieran directamente conectados a la red
privada de la empresa. Gracias a este tipo de red, un empleado de una empresa que
use software alojado en local puede teletrabajar, ya que es como si el empleado estuviera
desde su ordenador de la oficina.
Gateways
Por último, indicar la existencia de interredes formadas por redes LAN y WAN a veces
diferentes entre sí conectadas
mediante pasarelas o gateways que
son máquinas que efectúan la labor de
conexión y traducción. Éstas se
diferencian significativamente de
Internet que conecta gobiernos,
universidades e individuos.

Tecnología de redes basada en


transmisión

Esta clasificación se centra en la forma


en la que se transmite la información
entre los nodos. Esta clasificación se
divide en 2 grupos:

La conexión multipunto

En una conexión multipunto, los diferentes nodos de la red se conectan a un medio común.
En este caso, la información de origen se transmite al medio común llegando a todos los
nodos pero sólo pudiendo ser comprendida por el nodo de destino.

La conexión de punto a punto

En una conexión de punto a punto, los diferentes nodos de la red están directamente
conectados entre sí. En algunos casos, este tipo de conexión requiere nodos intermedios
para que se pueda enrutar la información hasta el nodo de destino.

DISPOSITIVOS DE RED

Un dispositivo de red, o aparato para red, es cualquier dispositivo electrónico que transmite
datos de red, refuerza señales o dirige los datos a su destino. Entre los dispositivos de red se
encuentran los concentradores, los interruptores, los ruteadores, las puertas de enlace
(gateways), los puentes y las repetidoras.
¿Qué dispositivos se pueden conectar a una red?
Puede considerar una red como una telaraña con muchos puntos de interconexión. Cada
punto de conexión en una red se denomina nodo. Un nodo de red suele contener
computadoras, periféricos en red o dispositivos de la red.
Red local y Aplicaciones.
Es un sistema de transmisión de información con el objetivo de compartir recursos con los que
trabaja un ordenador normalmente, es decir, ficheros, directorios, impresoras, plotters,
escáneres, etc.… entre ordenadores conectados entre sí o bien mediante redes conectadas
entre sí. La palabra local se refiere a que el conjunto de ordenadores se encuentra próximo
geográficamente hablando, es decir, que se encuentra en el espacio físico de un mismo
centro.
En general una red local está caracterizada por una distancia corta entre ordenadores, un
medio de comunicación entre éstos, una velocidad de conexión elevada, la utilización de
cables de conexión simples (como los coaxiales o los telefónicos). Cuentan con la facilidad de
su instalación, de su administración y de su bajo precio. En la mayoría de los casos una red se
usa para compartir entre varios ordenadores una unidad de almacenamiento enorme o en
general cualquier dispositivo periférico del que hagan uso varias personas de un mismo grupo
de trabajo, de esta forma no es necesario comprar ese periférico para cada ordenador, por
ejemplo, una impresora láser. Además, constituye un valor añadido a la hora de compartir la
información y distribuir tareas.
CLIENTES, SERVIDORES Y REDES DE PUNTO APUNTO.
¿Cuál es la diferencia entre un cliente y un servidor de red? Los dispositivos de red pueden
funcionar como clientes o como servidores. Un servidor es una computadora que ofrece
servicios a otras computadoras, llamadas clientes. Por ejemplo, un servidor de aplicaciones
ejecuta software de aplicaciones para las estaciones de trabajo de la red. Un servidor de
archivos guarda los archivos y los entrega a las estaciones de trabajo según lo solicitan. Un
servidor de impresión maneja los trabajos enviados a las impresoras de la red.
Los servidores se dedican a la tarea que realizan, lo que significa que no son asignados a los
usuarios como estaciones de trabajo. Las computadoras se pueden configurar para realizar
ambas funciones al mismo tiempo, pero no realizarán de manera óptima ninguna de ellas.
Las redes que incluyen uno o más servidores pueden funcionar en modo cliente/servidor, el
cual es una estructura jerárquica, donde los servidores están en la parte superior de la
jerarquía.
¿Puede funcionar una red sin un servidor?
Las redes no requieren servidores. Las estaciones de trabajo que funcionan en modo igual a
igual pueden compartir los archivos y las aplicaciones. En este modo, las estaciones de trabajo
comparten la responsabilidad de procesar, almacenar, imprimir y las tareas de
comunicaciones. Las muy conocidas redes para compartir archivos Napster y BitTorrent
operan en modo igual a igual.
¿Debo elegir cliente/servidor o igual a igual?
No tiene que elegir entre una u otra. Una red puede funcionar en modo cliente/servidor cuando
es necesario y también intercambiar datos de igual a igual. Por ejemplo, puede compartir
archivos en modo igual a igual con otras computadoras en la red durante el día y en la noche;
cuando sus amigos llegan a practicar juegos por computadora, puede configurar una de las
computadoras como un servidor que vigila el transcurso del juego en una red donde las otras
computadoras funcionan como clientes durante la duración del juego.
Tipos de Servidores
Hemos visto que una red local interconecta ordenadores, comparte dispositivos, pero para
compartir eficientemente periféricos tales como discos duros o impresoras, es necesario
configurar uno o más ordenadores como "gestores". Un gestor (también llamado servidor) es
un ordenador que comparte sus periféricos con otros ordenadores. Un servidor de discos
permite compartir zonas del disco. Un servidor de impresión es un ordenador que pueden
utilizar todos los usuarios, y que se encarga de volcar el contenido de ficheros en una
impresora.
Servidores de disco (Disk Server)
Al principio las redes utilizaban un servidor de disco donde se almacenaba la información que
iban a compartir las distintas estaciones de trabajo de la red. Para ésta el servidor es
simplemente otra unidad de disco duro donde almacenar ficheros. En el caso de un PC
funcionando bajo MS-DOS la unidad asignada del servidor de ficheros es como un disco
normal del que se mantiene una tabla de asignación de ficheros (FAT o file allocation table)
propia para poder saber exactamente donde se encuentra un determinado fichero.
Servidores de ficheros (File Server)
Un servidor de ficheros es mucho más eficiente y sofisticado que un gestor de disco. Contiene
software especial que procesa comandos antes de que el sistema operativo los reciba. El
servidor de ficheros contiene su propia FAT. Cuando una estación de trabajo pide un
determinado fichero, el servidor de ficheros ya sabe dónde está el fichero y lo envía
directamente a la memoria de la estación de trabajo. En este caso para la estación de trabajo
el servidor de ficheros no es otra unidad de discos más, como sucede con el servidor de
disco. Es mucho más eficiente porque no necesita enviar una copia de la FAT a la estación
que pide un fichero, y además no es necesario particionar la unidad de disco.
Servidores de ficheros centralizados y distribuidos.
Para la mayoría de las redes un único servidor de ficheros es más que suficiente. Este tipo de
servidor se conoce con el nombre de servidor central. Funciona de manera muy similar como
lo hace un miniordenador; una unidad se encarga de dar servicio a cada estación de trabajo.
Por razones de eficiencia en ocasiones es conveniente instalar más de un servidor para dar
servicio a departamentos distintos. Estos servidores se conocen con el nombre de servidores
distribuidos. Esta es una solución más eficiente porque se reducen los tiempos de acceso y
además si uno de ellos queda fuera de servicio, la red puede seguir funcionando.
Servidores de ficheros dedicados y no dedicados.
Un servidor de ficheros dedicado es un microordenador con disco duro que se utiliza
exclusivamente como servidor de ficheros. Dedicando toda su capacidad de memoria,
procesamiento y recursos a dar servicio a las estaciones de trabajo se consigue un aumento
de la velocidad y eficiencia de la red. Un servidor no dedicado es aquél que se usa, además
de para funciones de servicio de ficheros, como estación de trabajo. Esto implica que la RAM
debe estar dividida de forma que puedan ejecutarse programas en la máquina. Cuanto más
rápido sea el microprocesador, más rápido puede el servidor realizar sus tareas lo que a su
vez implica un costo más elevado.
Servidores de ficheros de una red punto a punto.
En una red punto a punto los usuarios deciden qué recursos de su ordenador desean
compartir con el resto de los usuarios de la red. Un usuario puede utilizar su unidad de disco
duro como servidor de ficheros para otros usuarios de la red. Una red de este tipo puede
constar de varias estaciones de trabajo que hacen funciones de servidor de ficheros no
dedicado cuyos propietarios han decidido compartir con el resto de los usuarios de la red. Esta
filosofía es aplicable así mismo a las impresoras y otros dispositivos.
Servidor de impresión.
Al igual que un servidor de ficheros permite compartir un disco duro, un servidor de impresión
hace lo mismo, sólo que en esta ocasión lo que se comparten son las impresoras. Cada uno
de los ordenadores tiene conectada una impresora. Estas impresoras son suficientes para la
mayoría de los trabajos, pero cuando es necesario hacer copias de mayor calidad, los
usuarios utilizan la impresora láser conectada al servidor de impresión. El servidor de
impresión puede tener varios tipos de impresoras, según las necesidades.
Para poder compartir impresoras, el servidor de impresión debe disponer del software
adecuado y por lo general contiene lo que se conoce como un spooler de impresión, que es
un buffer donde se almacenan los trabajos que cada estación manda a imprimir. Los trabajos
se van poniendo en cola y se imprimen de forma secuencial en orden de llegada. Hay
spoolers de impresión con funciones para cambiar el orden de impresión de los trabajos y
para indicar la hora en la que se quiere imprimir un determinado trabajo. Por ejemplo, los
trabajos que requieren muchísimo tiempo de impresión se ponen en el spooler de impresión
para que se impriman fuera de las horas de trabajo.
Servidor de comunicaciones.
Los servidores de comunicaciones están diseñados para liberar a la red de las tares relativas
a la transmisión de información. El servidor de comunicaciones funciona igual que una
centralita telefónica, haciendo las mismas funciones que un sistema PABX (centralita
automática privada). Por medio del servidor de comunicaciones una estación puede llamar a
una red externa o cualquier otro sistema, buscar cierta información y enviarla a la estación que
la ha solicitado. El servidor de comunicaciones se puede utilizar también para conectar
dispositivos incompatibles a una red. A pesar de que un servidor de comunicaciones efectúa
las funciones de un módem, en particular proporcionando acceso a redes telefónicas de larga
distancia, hay bastantes diferencias entre ellos.
La mayoría de los módems están conectados a una sola estación y sólo los puede utilizar esa
estación. Los servidores de comunicaciones pueden responder a varias solicitudes a la vez.
Además, el servidor de comunicaciones ofrece más funciones, tales como multiplexación y
conmutación, detección de errores, y además es mucho más fiable. Es de destacar que para
redes de unos 12 equipos y con las nuevas tecnologías se puede perfectamente compartir un
módem como un periférico más, usando un software específico y diseñado para tal fin, algo
muy común hoy día. De esta forma el servidor de comunicaciones no sería necesario, ya que
el módem compartido haría todo el trabajo.
Configuración y Topología
El diseño de una red se debe planificar pensando en las necesidades de cada uno. Existen
tres tipos de configuraciones independientes del fabricante:
Peer to Peer: en la que cada estación de trabajo puede compartir sus recursos con otras
estaciones que están en la misma red.
Compartición de recursos: los recursos a compartir están centralizados en uno o más
servidores y en éstos está toda la información. Las estaciones no pueden compartir sus
recursos.
Cliente/Servidor: las aplicaciones o programas se dividen entre el servidor y las estaciones de
trabajo. Hay por tanto una parte de la aplicación que está en el ordenador cliente y otra en el
servidor.
TOPOLOGÍA FÍSICA.
La distribución de los dispositivos en una red se conoce como su topología física. Existen las
topologías de estrella, círculo, bus, malla y árbol; las trayectorias mostradas entre los modos
se conectan mediante cables físicos o señales inalámbricas.
Hay muchos parámetros que conforman la
arquitectura de una red de área local, aquí
veremos algunos de ellos.
• Según la técnica de transmisión: redes de
difusión y redes punto a punto.
• Según método de acceso al medio: CSMA
y Token.
• Por su topología o disposición en el espacio: estrella, bus, anillo y mixtas.
Topología en estrella.
Los enlaces en la red se disponen de forma radial partiendo de un dispositivo central. Este
dispositivo radial se conoce como hub o concentrador. Cada rama de la estrella conecta al
dispositivo central con otro periférico. El hub actúa como central de comunicaciones entre los
dispositivos periféricos.
Topología en anillo
Los PC's se distribuyen alrededor de un anillo formado por el medio de transmisión . Este
anillo está formado por un pequeño repartidor llamado MAU o unidad de acceso a múltiples
estaciones. A diferencia de la topología en bus, en la que la información que un dispositivo
dejada en el medio era recibida por todos los integrantes de la red, ahora viaja a su equipo
adyacente y si no es para él se lo pasa al siguiente.
Anillo token
En esta conexión, los nodos están conectados como en la topología anillo y usan un frame de
3 bytes que recorre el anillo y que se conoce como token (o testigo). Este token ayuda a
comprobar si los nodos desean enviar información.

Árbol
Esta conexión se puede ver como una combinación de topologías de estrellas, pero no tienen
un nodo central, sino uno troncal (conocido como hub o switch) desde el cual salen las
ramificaciones de los nodos.

Ventajas e inconvenientes: La de árbol y la de estrella son muy flexibles y económicas pero


la señal puede sufrir una atenuación si la red es extensa. La de anillo sin embargo no
presenta este inconveniente pero si falla un solo dispositivo puede acabar con toda la red.
Topología en Bus
En la topología en bus, al contrario que en la topología de Estrella, no existe un nodo central,
si no que todos los nodos que componen la red quedan unidos entre sí linealmente, uno a
continuación del otro. El cableado en bus presenta menos problemas logísticos, puesto que
no se acumulan montones de cables en torno al nodo central, como ocurriría en un disposición
en estrella. Pero, por contra, tiene la desventaja de que un fallo en una parte del cableado
detendría el sistema, total o parcialmente, en función del lugar en que se produzca. Es
además muy difícil encontrar y diagnosticar las averías que se producen en esta topología.
Debido a que en el bus la información recorre todo el bus bidireccionalmente hasta hallar su
destino, la posibilidad de interceptar la información por usuarios no autorizados es superior a
la existente en una Red en estrella debido a la modularidad que ésta posee. La red en bus
posee un retardo en la propagación de la información mínimo, debido a que los nodos de la
red no deben amplificar la señal, siendo su función pasiva respecto al tráfico de la red. Esta
pasividad de los nodos es debida más bien al método de acceso empleado que a la propia
disposición geográfica de los puestos de red. La Red en Bus necesita incluir en ambos
extremos del bus, unos dispositivos llamados terminadores, los cuales evitan los posibles
rebotes de la señal, introduciendo una impedancia característica (50 Ohm.)
Topologías híbridas
Son las más frecuentes y se derivan de la unión de topologías "puras": estrella-estrella, bus-
estrella, etc.
Malla
En esta conexión todos los nodos están conectados entre sí, lo que hace que no haya
ninguna interrupción de la comunicación entre ellos. Esta conexión continua se debe a que si,
por algún casual no se pudiera ir entre 2 nodos, la conexión se podría hacer buscando una
ruta alternativa.
¿Se pueden interconectar diversas redes?
Sí. Puede conectar la red de su casa a Internet, por ejemplo. Una LAN en su fraternidad
puede conectarse a la red de su Universidad. Un minorista puede conectar su red de cajas
registradoras con su red financiera. Dos redes similares pueden conectarse mediante un
dispositivo llamado puente, el cual simplemente transfiere los datos sin tomar en cuenta su
formato. Las redes que emplean topologías y tecnologías diferentes se conectan mediante
puertas de enlace. Una puerta de enlace (gateway) es un término genérico para cualquier
dispositivo o código de software utilizado para unir dos redes, incluso si esas redes emplean
distintos protocolos o rangos de dirección. Una puerta de enlace se puede implementar por
completo en el software, en el hardware o como una combinación de los dos. Por ejemplo, el
dispositivo utilizado para conectar la LAN de su hogar a Internet es un tipo de puerta de
enlace
VINCULOS DE RED
¿Qué es un canal de comunicaciones?
Los datos viajan de un dispositivo de red a otro por un cable o a través del aire. Un canal de
comunicaciones, o vínculo, es una ruta física o una frecuencia para la transmisión de señales.
Por ejemplo, el canal 12 de su televisión es una frecuencia específica que sirve para transmitir
datos audiovisuales desde una estación televisora. Estos datos también pueden ser
transportados por otro canal, como un cable coaxial, como parte de un sistema de TV por
cable. Los datos en una red con vínculos por cable viajan de un dispositivo a otro por los
cables como Ethernet, HomePNA y HomePlug. Las redes sin cable trasportan los datos por el
aire y eliminan la necesidad de cables, como las populares tecnologías de red inalámbrica,
como Wi-Fi y Bluetooth.
Equipos que interconectan redes.
HUB (CONCENTRADORES) Dispositivo que interconecta host dentro de una red. Es el
dispositivo de interconexión más simple que existe. Sus principales características son:
@ Se trata de un armario de conexiones donde se centralizan todas las conexiones de una
red, es decir un dispositivo con muchos puertos de entrada y salida.
@ No tiene ninguna función aparte de centralizar conexiones.
@ Se suelen utilizar para implementar topologías en estrella física, pero funcionando como
un anillo o como un bus lógico.
Hubs activos: permiten conectar nodos a distancias de hasta 609 metros, suelen tener entre 8
y 12 puertos y realizan funciones de amplificación y repetición de la señal. Los más complejos
además realizan estadísticas.
Hubs pasivos: son simples armarios de conexiones. Permiten conectar nodos a distancias de
hasta 30 metros. Generalmente suelen tener entre 8 y 12 puertos.
Repetidores.
Los repetidores son equipos que trabajan a nivel 1 de la pila OSI, es decir, repiten todas las
señales de un segmento a otro a nivel eléctrico. Se utilizan para resolver los problemas de
longitudes máximas de los segmentos de red (su función es extender una red Ethernet más
allá de un segmento). No obstante, hay que tener en cuenta que, al retransmitir todas las
señales de un segmento a otro, también retransmitirán las colisiones. Estos equipos sólo
aíslan entre los segmentos los problemas eléctricos que pudieran existir en algunos de ellos.
El número máximo de repetidores en cascada es de cuatro, pero con la condición de que los
segmentos 2 y 4 sean IRL, es decir, que no tengan ningún equipo conectado que no sean los
repetidores. En caso contrario, el número máximo es de 2, interconectando 3 segmentos de
red. El repetidor tiene dos puertas que conectan dos segmentos Ethernet por medio de
transceivers (instalando diferentes transceivers es posible interconectar dos segmentos de
diferentes medios físicos) y cables drop.Tiene como mínimo una salida Ethernet para el cable
amarillo y otra para teléfono. Con un repetidor modular se pude centralizar y estructurar todo
el cableado de un edificio, con diferentes medios, adecuados según el entorno, y las
conexiones al exterior. Un Concentrador es un equipo igual a un multiport repeater pero con
salida RJ-45. Los repetidores con buffers es la unión de dos redes por una línea serie
mediante una pareja de repetidores
Sus principales características son:
@ Conectan a nivel físico dos intranets, o dos segmentos de intranet. Hay que tener en
cuenta que cuando la distancia entre dos host es grande , la señal que viaja por la línea se
atenúa y hay que regenerarla.
@ Permiten resolver problemas de limitación de distancias en un segmento de intranet.
@ Se trata de un dispositivo que únicamente repite la señal transmitida evitando su
atenuación; de esta forma se puede ampliar la longitud del cable que soporta la red.
@ Al trabajar al nivel más bajo de la pila de protocolos obliga a que:
@ Los dos segmentos que interconecta tenga el mismo acceso al medio y trabajen con los
mismos protocolos.
@ Los dos segmentos tengan la misma dirección de red.
Puentes o Bridges.
Estos equipos se utilizan asimismo para interconectar segmentos de red, (amplía una red que
ha llegado a su máximo, ya sea por distancia o por el número de equipos) y se utilizan cuando
el tráfico no es excesivamente alto en las redes pero interesa aislar las colisiones que se
produzcan en los segmentos interconectados entre sí. Los bridges trabajan en el nivel 2 de
OSI, con direcciones físicas, por lo que filtra tráfico de un segmento a otro.
Esto lo hace de la siguiente forma: Escucha los paquetes que pasan por la red y va
configurando una tabla de direcciones físicas de equipos que tiene a un lado y otro
(generalmente tienen una tabla dinámica), de tal forma que cuando escucha en un segmento
un paquete de información que va dirigido a ese mismo segmento no lo pasa al otro, y
viceversa. No filtra los broadcasts, que son paquetes genéricos que lanzan los equipos a la
red para que algún otro les responda, aunque puede impedir el paso de determinados tipos de
broadcast. Esto es típico para solicitar las cargas de software, por ejemplo. Por tanto, al
interconectar segmentos de red con bridges, podemos tener problemas de tormentas de
broadcasts, de saturación del puente por sobrecarga de tráfico, etc.
El número máximo de puentes en cascada es de siete; no pueden existir bucles o lazos
activos, es decir, si hay caminos redundantes para ir de un equipo a otro, sólo uno de ellos
debe estar activo, mientras que el redundante debe ser de backup. Para esto, cuando se está
haciendo bridging en las redes, se usa el algoritmo de spanning-tree, mediante el cual se
deshacen los bucles de los caminos redundantes.
Protocolos de comunicaciones.
Los protocolos que se utilizan en las comunicaciones son una serie de normas que deben
aportar las siguientes funcionalidades:
• Permitir localizar un ordenador de forma inequívoca.
• Permitir realizar una conexión con otro ordenador.
• Permitir intercambiar información entre ordenadores de forma segura, independiente del tipo
de maquinas que estén conectadas (PC, Mac,AS-400...).
• Abstraer a los usuarios de los enlaces utilizados (red telefónica, radio enlaces, satélite...)
para el intercambio de información.
• Permitir liberar la conexión de forma ordenada.
Debido a la gran complejidad que conlleva la interconexión de ordenadores, se ha tenido que
dividir todos los procesos necesarios para realizar las conexiones en diferentes niveles. Cada
nivel se ha creado para dar una solución a un tipo de problema particular dentro de la
conexión. Cada nivel tendrá asociado un protocolo, el cual entenderán todas las partes que
formen parte de la conexión. Diferentes empresas han dado diferentes soluciones a la
conexión entre ordenadores, implementando diferentes familias de protocolos, y dándole
diferentes nombres (DECnet, TCP/IP, IPX/SPX, NETBEUI, etc.).
¿Qué es TCP/IP?
Cuando se habla de TCP/IP , se relaciona automáticamente como el protocolo sobre el que
funciona la red Internet . Esto , en cierta forma es cierto , ya que se le llama TCP/IP , a la
familia de protocolos que nos permite estar conectados a la red Internet . Este nombre viene
dado por los dos protocolos estrella de esta familia :
• El protocolo TCP, funciona en el nivel de transporte del modelo de referencia OSI,
proporcionando un transporte fiable de datos.
• El protocolo IP, funciona en el nivel de red del modelo OSI, que nos permite encaminar
nuestros datos hacia otras maquinas.
Pero un protocolo de comunicaciones debe solucionar una serie de problemas relacionados
con la comunicación entre ordenadores , además de los que proporciona los protocolos TCP e
IP .
¿De dónde provienen las direcciones IP?
Las direcciones IP son asignadas por los proveedores de servicios de Internet o los
administradores de un sistema. Las direcciones IP asignadas son semipermanentes y son las
mismas cada vez que usted enciende su computadora. Si utiliza una dirección IP asignada,
debe introducirla cuando configura su acceso a una red. Las direcciones IP también se
obtienen mediante DHCP (Protocolo de Configuración Dinámica de Anfitrión), un protocolo
diseñado para distribuirlas de manera automática. Casi todas las computadoras se configuran
con anticipación para recibir una dirección IP al enviar una consulta al dispositivo de red que
funciona como servidor DHCP. La dirección IP asignada por el DHCP es buena para esa
sesión. La siguiente ocasión que inicie, se le puede asignar una dirección diferente. El hecho
de que su dirección IP cambie cada vez que enciende su computadora no es un problema. En
segundo plano, su red registra su dirección IP y, a diferencia de una dirección de correo
electrónico, su dirección IP no se publica como la dirección permanente que utilizan las
personas para enviarle archivos y mensajes
Ethernet
¿Cómo funciona Ethernet? Ethernet, definida mediante la directiva IEEE 802.3, transmite al
mismo tiempo paquetes de datos a todos los dispositivos de una red. Un paquete es aceptado
solo por el dispositivo al cual va dirigido. Una parte integral de la tecnología Ethernet se basa
en el protocolo CSMA/CD (Acceso Múltiple por Percepción de Portador con Detección de
Colisiones). CSMA/CD se ocupa de las situaciones en las cuales dos dispositivos de una red
intentan transmitir paquetes al mismo tiempo. Cuando ocurre una colisión, las señales no
llegan a su destino. El protocolo CSMA/CD detecta la colisión, elimina las señales, restablece
la red y prepara la retransmisión de los datos. Los dos dispositivos esperan un tiempo
aleatorio antes de volver a transmitir, para evitar que vuelva a ocurrir una colisión.
¿Qué tan rápida es una red Ethernet? El estándar Ethernet original transportaba datos por
una topología de bus con cable coaxial a 10 Mbps. En la actualidad, Ethernet abarca una
familia de tecnologías LAN que ofrece velocidades de transmisión por cables dispuestos en
una topología de bus o de estrella. De las variaciones de Ethernet, Fast Ethernet, que en la
actualidad funciona a 100 Mbps, es la más popular para las LANs de pequeñas a medianas,
como las que se encuentran en los hogares y las empresas pequeñas. Gigabit Ethernet, con
velocidades de 1000 Mbps, se vuelve popular conforme disminuyen los precios del equipo.
¿Por qué es tan popular Ethernet? A pesar de desafíos de la competencia de otras
tecnologías, Ethernet se ha destacado como la tecnología LAN más destacada. Se utiliza en
un alto porcentaje de las LANs en todo el mundo. El éxito de Ethernet se puede atribuir a
varios factores: *Las redes Ethernet son fáciles de comprender, implementar, controlar y
mantener. *Como tecnología no patentada, varios fabricantes ofrecen equipo Ethernet y la
competencia en el mercado mantiene los precios bajos. *Los estándares Ethernet actuales
permiten gran flexibilidad en la topología de una red para satisfacer las necesidades de
instalaciones pequeñas y grandes. *Ethernet es compatible con las populares redes
inalámbricas Wi-Fi, de modo que es fácil combinar dispositivos con cables e inalámbricos en
una sola red.
Evolución de las Redes Ethernet: Hacia el GigaEthernet.
Con el rápido crecimiento en poder de procesamiento en servidores y estaciones de trabajo, la
proliferación de aplicaciones que demandan gran ancho de banda, y el crecimiento explosivo
en redes de área local, provoca que muchos gestores de red se planteen urgentemente la
necesidad de más ancho de banda.
La necesidad de ancho de banda es un tema común, workgroup en grandes LANs con cientos
de usuarios enviando mails y ejecutando aplicaciones de productividad en la oficina, LANs
que necesitan ancho de banda para videoconferencia, aplicaciones multimedia, acceso a
WWW, pequeños grupos de usuarios ejecutando aplicaciones CAD y gráficas, o incluso varias
oficinas remotas compartiendo datos con una o mas servidores. Según la consultora IDC más
del 80% de las redes locales utilizan la tecnología Ethernet, por su facilidad de configuración,
gestión, precio y por el magnífico soporte ofrecido por todas las grandes compañías del
Networking como Cisco, 3Com, Bay Network, Nortell, LanTronix, por citar algunas.
REDES INALÁMBRICAS.
Una red inalámbrica transporta datos de un dispositivo a otro sin el uso de cables. Las redes
de todos tamaños, ya sean PANs, LANs o WANs, pueden emplear tecnología inalámbrica,
como señales de radio, microondas y luz infrarroja.
Clasificación de redes inalámbricas
Wireless PAN (Personal Area Network)
Se trata de una conexión inalámbrica de corto alcance entre dispositivos personales como PC,
teléfonos móviles y PDA. Un estándar común de PAN es Bluetooth, que es una tecnología
inalámbrica con un radio de corto alcance para redes de voz y datos a una velocidad de
transferencia de 1 Mbsp como máximo. Permite interconectar dispositivos electrónicos dentro
de un rango de pocos metros, para comunicar y sincronizar información. La tecnología líder en
esta área es Bluetooth.Dentro de estas redes se encuentran las siguientes:
a) Bluetooth. Es una tecnología que utiliza un rango de frecuencias de los 2,4 GHz a los 2,4835
GHz, aunque esta cambia de país en país. El ancho de banda disponible para los usuarios
consigue hasta los 10 Mbps. Es el nombre común de la especificación industrial IEEE
802.15.1, que define un estándar global de comunicación inalámbrica que posibilita la
transmisión de voz y datos entre diferentes dispositivos mediante un enlace por radio
frecuencia segura, globalmente y sin licencia de corto rango.
Los principales objetivos que se pretende conseguir con esta norma son:
• Facilitar las comunicaciones entre equipos móviles y fijos.
• Eliminar cables y conectores.
• Ofrecer la posibilidad de crear pequeñas redes inalámbricas y facilitar la sincronización de
datos entre equipos personales.
Los dispositivos que con mayor intensidad utilizan esta tecnología son los sectores de las
telecomunicaciones y la informática personal, como PDAs, teléfonos celulares, ordenadores
portátiles, PCs, impresoras y cámaras digitales. Sin embargo, la cobertura que ofrece este tipo
de dispositivos es bastante limitada, ya que se reduce a 10 metros.
b) Telecomunicaciones Inalámbrica Digital Mejorada.
DECT, Digital Enchanced Cordless Telecomunication (Telecomunicaciones Inalámbrica Digital
Mejorada). Es un estándar común para la telefonía, mensajería y transmisión de datos sin
cables. Consiste en una tecnología de radio aceptada a aflicciones de voz datos y redes en
ambientes residenciales, comerciales y públicos, con requisitos de rango de hasta algunos
cientos de metros. DECT opera utilizando señales de radio en el rango de frecuencia de 1880
a 1930 MHz. La potencia de salida de los DECT es muy baja de 0 a 0.01 watt para los
teléfonos normales y 0.01 a 12 watt apara las estaciones base fijas.
c) Infrarrojo.
Las redes de luz infrarroja están limitadas por el espacio y casi generalmente la utilizan redes
en las que las computadoras se encuentran en una sola oficina. Un ejemplo de esta
tecnología son algunos dispositivos Bluetooth que usan infrarrojo para comunicarse.
Wi-Fi.
Forma inalámbrica de implementar redes locales (“LANs”), sin requerir infraestructura física
(cableado) para dar conectividad al usuario, lo que representa una alternativa caracterizada
por su rapidez de construcción, puesta en marcha y uso.
Home RF.
Tecnología similar a la de Bluetooth, su nombre completo es Home Radio Frequency,
proporciona interconexión entre productos electrónicos de consumo dentro del hogar. Utiliza
también la misma banda de 2,4 GHz, pero no interfiere con ella gracias al método de salto de
frecuencia (protocolo de acceso inalámbrico compartido), que en este caso es de 50 saltos por
segundo, en vez del Direct Sequence empleado en otras tecnologías. La distancia que
alcanza es 50 metros. Al igual que Bluetooth, Home RF utiliza el salto de frecuencia para
evitar interferencias, admite la comunicación de datos hasta 2 Mbits/s y permite conectar
hasta un total de 127 dispositivos. Soporta comunicación de voz y datos.
Hiper LAN (High Performance Radio LAN).
Es un conjunto de la red local radiofónica de área (WLAN). Hay dos especificaciones:
HiperLAN/1 y HiperLAN/2. Ambos han sido adoptados por los Estándares europeos de
Telecomunicaciones. Los estándares de HiperLAN les proporcionan las características y las
capacidades semejantes a los estándares del IEEE 802,11 utilizado en los EE.UU.
Hiper MAN.
(High Performance Radio Metropolitan Area Networks) Hiper MAN significa Radio de Alto
Desempeño de la Red Metropolitana de Area y es un estándar creado por la ETSI, las redes
de banda ancha del acceso de la Radio proporcionan una comunicación radiofónica de la red
en el 2 - 11 bandas de GHz a través de Europa y otros países que siguen el estándar de
ETSI. HIPERMAN es una alternativa europea a WiMAX o el IEEE 802,16 uniforme.
Wireless WAN (Wide Area Network).
Es una red de computadores que abarca un área geográfica relativamente extensa,
típicamente permiten a múltiples organismos como oficinas de gobierno, universidades y otras
instituciones conectarse en una misma red. Las WWAN tradicionales hacen estas conexiones
generalmente por medio de líneas telefónicas, o líneas estáticas. A este tipo de redes
inalámbricas pertenecen las siguientes tecnologías:
a) CDMA: Es una tecnología inalámbrica digital que utiliza técnicas de expansión de espectro
para distribuir una señal a lo largo de una banda de frecuencias amplia. Las frecuencias de
operación de CMDA en PCs oscila entre los 1850 a 1990 MHz.
b) GSM: Permite la transmisión digital basada en TDMA, utiliza la idea de compartición de
tiempo que permite simultáneamente el acceso de varios usuarios. Introduce comunicaciones
de radio de banda ancha, con velocidades de acceso hasta de 2 Mbits/s.
Red Inalámbrica Punto a Punto.
Si se dispone de un bajo número de equipos distribuidos en un espacio reducido, hay
dispositivos idóneos para poner en marcha una red inalámbrica independiente. En esta red se
puede conectar un pequeño número de ordenadores de sobremesa, portátiles, PDAs,
impresoras.
Red Inalámbrica con Punto de Acceso
El diseño e instalación de la red inalámbrica es adecuada en caso de que disponga de un alto
número de equipos, o bien éstos se encuentren distribuidos en un edificio o en un espacio
amplio. La red inalámbrica dispondrá de un Punto de Acceso que controlará el tráfico entre los
dispositivos inalámbricos.
Redes Inalámbricas Interconectadas
Dado que el alcance de una única red inalámbrica es limitado, el utilizar varias redes
inalámbricas conectadas entre sí permite ampliar la distancia a la que funcionarán los equipos
inalámbricos.
Red Inalámbrica Integrada con Red Cableada
A la hora de crear una red inalámbrica, o modificar la ya existente, para permitir la conexión de
sus usuarios con la red cableada del edificio. Para ello utilizamos un Punto de Acceso, que
actuaría como puente entre ambas redes, siendo la conexión entre ellas transparente para los
usuarios.
4.2 TECNOLOGÍAS DE INTERNET
INTERNET
Internet, una red global de redes, es un sistema notablemente complejo desde el punto de
vista técnico, construido a partir de las contribuciones creativas de científicos de todo el mundo
a partir de la década de 1950 y hasta el presente. A lo largo de su evolución, Internet y otras
redes han sido impulsadas por gobiernos, investigadores, educadores e individuos en general
como herramientas para satisfacer un gran número de necesidades de la población. La
combinación de políticas estatales e improvisaciones de base (a escala local) ha dado lugar a
beneficios sociales que incluyen el acceso generalizado a ordenadores y a información, una
colaboración más estrecha entre científicos, crecimiento económico, formación de
comunidades virtuales y una mayor capacidad para mantener lazos sociales a larga distancia;
también a la democratización de los contenidos creativos y al activismo político y social en
línea. El rápido crecimiento de Internet también ha generado crisis técnicas, tales como la
congestión y la escasez de dominios, así como dilemas sociales, incluidas actividades ilegales
o malintencionadas, y continuas discriminaciones digitales basadas en diferencias de ingresos,
procedencia, edad, sexo y educación. Estos problemas siguen requiriendo soluciones
creativas por parte de científicos, legisladores y ciudadanos.

Del desarrollo técnico de Internet hay varios aspectos a destacar. En primer lugar, desde 1950
hasta el presente se ha producido un aumento continuado en el volumen de las redes de datos
y en la variedad de servicios que éstas ofrecen. El rápido crecimiento y la diversidad han
obligado a los diseñadores de redes a superar incompatibilidades entre sistemas y
componentes informáticos, a gestionar el tráfico de datos para prevenir la congestión y el caos
y a llegar a acuerdos internaciones sobre estándares técnicos. Estos desafíos han cristalizado
en logros fundamentales en áreas de investigación tales como sistemas operativos y la teoría
de colas (modelo matemático para el estudio de fenómenos de espera). Una segunda
tendencia ha sido el diseño de funciones de las redes en forma de capas de enlace, cada una
de las cuales se comporta según un protocolo estándar (una serie de normas para interacción
implementada en software o en hardware). Este diseño por capas reduce la complejidad del
sistema de redes y minimiza el grado de estandarización necesario para su funcionamiento, lo
que facilita que las redes puedan unirse a Internet. Un tercer e importante rasgo del desarrollo
técnico de Internet ha sido un proceso de diseño inusualmente descentralizado y participativo.
Ello ha abierto el sistema a innovaciones procedentes de una variedad de fuentes y ha
fomentado la colaboración informal desde todas las zonas de planeta. En los siguientes
apartados se describen algunos de los hitos principales en la evolución de Internet y sus
predecesoras.

LOS INICIOS: PRIMEROS TERMINALES EN REDES


Las primeras computadoras electrónicas digitales, inventadas durante la Segunda Guerra
Mundial y comercializadas inmediatamente después, eran máquinas solitarias; no estaban
diseñadas para interactuar con sus usuarios ni con otras computadoras. Al cabo de unos
pocos años, sin embargo, los ingenieros informáticos comenzaron a experimentar con
maneras de acceder a distancia a los ordenadores o de transmitir datos de una máquina a
otra. Las redes de datos de la década de 1950 y principios de la de 1960 eran sistemas
concebidos para conectar terminales a ordenadores, antes que ordenadores entre sí. Los
experimentos realizados con terminales en red resultaron ser un área de investigación llena de
desafíos para los científicos, pero también una respuesta a la realidad política y económica del
momento, marcada por la Guerra Fría y por el crecimiento global de la economía, los
transportes y las comunicaciones.
La ciencia informática en Estados Unidos fue en gran parte una creación del ejército y reflejaba
la rivalidad del país con la URSS. Así por ejemplo, un importante avance estadounidense en la
década de 1950 fue el proyecto SAGE (un sistema informatizado de alerta temprana de
detección de misiles enemigos). Cada centro SAGE tenía un ordenador IBM que recibía datos
por medio de líneas telefónicas conectadas a instalaciones de radar y bases militares. Una de
las tecnologías clave desarrolladas por los laboratorios Bell AT&T para SAGE fue el módem,
que sirve para convertir datos informáticos digitales en señales analógicas que pueden
enviarse por la red telefónica. AT&T empezó a comercializar los módems en 1958 y durante
varias décadas éstos fueron el principal acceso en red para el usuario común.

La demanda de terminales en red se vio impulsada por otro hito tecnológico de principios de la
década de 1960: los sistemas operativos de tiempo compartido. Inventados de forma
independiente en 1959 por Christopher Stratchey en Gran Bretaña y por John McCarthy en
Estados Unidos, los sistemas operativos de tiempo compartido permitían que múltiples
usuarios operaran con programas distintos en un solo ordenador y de forma simultánea.
Debido a que el coste del ordenador podía repartirse entre varios usuarios, el sistema de
tiempo compartido permitía a individuos usar un ordenador de forma interactiva durante largos
periodos de tiempo, en lugar de estar limitados a operar con un solo programa, y también a
recibir los resultados de forma inmediata. Los servicios comerciales de tiempo compartido se
aprovecharon de este ahorro para proporcionar acceso informático a precios asequibles a gran
cantidad de clientes del mundo académico y de los negocios. A mediados de la década de
1960 los servicios comerciales de tiempo compartido ya estaban desarrollando sus propias
redes de datos con objeto de ofrecer a sus clientes acceso a bajo coste a sus ordenadores.

El capitalismo global y el crecimiento de los sistemas de transporte y comunicaciones dieron


impulso a la creación de terminales de redes comerciales y de gran escala. A principios de la
década de 1960 las industrias que manejan gran cantidad de datos, tales como la aviación o
las compañías financieras, empezaron a desarrollar redes conjuntas que permitieran a
distintas empresas compartir información. Por ejemplo, a principios de los sesenta American
Airlines e IBM crearon SABRE, un sistema de reservas en línea (basado en el proyecto de IBM
para SAGE), el cual conectaba 2.000 terminales de Estados Unidos a un ordenador central. De
manera similar, el NASDAQ o Asociación Nacional de Cotización Automatizada de Operadores
de Valores de Estados Unidos, creó una red para cotizaciones de acciones en 1970. En un
ejemplo temprano de la colaboración internacional en redes informáticas, una cooperativa de
líneas aéreas llamada SITA (Société Internationale de Télécommunications Aéronautiques)
construyó una red en 1969 empleando la técnica de conmutación de paquetes o packet
switching (véase más adelante). La red de SITA gestionaba el tráfico aéreo de 175 compañías
a través de centros informáticos situados en Ámsterdam, Bruselas, Fráncfort, Hong Kong,
Londres, Madrid, Nueva York, París y Roma (SITA 2006). Dichas redes comerciales y
financieras contribuyeron a acelerar la globalización de la economía.

REDES DE INVESTIGACIÓN

Las redes de terminales se basaban en un modelo radial (hub-and-spoke) relativamente simple


que conectaba a numerosos usuarios a un solo ordenador central. Entre finales de la década
de 1960 y finales de la de 1970 ingenieros informáticos desarrollaron nuevas redes más
complejas que conectaban múltiples ordenadores entre sí. Al experimentar con nuevas
tecnologías, los investigadores buscaban romper las barreras que entrañaba compartir datos
entre ordenadores con sistemas operativos distintos. Los científicos y sus patrocinadores —los
gobiernos— vieron una triple promesa en la creación de redes informáticas: la capacidad de
compartir ordenadores escasos y costosos, lo que aumentaría el acceso al tiempo que reducía
los gastos; la posibilidad de compartir datos y trabajar en colaboración con colegas de otros
lugares y la oportunidad de progresar en la teoría y la práctica del uso de los aparatos.

Tres de las primeras redes de investigación más importantes fueron ARPANET (Estados
Unidos, 1969), la NPL Mark I (Gran Bretaña, 1969) y CYCLADES (Francia, 1972). Una de las
innovaciones clave de estas redes experimentales fue una técnica de comunicación llamada
packet switching o conmutación de o por paquetes. Hasta entonces los sistemas de
comunicación existentes, como el teléfono o las terminales de redes, tenían circuitos
establecidos entre las dos terminales de la conexión. Por el contrario, una red de conmutación
por paquetes divide los datos de manera que puedan ser transmitidos en pequeñas unidades
llamadas «paquetes» que son enviadas de forma individual, compartiendo los circuitos en red
con otras conexiones. La conmutación por paquetes permite utilizar los nexos de comunicación
de manera más eficaz, con el consiguiente ahorro económico. Además, los paquetes de una
misma conexión pueden enviarse a su destino por rutas diferentes, haciendo posible distribuir
el tráfico en múltiples vías o reaccionar a una interrupción en el funcionamiento de parte de
una red redirigiendo el tráfico a otra. El concepto de conmutación por paquetes fue inventado
de forma independiente a principios de la década de 1960 por Paul Baran en Estados Unidos y
Donald Davies en Gran Bretaña. Davies puso la técnica en práctica en la red de un nodo Mark
I en el National Physical Laboratory. En Estados Unidos, la agencia DARPA (siglas de Defense
Advanced Research Projects Agency, Agencia para proyectos de investigación de defensa
avanzados) patrocinó la primera gran red de conmutación por paquetes: ARPANET. Uno de
los teóricos que participó en este proyecto fue Leonard Kleinrock, responsable del desarrollo
de algunos de los primeros métodos de análisis del comportamiento de las redes de
conmutación por paquetes. En Francia, Louis Pouzin fue pionero de la red sin conexiones o en
la red de conmutación de paquetes con datagramas CYCLADES. Las redes de datagramas
eran más sencillas que las que funcionaban por conexiones, como ARPANET, y esta sencillez
hacía más factible interconectar redes diferentes, lo que supuso un importante paso en el
desarrollo de una Internet global. Tal y como lo explica Pouzin: «Cuanto más sofisticada es
una red, menos probable es que sea compatible con otra» (Pouzin 1975). Experimentos
realizados con internetworking (conexión de múltiples redes) ya se estaban llevando a cabo a
principios de la década de 1970. Por ejemplo, la red NPL se conectó a CYCLADES en 1974, y
en 1976 ambas se conectaron a la nueva Red Informática Europea o EIN, desarrollada a partir
de un grupo de estudio de ciencia y tecnología de la entonces Comunidad Económica
Europea, el cual recomendaba la creación de una red multinacional que ayudara a los países
miembros a compartir recursos informáticos y promover la investigación en la ciencia
informática. En 1976 EIN proporcionaba servicios de red a diez países, con nodos en Italia,
Francia, Suiza y Gran Bretaña (Laws y Hathaway 1978). La convergencia de los sistemas de
redes reflejaba así la convergencia entre Estados cooperantes.

Además de la conmutación por paquetes, ARPANET puso en marcha una serie de técnicas
experimentales. Dicha red conectaba a investigadores de Estados Unidos que trabajaban en
campos tales como tiempo compartido, inteligencia artificial y gráficos. Gracias a lo generoso
de las ayudas estatales y a la abundancia de talentos implicados en el proyecto, los
diseñadores de ARPANET pudieron experimentar con técnicas prometedoras, aunque
extraordinariamente complejas. Por ejemplo, en lugar de limitar la red a una sola clase de
ordenador, ARPANET incluía variedad de computadoras muy diversas entre sí. Esto impulsó a
un equipo de especialistas en informática, estudiantes de posgrado e ingenieros industriales a
buscar nuevas maneras de resolver las incompatibilidades entre ordenadores, y su esfuerzo
facilitó en gran medida la creación de la nueva generación de redes informáticas. ARPANET
también estaba dotada de una topología distribuida, es decir, que constaba de numerosos
nodos con múltiples interconexiones, en lugar de un único nodo central. Las comunicaciones
distribuidas, descritas por primera vez por Baran en 1964, permitían expandir la carga de
información e incrementar potencialmente la fiabilidad, creando múltiples caminos entre dos
ordenadores cualesquiera. Sin embargo, la adopción de esta técnica experimental incrementó
en gran medida la complejidad del sistema de enrutamiento y forzó a los creadores de
ARPANET a analizar y gestionar tipos de comportamiento en red hasta entonces
desconocidos. En lo que resultó ser otro paso arriesgado, el diseño en red requería que las
operaciones de enrutamiento se descentralizaran y volvieran adaptativas: es decir, cada nodo
tomaría sus decisiones de enrutamiento de forma independiente y modificaría su
comportamiento dependiendo de las condiciones de tráfico de información o de la
configuración de la red (por ejemplo, si un nodo adyacente se volvía inoperativo). El diseño
descentralizado de ARPANET y su enrutamiento autónomo hacían más difícil analizar el
comportamiento en red; al mismo tiempo, estas técnicas contribuirían al futuro éxito de
Internet porque permitían que la red creciera sin las limitaciones inherentes a un cuello de
botella central. Una de las características más novedosas del proyecto ARPANET no era de
tipo técnico, sino organizacional: un proceso de toma de decisiones descentralizado e
informal. El desarrollo del software para esta red se debió a un equipo de investigadores y
estudiantes llamado Network Working Group (Grupo de trabajo para la red). Cualquier
miembro del grupo era libre de sugerir una nueva técnica haciendo circular un boletín de
sugerencias; después de un periodo de debate y experimentación, la sugerencia era
modificada, abandonada o adoptada por consenso como un nuevo estándar para la red. Este
modelo colaborativo sigue empleándose en Internet (Bradner 1996) y ha ayudado al sistema a
crecer y adaptarse, al fomentar el debate de ideas y la participación libre en su desarrollo
técnico.
La aplicación de más éxito de las primeras redes experimentales fue con mucho el correo
electrónico, cuyo uso se implementó a principios de la década de 1970. La popularidad del
mismo fue una sorpresa para los creadores de ARPANET, que habían esperado que las redes
dedicadas a la investigación se centraran en aplicaciones más sofisticadas y dedicadas a la
computación pura y dura, tales como las matemáticas o el diseño de gráficos. Aunque el e-
mail se adoptó en parte por su facilidad de uso, su popularidad también ponía de manifiesto la
admisión de que la investigación científica dependía de la colaboración humana tanto como
del acceso a las máquinas. El correo electrónico resultó ser una oportunidad sin precedentes
para la interacción continuada entre colegas geográficamente distantes entre sí.

Aunque no eran accesibles al público en general, las primeras redes de investigación fueron
más allá de proporcionar acceso informático a un reducido número de científicos. También
aportaron soluciones a los formidables obstáculos técnicos y establecieron herramientas
cruciales para innovaciones futuras, incluidas técnicas estandarizadas y una comunidad de
investigadores e ingenieros con experiencia en el trabajo en red (Quarterman 1990).
Asimismo, los esfuerzos tempranos por construir redes multinacionales y redes de redes
sentaron los cimientos para la cooperación global, sin la cual no existiría Internet tal y como lo
conocemos hoy.

EXPANSIÓN CRECIENTE: REDES PATENTADAS, PÚBLICAS Y DE BASE

Mediada la década de 1970, la aparición de redes de investigación coincidió con otras tres
tendencias: los sistemas de redes patentados que ofrecían los fabricantes de ordenadores; las
redes de datos públicos desarrolladas por las empresas de telecomunicaciones o PTT y las
redes de base, desarrolladas por individuos y a bajo coste. Compañías como IBM habían
proporcionado infraestructuras limitadas de redes informáticas desde la década de 1960, pero
una vez que la investigación demostró la viabilidad de la conmutación por paquetes, las
empresas informáticas empezaron a ofrecer sus propias tecnologías de packet switching. Los
sistemas más utilizados incluían el Systems Network Architecture de IBM (SNA), Arquitectura
de Red de Sistemas, (lanzado en 1974), el Xerox Network Services (1975) y el Digital
Equipment Corporation o DECNET (1975). A diferencia de las redes de investigación, estos
sistemas patentados tenían múltiples aplicaciones corporativas. Permitían la diversificación
geográfica de las áreas de negocio —ya que las operaciones realizadas en las sucursales
tenían acceso a los datos necesarios para operar de forma independiente— y una mayor
centralización, porque los datos procedentes de operaciones lejanas podían ser supervisados
desde las oficinas centrales. De este modo el uso de redes informáticas reflejaba e
intensificaba la tendencia hacia una economía globalizadora que se aceleró a partir de 1980.

Aunque los sistemas patentados proporcionaban un servicio fundamental a organizaciones


que trabajaban con muchos ordenadores de un solo fabricante, por lo general no eran
compatibles con los de otros fabricantes. Ello podía suponer un problema dentro de una única
organización y ciertamente un obstáculo para la creación de una red nacional o internacional.
Además, estos sistemas patentados estaban controlados por corporaciones privadas y no se
adherían a los estándares técnicos públicamente establecidos. Esto era una importante fuente
de preocupación fuera de Estados Unidos, donde se concentraban los grandes fabricantes de
ordenadores. Para proporcionar una alternativa, en 1974-1975 los operadores de
comunicaciones nacionales de Europa, Canadá y Japón anunciaron planes para construir
redes de datos que estuvieran al alcance de cualquier usuario independientemente de la
marca de su ordenador.

Las PTT, inspiradas en el modelo del teléfono, ofrecían no sólo acceso universal sino también
conexiones internacionales. Al darse cuenta de que ello requeriría llegar a un acuerdo en
cuanto al protocolo de red a utilizar, en 1975-1976 el Comité Consultor sobre Telegrafía y
Telefonía Internacional del Sindicato Internacional de Telecomunicaciones desarrolló un
protocolo estándar de conmutación de paquetes llamado X.25, que proporcionaba una
conexión fiable, conocida como circuito virtual, entre dos puntos de una red, permitiendo a los
usuarios de las distintas terminales acceder a recursos en línea sin necesidad de instalar un
complejo software específico. Entre los primeros en adoptar este nuevo protocolo figuran la
red Datapac de Canadá (1977), Transpac en Francia (1978), DDX de Japón (1979), el PSS de
la compañía de correos estatal británica (1980) y la multinacional Euronet (1979). Aunque el
X.25 fue más tarde reemplazado por otras tecnologías tales como la transmisión de tramas o
frame relay, proporcionó la base para el rápido desarrollo de redes públicas en todo el mundo
y solucionó el caos que suponía el empleo de estándares incompatibles entre sí. Otro
influyente esfuerzo de estandarización ocurrido a finales de la década de 1970 fue el modelo
de Interconexión de sistemas abiertos (Open Systems Interconnection) creado por la OSI
(Organización Internacional de Estándares). Dicho modelo definía las funciones de siete
modelos de proceso, desde conexiones básicas entre hardware a aplicaciones de alto nivel e
interfaces de usuario. Aunque estos estándares fueron muy debatidos (Abbate 1999), la
adopción de un modelo común ayudó a ingenieros informáticos y a fabricantes a dar un paso
más en la dirección del desarrollo de sistemas de red totalmente compatibles.

Las redes públicas de datos supusieron el primer acceso online para gran parte de la
población mundial. También patrocinaron nuevos tipos de contenido y servicios que hacían las
redes útiles para los usuarios en general, no sólo técnicos. Por ejemplo, a principios de la
década de 1980 France Telecom difundió ampliamente el uso de su red Transpac al ofrecer el
innovador servicio Minitel: una terminal gratuita que se daba a los usuarios en lugar de un
directorio de teléfonos con acceso también gratuito a una guía de teléfonos online y una
variedad de servicios de pago. Minitel permaneció en uso durante casi tres décadas y dio
servicio a casi la mitad de la población francesa. Al gestionarse los pagos mediante la
compañía telefónica, fue uno de los primeros gestores de comercio electrónico, incluyendo
reservas de avión y tren, compra al pormenor, gestiones bancarias y de bolsa, servicios de
información y tablones de anuncios (McGrath 2004).

El desarrollo de redes públicas de datos puso de manifiesto una conciencia emergente —tanto
por parte de usuarios individuales como a nivel estatal— de que el acceso a las
comunicaciones informáticas era un bien de interés común, un recurso necesario para el
ciudadano del siglo xxi. En el cumplimiento de esta misión las redes públicas de datos se
vieron complementadas por la tercera tendencia que se dio en este periodo: las redes de base
improvisadas. Estas redes de bajo coste utilizaban software existente para intercambiar
correos y listas de debate entre una comunidad informal de usuarios. Las más conocidas eran
USENET, establecida en 1979 y que empleaba protocolos UNIX, y BITNET, creada en 1981
con protocolos IBM. Dichas redes desempeñaron un papel importante a la hora de comunicar
entre sí a personas sin acceso a la infraestructura formal de redes.

DISEÑANDO INTERNET

¿Cómo fue que estos sistemas tan dispares de comunicación de datos se unieron en la red
global que hoy llamamos Internet? Aunque en los años setenta del siglo pasado ya se
establecieron algunas conexiones entre redes, las incompatibilidades de diseño limitaban sus
servicios al intercambio de correos y noticias. Las tecnologías que permiten que un amplio
abanico de servicios en red sea compartido por sistemas distintos surgieron del deseo de
conectar ARPANET con dos nuevas redes que ésta había construido y que extendían la
conmutación de paquetes a las comunicaciones por radio y satélite. Puesto que estos medios
de comunicación no tenían las mismas características técnicas que las líneas telefónicas —las
conexiones por radio no eran fiables; los satélites introducían el elemento retardo— las
técnicas existentes tales como los protocolos X.25 o el original de ARPANET no servían. Por
tanto, a principios de 1970 DARPA puso en marcha un Programa de Internet para desarrollar
una solución exhaustiva a estos problemas de comunicación.

Otro avance técnico que ayudó a encauzar la demanda para comunicación entre redes fueron
las LAN o redes locales de área. Ethernet, la más influyente de todas, la inventó en 1973
Robert Metcalfe a partir de una existente llamada Alohanet, creada a su vez por Norman
Abramson, Frank Kuo y Richard Binder (Metcalfe 1996; Abramson 1970). Ethernet y Alohanet
fueron pioneras de una técnica denominada random access o acceso aleatorio, que permitía a
múltiples usuarios compartir un canal de comunicación sin necesidad de emplear complejos
sistemas de enrutamiento (1). La sencillez del diseño de acceso aleatorio acercó las redes de
área local a un gran número de usuarios. Ethernet se estandarizó y comercializó a principios
de los ochenta y pronto se adoptó en universidades, negocios y otras organizaciones. Otros
sistemas populares LAN fueron las redes token ring, con topología de anillo, inventadas por
investigadores de IBM en Zúrich y comercializadas en 1985. La popularidad de las LAN
promovió la creación de muchas redes nuevas que podían, en principio, conectarse entre sí;
pero, al igual que las redes por conmutación de paquetes, estos sistemas de acceso aleatorio
no garantizaban una conexión fiable y por tanto no funcionaban bien con los protocolos
existentes. Era necesario desarrollar un nuevo sistema.

El proyecto Internet estuvo dirigido por Vinton Cerf y Robert Kahn con la colaboración de
ingenieros informáticos de todo el mundo. Además de investigadores estadounidenses del
DARPA, Stanford, la Universidad del Sur de California, la Universidad de Hawai, BBN y el
PARC de Xerox, Cerf y Kahn contaron con el asesoramiento de expertos en redes del
University College London, los grupos NPL y CYLADES y el International Network Working
Group o INWG (Cerf 1990). Este último se había fundado en 1972 e incluía representantes de
muchas PTT nacionales que trabajaban en el desarrollo de redes de conmutación por
paquetes. Al compartir preocupaciones e ideas, este equipo fue capaz de diseñar un sistema
que respondería a las necesidades de usuarios con infraestructuras y necesidades diversas.

La arquitectura de Internet constaba de dos elementos principales. El primero era un conjunto


de protocolos llamado TCP/IP (siglas de Transmision Control Protocol, Protocolo de control de
transmisiones y de Internet Protocol, Protocolo para Internet, respectivamente) (Cerf y Kahn
1974).2 El TCP era un ejemplo de protocolo anfitrión, cuya función es establecer y mantener
la conexión entre dos ordenadores (anfitriones) dentro de una red. La idea detrás de TCP era
que el protocolo anfitrión garantizara una conexión fiable entre anfitriones incluso si éstos
estaban conectados por una red no fiable, por ejemplo de radiopaquete o el sistema Ethernet.
Al reducir los requerimientos de fiabilidad de la red, el uso del protocolo TCP abrió Internet a
muchas más redes. Con el fin de asegurar conexiones de confianza, TCP estaba diseñado
para verificar la llegada en perfectas condiciones de los paquetes, empleando mensajes de
confirmación llamados asentimientos (aknowledgedments); para compensar errores
retransmitiendo paquetes perdidos o dañados y para controlar el flujo de datos entre
anfitriones limitando el número de paquetes en tránsito. Por el contrario, el Internet Protocol
realizaba un conjunto de tareas mucho más sencillas que permitían a los paquetes pasar de
una máquina a otra conforme circulaban por la red. IP se convirtió en el lenguaje común de
Internet, el único protocolo requerido para cualquier red que quisiera unirse a ella: las redes
miembro tenían libertad para escoger entre múltiples protocolos para otras capas del sistema
(aunque en la práctica la mayoría terminó por adoptar TCP como protocolo anfitrión). En tanto
reflejo de la diversidad de necesidades y preferencias de los expertos que participaron en su
diseño, la arquitectura de Internet favorecía la variedad y la autonomía entre sus redes
miembro.

El segundo elemento creativo fue el uso de ordenadores especiales llamados puertas de


acceso o gateways a modo de interfaz entre redes diferentes (Cerf 1979). En la actualidad se
conocen como router y, tal y como su nombre indica, su función es determinar la ruta que los
paquetes deben seguir para pasar de una red a otra. Una red dirige paquetes no locales a una
puerta de acceso cercana, la cual a su vez los envía a su red de destino. Al repartir la tarea de
enrutamiento entre distintas redes y gateways, esta arquitectura hacía más fácil el crecimiento
de Internet: las redes individuales ya no necesitaban conocer la topología de toda la red, tan
sólo saber cómo llegar a la puerta de acceso más cercana; a su vez, las puertas de acceso no
precisaban ser capaces de llegar a todas las redes dentro de Internet, únicamente a los
anfitriones individuales dentro de una red.

Otro invento notable que contribuyó a hacer más manejable el crecimiento a escala global de
Internet fue el Sistema de nombres por dominio o Domain Name System, creado en 1985 por
Paul Mockapetris (Cerf 993; Leiner et al. 1997). Uno de los retos de la comunicación en una
red de gran tamaño es que por lo general pasa por conocer la dirección del ordenador de
destino. Mientras que los seres humanos suelen referirse a los ordenadores con nombres
(como «Darpa»), los ordenadores que forman parte de la red se identifican unos a otros
mediante direcciones numéricas. En la ARPANET originaria los nombres y direcciones de
todos los ordenadores, excepto los anfitriones, se guardaban en un gran archivo que tenía
que ser constantemente actualizado y distribuido a todos los anfitriones. Claramente este
mecanismo no estaba a la altura de una red de miles e incluso millones de ordenadores. El
Sistema de nombres por dominio descentralizó la tarea de localizar direcciones creando
grupos de nombres conocidos como dominios (tales como .com o .org) y ordenadores
especiales llamados servidores de nombres, encargados de mantener bases de datos con las
direcciones correspondientes a cada nombre de dominio. Para encontrar una dirección el
anfitrión únicamente debía introducir sus términos de búsqueda en el servidor apropiado. El
nuevo sistema también permitía descentralizar la autoridad para asignar nombres de manera
que, por ejemplo, cada país pudiera controlar su propio dominio.

LA WORLD WIDE WEB Y OTRAS APLICACIONES

La arquitectura de Internet hizo posible construir una infraestructura mundial de datos, pero no
se ocupaba directamente del asunto de los contenidos. En la década de 1980 casi todos los
contenidos de Internet eran puro texto. Era relativamente difícil para los usuarios localizar la
información deseada; para ello debían conocer de antemano la dirección del sitio que
contenía los datos, puesto que no existían motores de búsqueda ni vínculos entre distintos
sitios. La gran innovación que vino a transformar la manera en que los contenidos de Internet
son creados, presentados y encontrados fue la World Wide Web.

La World Wide Web fue la creación de Tim Berners-Lee, un investigador británico del CERN,
el laboratorio internacional de Física de Ginebra. Éste imaginó el futuro de Internet como un
espacio colaborativo en el que las personas pudieran compartir información de todo tipo. En el
modelo que propuso, los usuarios podían crear páginas de contenidos en ordenadores
llamados servidores web, y las páginas web podían verse mediante un programa llamado
browser. La Web tendría capacidad para manejar información multimedia además de texto y
las páginas web podrían conectarse entre sí mediante hipervínculos, de forma que los
usuarios pudieran navegar entre sitios basándose en contenidos relacionados entre ideas de
diferentes páginas. Esto crearía una red de conexiones basadas en contenidos en lugar de en
infraes

tructura. Berners-Lee formuló sus ideas en 1989 y en 1990 creó, junto a su colaborador
Robert Cailliau, la primera versión operativa de la Web. Los soportes técnicos del nuevo
sistema incluían html (lenguaje de marcas de hipertexto, empleado para crear páginas web),
http (protocolo de transferencia de hipertexto, para transmitir datos de las páginas web) y el url
(localizador uniforme de recursos, una forma de indicar la dirección de una página web
determinada).
El uso de la Web se popularizó entre los físicos del CERN, quienes lo extendieron a otros
sitios de investigación. En uno de ellos, el US National Center for Supercomputer Applications
(NCSA), Marc Andreessen capitaneó el desarrollo de un buscador mejorado llamado Mosaic
en 1993. El Mosaic funcionaba tanto en ordenadores personales como en aparatos más
grandes y el NCSA lo cargó de forma gratuita en Internet, lo que provocó un interés creciente
en la Web. En 1994 se calculaba que había al menos un millón de copias de Mosaic en uso
(Schatz y Hardin 1994).
Los hipervínculos de la Web se diseñaron para resolver un persistente problema para los
usuarios de Internet: cómo encontrar información dentro de un sistema tan grande. Con el fin
de resolverlo, en la década de 1990 se desarrollaron varias herramientas de búsqueda. Una
de las primeras fue Archie (1990), el cual enviaba preguntas a ordenadores conectados a
Internet y reunía listados a partir de ficheros de libre acceso. Gopher (1991) era un sistema de
listado específico para la Web, mientras que Yahoo (1994) era un directorio de páginas web
organizadas por temas. El personal de Yahoo categorizaba dichas páginas de forma manual;
sin embargo, dado el gran volumen de información que se iba acumulando en la Web,
surgieron una serie de servicios que tenían por objeto automatizar las búsquedas. El más
exitoso de estos motores de búsqueda fue Google (1998). Estas herramientas transformaron
la forma en que los usuarios localizaban información en la Web, al permitirles buscar
información sobre un tema en particular en un gran número de fuentes, en lugar de tener que
conocer de antemano cuáles de éstas podrían contener información relevante.

Al igual que Internet, la Web se diseñó para ser flexible, expandible y descentralizada, de
forma que invitara al público a desarrollar nuevas maneras de usarla. La generalización del
uso de la World Wide Web coincidió con el traspaso, en 1995, de la gestión de Internet del
gobierno al sector privado. Ello hizo desaparecer numerosas barreras para el uso comercial
de Internet y trajo consigo el auge de las empresas «punto com» en la década de 1990,
cuando se invirtieron grandes sumas de capital en proyectos de comercio electrónico. Aunque
la burbuja de las «punto com» estalló en el año 2000, el fenómeno sirvió para fomentar un
conocimiento de Internet como motor económico y no una mera innovación tecnológica a nivel
popular. La llegada del siglo xxi también trajo consigo la proliferación de los medios de
comunicación sociales, que proporcionaban nuevas formas de relacionarse y compartir
información en línea. Éstos incluían weblogs (1997), wikis (1995), file sharing (compartir
archivos, 1999), podcasting (2004) y sitios de redes sociales, así como una gran variedad de
juegos multijugador.

ACCESO FIJO A INTERNET


Uno de los aspectos más desafiantes de Internet es elegir un proveedor de servicios (ISP).
Conocerá el acceso fijo a Internet, el cual suele ser el principal vínculo con Internet. Aprenderá
a evaluar las ventajas y desventajas de las diversas opciones de acceso fijo y descubrirá por
qué quienes prefieren los juegos interactivos en línea evitan las conexiones satelitales y
prefieren el servicio por cable. Además, sabrá qué tipos de acceso a Internet funcionan mejor
para Voz por IP.
CONEXIONES DE MARCACIÓN
¿Qué es una conexión de marcación? Una conexión de marcación es una conexión fija a
Internet que emplea un módem de banda de voz y líneas telefónicas para transportar datos
entre su computadora y su ISP. Muchos ISPs, como AT&T, Worldnet, AOL y Earthlink, ofrecen
acceso mediante la marcación a Internet. El servicio suele costar menos de 10 dólares
mensuales, pero la velocidad de acceso es lenta
¿Qué es ISDN?
(Red Digital de Servicios Integrados) es un tipo de conexión fija a Internet que traslada datos a
velocidades de 64 o 128 Kbps por las líneas telefónicas comunes. La velocidad es simétrica,
de modo que obtendrá las mismas velocidades para enviar y recibir datos. El servicio se
obtiene de una compañía telefónica local o un proveedor dedicado de servicios ISDN. La
disponibilidad y el precio de ISDN varían de un lugar a otro.

Ventajas Que Aporta La RDSI.

La RDSI ofrece gran número de ventajas, entre las que se pueden destacar las siguientes:

• Velocidad: Actualmente el límite de velocidad en las comunicaciones a través de una línea


telefónicas empleando señales analógicas entre central y usuario mediante el uso de modems
está alrededor de los 56Kbps. En la práctica las velocidades se limitan a unos 45Kbps debido
a la calidad de la línea.La RDSI ofrece múltiples canales digitales que pueden operar
simultáneamente a través de la misma conexión telefónica entre central y usuario; la
tecnología digital está en la central del proveedor y en los equipos del usuario, que se
comunican ahora con señales digitales.Este esquema permite una transferencia de datos a
velocidad mucho mayor. Así, con un servicio de acceso básico, y empleando un protocolo de
agregación de canales, se puede alcanzar una velocidad de datos sin comprimir de unos 128
Kbps.Además, el tiempo necesario para establecer una comunicación en RDSI es cerca de la
mitad del tiempo empleado con una línea con señal analógica.

• Conexión de múltiples dispositivos: Con líneas analógicas resulta necesario disponer de


una línea por cada dispositivo del usuario, si estos se quieren emplear simultáneamente.
Resulta muy caro enviar datos (archivos o vídeo) mientras se mantiene una conversación
hablada. Por otra parte, se requieren diferentes interfaces para emplear diferentes dispositivos
al no existir estándares al respecto.Con la RDSI es posible combinar diferentes fuentes de
datos digitales y hacer que la información llegue al destino correcto.Como la línea es digital,
es fácil controlar el ruido y las interferencias producidos al combinar las señales. Además, las
normas de la RDSI especifican un conjunto de servicios proporcionados a través de interfaces
normalizados.
• Señalización: La forma de realizar un llamada a través de una línea analógica es enviando
una señal de tensión que hace sonar la "campana" en el teléfono destino. Esta señal se envía
por el mismo canal que las señales analógicas de sonido. Establecer la llamada de esta
manera requiere bastante tiempo. Por ejemplo, entre 30 y 60 segundos con la norma V.34
para modems.En una conexión RDSI, la llamada se establece enviando un paquete de datos
especial a través de un canal independiente de los canales para datos. Este método de
llamada se engloba dentro de una serie de opciones de control de la RDSI conocidas como
señalización, y permite establecer la llamada en un par de segundos. Además informa al
destinatario del tipo de conexión (voz o datos) y desde que número se ha llamado, y puede
ser gestionado fácilmente por equipos inteligentes como un ordenador.
• Servicios: La RDSI no se limita a ofrecer comunicaciones de voz. Ofrece otros muchos
servicios, como transmisión de datos informáticos (servicios portadores), télex, facsímil,
videoconferencia, conexión a Internet.., y opciones como llamada en espera, identidad del
origen...Los servicios portadores permiten enviar datos mediante conmutación de circuitos
(con un procedimiento de llamada se establece un camino fijo y exclusivo para transmitir lo
datos en la red, al estilo de las redes telefónicas clásicas) o mediante conmutación de
paquetes (la información a enviar se divide en paquetes de tamaño máximo que son enviados
individualmente por la red).
• Canales Y Servicios.

Canales de transmisión.

La RDSI dispone de distintos tipos de canales para el envío de datos de voz e información y
datos de control: los canales tipo B, tipo D y tipo H:

Canal B

Los canales tipo B transmiten información a 64Kbps, y se emplean para transportar cualquier
tipo de información de los usuarios, bien sean datos de voz o datos informáticos. Estos canales
no transportan información de control de la RDSI. Este tipo de canales sirve además como base
para cualquier otro tipo de canales de datos de mayor capacidad, que se obtienen por
combinación de canales tipo B.

Canal D

Los canales tipo D se utilizan principalmente para enviar información de control de la RDSI,
como es el caso de los datos necesarios para establecer una llamada o para colgar. Por ello
también se conoce un canal D como "canal de señalización". Los canales D también pueden
transportar datos cuando no se utilizan para control. Estos canales trabajan a 16Kbps o 64kbps
según el tipo de servicio contratado.

Canales H

Combinando varios canales B se obtienen canales tipo H, que también son canales para
transportar solo datos de usuario, pero a velocidades mucho mayores. Por ello se emplean para
información como audio de alta calidad o vídeo.

Hay varios tipos de canales H:

• Canales H0, que trabajan a 384Kbps (6 canales B).


• Canales H10, que trabajan a 1472Kbps (23 canales B).
• Canales H11, que trabajan a 1536Kbps (24 canales B).
• Canales H12, que trabajan a 1920Kbps (30 canales B).

Tipos De Servicio O Modos De Acceso.

Podemos dividir la RDSI en dos clases según el ancho de banda: RDSI de banda estrecha y
RDSI de banda ancha.
RDSI de banda estrecha

Los Accesos de Usuario definidos para RDSI en Banda Estrecha permiten la comunicación a
velocidades de 64 Kbps, o agrupaciones de está velocidad. Debido a la estructura de
transmisión y conmutación de la RDSI, técnicas digitales, la integridad de la información está
asegurada. Lógicamente ésta integridad, permite unas comunicaciones secretas o al menos
más inmunes a escuchas indeseadas. Por otra parte, las técnicas digitales permiten un
tratamiento de las señales de forma que la transmisión de la información no sufra degradaciones
debido a la distancia o a perturbaciones externas, ruido, asegurando de esta forma una
información más "limpia" de errores.

Es también una ventaja añadida la posibilidad de enviar pequeños mensajes en la "llamada"


para indicar situaciones especiales, envío de textos como: "Llámame en 30 minutos", permiten
al Usuario Llamado la posibilidad de devolver la llamada. La aparición de elementos como el
número de origen de la llamada, el número destino, etc., mejoran los servicios de la Red en
beneficio del Usuario.

Agregación De Canales.

La RDSI ofrece la capacidad de agregar canales para realizar conexiones a mayor velocidad.
Así, con un acceso BRI se puede establecer dos conexiones a 64Kbps o una única conexión a
128Kbps, usando siempre una única línea RDSI. En realidad, una llamada a 128Kbps son dos
llamadas diferentes a 64Kbps cada una, existiendo un protocolo por encima que permite ver
esa llamada como una sola. Lo que también quiere decir que una conexión a 128Kbps cuesta
el doble que otra de igual duración a 64Kbps. Esto es así a pesar de que, en la práctica, doblar
el ancho de banda no significa doblar la velocidad de transferencia máxima. La mejora del
rendimiento depende de la utilización que el protocolo haga del ancho de mayor banda.

Muchos fabricantes de hardware para RDSI permiten la agregación de canales utilizando


protocolos propios. De esta forma solo es posible conectar con usuarios que utilicen hardware
del mismo fabricante. Para garantizar la compatibilidad entre equipos de diversos fabricantes
es conveniente que el hardware soporte el protocolo MPPP (Multilink point to point protocol).
Además, el proveedor de la RDSI también debe ofrecer esta posibilidad.

¿Qué es DSL?

DSL (Línea de Suscriptor Digital) es una tecnología de acceso a Internet digital, de alta
velocidad y siempre activa, que funciona por las líneas telefónicas comunes. Es una de las
conexiones a Internet más rápidas y asequibles para las per sonas. Existen varias versiones
de esta tecnología, entre ellas ADSL (DSL asimétrica, donde la velocidad para recibir datos es
más rápida que para enviarlos), SDSL (DSL simétrica, misma velocidad para recibir y enviar
datos), HDSL (DSL de alta velocidad), VDSL (DSL de muy alta velocidad) y DSL light.

DSL, también conocido como línea de suscriptor digital, es el acceso a Internet de alta
velocidad que utiliza las líneas telefónicas de cobre existentes en los hogares y empresas
para transmitir datos. Este tipo de Internet de alta velocidad requiere un módem DSL, a
menos que tu computadora ya tenga un módem interno (con frecuencia denominado
módem de banda de voz). Como opción de banda ancha, DSL siempre está activado, a
diferencia de una conexión dial-up tradicional. En cuanto a velocidad se trata, los servicios
de conexión mediante DSL pueden variar desde varios cientos de kilobits por segundo
(Kbps) a millones de bits por segundo (Mbps). Sin embargo, el rendimiento disminuye con
la longitud del cable que conecta al suscriptor de DSL a la ubicación más cercana del
proveedor de servicio telefónico. Esto afecta a la disponibilidad y la velocidad general del
servicio entre DSL y cable.
Un tipo de transmisión DSL es la línea de suscriptor digital asimétrica (ADSL). Es
principalmente una opción residencial para aquellas familias que navegan por Internet y
reciben una gran cantidad de datos pero no requieren enviar muchos datos. Este tipo de
transmisión proporciona velocidades de descarga más rápidas a través de la misma línea
del servicio telefónico del suscriptor.
Otra opción de banda ancha basada en DSL es la línea de suscriptor digital simétrica
(SDSL). Este tipo de conexión es principalmente un servicio empresarial para los
suscriptores que necesitan videoconferencia y ancho de banda considerable tanto para la
carga como para la descarga de datos. Otras formas más rápidas de DSL para empresas
incluyen la línea de suscriptor digital de alta tasa de transferencia (HDSL) y la línea de
suscriptor digital de muy alta tasa de transferencia (VDSL).

SERVICIO DE INTERNET POR CABLE.

¿Qué es el Servicio de internet por cable?

El servicio de Internet por cable es un medio para distribuir un acceso de banda amplia a
Internet siempre activo por la misma infraestructura que ofrece el servicio de televisión por
cable. Las empresas de cable, locales y nacionales ofrecen el servicio de Internet por cable
mediante una suscripción mensual. De todos los servicios de Internet, en la actualidad el
Internet por cable ofrece las velocidades de acceso más rápidas.

¿Qué tan rápido funciona el servicio de Internet por cable?

En un principio, el sistema de televisión por cable fue diseñado para áreas remotas donde las
señales emitidas para televisión no eran captadas de manera aceptable por medio de una
antena. Estos sistemas se conocen como televisión con antena comunitaria o CATV. El
concepto CATV era instalar uno o más platos satelitales grandes y costosos en una comunidad,
captar las señales de las televisoras con estos platos y después enviar las señales por un
sistema de cables a las casas individuales. La topología de un sistema CATV se asemeja a la
topología física de una red de computadoras. Y es exactamente eso lo que se forma cuando su
compañía de TV por cable se convierte en su proveedor de Internet. Su computadora se vuelve
parte de una LAN unida mediante cables a la infraestructura de la TV por cable.

¿Qué tan rápido es el servicio de Internet por cable?

Casi todos los servicios de Internet por cable son asimétricos y las velocidades para enviar
datos son más bajas que las velocidades para recibirlos, porque eso desalienta a los
suscriptores y evita que instalen servidores Web públicos. Un plan de servicio para el hogar
común ofrece 6 Mbps (6000 Kbps) para recibir datos y 384 Kbps para enviarlos. Algunos planes
especiales ofrecen conexiones más rápidas de unos 30 Mbps para recepción y 2 Mpbs para
envío. Las señales de cable no son vulnerables a la interferencia ambiental, pero las
velocidades de transporte de datos son afectadas por el uso del suscriptor. El cable que
comparte con sus vecinos tiene cierta cantidad de ancho de banda. Entre más y más vecinos
utilizan el servicio, puede volverse más lento. Como analogía, considere una banda
transportadora de equipaje de un aeropuerto, la cual se mueve a una velocidad constante. Si
usted tiene tres piezas de equipaje y es el único pasajero de un avión, sus piezas llegan una
tras otra. Sin embargo, si viaja en un 747 lleno, sus piezas se mezclan con las de cientos de
pasajeros y tarda más tiempo en recuperarlas. La red de su compañía de cable transporta
paquetes a una velocidad constante. Sin embargo, si muchos de sus vecinos envían y reciben
paquetes al mismo tiempo, sus paquetes parecen viajar más lento. Los suscriptores de Internet
por cable encuentran que la velocidad de su conexión varía de manera muy notoria.

¿Qué tan seguras son las conexiones a Internet por cable?

En los primeros días del servicio de Internet por cable, algunos suscriptores recibieron la
desagradable sorpresa de abrir la opción de Red, en Windows, y ver una lista de las
computadoras de sus vecinos. Cuando usted enciende una PC, Windows se conecta
automáticamente a las LANs disponibles y busca los archivos, las carpetas y las impresoras
compartidos en las estaciones de trabajo de una LAN. Como el servicio de Internet por cable
emplea tecnología LAN, las computadoras en diferentes hogares eran tratadas como estaciones
de trabajo en una LAN compartida. En la actualidad, casi todas las empresas de cable emplean
módems de cable DOCSIS, los cuales bloquean el tráfico entre los suscriptores. DOCSIS
(Especificación de Interfaz de Datos Mediante un Servicio de Cable) es una tecnología de
transporte de datos que incluye filtros de seguridad. DOCSIS protege a su computadora de sus
vecinos, pero no cierra todos los huecos en la seguridad abiertos cuando usted utiliza una
conexión siempre activa.

¿Cuál es más rápido, DSL o cable?


Cuando se trata de la conexión por cable vs. la conexión DSL para el acceso a Internet, las
velocidades pueden variar según la hora del día y el uso general del suscriptor. En un
estudio de pruebas de velocidad, los investigadores encontraron una marcada diferencia
entre las velocidades anunciadas y velocidades sostenibles. Los servicios basados en DSL
mostraron velocidades de descarga que eran el 85 por ciento de las velocidades
anunciadas, mientras que los servicios basados en cable proporcionaban el 99 por ciento
de las velocidades anunciadas. Lo cierto es que las velocidades de DSL y cable son
relativamente similares, pero el servicio por cable ofrece velocidades más rápidas. Ambas
son opciones de alta velocidad que pueden ayudar a mantener a tu familia conectada para
que puedan hacer más de lo que aman en línea, como descargar archivos con buenas
velocidades de descarga (y carga), hacer streaming de sus programas favoritos y más.

SERVICIO DE INTERNET VÍA SATÉLITE.

¿Qué es el servicio de internet vía satélite?

Casi todas las personas conocen los servicios que ofrecen acceso a programas de televisión
mediante un plato satelital personal. Muchas compañías que ofrecen TV vía satélite también
ofrecen acceso a Internet. El servicio de Internet vía satélite es un medio para distribuir un
acceso a Internet asimétrico de alta velocidad siempre activo al emitir señales desde y hacía un
plato satelital personal. En muchas áreas rurales, el servicio de Internet vía satélite es la única
alternativa cuando no hay una conexión de marcado.

¿Cómo funciona el servicio de Internet vía satélite? El servicio de Internet vía satélite emplea
un satélite geoestacionario para transmitir los datos de la computadora directamente hacia y
desde un plato satelital propiedad de una persona. De todos los servicios de acceso a Internet,
el satélite tiene el alcance y la capacidad más amplios para llegar a áreas remotas. Mientras
que los servicios ISDN y DSL están limitados a cierta distancia del conmutador de una compañía
telefónica, y el servicio de Internet por cable está limitado a áreas donde se ofrezca televisión
por cable, el servicio de Internet vía satélite puede transmitirse a cualquier cliente que posea
una vista no obstruida hacia un satélite orbital; en América del Norte, eso significa una vista sin
obstáculos hacia la parte sur del cielo.

¿Qué tan rápido es el servicio de Internet vía satélite? El servicio vía satélite suele ofrecer 400
a 500 Kbps de velocidad real para recibir datos, pero sólo 100 a 256 Kbps de velocidad para
enviarlos. La transmisión y la recepción vía satélite son más lentas por las condiciones
climáticas adversas, como la lluvia y la nieve, lo que vuelve a este tipo de transporte de datos
menos confiable que los servicios de acceso a Internet por cables, como la TV por cable y DSL.
El transporte de datos vía satélite está sujeto a retrasos en la latencia de un segundo o más, lo
cual transcurre mientras sus datos viajan entre su computadora y un satélite que órbita a 35 520
kilómetros sobre la Tierra. La latencia no plantea mucho problema para la navegación general
en la Web y la descarga de archivos, pero resulta molesta para los juegos interactivos que
requieren de acciones rápidas y para la Voz sobre IP.

SERVICIO INALÁMBRICO FIJO

El servicio de Internet inalámbrico fijo (también llamado servicio Inalámbrico de banda ancha)
está diseñado para ofrecer acceso a Internet a los hogares y las empresas al emitir señales de
datos en zonas lo bastante grandes para abarcar casi todas las ciudades y áreas vecinas. Las
tecnologías inalámbricas fijas son estándares MAN, en contraste con tecnologías como Wi-Fi,
las cuales son estándares LAN (de red de área local). Uno de los estándares inalámbricos fijos
más conocidos es WiMAX, ofrecido en la actualidad en Estados Unidos por empresas como
Clearwire y en Gran Bretaña por AirWorks.

¿Qué es WiMAX?

Las siglas de WiMAX significan Worldwide Interoperability for Microwave Access, lo que en
español se podría traducir como Interoperabilidad Mundial para Acceso por Microondas. Se
trata de un método de transmisión de datos a través de ondas de radio, y que utiliza las
frecuencias de 2,5 a 5,8 GHz.

podemos referirnos a WiMAX como una alternativa al cable a la hora de llevar Internet a tu
casa mediante conexión inalámbrica basada en los estándares de comunicación IEEE 802.16,
y que permite llevarte Internet con un alcance que puede llegar a los 70 kilómetros.
Así pues, en concepto es algo que puede recordar mucho al WiFi, ya que la conexión te llega
por el aire, pero que ofrece un servicio que sustituye a los cableados que llevan la conexión a
tu casa. Esto lo convierte en una alternativa muy a tener en cuenta para entornos
rurales y aquellas zonas en las que no hay instalaciones de cable con las que llevar Internet a
la casa donde vives.

Por lo tanto, la tecnología tiene ventajas como el no tener que pagar por una instalación y el
poder ofrecer una conexión rápida y fluida con bajas latencias. También es escalable, y si con
una empresa has contratado determinada velocidad, es muy posible que también tenga tarifas
con las que aumentarla sin tener que hacer nada más.Su otra gran ventaja es que no
necesitas tener una instalación telefónica en casa, por lo que si vives en un lugar apartado
al que ni siquiera han llegado las líneas de teléfono fijas, seguirás pudiendo intentar contratar
WiMAX. Incluso habrá empresas que con la instalación de esta tecnología te permitirán
realizar llamadas por VoIP.

En cambio, su principal desventaja es necesitar un contacto directo con el repetidor. Esto


quiere decir que la antena que instales en tu casa tiene que estar orientada directamente al
sitio desde donde se le está enviando la conexión, y a ser posible evitando obstáculos que
impidan la visión directa, como árboles o edificios. Esto, en ocasiones puede hacer que sea
necesario instalar puntos de conexión intermedios para salvar los obstáculos

Cómo funciona el WiMAX

El funcionamiento de WiMAX es sencillo, ya que simplemente es el repetidor de la empresa a


la que lo contrates emitiendo las señales de microondas que te llegan a la antena que tengas
en tu casa. Por lo tanto, lo primero que necesitas es contactar con una empresa que ofrezca
estos servicios y que tenga un repetidor cerca de tu casa para poder enviarte la señal.

Luego, tienes que poner una pequeña antena en la fachada de tu casa. Esta antena
tendrá que apuntar directamente al repetidor de la empresa que te va a dar el servicio, o sino
a un punto de conexión intermedio que se utilice para salvar obstáculos que se interpongan
entre tu antena y su repetidor. La instalación la hará la propia compañía.

Entonces, desde la antena bajará un cable que llegará a tu casa, y que se conectará
directamente a tu ordenador o a un router con el que poder gestionar la conexión como si
se tratase de una red de fibra o cable convencional, pudiendo crear tu propia WiFi doméstica.

Las conexiones de WiMAX pueden alcanzar velocidades de hasta 1Gbps en puntos fijos, por
ejemplo una casa, y de 365Mbps en puntos móviles. Aun así, siempre dependerá de lo que te
ofrezca la empresa a la que le contratas el servicio, y con el 4G tan extendido y la llegada
inminente del 5G puede que la alternativa móvil no sea tan atractiva.

Por lo general, cuando contratas una conexión WiMAX obtendrás velocidades asimétricas,
lo que quiere decir que la velocidad de descarga será muy superior a la de subida. Además, la
estabilidad podría verse afectada más fácilmente en momentos de congestión. Pese a eso,
siguen siendo en general más rápidos que el ADSL rural a un precio mensual muy similar

ACCESO PORTÁTIL Y ACCESO MÓVIL A INTERNET.


Cuando usted está fuera de casa y lejos de su conexión fija a Internet, eso no
necesariamente le impide consultar su correo electrónico y realizar otras actividades de
Internet. Las tecnologías portátiles y móviles ofrecen acceso a Internet mientras visita a un
amigo, se dirige al trabajo o la escuela, o está de vacaciones.

INTERNET PARA LLEVAR (INTERNET TO GO)

¿Cuáles son las limitaciones del acceso fijo a Internet? El acceso fijo a Internet mediante
marcado, por cable, ISDN, DSL satelital y WÍMAX 802.16 limita su computadora a numerosos
cables y equipo, como módems, platos satelitales y antenas. Puede ser complicado hasta
reubicar el módem de Internet en otra habitación. En los días en que las computadoras
estorbosas eran la norma, una conexión fija a Internet parecía conveniente. Sin embargo, en
la actualidad, con la proliferación de esbeltas computadoras laptop, PDAs y otros aparatos
portátiles de computación, los usuarios de Internet requieren la libertad para desplazarse
mientras consultan información y servicios en línea. Suponga que está de vacaciones y quiere
descargar música para su iPod.

¿Qué hace si visita a un amigo al otro lado de la ciudad y quiere consultar su correo
electrónico? Si acude a rentar un video con sólo su teléfono celular, ¿puede examinar la base
de datos de películas en Internet para obtener algunas reseñas antes de elegir? Si viaja a otro
país, ¿puede encender su computadora, consultar el sitio Web MapQuest y darle a un
conductor indicaciones sobre el restaurante Cracker Barrel más cercano?

Todas estas situaciones son posibles, pero no necesariamente debe emplear un proveedor de
servicios de Internet, una cuenta de usuario o una computadora únicos. Lo más avanzado en
la actualidad no es una tecnología ideal tipo "Internet en todas partes" que le permita emplear
un servicio de Internet y cualquier dispositivo digital para consultar el conjunto mundial de
datos de Internet desde cualquier lugar. En lugar de eso, los clientes de Internet deben
manejar diversas tecnologías, varias cuentas y una complicada cantidad de cuotas para el
acceso completo a Internet. Aunque el servicio ideal de Internet en todas partes todavía no ha
llegado, vale la pena analizar las opciones de acceso a Internet portátiles y móviles que
existen. Dependiendo de su estilo de vida, una o más de estas opciones pueden ser
convenientes, productivas o simplemente divertidas.

PUNTOS DE ACCESO A WI-FI.

Wifi es una tecnología de red inalámbrica a través de la cual los dispositivos, como
computadoras (portátiles y de escritorio), dispositivos móviles (teléfonos inteligentes y
accesorios) y otros equipos (impresoras y videocámaras), pueden interactuar con Internet.
Permite que estos dispositivos, entre tantos otros, intercambien información entre sí y
establezcan, de esta manera, una red.
La conectividad a Internet se logra a través de un router inalámbrico. Cuando accede a wifi, se
conecta a un router inalámbrico que permite que los dispositivos que admiten wifi interactúen
con Internet.

¿Cómo encaja Wi-Fi en el concepto de Internet en todas partes?


Wi-Fi es una tecnología LAN inalámbrica. Además de ser popular para las redes en el hogar,
Wi-Fi también se utiliza para las redes públicas, operadas por comerciantes, hoteles, escuelas
y municipios. Si su computadora está equipada para Wi-Fi, como casi todas las laptops actuales,
usted posee un medio portátil para entrar en Internet al llevar su computadora a cualquier punto
de conexión a Wi-Fi. ¿Qué es un punto de acceso a conexión Wi-Fi? Es un área en la cual el
público puede tener acceso a una red Wi-Fi que ofrece el servicio de Internet. Los puntos de
acceso se localizan en cafeterías, parques, hoteles, centros comunitarios y aeropuertos. En la
actualidad, la disponibilidad de un punto de acceso a Wi-Fi es limitada, pero va en aumento
incluso en las ciudades pequeñas y las áreas rurales. Sitios Web como www.wi-fihotspotlist.com
indican los puntos de acceso a Wi-Fi en una ciudad específica.

¿Corno funcionan los puntos de acceso a Wi-Fi? En una situación normal, usted lleva su
computadora laptop —equipada con una tarjeta Wi-Fi— a su cafetería local. Usted compra un
capuchino, se sienta con comodidad y enciende su computadora. Las utilerías de conexión de
red de

¿Qué es un punto de acceso inalámbrico?


Un punto de acceso inalámbrico permite que los dispositivos inalámbricos se conecten a la red
inalámbrica. Disponer de una red inalámbrica de Cisco facilita la conexión de dispositivos
nuevos y les brinda soporte flexible a los trabajadores móviles.
El funcionamiento de un punto de acceso inalámbrico en relación con una red es similar al
funcionamiento de un amplificador en relación con un equipo de música estéreo. Un punto de
acceso toma el ancho de banda proveniente de un router y lo extiende para que muchos
dispositivos puedan conectarse a la red desde distancias más lejanas. Sin embargo, un punto
de acceso inalámbrico no se limita a extender la red Wi-Fi. También puede brindar datos
valiosos sobre los dispositivos conectados a la red, proporcionar seguridad proactiva y
responder a muchos otros fines prácticos.
¿Qué es un router inalámbrico?
Los routers inalámbricos suelen encontrarse en los hogares. Se trata de los dispositivos de
hardware que los proveedores de servicios de Internet utilizan para conectarse a su red de
Internet por cable o xDSL.
A veces el router inalámbrico se denomina dispositivo de red de área local inalámbrica
(WLAN). Una red inalámbrica también se denomina red wifi.
Un router inalámbrico combina las funciones de red de un router y un punto de acceso
inalámbrico. Lea más información sobre routers inalámbricos.
¿Qué es un router wifi de escritorio?
La forma más común de que los usuarios se conecten a Internet de manera inalámbrica es a
través de un router inalámbrico (wifi) de escritorio. Estos routers tienen la forma de pequeñas
cajas con varias antenas cortas que posibilitan la transmisión de la señal en todo un hogar o
lugar de trabajo. Cuando más alejado esté un usuario del router wifi base, más débil será la
señal. Por esto, habitualmente se distribuyen varios routers inalámbricos, denominados
extensores de alcance, en todo el espacio de trabajo. Los extensores de alcance Wi-Fi,
colocados en orden, aumentan o extienden la cobertura de Internet.
¿Qué es una zona de cobertura móvil?
Una zona de cobertura móvil es una función común de los teléfonos inteligentes con
conexiones tanto por cable como sin cable. Cuando activa la zona de cobertura móvil de su
teléfono, comparte su conexión de red inalámbrica con otros dispositivos que luego pueden
acceder a Internet.
¿Qué es una zona Wi-Fi portátil?
Una zona Wi-Fi portátil es una zona de cobertura móvil obtenida a través de un proveedor de
telefonía celular. Se trata de un pequeño dispositivo que emplea torres de red celular que
transmiten señales de ancho de banda 3G o 4G de alta velocidad. Diversos dispositivos, como
iPads y laptops, pueden luego conectarse de manera inalámbrica con el dispositivo, que, a la
vez, se conecta sin inconvenientes a Internet donde sea que esté. De un modo similar a lo
que sucede con el teléfono celular, el costo mensual de la zona de cobertura portátil se basa
en el plan de uso de datos que seleccione. El acceso a Internet a través de una zona Wi-Fi
portátil es más confiable que el acceso a través de zonas Wi-Fi públicas estáticas.

¿Puedo emplear los puntos de acceso a Wi-Fi para el acceso móvil a Internet?

Wi-Fi no suele ofrecer un acceso móvil a Internet aceptable porque sólo puede permanecer
conectado dentro del alcance del centro de conexión de la red. La entrega de Wi-Fi de una red
a otra es torpe y tiende a perder paquetes, lo cual es inaceptable para las aplicaciones de Voz
por IP y sincronización de video. Aunque el IEEE ha trabajado en estándares para protocolos
de Wi-Fi móvil (también llamado Mobile-Fi), los nuevos descubrimientos en WiMAX podrían
hacer innecesarios los mejoramientos de Wi-Fi móvil. El modelo actual para utilizar la mayor
parte de los puntos de acceso a Wi-Fi es que usted entra en el área de cobertura, encuentra
un lugar con una señal fuerte y permanece ahí mientras consulta Internet.

SERVICIO DE DATOS CELULARES.

¿Cómo utilizo mi servicio de teléfono celular para acceso a Internet?

En muchos países, la cobertura del teléfono celular es muy extensa y la tecnología de verdad
es móvil; puede utilizar el servicio mientras camina o viaja en un vehículo. No hay problema en
el cambio de una red a otra mientras viaja. El uso de la tecnología del teléfono celular para
tener acceso a Internet ofrece una movilidad que todavía no es posible lograr con casi todas
las tecnologías de redes de computadoras con cables o inalámbricas actuales. Y aunque en el
pasado el acceso a Internet basado en un celular era más lento que el de marcado, las
nuevas tecnologías ofrecen velocidades que compiten mejor con las ofertas de banda ancha.

¿Qué tan rápido es el transporte celular de datos?


Las velocidades de transporte de datos dependen de la tecnología del sistema celular. La
tecnología celular se clasifica por generaciones. La tecnología de primera generación (1G) es
analógica y ofrece pocas funciones más allá de la comunicación de voz. Las tecnologías
digitales de tercera generación (3G) ofrecidas por los proveedores de servicios celulares
actuales tienen mayor capacidad para voz y datos. Las tecnologías 3G tienen velocidades
similares al servicio de Internet satelital y pueden equipararse a Las velocidades DSL. ¿Puedo
conectarme a Internet desde cualquier teléfono celular? Casi todos los proveedores de
servicios celulares ofrecen correo electrónico en Internet. Los teléfonos básicos pueden
consultar mediante WAP una cantidad limitada de sitios Web especialmente diseñados
4.3 SOFTWARE DE REDES
Un equipo no puede trabajar sin un Sistema Operativo, una red de equipos no puede funcionar
sin un Sistema Operativo de Red siempre que existan varias redes en un mismo local. Si no se
dispone de ningún sistema operativo de red, los equipos no pueden compartir recursos y los
usuarios no pueden utilizar estos recursos. Dependiendo del fabricante del sistema operativo
de red, tenemos que el software de red para un equipo personal se puede añadir al propio
sistema operativo del equipo o integrarse con él. El software del sistema operativo de red se
integra en un número importante de sistemas operativos cada configuración (sistemas
operativos de red y del equipo separado, o sistema operativo combinando las funciones de
ambos) tiene sus ventajas e inconvenientes. Por tanto, el trabajo de especialistas en redes es
determinar la configuración que mejor se adapte a las necesidades de su propia red en su centro
laboral.
El uso creciente de la tecnología de la información en la actividad económica ha dado lugar a
un incremento sustancial en el número de puestos de trabajo informatizados, las Redes de Área
Local han sido creadas para responder al manejo de mayor cantidad de información. El
crecimiento de las redes locales a mediados de los años ochenta hizo que cambiase nuestra
forma de comunicarnos con los ordenadores y la forma en que los ordenadores se comunicaban
entre sí. La más simple de las redes conecta dos computadoras, permitiéndoles
compartir archivos y recursos. La importancia de las redes reside en que en un principio se
puede conectar un número de ordenadores que puede ser ampliado a medida que crecen las
necesidades.

¿Qué es el software de red?

En el software de red se incluyen programas relacionados con la interconexión de equipos


informáticos, es decir, programas necesarios para que las redes de computadoras
funcionen.  Estos protocolos se aplican enviando y recibiendo grupos de datos formateados
denominados paquetes. Los protocolos indican cómo efectuar conexiones lógicas entre las
aplicaciones de la red, dirigir el movimiento de paquetes a través de la red física y minimizar
las posibilidades de colisión entre paquetes enviados simultáneamente además los
programas de red hacen posible la comunicación entre las computadoras, Entre otras
cosas, los programas de red hacen posible la comunicación entre las computadoras,
permiten compartir recursos (software y hardware) y ayudan a controlar la seguridad de
dichos recursos.

Al igual que un equipo no puede trabajar sin un sistema operativo, una red de equipos no
puede funcionar sin un sistema operativo de red. Si no se dispone de ningún sistema
operativo de red, los equipos no pueden compartir recursos y los usuarios no pueden utilizar
estos recursos.
El software del sistema operativo de red se integra en un número importante de sistemas
operativos conocidos, incluyendo Windows 2000 Server/Professional, Windows NT
Server/Workstation, Windows 95/98/ME y Apple Talk.
Asimismo, los administradores responsables de su operación pueden lograr que los
diferentes dispositivos que conviven en una red funcionen sin contratiempos y, en caso de
fallas, tener la información necesaria en tiempo real para corregir el problema.
El software de redes se puede dividir en dos grandes ramas: los sistemas operativos
(SO) y las aplicaciones para administración. Existen plataformas de redes, con las que
es posible establecer comunicación entre toda la infraestructura interconectada, así como
brindar estabilidad en su funcionamiento. Otro tipo de software para redes son las
aplicaciones de gestión, las cuales ofrecen diversas tareas orientadas a mantener un óptimo
rendimiento durante el mayor tiempo posible como monitoreo, topología, mapeo y
automatización.
El software de redes de Cisco (IOS, XE, XR y NX-OS) es el software de redes más
implementado en el mundo. Integra tecnología de avanzada, servicios cruciales para el
negocio y un extenso soporte de plataforma de hardware.
Ahora, puede aprovechar el software compartido y la capacidad de mantener características
uniformes con código reutilizable en toda la red. Esto le permite proporcionar servicios más
rápido y mejorar la innovación.
Sistemas de software de redes
IOS
• Integra tecnología, servicios empresariales y soporte para hardware
• Reduce el gasto operativo
• Optimiza el retorno de la inversión
• Mejora la productividad empresarial
IOS XR
• Se centra en las necesidades de los proveedores de servicios
• Diseñado para los requisitos de uso de redes dinámicas de los servicios
• Brinda programabilidad flexible para una reconfiguración dinámica
NX-OS
• Abierto, modular y programable para una infraestructura de centro de datos ágil
• Optimizado para entornos de centro de datos físicos y virtualizados
• Funcionamiento del sistema continuo y altamente confiable, lo que optimiza el tiempo
de actividad
IOS XE
• Compatible con plataformas de próxima generación
• Funciona como un dominio único en un sistema operativo Linux moderno
• Separa el plano de datos y el plano de control
• Mejora la integración de servicios
Componentes principales del software de red
• El software de red que se instala en los clientes.
• El software de red que se instala en los servidores.
Software de cliente
En un sistema autónomo, cuando un usuario escribe un comando que solicita el equipo para
realizar una tarea, la petición circula a través del bus local del equipo hasta la CPU del
mismo.
Redirector
Un redirector procesa el envío de peticiones. Dependiendo del software de red, este
redirector se conoce como «Shell» o «generador de peticiones». El redirector es una
pequeña sección del código de un Sistema Operativo de Red que:
• Intercepta peticiones en el equipo.
• Determina si la peticiones deben continuar en el bus del equipo local o deben redirigirse a
través de la red a otro servidor La actividad del redirector se inicia en un equipo cliente
cuando el usuario genera la petición de un recurso o servicio de red. El equipo del usuario
se identifica como cliente, puesto que está realizando una petición a un servidor. El
redirector intercepta la petición y la envía a la red. El servidor procesa la conexión solicitada
por los redirectores del cliente y les proporciona acceso a los recursos solicitados. En otras
palabras, los servicios del servidor solicitados por el cliente.
Designadores
El sistema operativo proporcionará diferentes opciones para acceder al directorio cuando
necesite acceder a un directorio compartido y tenga los correspondientes permisos para
realizarlo. Por ejemplo, con Windows NT/2000, podría utilizar el icono Conectar a unidad de
red del Explorador de Windows NT/2000 para conectarse a la unidad de red. También,
puede asignar una unidad. La asignación de unidades consiste en asignar una letra o
nombre a una unidad de disco, de forma que el sistema operativo o el servidor de la red
puede identificarla y localizarla. El redirector también realiza un seguimiento de los
designadores de unidades asociados a recursos de red.
Periféricos
Los redirectores pueden enviar peticiones a los periféricos, al igual que se envían a los
directorios compartidos. La petición se redirige desde el equipo origen y se envía a través
de la red al correspondiente destino. En este caso, el destino es el servidor de impresión
para la impresora solicitada. Con el redirector, podemos referenciar
como LPT1 o COM1 impresoras de red en lugar de impresoras locales. El redirector
intercepta cualquier trabajo de impresión dirigido a LPT1 y lo envía a la impresora de red
especificada. La utilización del redirector permite a los usuarios no preocuparse ni de la
ubicación actual de los datos o periféricos ni de la complejidad del proceso de conexión o
entrada. Por ejemplo, para acceder a los datos de un ordenador de red, el usuario sólo
necesita escribir el designador de la unidad asignado a la localización del recurso y el
redirector determina el encaminamiento actual.
Software de servidor
El software de servidor permite a los usuarios en otras máquinas, y a los equipos clientes,
poder compartir los datos y periféricos del servidor incluyendo impresoras, trazadores
y directorios.
Compartir recursos
Compartir es el término utilizado para describir los recursos que públicamente están
disponibles para cualquier usuario de la red. La mayoría de los sistemas operativos de red
no sólo permiten compartir, sino también determinar el grado de compartición. Las opciones
para la compartición de recursos incluyen:
• Permitir diferentes usuarios con diferentes niveles de acceso a los recursos.
• Coordinación en el acceso a los recursos asegurando que dos usuarios no utilizan el
mismo recurso en el mismo instante.
Gestión de usuarios
Los sistemas operativos de red permiten al administrador de la red determinar las personas,
o grupos de personas, que tendrán la posibilidad de acceder a los recursos de la red, para
simplificar la tarea de la gestión de usuarios en una gran red, el sistema operativo de red
permite la creación de grupos de usuarios. El administrador de una red puede utilizar el
Sistema Operativo de Red para:
• Crear permisos de usuario, controlados por el sistema operativo de red, que indican quién
puede utilizar la red.
• Asignar o denegar permisos de usuario en la red.
• Eliminar usuarios de la lista de usuarios que controla el sistema operativo de red.
Gestión de la red
Algunos sistemas operativos de red avanzados incluyen herramientas de gestión que
ayudan a los administradores a controlar el comportamiento de la red. Cuando se produce
un problema en la red, estas herramientas de gestión permiten detectar síntomas de la
presencia del problema y presentar estos síntomas en un gráfico o en otro formato. Con
estas herramientas, el administrador de la red puede tomar la decisión correcta antes de
que el problema suponga la caída de la red.
Similitudes entre los Tipos de Redes
Los diferentes tipos de redes generalmente comparten los siguientes puntos:
• Servidores: equipos que brindan recursos compartidos para los usuarios mediante un
servidor de red.
• Clientes: equipos que tienen acceso a los recursos compartidos proporcionados por un
servidor de red.
• Medio de conexión: la forma en que los equipos están conectados entre sí.
• Datos compartidos: archivos a los que se puede acceder en los servidores de red.
• Impresoras y otros periféricos compartidos: archivos, impresoras u otros elementos
utilizados por los usuarios de la red.
• Recursos varios: otros recursos proporcionados por el servidor.
Selección de un Sistema Operativo de Red
El sistema operativo de red determina estos recursos, así como la forma de compartirlos y
acceder a ellos. En la planificación de una red, la selección del sistema operativo de red se
puede simplificar de forma significativa, si primero se determina la arquitectura de
red (cliente/servidor o Trabajo en Grupo) que mejor se ajusta a nuestras necesidades. A
menudo, esta decisión se basa en los tipos de seguridad que se consideran más adecuados.
Las redes basadas en servidor le permiten incluir más posibilidades relativas a la seguridad
que las disponibles en una red Trabajo en Grupo. Por otro lado, cuando la seguridad no
es una propiedad a considerar, puede resultar más apropiado un entorno de red Trabajo en
Grupo. Cuando se selecciona un sistema operativo de red, primero se determinan los
servicios de red que se requieren. Los servicios estándares incluyen
seguridad, compartición de archivos, impresión y mensajería; los servicios adicionales
incluyen soporte de interoperabilidad para conexiones con otros sistemas operativos. Para
cualquier Sistema Operativo de Red, es necesario determinar los servicios de
interoperabilidad o clientes de red a implementar para adecuarse mejor a las necesidades.
CONCLUSIONES:

El tema de investigación resulto muy complejo, sin embargo, la dificultad no se compara con
el conocimiento adquirido.
La humanidad lleva mas de un siglo y medio de investigación e innovaciones, Internet quedó
firmemente establecido como un recurso accesible para muchos de nosotros y que ofrece
una amplia variedad de beneficios potenciales. Los usuarios tenemos mayor acceso a todo
tipo de información y los gobiernos y negocios disponen de una nueva plataforma para
proporcionar información y servicios.
A raíz de la pandemia el comercio electrónico trajo consigo crecimiento económico, mayor
amplitud de oferta para los consumidores y oportunidades para productores, una variedad
de opciones de comunicación, desde el correo electrónico a elaboradas redes sociales, nos
hicieron mas fácil a amigos y familias separados geográficamente estar en contacto sin
necesidad de estar presentes.
Aunque en pleno siglo XXI son todavía muchos los desafíos a los que nos enfrentamos
como usuarios (podemos ser víctimas de prácticas abusivas como el spam (correo
comercial no deseado), virus, usurpación de identidad y pirateo) hay que brindar soluciones
que intenten minimizar estos peligros continuos diseñando sistemas anti virus, filtros,
transacciones seguras y otras medidas. Aunque este no seria nuestro caso ya que somo
ingenieros industriales, aun así es necesario mantenerse informado.
Tal vez lo más preocupante sea la persistencia de la desigualdad en acceso a Internet y a
las oportunidades que éste conlleva de mejora económica, participación política,
transparencia gubernamental y desarrollo científico y tecnológico.
Expandir las fronteras de Internet ya no es patrimonio exclusivo de los ingenieros
informáticos y científicos, sino que implica cada vez en mayor grado la colaboración entre
organizaciones civiles, gobiernos y nosotros como ciudadanos. Los valores que guían el
desarrollo técnico y social de Internet han sido complementarios: mayor acceso, apertura a
la diversidad, descentralización y la posibilidad de que los usuarios contribuyan de forma
activa. Pienso que estos objetivos se han alcanzado por medio de una arquitectura de
capas, protocolos abiertos y un proceso colaborativo a la hora de aprobar y diseñar cambios,
mientras que las metas sociales han requerido del liderazgo de gobiernos y de la inspiración
de personas que fueron capaces de ver el potencial de Internet para la comunicación, la
cooperación y la expresión individual.
Considero que es de gran importancia actualizarse constantemente, ya que la tecnología
avanza a gran velocidad y será importante conocer y saber utilizar dichas tecnologías para
la mejora continua de nosotros mismos y nuestros conocimientos dentro de cualquier campo
laboral en el que nos desempeñemos, para superar desafíos y tener éxito en un futuro.
VIDEO:
https://www.youtube.com/watch?v=ZkxdvBuOkFA

REFERENCIAS:
https://esemanal.mx/2008/04/software_para_redes/
https://sobretodoredes.wordpress.com/redes-cableadas/elementos-de-una-red/software-
para-red/

https://www.cisco.com/c/es_mx/products/ios-nx-os-software/index.html

https://www.cisco.com/c/es_mx/products/wireless/what-is-wifi.html#~recursos

https://es.xfinity.com/hub/internet/dsl-vs-cable

http://www.tese.edu.mx/documentos2004/5278_GHBSEKD.pdf

http://eprints.uanl.mx/798/1/1020146049.PDF

https://www.cisco.com/c/dam/global/es_mx/solutions/small-business/pdfs/smb-redes-
mx.pdf

http://repositorio.utc.edu.ec/bitstream/27000/485/1/T-UTC-1041.pdf

https://www.uv.mx/personal/artulopez/files/2012/09/08-Fun-y-Tec-de-Redes-de-C.pdf

También podría gustarte