Documentos de Académico
Documentos de Profesional
Documentos de Cultura
INSTITUTO
POLITÉCNICO NACIONAL
UNIDAD PROFESIONAL
INTERDISCIPLIARIA DE INGENIERÍA Y
CIENCIAS SOCIALES Y
ADMINISTRATIVAS
PROFESOR: TEODOMIRO GONZALES
RIVERA
ALUMNA: JESSICA HERNANDEZ
GARCIA
SECUENCIA: 1IV10
4.1 TECNOLOGIAS DE REDES
La tecnología de redes, network technology en inglés, es aquella que sirve para permitir
el intercambio digital de datos entre distintos nodos. Un nodo es un punto de conexión, unión
o interacción de varios elementos. Por ejemplo, cuando se conectan varios ordenadores,
cada ordenador es un nodo. Cuando es una conexión por internet, cada servidor de internet
es un nodo.
La conexión de una tecnología de redes puede ser tanto para que se puedan transmitir los
datos como para facilitar el acceso a datos que están en un software, servidores, bases de
datos, impresoras, etc. Por tanto, gracias a este tipo de tecnología, una persona puede
mandar mensajes, documentos de Microsoft Office por e-mail, vídeos, etc. desde un
dispositivo a otro.
¿Sabías que? La tecnología de redes se remonta a cuando en 1981 IBM sacó el primer
modelo de ordenador personal. Pronto, esos ordenadores se conectaron a través de cables
(teniendo que hacerse uno a uno), creando las primeras redes. En 1985 el tamaño y
complejidad de las redes era tan grande que eran los departamentos de informática los que
se tenían que hacer cargo de ellas.
Tecnología de redes
basada en escala
La tecnología de redes
basada en escala también
se le conoce
como basada en
dispersión (dispersion
technology). Se le conoce
como escala o dispersión
porque se refiere a la
distancia a la que se
encuentran los distintos
nodos o redes que
conecta. Dentro de esta
clasificación se
encuentran los siguientes
tipos:
Red de área personal (PAN)
Una red de área personal (Personal Area Network, PAN) es una red de nodos de utilidad para
una única persona. La distancia máxima entre los nodos suele ser de 1 metro. Un ejemplo de
este tipo de red sería la conexión de un ordenador con su ratón, su teclado, su impresora, etc.
La conexión de la red PAN suele hacerse de forma inalámbrica, ya sea por Wi-Fi o por
Bluetooth.
Red de área local (LAN)
Una red de área local (Local Area Network, LAN) es una red de nodos
de hardwares conectados entre ellos. La distancia entre los nodos es de 10 a 100 metros. La
forma más común de LAN es con una conexión a través de cable de Ethernet. Cuando esta
conexión se hace a través de una conexión inalámbrica (por ejemplo, con Wi-Fi) se le conoce
como WLAN (Wireless Local Area Network, Red de Área Local Inalámbrica).
Red de área amplia (WAN)
Una red de área amplia (Wide Area Network, WAN) se usa para vincular redes LAN. Las
redes que deben conectarse están muy separadas en este caso. La distancia entre los nodos
puede ser de 100 a 1000 kilómetros. Por ello, podemos encontrar redes WAN que abarcan
conexiones entre diferentes departamentos de un ayuntamiento y otras que sirven como
conexión de una estación base para controlar una red 5G nacional.
Red de área metropolitana (MAN)
Una red de área metropolitana (Metropolitan Area Network, MAN) funciona como una red
WAN, pero para una zona geográfica determinada. Es decir, una red MAN conecta varias
redes LAN de una zona concreta. Por tanto, la distancia de la red MAN será superior a la
LAN, pero inferior a la WAN. Esto se debe a que la WAN puede abarcar varias zonas
metropolitanas e incluso países y la MAN sólo una. Un ejemplo de MAN son las conexiones
de los canales por cable o la banda ancha de las empresas de telecomunicación. Si la
conexión se hace de forma inalámbrica, se le conoce como WMAN (Wireless Metropolitan
Area Network, Red de Área Metropolitana Inalámbrica).
Red de área global (GAN)
La red de área global (Global Area Network, GAN) se usa para vincular redes WAN. Como el
propio nombre indica, la distancia que abarca este tipo de red es global. De esta forma, una
empresa que opera a nivel internacional puede conectar varias redes WAN. Las redes GAN
pueden funcionar agrupando los cables de fibra submarinos de las redes WAN que van a
conectar o a través de conexión por satélite.
Red privada virtual (VPN)
La red privada virtual (Virtual Private Network, VPN) permite hacer una extensión segura de
una red física (ya sea LAN, WAN, MAN o GAN) a través de una red pública o compartida. La
forma más común de establecer esta extensión es usando el internet. Esta forma de extender
una red permite que los usuarios envíen y reciban datos a través de redes compartidas o
públicas como si sus dispositivos informáticos estuvieran directamente conectados a la red
privada de la empresa. Gracias a este tipo de red, un empleado de una empresa que
use software alojado en local puede teletrabajar, ya que es como si el empleado estuviera
desde su ordenador de la oficina.
Gateways
Por último, indicar la existencia de interredes formadas por redes LAN y WAN a veces
diferentes entre sí conectadas
mediante pasarelas o gateways que
son máquinas que efectúan la labor de
conexión y traducción. Éstas se
diferencian significativamente de
Internet que conecta gobiernos,
universidades e individuos.
La conexión multipunto
En una conexión multipunto, los diferentes nodos de la red se conectan a un medio común.
En este caso, la información de origen se transmite al medio común llegando a todos los
nodos pero sólo pudiendo ser comprendida por el nodo de destino.
En una conexión de punto a punto, los diferentes nodos de la red están directamente
conectados entre sí. En algunos casos, este tipo de conexión requiere nodos intermedios
para que se pueda enrutar la información hasta el nodo de destino.
DISPOSITIVOS DE RED
Un dispositivo de red, o aparato para red, es cualquier dispositivo electrónico que transmite
datos de red, refuerza señales o dirige los datos a su destino. Entre los dispositivos de red se
encuentran los concentradores, los interruptores, los ruteadores, las puertas de enlace
(gateways), los puentes y las repetidoras.
¿Qué dispositivos se pueden conectar a una red?
Puede considerar una red como una telaraña con muchos puntos de interconexión. Cada
punto de conexión en una red se denomina nodo. Un nodo de red suele contener
computadoras, periféricos en red o dispositivos de la red.
Red local y Aplicaciones.
Es un sistema de transmisión de información con el objetivo de compartir recursos con los que
trabaja un ordenador normalmente, es decir, ficheros, directorios, impresoras, plotters,
escáneres, etc.… entre ordenadores conectados entre sí o bien mediante redes conectadas
entre sí. La palabra local se refiere a que el conjunto de ordenadores se encuentra próximo
geográficamente hablando, es decir, que se encuentra en el espacio físico de un mismo
centro.
En general una red local está caracterizada por una distancia corta entre ordenadores, un
medio de comunicación entre éstos, una velocidad de conexión elevada, la utilización de
cables de conexión simples (como los coaxiales o los telefónicos). Cuentan con la facilidad de
su instalación, de su administración y de su bajo precio. En la mayoría de los casos una red se
usa para compartir entre varios ordenadores una unidad de almacenamiento enorme o en
general cualquier dispositivo periférico del que hagan uso varias personas de un mismo grupo
de trabajo, de esta forma no es necesario comprar ese periférico para cada ordenador, por
ejemplo, una impresora láser. Además, constituye un valor añadido a la hora de compartir la
información y distribuir tareas.
CLIENTES, SERVIDORES Y REDES DE PUNTO APUNTO.
¿Cuál es la diferencia entre un cliente y un servidor de red? Los dispositivos de red pueden
funcionar como clientes o como servidores. Un servidor es una computadora que ofrece
servicios a otras computadoras, llamadas clientes. Por ejemplo, un servidor de aplicaciones
ejecuta software de aplicaciones para las estaciones de trabajo de la red. Un servidor de
archivos guarda los archivos y los entrega a las estaciones de trabajo según lo solicitan. Un
servidor de impresión maneja los trabajos enviados a las impresoras de la red.
Los servidores se dedican a la tarea que realizan, lo que significa que no son asignados a los
usuarios como estaciones de trabajo. Las computadoras se pueden configurar para realizar
ambas funciones al mismo tiempo, pero no realizarán de manera óptima ninguna de ellas.
Las redes que incluyen uno o más servidores pueden funcionar en modo cliente/servidor, el
cual es una estructura jerárquica, donde los servidores están en la parte superior de la
jerarquía.
¿Puede funcionar una red sin un servidor?
Las redes no requieren servidores. Las estaciones de trabajo que funcionan en modo igual a
igual pueden compartir los archivos y las aplicaciones. En este modo, las estaciones de trabajo
comparten la responsabilidad de procesar, almacenar, imprimir y las tareas de
comunicaciones. Las muy conocidas redes para compartir archivos Napster y BitTorrent
operan en modo igual a igual.
¿Debo elegir cliente/servidor o igual a igual?
No tiene que elegir entre una u otra. Una red puede funcionar en modo cliente/servidor cuando
es necesario y también intercambiar datos de igual a igual. Por ejemplo, puede compartir
archivos en modo igual a igual con otras computadoras en la red durante el día y en la noche;
cuando sus amigos llegan a practicar juegos por computadora, puede configurar una de las
computadoras como un servidor que vigila el transcurso del juego en una red donde las otras
computadoras funcionan como clientes durante la duración del juego.
Tipos de Servidores
Hemos visto que una red local interconecta ordenadores, comparte dispositivos, pero para
compartir eficientemente periféricos tales como discos duros o impresoras, es necesario
configurar uno o más ordenadores como "gestores". Un gestor (también llamado servidor) es
un ordenador que comparte sus periféricos con otros ordenadores. Un servidor de discos
permite compartir zonas del disco. Un servidor de impresión es un ordenador que pueden
utilizar todos los usuarios, y que se encarga de volcar el contenido de ficheros en una
impresora.
Servidores de disco (Disk Server)
Al principio las redes utilizaban un servidor de disco donde se almacenaba la información que
iban a compartir las distintas estaciones de trabajo de la red. Para ésta el servidor es
simplemente otra unidad de disco duro donde almacenar ficheros. En el caso de un PC
funcionando bajo MS-DOS la unidad asignada del servidor de ficheros es como un disco
normal del que se mantiene una tabla de asignación de ficheros (FAT o file allocation table)
propia para poder saber exactamente donde se encuentra un determinado fichero.
Servidores de ficheros (File Server)
Un servidor de ficheros es mucho más eficiente y sofisticado que un gestor de disco. Contiene
software especial que procesa comandos antes de que el sistema operativo los reciba. El
servidor de ficheros contiene su propia FAT. Cuando una estación de trabajo pide un
determinado fichero, el servidor de ficheros ya sabe dónde está el fichero y lo envía
directamente a la memoria de la estación de trabajo. En este caso para la estación de trabajo
el servidor de ficheros no es otra unidad de discos más, como sucede con el servidor de
disco. Es mucho más eficiente porque no necesita enviar una copia de la FAT a la estación
que pide un fichero, y además no es necesario particionar la unidad de disco.
Servidores de ficheros centralizados y distribuidos.
Para la mayoría de las redes un único servidor de ficheros es más que suficiente. Este tipo de
servidor se conoce con el nombre de servidor central. Funciona de manera muy similar como
lo hace un miniordenador; una unidad se encarga de dar servicio a cada estación de trabajo.
Por razones de eficiencia en ocasiones es conveniente instalar más de un servidor para dar
servicio a departamentos distintos. Estos servidores se conocen con el nombre de servidores
distribuidos. Esta es una solución más eficiente porque se reducen los tiempos de acceso y
además si uno de ellos queda fuera de servicio, la red puede seguir funcionando.
Servidores de ficheros dedicados y no dedicados.
Un servidor de ficheros dedicado es un microordenador con disco duro que se utiliza
exclusivamente como servidor de ficheros. Dedicando toda su capacidad de memoria,
procesamiento y recursos a dar servicio a las estaciones de trabajo se consigue un aumento
de la velocidad y eficiencia de la red. Un servidor no dedicado es aquél que se usa, además
de para funciones de servicio de ficheros, como estación de trabajo. Esto implica que la RAM
debe estar dividida de forma que puedan ejecutarse programas en la máquina. Cuanto más
rápido sea el microprocesador, más rápido puede el servidor realizar sus tareas lo que a su
vez implica un costo más elevado.
Servidores de ficheros de una red punto a punto.
En una red punto a punto los usuarios deciden qué recursos de su ordenador desean
compartir con el resto de los usuarios de la red. Un usuario puede utilizar su unidad de disco
duro como servidor de ficheros para otros usuarios de la red. Una red de este tipo puede
constar de varias estaciones de trabajo que hacen funciones de servidor de ficheros no
dedicado cuyos propietarios han decidido compartir con el resto de los usuarios de la red. Esta
filosofía es aplicable así mismo a las impresoras y otros dispositivos.
Servidor de impresión.
Al igual que un servidor de ficheros permite compartir un disco duro, un servidor de impresión
hace lo mismo, sólo que en esta ocasión lo que se comparten son las impresoras. Cada uno
de los ordenadores tiene conectada una impresora. Estas impresoras son suficientes para la
mayoría de los trabajos, pero cuando es necesario hacer copias de mayor calidad, los
usuarios utilizan la impresora láser conectada al servidor de impresión. El servidor de
impresión puede tener varios tipos de impresoras, según las necesidades.
Para poder compartir impresoras, el servidor de impresión debe disponer del software
adecuado y por lo general contiene lo que se conoce como un spooler de impresión, que es
un buffer donde se almacenan los trabajos que cada estación manda a imprimir. Los trabajos
se van poniendo en cola y se imprimen de forma secuencial en orden de llegada. Hay
spoolers de impresión con funciones para cambiar el orden de impresión de los trabajos y
para indicar la hora en la que se quiere imprimir un determinado trabajo. Por ejemplo, los
trabajos que requieren muchísimo tiempo de impresión se ponen en el spooler de impresión
para que se impriman fuera de las horas de trabajo.
Servidor de comunicaciones.
Los servidores de comunicaciones están diseñados para liberar a la red de las tares relativas
a la transmisión de información. El servidor de comunicaciones funciona igual que una
centralita telefónica, haciendo las mismas funciones que un sistema PABX (centralita
automática privada). Por medio del servidor de comunicaciones una estación puede llamar a
una red externa o cualquier otro sistema, buscar cierta información y enviarla a la estación que
la ha solicitado. El servidor de comunicaciones se puede utilizar también para conectar
dispositivos incompatibles a una red. A pesar de que un servidor de comunicaciones efectúa
las funciones de un módem, en particular proporcionando acceso a redes telefónicas de larga
distancia, hay bastantes diferencias entre ellos.
La mayoría de los módems están conectados a una sola estación y sólo los puede utilizar esa
estación. Los servidores de comunicaciones pueden responder a varias solicitudes a la vez.
Además, el servidor de comunicaciones ofrece más funciones, tales como multiplexación y
conmutación, detección de errores, y además es mucho más fiable. Es de destacar que para
redes de unos 12 equipos y con las nuevas tecnologías se puede perfectamente compartir un
módem como un periférico más, usando un software específico y diseñado para tal fin, algo
muy común hoy día. De esta forma el servidor de comunicaciones no sería necesario, ya que
el módem compartido haría todo el trabajo.
Configuración y Topología
El diseño de una red se debe planificar pensando en las necesidades de cada uno. Existen
tres tipos de configuraciones independientes del fabricante:
Peer to Peer: en la que cada estación de trabajo puede compartir sus recursos con otras
estaciones que están en la misma red.
Compartición de recursos: los recursos a compartir están centralizados en uno o más
servidores y en éstos está toda la información. Las estaciones no pueden compartir sus
recursos.
Cliente/Servidor: las aplicaciones o programas se dividen entre el servidor y las estaciones de
trabajo. Hay por tanto una parte de la aplicación que está en el ordenador cliente y otra en el
servidor.
TOPOLOGÍA FÍSICA.
La distribución de los dispositivos en una red se conoce como su topología física. Existen las
topologías de estrella, círculo, bus, malla y árbol; las trayectorias mostradas entre los modos
se conectan mediante cables físicos o señales inalámbricas.
Hay muchos parámetros que conforman la
arquitectura de una red de área local, aquí
veremos algunos de ellos.
• Según la técnica de transmisión: redes de
difusión y redes punto a punto.
• Según método de acceso al medio: CSMA
y Token.
• Por su topología o disposición en el espacio: estrella, bus, anillo y mixtas.
Topología en estrella.
Los enlaces en la red se disponen de forma radial partiendo de un dispositivo central. Este
dispositivo radial se conoce como hub o concentrador. Cada rama de la estrella conecta al
dispositivo central con otro periférico. El hub actúa como central de comunicaciones entre los
dispositivos periféricos.
Topología en anillo
Los PC's se distribuyen alrededor de un anillo formado por el medio de transmisión . Este
anillo está formado por un pequeño repartidor llamado MAU o unidad de acceso a múltiples
estaciones. A diferencia de la topología en bus, en la que la información que un dispositivo
dejada en el medio era recibida por todos los integrantes de la red, ahora viaja a su equipo
adyacente y si no es para él se lo pasa al siguiente.
Anillo token
En esta conexión, los nodos están conectados como en la topología anillo y usan un frame de
3 bytes que recorre el anillo y que se conoce como token (o testigo). Este token ayuda a
comprobar si los nodos desean enviar información.
Árbol
Esta conexión se puede ver como una combinación de topologías de estrellas, pero no tienen
un nodo central, sino uno troncal (conocido como hub o switch) desde el cual salen las
ramificaciones de los nodos.
Del desarrollo técnico de Internet hay varios aspectos a destacar. En primer lugar, desde 1950
hasta el presente se ha producido un aumento continuado en el volumen de las redes de datos
y en la variedad de servicios que éstas ofrecen. El rápido crecimiento y la diversidad han
obligado a los diseñadores de redes a superar incompatibilidades entre sistemas y
componentes informáticos, a gestionar el tráfico de datos para prevenir la congestión y el caos
y a llegar a acuerdos internaciones sobre estándares técnicos. Estos desafíos han cristalizado
en logros fundamentales en áreas de investigación tales como sistemas operativos y la teoría
de colas (modelo matemático para el estudio de fenómenos de espera). Una segunda
tendencia ha sido el diseño de funciones de las redes en forma de capas de enlace, cada una
de las cuales se comporta según un protocolo estándar (una serie de normas para interacción
implementada en software o en hardware). Este diseño por capas reduce la complejidad del
sistema de redes y minimiza el grado de estandarización necesario para su funcionamiento, lo
que facilita que las redes puedan unirse a Internet. Un tercer e importante rasgo del desarrollo
técnico de Internet ha sido un proceso de diseño inusualmente descentralizado y participativo.
Ello ha abierto el sistema a innovaciones procedentes de una variedad de fuentes y ha
fomentado la colaboración informal desde todas las zonas de planeta. En los siguientes
apartados se describen algunos de los hitos principales en la evolución de Internet y sus
predecesoras.
La demanda de terminales en red se vio impulsada por otro hito tecnológico de principios de la
década de 1960: los sistemas operativos de tiempo compartido. Inventados de forma
independiente en 1959 por Christopher Stratchey en Gran Bretaña y por John McCarthy en
Estados Unidos, los sistemas operativos de tiempo compartido permitían que múltiples
usuarios operaran con programas distintos en un solo ordenador y de forma simultánea.
Debido a que el coste del ordenador podía repartirse entre varios usuarios, el sistema de
tiempo compartido permitía a individuos usar un ordenador de forma interactiva durante largos
periodos de tiempo, en lugar de estar limitados a operar con un solo programa, y también a
recibir los resultados de forma inmediata. Los servicios comerciales de tiempo compartido se
aprovecharon de este ahorro para proporcionar acceso informático a precios asequibles a gran
cantidad de clientes del mundo académico y de los negocios. A mediados de la década de
1960 los servicios comerciales de tiempo compartido ya estaban desarrollando sus propias
redes de datos con objeto de ofrecer a sus clientes acceso a bajo coste a sus ordenadores.
REDES DE INVESTIGACIÓN
Tres de las primeras redes de investigación más importantes fueron ARPANET (Estados
Unidos, 1969), la NPL Mark I (Gran Bretaña, 1969) y CYCLADES (Francia, 1972). Una de las
innovaciones clave de estas redes experimentales fue una técnica de comunicación llamada
packet switching o conmutación de o por paquetes. Hasta entonces los sistemas de
comunicación existentes, como el teléfono o las terminales de redes, tenían circuitos
establecidos entre las dos terminales de la conexión. Por el contrario, una red de conmutación
por paquetes divide los datos de manera que puedan ser transmitidos en pequeñas unidades
llamadas «paquetes» que son enviadas de forma individual, compartiendo los circuitos en red
con otras conexiones. La conmutación por paquetes permite utilizar los nexos de comunicación
de manera más eficaz, con el consiguiente ahorro económico. Además, los paquetes de una
misma conexión pueden enviarse a su destino por rutas diferentes, haciendo posible distribuir
el tráfico en múltiples vías o reaccionar a una interrupción en el funcionamiento de parte de
una red redirigiendo el tráfico a otra. El concepto de conmutación por paquetes fue inventado
de forma independiente a principios de la década de 1960 por Paul Baran en Estados Unidos y
Donald Davies en Gran Bretaña. Davies puso la técnica en práctica en la red de un nodo Mark
I en el National Physical Laboratory. En Estados Unidos, la agencia DARPA (siglas de Defense
Advanced Research Projects Agency, Agencia para proyectos de investigación de defensa
avanzados) patrocinó la primera gran red de conmutación por paquetes: ARPANET. Uno de
los teóricos que participó en este proyecto fue Leonard Kleinrock, responsable del desarrollo
de algunos de los primeros métodos de análisis del comportamiento de las redes de
conmutación por paquetes. En Francia, Louis Pouzin fue pionero de la red sin conexiones o en
la red de conmutación de paquetes con datagramas CYCLADES. Las redes de datagramas
eran más sencillas que las que funcionaban por conexiones, como ARPANET, y esta sencillez
hacía más factible interconectar redes diferentes, lo que supuso un importante paso en el
desarrollo de una Internet global. Tal y como lo explica Pouzin: «Cuanto más sofisticada es
una red, menos probable es que sea compatible con otra» (Pouzin 1975). Experimentos
realizados con internetworking (conexión de múltiples redes) ya se estaban llevando a cabo a
principios de la década de 1970. Por ejemplo, la red NPL se conectó a CYCLADES en 1974, y
en 1976 ambas se conectaron a la nueva Red Informática Europea o EIN, desarrollada a partir
de un grupo de estudio de ciencia y tecnología de la entonces Comunidad Económica
Europea, el cual recomendaba la creación de una red multinacional que ayudara a los países
miembros a compartir recursos informáticos y promover la investigación en la ciencia
informática. En 1976 EIN proporcionaba servicios de red a diez países, con nodos en Italia,
Francia, Suiza y Gran Bretaña (Laws y Hathaway 1978). La convergencia de los sistemas de
redes reflejaba así la convergencia entre Estados cooperantes.
Además de la conmutación por paquetes, ARPANET puso en marcha una serie de técnicas
experimentales. Dicha red conectaba a investigadores de Estados Unidos que trabajaban en
campos tales como tiempo compartido, inteligencia artificial y gráficos. Gracias a lo generoso
de las ayudas estatales y a la abundancia de talentos implicados en el proyecto, los
diseñadores de ARPANET pudieron experimentar con técnicas prometedoras, aunque
extraordinariamente complejas. Por ejemplo, en lugar de limitar la red a una sola clase de
ordenador, ARPANET incluía variedad de computadoras muy diversas entre sí. Esto impulsó a
un equipo de especialistas en informática, estudiantes de posgrado e ingenieros industriales a
buscar nuevas maneras de resolver las incompatibilidades entre ordenadores, y su esfuerzo
facilitó en gran medida la creación de la nueva generación de redes informáticas. ARPANET
también estaba dotada de una topología distribuida, es decir, que constaba de numerosos
nodos con múltiples interconexiones, en lugar de un único nodo central. Las comunicaciones
distribuidas, descritas por primera vez por Baran en 1964, permitían expandir la carga de
información e incrementar potencialmente la fiabilidad, creando múltiples caminos entre dos
ordenadores cualesquiera. Sin embargo, la adopción de esta técnica experimental incrementó
en gran medida la complejidad del sistema de enrutamiento y forzó a los creadores de
ARPANET a analizar y gestionar tipos de comportamiento en red hasta entonces
desconocidos. En lo que resultó ser otro paso arriesgado, el diseño en red requería que las
operaciones de enrutamiento se descentralizaran y volvieran adaptativas: es decir, cada nodo
tomaría sus decisiones de enrutamiento de forma independiente y modificaría su
comportamiento dependiendo de las condiciones de tráfico de información o de la
configuración de la red (por ejemplo, si un nodo adyacente se volvía inoperativo). El diseño
descentralizado de ARPANET y su enrutamiento autónomo hacían más difícil analizar el
comportamiento en red; al mismo tiempo, estas técnicas contribuirían al futuro éxito de
Internet porque permitían que la red creciera sin las limitaciones inherentes a un cuello de
botella central. Una de las características más novedosas del proyecto ARPANET no era de
tipo técnico, sino organizacional: un proceso de toma de decisiones descentralizado e
informal. El desarrollo del software para esta red se debió a un equipo de investigadores y
estudiantes llamado Network Working Group (Grupo de trabajo para la red). Cualquier
miembro del grupo era libre de sugerir una nueva técnica haciendo circular un boletín de
sugerencias; después de un periodo de debate y experimentación, la sugerencia era
modificada, abandonada o adoptada por consenso como un nuevo estándar para la red. Este
modelo colaborativo sigue empleándose en Internet (Bradner 1996) y ha ayudado al sistema a
crecer y adaptarse, al fomentar el debate de ideas y la participación libre en su desarrollo
técnico.
La aplicación de más éxito de las primeras redes experimentales fue con mucho el correo
electrónico, cuyo uso se implementó a principios de la década de 1970. La popularidad del
mismo fue una sorpresa para los creadores de ARPANET, que habían esperado que las redes
dedicadas a la investigación se centraran en aplicaciones más sofisticadas y dedicadas a la
computación pura y dura, tales como las matemáticas o el diseño de gráficos. Aunque el e-
mail se adoptó en parte por su facilidad de uso, su popularidad también ponía de manifiesto la
admisión de que la investigación científica dependía de la colaboración humana tanto como
del acceso a las máquinas. El correo electrónico resultó ser una oportunidad sin precedentes
para la interacción continuada entre colegas geográficamente distantes entre sí.
Aunque no eran accesibles al público en general, las primeras redes de investigación fueron
más allá de proporcionar acceso informático a un reducido número de científicos. También
aportaron soluciones a los formidables obstáculos técnicos y establecieron herramientas
cruciales para innovaciones futuras, incluidas técnicas estandarizadas y una comunidad de
investigadores e ingenieros con experiencia en el trabajo en red (Quarterman 1990).
Asimismo, los esfuerzos tempranos por construir redes multinacionales y redes de redes
sentaron los cimientos para la cooperación global, sin la cual no existiría Internet tal y como lo
conocemos hoy.
Mediada la década de 1970, la aparición de redes de investigación coincidió con otras tres
tendencias: los sistemas de redes patentados que ofrecían los fabricantes de ordenadores; las
redes de datos públicos desarrolladas por las empresas de telecomunicaciones o PTT y las
redes de base, desarrolladas por individuos y a bajo coste. Compañías como IBM habían
proporcionado infraestructuras limitadas de redes informáticas desde la década de 1960, pero
una vez que la investigación demostró la viabilidad de la conmutación por paquetes, las
empresas informáticas empezaron a ofrecer sus propias tecnologías de packet switching. Los
sistemas más utilizados incluían el Systems Network Architecture de IBM (SNA), Arquitectura
de Red de Sistemas, (lanzado en 1974), el Xerox Network Services (1975) y el Digital
Equipment Corporation o DECNET (1975). A diferencia de las redes de investigación, estos
sistemas patentados tenían múltiples aplicaciones corporativas. Permitían la diversificación
geográfica de las áreas de negocio —ya que las operaciones realizadas en las sucursales
tenían acceso a los datos necesarios para operar de forma independiente— y una mayor
centralización, porque los datos procedentes de operaciones lejanas podían ser supervisados
desde las oficinas centrales. De este modo el uso de redes informáticas reflejaba e
intensificaba la tendencia hacia una economía globalizadora que se aceleró a partir de 1980.
Las PTT, inspiradas en el modelo del teléfono, ofrecían no sólo acceso universal sino también
conexiones internacionales. Al darse cuenta de que ello requeriría llegar a un acuerdo en
cuanto al protocolo de red a utilizar, en 1975-1976 el Comité Consultor sobre Telegrafía y
Telefonía Internacional del Sindicato Internacional de Telecomunicaciones desarrolló un
protocolo estándar de conmutación de paquetes llamado X.25, que proporcionaba una
conexión fiable, conocida como circuito virtual, entre dos puntos de una red, permitiendo a los
usuarios de las distintas terminales acceder a recursos en línea sin necesidad de instalar un
complejo software específico. Entre los primeros en adoptar este nuevo protocolo figuran la
red Datapac de Canadá (1977), Transpac en Francia (1978), DDX de Japón (1979), el PSS de
la compañía de correos estatal británica (1980) y la multinacional Euronet (1979). Aunque el
X.25 fue más tarde reemplazado por otras tecnologías tales como la transmisión de tramas o
frame relay, proporcionó la base para el rápido desarrollo de redes públicas en todo el mundo
y solucionó el caos que suponía el empleo de estándares incompatibles entre sí. Otro
influyente esfuerzo de estandarización ocurrido a finales de la década de 1970 fue el modelo
de Interconexión de sistemas abiertos (Open Systems Interconnection) creado por la OSI
(Organización Internacional de Estándares). Dicho modelo definía las funciones de siete
modelos de proceso, desde conexiones básicas entre hardware a aplicaciones de alto nivel e
interfaces de usuario. Aunque estos estándares fueron muy debatidos (Abbate 1999), la
adopción de un modelo común ayudó a ingenieros informáticos y a fabricantes a dar un paso
más en la dirección del desarrollo de sistemas de red totalmente compatibles.
Las redes públicas de datos supusieron el primer acceso online para gran parte de la
población mundial. También patrocinaron nuevos tipos de contenido y servicios que hacían las
redes útiles para los usuarios en general, no sólo técnicos. Por ejemplo, a principios de la
década de 1980 France Telecom difundió ampliamente el uso de su red Transpac al ofrecer el
innovador servicio Minitel: una terminal gratuita que se daba a los usuarios en lugar de un
directorio de teléfonos con acceso también gratuito a una guía de teléfonos online y una
variedad de servicios de pago. Minitel permaneció en uso durante casi tres décadas y dio
servicio a casi la mitad de la población francesa. Al gestionarse los pagos mediante la
compañía telefónica, fue uno de los primeros gestores de comercio electrónico, incluyendo
reservas de avión y tren, compra al pormenor, gestiones bancarias y de bolsa, servicios de
información y tablones de anuncios (McGrath 2004).
El desarrollo de redes públicas de datos puso de manifiesto una conciencia emergente —tanto
por parte de usuarios individuales como a nivel estatal— de que el acceso a las
comunicaciones informáticas era un bien de interés común, un recurso necesario para el
ciudadano del siglo xxi. En el cumplimiento de esta misión las redes públicas de datos se
vieron complementadas por la tercera tendencia que se dio en este periodo: las redes de base
improvisadas. Estas redes de bajo coste utilizaban software existente para intercambiar
correos y listas de debate entre una comunidad informal de usuarios. Las más conocidas eran
USENET, establecida en 1979 y que empleaba protocolos UNIX, y BITNET, creada en 1981
con protocolos IBM. Dichas redes desempeñaron un papel importante a la hora de comunicar
entre sí a personas sin acceso a la infraestructura formal de redes.
DISEÑANDO INTERNET
¿Cómo fue que estos sistemas tan dispares de comunicación de datos se unieron en la red
global que hoy llamamos Internet? Aunque en los años setenta del siglo pasado ya se
establecieron algunas conexiones entre redes, las incompatibilidades de diseño limitaban sus
servicios al intercambio de correos y noticias. Las tecnologías que permiten que un amplio
abanico de servicios en red sea compartido por sistemas distintos surgieron del deseo de
conectar ARPANET con dos nuevas redes que ésta había construido y que extendían la
conmutación de paquetes a las comunicaciones por radio y satélite. Puesto que estos medios
de comunicación no tenían las mismas características técnicas que las líneas telefónicas —las
conexiones por radio no eran fiables; los satélites introducían el elemento retardo— las
técnicas existentes tales como los protocolos X.25 o el original de ARPANET no servían. Por
tanto, a principios de 1970 DARPA puso en marcha un Programa de Internet para desarrollar
una solución exhaustiva a estos problemas de comunicación.
Otro avance técnico que ayudó a encauzar la demanda para comunicación entre redes fueron
las LAN o redes locales de área. Ethernet, la más influyente de todas, la inventó en 1973
Robert Metcalfe a partir de una existente llamada Alohanet, creada a su vez por Norman
Abramson, Frank Kuo y Richard Binder (Metcalfe 1996; Abramson 1970). Ethernet y Alohanet
fueron pioneras de una técnica denominada random access o acceso aleatorio, que permitía a
múltiples usuarios compartir un canal de comunicación sin necesidad de emplear complejos
sistemas de enrutamiento (1). La sencillez del diseño de acceso aleatorio acercó las redes de
área local a un gran número de usuarios. Ethernet se estandarizó y comercializó a principios
de los ochenta y pronto se adoptó en universidades, negocios y otras organizaciones. Otros
sistemas populares LAN fueron las redes token ring, con topología de anillo, inventadas por
investigadores de IBM en Zúrich y comercializadas en 1985. La popularidad de las LAN
promovió la creación de muchas redes nuevas que podían, en principio, conectarse entre sí;
pero, al igual que las redes por conmutación de paquetes, estos sistemas de acceso aleatorio
no garantizaban una conexión fiable y por tanto no funcionaban bien con los protocolos
existentes. Era necesario desarrollar un nuevo sistema.
El proyecto Internet estuvo dirigido por Vinton Cerf y Robert Kahn con la colaboración de
ingenieros informáticos de todo el mundo. Además de investigadores estadounidenses del
DARPA, Stanford, la Universidad del Sur de California, la Universidad de Hawai, BBN y el
PARC de Xerox, Cerf y Kahn contaron con el asesoramiento de expertos en redes del
University College London, los grupos NPL y CYLADES y el International Network Working
Group o INWG (Cerf 1990). Este último se había fundado en 1972 e incluía representantes de
muchas PTT nacionales que trabajaban en el desarrollo de redes de conmutación por
paquetes. Al compartir preocupaciones e ideas, este equipo fue capaz de diseñar un sistema
que respondería a las necesidades de usuarios con infraestructuras y necesidades diversas.
Otro invento notable que contribuyó a hacer más manejable el crecimiento a escala global de
Internet fue el Sistema de nombres por dominio o Domain Name System, creado en 1985 por
Paul Mockapetris (Cerf 993; Leiner et al. 1997). Uno de los retos de la comunicación en una
red de gran tamaño es que por lo general pasa por conocer la dirección del ordenador de
destino. Mientras que los seres humanos suelen referirse a los ordenadores con nombres
(como «Darpa»), los ordenadores que forman parte de la red se identifican unos a otros
mediante direcciones numéricas. En la ARPANET originaria los nombres y direcciones de
todos los ordenadores, excepto los anfitriones, se guardaban en un gran archivo que tenía
que ser constantemente actualizado y distribuido a todos los anfitriones. Claramente este
mecanismo no estaba a la altura de una red de miles e incluso millones de ordenadores. El
Sistema de nombres por dominio descentralizó la tarea de localizar direcciones creando
grupos de nombres conocidos como dominios (tales como .com o .org) y ordenadores
especiales llamados servidores de nombres, encargados de mantener bases de datos con las
direcciones correspondientes a cada nombre de dominio. Para encontrar una dirección el
anfitrión únicamente debía introducir sus términos de búsqueda en el servidor apropiado. El
nuevo sistema también permitía descentralizar la autoridad para asignar nombres de manera
que, por ejemplo, cada país pudiera controlar su propio dominio.
La arquitectura de Internet hizo posible construir una infraestructura mundial de datos, pero no
se ocupaba directamente del asunto de los contenidos. En la década de 1980 casi todos los
contenidos de Internet eran puro texto. Era relativamente difícil para los usuarios localizar la
información deseada; para ello debían conocer de antemano la dirección del sitio que
contenía los datos, puesto que no existían motores de búsqueda ni vínculos entre distintos
sitios. La gran innovación que vino a transformar la manera en que los contenidos de Internet
son creados, presentados y encontrados fue la World Wide Web.
La World Wide Web fue la creación de Tim Berners-Lee, un investigador británico del CERN,
el laboratorio internacional de Física de Ginebra. Éste imaginó el futuro de Internet como un
espacio colaborativo en el que las personas pudieran compartir información de todo tipo. En el
modelo que propuso, los usuarios podían crear páginas de contenidos en ordenadores
llamados servidores web, y las páginas web podían verse mediante un programa llamado
browser. La Web tendría capacidad para manejar información multimedia además de texto y
las páginas web podrían conectarse entre sí mediante hipervínculos, de forma que los
usuarios pudieran navegar entre sitios basándose en contenidos relacionados entre ideas de
diferentes páginas. Esto crearía una red de conexiones basadas en contenidos en lugar de en
infraes
tructura. Berners-Lee formuló sus ideas en 1989 y en 1990 creó, junto a su colaborador
Robert Cailliau, la primera versión operativa de la Web. Los soportes técnicos del nuevo
sistema incluían html (lenguaje de marcas de hipertexto, empleado para crear páginas web),
http (protocolo de transferencia de hipertexto, para transmitir datos de las páginas web) y el url
(localizador uniforme de recursos, una forma de indicar la dirección de una página web
determinada).
El uso de la Web se popularizó entre los físicos del CERN, quienes lo extendieron a otros
sitios de investigación. En uno de ellos, el US National Center for Supercomputer Applications
(NCSA), Marc Andreessen capitaneó el desarrollo de un buscador mejorado llamado Mosaic
en 1993. El Mosaic funcionaba tanto en ordenadores personales como en aparatos más
grandes y el NCSA lo cargó de forma gratuita en Internet, lo que provocó un interés creciente
en la Web. En 1994 se calculaba que había al menos un millón de copias de Mosaic en uso
(Schatz y Hardin 1994).
Los hipervínculos de la Web se diseñaron para resolver un persistente problema para los
usuarios de Internet: cómo encontrar información dentro de un sistema tan grande. Con el fin
de resolverlo, en la década de 1990 se desarrollaron varias herramientas de búsqueda. Una
de las primeras fue Archie (1990), el cual enviaba preguntas a ordenadores conectados a
Internet y reunía listados a partir de ficheros de libre acceso. Gopher (1991) era un sistema de
listado específico para la Web, mientras que Yahoo (1994) era un directorio de páginas web
organizadas por temas. El personal de Yahoo categorizaba dichas páginas de forma manual;
sin embargo, dado el gran volumen de información que se iba acumulando en la Web,
surgieron una serie de servicios que tenían por objeto automatizar las búsquedas. El más
exitoso de estos motores de búsqueda fue Google (1998). Estas herramientas transformaron
la forma en que los usuarios localizaban información en la Web, al permitirles buscar
información sobre un tema en particular en un gran número de fuentes, en lugar de tener que
conocer de antemano cuáles de éstas podrían contener información relevante.
Al igual que Internet, la Web se diseñó para ser flexible, expandible y descentralizada, de
forma que invitara al público a desarrollar nuevas maneras de usarla. La generalización del
uso de la World Wide Web coincidió con el traspaso, en 1995, de la gestión de Internet del
gobierno al sector privado. Ello hizo desaparecer numerosas barreras para el uso comercial
de Internet y trajo consigo el auge de las empresas «punto com» en la década de 1990,
cuando se invirtieron grandes sumas de capital en proyectos de comercio electrónico. Aunque
la burbuja de las «punto com» estalló en el año 2000, el fenómeno sirvió para fomentar un
conocimiento de Internet como motor económico y no una mera innovación tecnológica a nivel
popular. La llegada del siglo xxi también trajo consigo la proliferación de los medios de
comunicación sociales, que proporcionaban nuevas formas de relacionarse y compartir
información en línea. Éstos incluían weblogs (1997), wikis (1995), file sharing (compartir
archivos, 1999), podcasting (2004) y sitios de redes sociales, así como una gran variedad de
juegos multijugador.
La RDSI ofrece gran número de ventajas, entre las que se pueden destacar las siguientes:
Canales de transmisión.
La RDSI dispone de distintos tipos de canales para el envío de datos de voz e información y
datos de control: los canales tipo B, tipo D y tipo H:
Canal B
Los canales tipo B transmiten información a 64Kbps, y se emplean para transportar cualquier
tipo de información de los usuarios, bien sean datos de voz o datos informáticos. Estos canales
no transportan información de control de la RDSI. Este tipo de canales sirve además como base
para cualquier otro tipo de canales de datos de mayor capacidad, que se obtienen por
combinación de canales tipo B.
Canal D
Los canales tipo D se utilizan principalmente para enviar información de control de la RDSI,
como es el caso de los datos necesarios para establecer una llamada o para colgar. Por ello
también se conoce un canal D como "canal de señalización". Los canales D también pueden
transportar datos cuando no se utilizan para control. Estos canales trabajan a 16Kbps o 64kbps
según el tipo de servicio contratado.
Canales H
Combinando varios canales B se obtienen canales tipo H, que también son canales para
transportar solo datos de usuario, pero a velocidades mucho mayores. Por ello se emplean para
información como audio de alta calidad o vídeo.
Podemos dividir la RDSI en dos clases según el ancho de banda: RDSI de banda estrecha y
RDSI de banda ancha.
RDSI de banda estrecha
Los Accesos de Usuario definidos para RDSI en Banda Estrecha permiten la comunicación a
velocidades de 64 Kbps, o agrupaciones de está velocidad. Debido a la estructura de
transmisión y conmutación de la RDSI, técnicas digitales, la integridad de la información está
asegurada. Lógicamente ésta integridad, permite unas comunicaciones secretas o al menos
más inmunes a escuchas indeseadas. Por otra parte, las técnicas digitales permiten un
tratamiento de las señales de forma que la transmisión de la información no sufra degradaciones
debido a la distancia o a perturbaciones externas, ruido, asegurando de esta forma una
información más "limpia" de errores.
Agregación De Canales.
La RDSI ofrece la capacidad de agregar canales para realizar conexiones a mayor velocidad.
Así, con un acceso BRI se puede establecer dos conexiones a 64Kbps o una única conexión a
128Kbps, usando siempre una única línea RDSI. En realidad, una llamada a 128Kbps son dos
llamadas diferentes a 64Kbps cada una, existiendo un protocolo por encima que permite ver
esa llamada como una sola. Lo que también quiere decir que una conexión a 128Kbps cuesta
el doble que otra de igual duración a 64Kbps. Esto es así a pesar de que, en la práctica, doblar
el ancho de banda no significa doblar la velocidad de transferencia máxima. La mejora del
rendimiento depende de la utilización que el protocolo haga del ancho de mayor banda.
¿Qué es DSL?
DSL (Línea de Suscriptor Digital) es una tecnología de acceso a Internet digital, de alta
velocidad y siempre activa, que funciona por las líneas telefónicas comunes. Es una de las
conexiones a Internet más rápidas y asequibles para las per sonas. Existen varias versiones
de esta tecnología, entre ellas ADSL (DSL asimétrica, donde la velocidad para recibir datos es
más rápida que para enviarlos), SDSL (DSL simétrica, misma velocidad para recibir y enviar
datos), HDSL (DSL de alta velocidad), VDSL (DSL de muy alta velocidad) y DSL light.
DSL, también conocido como línea de suscriptor digital, es el acceso a Internet de alta
velocidad que utiliza las líneas telefónicas de cobre existentes en los hogares y empresas
para transmitir datos. Este tipo de Internet de alta velocidad requiere un módem DSL, a
menos que tu computadora ya tenga un módem interno (con frecuencia denominado
módem de banda de voz). Como opción de banda ancha, DSL siempre está activado, a
diferencia de una conexión dial-up tradicional. En cuanto a velocidad se trata, los servicios
de conexión mediante DSL pueden variar desde varios cientos de kilobits por segundo
(Kbps) a millones de bits por segundo (Mbps). Sin embargo, el rendimiento disminuye con
la longitud del cable que conecta al suscriptor de DSL a la ubicación más cercana del
proveedor de servicio telefónico. Esto afecta a la disponibilidad y la velocidad general del
servicio entre DSL y cable.
Un tipo de transmisión DSL es la línea de suscriptor digital asimétrica (ADSL). Es
principalmente una opción residencial para aquellas familias que navegan por Internet y
reciben una gran cantidad de datos pero no requieren enviar muchos datos. Este tipo de
transmisión proporciona velocidades de descarga más rápidas a través de la misma línea
del servicio telefónico del suscriptor.
Otra opción de banda ancha basada en DSL es la línea de suscriptor digital simétrica
(SDSL). Este tipo de conexión es principalmente un servicio empresarial para los
suscriptores que necesitan videoconferencia y ancho de banda considerable tanto para la
carga como para la descarga de datos. Otras formas más rápidas de DSL para empresas
incluyen la línea de suscriptor digital de alta tasa de transferencia (HDSL) y la línea de
suscriptor digital de muy alta tasa de transferencia (VDSL).
El servicio de Internet por cable es un medio para distribuir un acceso de banda amplia a
Internet siempre activo por la misma infraestructura que ofrece el servicio de televisión por
cable. Las empresas de cable, locales y nacionales ofrecen el servicio de Internet por cable
mediante una suscripción mensual. De todos los servicios de Internet, en la actualidad el
Internet por cable ofrece las velocidades de acceso más rápidas.
En un principio, el sistema de televisión por cable fue diseñado para áreas remotas donde las
señales emitidas para televisión no eran captadas de manera aceptable por medio de una
antena. Estos sistemas se conocen como televisión con antena comunitaria o CATV. El
concepto CATV era instalar uno o más platos satelitales grandes y costosos en una comunidad,
captar las señales de las televisoras con estos platos y después enviar las señales por un
sistema de cables a las casas individuales. La topología de un sistema CATV se asemeja a la
topología física de una red de computadoras. Y es exactamente eso lo que se forma cuando su
compañía de TV por cable se convierte en su proveedor de Internet. Su computadora se vuelve
parte de una LAN unida mediante cables a la infraestructura de la TV por cable.
Casi todos los servicios de Internet por cable son asimétricos y las velocidades para enviar
datos son más bajas que las velocidades para recibirlos, porque eso desalienta a los
suscriptores y evita que instalen servidores Web públicos. Un plan de servicio para el hogar
común ofrece 6 Mbps (6000 Kbps) para recibir datos y 384 Kbps para enviarlos. Algunos planes
especiales ofrecen conexiones más rápidas de unos 30 Mbps para recepción y 2 Mpbs para
envío. Las señales de cable no son vulnerables a la interferencia ambiental, pero las
velocidades de transporte de datos son afectadas por el uso del suscriptor. El cable que
comparte con sus vecinos tiene cierta cantidad de ancho de banda. Entre más y más vecinos
utilizan el servicio, puede volverse más lento. Como analogía, considere una banda
transportadora de equipaje de un aeropuerto, la cual se mueve a una velocidad constante. Si
usted tiene tres piezas de equipaje y es el único pasajero de un avión, sus piezas llegan una
tras otra. Sin embargo, si viaja en un 747 lleno, sus piezas se mezclan con las de cientos de
pasajeros y tarda más tiempo en recuperarlas. La red de su compañía de cable transporta
paquetes a una velocidad constante. Sin embargo, si muchos de sus vecinos envían y reciben
paquetes al mismo tiempo, sus paquetes parecen viajar más lento. Los suscriptores de Internet
por cable encuentran que la velocidad de su conexión varía de manera muy notoria.
En los primeros días del servicio de Internet por cable, algunos suscriptores recibieron la
desagradable sorpresa de abrir la opción de Red, en Windows, y ver una lista de las
computadoras de sus vecinos. Cuando usted enciende una PC, Windows se conecta
automáticamente a las LANs disponibles y busca los archivos, las carpetas y las impresoras
compartidos en las estaciones de trabajo de una LAN. Como el servicio de Internet por cable
emplea tecnología LAN, las computadoras en diferentes hogares eran tratadas como estaciones
de trabajo en una LAN compartida. En la actualidad, casi todas las empresas de cable emplean
módems de cable DOCSIS, los cuales bloquean el tráfico entre los suscriptores. DOCSIS
(Especificación de Interfaz de Datos Mediante un Servicio de Cable) es una tecnología de
transporte de datos que incluye filtros de seguridad. DOCSIS protege a su computadora de sus
vecinos, pero no cierra todos los huecos en la seguridad abiertos cuando usted utiliza una
conexión siempre activa.
Casi todas las personas conocen los servicios que ofrecen acceso a programas de televisión
mediante un plato satelital personal. Muchas compañías que ofrecen TV vía satélite también
ofrecen acceso a Internet. El servicio de Internet vía satélite es un medio para distribuir un
acceso a Internet asimétrico de alta velocidad siempre activo al emitir señales desde y hacía un
plato satelital personal. En muchas áreas rurales, el servicio de Internet vía satélite es la única
alternativa cuando no hay una conexión de marcado.
¿Cómo funciona el servicio de Internet vía satélite? El servicio de Internet vía satélite emplea
un satélite geoestacionario para transmitir los datos de la computadora directamente hacia y
desde un plato satelital propiedad de una persona. De todos los servicios de acceso a Internet,
el satélite tiene el alcance y la capacidad más amplios para llegar a áreas remotas. Mientras
que los servicios ISDN y DSL están limitados a cierta distancia del conmutador de una compañía
telefónica, y el servicio de Internet por cable está limitado a áreas donde se ofrezca televisión
por cable, el servicio de Internet vía satélite puede transmitirse a cualquier cliente que posea
una vista no obstruida hacia un satélite orbital; en América del Norte, eso significa una vista sin
obstáculos hacia la parte sur del cielo.
¿Qué tan rápido es el servicio de Internet vía satélite? El servicio vía satélite suele ofrecer 400
a 500 Kbps de velocidad real para recibir datos, pero sólo 100 a 256 Kbps de velocidad para
enviarlos. La transmisión y la recepción vía satélite son más lentas por las condiciones
climáticas adversas, como la lluvia y la nieve, lo que vuelve a este tipo de transporte de datos
menos confiable que los servicios de acceso a Internet por cables, como la TV por cable y DSL.
El transporte de datos vía satélite está sujeto a retrasos en la latencia de un segundo o más, lo
cual transcurre mientras sus datos viajan entre su computadora y un satélite que órbita a 35 520
kilómetros sobre la Tierra. La latencia no plantea mucho problema para la navegación general
en la Web y la descarga de archivos, pero resulta molesta para los juegos interactivos que
requieren de acciones rápidas y para la Voz sobre IP.
El servicio de Internet inalámbrico fijo (también llamado servicio Inalámbrico de banda ancha)
está diseñado para ofrecer acceso a Internet a los hogares y las empresas al emitir señales de
datos en zonas lo bastante grandes para abarcar casi todas las ciudades y áreas vecinas. Las
tecnologías inalámbricas fijas son estándares MAN, en contraste con tecnologías como Wi-Fi,
las cuales son estándares LAN (de red de área local). Uno de los estándares inalámbricos fijos
más conocidos es WiMAX, ofrecido en la actualidad en Estados Unidos por empresas como
Clearwire y en Gran Bretaña por AirWorks.
¿Qué es WiMAX?
Las siglas de WiMAX significan Worldwide Interoperability for Microwave Access, lo que en
español se podría traducir como Interoperabilidad Mundial para Acceso por Microondas. Se
trata de un método de transmisión de datos a través de ondas de radio, y que utiliza las
frecuencias de 2,5 a 5,8 GHz.
podemos referirnos a WiMAX como una alternativa al cable a la hora de llevar Internet a tu
casa mediante conexión inalámbrica basada en los estándares de comunicación IEEE 802.16,
y que permite llevarte Internet con un alcance que puede llegar a los 70 kilómetros.
Así pues, en concepto es algo que puede recordar mucho al WiFi, ya que la conexión te llega
por el aire, pero que ofrece un servicio que sustituye a los cableados que llevan la conexión a
tu casa. Esto lo convierte en una alternativa muy a tener en cuenta para entornos
rurales y aquellas zonas en las que no hay instalaciones de cable con las que llevar Internet a
la casa donde vives.
Por lo tanto, la tecnología tiene ventajas como el no tener que pagar por una instalación y el
poder ofrecer una conexión rápida y fluida con bajas latencias. También es escalable, y si con
una empresa has contratado determinada velocidad, es muy posible que también tenga tarifas
con las que aumentarla sin tener que hacer nada más.Su otra gran ventaja es que no
necesitas tener una instalación telefónica en casa, por lo que si vives en un lugar apartado
al que ni siquiera han llegado las líneas de teléfono fijas, seguirás pudiendo intentar contratar
WiMAX. Incluso habrá empresas que con la instalación de esta tecnología te permitirán
realizar llamadas por VoIP.
Luego, tienes que poner una pequeña antena en la fachada de tu casa. Esta antena
tendrá que apuntar directamente al repetidor de la empresa que te va a dar el servicio, o sino
a un punto de conexión intermedio que se utilice para salvar obstáculos que se interpongan
entre tu antena y su repetidor. La instalación la hará la propia compañía.
Entonces, desde la antena bajará un cable que llegará a tu casa, y que se conectará
directamente a tu ordenador o a un router con el que poder gestionar la conexión como si
se tratase de una red de fibra o cable convencional, pudiendo crear tu propia WiFi doméstica.
Las conexiones de WiMAX pueden alcanzar velocidades de hasta 1Gbps en puntos fijos, por
ejemplo una casa, y de 365Mbps en puntos móviles. Aun así, siempre dependerá de lo que te
ofrezca la empresa a la que le contratas el servicio, y con el 4G tan extendido y la llegada
inminente del 5G puede que la alternativa móvil no sea tan atractiva.
Por lo general, cuando contratas una conexión WiMAX obtendrás velocidades asimétricas,
lo que quiere decir que la velocidad de descarga será muy superior a la de subida. Además, la
estabilidad podría verse afectada más fácilmente en momentos de congestión. Pese a eso,
siguen siendo en general más rápidos que el ADSL rural a un precio mensual muy similar
¿Cuáles son las limitaciones del acceso fijo a Internet? El acceso fijo a Internet mediante
marcado, por cable, ISDN, DSL satelital y WÍMAX 802.16 limita su computadora a numerosos
cables y equipo, como módems, platos satelitales y antenas. Puede ser complicado hasta
reubicar el módem de Internet en otra habitación. En los días en que las computadoras
estorbosas eran la norma, una conexión fija a Internet parecía conveniente. Sin embargo, en
la actualidad, con la proliferación de esbeltas computadoras laptop, PDAs y otros aparatos
portátiles de computación, los usuarios de Internet requieren la libertad para desplazarse
mientras consultan información y servicios en línea. Suponga que está de vacaciones y quiere
descargar música para su iPod.
¿Qué hace si visita a un amigo al otro lado de la ciudad y quiere consultar su correo
electrónico? Si acude a rentar un video con sólo su teléfono celular, ¿puede examinar la base
de datos de películas en Internet para obtener algunas reseñas antes de elegir? Si viaja a otro
país, ¿puede encender su computadora, consultar el sitio Web MapQuest y darle a un
conductor indicaciones sobre el restaurante Cracker Barrel más cercano?
Todas estas situaciones son posibles, pero no necesariamente debe emplear un proveedor de
servicios de Internet, una cuenta de usuario o una computadora únicos. Lo más avanzado en
la actualidad no es una tecnología ideal tipo "Internet en todas partes" que le permita emplear
un servicio de Internet y cualquier dispositivo digital para consultar el conjunto mundial de
datos de Internet desde cualquier lugar. En lugar de eso, los clientes de Internet deben
manejar diversas tecnologías, varias cuentas y una complicada cantidad de cuotas para el
acceso completo a Internet. Aunque el servicio ideal de Internet en todas partes todavía no ha
llegado, vale la pena analizar las opciones de acceso a Internet portátiles y móviles que
existen. Dependiendo de su estilo de vida, una o más de estas opciones pueden ser
convenientes, productivas o simplemente divertidas.
Wifi es una tecnología de red inalámbrica a través de la cual los dispositivos, como
computadoras (portátiles y de escritorio), dispositivos móviles (teléfonos inteligentes y
accesorios) y otros equipos (impresoras y videocámaras), pueden interactuar con Internet.
Permite que estos dispositivos, entre tantos otros, intercambien información entre sí y
establezcan, de esta manera, una red.
La conectividad a Internet se logra a través de un router inalámbrico. Cuando accede a wifi, se
conecta a un router inalámbrico que permite que los dispositivos que admiten wifi interactúen
con Internet.
¿Corno funcionan los puntos de acceso a Wi-Fi? En una situación normal, usted lleva su
computadora laptop —equipada con una tarjeta Wi-Fi— a su cafetería local. Usted compra un
capuchino, se sienta con comodidad y enciende su computadora. Las utilerías de conexión de
red de
¿Puedo emplear los puntos de acceso a Wi-Fi para el acceso móvil a Internet?
Wi-Fi no suele ofrecer un acceso móvil a Internet aceptable porque sólo puede permanecer
conectado dentro del alcance del centro de conexión de la red. La entrega de Wi-Fi de una red
a otra es torpe y tiende a perder paquetes, lo cual es inaceptable para las aplicaciones de Voz
por IP y sincronización de video. Aunque el IEEE ha trabajado en estándares para protocolos
de Wi-Fi móvil (también llamado Mobile-Fi), los nuevos descubrimientos en WiMAX podrían
hacer innecesarios los mejoramientos de Wi-Fi móvil. El modelo actual para utilizar la mayor
parte de los puntos de acceso a Wi-Fi es que usted entra en el área de cobertura, encuentra
un lugar con una señal fuerte y permanece ahí mientras consulta Internet.
En muchos países, la cobertura del teléfono celular es muy extensa y la tecnología de verdad
es móvil; puede utilizar el servicio mientras camina o viaja en un vehículo. No hay problema en
el cambio de una red a otra mientras viaja. El uso de la tecnología del teléfono celular para
tener acceso a Internet ofrece una movilidad que todavía no es posible lograr con casi todas
las tecnologías de redes de computadoras con cables o inalámbricas actuales. Y aunque en el
pasado el acceso a Internet basado en un celular era más lento que el de marcado, las
nuevas tecnologías ofrecen velocidades que compiten mejor con las ofertas de banda ancha.
Al igual que un equipo no puede trabajar sin un sistema operativo, una red de equipos no
puede funcionar sin un sistema operativo de red. Si no se dispone de ningún sistema
operativo de red, los equipos no pueden compartir recursos y los usuarios no pueden utilizar
estos recursos.
El software del sistema operativo de red se integra en un número importante de sistemas
operativos conocidos, incluyendo Windows 2000 Server/Professional, Windows NT
Server/Workstation, Windows 95/98/ME y Apple Talk.
Asimismo, los administradores responsables de su operación pueden lograr que los
diferentes dispositivos que conviven en una red funcionen sin contratiempos y, en caso de
fallas, tener la información necesaria en tiempo real para corregir el problema.
El software de redes se puede dividir en dos grandes ramas: los sistemas operativos
(SO) y las aplicaciones para administración. Existen plataformas de redes, con las que
es posible establecer comunicación entre toda la infraestructura interconectada, así como
brindar estabilidad en su funcionamiento. Otro tipo de software para redes son las
aplicaciones de gestión, las cuales ofrecen diversas tareas orientadas a mantener un óptimo
rendimiento durante el mayor tiempo posible como monitoreo, topología, mapeo y
automatización.
El software de redes de Cisco (IOS, XE, XR y NX-OS) es el software de redes más
implementado en el mundo. Integra tecnología de avanzada, servicios cruciales para el
negocio y un extenso soporte de plataforma de hardware.
Ahora, puede aprovechar el software compartido y la capacidad de mantener características
uniformes con código reutilizable en toda la red. Esto le permite proporcionar servicios más
rápido y mejorar la innovación.
Sistemas de software de redes
IOS
• Integra tecnología, servicios empresariales y soporte para hardware
• Reduce el gasto operativo
• Optimiza el retorno de la inversión
• Mejora la productividad empresarial
IOS XR
• Se centra en las necesidades de los proveedores de servicios
• Diseñado para los requisitos de uso de redes dinámicas de los servicios
• Brinda programabilidad flexible para una reconfiguración dinámica
NX-OS
• Abierto, modular y programable para una infraestructura de centro de datos ágil
• Optimizado para entornos de centro de datos físicos y virtualizados
• Funcionamiento del sistema continuo y altamente confiable, lo que optimiza el tiempo
de actividad
IOS XE
• Compatible con plataformas de próxima generación
• Funciona como un dominio único en un sistema operativo Linux moderno
• Separa el plano de datos y el plano de control
• Mejora la integración de servicios
Componentes principales del software de red
• El software de red que se instala en los clientes.
• El software de red que se instala en los servidores.
Software de cliente
En un sistema autónomo, cuando un usuario escribe un comando que solicita el equipo para
realizar una tarea, la petición circula a través del bus local del equipo hasta la CPU del
mismo.
Redirector
Un redirector procesa el envío de peticiones. Dependiendo del software de red, este
redirector se conoce como «Shell» o «generador de peticiones». El redirector es una
pequeña sección del código de un Sistema Operativo de Red que:
• Intercepta peticiones en el equipo.
• Determina si la peticiones deben continuar en el bus del equipo local o deben redirigirse a
través de la red a otro servidor La actividad del redirector se inicia en un equipo cliente
cuando el usuario genera la petición de un recurso o servicio de red. El equipo del usuario
se identifica como cliente, puesto que está realizando una petición a un servidor. El
redirector intercepta la petición y la envía a la red. El servidor procesa la conexión solicitada
por los redirectores del cliente y les proporciona acceso a los recursos solicitados. En otras
palabras, los servicios del servidor solicitados por el cliente.
Designadores
El sistema operativo proporcionará diferentes opciones para acceder al directorio cuando
necesite acceder a un directorio compartido y tenga los correspondientes permisos para
realizarlo. Por ejemplo, con Windows NT/2000, podría utilizar el icono Conectar a unidad de
red del Explorador de Windows NT/2000 para conectarse a la unidad de red. También,
puede asignar una unidad. La asignación de unidades consiste en asignar una letra o
nombre a una unidad de disco, de forma que el sistema operativo o el servidor de la red
puede identificarla y localizarla. El redirector también realiza un seguimiento de los
designadores de unidades asociados a recursos de red.
Periféricos
Los redirectores pueden enviar peticiones a los periféricos, al igual que se envían a los
directorios compartidos. La petición se redirige desde el equipo origen y se envía a través
de la red al correspondiente destino. En este caso, el destino es el servidor de impresión
para la impresora solicitada. Con el redirector, podemos referenciar
como LPT1 o COM1 impresoras de red en lugar de impresoras locales. El redirector
intercepta cualquier trabajo de impresión dirigido a LPT1 y lo envía a la impresora de red
especificada. La utilización del redirector permite a los usuarios no preocuparse ni de la
ubicación actual de los datos o periféricos ni de la complejidad del proceso de conexión o
entrada. Por ejemplo, para acceder a los datos de un ordenador de red, el usuario sólo
necesita escribir el designador de la unidad asignado a la localización del recurso y el
redirector determina el encaminamiento actual.
Software de servidor
El software de servidor permite a los usuarios en otras máquinas, y a los equipos clientes,
poder compartir los datos y periféricos del servidor incluyendo impresoras, trazadores
y directorios.
Compartir recursos
Compartir es el término utilizado para describir los recursos que públicamente están
disponibles para cualquier usuario de la red. La mayoría de los sistemas operativos de red
no sólo permiten compartir, sino también determinar el grado de compartición. Las opciones
para la compartición de recursos incluyen:
• Permitir diferentes usuarios con diferentes niveles de acceso a los recursos.
• Coordinación en el acceso a los recursos asegurando que dos usuarios no utilizan el
mismo recurso en el mismo instante.
Gestión de usuarios
Los sistemas operativos de red permiten al administrador de la red determinar las personas,
o grupos de personas, que tendrán la posibilidad de acceder a los recursos de la red, para
simplificar la tarea de la gestión de usuarios en una gran red, el sistema operativo de red
permite la creación de grupos de usuarios. El administrador de una red puede utilizar el
Sistema Operativo de Red para:
• Crear permisos de usuario, controlados por el sistema operativo de red, que indican quién
puede utilizar la red.
• Asignar o denegar permisos de usuario en la red.
• Eliminar usuarios de la lista de usuarios que controla el sistema operativo de red.
Gestión de la red
Algunos sistemas operativos de red avanzados incluyen herramientas de gestión que
ayudan a los administradores a controlar el comportamiento de la red. Cuando se produce
un problema en la red, estas herramientas de gestión permiten detectar síntomas de la
presencia del problema y presentar estos síntomas en un gráfico o en otro formato. Con
estas herramientas, el administrador de la red puede tomar la decisión correcta antes de
que el problema suponga la caída de la red.
Similitudes entre los Tipos de Redes
Los diferentes tipos de redes generalmente comparten los siguientes puntos:
• Servidores: equipos que brindan recursos compartidos para los usuarios mediante un
servidor de red.
• Clientes: equipos que tienen acceso a los recursos compartidos proporcionados por un
servidor de red.
• Medio de conexión: la forma en que los equipos están conectados entre sí.
• Datos compartidos: archivos a los que se puede acceder en los servidores de red.
• Impresoras y otros periféricos compartidos: archivos, impresoras u otros elementos
utilizados por los usuarios de la red.
• Recursos varios: otros recursos proporcionados por el servidor.
Selección de un Sistema Operativo de Red
El sistema operativo de red determina estos recursos, así como la forma de compartirlos y
acceder a ellos. En la planificación de una red, la selección del sistema operativo de red se
puede simplificar de forma significativa, si primero se determina la arquitectura de
red (cliente/servidor o Trabajo en Grupo) que mejor se ajusta a nuestras necesidades. A
menudo, esta decisión se basa en los tipos de seguridad que se consideran más adecuados.
Las redes basadas en servidor le permiten incluir más posibilidades relativas a la seguridad
que las disponibles en una red Trabajo en Grupo. Por otro lado, cuando la seguridad no
es una propiedad a considerar, puede resultar más apropiado un entorno de red Trabajo en
Grupo. Cuando se selecciona un sistema operativo de red, primero se determinan los
servicios de red que se requieren. Los servicios estándares incluyen
seguridad, compartición de archivos, impresión y mensajería; los servicios adicionales
incluyen soporte de interoperabilidad para conexiones con otros sistemas operativos. Para
cualquier Sistema Operativo de Red, es necesario determinar los servicios de
interoperabilidad o clientes de red a implementar para adecuarse mejor a las necesidades.
CONCLUSIONES:
El tema de investigación resulto muy complejo, sin embargo, la dificultad no se compara con
el conocimiento adquirido.
La humanidad lleva mas de un siglo y medio de investigación e innovaciones, Internet quedó
firmemente establecido como un recurso accesible para muchos de nosotros y que ofrece
una amplia variedad de beneficios potenciales. Los usuarios tenemos mayor acceso a todo
tipo de información y los gobiernos y negocios disponen de una nueva plataforma para
proporcionar información y servicios.
A raíz de la pandemia el comercio electrónico trajo consigo crecimiento económico, mayor
amplitud de oferta para los consumidores y oportunidades para productores, una variedad
de opciones de comunicación, desde el correo electrónico a elaboradas redes sociales, nos
hicieron mas fácil a amigos y familias separados geográficamente estar en contacto sin
necesidad de estar presentes.
Aunque en pleno siglo XXI son todavía muchos los desafíos a los que nos enfrentamos
como usuarios (podemos ser víctimas de prácticas abusivas como el spam (correo
comercial no deseado), virus, usurpación de identidad y pirateo) hay que brindar soluciones
que intenten minimizar estos peligros continuos diseñando sistemas anti virus, filtros,
transacciones seguras y otras medidas. Aunque este no seria nuestro caso ya que somo
ingenieros industriales, aun así es necesario mantenerse informado.
Tal vez lo más preocupante sea la persistencia de la desigualdad en acceso a Internet y a
las oportunidades que éste conlleva de mejora económica, participación política,
transparencia gubernamental y desarrollo científico y tecnológico.
Expandir las fronteras de Internet ya no es patrimonio exclusivo de los ingenieros
informáticos y científicos, sino que implica cada vez en mayor grado la colaboración entre
organizaciones civiles, gobiernos y nosotros como ciudadanos. Los valores que guían el
desarrollo técnico y social de Internet han sido complementarios: mayor acceso, apertura a
la diversidad, descentralización y la posibilidad de que los usuarios contribuyan de forma
activa. Pienso que estos objetivos se han alcanzado por medio de una arquitectura de
capas, protocolos abiertos y un proceso colaborativo a la hora de aprobar y diseñar cambios,
mientras que las metas sociales han requerido del liderazgo de gobiernos y de la inspiración
de personas que fueron capaces de ver el potencial de Internet para la comunicación, la
cooperación y la expresión individual.
Considero que es de gran importancia actualizarse constantemente, ya que la tecnología
avanza a gran velocidad y será importante conocer y saber utilizar dichas tecnologías para
la mejora continua de nosotros mismos y nuestros conocimientos dentro de cualquier campo
laboral en el que nos desempeñemos, para superar desafíos y tener éxito en un futuro.
VIDEO:
https://www.youtube.com/watch?v=ZkxdvBuOkFA
REFERENCIAS:
https://esemanal.mx/2008/04/software_para_redes/
https://sobretodoredes.wordpress.com/redes-cableadas/elementos-de-una-red/software-
para-red/
https://www.cisco.com/c/es_mx/products/ios-nx-os-software/index.html
https://www.cisco.com/c/es_mx/products/wireless/what-is-wifi.html#~recursos
https://es.xfinity.com/hub/internet/dsl-vs-cable
http://www.tese.edu.mx/documentos2004/5278_GHBSEKD.pdf
http://eprints.uanl.mx/798/1/1020146049.PDF
https://www.cisco.com/c/dam/global/es_mx/solutions/small-business/pdfs/smb-redes-
mx.pdf
http://repositorio.utc.edu.ec/bitstream/27000/485/1/T-UTC-1041.pdf
https://www.uv.mx/personal/artulopez/files/2012/09/08-Fun-y-Tec-de-Redes-de-C.pdf