Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Universitarios:
Huanca Moroco Hernan
López Gonzáles Hasan Andrés
Paralelo: “A”
Gestión: 1/2016
ORURO-BOLIVIA
Capa Física
ÍNDICE
INTRODUCCIÓN 2
DEFINICIÓN 3
Análisis de Fourier 3
Ancho de Banda 4
ENTRAMADO 9
FUNCIONES Y SERVICIOS 10
Interfaz estandarizada 10
Modulación 10
Codificación de línea 12
Sincronización 12
Multiplexación 14
Otras funciones 15
SUBCAPA DE SEÑALIZACIÓN 17
MEDIOS DE TRANSMISIÓN 17
Cable coaxial 21
Fibra óptica 24
PROTOCOLOS UTILIZADOS 30
ANEXOS 32
BIBLIOGRAFÍA 42
El modo en que los datos se transmiten entre los distintos dispositivos y la forma en
q se resuelve la secuenciación y comprobación de errores.
Las dos únicas capas del modelo con las que de hecho, interactúa el usuario son la primera
capa, la capa Física, y la última capa, la capa de Aplicación.
La capa física abarca los aspectos físicos de la red (es decir, los cables, hubs y el resto de
dispositivos que conforman el entorno físico de la red). La capa de aplicación proporciona la
interfaz que utiliza el usuario en su computadora para enviar mensajes de correo
electrónico o ubicar un archivo en la red.
Es la primera capa del Modelo OSI. Es la que se encarga de la topología de red y de las
conexiones globales de la computadora hacia la red, se refiere tanto al medio físico como a
la forma en la que se transmite la información.
En la capa física las tramas procedentes de la capa de enlace de datos se convierten en una
secuencia única de bits que puede transmitirse por el entorno físico de la red. La capa física
también determina los aspectos físicos sobre la forma en que el cableado está enganchado a
la NIC de la computadora.
El nivel físico o capa física se refiere a las transformaciones que se hacen a la secuencia de
bits para trasmitirlos de un lugar a otro. Siempre los bits se manejan dentro del PC como
niveles eléctricos. Por ejemplo, puede decirse que en un punto o cable existe un cuando está
en cantidad de volts y un cero cuando su nivel es de 0 volts. Cuando se trasmiten los bits
siempre se transforman en otro tipo de señales de tal manera que en el punto receptor
puede recuperarse la secuencia de bits originales.
Trasmite los datos, definiendo las especificaciones eléctricas entre el origen y el destino. Los
datos, imágenes, audio o vídeo viajan a través de los cables y están representados por la
presencia de pulsos eléctricos o de luz.
La capa física OSI proporciona los medios de transporte para los bits que forman la trama
de la capa de enlace de datos a través de los medios de red.
Análisis de Fourier
Donde f=1/T representa la frecuencia fundamental y an, bn son las amplitudes de los
diferentes armónicos. Esta descomposición se conoce como serie de Fourier.
Una señal de datos que tiene una duración finita, puede manejarse suponiendo que
aquella se repite una y otra vez:
Ancho de banda
Describe el rango de valores de frecuencia que pueden tener las señales a transmitir
a través de ese medio de transmisión, ya sean de carácter eléctrico o
electromagnético. Generalmente un canal presenta distintas atenuaciones a señales
de distintas frecuencias, haciendo que determinadas frecuencias apenas se
propaguen por el canal. Esto hace también que el ancho de banda se reduzca a
medida que aumenta la longitud del canal, debido a que también aumenta la
atenuación de la señal. Por ello, en ocasiones se expresa el ancho de banda del canal
por cada 100 m o cada km de longitud. Una línea telefónica, por ejemplo, tiene un
ancho de banda que va desde los 300 Hz a los 3400 Hz, y cubre con ello la parte
fundamental de las frecuencias que puede generar la voz humana. El límite no viene
impuesto por el tipo de cable utilizado que tiene un ancho de banda mucho mayor,
sino por los amplificadores que se insertan en la línea para contrarrestar el fenómeno
de atenuación de la misma y poder transmitir la señal a larga distancia.
Para ver cómo aplicar lo anterior al envío de datos, considérese la transmisión de “b”.
El patrón a transmitir es 01100010.
Ninguna instalación transmisora puede enviar señales sin perder cierta potencia en el
proceso.
El ancho de banda es una propiedad física del medio de transmisión que depende;
por ejemplo, de la construcción, el grosor y la longitud de un cable o fibra óptica.
Ahora consideremos cómo luciría la señal de la figura (a) si el ancho de banda fuera
tan pequeño que sólo se transmitieran las frecuencias más bajas [es decir, que la
función se aproximara mediante los primeros términos de la ecuación. La figura (b)
muestra la señal que resulta de un canal que sólo permite el paso del primer
armónico (la fundamental). De manera similar, las figuras (c)-(e) muestran los
espectros y las funciones reconstruidas para canales de mayor ancho de banda. Para
la transmisión digital, el objetivo es recibir una señal con la suficiente fidelidad como
para poder reconstruir la secuencia de bits que se envió. Se puede hacer esto con
facilidad en la figura (e), por lo que sería un desperdicio usar más armónicos para
recibir una réplica más precisa.
Si tenemos una tasa de bits de b bits/seg, el tiempo requerido para enviar los 8 bits
en nuestro ejemplo, 1 bit a la vez, es de 8/b segundos, por lo que la frecuencia del
primer armónico de esta señal es b/8 Hz.
Para algunas tasas de datos, los números resultan como se muestra en la tabla. De
estos números queda claro que tratar de transmitir a través de una línea telefónica
con calidad de voz, transformará la figura (a) en algo parecido a la figura (c), lo cual
dificultará la recepción precisa del flujo de bits original. Debe ser obvio que a tasas de
datos mucho mayores que 38.4 kbps no hay esperanza alguna para las señales
binarias, aun cuando la instalación transmisora se encuentre totalmente libre de
ruidos.
En 1924, un ingeniero de AT&T llamado Henry Nyquist se dio cuenta de que incluso
un canal perfecto tiene una capacidad de transmisión finita y dedujo una ecuación
para expresar la tasa de datos máximo para un canal sin ruido con un ancho de
banda finito. En 1948, Claude Shannon retomó el trabajo de Nyquist y lo extendió al
caso de un canal sujeto a ruido aleatorio (es decir, termodinámico) (Shannon, 1948).
Este documento es el más importante en toda la teoría de la información. Aquí sólo
resumiremos brevemente sus resultados, que ahora son clásicos. Nyquist demostró
que si se pasa una señal cualquiera a través de un filtro pasa-bajas con un ancho de
banda B, la señal filtrada se puede reconstruir por completo tomando sólo 2B
muestras (exactas) por segundo. No tiene caso muestrear la línea más de 2B veces
por segundo, ya que los componentes de mayor frecuencia que dicho muestreo
pudiera recuperar ya se han filtrado. Si la señal consiste en V niveles discretos, el
teorema de Nyquist establece lo siguiente:
Por ejemplo, un canal sin ruido de 3kHz no puede transmitir señales binarias (de dos
niveles) a una velocidad mayor de 6 000 bps. Hasta ahora hemos considerado sólo los
canales sin ruido. Si hay ruido aleatorio presente, la situación se deteriora con
rapidez. Y siempre hay ruido aleatorio (térmico) presente debido al movimiento de las
moléculas en el sistema.
Esto nos indica las mejores capacidades que pueden tener los canales reales. Por
ejemplo, la ADSL (Línea Asimétrica de Suscriptor Digital) que provee acceso a Internet
a través de líneas telefónicas comunes, utiliza un ancho de banda de
aproximadamente 1 MHz. La SNR depende en gran parte de la distancia entre el
hogar y la central telefónica; una SNR de alrededor de 40 dB para líneas cortas de 1 a
2 km es algo muy bueno. Con estas características, el canal nunca podrá transmitir a
más de 13 Mbps, sin importar cuántos niveles de señal se utilicen ni con qué
frecuencia se tomen las muestras. En la práctica, el servicio ADSL se especifica hasta
12 Mbps, aunque es frecuente que los usuarios vean tasas más bajas.
En realidad esta tasa de datos es muy buena, con más de 60 años de técnicas de
comunicaciones que han reducido la brecha entre la capacidad de Shannon y la
capacidad de los sistemas reales.
ENTRAMADO
La capa física le proporciona servicios a la capa de enlaces de datos con el objetivo que esta
le proporcione servicios a la capa de red. La capa física recibe un flujo de bits e intenta
enviarlo a destino, no siendo su responsabilidad entregarlos libre de errores. La capa de
enlace de datos es la encargada de detectar y corregir los errores. Los errores pueden
consistir en una mayor o menor cantidad de bits recibidos o diferencias en los valores que
se emitieron y en los que se recibieron.
Un método común de detección de errores es que la capa de enlace de datos separe el flujo
en tramas separadas y que realice la suma de verificación de cada trama. Cuando una
trama llega a su destino se recalcula la suma de verificación. Si es distinta de la contenida
en la trama es porque ha ocurrido un error y la capa de enlace debe solucionarlo.
La capa física en síntesis se encarga del envío de bit a bit entre nodos y para comprender
éste proceso se detallan a continuación las funciones que realiza específicamente y los
servicios que brinda.
Interfaz estandarizada
Modulación
Engloba el conjunto de técnicas que se usan para transportar información sobre una
onda portadora, típicamente una onda sinusoidal. Estas técnicas permiten un mejor
aprovechamiento del canal de comunicación lo que posibilita transmitir más
información de forma simultánea además de mejorar la resistencia contra posibles
ruidos e interferencias. Según la American National Standard for
Telecommunications, la modulación es el proceso, o el resultado del proceso, de
variar una característica de una onda portadora de acuerdo con una señal que
transporta información. El propósito de la modulación es sobreponer señales en las
ondas portadoras.
Modulación Digital: Los siguientes son algunos de casos extremos de estas técnicas:
Sincronización
Otras funciones
SUBCAPA DE SEÑALIZACIÓN
En una red de área local (LAN) o en una red de área metropolitana (MAN) que usa la
arquitectura OSI, la subcapa de señalización física es la parte de la capa física que:
Se relaciona con la subcapa MAC que es una parte de la capa de Enlace de Datos
Realiza la codificación de caracteres, la transmisión, la recepción y decodificación
MEDIOS DE TRANSMISIÓN
Los medios de transmisión son las vías por las cuales se comunican los datos. Dependiendo
de la forma de conducir la señal a través del medio o soporte físico, se pueden clasificar en
dos grandes grupos:
Los medios de transmisión guiados están constituidos por cables que se encargan de
la conducción (o guiado) de las señales desde un extremo al otro. Las principales
características de los medios guiados son el tipo de conductor utilizado, la velocidad
máxima de transmisión, las distancias máximas que puede ofrecer entre repetidores,
la inmunidad frente a interferencias electromagnéticas, la facilidad de instalación y la
capacidad de soportar diferentes tecnologías de nivel de enlace. La velocidad de
transmisión depende directamente de la distancia entre los terminales, y de si el
medio se utiliza para realizar un enlace punto a punto o un enlace multipunto.
Debido a esto, los diferentes medios de transmisión tendrán diferentes velocidades de
conexión que se adaptarán a utilizaciones dispares.
Dentro de los medios de transmisión guiados, los más utilizados en el campo de las
telecomunicaciones y la interconexión de computadoras son tres:
El cable de par trenzado consiste en ocho hilos de cobre aislados entre sí,
trenzados de dos en dos que se entrelazan de forma helicoidal, como una
molécula de ADN. De esta forma el par trenzado constituye un circuito que
puede transmitir datos.
Esto se hace porque dos alambres paralelos constituyen una antena simple.
Cuando se trenzan los alambres, las ondas se cancelan, por lo que la radiación
del cable es menos efectiva. Así la forma trenzada permite reducir la
interferencia eléctrica tanto exterior como de pares cercanos.
El entrelazado de cables que llevan señal en modo diferencial (es decir que una
es la invertida de la otra), tiene dos motivos principales:
Ahora bien existen distintos tipos de cable de par trenzado entre los que se
pueden destacar los siguientes:
Cable coaxial
El tipo de cable que se debe utilizar depende de la ubicación del cable. Los
cables coaxiales pueden ser de dos tipos:
o Fibra monomodo: Una fibra monomodo es una fibra óptica en la que sólo
se propaga un modo de luz. Se logra reduciendo el diámetro del núcleo
de la fibra hasta un tamaño (8,3 a 10 micrones) que sólo permite un
modo de propagación. Su transmisión es paralela al eje de la fibra. A
diferencia de las fibras multimodo, las fibras monomodo permiten
alcanzar grandes distancias (hasta 400 km máximo, mediante un láser
de alta intensidad) y transmitir elevadas tasas de información (decenas
d
e
G
b
i
t
/
s
)
.
Dentro de los componentes que se usan en la fibra óptica caben destacar los
siguientes: los conectores, el tipo de emisor del haz de luz, los conversores de
luz, etc.
Los cables de fibra óptica proporcionan una alternativa sobre los coaxiales en
la industria de la electrónica y las telecomunicaciones. Así, un cable con 8
fibras ópticas tiene un tamaño bastante más pequeño que los utilizados
habitualmente, puede soportar las mismas comunicaciones que 60 cables de
1623 pares de cobre o 4 cables coaxiales de 8 tubos, todo ello con una
distancia entre repetidores mucho mayor.
Por otro lado, el peso del cable de fibra óptica es muchísimo menor que el de
los coaxiales, ya que una bobina del cable de 8 fibras antes citado puede pesar
del orden de 30 kg/km, lo que permite efectuar tendidos de 2 a 4 km de una
sola vez, mientras que en el caso de los cables de cobre no son prácticas
distancias superiores a 250 - 300 m.
Satelitales
Luz
Infrarroja
Láser.
En ésta sección se hará referencia a los equipos que permiten el enlace de datos para la
comunicación, los más importantes en redes son: Repetidor, Hub Ethernet, Módem
Trabaja en la capa física (capa 1) del modelo OSI o la capa de acceso al medio en el
modelo TCP/IP. Esto significa que dicho dispositivo recibe una señal y repite esta
señal emitiéndola por sus diferentes puertos (repetidor).
Un concentrador, o repetidor, es un
dispositivo de emisión bastante sencillo.
Los concentradores no logran dirigir el
tráfico que llega a través de ellos, y
cualquier paquete de entrada es
transmitido a otro puerto (que no sea el
puerto de entrada). Dado que cada
paquete está siendo enviado a través de
cualquier otro puerto, aparecen las
colisiones de paquetes como resultado,
que impiden en gran medida la fluidez del
tráfico. Cuando dos dispositivos intentan comunicar simultáneamente, ocurrirá una
colisión entre los paquetes transmitidos, que los dispositivos transmisores detectan.
Al detectar esta colisión, los dispositivos dejan de transmitir y hacen una pausa antes
de volver a enviar los paquetes.
ANEXOS
Originalmente una red de líneas fijas analógicas sitemas de telefonía, la PSTN es casi
enteramente digital en su nucleo e incluye móviles y teléfonos fijos. En un entorno cliente-
servidor, la telefonía se puede administrar como cualquier otro servicio de red. Puede
especificar las líneas y los teléfonos disponibles para usuarios concretos y utilizar la
seguridad del dominio para controlar el acceso a los recursos de telefonía. Los proveedores
de servicios de telefonía y todos los parámetros almacenados se pueden actualizar en una
LAN para facilitar la configuración, el uso y la administración de recursos,
independientemente de la ubicación física.
Cuando una compañía u organización cuenta con dos computadoras que se ubican una
cerca de la otra y necesitan comunicarse, con frecuencia lo más fácil es tender un cable
entre ellas. Las redes LAN funcionan de esta manera. Sin embargo, cuando las distancias
son grandes o hay muchas computadoras, o cuando los cables tienen que pasar por un
camino público u otra vía pública, los costos de tender cables privados son por lo general
prohibitivos. Además, en casi cualquier país del mundo también es ilegal instalar líneas de
transmisión privadas a través (o debajo) de una propiedad pública. Por lo tanto, los
diseñadores de redes deben depender de las instalaciones de telecomunicaciones existentes.
Estas instalaciones, en especial la PSTN (Red Telefónica Pública Conmutada, del inglés
Public Switched Telephone Network), por lo general se diseñaron hace muchos años con un
objetivo completamente distinto en mente: transmitir la voz humana en una forma más o
menos reconocible. Su adaptabilidad para usarse en la comunicación de computadora a
computadora con frecuencia es marginal en el mejor de los casos. Para ver el tamaño del
problema, considere que un cable común y económico tendido entre dos computadoras
puede transferir datos a 1 Gbps o más. En contraste, una línea ADSL común, la
ultrarrápida alternativa al módem telefónico, opera a una velocidad aproximada de 1 Mbps.
La diferencia entre las dos es como viajar en un avión y dar un tranquilo paseo a pie.
Sin embargo, el sistema telefónico está muy entrelazado con las redes de computadoras (de
área amplia), por lo que vale la pena dedicar algo de tiempo para estudiarlo con detalle. El
factor limitante para fines de interconexión resulta ser la “última milla” a través de la cual
se conectan los clientes, no las troncales y conmutadores dentro de la red telefónica. Esta
Poco después de que Alexander Graham Bell patentara el teléfono en 1876 (sólo unas pocas
horas antes que su rival, Elisha Gray), hubo una enorme demanda por su nuevo invento. El
mercado inicial era para la venta de teléfonos, los cuales se vendían en pares. Al cliente le
correspondía tender un cable entre los dos teléfonos. Si el propietario de un teléfono quería
hablar a otros n propietarios de teléfonos, tenía que tender cables separados a cada una de
las n casas. En menos de un año las ciudades estaban cubiertas de cables que pasaban
sobre casas y árboles en un salvaje embrollo. Fue inmediatamente obvio que el modelo de
conectar cada teléfono a cada uno de los otros teléfonos, como se muestra en la figura (a),
no iba a funcionar.
Para su fortuna, Bell había previsto este problema y formó la compañía telefónica Bell, la
cual abrió su primera oficina de conmutación (en New Haven, Connecticut) en 1878. La
compañía tendía un cable hasta la casa u oficina de cada cliente. Para hacer una llamada,
el cliente debía dar vueltas a una manivela en el teléfono para producir un sonido de timbre
en la oficina de la compañía telefónica y atraer la atención de una operadora, quien a su vez
conectaba en forma manual a la persona que llamaba con la persona que iba a recibir la
llamada mediante un cable de puenteo. En la figura (b) se muestra el modelo de una oficina
de conmutación.
Muy pronto surgieron por todas partes oficinas de conmutación de Bell System y la gente
quería hacer llamadas de larga distancia entre ciudades, de modo que el Bell System
empezó a conectar las oficinas de conmutación. Pronto reapareció el problema original:
conectar cada oficina de conmutación con todas las demás mediante un cable entre ellas
pronto dejó de ser práctico, por lo que se inventaron las oficinas de conmutación de
segundo nivel, como se muestra en la figura (c). Con el tiempo, la jerarquía aumentó a cinco
niveles.
1. Lazos locales (pares trenzados analógicos que van a los hogares y negocios).
2. Troncales (enlaces digitales de fibra óptica que conectan las oficinas de conmutación).
3. Oficinas de conmutación (en donde las llamadas se pasan de una troncal a otra).
Después de una breve digresión sobre la política de los teléfonos, analizaremos cada uno de
estos tres componentes detalladamente. Los lazos locales proveen acceso para todos al
sistema completo, por lo que son cruciales. Por desgracia también son el eslabón más débil
en el sistema. Para las troncales de largo alcance, la consideración principal es cómo reunir
varias llamadas y enviarlas a través de la misma fibra. Para ello se requiere la multiplexión
a través de FDM y TDM.
En los primeros días de la fibra óptica, cada compañía telefónica tenía su propio sistema
TDM óptico patentado. Después de la división de AT&T en 1984, las compañías telefónicas
locales se tuvieron que conectar a múltiples portadoras de larga distancia, todas con
diferentes sistemas TDM ópticos, por lo que se hizo obvia la necesidad de la
estandarización. En 1985, Bellcore (la rama de investigación de las RBOC) empezó a
trabajar en un estándar llamado SONET (Red Óptica Síncrona, del inglés Synchronous
Optical NETwork).
Más adelante la ITU se unió al esfuerzo, que en 1989 produjo un estándar llamado SONET y
un conjunto de recomendaciones paralelas de la ITU (G.707, G.708 y G.709). Las
recomendaciones de la ITU se llaman SDH (Jerarquía Digital Síncrona, del inglés
Synchonous Digital Hierarchy) pero difieren de SONET sólo en pequeños aspectos.
Virtualmente todo el tráfico telefónico de larga distancia en Estados Unidos (además de una
gran parte del mismo en otros países) utiliza ahora troncales que funcionan con SONET en
la capa física.
El diseño de SONET tenía cuatro objetivos principales. Primero que nada, SONET tenía que
hacer posible la interconexión de redes de distintas portadoras. Para lograr esta meta se
requería definir un estándar de señalización común respecto a la longitud de onda, la
sincronización, la estructura de tramas y otras cuestiones.
En tercer lugar, SONET tenía que proporcionar una manera de multiplexar varios canales
digitales. En el momento en que se creó SONET, la portadora digital de mayor velocidad
utilizada ampliamente en Estados Unidos era T3, a 44.736 Mbps. La T4 se había definido
pero no se utilizaba mucho, y no había nada definido más allá de la velocidad de la T4. Una
parte de la misión de SONET era continuar la jerarquía hasta los gigabits/seg y más allá.
También se necesitaba una manera estándar de multiplexar canales más lentos en un solo
canal SONET.
En cuarto lugar, SONET tenía que proporcionar soporte para las operaciones, la
administración y el mantenimiento (OAM) necesarios para administrar la red. Los sistemas
anteriores no hacían esto muy bien.
Una decisión temprana fue la de convertir a SONET en un sistema TDM tradicional, con
todo el ancho de banda de la fibra óptica dedicado a un canal que contuviera ranuras de
tiempo para los distintos subcanales. Como tal, SONET es un sistema síncrono. Cada
emisor y receptor está enlazado a un reloj común. El reloj maestro que controla al sistema
tiene una precisión de alrededor de 1 en 109. Los bits en una línea SONET se envían a
intervalos extremadamente precisos, controlados por el reloj maestro.
La trama SONET básica es un bloque de 810 bytes que se emite cada 125 μseg. Puesto que
SONET es síncrona, las tramas se emiten haya o no datos útiles que enviar. La velocidad de
Aun si el sistema de telefonía tradicional llegara algún día a utilizar fibra óptica con
capacidad de multigigabit desde un extremo hasta el otro, no podría satisfacer a un grupo
creciente de usuarios: las personas en movimiento. Ahora las personas esperan hacer
llamadas telefónicas y usar sus teléfonos para revisar su correo electrónico y navegar por la
web desde aviones, autos, albercas y mientras trotan en el parque.
El sistema de telefonía móvil se utiliza para la comunicación de datos y voz de área amplia.
Los teléfonos móviles (también conocidos como teléfonos celulares) han pasado por tres
generaciones distintas, conocidas comúnmente como 1G, 2G y 3G. Las generaciones son:
1. Voz analógica.
2. Voz digital.
(No debemos confundir los teléfonos móviles con los teléfonos inalámbricos, los cuales
consisten en una estación base y un auricular que se venden en conjunto para usarlos
dentro del hogar. Éstos nunca se utilizan para las redes, de modo que no los examinaremos
con más detalle). Aunque la mayor parte de nuestro estudio se enfoca en la tecnología de
estos sistemas, es interesante observar cómo las decisiones políticas y de mercado pueden
tener un enorme impacto. El primer sistema móvil fue inventado en Estados Unidos por
AT&T y se hizo obligatorio en todo el país mediante la FCC. Como resultado, todo Estados
Unidos tenía un solo sistema (analógico), por lo que un teléfono móvil comprado en
California también funcionaba en Nueva York. En contraste, cuando los teléfonos móviles
llegaron a Europa cada país desarrolló su propio sistema, lo cual resultó en un fiasco.
Europa aprendió de su error y cuando llegó el sistema digital, las PTT gubernamentales se
reunieron y crearon estándares para un solo sistema (GSM), de modo que cualquier teléfono
móvil europeo pudiera funcionar en cualquier parte de Europa. Para entonces, Estados
Unidos había decidido que el gobierno no debería participar en el negocio de la
estandarización, así que dejó el sistema digital a cargo del mercado.
Debido a esta decisión, los distintos fabricantes de equipos produjeron tipos diferentes de
teléfonos móviles.
A pesar del liderazgo inicial de Estados Unidos, ahora hay más propietarios y usuarios de
teléfonos móviles en Europa. Tener un solo sistema que funcione en cualquier parte de
Un tercer aspecto que ha tenido un gran impacto sobre la adopción de los teléfonos móviles
es el extenso uso de los teléfonos móviles prepagados en Europa (hasta un 75% en algunas
áreas). Estos teléfonos se pueden comprar en muchas tiendas con la misma formalidad
como si se comprara una cámara digital.
Usted sólo paga y se va. Vienen precargados con un saldo de, por ejemplo, 20 o 50 euros, y
se pueden recargar (mediante un código NIP secreto) cuando el saldo queda en cero. Debido
a esto, prácticamente todos los adolescentes y muchos niños pequeños en Europa tienen
teléfonos móviles (por lo general, prepagados) para que sus padres puedan localizarlos, sin
el peligro de que el niño pague una enorme cuenta, ya que no hay un cargo mensual por las
llamadas entrantes.
Dejemos a un lado los aspectos políticos y de marketing de los teléfonos móviles. Ahora
analizaremos la tecnología, empezando con el primero de los sistemas. Los radioteléfonos
móviles se utilizaban esporádicamente para comunicación marítima y militar durante las
primeras décadas del siglo xx. En 1946 se estableció el primer sistema de teléfonos
instalados en autos en St. Louis. Este sistema utilizaba un solo transmisor grande colocado
en la parte superior de un edificio alto y tenía un solo canal, el cual servía tanto para enviar
como para recibir. Para hablar, el usuario tenía que oprimir un botón para habilitar el
transmisor y deshabilitar el receptor. Dichos sistemas, conocidos como sistemas de oprimir
para hablar, se instalaron en varias ciudades desde finales de la década de 1950. El radio
de banda civil (CB), los taxis y las patrullas utilizan con frecuencia esta tecnología.
En la década de 1960, se instaló el IMTS (Sistema Mejorado de Telefonía Móvil, del inglés
Improved Mobile Telephone System). También utilizaba un transmisor de alta potencia (200
watts) en la parte superior de una colina, pero tenía dos frecuencias: una para enviar y otra
para recibir. De esta forma, ya no era necesario el botón de oprimir para hablar. Como toda
la comunicación de los teléfonos móviles entraba por un canal distinto al de las señales de
salida, los usuarios móviles no se podían escuchar entre sí (a diferencia del sistema de
oprimir para hablar que utilizaban los taxis).
Así como en la primera generación no hubo una estandarización a nivel mundial, tampoco
la segunda cuenta con ello. Se desarrollaron varios sistemas distintos, de los cuales tres se
han implementado ampliamente. D-AMPS (Sistema Avanzado de Telefonía Móvil Digital, del
inglés Digital Advanced Mobile Phone System) es una versión digital de AMPS que coexiste
con este sistema y usa TDM para colocar múltiples llamadas en el mismo canal de
frecuencia. Se describe en el estándar internacional IS-54 y en su sucesor, IS-136. GSM
(Sistema Global para Comunicaciones Móviles, del inglés Global System for Mobile
communications) se ha establecido como el sistema dominante, y aunque tardó en
popularizarse en Estados Unidos ahora se utiliza casi en cualquier parte del mundo. Al
igual que D-AMPS, GSM se basa en una mezcla de FDM y TDM. El sistema CDMA (Acceso
Múltiple por División de Código, del inglés Code Division Multiple Access), que se describe
en el estándar internacional IS-95, es un tipo de sistema completamente distinto y no se
basa en FDM ni en TDM. Aunque CDMA no se ha convertido en el sistema 2G dominante,
su tecnología forma la base para los sistemas 3G.
GSM empezó en la década de 1980 como un esfuerzo por producir un solo estándar europeo
de 2G. La tarea se asignó a un grupo de telecomunicaciones llamado (en francés) Groupe
Specialé Mobile. Los primeros sistemas GSM se implementaron a partir de 1991 y fueron un
éxito inmediato. Pronto quedó claro que GSM iba a ser más que un éxito en Europa, puesto
que se estaba popularizando en países tan lejanos como Australia, por lo cual se cambió su
nombre para que tuviera un atractivo más enfocado al mercado mundial.
Al igual que los sistemas 1G, GSM y los demás sistemas de telefonía móvil que
estudiaremos conservan un diseño basado en celdas, la reutilización de frecuencias entre
celdas y la movilidad mediante entregas, a medida que se mueven los suscriptores. Son los
La figura muestra que la arquitectura GSM es similar a la arquitectura AMPS, aunque los
componentes tienen distintos nombres. Ahora el móvil en sí es dividido en el teléfono y en
un chip removible con información del suscriptor y la cuenta, conocido como tarjeta SIM
(Módulo de Identidad del Suscriptor, del inglés Subscriber Identity Module). La tarjeta SIM
activa el teléfono y contiene los secretos que permiten al móvil y a la red identificarse entre
sí y cifrar las conversaciones. Es posible quitar la tarjeta SIM e insertarla en un teléfono
distinto para convertirlo en su teléfono móvil en lo que respecta a la red.
La primera generación de teléfonos móviles era de voz analógica y la segunda generación era
de voz digital. La tercera generación de teléfonos móviles, o 3G como se le conoce
comúnmente, es de voz y datos digitales. Hay varios factores que impulsan la industria.
Primero, el tráfico de datos ya es mayor que el tráfico de voz en la red fija y está creciendo
en forma exponencial, mientras que el tráfico de voz es en esencia fijo. Muchos expertos en
la industria esperan también que el tráfico de datos domine al tráfico de voz en los
dispositivos móviles muy pronto. Segundo, las industrias de telefonía, entretenimiento y
computadoras se han vuelto digitales y están convergiendo con rapidez. Muchas personas
suspiran por los dispositivos ligeros y portátiles que actúan como teléfono, reproductor de
música y de video, terminal de correo electrónico, interfaz web, máquina de juegos y mucho
más, todo con conectividad inalámbrica mundial a Internet con un alto ancho de banda.
El iPhone de Apple es un buen ejemplo de este tipo de dispositivo 3G. Con él, las personas
se envician en los servicios de datos inalámbricos y, en consecuencia, los volúmenes de
datos inalámbricos de
Los supuestos servicios básicos que la red IMT-2000 debía proveer a sus usuarios
son:
4. Acceso a Internet (navegar por web, incluyendo las páginas con audio y video).
Hay una alternativa para la conectividad de redes fija que está tomando mucha
importancia: las redes de televisión por cable. Muchas personas ya tienen su teléfono y
servicio de Internet a través de cable, y los operadores de cable están trabajando
arduamente para incrementar su participación de mercado.
La televisión por cable se concibió en la última parte de la década de 1940 como una forma
de proporcionar mejor recepción a las personas que viven en las áreas rurales o
montañosas. El sistema consistió inicialmente en una antena grande en la cima de una
colina para captar la señal de televisión, un amplificador, llamado amplificador head end,
para reforzarla y un cable coaxial para enviarla a las casas de las personas.
A través de los años, el sistema de televisión por cable creció y los cables entre las distintas
ciudades se reemplazaron por fibra de ancho de banda alto, de manera similar a lo que
sucedió con el sistema telefónico. Un sistema con fibra para distancias considerables y cable
coaxial para las casas se conoce como sistema HFC (Red Híbrida de Fibra Óptica y Cable
Coaxial). Los convertidores electroópticos que interactúan entre las partes óptica y eléctrica
del sistema se llaman nodos de fibra. Debido a que el ancho de banda de la fibra es mucho
mayor al del cable coaxial, un nodo de fibra puede alimentar múltiples cables coaxiales.
El acceso a Internet requiere un módem de cable, un dispositivo que tiene dos interfaces:
una en la computadora y la otra en la red de cable. En los primeros años de Internet por
cable, cada operador tenía un módem de cable patentado, que era instalado por un técnico
de la compañía de cable. Sin embargo, pronto quedó claro que un estándar abierto podría
crear un mercado de módems de cable competitivo y bajar los precios, con lo que se
alentaría el uso del servicio. Además, al permitir que los clientes compren los módems de
cable en tiendas y que los instalen ellos mismos (como lo hicieron con los módems de
teléfono V.9x) se podrían eliminar los temidos camiones de la compañía de cable.
En consecuencia, los operadores de cable más grandes se unieron a una compañía llamada
CableLabs para producir un módem de cable estándar y probar la compatibilidad de
BIBLIOGRAFÍA
García Teodoro, Pedro; Díaz Verdejo, Jesús Esteban; López Soler, Juan Manuel
(2003). Transmisión de datos y redes de computadores. Pearson Educación.
Redes de computadoras. 4ta Edición. Andrew S. Tanenbaum.
Diapositivas Introducción a las redes. ELT 3762. Ing. J. J. Castelo Oporto.
Iver Claros. Modelo OSI. Universidad Privada Cumbre.
es.wikipedia.org