Está en la página 1de 73

REPÚBLICA BOLIVARIANA DE VENEZUELA

MINISTERIO DEL PODER POPULAR PARA LA DEFENSA


DIRECCIÓN GENERAL DE EDUCACIÓN
INSTITUTO UNIVERSITARIO MILITAR DE COMUNICACIONES Y
ELECTRÓNICA DE LA FUERZA ARMADA NACIONAL
DIVISIÓN ACADÉMICA
CÁTEDRA: TELEMÁTICA

CONCEPTOS Y LEYES BÁSICAS DE


LAS TELECOMUNICACIONES

Tutor: Participantes:
Prof. Alberto León Sm/1ra. Javier Molina Quintero
Sm/1ra. Ronald López Blanco
Sm/3ra. José Contreras Salas
Sm/3ra. José González Carrillo

Caracas, Junio de 2.009


I. ÍNDICE
I. ÍNDICE. Pág. 2
II. INTRODUCCIÓN. Pág. 3
III. DESARROLLO Pág. 4
Web Hosting Pág.
Tesam Pág.
Telefonía IP Pág.
Datagrama Pág.
TV plasma Pág.
Diafonía Pág.
MAP Pág.
WIFI Pág.
Señalización Pág.
ETD Pág.
IP/PDH Pág.
RPC Pág.
Fractales Pág.
Redes de microondas Pág.
Tecnología Inalámbrica WIFI Pág.
Blu Ray Pág.
Tarjeta D’link Gigabit 10/100/1000 Pág.
Superconductividad Pág.
10g Base LRM Pág.
Encaminamiento Pág.
1000 Base SX Pág.
LAP Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
Pág.
VII. CONCLUSIÓN. Pág.
VIII BIBLIOGRAFÍAS. Pág.
.
II. INTRODUCCIÓN.

La historia de la humanidad ha tenido grandes avances en todos sus ámbitos,


sobre todo en las tecnologías. De allí se desprende una de ellas como es las
telecomunicaciones. Ellas nos han permitido llevar a cabo infinidad de estudios o
investigaciones, que sin lugar a dudas ha sido la gran afluente en la humanidad.
En el curso telemático N° 12, nos hemos propuesto elaborar un trabajo donde
vamos definir una variedad de términos, leyes, normas, teoremas, entre otros, que con
mucha frecuencia son usados en el área de las comunicaciones, las
telecomunicaciones, la telemática, la informática, y que han sido utilizados en el
crecimiento y avance de la tecnología.
Estaremos refiriéndonos a los siguientes puntos como lo son; los Web Hosting
Tesam, la Telefonía Ip, los Datagrama, Tv Plasma, Diafonía, MAP, WIFI,
Señalización, ETD, IP/PDH, RPC, Fractales, Redes de Microondas, Tecnología
Inalámbrica WIFI, Blu Ray, Tarjeta D’link, Gigabit 10/100/1000,
Superconductividad, 10g Base LRM, Encaminamiento, 1000 Base SX, LAP,
entre otros.
El desarrollo de los puntos antes mencionados, nos dará el basamento
informativo que requerimos para enriquecer los conocimientos ya obtenidos a fin de
concluir felizmente la cátedra en desarrollo. Sin más a que hacer referencia, los
invitamos a visualizar el trabajo como tal, esperando que su contenido sea de su más
completo provecho.
III. DESARROLLO.

1. El Web Hosting ó Alojamiento Web.


El alojamiento web (en inglés web hosting) es el servicio que provee a los
usuarios de Internet un sistema para poder almacenar información, imágenes, vídeo, o
cualquier contenido accesible vía Web. Los Web Host son compañías que
proporcionan espacio de un servidor a sus clientes.

Alojamiento web.
Fig. 1

a. Tipos de Alojamiento Web.


El alojamiento web se divide en seis tipos: gratuitos, compartidos,
revendedores, servidores virtuales, servidores dedicados y de colocación.
1) Alojamiento gratuito: El alojamiento gratuito es extremadamente
limitado cuando se lo compara con el alojamiento de pago. Estos servicios
generalmente agregan publicidad en los sitios y tienen un espacio y tráfico
limitado.
2) Alojamiento compartido: (shared hosting): En este tipo de servicio se
alojan clientes de varios sitios en un mismo servidor, gracias a la
configuración del programa servidor web. Resulta una alternativa muy
buena para pequeños y medianos clientes, es un servicio económico y
tiene buen rendimiento.
3) Alojamiento de Imágenes: Este tipo de hospedaje se ofrece para guardar
tus imágenes en Internet, la mayoría de estos servicios son gratuitos y las
páginas se valen de la publicidad colocadas en su página al subir la
imagen.
4) Alojamiento Revendedor (reseller): Este servicio de alojamiento está
diseñado para grandes usuarios o personas que venden el servicio de
Hosting a otras personas. Estos paquetes cuentan con gran cantidad de
espacio y de dominios disponibles para cada cuenta.
5) Servidores virtuales (VPS, Virtual Private Server); mediante el uso de
una máquina virtual, la empresa ofrece el control de un ordenador
aparentemente no compartido. Así se pueden administrar varios dominios
de forma fácil y económica, además de elegir los programas que se
ejecutan en el servidor. Por ello, es el tipo de producto recomendado para
empresas de diseño y programación web.
6) Servidores dedicados: El término servidor dedicado se refiere a una
forma avanzada de alojamiento web en la cual el cliente alquila o compra
un ordenador completo, y por tanto tiene el control completo y la
responsabilidad de administrarlo. El cuidado físico de la máquina y de la
conectividad a Internet es tarea de la empresa de alojamiento, que suele
tenerlo en un centro de datos.
7) Colocación (o housing): Este servicio consiste básicamente en vender o
alquilar un espacio físico de un centro de datos para que el cliente coloque
ahí su propio ordenador. La empresa le da la corriente y la conexión a
Internet, pero el ordenador servidor lo elige completamente el usuario
(hasta el hardware).
2. Telefonía Satelital en Ascenso (TESAM).
En Venezuela, Iridium y Globalstar ofrecen sus servicios de transmisión de
voz y datos a nivel global, que van dirigidos a viajeros frecuentes y usuarios de sitios
lejanos.
A nivel mundial, los servicios de Comunicaciones Móviles Satelitales ya
están en funcionamiento, ofreciendo diversos servicios a viajeros frecuentes y
usuarios de sitios lejanos.
Si bien la actual crisis económica ha retrasado el desarrollo de estos servicios
de Telecomunicaciones en Venezuela, los expertos consideran que en un País tan
abierto a las nuevas tecnologías hay un mercado potencial para los servicios
satelitales que ofrecen valor agregado a diversos tipos de usuarios.
Para conocer más de este tema, dinero indagó sobre los planes de crecimiento
y proyectos que desean consolidar Iridium y Globalstar, empresas de telefonía
satelital que ya operan en suelo venezolano.

a. Reestructuración de planes.
Dentro del mercado venezolano, Iridium aspira a consolidarse como una red
global de telefonía inalámbrica móvil satelital que permita a los usuarios comunicarse
utilizando teléfonos portátiles y pagers desde y hacia cualquier parte del mundo.
Para ello cuenta con 66 satélites de órbita baja que se apoyan en estaciones
terrestres inalámbricas repartidas a lo largo del globo terráqueo que garantizan una
transmisión efectiva de sus comunicaciones.
Para desarrollar e implantar su red de telefonía satelital, Iridium ha invertido
alrededor de 5 millardos de dólares, lo cual lo convierte en uno de los proyectos más
ambiciosos en materia de telecomunicaciones.
En relación con sus estrategias financieras y de mercadeo, Iridium ha venido
introduciendo una serie de cambios sobre la comercialización del servicio.
Como explica Enrique Camacho, director de mercadeo de Iridium
Sudamérica, el nuevo enfoque está dirigido hacia los mercados industriales, con una
significativa reducción y simplificación tanto de las tarifas como del precio de los
equipos.
"En este nuevo ciclo, la corporación se ajustará a los requerimientos del
mercado con una renovada estrategia de comercialización que permitirá ofrecer
tarifas más sencillas y una mayor relación costo–beneficio", expresó.

b. Un Nuevo Norte.
Dentro de su estrategia por captar un mayor número de usuarios, Iridium
apuntará hacia los mercados industriales y rurales, donde la oferta de servicio
adquiere gran valor y los usuarios han demostrado tener necesidades particulares de
comunicación satelital.
La nueva estrategia de la empresa apunta hacia diversos segmentos de
mercado, tales como el marítimo, petrolero, minero, construcción, militar, generación
y distribución eléctrica, ganadero, transporte y forestal.
Camacho refiere que, gracias a la experiencia que goza Motorola a nivel
internacional, Iridium pretende lograr un mejor acercamiento con los canales de
distribución, para así ofrecer su ámplia gama de servicios y de soluciones a un mayor
número de usuarios.
"El ajuste de las tarifas, tanto de los servicios Iridium como el de los equipos,
ya es un hecho. En tal sentido, Motorola y Kyocera han anunciado descuentos
significativos en los precios de sus equipos satelitales, que pueden ser adquiridos
desde 1.890 dólares por teléfono", acota.
Iridium también reestructuró sus tarifas de modo de ofrecer planes más
enfocados y accesibles a los usuarios. La tarifa por minuto Iridium va desde 1,65
dólares a 3,19 dólares para las llamadas internacionales hacia cualquier destino del
planeta.
Cabe destacar que actualmente el mercado suramericano de Iridium equivale
a 10 por ciento del total de las operaciones globales. Venezuela, Colombia, Perú,
Brasil, Argentina y Chile representan aproximadamente 80 por ciento de esta región,
constituida por un total de 37 países, incluyendo las islas del Caribe.

c. Tecnología en marcha.
Otro de los sistemas más conocidos en el mercado internacional es
Globalstar, que se encuentra diseñado para proporcionar servicios satelitales de
transmisión de voz que sean económicamente asequibles a una diversa gama de
subscriptores y usuarios.
Con 32 satélites en órbita, esta empresa busca cubrir las necesidades de
usuarios de celulares y viajeros internacionales que se trasladan a zonas que están
fuera de su cobertura celular.
También puede ser utilizado por residentes de mercados que carecen de un
buen servicio de comunicaciones, quienes emplearán los teléfonos fijos de
Globalstar para satisfacer sus necesidades de telefonía básica.
Como explica Maritza Escalona, gerente general de Tesam de Venezuela -
representante local de Globalstar, este consorcio construye una estación terrestre en
territorio venezolano, la cual se ubica entre las poblaciones de Mamporal y San José
de Río Chico (estado Miranda).
Este complejo cuenta con un edificio de 1.000 metros cuadrados, cuatro bases
de antenas y un terreno de 10 hectáreas que estarán funcionando en menos de seis
meses.
Paralelamente, Tesam procedió a la importación de los equipos telefónicos
que emplearán los usuarios de sus servicios. La empresa ofrecerá equipos fabricados
por Ericsson y Qualcomm. Sus operaciones arrancarán a fines de este año.
"Todo ello forma parte del esquema de desarrollo del nuevo sistema de
telecomunicaciones Globalstar, que representa una inversión de 30 millones de
dólares en Venezuela", acota.

d. Servicio Exportable.
Globalstar espera que una vez terminada la estación terrena venezolana, pueda
suministrar los servicios en un radio de acción de 1.500 kilómetros que incluye las
tres Guyanas, el Caribe hasta Puerto Rico, Colombia y el norte de Brasil.
Escalona señala que si bien en Colombia y Brasil se construyen otras
estaciones, la estación de Los Velázquez será utilizada como respaldo a estos países.
De esta manera, Tesam de Venezuela se convertirá en el primer exportador de
servicios de telecomunicaciones de Venezuela.
A nivel mundial, Globalstar ha previsto instalar entre 50 y 100 estaciones
terrenas, cada una de las cuales cubrirá una zona específica de hasta 3.000 kilómetros
de diámetro aproximadamente.

3. ¿Qué es la Telefonía IP o VoIP?


La Telefonía IP es una tecnología que permite integrar en una misma red,
basada en protocolo IP, las comunicaciones de voz y datos. Muchas veces se utiliza el
término de redes convergentes o convergencia IP, aludiendo a un concepto un poco
más ámplio de integración en la misma red de todas las comunicaciones (voz, datos,
video, entre otros).
Esta tecnología hace ya muchos años que está en el mercado (desde finales de
los 90) pero no ha sido hasta hace poco que se ha generalizado gracias,
principalmente, a la mejora y estandarización de los sistemas de control de la calidad
de la voz (QoS) y a la universalización del servicio Internet.
Las principales ventajas de la telefonía IP son la simplificación de la
infraestructura de comunicaciones en la empresa, la integración de las diferentes
sedes y trabajadores móviles de la organización en un sistema unificado de telefonía
con gestión centralizada, llamadas internas gratuitas, plan de numeración integrado y
optimización de las líneas de comunicación la movilidad y el acceso a
funcionalidades avanzadas (buzones de voz, IVR, ACD, CTI, etc.)

a. Ahorros en costes.
1) Simplificación de la infraestructura: Una única plataforma técnica
para voz y datos: Menor inversión, mantenimiento y formación.
2) Simplificación cableado de red: Unificación del cableado voz y
datos en Ethernet y posibilidad de compartir un único punto de red
entre PC y Teléfono.
3) Menores costes de gestión: Las extensiones se pueden reubicar
simplemente cambiando los teléfonos IP de sitio y punto de red.
4) Los cambios de configuración se pueden hacer en remoto.
5) Llamadas internas gratis entre sedes de una empresa.
6) Fácil acceso a proveedores VoIP, con llamadas muy económicas y
otros servicios avanzados de gran valor pero muy asequibles a
cualquier empresa.

b. Mejoras Funcionales.
1) Unificación del sistema de telefonía entre sedes:
a) Plan de numeración integrado.
b) Llamada directa extensión a extensión sin coste.
c) Centralización/Diversificación del puesto de operadora: Las
llamadas entrantes pueden dirigirse a cualquier operadora
independientemente de su ubicación, siguiendo criterios de
disponibilidad o carga de trabajo.
d) Gestión centralizada del sistema de telefonía.

c. Mejora en la Atención a Clientes.


1) Música en espera basada en archivos tipo MP3.
2) Operadora Automática (IVR).
3) CTI: Integración con sistemas de gestión (CRM), para llamadas
automáticas o identificación datos del cliente por su CLID.
4) ACD: Distribución de llamadas entrantes entre agentes comerciales.
5) IPCC: Aplicaciones específicas para centros de llamadas (Call
Centers) o departamentos comerciales.

d. Incremento de productividad del empleado.


1) Sistema de correo vocal (Voice Mail) integrado con correo
electrónico y directorio.
2) Movilidad: posibilidad de acceder a su extensión telefónica (IP) en
cualquier punto:
3) Reubicación en la red corporativa, en cualquier delegación.
4) Acceso para Teletrabajo.

e. Terminales Duales SIP-GSM: Teléfonos móviles que disponen de


interfaz WIFI con protocolo SIP, pudiendo logarse a centralita SIP.

4. Datagrama.
Un datagrama es un fragmento de paquete que es enviado con la suficiente
información como para que la red pueda simplemente encaminar el fragmento hacia
el equipo terminal de datos receptor, de manera independiente a los fragmentos
restantes. Esto puede provocar una recomposición desordenada o incompleta del
paquete en el ETD destino.
a. La estructura de un datagrama es: cabecera y datos.
Protocolos basados en datagramas: IPX, UDP, IPoAC, CL, los datagramas
tienen cabida en los servicios de red no orientados a la conexión (como por ejemplo
UDP) o Datagrama.
Agrupación lógica de información que se envía como una unidad de capa de
red a través de un medio de transmisión sin establecer con anterioridad un circuito
virtual. Los datagramas IP son las unidades principales de información de Internet.
Los términos trama, mensaje, paquete y segmento también se usan para describir las
agrupaciones de información lógica en las diversas capas del modelo de referencia
OSI y en los diversos círculos tecnológicos.
Un datagrama tiene una cabecera de IP que contiene información de
direcciones de la capa 3. Los encaminadores examinan la dirección de destino de la
cabecera de IP, para dirigir los datagramas al destino.
La capa de IP se denomina no orientada a conexión ya que cada datagrama se
encamina de forma independiente e IP no garantiza una entrega fiable, ni en
secuencia, de los mismos. IP encamina su tráfico sin tener en cuenta la relación entre
aplicaciones a la que pertenece un determinado datagrama.

5. ETD.
ETD; Equipo Terminal de Datos. Se considera ETD a cualquier equipo
informático, sea receptor o emisor final de datos.
El equipo terminal de datos o ETD (DTE, Data Terminal Equipment) es
aquel componente del circuito de datos que hace de fuente o destino de la
información. Puede ser un terminal, una impresora o también un potente ordenador.
La característica definitoria de un ETD no es la eficiencia ni la potencia de cálculo,
sino la función que realiza: ser origen o destino en una comunicación.
Un ETD fuente por lo general contiene la información almacenada en un
dispositivo de memoria principal permanente (que se modifica sin un flujo
electrónico continuo), el ETD destino es aquel que recibe una información o datos de
manera directa o indirecta, sin alterar el contenido de la información durante el total
del proceso.
Si solo los procesa y los envía sin modificarlo a un tercero sería un ETCD
(por ejemplo una computadora).
También definido como, Equipo Terminal de Datos. Lado de una interfaz que
representa al usuario de los servicios de comunicación de datos en una norma como
RS232C o X.25. Los ETD son generalmente ordenadores o terminales de ordenador.
ETCD Equipo terminal del circuito de datos, también conocido como ECD
(Equipo de Comunicación de datos, en inglés DCE). Un ETCD es todo dispositivo
que participa en la comunicación entre dos dispositivos pero que no es receptor final
ni emisor original de los datos que forman parte de esa comunicación. Es el
componente del circuito de datos que transforma o adecua las señales para poder
utilizar el canal de comunicaciones.Eustachian Tube Dysfunction

6. La Pantalla de Plasma.
a. Concepto.
Una pantalla de plasma (Plasma Display Panel – PDP) es un tipo de pantalla
plana habitualmente usada para grandes TV (alrededor de 37 pulgadas o 940 mm.).
Consta de muchas celdas diminutas situadas entre dos paneles de cristal que
contienen una mezcla de gases nobles (neón y xenón). El gas en las celdas se
convierte eléctricamente en plasma el cual provoca que una substancia fosforescente
(que no es fósforo) emita luz.

b. Histórica de la Pantalla de Plasma.


La pantalla de plasma fue inventada en 1964 en la Universidad de Illinois
por Donald L. Bitzer, Gene Slottow y el estudiante Robert Willson para poder
comer, el plato Computer System. Eran monocromas (naranja, verde y amarillo) y
fueron muy populares al comienzo de los 70 por su dureza y porque no necesitaban ni
memoria ni circuitos para actualizar la imagen.
A finales de los 70 tuvo lugar un largo periodo de caída en las ventas debido a
que las memorias de semiconductores hicieron a las pantallas CRT más baratas que
las pantallas de plasma. No obstante, su tamaño de pantalla relativamente grande y la
poca profundidad de su cuerpo las hicieron aptas para su colocación en vestíbulos y
bolsas de valores.
En 1973, IBM introdujo una pantalla monocroma de 11 pulgadas (483 mm)
que era capaz de mostrar simultáneamente cuatro sesiones de terminal de la máquina
virtual del IBM 3270. Esta fábrica fue trasladada en 1987 a una compañía llamada
Plásmaco que había sido fundada recientemente por el Doctor Larry F. Weber (uno
de los estudiantes del doctor Bitzer), Stephen Globus y James Kehoe (que era el
encargado de planta de IBM).
En 1992, Fujitsu creó la primera pantalla de 15 pulgadas (233 mm.) en blanco
y negro.

c. Características generales.
1) Las pantallas de plasma son brillantes (1000 lux o más por módulo),
tienen un ámplia gama de colores y pueden fabricarse en tamaños
bastante grandes, hasta 262 cm de diagonal.
2) Tienen una luminancia muy baja a nivel de negros, creando un negro
que resulta más deseable para ver películas.
3) Esta pantalla sólo tiene cerca de 6 cm de grosor y su tamaño total
(incluyendo la electrónica) es menor de 10 cm.
4) Los plasmas usan tanta energía por metro cuadrado como los
televisores CRT o AMLCD.
5) El consumo eléctrico puede variar en gran medida dependiendo de qué
se esté viendo en él. Las escenas brillantes (como un partido de fútbol)
necesitarán una mayor energía que las escenas oscuras (como una
escena nocturna de una película).
6) Las medidas nominales indican 400 vatios para una pantalla de 50
pulgadas. Los modelos relativamente recientes consumen entre 220 y
310 vatios para televisores de 50 pulgadas cuando se está utilizando en
modo cine.
7) La mayoría de las pantallas están configuradas con el modo “tienda”
por defecto y consumen como mínimo el doble de energía que con una
configuración más cómoda para el hogar.
8) El tiempo de vida de la última generación de pantallas de plasma está
estimado en unas 100.000 horas (o 30 años a 8 horas de uso por día) de
tiempo real de visionado. En concreto, éste es el tiempo de vida medio
estimado para la pantalla, el momento en el que la imagen se ha
degradado hasta la mitad de su brillo original. Se puede seguir usando
pero se considera el final de la vida funcional del aparato.
9) Los competidores incluyen a LCD, CRT, OLED, AMLCD, DLP,
SED-tv, etc. La principal ventaja de la tecnología del plasma es que
pantallas muy grandes pueden ser fabricadas usando materiales
extremadamente delgados. Ya que cada píxel es iluminado
individualmente, la imagen es muy brillante y posee un gran ángulo de
visión.

Plasma-display-composition
Figura N° 1

7. La Diafonía.
En Telecomunicación, se dice que entre dos circuitos existe diafonía,
denominada en inglés Crosstalk (XT), cuando parte de las señales presentes en uno de
ellos, considerado perturbador, aparece en el otro, considerado perturbado.
La diafonía, en el caso de cables de pares trenzados se presenta generalmente
debido a acoplamientos magnéticos entre los elementos que componen los circuitos
perturbador y perturbado o como consecuencia de desequilibrios de admitancia entre
los hilos de ambos circuitos.
La diafonía se mide como la atenuación existente entre el circuito perturbador
y el perturbado, por lo que también se denomina atenuación de diafonía.

a. Inteligibilidad de la diafonía.
Atendiendo a cómo son percibidas las señales perturbadoras, generadas en un
circuito como consecuencias de la diafonía, esta puede ser inteligible o no inteligible.
Como el mismo término indica, diafonía inteligible es aquella en que en el circuito
perturbado se oye y se entiende la conversación que se cursa por el circuito
perturbador.
Este tipo de diafonía es sumamente dañino por cuanto, además de la
perturbación en sí, supone un riesgo para el secreto de las comunicaciones que las
empresas operadoras de telefonía están obligadas a proteger, por lo que se
recomienda por la UIT que la diferencia entre el nivel de la señal útil y el nivel de la
diafonía entre los diversos pares de un mismo cable no debe ser inferior a 58 dB para
el 90% de las combinaciones de dos circuitos y de 52 dB para la totalidad de las
combinaciones.
Hay casos en que la diafonía es ininteligible, con lo cual en el circuito
perturbado solo se percibe como ruido. Esto sucede cuando la naturaleza de las
señales transmitidas por ambos circuitos son distintas, por ejemplo: analógica en uno
y digital en el otro o cuando se utiliza la multiplexación por división de frecuencia y
no coinciden las portadoras de los sistemas de transmisión empleados en cada uno de
los circuitos.
De hecho, en la época en que este tipo de multiplexación era ampliamente
utilizado, se recurría a disponer de varias versiones de un mismo sistema con las
portadoras desplazadas 1 o 2 KHz uno respecto a otro, con lo cual la diafonía era
siempre ininteligible.
En el caso de señales digitales en ambos circuitos, el objetivo es que la
diafonía se mantenga dentro de unos límites tales que no pueda ser reconocida como

señal útil por el extremo receptor. (dB)

Telediafonía.
Figura N° 2

8. WI-FI.
a. Concepto.
Es un sistema de envío de datos sobre redes computacionales que utiliza ondas
de radio en lugar de cables, además es una marca de la Wi-Fi Alliance (anteriormente
recibía el nombre de; la WECA: Wireless Ethernet Compatibility Alliance (Alianza
de Compatibilidad Ethernet Inalámbrica), la organización comercial que adopta,
prueba y certifica que los equipos cumplen los estándares 802.11.

b. Historia de la Wi-Fi
Nokia y Symbol Technologies crearon en 1999 una asociación conocida como
WECA (Wireless Ethernet Compatibility Alliance, Alianza de Compatibilidad
Ethernet Inalámbrica). Esta asociación pasó a denominarse Wi-Fi Alliance en 2003.
El objetivo de la misma fue crear una marca que permitiese fomentar más fácilmente
la tecnología inalámbrica y asegurar la compatibilidad de equipos.
De esta forma en Abril de 2000 WECA certifica la inter–operatibilidad de
equipos según la norma IEEE 802.11b bajo la marca Wi-Fi. Esto quiere decir que el
usuario tiene la garantía de que todos los equipos que tengan el sello Wi-Fi pueden
trabajar juntos sin problemas, independientemente del fabricante de cada uno de ellos.
Se puede obtener un listado completo de equipos que tienen la certificación Wi-Fi en
Alliance – Certified – Products. Para el año 2002 la asociación WECA estaba
formada ya por casi 150 miembros en su totalidad.
La norma IEEE 802.11 fue diseñada para sustituir el equivalente a las capas
físicas y MAC de la norma 802.3 (Ethernet). Esto quiere decir que en lo único que se
diferencia una red Wi-Fi de una red Ethernet es en cómo se transmiten las tramas o
paquetes de datos; el resto es idéntico. Por tanto, una red local inalámbrica 802.11 es
completamente compatible con todos los servicios de las redes locales (LAN) de
cable 802.3 (Ethernet).

c. El nombre.
Aunque se pensaba que el término viene de Wireless Fidelity como
equivalente a Hi-Fi, High Fidelity, que se usa en la grabación de sonido, realmente la
WECA contrató a una empresa de publicidad para que le diera un nombre a su
estándar, de tal manera que fuera fácil de identificar y recordar. Phil Belanger,
miembro fundador de Wi-Fi Alliance que apoyó el nombre Wi-Fi escribió:
Cita textual; “Wi-Fi y el "Style logo" del Ying Yang fueron inventados por la
agencia Interbrand. Nosotros (WiFi Alliance) contratamos Interbrand para que nos
hiciera un logotipo y un nombre que fuera corto, tuviera mercado y fuera fácil de
recordar. Necesitábamos algo que fuera algo más llamativo que “IEEE 802.11b de
Secuencia Directa”. Interbrand creó nombres como “Prozac”, “Compaq”,
“OneWorld”, “Imation”, por mencionar algunas. Incluso inventaron un nombre
para la compañía: VIVATO.”, fin de la cita.

Tarjeta USB para WIFI


Figura N° 3

Módem de WIFI.
Figura N° 4
9. Señalización E y M.
a. Concepto.
En telecomunicaciones se define como la comunicación que se da entre los
equipos de telecomunicaciones, entre centros de procesamiento, entre la central y el
abonado o entre bloques de software, para el establecimiento y liberación de las
llamadas, o para intercambiar información de gestión, tarificación, mantenimiento,
entre otros.
Por tanto un sistema de señalización es el conjunto normalizado y coordinado
de señales, las cuales intercambian los órganos que intervienen en una conexión, con
el fin de establecerla, supervisarla, mantenerla y eliminarla cuando los abonados que
intervienen en dicha conexión lo deseen.
Uno de los sistemas de señalización más populares es el Sistema de
Señalización por Canal Común N° 7 (SS7), desarrollado por AT&T a partir de 1975 y
definido como un estándar por el UIT-T en 1981 en la serie de recomendaciones
Q.7XX del UIT-T.

b. Señalización por Hilos E y M.


Es un tipo de señalización telefónica, utilizado entre conmutadores analógicos
de circuitos telefónicos, que se caracteriza por el empleo de vías separadas para las
frecuencias de señalización y las de voz. En este tipo de señalización las señales se
transmiten al terminal distante mediante el denominado hilo M y se reciben por el
hilo E. Curiosamente, se hace notar que M es la abreviatura de Mouth (boca en
inglés), lo que simboliza vía de hablar o de transmitir, en tanto que E viene de Ear
(oído) que simboliza escuchar o recibir.
En los antiguos sistemas de transmisión que utilizaban la multiplexación por
división de frecuencia, los hilos de señalización se conectaban a un dispositivo
denominado señalizador, que convertía los impulsos de corriente contínua,
procedentes del conmutador, en impulsos de la misma duración y una frecuencia
fuera de la banda vocal (300-3400 Hz), generalmente 3825 Hz. Estos tonos fuera de
banda se transmitían utilizando las bandas de frecuencia comprendidas entre canales.
En los sistemas de transmisión de modulación por impulsos codificados se
utiliza un canal específico para la transmisión de la señalización de todos los canales
del sistema. Este canal es el número 16 en el caso de los sistemas de 2,048 Mbps y se
denomina sistema PCM-TDM con señalización por canal asociado (CAS).
La señalización digital (digital signage en idioma inglés), también conocida
como señalización digital dinámica o señalización digital multimedia, es el uso de
contenidos digitales emitidos a través de pantallas como monitores LCD, pantallas de
plasma o en paneles de LED.
Esta tecnología substituye cada vez más los carteles tradicionales para mejorar
la presentación y promoción de productos, para visualizar información o incluso para
facilitar la interacción con los contenidos.
Además de presentar los contenidos de forma dinámica en vez de estática,
permite crear una red de sistemas audiovisuales con contenidos diariamente
actualizados. Para la utilización de estos sistemas se utiliza la combinación de
hardware, un software especial para el reproductor y la gestión de contenidos, la
conexión con Internet u otra tecnología que permita la actualización remota, como
UMTS.

10. La RPC, (Llamada a Procedimiento Remoto).


La RPC (del inglés Remote Procedure Call, Llamada a Procedimiento
Remoto) es un protocolo que permite a un programa de ordenador ejecutar código en
otra máquina remota sin tener que preocuparse por las comunicaciones entre ambos.
El protocolo es un gran avance sobre los sockets usados hasta el momento. De esta
manera el programador no tenía que estar pendiente de las comunicaciones, estando
éstas encapsuladas dentro de las RPC.
Las RPC son muy utilizadas dentro del paradigma cliente - servidor. Siendo el
cliente el que inicia el proceso solicitando al servidor que ejecute cierto
procedimiento o función y enviando éste de vuelta el resultado de dicha operación al
cliente.
Hay distintos tipos de RPC, muchos de ellos estandarizados como pueden ser
el RPC de Sun denominado ONC RPC (RFC 1057), el RPC de OSF denominado
CE/RPC y el Modelo de Objetos de Componentes Distribuidos de Microsoft
(DCOM), aunque ninguno de estos es compatible entre sí. La mayoría de ellos
utilizan un lenguaje de descripción de interfaz (IDL) que define los métodos
exportados por el servidor.

11. Un Fractal.
a. Concepto.
Un fractal es un objeto semi–geométrico cuya estructura básica, fragmentada
o irregular, se repite a diferentes escalas. El término fue propuesto por el matemático
Benoit Mandelbrot en 1975 y deriva del Latín fractus, que significa quebrado o
fracturado. Muchas estructuras naturales son de tipo fractal.

b. Características de un Fractal.
1) Es demasiado irregular para ser descrito en términos geométricos
tradicionales.
2) Posee detalle a cualquier escala de observación.
3) Es auto–similar (exacta, aproximada o estadística).
4) Su dimensión de Hausdorff–Besicovitch es estrictamente mayor que su
dimensión topológica.
5) Se define mediante un simple algoritmo recursivo.
No nos basta con una sola de estas características para definir un fractal. Por
ejemplo, la recta real no se considera un fractal, pues a pesar de ser un objeto auto–
similar carece del resto de características exigidas.
Un fractal natural es un elemento de la naturaleza que puede ser descrito
mediante la geometría fractal. Las nubes, las montañas, el sistema circulatorio, las
líneas costeras ó los copos de nieve son fractales naturales. Esta representación es
aproximada, pues las propiedades atribuidas a los objetos fractales ideales, como el
detalle infinito, tienen límites en el mundo natural.

12. Red por microondas.


a. Concepto.
Es un tipo de red inalámbrica que utiliza microondas como medio de
transmisión. El protocolo más frecuente es el IEEE 802.11b y transmite a 2.4 GHz,
alcanzando velocidades de 11 Mbps. Otras redes utilizan el rango de 5,4 a 5,7 GHz
para el protocolo IEEE 802.11a.

b. Internet por microondas.


Muchas empresas que se dedican a ofrecer servicios de Internet, lo hacen a
través de las microondas, logrando velocidades de transmisión y recepción de datos
de 2.048 Mbps (nivel estándar ETSI, E1), o múltiplos.
El servicio utiliza una antena que se coloca en un área despejada sin
obstáculos de edificios, árboles u otras cosas que pudieran entorpecer una buena
recepción en el edificio o la casa del receptor y se coloca un módem que interconecta
la antena con la computadora. La comunicación entre el módem y la computadora se
realiza a través de una tarjeta de red, que deberá estar instalada en la computadora.
La comunicación se realiza a través de microondas, en España en las bandas
de 3,5 o 26 GHz.
La tecnología inalámbrica trabaja bien en ambientes de ciudades
congestionadas, ambientes suburbanos y ambientes rurales, al sobreponerse a los
problemas de instalación de líneas terrestres, problemas de alcance de señal,
instalación y tamaño de antena requeridos por los usuarios.

c. Etapas de la comunicación:
1) Cuando el usuario final accede a un navegador de Internet instalado en
su computadora y solicita alguna información o teclea una dirección
electrónica, se genera una señal digital que es enviada a través de la
tarjeta de red hacia el módem.
2) El módem especial convierte la señal digital a formato analógico (la
modula) y la envía por medio de un cable coaxial a la antena.
3) La antena se encarga de radiar, en el espacio libre, la señal en forma de
ondas electromagnéticas (microondas).
4) Las ondas electromagnéticas son captadas por la radio base de la
empresa que le brinda el servicio, esta radio base a su vez la envía
hacia el nodo central por medio de un cable generalmente de fibra
óptica ó de otra radio de gran capacidad para conexiones punto a punto
en bandas de frecuencia disponibles (6GHz, 13GHz, 15GHz, 18GHz,
23GHz, 26GHz o 38GHz).
5) El nodo central valida el acceso del cliente a la red, y realiza otras
acciones como facturación del cliente y monitoreo del desempeño del
sistema.
6) Finalmente el nodo central dirige la solicitud hacia Internet y una vez
que localiza la información se envía la señal de regreso a la
computadora del cliente. Este proceso se lleva a cabo en fracciones de
segundo. Explica las 3 diferentes formas de conectar las redes.

13. Tecnología Inalámbrica Wifi.


Cuando hablamos de WIFI nos referimos a una de las tecnologías de
comunicación inalámbrica mediante ondas, más utilizada en la actualidad. WIFI,
también llamada WLAN (wireless lan, red inalámbrica) o estándar IEEE 802.11.
WIFI no es una abreviatura de Wireless Fidelity, simplemente es un nombre
comercial.
a. Tipos de comunicación WIFI.
En la actualidad podemos encontrarnos con dos tipos de comunicación WIFI:
1) 802.11b, que emite a 11 Mb/seg.
2) 802.11g, más rápida, a 54 MB/seg.
De hecho, son su velocidad y alcance (unos 100-150 metros en hardware
asequible) lo convierten en una fórmula perfecta para el acceso a internet sin
cables.
Para tener una red inalámbrica en casa sólo necesitaremos un punto de
acceso, que se conectaría al módem, y un dispositivo WIFI que se conectaría en
nuestro aparato. Existen terminales WIFI que se conectan al PC por USB, pero son
las tarjetas PCI (que se insertan directamente en la placa base) las recomendables, nos
permite ahorrar espacio físico de trabajo y mayor rapidez. Para portátiles podemos
encontrar tarjetas PCMI externas, aunque muchos de los aparatos ya se venden con
tarjeta integrada.
En cualquiera de los casos es aconsejable mantener el punto de acceso en un
lugar alto para que la recepción/emisión sea más fluida. Incluso si encontramos que
nuestra velocidad no es tan alta como debería, quizás sea debido a que los
dispositivos no se encuentren adecuadamente situados o puedan existir barreras entre
ellos (como paredes, metal o puertas).
El funcionamiento de la red es bastante sencillo, normalmente sólo tendrás
que conectar los dispositivos e instalar su software. Muchos de los enrutadores WIFI
(routers WIFI) incorporan herramientas de configuración para controlar el acceso a la
información que se transmite por el aire.
Pero al tratarse de conexiones inalámbricas, no es difícil que alguien
interceptara nuestra comunicación y tuviera acceso a nuestro flujo de información.
Por esto, es recomendable la encriptación de la transmisión para emitir en un entorno
seguro. En WIFI esto es posible gracias al WPA, mucho más seguro que su
predecesor WEP y con nuevas características de seguridad, como la generación
dinámica de la clave de acceso.
Para usuarios más avanzados existe la posibilidad de configurar el punto de
acceso para que emita sólo a ciertos dispositivos. Usando la dirección MAC, un
identificador único de los dispositivos asignados durante su construcción, y
permitiendo el acceso solamente a los dispositivos instalados.

Tecnología Inalámbrica Wifi


Figura N° 5

14. Blu – Ray (Rayo azul o Rayazul).


a. Concepto.
Blu–ray, es también conocido como Blu-ray Disc o BD, Rayo azul o
Rayazul, es un formato de disco óptico de nueva generación de 12 cm de diámetro
(igual que el CD y el DVD) para vídeo de alta definición y almacenamiento de datos
de alta densidad. El uso del laser azul para escritura y lectura permite almacenar más
cantidad de información por área que los discos DVD, debido a que el láser azul tiene
una menor longitud de onda que los láseres usados para almacenar en discos DVD.
Su capacidad de almacenamiento llega a 50 Gigabytes a doble capa, y a 25
GB a una capa. El Blu–ray de 400 GB a 16 capas ya fue patentado y se espera que
salga al mercado en el 2010, así como se tiene pensado patentar un Blu–ray de 1
Terabyte para 2011 ó 2012. La consola de videojuegos PlayStation 3 puede leer
discos de hasta doble capa y se ha confirmado que está lista para recibir el disco de 16
capas.
Este formato se impuso a su competidor, el HD DVD, en la guerra de
formatos iniciada para convertirse en el estándar sucesor del DVD, como en su día
ocurrió entre el VHS y el Betamax, o el fonógrafo y el gramófono. Después de la
caída de muchos apoyos de HD-DVD, Toshiba decidió abandonar la fabricación de
reproductores y las investigaciones para mejorar su formato

Bluray
Figura N° 6

15. Los Encaminadores.


Los encaminadores examinan la dirección de destino de la cabecera de IP,
para dirigir los datagramas al destino.
16. La Audio–conferencia.
a. Concepto.
La audio–conferencia es la modalidad más antigua y sencilla de
teleconferencia, sin que esto se interprete como la de mayor facilidad en su uso o la
menos tecnificada. Su uso se ha extendido para diversos fines que van desde el
ámbito de los negocios hasta la educación. Es un sistema sincrónico, interactivo, es
decir, los participantes coinciden en tiempo real y se adecuan a una programación de
horario; en forma planeada admite el apoyo de imágenes para optimizar el logro de
objetivos, aunque generalmente se realiza sin estímulos visuales, mediante la
comunicación oral; requiere tecnología común, de fácil acceso, es flexible en su
calendarización y planeación; posibilita la conexión de varias sedes. De entre los
medios que favorecen la interacción en vivo, es la de menor costo.
b. Audio–conferencia o Audio–teleconferencia:
Se transmite la voz a través de una línea telefónica amplificándola en los
lugares de reunión.
Se dan varios tipos de audio–conferencia de acuerdo al número de sedes que
intervengan en la teleconferencia, pudiendo ser:
Para realizar una audio–conferencia se requiere:
1) Acceso a toma de corriente eléctrica.
2) Línea telefónica, de preferencia directa.
3) Aparato telefónico con amplificador de voz.
El uso de la audio–conferencia presenta, entre otras ventajas, el posibilitar la
interacción entre individuos ubicados físicamente en lugares distantes, requiere
tecnología de fácil acceso, permite una mayor cobertura, no se necesita un espacio
especialmente diseñado para su uso y su montaje es menos complicado que el de
cualquier otro tipo de teleconferencia.
Podemos observar también ciertas desventajas: existe incredulidad sobre la
eficacia de este recurso al darse la ausencia del contacto visual, el uso del medio
tecnológico puede cohibir la participación de los estudiantes, propicia que se
monopolice el uso de la palabra, se da cierta dependencia de la tecnología y requiere
personal capacitado en cada sede participante.
Al realizar audio–conferencias, el responsable debe cuidar que la conexión
telefónica se realice en el horario previamente acordado, verificar que el volumen de
voz de los participantes sea el adecuado así como sus intervenciones, ya que éstas
deben ser oportunas, tener contenido y evitar la trivialidad.
Algo prioritario al utilizar esta modalidad de teleconferencia, y en general al
usar cualquier medio como recurso con fines educativos, es no perder de vista que
son sólo un apoyo al aprendizaje, lo central es el contenido y el modelo pedagógico
presente en las acciones del docente, sin descuidar las dimensiones del aprendizaje
(perceptual, cognitiva, emocional y social), todo debe girar en torno de este propósito,
no depender de la tecnología ni hacer derroche en el uso de medios por el hecho de
tenerlos o por conocer la técnica de su uso.
Cabe hacer la precisión de que no debe confundirse el uso del audio como
recurso educativo con la tele–audioconferencia. El utilizar un audio para presentar
una conferencia previamente grabada, presupone que la interacción se dará
posteriormente, al trabajar con los contenidos abordados. En una audio–
teleconferencia, en cambio, la interacción es en el momento, y la construcción de
aprendizajes es apoyada al usar el medio, lo que permite que profesor y estudiante
estén físicamente distantes o que el profesor utilice la intervención de algún experto
para profundizar cierto contenido temático.
La audio–conferencia es útil para la realización de asesorías, esto sin perder
de vista que no debe caerse en la sola exposición magistral, el medio debe
aprovecharse al máximo para lograr la interacción con personas entre las que media
una distancia, sirviendo así para salvar obstáculos y no para apoyar vicios de los que
adolece la educación, como el protagonismo y la conducción unilateral en el proceso
enseñanza-aprendizaje.
17. Redes de Valor Agregado o Añadido.
Una red de valor añadido (VAN) es ofrecer un servicio alojado que actúa
como intermediario entre los socios de negocio basado en las normas de reparto o de
propiedad de datos compartida a través de procesos de negocio. El servicio ofrecido
se denomina "Valor añadido de servicios de red".
a. Definición Técnica.
VAN tradicionalmente como de transmisión de datos con formato de
intercambio electrónico de datos, pero también cada vez más que transmitir datos en
formato XML o de forma más específica "binario" formatos. VAN generalmente un
determinado servicio o industria vertical y ofrecer "Servicios de Red de Valor
Añadido" ("VAN Servicios" o VANSs), tales como la transformación entre los
formatos de datos (EDI a XML, EDI-a-EDI, etc.)
En un extremo, un VAN anfitriones sólo horizontal entre empresas de
servicios de integración de aplicaciones, alojamiento de propósito general los
servicios de integración para cualquier proceso o la industria. En el otro extremo
VAN también alberga un proceso específico o específicas de la industria de
integración, por ejemplo, la cadena de suministro de pedidos o los servicios de
sincronización de datos.
A VAN no sólo los transportes (recibe, almacena y transmite), pero también
añade los mensajes de auditoría de información a los mismos y modifica los datos en
el proceso automático de detección y corrección de errores o la conversión entre
protocolos de comunicación.
b. Comercialización de las telecomunicaciones.
La gran escala de asignación de los servicios de red por las empresas privadas
en conflicto controladas por el Estado con el sector de las telecomunicaciones. Para
poder obtener una licencia para la prestación de servicios de telecomunicaciones a los
clientes, una empresa privada tuvo que "añadir valor" a las comunicaciones en línea
para ser distinguible servicio. Por lo tanto, la noción de "valor agregado de servicios
de red" se estableció para permitir la operación de empresas privadas tales como la
exención del control estatal.
El sector de telecomunicaciones se comercializó en los EE.UU. en 1982
(véase Modificación del Juicio Final) y en el Reino Unido a partir de comienzos del
decenio de 1980 (manily debido a la privatización de la British Telecom en virtud PM
Margaret Thatcher). En la última de 1980, ejecutando una "Red de Valor Agregado
Servicio" necesaria la concesión de licencias en el Reino Unido, mientras que "VAN"
no ha hecho más que convertirse en una descripción funcional de un determinado
subconjunto de la red de comunicación de datos en los EE.UU.
En una escala multinacional, debido a la heterogeneidad de la economía y la
infraestructura de telecomunicaciones antes de la penetración en el mercado de la
Internet, la gestión de un servicio VAN resultaba una tarea complicada para conducir
a la idea de "redes definidas por el usuario". Los esfuerzos de normalización de redes
de datos fueron realizadas por la UIT-T (antiguo CCIT) y se incluirán X.25
(conmutación de paquetes de red) y X.400 (sistemas de tratamiento de mensajes),
específicamente motivados por una competencia transatlántica emergentes a
principios de 1990.
En la ausencia de estado de accionamiento del sector de las
telecomunicaciones, "Valor añadido de servicios de red" aún se utiliza,
principalmente como una descripción de funciones, en relación con el dedicado de
líneas arrendadas para B2B comunicaciones (especialmente para EDIFACT de
transferencia de datos).
Gobiernos como el de Sudáfrica todavía mantienen regulación mientras que
otros servicios específicos con la dirección de licencias.
Tradicionalmente, la mayoría de redes de valor añadido sólo apoya
principalmente para fines generales capacidades de integración B2B EDI, pero se
centró en los proveedores de servicios que están evolucionando para convertirse en
procesos más específicos de la industria y con el tiempo, especialmente en industrias
tales como el comercio minorista y de alta tecnología de fabricación.

18. Inmarsat.
a. Concepto.
Inmarsat es una compañía basada en Reino Unido que provee soluciones de
Telecomunicación Satelital Móvil (TSM). Originalmente fue fundada como una
Organización Intergubernamental. Inmarsat cuenta con una constelación de 11
satélites geo–estacionarios con lo cual tiene una cobertura de casi todo el planeta,
exceptuando de los polos Norte y Sur.
Las soluciones de Inmarsat están orientadas a áreas fuera de cobertura de
sistemas de comunicación tradicional y entre sus usuarios principalmente se destacan
agencias gubernamentales, organismos internacionales, empresas de Petróleo & Gas,
Minería, transporte marítimo, entre otros. Inmarsat no atiende clientes directos sino a
través de su red mundial de distribuidores.

b. Características principales
1) Los servicios de Inmarsat incluyen tradicionalmente llamadas de voz,
telemetría y transmisión banda ancha.
2) La línea de producto más reciente de Inmarsat es la de las terminales
BGAN las cuales permiten transmisión de datos de hasta 492 Kbps en
terminales que van desde el tamaño de una notebook pequeña y con
peso desde 0.9 Kg.
3) El coste estimado de una llamada vía los sistemas de Inmarsat son de
1.49 USD x minutos y los de transmisión banda ancha de 6.00 USD X
Megabyte.
4) Los satélites de la nueva generación de Inmarsat F1 y F2 también
conocidos como los satélites I4 (cuarta generación de satélites de
Inmarsat) son los satélites comerciales de telecomunicación más grandes
lanzados hasta la fecha (agosto de 2008). Con solo estos dos satélites los
servicios Inmarsat basados en los satélites I4 tienen una cobertura de
más del 85% de la superficie terrestre.
5) Todas las líneas de Inmarsat cuentan con el código país 870 u 871,872,
873 y 874. A finales del año 2008 todas las líneas tendrán el
denominador común 870 y los demás códigos quedarán en desuso.
c. Tipos de Satélites.
Cobertura Lanzamiento
Satélite Servicios / Notas
Longitud Vehículos Fecha (GMT)

Satélites Inmarsat-4

Solamente servicios BGAN y Regional BGAN.


Inmarsat-4 F1 IOR 64° Este Atlas V 11 Mar. 2005
Será movido al 143.5° este

Sea Launch Zenit Opera casi todos los servicios Inmarsat. Será
Inmarsat-4 F2 AOR-West 53° Oeste 8 Nov. 2005
3SL movido al 25° Este

Lanzamiento planeado a ser realizado por


Inmarsat-4 F3 98° Oeste Cohete Protón 2008-08-13 (GMT)
International Launch Services.

Satélites Inmarsat-3

Inmarsat-3 F1 IOR 64° Este Atlas Centaur IIA 3 Abr. 1996 Servicios de voz y datos hasta 2.4 Kbps.

Inmarsat-3 F2 AOR-E 15.5° Oeste Protón D-1-E 6 Sep. 1996 Servicios de voz y datos hasta 2.4 Kbps.

Inmarsat-3 F3 POR 178° Este Atlas Centaur IIA 18 Dic. 1996 Servicios de voz y datos hasta 2.4 Kbps.

Inmarsat-3 F4 PAC-C 142° Oeste Ariane 4 (V97) 3 Jun. 1997 Servicios de alquiler de ancho de banda.

Inmarsat-3 F5 IND-W 25° Este Ariane 4 (V105) 4 Feb. 1998 Servicios de voz y datos hasta 2.4 Kbps.
Satélites Inmarsat-2 (Empleados principalmente en alquiler de ancho de banda)

Inmarsat-2
PAC-W 143.5° Este Delta II 30 Oct. 1990 vida operacional esperada hasta 2010
F1

Inmarsat-2
PAC-E 98° Oeste Delta II 8 Mar. 1991 vida operacional esperada hasta 2010
F2

Inmarsat-2
Ariane 44L 16 Dic. 1991 en desuso desde 2006
F3

Inmarsat-2
IND-W 25° Este Protón Abril 1992 vida operacional esperada hasta 2016
F4
19. VPN. (Red Privada Virtual).
a. Concepto.
La Red Privada Virtual (RPV), en inglés Virtual Private Network (VPN), es
una tecnología de red que permite una extensión de la red local sobre una red pública
o no controlada, como por ejemplo Internet.
Ejemplos comunes son, la posibilidad de conectar dos o más sucursales de una
empresa utilizando como vínculo Internet, permitir a los miembros del equipo de
soporte técnico la conexión desde su casa al centro de cómputo, o que un usuario
pueda acceder a su equipo doméstico desde un sitio remoto, como por ejemplo un
hotel. Todo ello utilizando la infraestructura de Internet.

b. Características.
1) Autenticación y autorización: ¿Quién está del otro lado? Usuario ó
equipo y ¿qué nivel de acceso debe tener?
2) Integridad: La garantía de que los datos enviados no han sido alterados.
Para ello se utiliza funciones de Hash. Los algoritmos de hash más
comunes son los Message Digest (MD2 y MD5) y el Secure Hash
Algorithm (SHA).
3) Confidencialidad: Dado que los datos viajan a través de un medio tan
hostil como Internet, dichos datos son susceptibles de intercepción, por
lo que resulta fundamental el cifrado de los mismos. De este modo, la
información no debe poder ser interpretada por nadie más que los
destinatarios de la misma. Se hace uso de algoritmos de cifrado como
Data Encryption Standard (DES), Triple DES (3DES) y Advanced
Encryption Standard (AES).
4) No repudio: Es decir, un mensaje tiene que ir firmado, y el que lo firma
no puede negar que el mensaje lo envió él.

c. Requerimientos básicos.
b. Identificación de usuario: las VPN deben verificar la identidad de los
usuarios y restringir su acceso a aquellos que no se encuentren
autorizados.
c. Codificación de datos: los datos que se van a transmitir a través de la
red pública (Internet), antes deben ser cifrados, para que así no puedan
ser leídos. Esta tarea se realiza con algoritmos de cifrado como DES o
3DES que solo pueden ser leídos por el emisor y receptor.
d. Administración de claves: las VPN deben actualizar las claves de
cifrado para los usuarios.

d. Uso del VPN.


Las VPN son una salida al costo que puede significar el pagar una conexión
de alto costo, para usar líneas alquiladas que estén conectadas a otros puntos que
puedan hacer uso de la conexión a Internet o para hacer negocios con clientes
frecuentes a través de la red.
Los datos son codificados o cifrados e inmediatamente enviados a través de la
conexión, para de esa manera asegurar la información y la contraseña que se esté
enviando.
Esta tecnología proporciona un medio para aprovechar un canal público de
Internet como un canal privado o propio para comunicar datos que son privados. Más
aún, con un método de codificación y encapsulamiento, una VPN básica, crea un
camino privado a través de Internet. Esto reduce el trabajo y riesgo en una gestión de
red.
La tecnología de túneles está basada en estándares. Esta tecnología permite
transmitir datos entre dos redes similares. A esto también se llama "encapsulación",
es decir, a la tecnología que coloca algún tipo de paquetes dentro de otro protocolo
(TCP). Aparte de todo esto, también se añade otra información necesaria para poder
descifrar la información que se encuentra codificada. Estos paquetes llegan a su
destino después de haber atravesado Internet, pero para verificar que ha llegado al
destino correcto se realiza un proceso de autentificación.
Las VPNs son una gran solución a distintos problemas, pero solo en el campo
de la economía de los usuarios porque por ejemplo en el caso de que se realice una
conexión entre dos sedes de empresas, una en Japón y la otra en Chile, sería muy
costoso el realizar un cableado entre estos dos países, y un enlace inalámbrico
satelital sería muy costoso. Es por ello que una red privada virtual es más económica
porque solo se hace uso de Internet que es un conjunto de redes conectadas entre sí.

20. VLAN.
a. Concepto.
Una VLAN (acrónimo de Virtual LAN, ‘red de área local virtual’) es un
método de crear redes lógicamente independientes dentro de una misma red física.
Varias VLANs pueden coexistir en un único conmutador físico o en una única red
física.
Son útiles para reducir el tamaño del dominio de difusión y ayudan en la
administración de la red separando segmentos lógicos de una red de área local (como
departamentos de una empresa) que no deberían intercambiar datos usando la red
local (aunque podrían hacerlo a través de un enrutador o un switch capa 3).
Una 'VLAN' consiste en una red de ordenadores que se comportan como si
estuviesen conectados al mismo conmutador, aunque pueden estar en realidad
conectados físicamente a diferentes segmentos de una red de área local. Los
administradores de red configuran las VLANs mediante software en lugar de
hardware, lo que las hace extremadamente flexibles. Una de las mayores ventajas de
las VLANs surge cuando se traslada físicamente algún ordenador a otra ubicación:
puede permanecer en la misma VLAN sin necesidad de cambiar la configuración IP
de la máquina.

b. Protocolo y diseño.
El protocolo de etiquetado IEEE 802.1Q domina el mundo de las VLANs.
Antes de su introducción existían varios protocolos propietarios, como el ISL (Inter-
Switch Link) de Cisco, una variante del IEEE 802.1Q, y el VLT (Virtual LAN Trunk)
de 3Com.
Los primeros diseñadores de redes enfrentaron el problema del tamaño de los
dominios de colisión (Hubs) esto se logró controlar a través de la introducción de los
conmutadores pero a su vez se introdujo el problema del aumento del tamaño de los
dominios de difusión y una de las formas más eficientes para manejarlo fue la
introducción de las VLANs. Las VLANs también pueden servir para restringir el
acceso a recursos de red con independencia de la topología física de ésta, si bien la
robustez de este método es discutible al ser el salto de VLAN (VLAN hopping) un
método común de evitar tales medidas de seguridad.
Las VLANs funcionan en el nivel 2 (enlace de datos) del modelo OSI. Sin
embargo, los administradores suelen configurar las VLANs como correspondencia
directa de una red o subred IP, lo que les da apariencia de funcionar en el nivel 3
(red).
En el contexto de las VLANs, el término trunk (‘troncal’) designa una
conexión de red que transporta múltiples VLANs identificadas por etiquetas (o tags)
insertadas en sus paquetes. Dichos trunks deben operar entre tagged ports (puertos
etiquetados) de dispositivos con soporte de VLANs, por lo que a menudo son enlaces
conmutador a conmutador o conmutador a enrutador más que enlaces a nodos. (Para
mayor confusión, el término trunk también se usa para lo que Cisco denomina
«canales»; véase agregado de enlaces). Un enrutador (conmutador de nivel 3)
funciona como columna vertebral para el tráfico de red transmitido entre diferentes
VLANs.
En los dispositivos Cisco, VTP (VLAN Trunking Protocol) permite definir
dominios de VLAN, lo que facilita las tareas administrativas. VTP (Cisco) también
permite «podar», lo que significa dirigir tráfico VLAN específico sólo a los
conmutadores que tienen puertos en la VLAN destino.

21. BIT STREAM.


El término Bitstream se utiliza para definir un servicio mayorista de acceso de
datos en banda ancha que un operador (generalmente obligado a ello por tener PSM)
ofrece a otros operadores más pequeños, para que estos a su vez puedan proporcionar
servicios minoristas a los usuarios finales. El servicio Bitstream no implica ni
conlleva acceso al bucle de abonado.
Además del acceso, el operador también puede ofrecer (o estar obligado a
hacerlo) a sus competidores otros servicios de transmisión por medio de su red ATM
o IP, para que el tráfico del DSLAM pueda estar disponible en aquellos puntos de la
red donde el operador cliente esté interconectado (por ejemplo en una central de
tránsito).

a. Puntos de entrega del Bitstream.


1) En el propio DSLAM.
2) En un punto de presencia ATM-PoP.
3) En un acceso IP.
El servicio Bitstream es básico para la competencia en el mercado de banda
ancha. Permite que los operadores no dominantes puedan competir ofreciendo
servicios a los usuarios finales, incluso no teniendo acceso directo al bucle.
El servicio Bitstream incluye el que los pequeños operadores arrienden al
operador dominante los modems DSLAMs y demás equipos, evitando tener que
efectuar inversiones directas en el acceso. La consecuencia es que afecta a los costes
y que limita el tipo y variedad de aparatos de acceso que puede usar el usuario final.

b. Principales elementos de un acceso Bitstream.


Un operador (generalmente con PSM) proporciona acceso bidireccional en
banda ancha a los usuarios finales, agregando un número de dichos accesos en un
flujo de datos que entrega a otro operador en un punto alejado, de modo que este
segundo operador pueda ofrecer servicios a sus clientes, en competencia con el
primer operador.
Por tanto, el acceso Bitstream es un servicio mayorista que consiste en un
acceso (generalmente xDSL) más un “backhaul” para agregar y entregar datos a otro
operador.
En conclusión se puede decir que los principales son; los PSM y los Xdsl.

22. SPREAD SPECTRUM.


El espectro ensanchado (también llamado espectro esparcido, espectro
disperso, spread spectrum o SS) es una técnica de modulación empleada en
telecomunicaciones para la transmisión de datos, por lo común digitales y por
radiofrecuencia.
El fundamento básico es el "ensanchamiento" de la señal a transmitir a lo
largo de una banda muy ancha de frecuencias, mucho más amplia, de hecho, que el
ancho de banda mínimo requerido para transmitir la información que se quiere enviar.
No se puede decir que las comunicaciones mediante espectro ensanchado son medios
eficientes de utilización del ancho de banda. Sin embargo, rinden al máximo cuando
se los combina con sistemas existentes que hacen uso de la frecuencia.
La señal de espectro ensanchado, una vez ensanchada puede coexistir con
señales en banda estrecha, ya que sólo les aportan un pequeño incremento en el ruido.
En lo que se refiere al receptor de espectro ensanchado, él no ve las señales de banda
estrecha, ya que está escuchando un ancho de banda mucho más amplio gracias a una
secuencia de código preestablecido.
La traducción del inglés spread spectrum se hace con distintos adjetivos según
las fuentes; pueden emplearse indistintamente espectro ensanchado, expandido,
difuso o disperso para referirse en todos los casos al mismo concepto.
Podemos concluir diciendo que todos los sistemas de espectro ensanchado
satisfacen dos criterios:
1) El ancho de banda de la señal que se va a transmitir es mucho mayor que el ancho
de banda de la señal original.
2) El ancho de banda transmitido se determina mediante alguna función
independiente del mensaje y conocida por el receptor.

a. Ventajas.
1) Resiste todo tipo de interferencias, tanto las no intencionadas como las
malintencionadas (más conocidas con el nombre de jamming), siendo
más efectivo con las de banda estrecha.
2) Tiene la habilidad de eliminar o aliviar el efecto de las interferencias
multisenda.
3) Se puede compartir la misma banda de frecuencia con otros usuarios.
4) Confidencialidad de la información transmitida gracias a los códigos
pseudoaleatorios (multiplexación por división de código).

b. Desventajas
1) Ineficiencia del ancho de banda.
2) La implementación de los circuitos es en algunos casos muy compleja.

23. METABUSCADOR.
a. Concepto.
Un metabuscador es una clase de buscador que carece de base de datos propia
y, en su lugar, usa las de otros buscadores y muestra una combinación de las mejores
páginas que ha devuelto cada buscador. Un buscador normal recopilan la información
de las páginas mediante su indexación, como Google o bien mantiene un amplio
directorio temático, como Yahoo. La definición simplista sería que un metabuscador
es un buscador de buscadores.

b. Tipos o variedad de metabuscadores.


Actualmente existe una variedad, siendo los más utilizados kartoo, turbo10,
webcrawler, dogpile, cluspy entre otros. Los metabuscadores facilitan y hacen más
eficiente la búsqueda de información.

c. Ventajas.
1) Los metabuscadores amplían en forma notoria el ámbito de las
búsquedas que realizamos, proporcionando mayor cantidad de
resultados.
2) La forma de combinar los resultados depende del metabuscador
empleado.
3) Puesto que muchos multibuscadores muestran en los resultados la
posición de la web en los buscadores nos permite evaluar la relevancia
de cada web mostrada.
Hay que tener en cuenta que cada buscador utiliza su propia estrategia a la
hora recoger información de una página y a la hora de ordenar los resultados de las
búsquedas, esto repercute en que las páginas de mayor relevancia en un buscador no
tienen por qué coincidir en los del resto aportando puntos de vista distintos.

c. Desventajas.
1) Cada buscador dispone de su propia sintaxis de búsqueda y en el
metabuscador no se puede hacer distinción entre las diferentes sintaxis
de cada buscador.
2) Al buscar información muy específica es mejor emplear buscadores de
los que conozcamos la sintaxis.
3) Incertidumbre en los criterios que emplean los multibuscadores para la
ordenación de los resultados.
Al tener que buscar en varias fuentes, las búsquedas suelen tardar más que un
buscador normal. Muchos de los multibuscadores permiten establecer un tiempo
máximo para realizar la búsqueda.
24. PDA.
a. Concepto.
PDA, del inglés Personal Digital Assistant (Asistente Digital Personal), es un
computador de mano originalmente diseñado como agenda electrónica (calendario,
lista de contactos, bloc de notas y recordatorios) con un sistema de reconocimiento de
escritura.
En nuestros tiempos (2009) estos dispositivos, pueden realizar muchas de las
funciones de una computadora de escritorio (ver películas, crear documentos, juegos,
correo electrónico, navegar por Internet, reproducir archivos de audio, etc.) pero con
la ventaja de ser portátil.

b. Características.
Actualmente, un PDA típico tiene:
1) Una pantalla táctil para ingresar información.
2) Un slot de memoria para almacenarla.
3) Al menos Infrarrojo, Bluetooth ó WiFi.
4) Incluye por lo general un calendario.
5) Un directorio de contactos.
6) Algún programa para agregar notas.
7) También contienen soporte para navegar por la red y para revisar el
correo electrónico.

b. Ventajas.
1) Touch Screen.
Muchos PDAs como el Apple Newton y el Palm Pilot, tiene pantallas
táctiles para interactuar con el usuario, por lo que tienen muy pocos botones
reservados para abrir los programas más utilizados. Por lo general los PDAs con esta
pantalla tienen un lápiz desmontable, con el cual se realizan todas las tareas. Para
agregar texto por lo general se usan uno de los siguientes métodos:
 Se usa un teclado virtual, y para agregar las letras hay que tocar cada una de ellas.
 Se puede conectar un teclado externo conectado vía USB o Bluetooth.
 Usando el reconocimiento de letras o palabras, y luego traduciéndolas a letras
dentro de la caja texto seleccionada.
 Usando un reconocimiento de símbolos, donde cierto grupo de estos representa una
letra. Por lo general estos símbolos son fáciles de recordar.
Los PDAs diseñados para el uso en negocios, como el BlackBerry o el Treo
tienen teclados completos y scrolls para facilitar el ingreso de información, en vez de
usar una pantalla táctil. Los PDAs más nuevos como el iPhone o el iPod Touch
incluyen una nueva interfaz de usuario con otros medios de entrada. Estos PDAs usan
una tecnología llamada Multi-touch.
2) Memory Cards.
Aunque algunos PDAs no usan tarjetas de memoria, en la actualidad la
mayoría permite el uso de tarjetas SD. Además, unas cuantas tienen un puerto USB.
Para obtener un pequeño tamaño, además, ciertos PDAs ofrecen slots miniSD.
3) Conectividad por cable.
Aunque algunos PDAs antiguos se conectaban al PC usando un cable
serial, en la actualidad la mayoría usan un cable USB. Además de permitir la
conexión con el computador, sirven como puertos de alimentación de corriente
eléctrica en especial el USB.
4) Conectividad Inalámbrica.
Muchos de los PDAs modernos tienen conectividad Bluetooth, esto permite
conectar teclados externos, auriculares, GPS y mucho más accesorios. Además unos
cuantos poseen conectividad Wi-Fi, ésta nos permite conectarnos a redes
inalámbricas y nos permiten el acceso al Internet. Los PDAs antiguos disponían
además de un puerto infrarrojo, sin embargo muy pocos de los actuales tienen esta
tecnología, ya que es muy lento. El infrarrojo permite conectividad entre dos PDAs o
con cualquier otro accesorio que tenga uno de estos puertos.
5) Sincronización.
Una de las funciones más importantes de los PDAs es la sincronización con
los Ordenadores Personales. Esto permite la actualización del directorio, haciendo
que la información del computador y del PDAs sea la misma. La sincronización
también evita la pérdida de la información almacenada en caso de que el accesorio se
pierda, sea robado o destruido. Otra ventaja es que se puede ingresar información
mucho más rápido desde el computador y transmitirla luego al dispositivo. La
sincronización se realiza mediante un programa que entregan los fabricantes, los más
conocidos son el HotSync Manager (Palm OS) y el Windows Mobile Device Center
(Windows Mobile).

c. Usos de los PDA.


1) En el Hogar.
Los PDAs son usados para almacenar información que puede ser
consultada a cualquier hora y en cualquier lugar. Por lo general, estos
dispositivos son utilizados de manera doméstica, sin embargo también
se pueden encontrar en otros campos.
2) En automóviles.
Muchos PDAs son usados en vehículos para poder usar GPS, y es por
esto que cada vez es más común encontrarlos por defecto en muchos
vehículos nuevos. Algunos sistemas pueden también mostrar las
condiciones del tráfico. Los programas más comunes en Europa y en
Estados Unidos para realizar esto son TomTom, Garmin y iGO
mostrando ambientes en 2 y 3 dimensiones.
3) Médicos.
En la medicina los PDAs han sido utilizados para realizar diagnósticos o
para escoger los medicamentos más adecuados.
4) En la Educación.
En estos últimos años los PDAs se han vuelto muy comunes, es por esto
que se ha empezado a utilizar en ciertas instituciones educativas para
que los alumnos tomen nota. Esto ha permitido el aumento de la
productividad de los estudiantes, ya que permite la rápida corrección o
modificación de la información. Además, gracias a estos dispositivos,
los profesores están en capacidad de transmitir material a través del
Internet aprovechando la conectividad inalámbrica de los PDAs.
5) En la actualidad (2009) los PDAs han perdido el auge que tenían en sus
inicios, ya que comienzan a ser sustituidos por los Smartphones, los
cuales integran todas las funciones de los PDAs a las funciones de un
teléfono móvil, además de muchas otras funciones.

e. Sistemas operativos y equipos.


Hoy en día tenemos los siguientes sistemas operativos y equipos
competidores:
1) Dispositivos de HTC, como el HTC Touch Diamond o el HTC Touch
HD, principales competidores del iPhone, ya que igualan o superan sus
características.
2) Dispositivos con iPhone OS, son los nuevos y revolucionarios
dispositivos de Apple, el iPhone, iPhone 3G y el iPod touch.
3) Dispositivos Palm OS, hoy en día mantenido casi en solitario por Palm,
pero que hasta hace poco ha tenido importantes fabricantes como Sony;
4) Dispositivos Pocket PC con HP como líder de fabricantes acompañado
por otras empresas de informática como Dell o Acer, a quienes se han
incorporado los fabricantes de Taiwán como High Tech Computer que
van copando el mercado del Smartphone con sus marcas propias (como
Qtek) o fabricando para terceros y, sobre todo, operadores de telefonía
móvil;
5) Research In Motion con sus Blackberry, más propiamente Smartphones
que PDAs, pero que han copado una parte importante del mercado
corporativo a la vez que incorporaban prestaciones de PDA.
6) Dispositivos Symbian OS presente en las gamas altas de teléfonos
móviles de Nokia y Sony Ericsson;
7) Dispositivos Linux liderado por las Sharp Zaurus.
8) Y por último, multitud de PDAs de juguete, desde los verdaderos
juguetes infantiles como los de VTech (líder del boyante mercado del
ordenador infantil) a los aparatos baratos fabricados en China, pero que,
aparte del reconocimiento de escritura, incorporan todas las prestaciones
básicas de las primeras PDAs (incluyendo cámaras digitales básicas y
comunicaciones con los PC).
9) Un tipo especial de PDA son las denominadas PDT (siglas en inglés de
Portable Data Terminal, Terminal de Datos Portátil): equipos dirigidos
al uso industrial (por ej., como lector móvil de código de barras, código
de puntos o etiquetas de radiofrecuencia), en la construcción y militar.

25. HANDHELD.
El término handheld del idioma Inglés que significa llevar en la mano y que su
nombre completo es Handheld Computer o Handheld Device, describe a un
ordenador portátil para diversas aplicaciones, que puede ser llevado a cualquier parte
mientras se utiliza.
Los computadores handheld, o también llamados PDA (Personal Digital
Assistants) son los llamados ordenadores de la palma de la mano y fueron diseñados
originalmente como organizadores personales, y ellos hacen esto realmente bien.
Las características básicas de cualquier PDA son una agenda, libreta de
direcciones, lista de tareas, y bloc de notas, aunque con el auge de los nuevos
procesadores y disponibilidad de software, ya se han potenciado las aplicaciones web,
juegos, y casi cualquier otra aplicación que se pueda pensar. Aunque estas primeras
características son muy provechosas para mantener a cualquier persona ordenada, la
característica que enganchó su uso para cualquier persona ocupada que utilice una
computadora de escritorio es la de la sincronización fácil de la información con el
ordenador del escritorio.
26. ISP.
a. Concepto.
Un proveedor de servicios de Internet (o ISP, por la sigla en idioma inglés de
Internet Service Provider) es una empresa dedicada a conectar a Internet a los
usuarios, o las distintas redes que tengan, y a dar el mantenimiento necesario para que
el acceso funcione correctamente. También ofrece servicios relacionados, como
alojamiento web o registro de dominios, entre otros.

b. Inicios.
Internet es un método de interconexión descentralizada de redes de
computadoras implementado en un conjunto de protocolos denominado TCP/IP, y
garantiza que redes físicas heterogéneas funcionen como una red lógica única, de
alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera
conexión de computadoras, conocida como ARPANET, entre tres universidades en
California y una en Utah, en los Estados Unidos.

c. Los ISP en América Latina.


En los últimos cinco años la región ha mostrado un sostenido aumento en las
conexiones de alta velocidad, esto debido a su precio cada vez más competitivo
(gracias a la incorporación de nuevos actores) que han irrumpido en los mercados
locales para romper con el monopolio en telecomunicaciones, que ha caracterizado
por décadas a la mayor parte de los países de la región.
Países como Venezuela, Panamá, Chile, Argentina, Colombia, Brasil y México son
los que mayor desarrollo han tenido en las conexiones de banda ancha. Un buen
ejemplo de los beneficios de la existencia de gran cantidad de ISP es Chile, donde en
2005 las conexiones de alta velocidad (ADSL, Cable, inalámbrico) superaron a las
conexiones por marcado telefónico, lo que representó un hito en la región.
27. RED ALICE.
El proyecto ALICE se ha establecido para crear una infraestructura de redes
de investigación utilizando el protocolo IP dentro de América Latina y su
interconexión con Europa. ALICE se enmarca dentro de las acciones que forman
parte del programa @LIS.
@LIS, la Alianza para la Sociedad de la Información, es un programa de
cooperación con Latinoamérica, cuyo objetivo es promocionar la Sociedad de la
Información y combatir la brecha digital existente en Latinoamérica.
El programa se adopto en el 2001 y se centra en: diálogo sobre los aspectos
políticos y reglamentarios y sobre la creación de normas, apoyo a la red de órganos
reguladores, puesta en marcha de proyectos de demostración destinados a la sociedad
civil y la interconexión de centros de investigación.
@LIS proporcionará la infraestructura necesaria a través de la financiación del
proyecto ALICE, apoyando con ello la creación de una infraestructura de redes de
investigación en América Latina y su enlace con la red de investigación paneuropea
GEANT.

d. ¿Qué son las redes de investigación?


La revolución de las comunicaciones de datos, ha hecho posible la creación de
redes de investigación, que permiten a los investigadores colaborar, compartir
información y recursos a través de una serie de redes electrónicas interconectadas.
Las redes de investigación tienen una finalidad multifuncional con dos objetivos
primarios: actuar como infraestructura de información y comunicación de gran
capacidad basada en tecnologías avanzadas para sustentar la labor de los
investigadores, y facilitar la propia al ofrecer una plataforma para poner en marcha
nuevos servicios y tecnologías avanzadas de red, mediante la creación de bancos de
pruebas experimentales.

e. Los socios del proyecto ALICE.


La coordinación del proyecto ALICE corre a cargo de DANTE, una
organización sin fines de lucro domiciliada en el Reino Unido, que se creo en 1993
con el fin de organizar los servicios internacionales de redes avanzadas para la
comunidad de investigación y académica europea. En la actualidad, la principal
función de DANTE es gestionar el funcionamiento de la red de investigación
paneuropea GEANT.
Para el proyecto ALICE, DANTE se ha asociado con 4 NREN europeas que
tienen un estrecho vínculo histórico y social con Latinoamérica. Se trata RENATER
(Francia), GARR (Italia), FCCN (Portugal) y RedIRIS (España).
En Latinoamérica y el Caribe, ALICE se ha asociado con las NREN de 18
países que están agrupadas en CLARA.
La Comisión Europea respalda el proyecto ALICE de forma activa, además de
cofinanciarlo con 10 millones de euros que constituyen el 80% de la financiación del
proyecto.

e. Objetivos del Proyecto ALICE.


La colaboración en el campo de la investigación dentro de Latinoamérica y
entre Latinoamérica y Europa se ve de hecho dificultado por la falta de una
interconexión organizada entre las redes de investigación de las dos regiones, ya que
los equipos de investigadores de las dos regiones no disponen de enlaces directos de
alta velocidad que sustenten sus necesidades de comunicación de datos.
A fin de superar esta falta de conectividad, el objetivo de ALICE es aumentar
de forma considerable y sostenible la conectividad de investigación entre las NREN
latinoamericanas, y de éstas con la red paneuropea GEANT. Esta conectividad se
dedicará a la investigación y a otros fines no comerciales y servirá de soporte a los
proyectos de demostración de @LIS, que también son financiados por el programa
@LIS.
El éxito de ALICE durante el período de duración del proyecto y la
sustentabilidad de la conectividad después de la finalización del mismo, dependerán
en gran medida del apoyo que el proyecto reciba de los gobiernos nacionales en
Latinoamérica y de los principales operadores de telecomunicaciones de la región. Se
ha alentado a los gobiernos nacionales a que respalden en forma activa la
participación de las redes de investigación nacionales para contribuir a garantizar que
el país se beneficie al máximo de las posibilidades que estas ofrecen.

28. RED CLARA.


CLARA, Cooperación Latinoamericana de Redes Avanzadas, es una
asociación sin fines de lucro con sede en la ciudad de Montevideo, Uruguay. Sus
objetivos consisten en desarrollar y gestionar una red de investigación y educación
para América Latina que interconecte las redes de investigación y educación
nacional, y fomentar la cooperación en los campos de investigación y educación en el
ámbito tanto regional como mundial a través de redes avanzadas de comunicación de
datos.
La idea inicial para la formación de CLARA; Cooperación Latino Americana
de Redes Avanzadas, surgió en junio del 2002 en la reunión de Toledo (España),
organizada en el marco del Proyecto CAESAR, financiado por el programa DG IST
de la Comisión Europea, el estudio que llevó a la generación del Proyecto ALICE
(América Latina Interconectada con Europa).
CLARA se conecta a la Red Avanzada Europea GÉANT gracias al proyecto
ALICE. La Comisión Europea financió € 12.5 millones para la ejecución del proyecto
ALICE. Dicha suma representa el 80% del financiamiento necesario para la
construcción de CLARA, hasta fines de abril del año 2006. El 20% restante
provendrá de los socios latinoamericanos.
Tomando en consideración esta oportunidad, se plantea desarrollar ACLARA,
un Catálogo de Proyectos de Investigación del Sistema Universitario
Latinoamericano que permita establecer una infraestructura de información
compartida y coordinada a partir de REUNA, en la cual cada red miembro de
CLARA entrega a las universidades de su país la alternativa de conectividad a través
de su estructura de red avanzada.
29. APAN.
Asia – Pacific Advanced Network, es un consorcio internacional, sin fines de
lucro, establecido el 3 de Junio de 1997. APAN conforma una red de alto rendimiento
para la investigación y el desarrollo en aplicaciones y servicios avanzados, que enlaza
a varios de los países de la región asiática. Los miembros primarios son: Australia,
Japón, Corea, Singapur y USA (Universidad de Indiana), los miembros asociados:
Malasia y China.

29. RED DANTE.


El nombre DANTE viene de las siglas inglesas para “Delivery of Advanced
Network Technology to Europe” (Entrega de tecnología de red avanzada a Europa).
Esta organización pertenece a las NREN (Redes de investigación y educación
nacionales) de Europa, y su objetivo es planificar, construir y gestionar redes de
investigación paneuropeas para la investigación y la educación. DANTE, colaborando
con las NREN europeas y en cooperación con la Comisión Europea, ha sido
fundamental en el éxito de las redes de investigación y educación europeas durante la
última década, ofreciendo la infraestructura de comunicación de datos fundamental
para el éxito de muchos proyectos de investigación que se realizan en la actualidad en
Europa.

30. RED ABILENE.


Abilene es un backbone con tecnología de avanzada que es el soporte para el
desarrollo y expansión de las nuevas aplicaciones que se desarrollan dentro de la
comunidad de Internet2. Abilene conecta los "network aggregation points"
regionales, llamados gigaPoPs, para soportar el trabajo de las universidades
miembros de Internet2, ya que ellas desarrollan aplicaciones avanzadas de Internet.
Abilene complementa a otras redes de investigación de alto rendimiento.
Los conectores de Abilene son instituciones educativas y de investigación que
se conectan directamente con la red de Abilene. Los conectores de Abilene pueden
ser GigaPoPs, universidades, miembros del afiliado u otras redes regionales.
GigaPoPs son puntos regionales de agregación de la red formados por las
universidades de Internet2 para conectar con una variedad de redes de alto
rendimiento, y otros tipos de redes. GigaPoPs proporciona puntos de conexión de alta
velocidad.
La red de Abilene apoya el desarrollo de usos tales como laboratorios
virtuales, bibliotecas digitales, educación de la distancia y tele-inmersión. La red de
Abilene se ha desarrollado en sociedad con Internet 2, Qwest Comunications, Cisco
Systems, Nortel Network y la Universidad de Indiana.
La red Abilene se inició en 1999 con una velocidad de 2,5 Gb por segundo.
En 2003 comenzó una actualización para funcionar a 10 gigabits por segundo. Fue
terminada y anunciada el 4 de febrero de 2004

a. Metas de la Red Abilene.


Proporcionar un backbone avanzado de alta-disponibilidad para satisfacer las
demandas de las aplicaciones de investigación avanzada. Para lograr esto, Abilene
intentará integrar los servicios de red avanzados que están siendo desarrollados
actualmente.
Proporcionar una red separada para permitir probar las capacidades de red
avanzadas antes de su introducción en la red de desarrollo de aplicaciones. Se espera
que estos servicios incluyan los estándares de calidad del servicio (QoS), multicasting
y protocolos avanzados de seguridad y de autenticación.
Proporcionar una red con los recursos necesarios para el estudio de redes,
incluyendo diseños alternativos de red capaces de motorizar el avance de la red
Abilene y también el estado del arte.
31. RED ALTAIR.
Altair Comunicación Digital es un espacio de investigación, producción y
difusión de contenidos culturales en la Facultad de Comunicaciones de la Universidad
de Antioquia. Funciona como una emisora virtual donde se presentan producciones
sonoras en formato radial en un sitio propio de la Web 2.0, realizados por los mismos
estudiantes de la Universidad quienes tienen la posibilidad de adquirir y desarrollar
conocimientos en materia de nuevas tecnologías de la comunicación y gestión de
contenidos digitales radiales e hipermediales. Fue fundado en abril de 2000, bajo el
nombre de Radio Altair, por la profesora Lucía Restrepo. Es un proyecto pionero en
Latinoamérica en el campo de la Net Radio, así como un fuerte precursor de la
cultura libre.
En 2004, Radio Altair fue reconocido con el Premio de Periodismo
Universitario en la categoría de mejor publicación digital por sus propuestas en el
área de hipermedia. Algunos de los programas producidos y emitidos por Altair han
sido reconocidos por los premios Emisión, en el marco de Emisión, una muestra de la
Facultad de Comunicaciones que recoge las producciones académicas de los distintos
pregrados.

a. Especificaciones técnicas.
El sitio de Altair ha sido elaborado en distintas plataformas. Las primeras
versiones fueron creadas en el editor HTML Microsoft Front Page. En el momento
permitió elaborar los recursos gráficos, textuales e hipertextuales necesarios para la
navegación y la funcionalidad básica del sitio. No obstante, pronto fue obvio para el
equipo del Altair que ésta no era la herramienta ideal para el desarrollo funcional e
interactivo de la emisora virtual. En total, sólo las dos primeras versiones del sitio
fueron elaboradas con Front Page.
A partir del año 2002 se implementa el uso de la Suite Macromedia MX para
las funciones generales del sitio, entre las que se incluye el rediseño gráfico y de
usabilidad del sitio con Macromedia Dreamweaver MX. Con estas versiones se hace
posible la integración de los elementos HTML con elementos interactivos de Flash,
tales como botones, reproductores y banners. El laboratorio, en ese entonces
denominado Altair hipermedia, diseñó su sitio en Dreamweaver MX hasta 2003.
En el año 2004 se adquiere la nueva versión de la Suite Macromedia, la
MX2004, que permitió un mejoramiento sustancial en las herramientas gráficas,
multimedia, hipermedia y web.
En los años 2005 y 2006 se da un nuevo paso en la elaboración del sitio de
Altair. Se comienza a probar el gestor de contenidos Joomla! como una nueva
alternativa en la generación y el desarrollo web. No obstante, no es sino hasta el año
2008 que se adopta definitivamente un gestor de contenidos como base para la
creación del sitio. El sistema elegido fue WordPress, que al igual que Joomla!, es una
aplicación construida en PHP, de código abierto, con licencia GPL. Esto lo ha hecho
una herramienta predilecta para Altair, la cual es partidaria del uso de software y
contenidos libres. La versión del sitio para el año 2009 también fue elaborada en
WordPress.

32. NIVELES ISOCERÁUNICOS.


El notable incremento de las descargas atmosféricas en los últimos años exige,
y es imperante una toma de conciencia en los sistemas de protección contra descargas
atmosféricas (SPCR), es decir el sistema no solo incluye el captor sino que es una
cadena de protección cada eslabón de esa cadena debe concatenarse y hacer que
cumpla su función la de proteger de las descargas atmosféricas, que inevitablemente
deben caer en la estructura, a las personas y bienes materiales.
El sistema incluye distintos subsistemas los cuales tienen singularidades y
características que a veces se dejan de lado o libradas al azar, se deben realizar con el
compromiso de la ejecución de proyectos técnicamente válidos y eficientes.

a. Índices de nivel Isoceráunico.


Este indicador expresa la densidad anual promedio de rayos a tierra, en rayos
por kilómetro cuadrado y por año, propio de la región en donde esta localizada la
estructura a proteger, cabe destacar que este índice según normativa corresponde a
estudios realizados estimados para el período climatológico de 1971/80, con lo cual
este valor en los últimos años se ha incrementado notablemente.

33. NIVELES CERÁUNICOS.


a. Concepto.
El nivel ceráunico se define como el número de días de tormenta año en una
región y un día de tormenta es un día en el cual por lo menos se oye un trueno. Esta
definición hace que el nivel se determine en las estaciones meteorológicas por medio
de observaciones y no por mediciones.
Con base en el nivel ceráunico de la zona donde se proyecta construir la línea
se debe determinar si es necesario protegerla contra los efectos de las descargas
atmosféricas. Los rangos de los niveles ceráunicos se pueden clasificar como:

NIVEL CERAÚNICO CATEGORÍA


30 a 50 Bajo
50 a 70 Medio
70 a 100 Alto
Mayor que 100 Muy Alto

Debido a que los registros de día de tormenta observados en las estaciones


meteorológicas son bastante imprecisos, en lugar del nivel ceráunico, a nivel mundial
se está utilizando la densidad de descargas a tierra, la cual se obtiene por medición
directa con la utilización de registradores electrónicos. Con el objeto de obtener la
densidad de descarga a tierra (Ng) con base en el nivel ceráunico (Td) se ha adoptado
la siguiente relación:
Ng = 0,04 * (Td) 1,25
Donde Ng: Densidad de descarga [rayos /km2/año]
Td: Nivel ceráunico [días de tormenta/año]

b. Normativa de Aplicación.
Existe gran cantidad de normas que tratan la protección contra rayos entre
otras las siguientes:

Norma Organismo
IRAM 2184-1 y 2184-1-1 Instituto Argentino de Normalización y Certificación
IEC-61024-1, 61024-1-1, 610241-2 Comisión Electrotécnica Internacional.
NFPA 780 National Fire Protection Asociation (Estados Unidos de
América)
ENV 61024-1 Comunidad Europea
NF C 17-102 Asociación Francesa de Normalización

Si bien éstas coinciden en los principios generales tienen diferencias


apreciables lo cual plantea el interrogante sobre cuál es la norma que se debe aplicar.
De acuerdo a la Ley de seguridad e higiene industrial N°19587 en todo lo atinente a
la seguridad eléctrica debe seguirse lo que establece la Asociación Electrotécnica
Argentina (AEA) en su reglamentación de “Ejecución de Instalaciones Eléctricas en
Inmuebles” Esta última en su punto “7.7.- Líneas de Pararrayos” establece que para la
ejecución de este tipo de instalaciones deberán seguirse, como mínimo, los
lineamientos indicados en la norma IRAM 2184”.
Por lo tanto, desde el punto de vista legal y de seguridad para las personas, la
norma que debe utilizarse es la IRAM 2184-1 e IRAM 2184-1-1 ya que en caso de
producirse u accidente personal como consecuencia del impacto de un rayo, lo
exigible es el cumplimiento de la norma IRAM.
No obstante se puede seguir métodos de cálculo y/o recomendaciones de otras
normas en lo relativo a la protección de bienes y/o equipamiento, pero siempre
cumpliendo, en lo que a protección de vidas humanas se refiere, la norma IRAM
mencionada.

34. CNTI.
Los inicios de CNTI y su red Reacciun, se remontan al año 1981, cuando
Conicit creó el Sistema Automatizado de información Científica y Tecnológica
Saicyt, a fin de atender las necesidades de información de la comunidad científica y
tecnológica.
La red Saicyt fue diseñada para una base tecnológica X.25, tecnología reinante
para ese entonces. En el año 1983 se procedió a la adquisición de los equipos a la
empresa GTE y a partir de ese momento se comenzó su instalación. Para el año 1987
se culminó la instalación de todos los nodos y concentradores de la red en el territorio
nacional, a la vez que se firmó un convenio con CANTV, el cual permitía la
operación de la red Saicyt.
La red Saicyt se interconectó inicialmente a la red Telenet a través de un
enlace internacional que operaba a 9.600 bps. Mediante este enlace era posible
acceder a los servicios que esta red X.25 ofrecía. Los servicios de Saicyt se limitaron
esencialmente a conexiones con algunas bases de datos en el exterior, principalmente
el sistema Dialog. Los usuarios accedían a la red Saicyt por medio de líneas discadas
y módems.
Para el año 1990, la población de usuarios registrados que hacían uso del
sistema para acceder a dichas bases de datos era de unas 50 personas.
Para finales del año 1990, se instaló en Conicit un servidor bajo el sistema
operativo Unix, con la finalidad de ampliar la gama tan limitada de servicios, que
ofrecía la red.
En marzo de 1991, se comenzó a ofrecer el servicio de correo electrónico en
todo el país. A partir de ese momento y mediante una labor de promoción, con
universidades y centros de investigación, la población de usuarios comenzó a
experimentar un rápido crecimiento, alcanzando más de 2 mil usuarios registrados,
pertenecientes en su totalidad a la comunidad académica y científica.
Para finales del año 1991, se hizo efectiva la conexión a internet a través del
JvNCnet en la Universidad de Princenton (NJ), con lo cual se ampliaron los servicios
internacionales.
En el año 1992, se inició el cambio de la plataforma de la red Saicyt X.25,
hacia una red basada en los protocolos TCP/IP. Este cambio de plataforma se culminó
de manera satisfactoria en Mayo de 1993.
En julio de 1994, el Conicit y 13 instituciones académicas acordaron la
fundación de Reacciun, que comenzó a operar formalmente un año más tarde.
Para 1998 se incorporó la tecnología Frame Relay a la plataforma tecnológica
de la Red.

a. Ministerio del Popular para las Telecomunicaciones y la Informática


(MPPTI), Año 2007.
El Gobierno Bolivariano asumió las tecnologías de Comunicación e
Información (TIC), como herramientas estratégicas dentro del proceso de
transformación social que vive el país, rumbo a la consolidación del Socialismo del
siglo XXI.
En armonía con los principios de transformación y construcción de un nuevo
modelo de desarrollo en la sociedad venezolana y de acuerdo con las políticas y
lineamientos del Ejecutivo Nacional, en enero de 2007 el presidente de la República
Bolivariana de Venezuela, Hugo Chávez Frías, decretó la creación del Ministerio del
Poder Popular para las Telecomunicaciones y la Informática; con la finalidad de
impulsar el uso intensivo de las Tecnologías de Información como mecanismo para
alcanzar una sociedad más justa, democrática y participativa.
El Estado venezolano y sus instituciones están orientadas a garantizar el
acceso de todos los ciudadanos a las TIC, ante ello se ha creado un marco jurídico e
institucional que así lo garantice, además de un Plan Nacional de
Telecomunicaciones, Informática y Servicios Postales 2007 – 2013.
De esta forma, el Centro Nacional de Tecnologías de Información (CNTI), se
convierte en ente adscrito al recién creado Ministerio para encargarse,
prioritariamente, de acelerar el proceso de migración de la administración pública a
SL, estandarizar la plataforma tecnológica del Estado, articular los esfuerzos que, en
materia de capacitación tecnológica, adelantan diferentes organismos
gubernamentales, fortalecer la interoperabilidad de los sistemas y consolidar una
Industria Nacional de Software.
Actualmente esta Asociación Civil sin Fines de Lucro se encuentra presidida
por el Dr. Carlos Eloy Figueira Rodríguez, carácter que consta en la Resolución No.
001, emanada del Ministerio del Poder Popular para las Telecomunicaciones y la
Informática, de fecha 24 de enero de 2007, publicada en la Gaceta Oficial de la
República Bolivariana de Venezuela No. 38.613, de fecha 26 de enero de 2007.
El CNTI se reestructura y adopta como Misión potenciar los esfuerzos que en
materia de informática se desarrollen en el Sector Gobierno y en las Comunidades
Organizadas, con el fin de contribuir a la eficiencia y efectividad del Estado, así como
impulsar el desarrollo y fortalecimiento de la capacidad nacional del sector de las
Tecnologías de Información.

b. Misión.
El CNTI es una institución adscrita al Ministerio del Poder Popular para
Ciencia, Tecnología e Industrias Intermedias que tiene como razón de ser potenciar
los esfuerzos que en materia de informática se desarrollen en el Sector Gobierno y en
las Comunidades Organizadas, con el fin de contribuir a la eficiencia y efectividad
del Estado, así como impulsar el desarrollo y fortalecimiento de la capacidad nacional
del sector de las Tecnologías de Información.

c. Visión.
Consolidar un sistema de tecnologías de información del Estado, que apoye la
gestión de la Administración Pública, a la Comunidad Organizada y al ciudadano; y
haber contribuido a la creación de una fuerte industria nacional de software, todo ello
en concordancia con los principios de soberanía.

d. Metas de la Red Abilene.


Proporcionar un backbone avanzado de alta-disponibilidad para satisfacer las
demandas de las aplicaciones de investigación avanzada. Para lograr esto, Abilene
intentará integrar los servicios de red avanzados que están siendo desarrollados
actualmente.
Proporcionar una red separada para permitir probar las capacidades de red
avanzadas antes de su introducción en la red de desarrollo de aplicaciones. Se espera
que estos servicios incluyan los estándares de calidad del servicio (QoS), multicasting
y protocolos avanzados de seguridad y de autenticación.
Proporcionar una red con los recursos necesarios para el estudio de redes,
incluyendo diseños alternativos de red capaces de motorizar el avance de la red
Abilene y también el estado del arte.

35. SUPERCONDUCTIVIDAD.

a. Reseña Histórica.
La historia de la superconductividad empieza en 1911 en Leiden, Países
Bajos. Allí H. Kamerlingh Onnes desarrolló las primeras técnicas criogénicas para
enfriar muestras hasta algunos grados por encima del cero absoluto (correspondientes
a cero Kelvin, es decir, menos doscientos, setenta y tres grados centígrados). Fue el
primero que consiguió llevar el helio hasta debajo de su punto de licuefacción
(4,2ºK), abriendo así el campo de las bajas temperaturas. Al principio, Kamerlingh
Onnes "monopolizó" completamente este campo, ya que Leiden fue, hasta 1923, el
único lugar del mundo que disponía de helio líquido.
En aquellas épocas se sabía que los metales tienen una resistividad que
disminuye de manera prácticamente lineal con la temperatura hasta unos veinte
Kelvin, y se quería saber qué ocurría con esta resistividad en las proximidades del
cero absoluto? ¿seguía decreciendo linealmente? ¿Tendía, quizás, a un valor
constante? O bien, ¿se remontaría hacia valores muy elevados, característicos de un
comportamiento aislante en vez de conductor?
Kamerlingh Onnes se dio cuenta muy pronto de que era necesario disponer
de metales muy puros, si quería obtener resultados libres de toda ambigüedad. Eligió
el mercurio, elemento que puede conseguirse con un alto grado de pureza mediante
sucesivas destilaciones y que además es conductor en estado metálico. De este modo,
y enfriando el mercurio a muy baja temperatura, pudo observar un fenómeno nuevo y
totalmente inesperado: a una temperatura de 4,2ºK, el mercurio pasaba bruscamente a
un estado en el que, repentinamente, no ofrecía resistividad alguna al paso de la
corriente eléctrica. Esta transición se manifestaba por una caída muy brusca de la
resistividad. Kamerlingh Onnes había descubierto la superconductividad.
En el año 1960 se demostró que el titanato de estroncio (SrTiO) se hace
superconductor, pero con una temperatura de transición muy baja: 0,3 Kelvin.
Posteriores estudios analizados en Rüshlikon permitieron aumentar esta temperatura
crítica hasta 0,8 Kelvin mediante el dopado del compuesto con niobio.
Diez años mas tardes en 1973, D.C. Johnston y sus colegas obtuvieron un
resultado más significativo con un oxido de titanio y litio (Li-Ti-O) : una temperatura
critica de 13,7 Kelvin. En 1975, A.W. Sleight y sus colaboradores observaron una
transición a 13 Kelvin en un compuesto de valencia mixta: un oxido de bario y plomo
dopado con bismuto (BaPbBiO). En esta formula el subíndice x indica la proporción
de bismuto sustituida en el plomo.

b. Concepto de Superconductividad.
Es la capacidad intrínseca que poseen ciertos materiales para conducir
corriente eléctrica con resistencia y pérdida de energía nulas en determinadas
condiciones.
La resistividad eléctrica de un conductor metálico disminuye gradualmente a
medida que la temperatura se reduce. Sin embargo, en los conductores ordinarios,
como el cobre y la plata, las impurezas y otros defectos producen un valor límite.
Incluso cerca de cero absoluto una muestra de cobre muestra una resistencia no nula.
La resistencia de un superconductor, en cambio, desciende bruscamente a cero
cuando el material se enfría por debajo de su temperatura crítica. Una corriente
eléctrica que fluye en una espiral de cable superconductor puede persistir
indefinidamente sin fuente de alimentación. Al igual que el ferromagnetismo y las
líneas espectrales atómicas, la superconductividad es un fenómeno de la mecánica
cuántica.
La superconductividad ocurre en una gran variedad de materiales, incluyendo
elementos simples como el estaño y el aluminio, diversas aleaciones metálicas y
algunos semiconductores fuertemente dopados. La superconductividad no ocurre en
metales nobles como el oro y la plata, ni en la mayoría de los metales
ferromagnéticos.

c. Clasificación de los superconductores.


Los superconductores se pueden clasificar en función de:
1) Su comportamiento físico; pueden ser de tipo I (con un cambio brusco de una
fase a otra, o en otras palabras, si sufre un cambio de fase de primer orden) o de
tipo II (si pasan por un estado mixto en que conviven ambas fases, o dicho de otro
modo, si sufre un cambio de fase de segundo orden).
2) La teoría que los explica; llamándose convencionales (si son explicados por la
teoría BCS) o no convencionales (en caso contrario).
3) Su temperatura crítica; siendo de alta temperatura (generalmente se llaman así si
se puede alcanzar su estado conductor enfriándolos con nitrógeno líquido, es decir,
si Tc > 77K), o de baja temperatura (si no es así).
4) El material de que están hechos; pudiendo ser elementos puros (como el
mercurio o el plomo), superconductores orgánicos (si están en forma de fulerenos
o nanotubos, lo cual los podría incluir en cierto modo entre los elementos puros, ya
que están hechos de carbono), cerámicas (entre las que destacan las del grupo
YBCO y el diboruro de magnesio) o aleaciones.

d. Propiedades elementales de los Superconductores.


La mayoría de las propiedades físicas de los superconductores varían de un
material a otro, tales como la capacidad calorífica y la temperatura crítica a la que se
destruye la superconductividad. Por otro lado, hay una clase de propiedades que son
independientes de los materiales subyacentes. Por ejemplo, todos los
superconductores tienen exactamente resistividad cero a pequeñas corrientes
aplicadas cuando no hay campo magnético.
La existencia de estas propiedades "universales" implica que la
superconductividad es una fase termodinámica, y por tanto, posee ciertas propiedades
distintivas que son independientes de los detalles microscópicos.
Hasta ahora no se conoce ningún caso de superconductor cuya temperatura
crítica sea superior a los 185 K, unos; 88°C, a presión ambiente. No obstante no es
suficiente con enfriar, también es necesario no exceder una corriente crítica ni un
campo magnético crítico para mantener el estado superconductor.

36. TARJETA D’LINK.


D-Link Corporation es una empresa electrónica que fabrica componentes de
red, como tarjetas de red, puntos de acceso, routers, pasarelas, firewalls, etc. La
empresa fue fundada en 1986 por Ken Kao y las oficinas centrales de la empresa se
encuentran localizadas en Taipéi, Taiwán.
En el 2007, fue la empresa líder del sector de redes informáticas dentro del
segmento de pequeñas y medianas empresas (pymes) del mundo, con una cuota de
mercado del 21,9 %, y en marzo del 2008 se convirtió en líder del mercado mundial
en el envío de productos Wi-Fi, con el 33 % del mercado mundial. En el 2007 la
compañía figuró en la «Info Tech 100», lista de las mejores empresas de TI del
mundo. También ha sido clasificada en el puesto número 9 de las mejores empresas
de TI del mundo en términos de rentabilidad para los accionistas por parte de la
revista BusinessWeek.
La empresa dispone de 127 oficinas de venta en 64 países y 10 centros de
distribución global que sirven a 100 países del mundo. D-Link opera a modo de canal
indirecto: venta a través de distribuidores, vendedores, detallistas, revendedores de
valor añadido y proveedores de servicios de telecomunicaciones.

a. Historia.
Datex Inc. fue fundada en 1986 por siete fundadores, entre ellas Ken Kao, el
anterior presidente de D-Link. Tony Tsao fue nombrado consejero delegado y
presidente el 21 de junio del 2008.
D-Link Corporation dejó de llamarse Datex Systems Inc. en 1994, cuando
salió a Bolsa y se convirtió en la primera empresa de redes informáticas de Taiwan
Stock Exchange. Actualmente cotiza en las bolsas de valores TSEC y NSE.

b. Gama de productos.
Los productos de D-Link se dirigen al mercado de las redes informáticas y las
comunicaciones. Entre los productos para empresas figuran dispositivos de
conmutación, seguridad y redes inalámbricas, y entre los destinados a consumidores,
dispositivos inalámbricos, de banda ancha y para el hogar digital (reproductores de
medios, dispositivos de almacenamiento y vigilancia).
Ha sido la primera empresa del sector de las redes informáticas en lanzar los
productos Green Ethernet, con tecnología de ahorro de energía en sus switches
inteligentes no gestionables y en sus routers inalámbricos.
IV. CONCLUSIÓN.
No podemos finalizar el trabajo sin destacar que la información que se obtuvo
fue muy productiva, ya que en primer lugar respondió a nuestras interrogantes y en
segundo lugar nos ha servido de mucha utilidad. Allí pudimos conocer que en la
actualidad se cuenta con dispositivos de almacenamiento tan avanzados como lo es el
Blu–ray, también conocido como Rayo azul, que es un formato de disco óptico de
nueva generación de 12 cm de diámetro, igual que el CD y el DVD, para vídeo de alta
definición. Así como este dispositivo, también conocimos características de otros
como la Red por Microondas, que es una red inalámbrica que utiliza microondas
como medio de transmisión, donde el protocolo más frecuente es el IEEE 802.11b y
transmite a 2.4 GHz. Otra de ellas es la RPC (Llamada a Procedimiento Remoto),
que es un protocolo que permite a un programa de ordenador ejecutar código en otra
máquina remota sin tener que preocuparse por las comunicaciones entre ambos. Otro
prototipo es la Señalización por Hilos E y M, que es un tipo de señalización
telefónica, utilizado entre conmutadores analógicos de circuitos telefónicos, que se
caracteriza por el empleo de vías separadas para las frecuencias de señalización y las
de voz. También conocimos La pantalla de plasma, que fue inventada en 1964 en la
Universidad de Illinois por Donald L. Bitzer, Gene Slottow y el estudiante Robert
Willson.

donde hemos desarrollado términos conocidos por nosotros, también se logro


investigar la definición de otros que para ese momento era desconocido.
En términos generales podemos afirmar que ha servido de mucho provecho el
haber elaborado el presente trabajo, porque de esta manera podemos demostrarle al
instructor, que hemos avanzado positivamente en nuestra cátedra y que podemos dar
fe de ello al presentar nuestro trabajo.
Para desarrollar todos y cada unos de los términos citados acá hemos tenido la
necesidad de recurrir a material de apoyo necesario en la excelente elaboración de
trabajos de investigación.
V. BIBLIOGRAFÍAS.

 Electromagnetismo; conceptos y aplicaciones.4ta. edición Stanley V. Marshall,


Richard E. DuBroff, Gabriel G. Skitek.
 Introducción al Electromagnetismo. Zoya Popovic, Branko D. Popovic Compañía
Editorial Continental.
 Campos electromagnéticos. Rodríguez Danta, Marcelo. Universidad de Sevilla
Manuales universitarios, 1996.
 http://es.wikipedia.org/wiki/Alojamiento_web.
 http://www.dinero.com.ve/135/portada/satelital.html.
 http://www.quarea.com/tutorial/que_es_telefonía_IP.
 http://es.wikipedia.org/wiki/Datagrama.
 http://es.wikipedia.org/wiki/ETD".
 http://es.wikipedia.org/wiki/ETD.
 http://es.wikipedia.org/wiki/Pantalla_de_plasma.
 http://es.wikipedia.org/wiki/Diafon%C3%ADa.
 http://es.wikipedia.org/wiki/WIFI.
 http://es.wikipedia.org/wiki/Se%C3%B1alizaci%C3%B3n_E_y_M.
 http://es.wikipedia.org/wiki/rpc.
 http://es.wikipedia.org/wiki/Fractales.
 http://es.wikipedia.org/wiki/Red_por_microondas.
 http://www.aulaclic.es/artículos/wifi.html.
 http://es.wikipedia.org/wiki/.
 http://www.latarea.com.mx/articu/articu12/alator12.htm
 Robert W. Crandall, Kenneth Flamm. Cambio de las Reglas. 1989, Brookings
Institution Press. .
 http://books.google.de/books?id=9XcY31IQgw4C&pg=PA273&lpg=PA273
(libros de Google), página 273.
 Salto las barreras - Los servicios con valor añadido del artículo el Financial
Times, 1991.
 Ergänzt Red de Información sein um-CCITT X.25-Apoyo. (Revista de noticias
alemana en el artículo de IBM "Red de Información") Computerwoche, 45/1991.
 Autoridad de Comunicaciones de Sudáfrica (ICASA): Reglamento de Valor
Agregado Servicios de Red.
 Economic Consulting: Una Hora inicial autorización en algunos países las tasas.
 GXS y forman alianza estratégica para la velocidad y simplificar la colaboración
empresarial global. PressPass Microsoft, 8 de mayo de 2006.
 Http://www.ofta.gov.hk:80/en/tele-lic/operator-licensees/pnets-ivans-isp.html
Oficina de la Autoridad de Telecomunicaciones (OFTA), de la Hong Kong Special
Administrative Region: Internacional Valor Agregado Servicios de Red (Ivans) del
operador o proveedores de servicios de Internet (ISP)] .
 http://es.wikipedia.org/wiki/Inmarsat.
 http://es.wikipedia.org/wiki/Red_privada_virtual.
 http://es.wikipedia.org/wiki/VLAN.
 http://es.wikitel.info/wiki/Bitstream.
 http://es.wikipedia.org/wiki/Espectro_ensanchado.
 http://es.wikipedia.org/wiki/Computador_de_bolsillo.
 http://www.rau.edu.uy/redavanzada/Alice.htm.
 http://dia.pucp.edu.pe/ringpucp/index.php?
option=com_content&task=blogcategory&id=3&Itemid=23.
 http://www.reacciun2.edu.ve/view/glosario.php?pag=2&nreg=5&id=65.
 http://www.alegsa.com.ar/Dic/abilene%20network.php.
 http://www.cnti.gob.ve/index.php?
option=com_content&view=article&id=52&Itemid=60.
 http://www.cnti.gob.ve/index.php?
option=com_content&view=article&id=52&Itemid=60.
 http://es.wikipedia.org/wiki/Metabuscador.
 http://www.salonhogar.com/ciencias/fisica/supercoductividad/historia.htm
 http://es.wikipedia.org/wiki/Superconductividad.
 http://es.wikipedia.org/wiki/Scalable_Link_Interface.

También podría gustarte