Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Trabajo de Telecomunicaciones
Trabajo de Telecomunicaciones
Tutor: Participantes:
Prof. Alberto León Sm/1ra. Javier Molina Quintero
Sm/1ra. Ronald López Blanco
Sm/3ra. José Contreras Salas
Sm/3ra. José González Carrillo
Alojamiento web.
Fig. 1
a. Reestructuración de planes.
Dentro del mercado venezolano, Iridium aspira a consolidarse como una red
global de telefonía inalámbrica móvil satelital que permita a los usuarios comunicarse
utilizando teléfonos portátiles y pagers desde y hacia cualquier parte del mundo.
Para ello cuenta con 66 satélites de órbita baja que se apoyan en estaciones
terrestres inalámbricas repartidas a lo largo del globo terráqueo que garantizan una
transmisión efectiva de sus comunicaciones.
Para desarrollar e implantar su red de telefonía satelital, Iridium ha invertido
alrededor de 5 millardos de dólares, lo cual lo convierte en uno de los proyectos más
ambiciosos en materia de telecomunicaciones.
En relación con sus estrategias financieras y de mercadeo, Iridium ha venido
introduciendo una serie de cambios sobre la comercialización del servicio.
Como explica Enrique Camacho, director de mercadeo de Iridium
Sudamérica, el nuevo enfoque está dirigido hacia los mercados industriales, con una
significativa reducción y simplificación tanto de las tarifas como del precio de los
equipos.
"En este nuevo ciclo, la corporación se ajustará a los requerimientos del
mercado con una renovada estrategia de comercialización que permitirá ofrecer
tarifas más sencillas y una mayor relación costo–beneficio", expresó.
b. Un Nuevo Norte.
Dentro de su estrategia por captar un mayor número de usuarios, Iridium
apuntará hacia los mercados industriales y rurales, donde la oferta de servicio
adquiere gran valor y los usuarios han demostrado tener necesidades particulares de
comunicación satelital.
La nueva estrategia de la empresa apunta hacia diversos segmentos de
mercado, tales como el marítimo, petrolero, minero, construcción, militar, generación
y distribución eléctrica, ganadero, transporte y forestal.
Camacho refiere que, gracias a la experiencia que goza Motorola a nivel
internacional, Iridium pretende lograr un mejor acercamiento con los canales de
distribución, para así ofrecer su ámplia gama de servicios y de soluciones a un mayor
número de usuarios.
"El ajuste de las tarifas, tanto de los servicios Iridium como el de los equipos,
ya es un hecho. En tal sentido, Motorola y Kyocera han anunciado descuentos
significativos en los precios de sus equipos satelitales, que pueden ser adquiridos
desde 1.890 dólares por teléfono", acota.
Iridium también reestructuró sus tarifas de modo de ofrecer planes más
enfocados y accesibles a los usuarios. La tarifa por minuto Iridium va desde 1,65
dólares a 3,19 dólares para las llamadas internacionales hacia cualquier destino del
planeta.
Cabe destacar que actualmente el mercado suramericano de Iridium equivale
a 10 por ciento del total de las operaciones globales. Venezuela, Colombia, Perú,
Brasil, Argentina y Chile representan aproximadamente 80 por ciento de esta región,
constituida por un total de 37 países, incluyendo las islas del Caribe.
c. Tecnología en marcha.
Otro de los sistemas más conocidos en el mercado internacional es
Globalstar, que se encuentra diseñado para proporcionar servicios satelitales de
transmisión de voz que sean económicamente asequibles a una diversa gama de
subscriptores y usuarios.
Con 32 satélites en órbita, esta empresa busca cubrir las necesidades de
usuarios de celulares y viajeros internacionales que se trasladan a zonas que están
fuera de su cobertura celular.
También puede ser utilizado por residentes de mercados que carecen de un
buen servicio de comunicaciones, quienes emplearán los teléfonos fijos de
Globalstar para satisfacer sus necesidades de telefonía básica.
Como explica Maritza Escalona, gerente general de Tesam de Venezuela -
representante local de Globalstar, este consorcio construye una estación terrestre en
territorio venezolano, la cual se ubica entre las poblaciones de Mamporal y San José
de Río Chico (estado Miranda).
Este complejo cuenta con un edificio de 1.000 metros cuadrados, cuatro bases
de antenas y un terreno de 10 hectáreas que estarán funcionando en menos de seis
meses.
Paralelamente, Tesam procedió a la importación de los equipos telefónicos
que emplearán los usuarios de sus servicios. La empresa ofrecerá equipos fabricados
por Ericsson y Qualcomm. Sus operaciones arrancarán a fines de este año.
"Todo ello forma parte del esquema de desarrollo del nuevo sistema de
telecomunicaciones Globalstar, que representa una inversión de 30 millones de
dólares en Venezuela", acota.
d. Servicio Exportable.
Globalstar espera que una vez terminada la estación terrena venezolana, pueda
suministrar los servicios en un radio de acción de 1.500 kilómetros que incluye las
tres Guyanas, el Caribe hasta Puerto Rico, Colombia y el norte de Brasil.
Escalona señala que si bien en Colombia y Brasil se construyen otras
estaciones, la estación de Los Velázquez será utilizada como respaldo a estos países.
De esta manera, Tesam de Venezuela se convertirá en el primer exportador de
servicios de telecomunicaciones de Venezuela.
A nivel mundial, Globalstar ha previsto instalar entre 50 y 100 estaciones
terrenas, cada una de las cuales cubrirá una zona específica de hasta 3.000 kilómetros
de diámetro aproximadamente.
a. Ahorros en costes.
1) Simplificación de la infraestructura: Una única plataforma técnica
para voz y datos: Menor inversión, mantenimiento y formación.
2) Simplificación cableado de red: Unificación del cableado voz y
datos en Ethernet y posibilidad de compartir un único punto de red
entre PC y Teléfono.
3) Menores costes de gestión: Las extensiones se pueden reubicar
simplemente cambiando los teléfonos IP de sitio y punto de red.
4) Los cambios de configuración se pueden hacer en remoto.
5) Llamadas internas gratis entre sedes de una empresa.
6) Fácil acceso a proveedores VoIP, con llamadas muy económicas y
otros servicios avanzados de gran valor pero muy asequibles a
cualquier empresa.
b. Mejoras Funcionales.
1) Unificación del sistema de telefonía entre sedes:
a) Plan de numeración integrado.
b) Llamada directa extensión a extensión sin coste.
c) Centralización/Diversificación del puesto de operadora: Las
llamadas entrantes pueden dirigirse a cualquier operadora
independientemente de su ubicación, siguiendo criterios de
disponibilidad o carga de trabajo.
d) Gestión centralizada del sistema de telefonía.
4. Datagrama.
Un datagrama es un fragmento de paquete que es enviado con la suficiente
información como para que la red pueda simplemente encaminar el fragmento hacia
el equipo terminal de datos receptor, de manera independiente a los fragmentos
restantes. Esto puede provocar una recomposición desordenada o incompleta del
paquete en el ETD destino.
a. La estructura de un datagrama es: cabecera y datos.
Protocolos basados en datagramas: IPX, UDP, IPoAC, CL, los datagramas
tienen cabida en los servicios de red no orientados a la conexión (como por ejemplo
UDP) o Datagrama.
Agrupación lógica de información que se envía como una unidad de capa de
red a través de un medio de transmisión sin establecer con anterioridad un circuito
virtual. Los datagramas IP son las unidades principales de información de Internet.
Los términos trama, mensaje, paquete y segmento también se usan para describir las
agrupaciones de información lógica en las diversas capas del modelo de referencia
OSI y en los diversos círculos tecnológicos.
Un datagrama tiene una cabecera de IP que contiene información de
direcciones de la capa 3. Los encaminadores examinan la dirección de destino de la
cabecera de IP, para dirigir los datagramas al destino.
La capa de IP se denomina no orientada a conexión ya que cada datagrama se
encamina de forma independiente e IP no garantiza una entrega fiable, ni en
secuencia, de los mismos. IP encamina su tráfico sin tener en cuenta la relación entre
aplicaciones a la que pertenece un determinado datagrama.
5. ETD.
ETD; Equipo Terminal de Datos. Se considera ETD a cualquier equipo
informático, sea receptor o emisor final de datos.
El equipo terminal de datos o ETD (DTE, Data Terminal Equipment) es
aquel componente del circuito de datos que hace de fuente o destino de la
información. Puede ser un terminal, una impresora o también un potente ordenador.
La característica definitoria de un ETD no es la eficiencia ni la potencia de cálculo,
sino la función que realiza: ser origen o destino en una comunicación.
Un ETD fuente por lo general contiene la información almacenada en un
dispositivo de memoria principal permanente (que se modifica sin un flujo
electrónico continuo), el ETD destino es aquel que recibe una información o datos de
manera directa o indirecta, sin alterar el contenido de la información durante el total
del proceso.
Si solo los procesa y los envía sin modificarlo a un tercero sería un ETCD
(por ejemplo una computadora).
También definido como, Equipo Terminal de Datos. Lado de una interfaz que
representa al usuario de los servicios de comunicación de datos en una norma como
RS232C o X.25. Los ETD son generalmente ordenadores o terminales de ordenador.
ETCD Equipo terminal del circuito de datos, también conocido como ECD
(Equipo de Comunicación de datos, en inglés DCE). Un ETCD es todo dispositivo
que participa en la comunicación entre dos dispositivos pero que no es receptor final
ni emisor original de los datos que forman parte de esa comunicación. Es el
componente del circuito de datos que transforma o adecua las señales para poder
utilizar el canal de comunicaciones.Eustachian Tube Dysfunction
6. La Pantalla de Plasma.
a. Concepto.
Una pantalla de plasma (Plasma Display Panel – PDP) es un tipo de pantalla
plana habitualmente usada para grandes TV (alrededor de 37 pulgadas o 940 mm.).
Consta de muchas celdas diminutas situadas entre dos paneles de cristal que
contienen una mezcla de gases nobles (neón y xenón). El gas en las celdas se
convierte eléctricamente en plasma el cual provoca que una substancia fosforescente
(que no es fósforo) emita luz.
c. Características generales.
1) Las pantallas de plasma son brillantes (1000 lux o más por módulo),
tienen un ámplia gama de colores y pueden fabricarse en tamaños
bastante grandes, hasta 262 cm de diagonal.
2) Tienen una luminancia muy baja a nivel de negros, creando un negro
que resulta más deseable para ver películas.
3) Esta pantalla sólo tiene cerca de 6 cm de grosor y su tamaño total
(incluyendo la electrónica) es menor de 10 cm.
4) Los plasmas usan tanta energía por metro cuadrado como los
televisores CRT o AMLCD.
5) El consumo eléctrico puede variar en gran medida dependiendo de qué
se esté viendo en él. Las escenas brillantes (como un partido de fútbol)
necesitarán una mayor energía que las escenas oscuras (como una
escena nocturna de una película).
6) Las medidas nominales indican 400 vatios para una pantalla de 50
pulgadas. Los modelos relativamente recientes consumen entre 220 y
310 vatios para televisores de 50 pulgadas cuando se está utilizando en
modo cine.
7) La mayoría de las pantallas están configuradas con el modo “tienda”
por defecto y consumen como mínimo el doble de energía que con una
configuración más cómoda para el hogar.
8) El tiempo de vida de la última generación de pantallas de plasma está
estimado en unas 100.000 horas (o 30 años a 8 horas de uso por día) de
tiempo real de visionado. En concreto, éste es el tiempo de vida medio
estimado para la pantalla, el momento en el que la imagen se ha
degradado hasta la mitad de su brillo original. Se puede seguir usando
pero se considera el final de la vida funcional del aparato.
9) Los competidores incluyen a LCD, CRT, OLED, AMLCD, DLP,
SED-tv, etc. La principal ventaja de la tecnología del plasma es que
pantallas muy grandes pueden ser fabricadas usando materiales
extremadamente delgados. Ya que cada píxel es iluminado
individualmente, la imagen es muy brillante y posee un gran ángulo de
visión.
Plasma-display-composition
Figura N° 1
7. La Diafonía.
En Telecomunicación, se dice que entre dos circuitos existe diafonía,
denominada en inglés Crosstalk (XT), cuando parte de las señales presentes en uno de
ellos, considerado perturbador, aparece en el otro, considerado perturbado.
La diafonía, en el caso de cables de pares trenzados se presenta generalmente
debido a acoplamientos magnéticos entre los elementos que componen los circuitos
perturbador y perturbado o como consecuencia de desequilibrios de admitancia entre
los hilos de ambos circuitos.
La diafonía se mide como la atenuación existente entre el circuito perturbador
y el perturbado, por lo que también se denomina atenuación de diafonía.
a. Inteligibilidad de la diafonía.
Atendiendo a cómo son percibidas las señales perturbadoras, generadas en un
circuito como consecuencias de la diafonía, esta puede ser inteligible o no inteligible.
Como el mismo término indica, diafonía inteligible es aquella en que en el circuito
perturbado se oye y se entiende la conversación que se cursa por el circuito
perturbador.
Este tipo de diafonía es sumamente dañino por cuanto, además de la
perturbación en sí, supone un riesgo para el secreto de las comunicaciones que las
empresas operadoras de telefonía están obligadas a proteger, por lo que se
recomienda por la UIT que la diferencia entre el nivel de la señal útil y el nivel de la
diafonía entre los diversos pares de un mismo cable no debe ser inferior a 58 dB para
el 90% de las combinaciones de dos circuitos y de 52 dB para la totalidad de las
combinaciones.
Hay casos en que la diafonía es ininteligible, con lo cual en el circuito
perturbado solo se percibe como ruido. Esto sucede cuando la naturaleza de las
señales transmitidas por ambos circuitos son distintas, por ejemplo: analógica en uno
y digital en el otro o cuando se utiliza la multiplexación por división de frecuencia y
no coinciden las portadoras de los sistemas de transmisión empleados en cada uno de
los circuitos.
De hecho, en la época en que este tipo de multiplexación era ampliamente
utilizado, se recurría a disponer de varias versiones de un mismo sistema con las
portadoras desplazadas 1 o 2 KHz uno respecto a otro, con lo cual la diafonía era
siempre ininteligible.
En el caso de señales digitales en ambos circuitos, el objetivo es que la
diafonía se mantenga dentro de unos límites tales que no pueda ser reconocida como
Telediafonía.
Figura N° 2
8. WI-FI.
a. Concepto.
Es un sistema de envío de datos sobre redes computacionales que utiliza ondas
de radio en lugar de cables, además es una marca de la Wi-Fi Alliance (anteriormente
recibía el nombre de; la WECA: Wireless Ethernet Compatibility Alliance (Alianza
de Compatibilidad Ethernet Inalámbrica), la organización comercial que adopta,
prueba y certifica que los equipos cumplen los estándares 802.11.
b. Historia de la Wi-Fi
Nokia y Symbol Technologies crearon en 1999 una asociación conocida como
WECA (Wireless Ethernet Compatibility Alliance, Alianza de Compatibilidad
Ethernet Inalámbrica). Esta asociación pasó a denominarse Wi-Fi Alliance en 2003.
El objetivo de la misma fue crear una marca que permitiese fomentar más fácilmente
la tecnología inalámbrica y asegurar la compatibilidad de equipos.
De esta forma en Abril de 2000 WECA certifica la inter–operatibilidad de
equipos según la norma IEEE 802.11b bajo la marca Wi-Fi. Esto quiere decir que el
usuario tiene la garantía de que todos los equipos que tengan el sello Wi-Fi pueden
trabajar juntos sin problemas, independientemente del fabricante de cada uno de ellos.
Se puede obtener un listado completo de equipos que tienen la certificación Wi-Fi en
Alliance – Certified – Products. Para el año 2002 la asociación WECA estaba
formada ya por casi 150 miembros en su totalidad.
La norma IEEE 802.11 fue diseñada para sustituir el equivalente a las capas
físicas y MAC de la norma 802.3 (Ethernet). Esto quiere decir que en lo único que se
diferencia una red Wi-Fi de una red Ethernet es en cómo se transmiten las tramas o
paquetes de datos; el resto es idéntico. Por tanto, una red local inalámbrica 802.11 es
completamente compatible con todos los servicios de las redes locales (LAN) de
cable 802.3 (Ethernet).
c. El nombre.
Aunque se pensaba que el término viene de Wireless Fidelity como
equivalente a Hi-Fi, High Fidelity, que se usa en la grabación de sonido, realmente la
WECA contrató a una empresa de publicidad para que le diera un nombre a su
estándar, de tal manera que fuera fácil de identificar y recordar. Phil Belanger,
miembro fundador de Wi-Fi Alliance que apoyó el nombre Wi-Fi escribió:
Cita textual; “Wi-Fi y el "Style logo" del Ying Yang fueron inventados por la
agencia Interbrand. Nosotros (WiFi Alliance) contratamos Interbrand para que nos
hiciera un logotipo y un nombre que fuera corto, tuviera mercado y fuera fácil de
recordar. Necesitábamos algo que fuera algo más llamativo que “IEEE 802.11b de
Secuencia Directa”. Interbrand creó nombres como “Prozac”, “Compaq”,
“OneWorld”, “Imation”, por mencionar algunas. Incluso inventaron un nombre
para la compañía: VIVATO.”, fin de la cita.
Módem de WIFI.
Figura N° 4
9. Señalización E y M.
a. Concepto.
En telecomunicaciones se define como la comunicación que se da entre los
equipos de telecomunicaciones, entre centros de procesamiento, entre la central y el
abonado o entre bloques de software, para el establecimiento y liberación de las
llamadas, o para intercambiar información de gestión, tarificación, mantenimiento,
entre otros.
Por tanto un sistema de señalización es el conjunto normalizado y coordinado
de señales, las cuales intercambian los órganos que intervienen en una conexión, con
el fin de establecerla, supervisarla, mantenerla y eliminarla cuando los abonados que
intervienen en dicha conexión lo deseen.
Uno de los sistemas de señalización más populares es el Sistema de
Señalización por Canal Común N° 7 (SS7), desarrollado por AT&T a partir de 1975 y
definido como un estándar por el UIT-T en 1981 en la serie de recomendaciones
Q.7XX del UIT-T.
11. Un Fractal.
a. Concepto.
Un fractal es un objeto semi–geométrico cuya estructura básica, fragmentada
o irregular, se repite a diferentes escalas. El término fue propuesto por el matemático
Benoit Mandelbrot en 1975 y deriva del Latín fractus, que significa quebrado o
fracturado. Muchas estructuras naturales son de tipo fractal.
b. Características de un Fractal.
1) Es demasiado irregular para ser descrito en términos geométricos
tradicionales.
2) Posee detalle a cualquier escala de observación.
3) Es auto–similar (exacta, aproximada o estadística).
4) Su dimensión de Hausdorff–Besicovitch es estrictamente mayor que su
dimensión topológica.
5) Se define mediante un simple algoritmo recursivo.
No nos basta con una sola de estas características para definir un fractal. Por
ejemplo, la recta real no se considera un fractal, pues a pesar de ser un objeto auto–
similar carece del resto de características exigidas.
Un fractal natural es un elemento de la naturaleza que puede ser descrito
mediante la geometría fractal. Las nubes, las montañas, el sistema circulatorio, las
líneas costeras ó los copos de nieve son fractales naturales. Esta representación es
aproximada, pues las propiedades atribuidas a los objetos fractales ideales, como el
detalle infinito, tienen límites en el mundo natural.
c. Etapas de la comunicación:
1) Cuando el usuario final accede a un navegador de Internet instalado en
su computadora y solicita alguna información o teclea una dirección
electrónica, se genera una señal digital que es enviada a través de la
tarjeta de red hacia el módem.
2) El módem especial convierte la señal digital a formato analógico (la
modula) y la envía por medio de un cable coaxial a la antena.
3) La antena se encarga de radiar, en el espacio libre, la señal en forma de
ondas electromagnéticas (microondas).
4) Las ondas electromagnéticas son captadas por la radio base de la
empresa que le brinda el servicio, esta radio base a su vez la envía
hacia el nodo central por medio de un cable generalmente de fibra
óptica ó de otra radio de gran capacidad para conexiones punto a punto
en bandas de frecuencia disponibles (6GHz, 13GHz, 15GHz, 18GHz,
23GHz, 26GHz o 38GHz).
5) El nodo central valida el acceso del cliente a la red, y realiza otras
acciones como facturación del cliente y monitoreo del desempeño del
sistema.
6) Finalmente el nodo central dirige la solicitud hacia Internet y una vez
que localiza la información se envía la señal de regreso a la
computadora del cliente. Este proceso se lleva a cabo en fracciones de
segundo. Explica las 3 diferentes formas de conectar las redes.
Bluray
Figura N° 6
18. Inmarsat.
a. Concepto.
Inmarsat es una compañía basada en Reino Unido que provee soluciones de
Telecomunicación Satelital Móvil (TSM). Originalmente fue fundada como una
Organización Intergubernamental. Inmarsat cuenta con una constelación de 11
satélites geo–estacionarios con lo cual tiene una cobertura de casi todo el planeta,
exceptuando de los polos Norte y Sur.
Las soluciones de Inmarsat están orientadas a áreas fuera de cobertura de
sistemas de comunicación tradicional y entre sus usuarios principalmente se destacan
agencias gubernamentales, organismos internacionales, empresas de Petróleo & Gas,
Minería, transporte marítimo, entre otros. Inmarsat no atiende clientes directos sino a
través de su red mundial de distribuidores.
b. Características principales
1) Los servicios de Inmarsat incluyen tradicionalmente llamadas de voz,
telemetría y transmisión banda ancha.
2) La línea de producto más reciente de Inmarsat es la de las terminales
BGAN las cuales permiten transmisión de datos de hasta 492 Kbps en
terminales que van desde el tamaño de una notebook pequeña y con
peso desde 0.9 Kg.
3) El coste estimado de una llamada vía los sistemas de Inmarsat son de
1.49 USD x minutos y los de transmisión banda ancha de 6.00 USD X
Megabyte.
4) Los satélites de la nueva generación de Inmarsat F1 y F2 también
conocidos como los satélites I4 (cuarta generación de satélites de
Inmarsat) son los satélites comerciales de telecomunicación más grandes
lanzados hasta la fecha (agosto de 2008). Con solo estos dos satélites los
servicios Inmarsat basados en los satélites I4 tienen una cobertura de
más del 85% de la superficie terrestre.
5) Todas las líneas de Inmarsat cuentan con el código país 870 u 871,872,
873 y 874. A finales del año 2008 todas las líneas tendrán el
denominador común 870 y los demás códigos quedarán en desuso.
c. Tipos de Satélites.
Cobertura Lanzamiento
Satélite Servicios / Notas
Longitud Vehículos Fecha (GMT)
Satélites Inmarsat-4
Sea Launch Zenit Opera casi todos los servicios Inmarsat. Será
Inmarsat-4 F2 AOR-West 53° Oeste 8 Nov. 2005
3SL movido al 25° Este
Satélites Inmarsat-3
Inmarsat-3 F1 IOR 64° Este Atlas Centaur IIA 3 Abr. 1996 Servicios de voz y datos hasta 2.4 Kbps.
Inmarsat-3 F2 AOR-E 15.5° Oeste Protón D-1-E 6 Sep. 1996 Servicios de voz y datos hasta 2.4 Kbps.
Inmarsat-3 F3 POR 178° Este Atlas Centaur IIA 18 Dic. 1996 Servicios de voz y datos hasta 2.4 Kbps.
Inmarsat-3 F4 PAC-C 142° Oeste Ariane 4 (V97) 3 Jun. 1997 Servicios de alquiler de ancho de banda.
Inmarsat-3 F5 IND-W 25° Este Ariane 4 (V105) 4 Feb. 1998 Servicios de voz y datos hasta 2.4 Kbps.
Satélites Inmarsat-2 (Empleados principalmente en alquiler de ancho de banda)
Inmarsat-2
PAC-W 143.5° Este Delta II 30 Oct. 1990 vida operacional esperada hasta 2010
F1
Inmarsat-2
PAC-E 98° Oeste Delta II 8 Mar. 1991 vida operacional esperada hasta 2010
F2
Inmarsat-2
Ariane 44L 16 Dic. 1991 en desuso desde 2006
F3
Inmarsat-2
IND-W 25° Este Protón Abril 1992 vida operacional esperada hasta 2016
F4
19. VPN. (Red Privada Virtual).
a. Concepto.
La Red Privada Virtual (RPV), en inglés Virtual Private Network (VPN), es
una tecnología de red que permite una extensión de la red local sobre una red pública
o no controlada, como por ejemplo Internet.
Ejemplos comunes son, la posibilidad de conectar dos o más sucursales de una
empresa utilizando como vínculo Internet, permitir a los miembros del equipo de
soporte técnico la conexión desde su casa al centro de cómputo, o que un usuario
pueda acceder a su equipo doméstico desde un sitio remoto, como por ejemplo un
hotel. Todo ello utilizando la infraestructura de Internet.
b. Características.
1) Autenticación y autorización: ¿Quién está del otro lado? Usuario ó
equipo y ¿qué nivel de acceso debe tener?
2) Integridad: La garantía de que los datos enviados no han sido alterados.
Para ello se utiliza funciones de Hash. Los algoritmos de hash más
comunes son los Message Digest (MD2 y MD5) y el Secure Hash
Algorithm (SHA).
3) Confidencialidad: Dado que los datos viajan a través de un medio tan
hostil como Internet, dichos datos son susceptibles de intercepción, por
lo que resulta fundamental el cifrado de los mismos. De este modo, la
información no debe poder ser interpretada por nadie más que los
destinatarios de la misma. Se hace uso de algoritmos de cifrado como
Data Encryption Standard (DES), Triple DES (3DES) y Advanced
Encryption Standard (AES).
4) No repudio: Es decir, un mensaje tiene que ir firmado, y el que lo firma
no puede negar que el mensaje lo envió él.
c. Requerimientos básicos.
b. Identificación de usuario: las VPN deben verificar la identidad de los
usuarios y restringir su acceso a aquellos que no se encuentren
autorizados.
c. Codificación de datos: los datos que se van a transmitir a través de la
red pública (Internet), antes deben ser cifrados, para que así no puedan
ser leídos. Esta tarea se realiza con algoritmos de cifrado como DES o
3DES que solo pueden ser leídos por el emisor y receptor.
d. Administración de claves: las VPN deben actualizar las claves de
cifrado para los usuarios.
20. VLAN.
a. Concepto.
Una VLAN (acrónimo de Virtual LAN, ‘red de área local virtual’) es un
método de crear redes lógicamente independientes dentro de una misma red física.
Varias VLANs pueden coexistir en un único conmutador físico o en una única red
física.
Son útiles para reducir el tamaño del dominio de difusión y ayudan en la
administración de la red separando segmentos lógicos de una red de área local (como
departamentos de una empresa) que no deberían intercambiar datos usando la red
local (aunque podrían hacerlo a través de un enrutador o un switch capa 3).
Una 'VLAN' consiste en una red de ordenadores que se comportan como si
estuviesen conectados al mismo conmutador, aunque pueden estar en realidad
conectados físicamente a diferentes segmentos de una red de área local. Los
administradores de red configuran las VLANs mediante software en lugar de
hardware, lo que las hace extremadamente flexibles. Una de las mayores ventajas de
las VLANs surge cuando se traslada físicamente algún ordenador a otra ubicación:
puede permanecer en la misma VLAN sin necesidad de cambiar la configuración IP
de la máquina.
b. Protocolo y diseño.
El protocolo de etiquetado IEEE 802.1Q domina el mundo de las VLANs.
Antes de su introducción existían varios protocolos propietarios, como el ISL (Inter-
Switch Link) de Cisco, una variante del IEEE 802.1Q, y el VLT (Virtual LAN Trunk)
de 3Com.
Los primeros diseñadores de redes enfrentaron el problema del tamaño de los
dominios de colisión (Hubs) esto se logró controlar a través de la introducción de los
conmutadores pero a su vez se introdujo el problema del aumento del tamaño de los
dominios de difusión y una de las formas más eficientes para manejarlo fue la
introducción de las VLANs. Las VLANs también pueden servir para restringir el
acceso a recursos de red con independencia de la topología física de ésta, si bien la
robustez de este método es discutible al ser el salto de VLAN (VLAN hopping) un
método común de evitar tales medidas de seguridad.
Las VLANs funcionan en el nivel 2 (enlace de datos) del modelo OSI. Sin
embargo, los administradores suelen configurar las VLANs como correspondencia
directa de una red o subred IP, lo que les da apariencia de funcionar en el nivel 3
(red).
En el contexto de las VLANs, el término trunk (‘troncal’) designa una
conexión de red que transporta múltiples VLANs identificadas por etiquetas (o tags)
insertadas en sus paquetes. Dichos trunks deben operar entre tagged ports (puertos
etiquetados) de dispositivos con soporte de VLANs, por lo que a menudo son enlaces
conmutador a conmutador o conmutador a enrutador más que enlaces a nodos. (Para
mayor confusión, el término trunk también se usa para lo que Cisco denomina
«canales»; véase agregado de enlaces). Un enrutador (conmutador de nivel 3)
funciona como columna vertebral para el tráfico de red transmitido entre diferentes
VLANs.
En los dispositivos Cisco, VTP (VLAN Trunking Protocol) permite definir
dominios de VLAN, lo que facilita las tareas administrativas. VTP (Cisco) también
permite «podar», lo que significa dirigir tráfico VLAN específico sólo a los
conmutadores que tienen puertos en la VLAN destino.
a. Ventajas.
1) Resiste todo tipo de interferencias, tanto las no intencionadas como las
malintencionadas (más conocidas con el nombre de jamming), siendo
más efectivo con las de banda estrecha.
2) Tiene la habilidad de eliminar o aliviar el efecto de las interferencias
multisenda.
3) Se puede compartir la misma banda de frecuencia con otros usuarios.
4) Confidencialidad de la información transmitida gracias a los códigos
pseudoaleatorios (multiplexación por división de código).
b. Desventajas
1) Ineficiencia del ancho de banda.
2) La implementación de los circuitos es en algunos casos muy compleja.
23. METABUSCADOR.
a. Concepto.
Un metabuscador es una clase de buscador que carece de base de datos propia
y, en su lugar, usa las de otros buscadores y muestra una combinación de las mejores
páginas que ha devuelto cada buscador. Un buscador normal recopilan la información
de las páginas mediante su indexación, como Google o bien mantiene un amplio
directorio temático, como Yahoo. La definición simplista sería que un metabuscador
es un buscador de buscadores.
c. Ventajas.
1) Los metabuscadores amplían en forma notoria el ámbito de las
búsquedas que realizamos, proporcionando mayor cantidad de
resultados.
2) La forma de combinar los resultados depende del metabuscador
empleado.
3) Puesto que muchos multibuscadores muestran en los resultados la
posición de la web en los buscadores nos permite evaluar la relevancia
de cada web mostrada.
Hay que tener en cuenta que cada buscador utiliza su propia estrategia a la
hora recoger información de una página y a la hora de ordenar los resultados de las
búsquedas, esto repercute en que las páginas de mayor relevancia en un buscador no
tienen por qué coincidir en los del resto aportando puntos de vista distintos.
c. Desventajas.
1) Cada buscador dispone de su propia sintaxis de búsqueda y en el
metabuscador no se puede hacer distinción entre las diferentes sintaxis
de cada buscador.
2) Al buscar información muy específica es mejor emplear buscadores de
los que conozcamos la sintaxis.
3) Incertidumbre en los criterios que emplean los multibuscadores para la
ordenación de los resultados.
Al tener que buscar en varias fuentes, las búsquedas suelen tardar más que un
buscador normal. Muchos de los multibuscadores permiten establecer un tiempo
máximo para realizar la búsqueda.
24. PDA.
a. Concepto.
PDA, del inglés Personal Digital Assistant (Asistente Digital Personal), es un
computador de mano originalmente diseñado como agenda electrónica (calendario,
lista de contactos, bloc de notas y recordatorios) con un sistema de reconocimiento de
escritura.
En nuestros tiempos (2009) estos dispositivos, pueden realizar muchas de las
funciones de una computadora de escritorio (ver películas, crear documentos, juegos,
correo electrónico, navegar por Internet, reproducir archivos de audio, etc.) pero con
la ventaja de ser portátil.
b. Características.
Actualmente, un PDA típico tiene:
1) Una pantalla táctil para ingresar información.
2) Un slot de memoria para almacenarla.
3) Al menos Infrarrojo, Bluetooth ó WiFi.
4) Incluye por lo general un calendario.
5) Un directorio de contactos.
6) Algún programa para agregar notas.
7) También contienen soporte para navegar por la red y para revisar el
correo electrónico.
b. Ventajas.
1) Touch Screen.
Muchos PDAs como el Apple Newton y el Palm Pilot, tiene pantallas
táctiles para interactuar con el usuario, por lo que tienen muy pocos botones
reservados para abrir los programas más utilizados. Por lo general los PDAs con esta
pantalla tienen un lápiz desmontable, con el cual se realizan todas las tareas. Para
agregar texto por lo general se usan uno de los siguientes métodos:
Se usa un teclado virtual, y para agregar las letras hay que tocar cada una de ellas.
Se puede conectar un teclado externo conectado vía USB o Bluetooth.
Usando el reconocimiento de letras o palabras, y luego traduciéndolas a letras
dentro de la caja texto seleccionada.
Usando un reconocimiento de símbolos, donde cierto grupo de estos representa una
letra. Por lo general estos símbolos son fáciles de recordar.
Los PDAs diseñados para el uso en negocios, como el BlackBerry o el Treo
tienen teclados completos y scrolls para facilitar el ingreso de información, en vez de
usar una pantalla táctil. Los PDAs más nuevos como el iPhone o el iPod Touch
incluyen una nueva interfaz de usuario con otros medios de entrada. Estos PDAs usan
una tecnología llamada Multi-touch.
2) Memory Cards.
Aunque algunos PDAs no usan tarjetas de memoria, en la actualidad la
mayoría permite el uso de tarjetas SD. Además, unas cuantas tienen un puerto USB.
Para obtener un pequeño tamaño, además, ciertos PDAs ofrecen slots miniSD.
3) Conectividad por cable.
Aunque algunos PDAs antiguos se conectaban al PC usando un cable
serial, en la actualidad la mayoría usan un cable USB. Además de permitir la
conexión con el computador, sirven como puertos de alimentación de corriente
eléctrica en especial el USB.
4) Conectividad Inalámbrica.
Muchos de los PDAs modernos tienen conectividad Bluetooth, esto permite
conectar teclados externos, auriculares, GPS y mucho más accesorios. Además unos
cuantos poseen conectividad Wi-Fi, ésta nos permite conectarnos a redes
inalámbricas y nos permiten el acceso al Internet. Los PDAs antiguos disponían
además de un puerto infrarrojo, sin embargo muy pocos de los actuales tienen esta
tecnología, ya que es muy lento. El infrarrojo permite conectividad entre dos PDAs o
con cualquier otro accesorio que tenga uno de estos puertos.
5) Sincronización.
Una de las funciones más importantes de los PDAs es la sincronización con
los Ordenadores Personales. Esto permite la actualización del directorio, haciendo
que la información del computador y del PDAs sea la misma. La sincronización
también evita la pérdida de la información almacenada en caso de que el accesorio se
pierda, sea robado o destruido. Otra ventaja es que se puede ingresar información
mucho más rápido desde el computador y transmitirla luego al dispositivo. La
sincronización se realiza mediante un programa que entregan los fabricantes, los más
conocidos son el HotSync Manager (Palm OS) y el Windows Mobile Device Center
(Windows Mobile).
25. HANDHELD.
El término handheld del idioma Inglés que significa llevar en la mano y que su
nombre completo es Handheld Computer o Handheld Device, describe a un
ordenador portátil para diversas aplicaciones, que puede ser llevado a cualquier parte
mientras se utiliza.
Los computadores handheld, o también llamados PDA (Personal Digital
Assistants) son los llamados ordenadores de la palma de la mano y fueron diseñados
originalmente como organizadores personales, y ellos hacen esto realmente bien.
Las características básicas de cualquier PDA son una agenda, libreta de
direcciones, lista de tareas, y bloc de notas, aunque con el auge de los nuevos
procesadores y disponibilidad de software, ya se han potenciado las aplicaciones web,
juegos, y casi cualquier otra aplicación que se pueda pensar. Aunque estas primeras
características son muy provechosas para mantener a cualquier persona ordenada, la
característica que enganchó su uso para cualquier persona ocupada que utilice una
computadora de escritorio es la de la sincronización fácil de la información con el
ordenador del escritorio.
26. ISP.
a. Concepto.
Un proveedor de servicios de Internet (o ISP, por la sigla en idioma inglés de
Internet Service Provider) es una empresa dedicada a conectar a Internet a los
usuarios, o las distintas redes que tengan, y a dar el mantenimiento necesario para que
el acceso funcione correctamente. También ofrece servicios relacionados, como
alojamiento web o registro de dominios, entre otros.
b. Inicios.
Internet es un método de interconexión descentralizada de redes de
computadoras implementado en un conjunto de protocolos denominado TCP/IP, y
garantiza que redes físicas heterogéneas funcionen como una red lógica única, de
alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera
conexión de computadoras, conocida como ARPANET, entre tres universidades en
California y una en Utah, en los Estados Unidos.
a. Especificaciones técnicas.
El sitio de Altair ha sido elaborado en distintas plataformas. Las primeras
versiones fueron creadas en el editor HTML Microsoft Front Page. En el momento
permitió elaborar los recursos gráficos, textuales e hipertextuales necesarios para la
navegación y la funcionalidad básica del sitio. No obstante, pronto fue obvio para el
equipo del Altair que ésta no era la herramienta ideal para el desarrollo funcional e
interactivo de la emisora virtual. En total, sólo las dos primeras versiones del sitio
fueron elaboradas con Front Page.
A partir del año 2002 se implementa el uso de la Suite Macromedia MX para
las funciones generales del sitio, entre las que se incluye el rediseño gráfico y de
usabilidad del sitio con Macromedia Dreamweaver MX. Con estas versiones se hace
posible la integración de los elementos HTML con elementos interactivos de Flash,
tales como botones, reproductores y banners. El laboratorio, en ese entonces
denominado Altair hipermedia, diseñó su sitio en Dreamweaver MX hasta 2003.
En el año 2004 se adquiere la nueva versión de la Suite Macromedia, la
MX2004, que permitió un mejoramiento sustancial en las herramientas gráficas,
multimedia, hipermedia y web.
En los años 2005 y 2006 se da un nuevo paso en la elaboración del sitio de
Altair. Se comienza a probar el gestor de contenidos Joomla! como una nueva
alternativa en la generación y el desarrollo web. No obstante, no es sino hasta el año
2008 que se adopta definitivamente un gestor de contenidos como base para la
creación del sitio. El sistema elegido fue WordPress, que al igual que Joomla!, es una
aplicación construida en PHP, de código abierto, con licencia GPL. Esto lo ha hecho
una herramienta predilecta para Altair, la cual es partidaria del uso de software y
contenidos libres. La versión del sitio para el año 2009 también fue elaborada en
WordPress.
b. Normativa de Aplicación.
Existe gran cantidad de normas que tratan la protección contra rayos entre
otras las siguientes:
Norma Organismo
IRAM 2184-1 y 2184-1-1 Instituto Argentino de Normalización y Certificación
IEC-61024-1, 61024-1-1, 610241-2 Comisión Electrotécnica Internacional.
NFPA 780 National Fire Protection Asociation (Estados Unidos de
América)
ENV 61024-1 Comunidad Europea
NF C 17-102 Asociación Francesa de Normalización
34. CNTI.
Los inicios de CNTI y su red Reacciun, se remontan al año 1981, cuando
Conicit creó el Sistema Automatizado de información Científica y Tecnológica
Saicyt, a fin de atender las necesidades de información de la comunidad científica y
tecnológica.
La red Saicyt fue diseñada para una base tecnológica X.25, tecnología reinante
para ese entonces. En el año 1983 se procedió a la adquisición de los equipos a la
empresa GTE y a partir de ese momento se comenzó su instalación. Para el año 1987
se culminó la instalación de todos los nodos y concentradores de la red en el territorio
nacional, a la vez que se firmó un convenio con CANTV, el cual permitía la
operación de la red Saicyt.
La red Saicyt se interconectó inicialmente a la red Telenet a través de un
enlace internacional que operaba a 9.600 bps. Mediante este enlace era posible
acceder a los servicios que esta red X.25 ofrecía. Los servicios de Saicyt se limitaron
esencialmente a conexiones con algunas bases de datos en el exterior, principalmente
el sistema Dialog. Los usuarios accedían a la red Saicyt por medio de líneas discadas
y módems.
Para el año 1990, la población de usuarios registrados que hacían uso del
sistema para acceder a dichas bases de datos era de unas 50 personas.
Para finales del año 1990, se instaló en Conicit un servidor bajo el sistema
operativo Unix, con la finalidad de ampliar la gama tan limitada de servicios, que
ofrecía la red.
En marzo de 1991, se comenzó a ofrecer el servicio de correo electrónico en
todo el país. A partir de ese momento y mediante una labor de promoción, con
universidades y centros de investigación, la población de usuarios comenzó a
experimentar un rápido crecimiento, alcanzando más de 2 mil usuarios registrados,
pertenecientes en su totalidad a la comunidad académica y científica.
Para finales del año 1991, se hizo efectiva la conexión a internet a través del
JvNCnet en la Universidad de Princenton (NJ), con lo cual se ampliaron los servicios
internacionales.
En el año 1992, se inició el cambio de la plataforma de la red Saicyt X.25,
hacia una red basada en los protocolos TCP/IP. Este cambio de plataforma se culminó
de manera satisfactoria en Mayo de 1993.
En julio de 1994, el Conicit y 13 instituciones académicas acordaron la
fundación de Reacciun, que comenzó a operar formalmente un año más tarde.
Para 1998 se incorporó la tecnología Frame Relay a la plataforma tecnológica
de la Red.
b. Misión.
El CNTI es una institución adscrita al Ministerio del Poder Popular para
Ciencia, Tecnología e Industrias Intermedias que tiene como razón de ser potenciar
los esfuerzos que en materia de informática se desarrollen en el Sector Gobierno y en
las Comunidades Organizadas, con el fin de contribuir a la eficiencia y efectividad
del Estado, así como impulsar el desarrollo y fortalecimiento de la capacidad nacional
del sector de las Tecnologías de Información.
c. Visión.
Consolidar un sistema de tecnologías de información del Estado, que apoye la
gestión de la Administración Pública, a la Comunidad Organizada y al ciudadano; y
haber contribuido a la creación de una fuerte industria nacional de software, todo ello
en concordancia con los principios de soberanía.
35. SUPERCONDUCTIVIDAD.
a. Reseña Histórica.
La historia de la superconductividad empieza en 1911 en Leiden, Países
Bajos. Allí H. Kamerlingh Onnes desarrolló las primeras técnicas criogénicas para
enfriar muestras hasta algunos grados por encima del cero absoluto (correspondientes
a cero Kelvin, es decir, menos doscientos, setenta y tres grados centígrados). Fue el
primero que consiguió llevar el helio hasta debajo de su punto de licuefacción
(4,2ºK), abriendo así el campo de las bajas temperaturas. Al principio, Kamerlingh
Onnes "monopolizó" completamente este campo, ya que Leiden fue, hasta 1923, el
único lugar del mundo que disponía de helio líquido.
En aquellas épocas se sabía que los metales tienen una resistividad que
disminuye de manera prácticamente lineal con la temperatura hasta unos veinte
Kelvin, y se quería saber qué ocurría con esta resistividad en las proximidades del
cero absoluto? ¿seguía decreciendo linealmente? ¿Tendía, quizás, a un valor
constante? O bien, ¿se remontaría hacia valores muy elevados, característicos de un
comportamiento aislante en vez de conductor?
Kamerlingh Onnes se dio cuenta muy pronto de que era necesario disponer
de metales muy puros, si quería obtener resultados libres de toda ambigüedad. Eligió
el mercurio, elemento que puede conseguirse con un alto grado de pureza mediante
sucesivas destilaciones y que además es conductor en estado metálico. De este modo,
y enfriando el mercurio a muy baja temperatura, pudo observar un fenómeno nuevo y
totalmente inesperado: a una temperatura de 4,2ºK, el mercurio pasaba bruscamente a
un estado en el que, repentinamente, no ofrecía resistividad alguna al paso de la
corriente eléctrica. Esta transición se manifestaba por una caída muy brusca de la
resistividad. Kamerlingh Onnes había descubierto la superconductividad.
En el año 1960 se demostró que el titanato de estroncio (SrTiO) se hace
superconductor, pero con una temperatura de transición muy baja: 0,3 Kelvin.
Posteriores estudios analizados en Rüshlikon permitieron aumentar esta temperatura
crítica hasta 0,8 Kelvin mediante el dopado del compuesto con niobio.
Diez años mas tardes en 1973, D.C. Johnston y sus colegas obtuvieron un
resultado más significativo con un oxido de titanio y litio (Li-Ti-O) : una temperatura
critica de 13,7 Kelvin. En 1975, A.W. Sleight y sus colaboradores observaron una
transición a 13 Kelvin en un compuesto de valencia mixta: un oxido de bario y plomo
dopado con bismuto (BaPbBiO). En esta formula el subíndice x indica la proporción
de bismuto sustituida en el plomo.
b. Concepto de Superconductividad.
Es la capacidad intrínseca que poseen ciertos materiales para conducir
corriente eléctrica con resistencia y pérdida de energía nulas en determinadas
condiciones.
La resistividad eléctrica de un conductor metálico disminuye gradualmente a
medida que la temperatura se reduce. Sin embargo, en los conductores ordinarios,
como el cobre y la plata, las impurezas y otros defectos producen un valor límite.
Incluso cerca de cero absoluto una muestra de cobre muestra una resistencia no nula.
La resistencia de un superconductor, en cambio, desciende bruscamente a cero
cuando el material se enfría por debajo de su temperatura crítica. Una corriente
eléctrica que fluye en una espiral de cable superconductor puede persistir
indefinidamente sin fuente de alimentación. Al igual que el ferromagnetismo y las
líneas espectrales atómicas, la superconductividad es un fenómeno de la mecánica
cuántica.
La superconductividad ocurre en una gran variedad de materiales, incluyendo
elementos simples como el estaño y el aluminio, diversas aleaciones metálicas y
algunos semiconductores fuertemente dopados. La superconductividad no ocurre en
metales nobles como el oro y la plata, ni en la mayoría de los metales
ferromagnéticos.
a. Historia.
Datex Inc. fue fundada en 1986 por siete fundadores, entre ellas Ken Kao, el
anterior presidente de D-Link. Tony Tsao fue nombrado consejero delegado y
presidente el 21 de junio del 2008.
D-Link Corporation dejó de llamarse Datex Systems Inc. en 1994, cuando
salió a Bolsa y se convirtió en la primera empresa de redes informáticas de Taiwan
Stock Exchange. Actualmente cotiza en las bolsas de valores TSEC y NSE.
b. Gama de productos.
Los productos de D-Link se dirigen al mercado de las redes informáticas y las
comunicaciones. Entre los productos para empresas figuran dispositivos de
conmutación, seguridad y redes inalámbricas, y entre los destinados a consumidores,
dispositivos inalámbricos, de banda ancha y para el hogar digital (reproductores de
medios, dispositivos de almacenamiento y vigilancia).
Ha sido la primera empresa del sector de las redes informáticas en lanzar los
productos Green Ethernet, con tecnología de ahorro de energía en sus switches
inteligentes no gestionables y en sus routers inalámbricos.
IV. CONCLUSIÓN.
No podemos finalizar el trabajo sin destacar que la información que se obtuvo
fue muy productiva, ya que en primer lugar respondió a nuestras interrogantes y en
segundo lugar nos ha servido de mucha utilidad. Allí pudimos conocer que en la
actualidad se cuenta con dispositivos de almacenamiento tan avanzados como lo es el
Blu–ray, también conocido como Rayo azul, que es un formato de disco óptico de
nueva generación de 12 cm de diámetro, igual que el CD y el DVD, para vídeo de alta
definición. Así como este dispositivo, también conocimos características de otros
como la Red por Microondas, que es una red inalámbrica que utiliza microondas
como medio de transmisión, donde el protocolo más frecuente es el IEEE 802.11b y
transmite a 2.4 GHz. Otra de ellas es la RPC (Llamada a Procedimiento Remoto),
que es un protocolo que permite a un programa de ordenador ejecutar código en otra
máquina remota sin tener que preocuparse por las comunicaciones entre ambos. Otro
prototipo es la Señalización por Hilos E y M, que es un tipo de señalización
telefónica, utilizado entre conmutadores analógicos de circuitos telefónicos, que se
caracteriza por el empleo de vías separadas para las frecuencias de señalización y las
de voz. También conocimos La pantalla de plasma, que fue inventada en 1964 en la
Universidad de Illinois por Donald L. Bitzer, Gene Slottow y el estudiante Robert
Willson.