Documentos de Académico
Documentos de Profesional
Documentos de Cultura
INDICE DE CONTENIDO
Introducción
Unidad No. 1
FUNDAMENTOS DE LA INGENIERIA EN TELECOMUNICACIONES
CAPITULO 1 CONCEPTUALIZACION
1.1 Ciencia
1.2 Características básicas de la ciencia
1.3 Ciencia y tecnología
1.4 Tipos de Ciencia
1.5 Ingeniería y tecnología
1.5.1 Ingeniería
1.5.2 Ingeniería de telecomunicaciones
1.5.3 Sistemas
CAPITULO 2 ANTECEDENTES
CAPITULO 3 ACTUALIDAD
CAPITULO 4 APLICACIONES
GLOSARIO
BIBLIOGRAFIA
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
INTRODUCCIÓN
Su gran impacto en todos los ámbitos de nuestra vida, hace cada vez más difícil que
podamos actuar eficientemente prescindiendo de ellas. Sus principales aportes son: el
fácil acceso a grandes fuentes de información, el procesamiento rápido y fiable de todo
tipo de datos, la disponibilidad de canales de comunicación inmediata, la capacidad de
almacenamiento, la automatización de trabajos, la interactividad y la digitalización de
la información, los cuáles han impactado todas las actividades humanas.
CAPITULO 1. CONCEPTUALIZACION
1. CIENCIA1[1]
1.1 DEFINICIÓN
La ciencia experimenta, descubre, observa, mide, crea teorías que explican el cómo y
por qué de las cosas; elabora técnicas y herramientas para su observación y medición;
hace hipótesis y cuestiona la naturaleza y sus fenómenos; crea conjeturas, discute o
rechaza; separa lo verdadero de lo falso, diferencia lo que tiene sentido de lo que no lo
tiene; nos dice como debemos llegar a donde queremos llegar y lo que queremos
hacer.
1[1]
FLOREZ Carlos, GALINDO Gladis, Ciencia y Conocimiento, Usta, Santafé de Bogotá. 1971. p 251.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
ANALISIS: La ciencia es analítica, porque los problemas que trata de resolver, son
descompuestos en sus elementos para entender y descubrir la forma como se
relacionan estos con el fenómeno que se esta investigando.
FALIBILIDAD: La ciencia es uno de los pocos sistemas creados por el hombre que
parte del principio de su posibilidad de equivocarse, de cometer errores. Por principio
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
1.3Ciencia y Tecnología
hombre, desde sus inicios, hasta la misma revolución científica técnica que ha
desarrollado:2[2]
LOS INICIOS: El hombre comenzó a dominar técnicas como el uso del fuego, de la
rueda, domesticar animales, hacer herramientas, fundir, cultivar, construir y a tener
conocimientos del calendario, de las matemáticas, etc.
1.4Tipos de Ciencia
2[2]
FACUNDO D, H Ángel, Ciencia tecnología e investigación, ICFES, Bogotá... p 18.
3[3]
HESSEN, J; Teoría Del conocimiento, Losada, Bs As; 1970. Pg 345
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
La ingeniería concebida por el conde Rumford quien en 1769 dijo que era “la aplicación
de la ciencia a los propósitos comunes de la vida”, sin embargo la más conocida fue la
dada en 1828 por el arquitecto Thomas Thedgord “el arte de dirigir las grandes fuerzas
de la naturaleza y usarlas en beneficio del hombre”. Aunque para esta época no se
había concebido en el papel de la ciencia y la tecnología lo que es la ingeniería, si se
hacia ver su enlace por el conjunto de métodos que utiliza y las transformaciones.
Otra definición dada por el Ingeniero Ardí Cross es: “Es el arte de tomar una serie de
decisiones importantes dado un conjunto de datos complejos e inexactos, con el fin de
obtener para un cierto problema y entre posibles soluciones, aquellas que funcionen
más satisfactoria”.
tecnología orienta a la ingeniería en el como hacer las cosas es decir la ciencia hecha
acción y la acción convertida en ciencia. La ingeniería se enmarca aquí como una
ciencia.
1.5.1 INGENIERIA
DEFINICIÓN
4[4]
DIXON, JOHR; Diseño en Ingeniería, inventiva, análisis y toma decisiones. Limusa. Wiley. México.
1970.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
5[5]
HOYOS VASQUEZ, Guillermo; Elementos para la comprensión de la Ciencia y la Tecnología. Colombia
al despertar de la modernidad; Ediciones Foro. Bogotá 1994. Pg 23
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
Los ingenieros químicos, tienen contactos con procesos químicos y biológicos que
toman las materias primas en productos valiosos, con perdida de material y consumo
de energía mínimo. Las habilidades necesarias incluyen todos los aspectos del diseño,
ensayo, escalamiento, operación, control y optimización.
Los ingenieros químicos tienen que ver con el diseño, y desarrollo de los productos,
como alimentos, drogas, plásticos, empaques, vidrios, productos químicos en general.
DEFINICIÓN
OBJETIVOS
Sistemas de telecomunicaciones.
Telefonía.
Comunicación Móvil.
Comunicaciones satelitales.
Radio y televisión.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
1.5.5 SISTEMA
1.5.5.1 DEFINICIÓN6[6]
Existen diversos conceptos y definiciones de sistemas que se han usado con frecuencia
en las distintas disciplinas y ocupaciones. Muchos han escuchado los términos sistema
social, sistema de producción, sistema financiero, sistema de administración, sistema
de instrucción, ingeniería de sistemas, etc. Desde aquí se ve la palabra en diferentes
campos, desde la industria hasta las ciencias puras.
Llama la atención las definiciones que han aportado diversos autores en su afán de
construir una teoría general de sistemas:
Banghart (1969), define sistema como un término que representa todas las actividades
que comprende un proceso de solución de problemas, desde su formulación, pasando
por la implementación, hasta llegar a las recomendaciones.
6[6]
ROMERO, Augusto, Teoría de sistemas; Universidad Pedagógica Nacional de Colombia. Bogotá 1978.
Mimeografiado. Pg 42
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
Finalmente, Banathy (1973) afirma que un sistema esta constituido por un conjunto
de partes de una organización diseñada para lograr objetivos específicos.
De las anteriores definiciones se puede deducir que sistema es un concepto que puede
referirse a un individuo, a una institución o a cualquier otra entidad. En su definición
participan elementos tales como: 1. conjunto de partes interactuando 2. Con
objetivos propios 3. cuyo logro se realiza a través de procesos. 4 para producir
resultados deseados; 5. El funcionamiento está determinado por límites identificables
en el contexto en el cual se ubica y 6. El mantenimiento de un sistema es posible
mediante el intercambio de energía e información con el contexto, a través de
procesos de control e información de retorno.
Lo anterior nos demuestra la carencia de principios y de una teoría general que pueda
ser aplicada a todos los sistemas.
Ryan (1969) establece las siguientes características como propias de los sistemas:
Este mismo autor ofrece cuatro principios generales, los cuales han sido aplicados al
estudio del funcionamiento de los sistemas y al desarrollo de nuevos sistemas:
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
PRINCIPIO I:
PRINCIPIO II
PRINCIPIO III
PRINCIPIO IV
Clasificación de los sistemas. Todos los internos de clasificación de los sistemas han
demostrado que ésta es una misión compleja y un proceso difícil. Una clasificación
inicial es la que divide los sistemas en deterministas y probabilistas.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
Si se observa la relación, todos los sistemas pueden ser considerados como parte de
un sistema mayor y, al mismo tiempo, considerárseles como formados por partes o
subsistemas. Esta situación determina la necesidad de clasificarlos según ciertos
niveles.
Otra clasificación de los niveles de los sistemas, es la presentada por Boulding (1956).
NIVEL DESCRIPCION
7[7]
BERTANLANFFY, L:V Teoría general de sistemas. Ed Boston, 1973, pg 99.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
CAPITULO 2. ANTECEDENTES
2. HISTORIA DE LA INGENIERIA8[8]
La ingeniería nace antes que la ciencia y la tecnología, es decir; a la par con el hombre
mismo. La ingeniería debe mirarse en el contexto de la historia general asociada con
los grandes eventos que han cambiado totalmente los sistemas de la vida humana
como: La revolución en la producción de alimentos (6000-3000 a.C), la aparición de la
sociedad urbana (3000-2000 a.C), el nacimiento de la ciencia griega (600-300) la
revolución en la fuerza motriz (Edad Media), el surgimiento de la ciencia moderna
(siglo XVII), el vapor y la revolución industrial, (siglo XVIII), la electricidad y los
comienzos de la ciencia aplicada (siglo XIX) la edad de la automatización siglo XX), la
revolución termonuclear, la revolución de la electrónica y la informática en una nueva
era del conocimiento.
Los comienzos de la ingeniería se cree que ocurrieron en Asia menor o África, hace
unos 8000 años; cuando el hombre empezó a cultivar plantas, domesticar animales y
construir casas en grupos comunitarios. Surge así, una revolución agrícola que partió
de la creatividad del trabajo humano para la misma producción y comercialización. El
más importante, hecho ocurre hacia el año 3000. A.C, cuando en las ciudades se dio
una administración central y comercio; apareciendo gobernantes, administradores,
sacerdotes que en un comienzo fueron llamados ingenieros porque afianzaron la
técnica. Inicia un acelerado proceso de interacción entre la sociedad urbana y la
ingeniería; generando nuevos conocimientos para los ingenieros. Se destaca la
producción del fuego a voluntad; la fusión de minerales para producir herramientas, el
desarrollo de los símbolos para la comunicación escrita, las técnicas de cálculo y la
aritmética y la normalización de pesas y medidas.
Desde el 3000 AC, empiezan las primeros esbozos arquitectónicos con grandes
palacios y templos. La religión impulsa así la actividad ingenieril y de conocimientos
para la construcción de estas obras, destacándose las pirámides. Imhotep, fue el
primer ingeniero conocido por la construcción de las pirámides de peldaños en
Saqarah, Egipto. Por lo tanto fue elevado a categoría de, Dios, aún después de su
muerte. Continúan ingenieros civiles, egipcios, persas, griegos y romanos, que sobre
métodos empíricos ayudados por la aritmética y la geometría, involucraron obras de
arquitectura.
8[8]
RIBEIRO, Darcy, El proceso de la civilización. Universidad del Valle.CALI. 1993.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
2.1 EN EL MUNDO
El uso del carbón de leña, la introducción del papel y pólvora por los árabes, la
invención de la imprenta y la brújula, contribuyeron a la dispersión del conocimiento.
Se destacan las expresiones significativas, plasmadas en catedrales góticas y en Islam
las construcciones escritas de los moros.
9[9]
HERNANDEZ, Miguel Ángel, La modernización social y el mundo moderno. Desarrollo tecnológico en
interacción social... Misión de ciencia y tecnología. Vol. 2, Tomo II. FONADE: 1.990.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
En esta época se hicieron los primeros intentos para producir la máquina de vapor por
parte de Papin y Newcomen. Aunque eran muy ineficientes marcaron el inicio de las
máquinas productoras de potencias. Cuarenta años más tarde, surgen cambios en el
desarrollo y descubrimientos dados por Henry Cort, para refinar el hierro fuente de
maquinarias y plantas de fuerza motriz.
Los cambios de la vida humana y las nuevas formas de hacer ciencia, originaron la
expansión de la Revolución Industrial, la consolidación de la Ingeniaría Civil como
profesión, creando una conciencia de la necesidad de la educación científica y técnica
como prerrequisito para la práctica de ingeniería. Aparece el método de la ciencia
aplicada como desarrollo significativo en el área.
10[10]
PÁGINA Internet; apuntes trabajos y monografías.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
2.2 EN COLOMBIA
Apenas en la edad media, nació el término ingenios, relacionándose con los asuntos de
la guerra. Mediante el uso de algunos materiales de la vida de los indígenas su
diversidad mostraba la eficiencia de estos recursos; muchos de los cuales portavoz no
fueron utilizados. Los materiales más usados por nuestros antepasados fueron de
11[11]
DUSSEL, Enrique, El encubrimiento del otro, Átropos. Bogotá.1992.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
origen animal, vegetal y mineral. Utilizaron las tierras colorantes, el azufre, la sal, las
cerámicas, los cueros, etc.
Se enfatiza en que una de las causas principales del descubrimiento de América fueron
los progresos de las ciencias y las técnicas europeas, y por eso Europa penetró la
ingeniería con el uso del hierro que no se podía producir acá; las aleaciones de cobre
para campanas, las técnicas de fabricación de losa, y con la construcción de las
murallas de Cartagena de las Indias los ingenieros españoles mostraron el aporte que
daban en la época a estas regiones.
En esta década los personajes como Pedro Alcántara Herran y Mariano Ospina
Rodríguez, representan la elite ilustrada que introduce una orientación técnica
trayendo instructores extranjeros de ciencias y el envió de jóvenes, familias
importantes ha centros del exterior.
12[12]
Sitio, INTERNET, monografías.com.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
A partir de que Benjamín Franklin demostró, en 1752, que los rayos son chispas
eléctricas gigantescas, descubrimiento de la electricidad; grandes inventos fueron
revolucionando este concepto, pues las grandes distancias cada vez se fueron
acercando. 1836 año en que Samuel F. B. Morse creo lo que hoy conocemos Telégrafo.
Tomas Edison, en 1874, desarrolló la telegrafía cuádruple, la cual permitía transmitir
dos mensajes simultáneamente en ambos sentidos.
A pesar de este gran avance, no era suficiente lo que lograba comunicar, es decir, esto
era insuficiente pues se requería de algún medio para la comunicación de la voz. Ante
esto, surge el teléfono, inventado por Alexander Graham Bell, que logra la primera
transmisión de la voz en 1876.
Así los primeros sistemas telegráficos y telefónicos utilizaban cable para lograr la
transmisión de mensajes. Con los avances en el estudio de la electricidad, el físico
alemán Heinrich Hertz descubre, en 1887 descubre las ondas electromagnéticas,
estableciendo las bases para la telegrafía sin hilos.
Pero no fue hasta el siglo XX, cuando se inventan los tubos al vacío y el surgimiento de
la electrónica, que se logran grandes avances, se inventa el radio, la primera emisión
fue en 1906 en los Estados Unidos. En 1925 existían ya 600 emisoras de radio en todo
el mundo.
Hasta aquí, la voz se ha logrado transmitir de un lugar a otro, pero que pasa con la
imagen, si una imagen dice más que mil palabras.
En 1826, físico francés Nicéphore Niepce utilizando una plancha metálica recubierta de
betún, expuesta durante ocho horas, consiguió la primera fotografía. Perfeccionando
este procedimiento, el pintor e inventor francés Louis Jacques Mandé Daguerre
descubrió un proceso químico de revelado que permitía tiempos de exposición mucho
menores, consiguiendo el tipo de fotografía conocido como daguerrotipo.
En el siglo XIX, se desarrolla este invento hasta llegar al cinetoscopio, presentado por
Tomas Edison en 1889 y lo patento en 1891. Los hermanos Lumière, presentan y
patentan el cinematógrafo en el año de 1895. Hasta el año de 1920 se le añade el
sonido. Creando así, el cine, muy disfrutado en nuestros días.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
Con esta nueva necesidad y estas herramientas, surgen las Redes de Computadoras,
las cuales son ya muy comunes en nuestros días, pero en los inicios de la transmisión
por televisión y con el uso de las computadoras, la especie humana logra lanzar un
vehículo espacial y tiempo después lanza los primeros satélites artificiales. Los cuales
son aparatos muy sofisticados con fines múltiples (científicos, tecnológicos y militares).
El primer satélite artificial, el Sputnik 1, fue lanzado por la Unión Soviética el 4 de
octubre de 1957. El primer satélite de Estados Unidos fue el Explorer 1, lanzado el 31
de enero de 1958, y resultó útil para el descubrimiento de los cinturones de radiación
de la Tierra.
CAPITULO 3. ACTUALIDAD
3. INGENIERÍA
Es decir, la pirámide de producción tiene una base amplia en pocos países, la oferta
extranjera aumenta en los pueblos que menos producen, porque tienen importaciones
considerables, economías débiles y poco poder adquisitivo.
13[13]
V, Sonia, HERNANDEZ, Silvana, Los grandes bloques mundiales. Revista de la facultad de
ingeniería.UNAM, Vol. 47 Marzo de 1997.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
Los primeros profesores se formaron en Europa y Estados Unidos de esa manera, los
modelos iniciales de formación de Ingenieros en Colombia fueron copias más o menos
fieles de aquellos modelos tradicionales.
14[14]
VALENCIA, Asdrúbal. La Ciencia y la tecnología en Colombia. Ciencia y tecnología y sociedad.
CESET-U de A. Medellín, 1997.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
Desde 1988 empezó a debatirse en el Congreso un Proyecto Ley, por el cual se dictan
disposiciones para el fomento de la investigación científica y el desarrollo tecnológico.
Este proyecto se convirtió en la ley 29 de febrero de 1990 conocida como la ley Marco
en Ciencia y tecnología que fue el eje de la Reforma Jurídica adoptada. Ella reconoce
la necesidad de la intervención del estado en la promoción y orientación del adelanto
científico y tecnológico.
15[15]
CERNUSCHI, Félix. Criterios modernos para la formación de ingenieros integrados. Número 3
Montevideo, junio 1.999. Sitio. WWW.fing.edu.uy/cey/.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
La carencia de apoyo a las ciencias, se vio reflejado en los primeros intentos por hacer
universidad, pues 1968 se creo COLCIENCIAS, como una entidad para formar el
desarrollo científico en el país, lo que demuestra que no ha realizado un esfuerzo
coherente y sostenido para crear una infraestructura científica y tecnológica.
Según el ICFES el porcentaje de titulo de ingeniería en 1976 era casi del 0% y las
maestrías no han pasado del 1%.16[16]
16[16]
COLCIENCIAS, Sistema nacional de Ciencia y Tecnología. Instrumentos jurídicos, Colciencias,
Bogotá.1991.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
Dentro de las ventajas hay coincidencia en que existe un mejor conocimiento del
medio geográfico y cultural y la exigencia de salarios de menos costos. Y dentro de las
desventajas hay cinco aspectos que resaltan como son: La debilidad del país en ciencia
y tecnología e investigación, para tecnología de punta, las limitaciones financieras por
el escaso acceso a créditos. La ingeniería extranjera que tiene alianzas nacionales con
los gobiernos de origen. En gestión tecnológica las empresas presentan grandes
debilidades de adaptación e innovación; los sistemas de comunicación e información
precarios y el no manejo de un idioma extranjero y la poca estructura tecnológica, la
privatización de empresas estatales y la debilidad gremial.
CAPITULO 4. APLICACIONES
4. REDES
Para iniciar el tema, es preciso abordar el concepto de red y algunas de sus formas.
Una Red es una manera de conectar varias computadoras entre sí, compartiendo sus
recursos e información y estando conscientes una de otra. Cuando las PC´s
comenzaron a entrar en el área de los negocios, el conectar dos PC´s no traía
ventajas, pero esto desapareció cuando se empezó a crear los sistemas operativos y el
Software multiusuario.
Según el lugar y el espacio que ocupen, las redes, se pueden clasificar en dos tipos:
las Redes de Área Local, que se expande en un área relativamente pequeña. Éstas se
encuentran comúnmente dentro de una edificación o un conjunto de edificaciones que
estén contiguos. Así mismo, una LAN puede estar conectada con otras LANs a
cualquier distancia por medio de línea telefónica y ondas de radio. Pueden ser desde 2
computadoras, hasta cientos de ellas. Todas se conectan entre sí por varios medios y
topología, a la computadora(s) que se encarga de llevar el control de la red es llamada
"servidor" y a las computadoras que dependen del servidor, se les llama "nodos" o
"estaciones de trabajo".
Los nodos de una red pueden ser PC´s que cuentan con su propio CPU, disco duro y
software y tienen la capacidad de conectarse a la red en un momento dado; o pueden
ser PC´s sin CPU o disco duro y son llamadas "terminales tontas", las cuales tienen
que estar conectadas a la red para su funcionamiento.Las LANs son capaces de
transmitir datos a velocidades muy rápidas, algunas inclusive más rápido que por línea
telefónica; pero las distancias son limitadas. Las Redes de Área Amplia, comúnmente
compuesta por varias LANs interconectadas y se encuentran en una amplia área
geográfica. Estas LANs que componen la WAN se encuentran interconectadas por
medio de líneas de teléfono, fibra óptica o por enlaces aéreos como satélites.
4.1.1 DEFINICIÓN
Las redes de computadoras han tenido un auge extraordinario en los últimos años y
han permitido intercambiar y compartir información entre diferentes usuarios a través
del correo electrónico, crear grupos de discusión a distancia sobre diversos temas,
tener acceso a bibliotecas electrónicas en lugares distantes, utilizar facilidades de
cómputo en áreas de geográficas diferentes y crear sistemas de procesamiento
distribuido de transacciones, por mencionar algunas de las aplicaciones que
actualmente se tienen. Todos estos beneficios que se derivan de la utilización de las
redes locales han sido posibles gracias a los avances logrados en el área de
comunicación de datos.
Las redes computacionales que operan en la actualidad están formadas por una
jerarquía de redes de área amplia, redes metropolitanas y redes locales
interconectadas entre sí. Las redes que operan en áreas geográficas reducidas tales
como un departamento, un edificio o una corporación son redes de área local. Algunas
de estas redes están interconectadas entre sí formando redes metropolitanas y estas a
su vez se interconectan a las redes de área amplia para permitir la comunicación entre
puntos muy distantes geográficamente hablando. También se tienen redes de área
local conectadas directamente a redes de área amplia.
Una red local aislada proporciona algunos beneficios; sin embargo, para poder explotar
el potencial que proporcionan las redes computacionales, será necesario que esta red
se interconecte con otras redes locales y con redes de área amplia.
Los enlaces (canales de comunicación) se pueden realizar con cables, fibras ópticas o
cualquier otro medio de comunicación.
Redes Locales: Conocidas como LAN (Local Area Networks), son usadas para
comunicar un conjunto de computadoras en un área geográfica pequeña,
generalmente un edificio o un conjunto de edificios cercanos o en un campus.
17[17]
www. Monografías.com. especial comunicamov
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
Redes de Area Amplia: Las redes de área amplia, también denominadas WAN (Wide
Area Networks), son las primeras redes de comunicación de datos que se utilizaron.
Estas redes cubren áreas geográficas muy grandes, del tamaño de un país o incluso
del mundo entero, como es el caso de la red Internet.
4.2.1 DEFINICIÓN18[18]
En 1876 se observa que cambios en las ondas de sonido al ser transmitidas, causan
que granos de carbón cambien la resistividad, cambiando por consiguiente la corriente.
18[18]
www.monografias.com.especiales. Redvoz.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
Paralelamente al desarrollo del telégrafo tuvo lugar el desarrollo del teléfono. El primer
teléfono para uso comercial se instaló en 1877. Este sistema tenía un tablero manual.
Permitía la comunicación por medio de la voz y el telégrafo a través de la misma línea,
valiéndose de comunicación alternada. Alrededor de 1908, los sistemas de discado se
habían difundido por casi la totalidad de EE.UU. Así, alrededor de 1920 se habían
establecido los principios básicos de telecomunicaciones, conmutación de mensajes y
control de línea. Los sistemas se construyeron con base en comunicación a través de la
voz y transmisión (ST/SP) de caracteres de datos. Luego de la Segunda Guerra
Mundial comenzó el desarrollo comercial del computador. Como estas primeras
máquinas eran orientadas a lotes, no existía la necesidad interconectarse con el
sistema de comunicación que abarcaba toda la nación. Sin embargo más adelante la
industria tomó conciencia de la conveniencia de que máquinas y gente hablaran entre
sí. Dado que el único sistema de comunicación disponible era el telefónico,
naturalmente, los computadores en evolución, habrían de desarrollarse siguiendo vías
que les permitieran usar este servicio.
4.3. IMAGEN
4.3.1 DEFINICIÓN
Dada la sofisticación del sistema de la visión humana, la predilección del ser humano
por las imágenes es sorprendente, no sólo una gran parte del cerebro esta dedicada a
la visión y al análisis visual sino que también la capacidad de transporte de información
de nuestro sistema visual es mucho mayor que el de cualquier otro de nuestros
sentidos.
De hecho, los psicólogos han determinado que cuando hablamos cara a cara, sólo el
siete por ciento de lo que es comunicado es transferido por el significado de las
palabras. Otro treinta y ocho por ciento proviene de cómo las palabras son dichas. Eso
deja al cincuenta y cinco por ciento restantes de la comunicación, tomar la forma de
señales visuales.
4.4.1 DEFINICIÓN
El servicio que une la telefonía móvil con el acceso a Internet, será el que haga crecer
ambos mercados de manera muy importante en los próximos años. La baja capacidad
de transmisión de datos de los sistemas de segunda generación de telefonía móvil, y
las reducidas dimensiones de las pantallas de los móviles no permitían una unión lo
suficientemente atractiva, pero si funcional. Bien es verdad que la aparición de WAP
permitió acceder a diversos contenidos de Internet desde el móvil, pero la nueva
generación de telefonía móvil mejorará la velocidad de conexión, y sus terminales
estarán más orientados a comunicaciones de diversas características (voz, datos,
imágenes,...) Esto convertirá a los móviles, agendas personales, laptops, y demás
dispositivos de mano, en los verdaderos dominadores del acceso a Internet, relegando
al ordenador a un papel secundario.
WAP surge ante la necesidad de acceder a Internet desde un móvil. Este conjunto de
protocolos permite establecer una conexión con Internet, e intercambiar información
con ésta. No está directamente vinculada con GSM, u otra tecnología similar. Puede
funcionar sobre tecnologías móviles de segunda o tercera generación (GSM, D-AMPS,
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
CDMA, UMTS...) Los teléfonos WAP cuentan con un navegador especial, que interpreta
páginas escritas en una versión reducida del HTML, denominada WML. Existe también
una versión reducida del JavaScript para navegadores WAP, conocida como WMLScript.
Las aplicaciones más extendidas de los teléfonos WAP serán el acceso a noticias, pago
de compras, recepción de avisos,... Debido a la restricción que imponen los terminales,
los gráficos se reducen al mínimo, a pesar de que la publicidad apuesta por este
medio.
En Japón, NTT DoCoMo lleva casi un año y medio prestando un servicio de acceso a
Internet desde el móvil, que está convirtiéndose en un avance de lo que puede suceder
cuando realmente la Internet móvil se implante. El servicio, conocido como i-mode, ha
supuesto una auténtica revolución en el país nipón, con tanto éxito que ha sufrido
caídas importantes debidas a la saturación del sistema. Incluso NTT DoCoMo suspendió
la publicidad durante algún tiempo, para intentar disminuir el elevado número de altas.
I-mode no utiliza WAP, sino que utiliza un HTML compacto, que lo que hace es adaptar
las páginas web HTML a los terminales móviles. Los teléfonos WAP podrían soportar
este servicio.
GPRS, EDGE y por supuesto UMTS, permitirán transmitir páginas mucho más
sofisticadas a los móviles, por lo que se espera que los terminales futuros sean en su
mayoría ocupados por pantallas, que permitan visualizar estas páginas.
4.5.1 DEFINICIÓN
Desde el principio de las telecomunicaciones dos han sido las opciones principales para
llevar a cabo una comunicación: con o sin hilos, por cable o por el aire. En realidad
ambas pueden participar en un mismo proceso comunicativo. Por ejemplo la
transmisión de un evento deportivo por televisión, en el que una cámara recoge la
señal y la transmite, generalmente por cable, a una unidad móvil encargada de
comunicarse vía radio con el centro emisor, que a su vez se comunica por cable con
una antena emisora que la distribuye por el aire a la zona que cubra la cadena de
televisión. De todas formas, en este caso se trata fundamentalmente de una
transmisión vía radio, pues es así como se distribuye la señal que previamente ha
producido la emisora (captar la señal con la cámara, llevarla al centro emisor y
procesarla).
19[19]
www.monografias .com.especieles.comunivamov.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
Sin embargo el cable es más inmune a amenazas externas, como el ruido o las
escuchas no autorizadas, y no tiene que competir con otras fuentes por el espacio
radioeléctrico, bien común más bien escaso. Dos, tres y más cables pueden ser
tendidos a lo largo de la misma zanja, y tomando las medidas adecuadas, no han de
producirse interferencias. Imaginar cuatro o cinco antenas apuntando en la misma
dirección. Resultado: un más que probable caos.
Los primeros sistemas de telefonía móvil terrestre, TACS, AMPS, NMT, TMA, NAMT,... o
de primera generación, eran analógicos. Los terminales eran bastante voluminosos, la
cobertura se limitaba a grandes ciudades y carreteras principales, y sólo transmitían
voz. La compatibilidad entre terminales y redes de diferentes países no estaba muy
extendida. NMT se utiliza en los países nórdicos, AMPS y TACS en EEUU, y NAMT en
Japón.
Cada estación trabaja con un rango de frecuencias, que delimita el número máximo de
llamadas simultáneas que puede soportar, puesto que a cada llamada se le asigna un
par de frecuencias diferente: una para cada sentido de la comunicación. Esto se
denomina FDM, o multiplexación por división en la frecuencia. Las celdas colindantes
no pueden utilizar las mismas frecuencias, para que no se produzcan interferencias.
Pero las celdas que están algo más alejadas si que podrían reutilizar estas frecuencias.
Y esto es lo que se hace. Se parte de una determinada cantidad de frecuencias
disponibles. Luego, teniendo en cuenta la densidad estimada de llamadas por área,
tanto el tamaño de la celda, como las frecuencias por celda y la reutilización de
frecuencias serán determinadas.
Después aparecen los sistemas de segunda generación, GSM, CDMA, TDMA, NADC,
PDC,... que son digitales. El tamaño de los terminales se hace cada vez más pequeño,
las coberturas se extienden, y se empiezan a transmitir datos, aunque a velocidades
muy pequeñas. Introduce el envío de mensajes SMS, hoy tan de moda. La
compatibilidad entre las distintas redes nacionales empieza a mejorar. GSM se
implanta en Europa y en otros países del resto del mundo. TDMA y CDMA en EEUU,
mientras que PDC en Japón.
En los sistemas CDMA, acceso con multiplexación por división de código, lo que se
hace es que cada llamada utiliza un código que le diferencia de las demás. Esto
permite aumentar el número de llamadas simultáneas o la velocidad de transmisión, lo
que se hace necesario ante los crecientes requerimientos de la telefonía móvil.
Hasta que la tercera generación se extienda, para lo que aún pueden quedar varios
años, los sistemas 2,5 supondrán un puente entre los de segunda generación y la
UMTS. En Europa, los operadores se están gastando auténticas barbaridades en
adquirir las licencias UMTS, con la esperanza de que será la tecnología que haga
explotar las comunicaciones. Pero mientras esto ocurre, los que poseen sistemas 2G ya
piensan en evolucionar a GPRS o EDGE.
En la tecnología móvil terrestre, las estaciones están en los satélites. Estos suelen ser
de órbita baja. Su cobertura prácticamente cubre todo el planeta. Esta es la principal
ventaja que presentan frente a la telefonía móvil terrestre. Las desventajas son de
mucho peso: mayor volumen del terminal a utilizar y precio de las llamadas y
terminales. Dos son los operadores que ofrecen este servicio a nivel mundial: Iridium y
GlobalStar. El primero está a punto de comenzar el derribo de sus satélites, debido a
las astronómicas deudas que ha contraído.
Durante los últimos meses ha intentado encontrar un comprador que se hiciera cargo
de las deudas, e intentará sacar el negocio a flote, pero no ha encontrado a nadie
dispuesto a tomar semejante riesgo. Sigue ofreciendo unos servicios mínimos a sus
antiguos clientes, pero ya no realiza ningún tipo de actividad comercial (publicidad,
captación de clientes,...). Además recomienda a sus clientes que busquen opciones
alternativas a sus servicios, porque en cualquier momento dejan de prestarlos. Su
constelación de satélites de órbita baja consta de 66 unidades situadas a 780 Km de la
Tierra. Utiliza tanto FDMA como TDMA. Cada satélite disponía de 48 haces o sectores.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
Sin embargo, GlobalStar no tiene tantos problemas. La principal razón, sus teléfonos
se conectan a las redes terrestres si la cobertura de éstas lo permite, y si no recurren
a los satélites. De este modo, buena parte de las llamadas tienen un coste asequible,
mientras que las que se realizan a través de los satélites se reducen a lo
absolutamente imprescindible. Su constelación cuenta con 48 satélites de órbita baja
situados a 1.414 Km de la Tierra. Utiliza CDMA, y cada satélite tiene 16 sectores. Tiene
previsto ofrecer comunicaciones de datos y fax a finales de 2000, principios de 2001.
Otros sistemas que están a punto de empezar a operar, o que anuncian sus servicios
para los próximos años son ICO, Skybridge y Teledesic, que prestarán otros servicios
aparte del de telefonía, como acceso a Internet a alta velocidad, radio búsqueda.
Entre los primeros sistemas podemos destacar EDACS, controlado por un equipo
fabricado por Ericsson, muy utilizado por bomberos, equipos de salvamento, policías,
ambulancias,... Es un sistema muy seguro, capaz de establecer la comunicación en
condiciones muy adversas. Los segundos se denominan sistemas Trunking, y su
funcionamiento es muy parecido al de la telefonía móvil automática (TMA), uno de los
primeros sistemas analógicos de telefonía móvil pública. La mayor diferencia es que
cuando no hay un canal libre para establecer una comunicación, TMA descarta la
llamada y el usuario debe reintentarlo después, mientras que las redes Trunking
gestionan estas llamadas, estableciendo una cola de espera, asignando prioridades
diferentes a cada llamada.
Dos de los sistemas Trunking más populares son Taunet, que es analógico, y Tetra,
que es digital. Este último es el resultado de un estándar europeo, y su equivalente
estadounidense es el APCO25. Ofrecen otras posibilidades, aparte de la comunicación
vocal, como envío de mensajes cortos, transmisión de datos, conexión a redes
telefónicas públicas.
Los primeros sistemas tan sólo emitían un sonido o pitido, que indicaba que alguien
estaba intentando decirnos algo. Luego, si así lo decidía el portador de la busca,
establecía una comunicación telefónica. Es muy útil para profesionales, que han de
desplazarse y no siempre están localizables, por ejemplo, médicos, técnicos de
mantenimiento, En una segunda fase, aparecieron sistemas más perfeccionados, con
envío de mensajes, aplicación de códigos.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
CAPITULO 5. DISEÑO
5. DISEÑO INGENIERIL
5.1 DEFINICION
De otra parte el método ingenieril se define: como una estrategia para producir el
mejor cambio con los recursos disponibles en una situación deficientemente entendida
o incierta.
Determinar las especificaciones significa, ampliar más los detalles, o sea, hacer
consideraciones como las siguientes:
20[20]
Wright, Paul, introducción a la ingeniería, Adisson Wesly, DEL: 1994.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
¿Cuáles partes del problema serán las más riesgosas para manejar?
Hallar las componentes físicas correctas de una estructura física (hallar, física)
Simular lo que queremos hacer antes de hacerlo, tantas veces como sea necesario
para tener confianza en el resultado final (simular, confianza).
El factor condicionante para aquellas partes del producto que estarían en contacto con
la gente (contacto con la gentes)
Una actividad creativa que trae a la existencia algo nuevo y útil que no existía
previamente (actividad creativa, útil que no existía)
La creación de un resultado final que satisface una necesidad humana mediante una
acción definida (creación, resultado que satisface necesidad humana, acción)
La actividad del diseño es planear y realizar una estrategia creativa para llevar a cabo
una tarea física, mental, moral o artística o satisfacer una necesidad. El propósito del
diseño es:
21[21]
DIXON,Cork. Diseño en Ingeniería. Inventiva, análisis y toma de decisiones. Limusa. Wiley. México.
1970.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
Otra actividad que se realiza en este contexto es el análisis de valor, que se aplica a
los procedimientos lo mismo que a los productos y su meta es reducir el costo excesivo
en el diseño. El concepto básico es que muchos de los diseños propuestos se pueden
mejorar notablemente, ya que el diseño original puede presentar costos excesivos,
aunque no existe ninguna limitante para aplicar la técnica de análisis de valor desde la
primera vez. Una manera de hacer este análisis es definir y evaluar la función. Hay
que hacer una distinción entre valor y función.
Al definir las funciones se deben expresar con un nombre y un verbo y dividir las de
cada componente en primarias y secundarias. Esta cuidadosa definición de las
funciones permitirá tener en cuenta las consideraciones ergonómicas y ambientales
necesarias. Así con todas estas metodologías se puede optimizar el diseño en todos
los sentidos y se estará en condiciones de avanzar al siguiente paso del método
ingenieril.
Esto significa comprobar que los materiales es decir los insumos, en sus
características, respondan plenamente a la magnitud del diseño. Al igual se debe
constatar que estén disponibles en la cantidad, formas, dimensiones y acabados que se
refieren.
Para optimizar el diseño, se requiere de las simulaciones con el modelo de diseño más
promisorio y las comprobaciones de la concordancia entre las dimensiones y los
materiales permiten optimizar el diseño seleccionado. Tales actividades permiten
detectar cuando se producen equivocaciones, fallas, accidentes, reparaciones, y
cambios si las decisiones se han basado en predicciones que no son precisas.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
Aun sin recurrir a herramientas tan sofisticadas, los diseños se pueden optimizar
teniendo presente que deben ser tan simples como se pueda. A menudo una solución
de ingeniería, que es específicamente simple en comparación con lo que realiza, se
describe como elegante. Puesto que la complejidad es lo contrario de la sencillez, la
elegancia es una regla de oro en el método ingenieril.
De conocer todas las regulaciones que gobiernan no solamente los ensayos sino
también el futuro desempeño de la solución en cuestión. Aunque en el país existen las
normas ICONTEC y hay podemos organizaciones de normas como las ASTM o las DIN,
lo normal será buscar conformidad con las normas internacionales ISO.
Hay que describir con los detalles suficientes los atributos físicos y las características
de funcionamiento de la solución propuesta, de manera que las personas que deben
aprobarla, los encargados de su construcción, y quienes la manejarán y conservarán,
puedan desempeñar satisfactoriamente sus funciones. El hecho de que alguien distinto
de nosotros por lo general construya, opere y cuide nuestras obras, hace que adquiera
especial importancia la presentación cuidadosa por escrito y la comunicación exacta de
ellas.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
Esto es fundamental porque entre los diseños y prototipos y los productos reales puede
haber grandes diferencias, bien porque no se siguen estrictamente las especificaciones
de diseño, bien porque no se cuenta con los equipos adecuados para efectuar los
procesos de fabricación y montaje, porque la habilidad y la experiencia del personal
encargado de esta fase son suficientes, por la combinación de varios de los anteriores
factores.
El análisis de fallas es una disciplina especializada para la que no todos los ingenieros
están capacitados. Sin embargo los diseñadores en general, deben estar en capacidad
de apreciar las causas por las que su diseño fallo. Si el ingeniero o grupo de trabajo
puede realizar este análisis sería magnifico, en caso contrario habrá que asesorarse de
los especialistas. En cualquier evento la determinación del por qué de una falla es
fundamental para hacer las correcciones necesarias sea en el diseño, en el material
utilizado, en el proceso de fabricación y montaje, en la operación o en el
mantenimiento.
Todas las causas de fallas no son, de ninguna manera imputables al diseño. En el caso
de los elementos y sistemas materiales, además de las causas señaladas, el ambiente
es fundamental y procesos como la oxidación, la corrosión, la degradación térmica el
desgaste y otras causas, que a veces son del todo previsibles en el diseño, pueden
ocasionar la falta.
CAPITULO 6
Para comprender con mayor facilidad cada una de las diferentes temáticas a tratar en
el presente material de estudio, es necesario primero que todo comprender los
principios y las leyes que rigen los circuitos eléctricos.
Los Circuitos Eléctricos y el Electromagnetismo son las teorías sobre las que se
fundamentan todas las demás ramas de la ingeniería electrónica. A lo largo del módulo
se irán describiendo diferentes modelos de circuitos y que gracias a la Teoría de
Circuitos será fácil comprender como se comportan los diferentes dispositivos que
hacen parte del sistema. De esta forma se comienza a ver la utilidad de la electrónica,
no sólo como modelado de dispositivos, sino como instrumento para diseñar circuitos
complejos.
Por último, hay que tener en cuenta que la teoría de Circuitos ha proporcionado un
lenguaje propio de la ingeniería electrónica. Todos los estudiantes deben familiarizarse
con este lenguaje lo antes posible, debido a que éste será utilizado no solo en el
transcurso del presente módulo sino que hará muy posiblemente parte de algunos
módulos posteriores.
Una de las leyes más importantes de la teoría de circuitos eléctricos es la ley de Ohm,
así llamada en honor a su descubridor, el físico alemán Georg Ohm. Ésta ley expresa
que la cantidad de corriente que fluye por un circuito formado por resistencias puras es
directamente proporcional a la fuerza electromotriz aplicada al circuito, e inversamente
proporcional a la resistencia total del circuito.
Ésta ley se aplica a todos los circuitos eléctricos, tanto a los de corriente continua (CC)
como a los de corriente alterna (CA), aunque para el análisis de circuitos complejos y
circuitos de CA deben emplearse principios adicionales que incluyen inductancias y
capacitancias.
Es una propiedad física intrínseca de la materia, que las caracteriza y por la cual sufren
la “Interacción Electromagnética”. Su unidad de medida es el Culomb y se representa
constantemente con la letra “q”. La carga eléctrica aparece en la naturaleza
cuantizada, es decir, siempre es múltiplo de una cantidad fundamental: el valor
absoluto de la carga eléctrica, ya sea del protón o del electrón es de: q = 1.6 10-19
culombios. Se clasifica en carga positiva y negativa; considerándose, que las cargas
del mismo signo se repelen mientras que las de signo contrario se atraen.
dW
V =
dq
Donde: q es la carga eléctrica y W el trabajo realizado.
Otra forma de calcularla es mediante la ley de Ohm
V = I ∗R
Donde: I es la corriente eléctrica y R la resistencia ofrecida por el elemento.
Req = R1 + R2 + R3 + ... + Rn
Lo cual nos indica que una sola resistencia de valor Req se comportará de la misma
forma que las n resistencias R1, R2, R3... Rn conectadas en serie. Una de las cosas que
se debe observar es que siempre que se calcula la Req en una asociación en serie, ésta
será mayor que cualquiera de las resistencias Rn que hacen parte del arreglo Serie.
Se dice que dos resistencias o más están en paralelo cuando se encuentran conectadas
entre el mismo par de nodos o puntos de unión y a través de ellas se presentará el
mismo nivel de tensión a la hora de aplicarle al circuito una fuerza electromotriz.
Si se tiene un grupo de resistencias en paralelo y se desea reemplazar éste grupo de
resistencias por una resistencia equivalente, tal como se ilustra en la figura
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
1 1 1 1 1
= + + +L +
R eq R1 R 2 R 3 Rn
Igualmente que en la asociación serie, R1, R2, R3... Rn. Nótese que siempre el valor de
la resistencia Req de una asociación paralelo es menor que la cualquiera de las Rn que
hacen parte del arreglo en paralelo.
Blanco 9
6.2.2 Condensadores:
atracción eléctrica entre las caras del mismo, en donde la única forma de descargarlo
será provocando una circulación de corriente entre las placas ya sea colocando una
resistencia de descarga entre ellas o estableciendo un corto circuito.
Los condensadores, al igual que las resistencias, se pueden conectar tanto en serie
como en paralelo:
Existe una gran variedad de condensadores; existen los cerámicos, los cuales están
construidos normalmente por una base tubular de dicho material con sus superficies
interior y exterior metalizadas en plata, sobre las cuales se encuentran los terminales
del mismo. Se utilizan comúnmente tanto en bajas como en altas frecuencias.
Otro tipo de condensadores es el de plástico, que está fabricado con dos tiras de
poliéster metalizado en una cara y arrolladas entre sí. Este tipo de condensador se
emplea en circuitos que funcionaran a frecuencias bajas o medias. Con este tipo de
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
Así como en las Resistencias y los Condensadores, también es posible agrupar las
bobinas en arreglos en serie y paralelo.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
Leq = L1 + L2 + L3 + L + L N
Siendo N el número de bobinas conectadas en Serie
1 1 1 1 1
= + + +L +
L eq L1 L2 L3 LN
Donde N es el número de bobinas que se conectan en paralelo.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
6.3.1 El Multímetro
Multímetro Digital
6.3.2 El Osciloscopio
Los osciloscopios pueden ser de dos tipos: Analógicos y Digitales. Los primeros
trabajan con variables continuas mientras que los segundos lo hacen con variables
discretas. Los primeros trabajan directamente con la señal aplicada, está una vez
amplificada desvía un haz de electrones en sentido vertical proporcionalmente a su
valor. En contraste los osciloscopios digitales utilizan un conversor analógico-digital
(A/D) para almacenar digitalmente la señal de entrada, reconstruyendo posteriormente
esta información en la pantalla.
Ambos tipos tienen sus ventajas e inconvenientes. Los analógicos son preferibles
cuando es prioritario visualizar variaciones rápidas de la señal de entrada en tiempo
real. Los osciloscopios digitales se utilizan cuando se desea visualizar y estudiar
eventos no repetitivos (picos de tensión que se producen aleatoriamente).
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
CAPITULO 7
7. DISPOSITIVOS SEMICONDUCTORES
7.1 SEMICONDUCTORES
Los materiales semiconductores son elementos que presentan cierta oposición al paso
de la corriente eléctrica, es decir, presentan una conductividad tal que dejan pasar
determinada cantidad de corriente eléctrica. Dentro de los materiales semiconductores
más utilizados en el campo de la electrónica se encuentran: El Silicio y el Germanio.
7.2 EL DIODO
una juntura común a los dos materiales semiconductores o también se le puede llamar
Cristal PN porque un diodo está formado por dos cristales semiconductores uno tipo P
y otro p tipo N.
Cada vez que un electrón y un hueco se difunden a través de la juntura se crea un par
de Iones (positivo y negativo).
Ion
Éstos iones están fijados en el cristal, pues no pueden moverse como los electrones de
la banda de conducción o como los huecos. Cada par de Iones (positivo y negativo) se
llaman DIPOLO. La presencia de un dipolo quiere decir que un electrón de la banda de
conducción y un hueco han sido quitados de circulación (caen en la órbita de valencia).
A medida que el numero de dipolos crece la región próxima a la juntura se agota de
cargas libres (electrones y huecos), debido a que se ionizan. Ésta región vacía de
cargas libres se denomina REGION DE DEFLECION O CAPA DE AGOTAMIENTO.
Podemos decir que cada dipolo genera un campo eléctrico. La fuerza de éste campo
aumenta cada vez que un electrón cruza la juntura por difusión debido a que se crean
mas iones (DIPOLOS). La existencia de éste campo entre iones es equivalente a una
diferencia de Potencial (Voltaje) entre la región P (Ánodo) y la región N (Cátodo),
denominada BARRERA DE POTENCIAL. A 25 grados centígrados que es la temperatura
ambiente, ésta barrera de potencial es aproximadamente igual a 0.3V para los diodos
de germanio y 0.7V para los diodos de Silicio. Es decir, que si un diodo de Silicio o de
Germanio le aplicamos un potencial externo mayor o igual a 0.7V o 0.3V
respectivamente, el diodo comienza a conducir debido a que se rompe la barrera de
potencial.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
diodo se recombinan con los huecos de la región P. Se puede considerar que todos los
electrones de la banda de conducción se recombinan en cuanto alcanza la juntura
produciéndose un flujo continuo de electrones desde el Terminal negativo de la fuente
hacia la juntura. Los electrones de la banda de conducción que desaparecen en la
juntura se transforman en electrones de valencia los cuales se desplazan hacia el
extremo izquierdo del cristal.
La corriente de saturación inversa (Is) casi se duplica en magnitud por cada 10°C de
cambio en la temperatura por encima de la temperatura ambiente (25°C).
El aumento de la capa de agotamiento se debe a que los nuevos IONES que se crean
aumentan la diferencia de potencial a través de la capa de agotamiento.
Cuando más ancha es esta capa mayor es la diferencia de potencial que se genera. La
capa de agotamiento detiene su crecimiento cuando la diferencia de potencial es igual
a su voltaje inverso aplicado.
En otras palabras para que el voltaje inverso aplicado al diodo no lo destruya por
avalancha se debe mantener la polarización inversa por debajo del voltaje de ruptura.
7.6.1 Símbolo
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
Resumen
1. En polarización directa solamente son necesarias unas pocas centésimas de
voltaje para originar aumentos de corriente considerables
2. En polarización inversa corrientes muy significantes se originan por cambios
grandes del voltaje hasta el punto en el cual se alcanza el valor del voltaje de
ruptura.
3. Tan pronto se sobrepasa el voltaje de ruptura, la corriente se incrementa
considerablemente en polarización inversa hasta alcanzar el punto cíe máxima
disipación de potencia la cual es destructiva para el diodo.
4. Ya sea en polarización directa o inversa el diodo se daña si se sobrepasa el
valor de máxima disipación de potencia
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
Lo descrito anteriormente nos sirve para reconocer de una forma visual los terminales
de conexión de un diodo semiconductor pero no para diagnosticar su comportamiento
diciendo si está o no en buen estado. Una forma para determinar si trabaja o no, es
probar con un ohmímetro las condiciones en que se encuentra el diodo, el instrumento
de medición puede ser análogo o digital y dependiendo del tipo de polaridad se obtiene
una lectura diferente. Luego es importante que identifiquemos la polaridad para saber
si es directa o invertida y estar seguros de la prueba que se realiza.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
Un método bastante fácil para comprobar la polaridad del ohmímetro, es usar un diodo
en buen estado con sus respectivos terminales intensificados. El procedimiento es el
siguiente:
• Conectamos el terminal positivo del multímetro (comúnmente el rojo) al ánodo
del diodo y el terminal negativo (comúnmente negro) al cátodo.
• Si el multímetro es de polaridad directa al diodo se polariza en sentido directo y
el medidor del ohmímetro nos indica una resistencia baja. Si el ohmímetro es
de polaridad invertida, para la misma conexión del diodo, este se polariza en
sentido inverso y la resistencia medida debe ser muy alta.
Con base en la curva característica del diodo, la cual describe una curva exponencial
creciente se aproxima a una vertical que pasa por el origen de coordenadas
cartesianas. Esta primera aproximación es muy importante y útil pues permite
considerar al diodo como un interruptor Neto, el cual en el momento de encontrarse en
la zona de conducción puede ser considerado como un corto circuito puro.
IR=(Vs-0.7)/R
VR=(Vs-0.7); VD=0.7
Es un interruptor abierto.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
CAPITULO 8
Su gran impacto en todos los ámbitos de nuestra vida, hace cada vez más difícil que
podamos actuar eficientemente prescindiendo de ellas. Sus principales aportes son: el
fácil acceso a grandes fuentes de información, el procesamiento rápido y fiable de todo
tipo de datos, la disponibilidad de canales de comunicación inmediata, la capacidad de
almacenamiento, la automatización de trabajos, la interactividad y la digitalización de
la información, los cuáles han impactado todas las actividades humanas.
El siglo XVIII fue la etapa de los grandes sistemas mecánicos que acompañaron a la
Revolución Industrial. El siglo XIX fue la época de la máquina de vapor. Durante el
siglo XX, la tecnología clave ha sido la recolección, procesamiento y distribución de
información, entre otros desarrollos tales como la instalación de redes telefónicas en
todo el mundo, a la invención de la radio y la televisión, el nacimiento y crecimiento
sin precedente de la industria de los computadores, así como a la puesta en orbita de
los satélites de comunicación y muchas cosas más.
A medida que avanzamos hacia los últimos años de este siglo, se ha dado una rápida
convergencia de estas áreas, y también las diferencias entre la captura, transporte
almacenamiento y procesamiento de información están desapareciendo con rapidez.
Todas las empresas con centenares de oficinas dispersas en diferentes lugares del
mundo desean conocer el estado actual de cada una de ellas, simplemente oprimiendo
una tecla. A medida que surgen en el mundo nuevas tecnologías capaces de recolectar,
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
mainframe, por lo cual no había una manera eficaz de compartir datos entre varios
computadores.
Se tornó evidente que el uso de disquetes para compartir datos no era un método
eficaz ni económico para desarrollar la actividad empresarial. La red a pie creaba
copias múltiples de los datos. Cada vez que se modificaba un archivo, había que volver
a compartirlo con el resto de sus usuarios. Si dos usuarios modificaban el archivo, y
luego intentaban compartirlo, se perdía alguno de los dos conjuntos de modificaciones.
Las empresas necesitaban una solución que resolviera con éxito los tres problemas
siguientes:
Redes Locales: Conocidas como LAN (Local Area Networks), son usadas para
comunicar un conjunto de computadores en un área geográfica pequeña,
generalmente un edificio o un conjunto de edificios cercanos o en un campus.
Redes de Area Amplia: Las redes de área amplia, también denominadas WAN (Wide
Area Networks), son las primeras redes de comunicación de datos que se utilizaron.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
Estas redes cubren áreas geográficas muy grandes, del tamaño de un país o incluso
del mundo entero, como es el caso de la red Internet.
Una de las primeras soluciones fue la creación de los estándares de Red de área local
(LAN - Local Area Network, en inglés). Como los estándares LAN proporcionaban un
conjunto abierto de pautas para la creación de hardware y software de red, se podrían
compatibilizar los equipos provenientes de diferentes empresas. Esto permitía la
estabilidad en la implementación de las LAN.
Las redes de computadores han tenido un auge extraordinario en los últimos años y
han permitido intercambiar y compartir información entre diferentes usuarios a través
del correo electrónico, crear grupos de discusión a distancia sobre diversos temas,
tener acceso a bibliotecas electrónicas en lugares distantes, utilizar facilidades de
cómputo en áreas de geográficas diferentes y crear sistemas de procesamiento
distribuido de transacciones, por mencionar algunas de las aplicaciones que
actualmente se tienen. Todos estos beneficios que se derivan de la utilización de las
redes locales han sido posibles gracias a los avances logrados en el área de
comunicación de datos
La Internet es la red de datos más importante del mundo, se compone de una gran
cantidad de redes de tipo LAN y WAN, grandes y pequeñas interconectadas entre sí.
Cada Computador es considerado como una fuentes o destino de la información que
viaja a través de la red. Toda conexión que se establece en una red se compone de
tres elementos esenciales: una conexión física, una conexión lógica y un conjunto de
aplicaciones.
Casi se puede decir, que toda empresa requiere al menos de la existencia de una Red
Corporativa, la cual permita la conexión a Internet, requiriendo con ello una cuidadosa
planificación. Aun para conectar computadores personales individuales (PC) a lnternet,
se requiere de un diseño y planificación básica bajo normas preestablecidas a nivel
mundial; entre ellas están los recursos computacionales necesarios para la conexión,
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
tales como una tarjeta de interfaz de red (NIC), un MODEM, el canal de datos
requerido, un proveedor de servicios y algunos otros elementos que son vitales para la
implementación y configuración de la Red.
Se debe tener en cuenta, que al diseñar una red, no basta con simplemente
interconectar equipos en forma física; es requerido implementar una configuración
lógica, la cual está conformada por la incorporación de protocolos de comunicación,
direccionamiento, niveles de seguridad, políticas de administración, entre otras reglas
antes de que un computador se pueda conectar a otros e incluso a la misma Internet.
La conexión física se realiza conectando una tarjeta adaptadora, tal como un módem o
una NIC, desde un PC a una red. Mediante la conexión física, es posible transferir las
señales entre los distintos PC dentro de la red de área local (LAN) y hacia los
dispositivos remotos que se encuentran ya sea en la misma red local o en a una red
remota como por ejemplo la Internet.
Tarjeta de red
Una tarjeta de interfaz de red (NIC), o adaptador LAN, es un dispositivo que permite
establecer una comunicación en red desde y hacia un PC. En los sistemas
computacionales actuales, es una tarjeta de circuito impreso que reside en una ranura
o está incorporada directamente en la Main Board o tarjeta madre y provee una
interfaz de conexión a los medios de red.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
Toda NIC se comunica con la red de datos a través de una conexión serial y con el
computador a través de una conexión paralela. La NIC mediante el uso de una Petición
de interrupción (IRQ), administra el envío y recepción de información entre los
diferentes equipos que hacen parte de la red. Un valor IRQ (petición de interrupción)
es número asignado por medio del cual el computador clasifica diferentes acciones a
realizar de acuerdo con las señales que constantemente recibe a través de los
diferentes periféricos que lo componen.
Al seleccionar una tarjeta de red o NIC, se deben tener en cuenta los siguientes
factores:
Existen diversos tipos de tarjetas propias para cada tipo de red. Las principales
características de una tarjeta de red son:
• Operan a nivel físico del modelo OSI : Las normas que rigen las tarjetas
determinan sus características, y su circuitería gestiona muchas de las
funciones de la comunicación en red como :
∗ Especificaciones mecánicas: Tipos de conectores para el cable, por
ejemplo.
∗ Especificaciones eléctricas: definen los métodos de transmisión de la
información y las señales de control para dicha transferencia.
∗ Método de acceso al medio: es el tipo de algoritmo que se utiliza para
acceder al cable que sostiene la red. Estos métodos están definidos
por las normas 802.x del IEEE.
• Los circuitos electrónicos que componen la tarjeta de red determinan
elementos tales como: velocidad de transmisión, tamaño del paquete, time-
out, tamaño de los buffers, entre otros aspectos. Una vez que estos
elementos se han establecido, empieza la verdadera transmisión,
realizándose una conversión de datos a transmitir a dos niveles:
∗ En primer lugar se pasa de paralelo a serie para transmitirlos como
flujo de bits.
∗ Seguidamente se codifican y a veces se comprimen para un mejor
rendimiento en la transmisión.
• Otro factor importante en toda NIC es la dirección física, la cual es un
concepto asociado a la tarjeta de red : Cada nodo de una red tiene una
dirección asignada que depende de los protocolos de comunicaciones que
esté utilizando. La dirección física habitualmente viene definida de fábrica,
por lo que no se puede modificar. Sobre esta dirección física se definen otras
direcciones, como puede ser la dirección IP para redes que estén
funcionando con TCP/IP.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
El módem convierte (modula) los datos de una señal digital en una señal analógica
compatible con otro sistema de comunicación estándar. El módem en el extremo
receptor (demodula) la señal, convirtiéndola nuevamente en una señal digital. Los
módems pueden ser internos o externos, los cuales pueden estar conectados a una
ranura de expansión, integrados en la Main Borrad o para conexión por puerto serie ó
USB.
La topología de anillo esta diseñada como una arquitectura circular, con cada nodo
conectado directamente a otros dos nodos. Toda la información de la red pasa a través
de cada nodo hasta que es tomado por el nodo apropiado. El anillo es fácilmente
expandido para conectar mas nodos, aunque en este proceso interrumpe la operación
de la red mientras se instala el nuevo nodo. Así también, el movimiento físico de un
nodo requiere de dos pasos separados: desconectar para remover el nodo y otra vez
reinstalar el nodo en su nuevo lugar.
Uno de los aspectos a tener en cuenta en éste tipo de topología, es que todas las
tramas de información que circulen por la red deben pasar por el nodo principal, con lo
cual un fallo en él, provocaría la caída de todo el sistema. Sin embargo, si llegara a
ocurrir un fallo en un determinado cable, sólo afecta al nodo asociado a él; situación
que no se presentaba en las topologías anillo y bus expuestas anteriormente. La
topología en Estrella es una buena elección y es la topología que más se está utilizando
a nivel mundial en el desarrollo de redes LAN.
Uno de los inconvenientes de la topología en anillo era que si el cable se rompía toda la
red quedaba fuera de servicio; sin embargo, con la implementación de la topología
mixta anillo-estrella, éste y otros problemas quedan resueltos.
Para implementar éste tipo de topología, se utiliza como punto central un concentrador
pasivo (hub), el cual implementará internamente el bus, al cual están conectados
todos los computadores y demás dispositivos existentes en la red. La única diferencia
que existe entre esta topología mixta y la topología en estrella con hub pasivo es el
método de acceso al medio utilizado.
Esta topología requiere de mucho cableado por lo que se la considera muy costosa y
poco rentable a medida que aumentan la cantidad de enlaces requeridos.
Tal como se hizo mención anteriormente, la topología lógica de una red es la forma en
que los hosts se comunican a través del medio. Los dos tipos más comunes de
topologías lógicas son: broadcast y transmisión de tokens.
La topología broadcast consiste en que cada host envía sus datos hacia todos los
demás hosts del medio de red. No existe un criterio u orden que los host deban seguir
para utilizar la red. Es decir, que cada host tiene la misma probabilidad de transmitir
siempre y cuando el medio no se encuentre ocupado por alguna otra transmisión.
La FDDI (Fiber Distribuited Data Interfaz) es un estándar nuevo para redes de área
local de alta velocidad. Se trata de un modelo presentado por ANSI y que los
organismos internacionales están pensando en normalizar. Sus principales
características son:
Existen adicionalmente una serie de factores que se deben tener en cuenta a la hora
de seleccionar una topología de red específica. Estos factores son:
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
Existe una gran variedad de equipos de networking, los cuales desempeñan un papel
fundamental en alguno de los procesos existentes en una red de datos. Los equipos
que se conectan de forma directa a un segmento de red se denominan dispositivos.
Estos dispositivos se clasifican en dos grandes grupos. El primer grupo está compuesto
por los dispositivos de usuario final.
Los dispositivos de usuario final que conectan a los usuarios con la red también se
conocen con el nombre de hosts; estos dispositivos permiten a los usuarios compartir,
crear y obtener información. Los dispositivos host pueden existir sin una red, pero sin
la red las capacidades de los hosts se ven sumamente limitadas. Los dispositivos host
están físicamente conectados con los medios de red mediante una tarjeta de interfaz
de red (NIC). Utilizan esta conexión para realizar las tareas de envío de correo
electrónico, impresión de documentos, escaneado de imágenes o acceso a bases de
datos. Cada NIC individual tiene un código único, denominado dirección de control de
acceso al medio (MAC). Esta dirección se utiliza para controlar la comunicación de
datos para el host de la red. No existen símbolos estandarizados para los dispositivos
de usuario final en la industria de networking. Son similares en apariencia a los
dispositivos reales para permitir su fácil identificación.
Los dispositivos de red son los que transportan los datos que deben transferirse entre
dispositivos de usuario final. Los dispositivos de red proporcionan el conjunto de las
conexiones de cable, la concentración de conexiones, la conversión de los formatos de
datos y la administración de transferencia de datos. Algunos ejemplos de dispositivos
que ejecutan estas funciones son los repetidores, hubs, puentes, switches y routers.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
Un repetidor es un dispositivo de red que se utiliza para regenerar una señal. Los
repetidores regeneran señales analógicas o digitales que se distorsionan a causa de
pérdidas en la transmisión producidas por la atenuación. Un repetidor no toma
decisiones inteligentes acerca del envío de paquetes como lo hace un router o puente.
Fuente: www.Netgear.com
Los hubs concentran las conexiones. En otras palabras, permiten que la red trate un
grupo de hosts como si fuera una sola unidad. Esto sucede de manera pasiva, sin
interferir en la transmisión de datos. Los hubs activos no sólo concentran hosts, sino
que además regeneran señales.
conectan las LAN, sino que además verifican los datos para determinar si les
corresponde o no cruzar el puente. Esto aumenta la eficiencia de cada parte de la red.
Fuente: www.dlink.com
Los switches de grupos de trabajo agregan inteligencia a la administración de
transferencia de datos. No sólo son capaces de determinar si los datos deben
permanecer o no en una LAN, sino que pueden transferir los datos únicamente a la
conexión que necesita esos datos. Otra diferencia entre un puente y un switch es que
un switch no convierte formatos de transmisión de datos.
Fuente:www.cisco.com
Los routers poseen todas las capacidades indicadas arriba. Los routers pueden
regenerar señales, concentrar múltiples conexiones, convertir formatos de transmisión
de datos, y manejar transferencias de datos. También pueden conectarse a una WAN,
lo que les permite conectar LAN que se encuentran separadas por grandes distancias.
Ninguno de los demás dispositivos puede proporcionar este tipo de conexión
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
CAPITULO 9
9.1 ANTENAS
Las Antenas están consideradas como uno de los elementos más importantes
requerido en un proceso de comunicación inalámbrico; estos dispositivos están
específicamente diseñados para radiar o recibir ondas electromagnéticas, adaptando
en todo momento ondas guiadas, las cuales se transmiten a través de conductores o
guías, facilitando con ello su propagación en el espacio libre.
Una definición mucho más técnica, establecida por el Institute of Electrical and
Electronics Engineers (IEEE), define una antena como aquella parte de un sistema
transmisor o receptor diseñada específicamente para radiar o recibir ondas
electromagnéticas (IEEE Std. 145-1983).
Las antenas pueden ser de diferentes tipos, esto varía según la aplicación que se
requiera y los parámetros de configuración y de sintonía propios del sistema de
transmisión o recepción, en donde el fin principal es el de poder concentrar una
cantidad de energía, lograr irradiarla y poder en algún instante detectar ésta energía
en un punto distante y convertirla nuevamente en su forma original para realizar una
tarea específica.
Se puede decir que las funciones básicas de una antena son dos: transmitir y recibir,
definiendo cada aplicación condiciones particulares sobre la direccionalidad de la
antena, niveles de potencia que debe soportar, frecuencia de trabajo y otros
parámetros que serán expuestos posteriormente.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
Una onda presenta dos características principales: frecuencia (f) y longitud de onda
(λ), ambas se encuentran relacionadas por la expresión que define la velocidad de
propagación en el medio, en el caso particular, las ondas electromagnéticas pueden
viajar a la velocidad de la luz (c=3*108m/s=λf) considerándose la velocidad de
propagación de una onda en el vacío.
Debido a la gran cantidad de ondas electromagnéticas que viajan a través del espacio
constantemente, cada una de ellas con características propias según la aplicación que
las requiera, se ha visto la necesidad de clasificar éstas ondas según rangos de
frecuencias estableciéndose con ello divisiones acordes con cada aplicación según sea
el caso definidas por organismos de normalización o estandarización
A continuación se ilustran unos cuadros que muestran claramente éstas divisiones del
espectro electromagnético y sus principales características según sea requerido.
Según la aplicación que requiera el uso de antenas, es necesario tener claro el valor de
la frecuencia de la señal a irradiar; las antenas tienen unas características de
impedancia y de radiación las cuales dependen directamente del valor de la frecuencia
a utilizar. El análisis de dichas características se realiza a partir de las ecuaciones de
Maxwell en el dominio de la frecuencia, utilizando las expresiones de los campos en
forma compleja o fasorial. Cada aplicación y cada banda de frecuencias presentan
características peculiares que dan origen a una gran variedad de formas y tipos de
antenas. Según lo anterior, es posible clasificar las antenas en tres grandes bloque así:
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
Las antenas de transmisión deben ser capaces de manipular potencias grandes por lo
cual exige su construcción con materiales resistentes, sin embargo, para el caso de las
antenas de recepción basta con alambres de diámetros pequeños debido a que los
voltajes y corrientes que se circular a través de ellos son muy pequeños.
Existen casos en donde se utiliza la misma antena para enviar y recibir señales, hay
que tener en cuenta que las potencias utilizadas para transmisión son elevadas y las
potencias de recepción son bajas en cuyo caso es necesario incorporar un sistema de
aislamiento para transmisión y recepción con la misma antena evitando que grandes
cantidades de potencia puedan alcanzar el circuito receptor el cual es bastante sensible
en cuyo caso es recomendado utilizar un elemento especial para tal fin conocido como
diplexor
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
Para operar en un sistema de referencia es útil definir coordenadas, que son variables
escalares que permiten expresar los campos escalares y vectoriales así como los
elementos de arco, superficie y volumen que aparecen en las ecuaciones integrales.
Las superficies de coordenada constante son en este caso conos de eje z y cuyo vértice
pasa por el origen de coordenadas para θ constante, planos "verticales" que contienen
al eje z para la coordenada ϕ constante y esferas de radio variable r y origen en el
origen de coordenadas, como la indicada en la figura.
Una línea de transmisión de hilos paralelos no puede propagar con eficiencia energía
electromagnética, inclusive cables coaxiales, en donde la frecuencia de la señal sea
superior a 20GHz debido a diferentes factores de atenuación propias de los materiales
con los cuales esta constituida la línea de transmisión. Otra limitante ocurre cuando se
desean propagar señales de alta potencia las cuales no se pueden propagar por líneas
de transmisión convencionales por tal razón es necesario recurrir a medios físicos de
transmisión alternativa capaz de soportar estas adversidades en formas óptimas tales
como: fibra óptica y guías de onda.
Una guía de onda es un tubo de conductor hueco el cual puede ser rectangular, circular
o elíptico, sus dimensiones rigen las condiciones de propagación de ondas
electromagnéticas por su interior sirviendo su periferia como guía de conducción para
las ondas, una guía de onda no conduce corriente el sentido estricto, sus paredes son
conductores y permiten reflejar la energía electromagnética en su superficie.
En una guía de onda la propagación de la energía no ocurre sobre las paredes sino a
través del dieléctrico en el interior el cual en la mayoría de los casos fue aire, la
energía electromagnética que viaja por una guía de onda lo hace en trayectoria de
zigzag reflejándose y rebotando sobre las paredes que las constituyen.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
Es el tipo de onda mas popular que existe. Para que una onda electromagnética pueda
viajar a través de una guía de onda debe ser capaz de satisfacer las ecuaciones de
Maxwel, por tal razón, las ondas electromagnéticas deben propagarse en el interior de
la guía de onda en forma de zigzag porque si lo hiciera en línea recta el campo
eléctrico se pondría en corto con las paredes de la guía de onda evitando que la onda
se propagara en su interior.
c
VPH =
1 − ( fC / f )2
La fibra óptica es uno de los medios físicos de transmisión mas importantes y utilizados
en el mundo debido a las bondades que ofrece en procesos de comunicación. La fibra
óptica está constituida por filamentos de vidrio (compuestos de cristales naturales) o
plástico (cristales artificiales), del espesor de un pelo (entre 10 y 300 micrones).
Llevan mensajes en forma de haces de luz que realmente pasan a través de ellos de
un extremo a otro, donde quiera que el filamento vaya (incluyendo curvas y esquinas)
sin interrupción.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
Las fibras ópticas está reemplazando los cables de cobre convencionales, tanto en
pequeños ambientes autónomos (redes hogareás), como en grandes redes geográficas
(Internet y aplicaciones de voz, video y datos en banda ancha).
El principio que permite enviar una señal a través de una fibra óptica se basa en la
transmisión de luz por reflexión interna total; la luz que viaja por el centro o núcleo de
la fibra incide sobre la superficie externa con un ángulo mayor que el ángulo crítico, de
forma que toda la luz se refleja sin pérdidas hacia el interior de la fibra. Así, la luz
puede transmitirse a larga distancia reflejándose miles de veces.
la Fibra Óptica es considerada como una guía de luz y que adicionalmente en la fibra
óptica la señal no se atenúa tanto como en el cobre, debido a que en las fibras no se
pierde información por refracción o dispersión de luz consiguiéndose así buenos
rendimientos, sin embargo, en el caso del cobre, las señales se ven atenuadas por la
resistencia del material a la propagación de las ondas electromagnéticas de forma
mayor.
Cuando se desea transmitir una señal a través de la fibra óptica, se debe contar con un
dispositivo capaz de convertir las ondas electricas en ondas de luz, el cual puede ser
un Diodo Emisor de Luz (LED) o un LASER. Por ello se le considera el componente
activo de este proceso. Una vez es transmitida la señal luminosa por las minúsculas
fibras, en otro extremo del circuito se encuentra un tercer componente al que se le
denomina detector óptico o receptor, cuya misión consiste en transformar la señal
luminosa en energía electromagnética, similar a la señal original.
Los diodos emisores de luz y los diodos láser son fuentes adecuadas para la
transmisión mediante fibra óptica, debido a que su salida se puede controlar
rápidamente por medio de una corriente de polarización. Además su pequeño tamaño,
su luminosidad, longitud de onda y el bajo voltaje necesario para manejarlos son
características atractivas.
La figura muestra que sólo pueden ser transmitidos los rayos en línea recta, por lo que
se ha ganado el nombre de "monomodo" (modo de propagación, o camino del haz
luminoso, único). Son fibras que tienen el diámetro del núcleo alrededor de los 10
micrones. Si el núcleo está constituido de un material cuyo índice de refracción es muy
diferente al de la cubierta, entonces se habla de fibras monomodo de índice
escalonado. Los elevados flujos que se pueden alcanzar constituyen la principal ventaja
de las fibras monomodo, ya que sus pequeñas dimensiones implican un manejo
delicado y generan dificultades de conexión.
Es un tipo de fibra que presenta un núcleo mayor que el de la fibra monomodo entre
los 50 y 65 micrones, con éstas fibras se presenta una mayor dispersión de la señal y
con ello mayores pérdidas de potencia, se utiliza comúnmente en aplicaciones de larga
distancia pero no tan largas como las alcanzadas con una fibra monomodo logrando
establecer comunicaciones hasta 2Km de distancia. Debido a que no hay necesidad de
enviar un haz en línea recta, es posible el uso de LEDs como fuentes de luz.
Las fibras multimodo de índice de gradiente gradual tienen una banda de paso que
llega hasta los 500MHz por kilómetro. Su principio se basa en que el índice de
refracción en el interior del núcleo no es único y decrece cuando se desplaza del núcleo
hacia la cubierta. Estas fibras permiten reducir la dispersión entre los diferentes modos
de propagación a través del núcleo de la fibra.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
Su principal ventaja es el gran ancho de banda que ofrece, el cual, mediante técnicas
de multiplexación por división de frecuencias (WDM/DWDM), permiten enviar hasta
100 haces de luz (cada uno con una longitud de onda diferente) a una velocidad de
10Gb/s cada uno por una misma fibra, alcanzando velocidades de transmisión totales
hasta 10Tb/s.
Dentro de las desventajas ofrecidas por la fibra óptica frente a otros medios de
transmisión se pueden mencionar:
- Internet
El servicio de conexión a Internet por fibra óptica, derriba la mayor limitación del
ciberespacio: su exasperante lentitud. El propósito del siguiente artículo es describir el
mecanismo de acción, las ventajas y sus desventajas.
Esto se debe a que las líneas telefónicas, el medio que utiliza la mayoría de los 50
millones de usuarios para conectarse a Internet, no fueron creadas para transportar
videos, gráficas, textos y todos los demás elementos que viajan de un lado a otro en la
Red.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
Pero las líneas telefónicas no son la única vía hacia el ciberespacio. Recientemente un
servicio permite conectarse a Internet a través de la fibra óptica.
La fibra óptica hace posible navegar por Internet a una velocidad de dos millones de
bps, impensable en el sistema convencional, en el que la mayoría de usuarios se
conecta a 28.000 0 33.600 bps.
- Redes
La fibra óptica se emplea cada vez más en la comunicación, debido a que las ondas de
luz tienen una frecuencia alta y la capacidad de una señal para transportar información
aumenta con la frecuencia. En las redes de comunicaciones se emplean sistemas de
láser con fibra óptica. Hoy funcionan muchas redes de fibra para comunicación a larga
distancia, que proporcionan conexiones transcontinentales y transoceánicas. Una
ventaja de los sistemas de fibra óptica es la gran distancia que puede recorrer una
señal antes de necesitar un repetidor para recuperar su intensidad. En la actualidad,
los repetidores de fibra óptica están separados entre sí unos 100 km, frente a
aproximadamente 1,5 km en los sistemas eléctricos. Los amplificadores de fibra óptica
recientemente desarrollados pueden aumentar todavía más esta distancia.
Otra aplicación cada vez más extendida de la fibra óptica son las redes de área local.
Al contrario que las comunicaciones de larga distancia, estos sistemas conectan a una
serie de abonados locales con equipos centralizados como ordenadores
(computadoras) o impresoras. Este sistema aumenta el rendimiento de los equipos y
permite fácilmente la incorporación a la red de nuevos usuarios.
Red de área local o LAN, conjunto de ordenadores que pueden compartir datos,
aplicaciones y recursos (por ejemplo impresoras). Las computadoras de una red de
área local (LAN, Local Area Network) están separadas por distancias de hasta unos
pocos kilómetros, y suelen usarse en oficinas o campus universitarios. Una LAN
permite la transferencia rápida y eficaz de información en el seno de un grupo de
usuarios y reduce los costes de explotación.
Otros recursos informáticos conectados son las redes de área amplia (WAN, Wide Area
Network) o las centralitas particulares (PBX). Las WAN son similares a las LAN, pero
conectan entre sí ordenadores separados por distancias mayores, situados en distintos
lugares de un país o en diferentes países; emplean equipo físico especializado y
costoso y arriendan los servicios de comunicaciones. Las PBX proporcionan conexiones
informáticas continuas para la transferencia de datos especializados como
transmisiones telefónicas, pero no resultan adecuadas para emitir y recibir los picos de
datos de corta duración empleados por la mayoría de las aplicaciones informáticas.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
- Telefonía
Las fibras ópticas también se emplean en una amplia variedad de sensores, que van
desde termómetros hasta giroscopios. Su potencial de aplicación en este campo casi
no tiene límites, porque la luz transmitida a través de las fibras es sensible a
numerosos cambios ambientales, entre ellos la presión, las ondas de sonido y la
deformación, además del calor y el movimiento. Las fibras pueden resultar
especialmente útiles cuando los efectos eléctricos podrían hacer que un cable
convencional resultara inútil, impreciso o incluso peligroso. También se han
desarrollado fibras que transmiten rayos láser de alta potencia para cortar y taladrar
materiales.
La aplicación más sencilla de las fibras ópticas es la transmisión de luz a lugares que
serían difíciles de iluminar de otro modo, como la cavidad perforada por la turbina de
un dentista. También pueden emplearse para transmitir imágenes; en este caso se
utilizan haces de varios miles de fibras muy finas, situadas exactamente una al lado de
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
Son los únicos capaces de brindar tecnología de punta, la cobertura geográfica más
amplia, la mayor eficiencia de la inversión publicitaria, y servicio personalizado.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
GLOSARÍO DE TÉRMINOS
Corriente eléctrica: Flujo de carga por unidad de tiempo que circula a través de un
conductor. Su unidad de medida es el Amperio
Diseño: Estrategia creativa planeada para llevar a cabo una tarea física,
moral, artística o satisfacer una necesidad. El diseño satisface
una especificación funcional dada; responde a los requerimientos
explícitos en la realización (tiempo, espacio, energía, costo, etc) y
estructura (estilo, simplicidad, etc).
Flujo eléctrico: Es la medida del número de líneas de campo que atraviesa cierta
superficie. Cuando la superficie esta siendo atravesada encierra
alguna carga neta, el número total de líneas que pasan a través
de tal superficie es proporcional a la carga neta que esta en el
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Básicas, Tecnología e Ingeniería
Contenido didáctico del curso Introducción a la Ingeniería de Telecomunicaciones
Foto diodos: Son dispositivos semiconductores construidos con una unión PN,
sensible a la incidencia de la luz visible e infrarroja. Utilizados
comúnmente en circuitos de control en los que interactúen
sistemas electrónicos de alta y baja potencia o en campos
relacionados con las comunicaciones.
a un circuit electrico.